
Các chatbot tỏ ra thuyết phục hơn con người trong các cuộc tranh luận trực tuyến — đặc biệt là khi chúng có thể cá nhân hoá lập luận dựa trên thông tin về đối phương. Phát hiện này, được công bố trên tạp chí Nature Human Behaviour ngày 19-5, cho thấy các mô hình ngôn ngữ lớn (LLMs) có thể được sử dụng để tác động đến quan điểm của con người, chẳng hạn như trong các chiến dịch chính trị hoặc quảng cáo nhắm mục tiêu.
“Rõ ràng là khi mọi người thấy bạn có thể thuyết phục người khác hiệu quả hơn với LLM, họ sẽ bắt đầu sử dụng nó,” đồng tác giả nghiên cứu Francesco Salvi, một nhà khoa học tính toán tại Viện Công nghệ Liên bang Thụy Sĩ Lausanne (EPFL), cho biết. “Tôi thấy điều này vừa hấp dẫn vừa đáng sợ.”
Được lập trình để thuyết phục
Các nghiên cứu trước đây đã cho thấy chatbot trí tuệ nhân tạo (AI) có thể khiến người dùng thay đổi quan điểm, kể cả với các thuyết âm mưu, nhưng vẫn chưa rõ chúng thuyết phục hơn con người đến mức nào. Vì vậy, Salvi và các cộng sự đã cho 900 người ở Mỹ tranh luận trực tuyến trong 10 phút với đối thủ là con người hoặc GPT-4 của OpenAI.
Mỗi người sẽ được giao cho vai trò ủng hộ hoặc phản đối một vấn đề xã hội–chính trị do nhóm nghiên cứu lựa chọn, chẳng hạn như: học sinh có nên mặc đồng phục không, có nên cấm nhiên liệu hóa thạch không, hoặc AI có tốt cho xã hội không.
Trước khi bắt đầu, người tham gia điền vào một bảng khảo sát thông tin cá nhân: tuổi, giới tính, chủng tộc, trình độ học vấn, tình trạng việc làm và xu hướng chính trị. Sau đó, họ trả lời nhanh một số câu hỏi thể hiện mức độ đồng ý hoặc phản đối đề bài tranh luận — trước và sau cuộc tranh luận — để nhóm nghiên cứu đo lường sự thay đổi quan điểm.
Kết quả cho thấy: khi không có thông tin gì về đối thủ, GPT-4 thuyết phục tương đương con người về tính thuyết phục. Tuy nhiên, khi được cung cấp các thông tin cơ bản như trong bảng khảo sát ban đầu, GPT-4 vượt trội hơn con người trong 64% trường hợp.
“Khi chỉ có những thông tin rất cơ bản như vậy, GPT-4 vẫn thuyết phục hơn con người một cách đáng kể,” Salvi nói. “Đây là những dữ liệu đơn giản, có thể dễ dàng tìm thấy trên các hồ sơ mạng xã hội.”
Người tham gia cũng nhận ra họ đang tranh luận với AI hay người thật trong khoảng 75% trường hợp. Tuy nhiên, chưa rõ liệu biết đang nói chuyện với AI có khiến họ dễ thay đổi quan điểm hơn hay họ bị thuyết phục bởi lập luận thuần túy.
Biết cách “chạm đúng điểm”
Salvi cho biết GPT-4 đưa ra các lập luận khác nhau khi có thông tin cá nhân của người tham gia. Ví dụ: trong đề tài về đồng phục học đường, nếu đối phương có khuynh hướng chính trị thiên tả, AI có thể nhấn mạnh rằng đồng phục giúp giảm nguy cơ bắt nạt cá nhân. Nếu đối phương thiên hữu, AI có thể nói về tính kỷ luật hoặc trật tự xã hội.
“Nó giống như một người bạn cực kỳ thông minh, biết cách nhấn vào những điểm bạn quan tâm để đưa ra lập luận phù hợp,” Salvi nói.
Tiến sĩ Catherine Flick, chuyên gia đạo đức máy tính tại Đại học Staffordshire (Anh), cho rằng phát hiện này làm dấy lên lo ngại về việc con người lợi dụng chatbot vào mục đích xấu, “từ việc dụ người khác chuyển tiền, thay đổi quan điểm chính trị cho đến xúi giục phạm tội”.
“Thực tế rằng các mô hình này có thể thuyết phục tốt hơn con người thật sự rất đáng sợ,” bà nói thêm.
Salvi cũng chia sẻ những lo ngại này. Tuy nhiên, ông cũng hào hứng với các ứng dụng tích cực của LLMs, chẳng hạn như khuyến khích chế độ ăn lành mạnh và bền vững hơn hoặc giảm chia rẽ chính trị. Ông nhấn mạnh rằng cần có các cuộc thảo luận rộng rãi về trách nhiệm, tính minh bạch và biện pháp an toàn, nếu muốn AI tạo ra tác động tích cực cho xã hội.
Một chatbot có thể thuyết phục hơn đối thủ là con người trong các cuộc tranh luận. Ảnh: Getty