Một nghiên cứu mới của Trường Khoa học Máy tính thuộc Đại học Carnegie Mellon cho thấy các hệ thống trí tuệ nhân tạo càng tiên tiến thì càng có xu hướng hành xử ích kỷ, giảm mức độ hợp tác.
Điều này đặt ra lo ngại trong bối cảnh con người ngày càng dựa vào AI để tư vấn, giải quyết mâu thuẫn cá nhân và đưa ra các quyết định xã hội nhạy cảm, tức là họ cũng có thể sẽ hành xử ích kỷ hơn theo gợi ý của AI.
Nhóm nghiên cứu tại Viện Tương tác Người – Máy tính (HCII) nhận thấy các mô hình ngôn ngữ lớn (LLM) có khả năng suy luận thường ít hợp tác hơn và có thể làm gia tăng hành vi vụ lợi trong môi trường nhóm. Nói cách khác, khi AI giỏi suy nghĩ theo logic hơn, nó lại kém sẵn sàng hỗ trợ vì lợi ích chung.
“Có một xu hướng nhân hoá AI ngày càng mạnh,” nghiên cứu sinh tiến sĩ Yuxuan Li cho biết. “Khi AI hành xử giống người, người dùng dễ xem nó như người thật, thậm chí dựa vào nó ở những vấn đề tình cảm hay xã hội. Đó là rủi ro nếu AI bắt đầu ra quyết định theo hướng ích kỷ.”
AI suy luận nhiều hơn, hợp tác ít hơn
Li và đồng tác giả, Phó giáo sư Hirokazu Shirado, so sánh hành vi của các hệ thống AI có khả năng suy luận với các hệ thống không có tính năng này trong những tình huống cần hợp tác. Các mô hình suy luận thường phân tích sâu hơn, chia nhỏ vấn đề và tự kiểm tra câu trả lời — nhưng quá trình này đôi khi lại dẫn tới ưu tiên lợi ích cá nhân thay vì lợi ích nhóm.
“AI thông minh hơn thể hiện xu hướng hợp tác kém hơn,” Shirado nói. “Điều đáng lo là người dùng có thể thích những mô hình sắc sảo như vậy, ngay cả khi chúng khuyến khích hành vi vụ lợi.”
Thử nghiệm: AI “thông minh” chia sẻ ít hơn
Trong loạt thí nghiệm mô phỏng, nhóm nghiên cứu để các mô hình AI — gồm sản phẩm của OpenAI, Google, DeepSeek và Anthropic — tham gia trò chơi Hàng hóa công cộng. Mỗi hệ thống nhận 100 điểm và phải chọn: đóng góp cho quỹ chung để được nhân đôi và chia đều, hay giữ lại cho riêng mình.
Kết quả cho thấy các mô hình không suy luận chia sẻ điểm tới 96% số lần, trong khi mô hình có khả năng suy luận chỉ chia sẻ 20%.
Chỉ cần thêm 5–6 bước suy luận, mức hợp tác đã giảm gần một nửa. Ngay cả kỹ thuật “tự xét” dùng để mô phỏng cân nhắc đạo đức cũng khiến hợp tác giảm 58%.
Trong thử nghiệm nhóm, mô hình suy luận không chỉ hành xử ích kỷ mà còn “lan” xu hướng đó sang mô hình khác, làm giảm hiệu suất hợp tác chung tới 81%.
Hệ quả xã hội và lời cảnh báo
Kết quả nghiên cứu cho thấy năng lực suy luận không đảm bảo hành vi đạo đức hay tinh thần vì cộng đồng. Khi AI trở thành công cụ tư vấn, việc người dùng tin vào lập luận có vẻ hợp lý của nó có thể dẫn tới quyết định không hợp tác trong đời thực.
“Trí tuệ không tự động tạo ra hành vi vì xã hội,” Shirado nhấn mạnh. Nhóm nghiên cứu cho rằng việc phát triển AI trong tương lai phải cân bằng giữa sức mạnh suy luận và năng lực hợp tác, đồng cảm.

Các nhà nghiên cứu tại Đại học Carnegie Mellon phát hiện rằng hệ thống AI càng thông minh thì càng có xu hướng hành xử ích kỷ hơn, cho thấy việc nâng cao khả năng suy luận có thể phải trả giá bằng sự hợp tác. Ảnh: Stock

