Các biện pháp an toàn của những công ty trí tuệ nhân tạo lớn như Anthropic, OpenAI, xAI và Meta “còn xa so với các tiêu chuẩn toàn cầu mới nổi,” theo báo cáo mới của Chỉ số An toàn AI do Viện Tương Lai của Cuộc Sống công bố hôm thứ Tư.
Viện cho biết đánh giá an toàn, được thực hiện bởi một hội đồng chuyên gia độc lập, nhận thấy trong khi các công ty đang chạy đua phát triển siêu trí tuệ, không ai có chiến lược vững chắc để kiểm soát những hệ thống tiên tiến như vậy.
Nghiên cứu được công bố giữa lúc dư luận ngày càng quan ngại về tác động xã hội của các hệ thống thông minh hơn con người, có khả năng lý luận và tư duy logic, sau một số trường hợp tự tử và tự gây hại liên quan đến chatbot AI.
“Bất chấp làn sóng phẫn nộ gần đây về việc AI hỗ trợ tấn công mạng và dẫn đến rối loạn tâm thần hay tự hại, các công ty AI Mỹ vẫn ít được quản lý hơn cả nhà hàng và tiếp tục vận động chống lại các tiêu chuẩn an toàn bắt buộc,” Max Tegmark, giáo sư MIT kiêm Chủ tịch Viện Tương Lai của Cuộc Sống, nói.
Cuộc đua AI cũng không có dấu hiệu chậm lại, với các công ty công nghệ lớn cam kết chi hàng trăm tỷ USD để nâng cấp và mở rộng các nỗ lực học máy.
Viện Tương Lai của Cuộc Sống là một tổ chức phi lợi nhuận đã nhiều lần cảnh báo về những rủi ro mà máy móc thông minh có thể gây ra cho nhân loại. Được thành lập năm 2014, viện từng nhận sự ủng hộ ban đầu từ CEO Tesla Elon Musk.
Tháng 10 vừa qua, một nhóm gồm các nhà khoa học Geoffrey Hinton và Yoshua Bengio kêu gọi cấm phát triển trí tuệ nhân tạo siêu thông minh cho đến khi công chúng yêu cầu và khoa học mở đường an toàn.
Người phát ngôn Google DeepMind cho biết công ty sẽ “tiếp tục đổi mới về an toàn và quản trị song song với năng lực của mô hình” khi các mô hình trở nên tiên tiến hơn, trong khi xAI trả lời tự động rằng “Truyền thông truyền thống nói dối.”
Anthropic, OpenAI, Meta, Z.ai, DeepSeek và Alibaba Cloud chưa phản hồi ngay các yêu cầu bình luận về nghiên cứu này.

Logo của OpenAI và Anthropic trong minh họa. Ảnh: Reuters

