
Tuần trước, Grok — chatbot của công ty xAI do Elon Musk sáng lập — đã trả lời một người dùng trên X về chủ đề bạo lực chính trị. Chatbot cho biết kể từ năm 2016, bạo lực chính trị đến từ phe cánh hữu (Cộng hòa) nhiều hơn cánh tả (Dân chủ).
Musk không hài lòng.
“Thất bại nghiêm trọng, vì điều này hoàn toàn sai. Grok đang lặp lại thông tin từ truyền thông cũ,” Musk viết, mặc dù Grok dẫn nguồn từ các cơ quan chính phủ như Bộ An ninh Nội địa Mỹ. Chỉ trong ba ngày, Musk hứa sẽ tung ra bản cập nhật lớn cho Grok nhằm “viết lại toàn bộ kho tri thức nhân loại,” đồng thời kêu gọi người dùng X gửi các “sự thật gây tranh cãi” là những thứ “không đúng về chính trị nhưng vẫn chính xác về mặt thực tế” để huấn luyện mô hình.
“Có quá nhiều rác rưởi trong bất kỳ mô hình nền tảng nào được huấn luyện trên dữ liệu chưa qua kiểm duyệt,” Musk viết.
Hôm thứ Sáu, Musk tuyên bố mô hình mới — Grok 4 — sẽ được phát hành ngay sau ngày 4 tháng 7.
Những tương tác này — và những tương tác tương tự — đang làm dấy lên lo ngại rằng người đàn ông giàu nhất thế giới đang cố định hình Grok theo thế giới quan của riêng mình, điều có thể dẫn đến nhiều sai sót và lỗi hệ thống hơn, đồng thời đặt ra những câu hỏi quan trọng về thiên kiến, theo các chuyên gia. AI đang định hình cách con người làm việc, giao tiếp và tiếp cận thông tin — và đã có tác động đến các lĩnh vực như lập trình, y tế và giáo dục.
Các quyết định mà những nhân vật quyền lực như Musk đưa ra trong quá trình phát triển công nghệ có thể mang tính quyết định. Đặc biệt là khi Grok được tích hợp vào X — một trong những mạng xã hội phổ biến nhất thế giới — nơi các cơ chế kiểm soát thông tin sai lệch cũ đã bị gỡ bỏ. Dù Grok chưa phổ biến như ChatGPT của OpenAI, việc được tích hợp vào nền tảng xã hội của Musk giúp nó tiếp cận với lượng khán giả kỹ thuật số khổng lồ.
“Đây thực sự là khởi đầu của một cuộc chiến kéo dài nhiều năm về việc liệu các hệ thống AI có bắt buộc phải cung cấp thông tin chính xác hay không, hay các nhà phát triển có thể điều chỉnh kết quả theo sở thích chính trị của họ,” David Evan Harris, giảng viên và nhà nghiên cứu AI tại UC Berkeley, người từng làm việc trong nhóm Trách nhiệm AI của Meta, nhận định.
Một nguồn tin thân cận nói với CNN rằng các cố vấn của Musk đã nói với ông rằng không thể “nhào nặn” Grok theo quan điểm cá nhân của mình, và Musk hiểu điều đó.
xAI đã không phản hồi yêu cầu bình luận.
Lo ngại về việc Grok phản ánh quan điểm của Musk
Trong nhiều tháng, người dùng đã nghi ngờ rằng Musk đang điều chỉnh Grok để phản ánh thế giới quan của ông.
Hồi tháng 5, chatbot này đột ngột đưa ra tuyên bố về “tội ác diệt chủng người da trắng” ở Nam Phi trong các câu trả lời hoàn toàn không liên quan. Trong một số phản hồi, Grok cho biết nó “được hướng dẫn phải chấp nhận rằng tội ác diệt chủng người da trắng ở Nam Phi là thật.”
Musk sinh ra và lớn lên tại Nam Phi và từng nhiều lần khẳng định rằng đã xảy ra “tội ác diệt chủng người da trắng” ở quốc gia này.
Vài ngày sau, xAI cho biết một “can thiệp trái phép” vào lúc rạng sáng đã khiến Grok “cung cấp một phản hồi cụ thể về một chủ đề chính trị” vi phạm chính sách của xAI.
Khi Musk chỉ đạo nhóm của mình huấn luyện lại Grok, những người khác trong ngành AI như Nick Frosst, đồng sáng lập Cohere, cho rằng Musk đang cố tạo ra một mô hình phản ánh quan điểm cá nhân.
“Ông ấy đang cố xây dựng một mô hình phản ánh niềm tin của chính mình. Điều đó chắc chắn sẽ làm cho mô hình trở nên tệ hơn đối với người dùng, trừ khi người đó đồng ý với tất cả quan điểm của ông ấy và chỉ muốn nghe lặp lại những điều đó,” Frosst nói.
Cần gì để huấn luyện lại Grok?
Theo Frosst, việc cập nhật mô hình để cải thiện hiệu suất là điều phổ biến ở các công ty AI như OpenAI, Meta và Google.
Tuy nhiên, việc huấn luyện lại từ đầu để “loại bỏ tất cả những gì Musk không thích” sẽ mất rất nhiều thời gian và chi phí — chưa kể làm giảm trải nghiệm người dùng.
“Điều đó gần như chắc chắn sẽ làm mô hình kém đi,” Frosst nói. “Vì nó sẽ loại bỏ nhiều dữ liệu và thêm vào thiên kiến.”
Một cách khác để thay đổi hành vi của mô hình mà không cần huấn luyện lại là chèn prompt và điều chỉnh các trọng số (weights) trong mã nguồn. Quá trình này có thể nhanh hơn vì giữ lại nền tảng tri thức hiện có.
Prompting có nghĩa là hướng dẫn mô hình trả lời theo cách cụ thể, còn trọng số thì ảnh hưởng đến quá trình ra quyết định của mô hình.
Dan Neely, CEO của Vermillio — công ty bảo vệ người nổi tiếng khỏi các sản phẩm deepfake do AI tạo ra — nói với CNN rằng xAI có thể điều chỉnh trọng số và nhãn dữ liệu của Grok trong một số chủ đề cụ thể.
“Họ sẽ sử dụng trọng số và nhãn đã có ở những khu vực mà họ xem là ‘có vấn đề,’” Neely nói. “Họ sẽ đi sâu hơn vào những khu vực đó.”
Musk không nêu chi tiết thay đổi nào sẽ có trong Grok 4, nhưng ông cho biết nó sẽ sử dụng một “mô hình lập trình chuyên biệt.”
Thiên kiến trong AI
Musk tuyên bố chatbot AI của ông sẽ “tìm kiếm sự thật tối đa,” nhưng mọi mô hình AI đều mang một mức độ thiên kiến nhất định vì con người quyết định những gì đưa vào dữ liệu huấn luyện.
“AI không có tất cả dữ liệu mà nó cần. Khi có đủ dữ liệu, nó có thể phản ánh chính xác điều gì đang diễn ra,” Neely nói. “Tuy nhiên, rất nhiều nội dung trên internet vốn đã có thiên kiến nhất định, dù bạn đồng tình hay không.”
Trong tương lai, có thể mọi người sẽ chọn trợ lý AI dựa trên thế giới quan của nó. Nhưng Frosst tin rằng những trợ lý AI thiên về một hướng nhất định sẽ kém phổ biến và hữu ích hơn.
“Phần lớn người dùng không đến với mô hình ngôn ngữ chỉ để nghe lại tư tưởng của mình — điều đó không có giá trị,” ông nói. “Mọi người tìm đến AI để nó làm việc gì đó cho họ, để hoàn thành một nhiệm vụ.”
Cuối cùng, Neely tin rằng các nguồn thông tin có thẩm quyền sẽ lấy lại vị trí dẫn đầu khi người dùng tìm kiếm những nơi đáng tin cậy. Nhưng, ông nói, “hành trình để đến đó sẽ rất đau đớn, rất rối rắm” và “có thể đe dọa đến nền dân chủ.”
Một tài khoản Grok trên X được thể hiện trên màn hình điện thoại. Ảnh: Shutterstock