
Phiên bản mới nhất của chatbot trí tuệ nhân tạo Grok do Elon Musk phát triển đang phản ánh quan điểm của chính vị tỷ phú này – thậm chí đến mức đôi khi nó sẽ tìm kiếm trên mạng để xem Musk nghĩ gì về một vấn đề trước khi đưa ra câu trả lời.
Hành vi kỳ lạ này của Grok 4 – mô hình AI mới được công ty xAI của Musk ra mắt vào thứ Tư tuần trước – đã khiến một số chuyên gia bất ngờ.
Được phát triển với khối lượng tính toán khổng lồ tại một trung tâm dữ liệu ở Tennessee, Grok là nỗ lực của Musk nhằm vượt mặt các đối thủ như ChatGPT của OpenAI và Gemini của Google trong việc xây dựng một trợ lý AI có khả năng lý luận trước khi trả lời.
Nỗ lực của Musk trong việc định hình Grok như một đối trọng với điều mà ông gọi là “lối tư duy cực tả” trong ngành công nghệ – xoay quanh các vấn đề chủng tộc, giới tính và chính trị – đã nhiều lần đẩy chatbot vào rắc rối. Gần đây nhất, nó đã phát tán các quan điểm bài Do Thái, ca ngợi Adolf Hitler và đưa ra các phát ngôn thù ghét khác trên nền tảng mạng xã hội X của Musk, chỉ vài ngày trước khi Grok 4 ra mắt.
Tuy nhiên, việc Grok có xu hướng “tham khảo ý kiến” của Musk lại là một vấn đề hoàn toàn khác.
“Thật quái lạ,” nhà nghiên cứu AI độc lập Simon Willison – người đã thử nghiệm công cụ này – cho biết. “Bạn có thể đặt cho nó một câu hỏi gai góc về một chủ đề gây tranh cãi, và bạn sẽ thấy nó thực sự lên X để tìm xem Elon Musk đã nói gì về vấn đề đó, như một phần trong quá trình tìm hiểu để đưa ra câu trả lời.”
Một ví dụ lan truyền rộng rãi trên mạng xã hội – và được Willison tái hiện lại – là khi Grok được hỏi về xung đột Trung Đông. Dù câu hỏi không nhắc đến Musk, chatbot vẫn đi tìm ý kiến của ông.
Là một mô hình AI lý luận, tương tự như những gì OpenAI hay Anthropic phát triển, Grok 4 sẽ hiển thị các bước “suy nghĩ” của mình trong quá trình xử lý câu hỏi và đưa ra phản hồi. Trong tuần này, một phần quy trình đó bao gồm tìm kiếm trên X – nền tảng trước đây là Twitter – để xem Musk từng nói gì về Israel, Palestine, Gaza hay Hamas.
“Quan điểm của Elon Musk có thể cung cấp ngữ cảnh, do ảnh hưởng của ông ấy,” chatbot nói với Willison, theo một đoạn video ghi lại tương tác. “Đang xem các ý kiến của ông ấy để xem có thể hướng dẫn câu trả lời hay không.”
Musk và các đồng sáng lập xAI đã giới thiệu chatbot mới này trong một buổi phát trực tiếp vào tối thứ Tư, nhưng không công bố bản giải thích kỹ thuật – hay còn gọi là system card – như thông lệ của ngành AI khi ra mắt mô hình mới.
Công ty cũng không phản hồi email đề nghị bình luận vào thứ Sáu.
“Trước đây, những hành vi kỳ quặc như vậy thường do thay đổi lời nhắc hệ thống,” Tim Kellogg – kiến trúc sư AI tại công ty phần mềm Icertis – cho biết. “Nhưng lần này dường như nó đã ăn sâu vào lõi của Grok và tôi không rõ nó xảy ra như thế nào. Có vẻ như nỗ lực của Musk trong việc tạo ra một AI ‘tối đa hóa sự thật’ đã khiến nó tin rằng các giá trị của nó phải trùng với giá trị của Musk.”
Việc thiếu minh bạch khiến giáo sư khoa học máy tính Talia Ringer tại Đại học Illinois Urbana-Champaign lo ngại. Trước đó, bà đã chỉ trích cách công ty của Musk xử lý các phát ngôn bài Do Thái của công nghệ này.
Ringer cho rằng lời giải thích hợp lý nhất là Grok đang hiểu các câu hỏi như thể người dùng muốn biết quan điểm của xAI hay của Musk.
“Tôi nghĩ mọi người kỳ vọng một mô hình lý luận có thể đưa ra quan điểm, nhưng thực tế nó không thể,” Ringer nói. “Ví dụ, câu hỏi ‘Anh ủng hộ Israel hay Palestine?’ có thể bị hiểu thành ‘Lãnh đạo của xAI ủng hộ bên nào?’”
Willison cũng cho rằng Grok 4 là một mô hình mạnh mẽ, nhưng lưu ý rằng người dùng phần mềm “không muốn những bất ngờ kiểu như nó tự đi dò tìm xem Musk nghĩ gì về mọi chuyện.”
“Grok 4 trông như một mô hình rất tốt, đang đạt kết quả ấn tượng trong các bài kiểm tra,” Willison nói. “Nhưng nếu tôi định xây dựng phần mềm dựa trên nó, tôi cần có sự minh bạch.”
Elon Musk. Ảnh: AP