Khi một số người dùng Philippines phẫn nộ tìm đến một chatbot tích hợp AI để kiểm tra tính xác thực của bức ảnh lan truyền về một nghị sĩ vướng bê bối tham nhũng, công cụ này đã không phát hiện được đó là ảnh giả – dù chính nó đã tạo ra bức ảnh này.
Ngày càng nhiều người dùng Internet tìm đến chatbot để kiểm chứng hình ảnh theo thời gian thực. Tuy nhiên, các công cụ này thường xuyên thất bại, đặt ra câu hỏi về khả năng “gỡ rối” hình ảnh của AI trong bối cảnh các nền tảng lớn cắt giảm nhân sự làm công tác kiểm chứng truyền thông.
Nhiều trường hợp cho thấy công cụ AI đã nhầm lẫn khi xác định hình ảnh là thật, ngay cả khi những hình đó được tạo ra từ chính mô hình sinh ảnh mà chúng sử dụng. Điều này càng khiến môi trường thông tin trực tuyến trở nên rối rắm bởi quá nhiều hình ảnh giả do AI tạo ra.
Trong số đó có hình ảnh giả lan truyền trên mạng xã hội về Elizaldy Co, một cựu nghị sĩ Philippines bị truy tố trong vụ tham nhũng kiểm soát lũ lụt trị giá hàng tỷ USD, dẫn đến làn sóng biểu tình lớn tại một quốc gia thường xuyên chịu thiên tai.
Bức ảnh cho thấy Co đang ở Bồ Đào Nha, dù vị trí của ông vẫn không được biết kể từ khi cuộc điều tra bắt đầu. Khi cộng đồng mạng truy tìm và hỏi mô hình AI mới của Google xem bức ảnh có thật hay không, công cụ này lại trả lời rằng hình ảnh là xác thực.
Nhóm kiểm chứng thông tin của AFP đã tìm ra tác giả và xác định bức ảnh được tạo bằng công cụ AI của Google.
“Các mô hình này chủ yếu được huấn luyện trên dữ liệu ngôn ngữ và thiếu khả năng hiểu hình ảnh chuyên sâu để nhận diện nội dung do AI tạo ra hoặc hình bị chỉnh sửa,” Alon Yamin, CEO nền tảng phát hiện nội dung AI Copyleaks, nói với AFP.
“Ngay cả khi hình ảnh được tạo ra từ mô hình tương tự, chatbot vẫn đưa ra đánh giá mơ hồ hoặc thiếu nhất quán, khiến chúng không đáng tin cậy cho các nhiệm vụ như kiểm chứng hay xác nhận tính thật giả.”
Google không trả lời đề nghị bình luận của AFP.
AFP cũng phát hiện nhiều ví dụ tương tự về việc công cụ AI không thể kiểm chứng chính sản phẩm mình tạo ra.
Trong cuộc biểu tình dữ dội tháng trước liên quan đến quyền lợi của quan chức cấp cao tại khu vực Kashmir do Pakistan kiểm soát, người dùng mạng lan truyền một bức ảnh giả cho thấy đoàn người cầm cờ và đuốc diễu hành.
Phân tích của AFP cho thấy hình ảnh này được tạo ra bằng mô hình Gemini AI của Google. Tuy nhiên, cả Gemini và Copilot của Microsoft đều xác nhận sai rằng đó là ảnh thật của cuộc biểu tình.
“Sự bất lực trong việc nhận diện ảnh AI xuất phát từ việc các mô hình này chỉ được lập trình để bắt chước,” Rossine Fallorina thuộc Trung tâm nghiên cứu phi lợi nhuận Sigla nói với AFP.
“Về bản chất, chúng chỉ có thể tạo ra những gì giống thật. Chúng không thể xác định được sự giống đó có khác biệt hoàn toàn với thực tế hay không.”
Đầu năm nay, Trung tâm Tow về Báo chí Số của Đại học Columbia đã thử nghiệm khả năng xác minh 10 hình ảnh từ các nhà báo ảnh bằng bảy chatbot AI – gồm ChatGPT, Perplexity, Grok và Gemini. Cả bảy mô hình đều thất bại trong việc xác định nguồn gốc ảnh, nghiên cứu cho biết.
AFP đã lần ra người tạo bức ảnh của Co – một lập trình viên trung niên tại Philippines. Người này cho biết anh tạo ảnh “cho vui” bằng Nano Banana, công cụ tạo ảnh của Gemini.
“Đáng tiếc là rất nhiều người tin vào nó,” anh nói, yêu cầu giấu tên để tránh bị phản ứng dữ dội. “Tôi đã chỉnh lại bài đăng và thêm dòng ‘ảnh tạo bằng AI’ để ngăn lan truyền, vì tôi sốc trước số lượt chia sẻ.”
Những trường hợp này cho thấy ảnh do AI tạo ngày càng giống ảnh thật đến mức khó phân biệt.
Xu hướng này gây lo ngại khi khảo sát cho thấy người dùng Internet ngày càng chuyển từ công cụ tìm kiếm truyền thống sang AI để thu thập và kiểm chứng thông tin.
Sự thay đổi diễn ra trong bối cảnh Meta tuyên bố chấm dứt chương trình kiểm chứng độc lập tại Mỹ, giao nhiệm vụ “vạch trần thông tin sai lệch” cho người dùng thông qua mô hình Community Notes.
Kiểm chứng thông tin bằng con người từ lâu đã là vấn đề gây tranh cãi tại các xã hội bị phân hóa, khi nhiều nhóm bảo thủ cáo buộc các tổ chức kiểm chứng chuyên nghiệp là có xu hướng ủng hộ phe tự do – điều mà họ phủ nhận.
Hiện AFP hợp tác kiểm chứng với Meta bằng 26 ngôn ngữ, bao gồm tại châu Á, Mỹ Latinh và Liên minh châu Âu.
Các nhà nghiên cứu cho rằng AI có thể hỗ trợ những người kiểm chứng chuyên nghiệp, chẳng hạn giúp xác định vị trí địa lý hoặc nhận diện chi tiết hình ảnh nhanh hơn. Tuy nhiên, họ cảnh báo rằng AI không thể thay thế con người trong công việc này.
“Chúng ta không thể dựa vào công cụ AI để chống lại chính AI về lâu dài,” Fallorina nói.

Sự bất lực của AI trong việc xác định độ chân thực của hình ảnh khiến môi trường thông tin trực tuyến trở nên rối rắm bởi quá nhiều hình ảnh giả do AI tạo ra. Ảnh: AFP

