OpenAI, Anthropic và Google thuộc Alphabet vốn là đối thủ của nhau đã bắt đầu hợp tác nhằm hạn chế các công ty Trung Quốc khai thác kết quả từ những mô hình trí tuệ nhân tạo tiên tiến của Mỹ để giành lợi thế trong cuộc đua AI toàn cầu.
Các công ty này đang chia sẻ thông tin thông qua Frontier Model Forum – một tổ chức phi lợi nhuận trong ngành do ba công ty công nghệ trên cùng với Microsoft thành lập vào năm 2023 – nhằm phát hiện các nỗ lực gọi là “chưng cất đối kháng” (adversarial distillation), vốn vi phạm điều khoản sử dụng dịch vụ, theo các nguồn tin am hiểu vấn đề.
Sự hợp tác hiếm hoi này cho thấy mức độ nghiêm trọng của mối lo ngại mà các công ty AI Mỹ nêu ra: một số người dùng, đặc biệt tại Trung Quốc, đang tạo ra các phiên bản mô phỏng sản phẩm của họ, có thể cạnh tranh về giá, lấy đi khách hàng và gây rủi ro an ninh quốc gia.
Các quan chức Mỹ ước tính việc “chưng cất” trái phép khiến các phòng thí nghiệm tại Thung lũng Silicon thiệt hại hàng tỷ USD lợi nhuận mỗi năm, theo một nguồn tin quen thuộc với các đánh giá này.
OpenAI xác nhận họ tham gia nỗ lực chia sẻ thông tin về “chưng cất đối kháng” thông qua Frontier Model Forum và dẫn lại một bản ghi nhớ gửi Quốc hội Mỹ, trong đó cáo buộc công ty Trung Quốc DeepSeek đang cố “ăn theo năng lực do OpenAI và các phòng thí nghiệm tiên phong của Mỹ phát triển.” Google, Anthropic và Frontier Model Forum từ chối bình luận.
“Chưng cất” là kỹ thuật trong đó một mô hình AI “giáo viên” cũ được dùng để huấn luyện mô hình “học sinh” mới, nhằm tái tạo năng lực của hệ thống nguyên bản — thường với chi phí thấp hơn nhiều so với việc xây dựng mô hình từ đầu. Một số hình thức chưng cất được chấp nhận rộng rãi, thậm chí được khuyến khích, chẳng hạn khi các công ty tạo ra phiên bản nhỏ hơn, hiệu quả hơn của chính mô hình của họ, hoặc cho phép bên ngoài sử dụng kỹ thuật này để phát triển công nghệ không cạnh tranh trực tiếp.
Tuy nhiên, chưng cất trở nên gây tranh cãi khi được bên thứ ba sử dụng — đặc biệt tại các quốc gia đối thủ như Trung Quốc hoặc Nga — để sao chép công nghệ độc quyền mà không được phép. Các phòng thí nghiệm AI hàng đầu của Mỹ cảnh báo rằng các đối thủ nước ngoài có thể dùng kỹ thuật này để phát triển mô hình AI thiếu các cơ chế an toàn, chẳng hạn như các biện pháp ngăn người dùng tạo ra mầm bệnh nguy hiểm.
Phần lớn các mô hình do các phòng thí nghiệm Trung Quốc phát triển là dạng “trọng số mở”, nghĩa là một phần hệ thống AI được công khai để người dùng tải về và vận hành trên nền tảng riêng, do đó chi phí sử dụng rẻ hơn. Điều này tạo ra thách thức kinh tế đối với các công ty AI Mỹ vốn giữ mô hình ở dạng độc quyền và kỳ vọng người dùng trả phí để truy cập, qua đó bù đắp hàng trăm tỷ USD đầu tư vào trung tâm dữ liệu và hạ tầng.
Kỹ thuật chưng cất bắt đầu bị chú ý mạnh vào tháng 1/2025, sau khi DeepSeek bất ngờ ra mắt mô hình suy luận R1 gây chấn động ngành AI. Ngay sau đó, Microsoft và OpenAI đã điều tra liệu startup Trung Quốc này có trích xuất trái phép lượng lớn dữ liệu từ các mô hình của Mỹ để tạo ra R1 hay không.
Tháng 2, OpenAI cảnh báo các nhà lập pháp Mỹ rằng DeepSeek vẫn tiếp tục sử dụng các phương thức ngày càng tinh vi để trích xuất kết quả từ các mô hình Mỹ, bất chấp các nỗ lực ngăn chặn lạm dụng. OpenAI cho rằng DeepSeek đã sử dụng chưng cất để phát triển phiên bản mới của chatbot đột phá của mình.
Việc các công ty AI Mỹ chia sẻ thông tin về “chưng cất đối kháng” tương tự thông lệ trong ngành an ninh mạng, nơi các công ty thường xuyên trao đổi dữ liệu về các cuộc tấn công và chiến thuật của đối thủ nhằm tăng cường phòng thủ. Thông qua hợp tác, các công ty AI kỳ vọng phát hiện hiệu quả hơn các hành vi này, xác định thủ phạm và ngăn chặn người dùng trái phép.
Các quan chức chính quyền Mỹ cũng phát tín hiệu ủng hộ việc thúc đẩy chia sẻ thông tin giữa các công ty AI để kiềm chế “chưng cất đối kháng”. Kế hoạch hành động AI do Tổng thống Donald Trump công bố năm ngoái kêu gọi thành lập một trung tâm chia sẻ và phân tích thông tin, một phần nhằm phục vụ mục tiêu này.
Hiện tại, việc chia sẻ thông tin về chưng cất vẫn còn hạn chế do các công ty AI chưa rõ phạm vi có thể chia sẻ theo quy định chống độc quyền hiện hành để đối phó với cạnh tranh từ Trung Quốc. Họ cho rằng cần có hướng dẫn rõ ràng hơn từ chính phủ Mỹ.
Chưng cất đã trở thành mối quan ngại hàng đầu của các nhà phát triển AI Mỹ kể từ khi DeepSeek làm rung chuyển thị trường toàn cầu đầu năm 2025 với R1. Các mô hình mã nguồn mở mạnh mẽ tiếp tục gia tăng tại Trung Quốc, và nhiều người trong ngành đang theo dõi sát sao các bản nâng cấp lớn tiếp theo của DeepSeek.
Năm ngoái, Anthropic đã chặn các công ty do Trung Quốc kiểm soát sử dụng chatbot Claude của mình, và đến tháng 2 đã xác định ba phòng thí nghiệm AI Trung Quốc — DeepSeek, Moonshot và MiniMax — đã trích xuất trái phép năng lực mô hình thông qua chưng cất.
Năm nay, Anthropic cho biết mối đe dọa này “không chỉ giới hạn ở một công ty hay khu vực” mà còn là rủi ro an ninh quốc gia, do các mô hình được chưng cất thường thiếu các cơ chế an toàn nhằm ngăn chặn việc sử dụng AI cho mục đích xấu.
Google cũng đăng blog cho biết đã phát hiện sự gia tăng các nỗ lực trích xuất mô hình. Ba công ty AI của Mỹ chưa đưa ra bằng chứng cụ thể về mức độ đổi mới AI của Trung Quốc phụ thuộc vào chưng cất, nhưng cho biết có thể đo lường tần suất các cuộc tấn công thông qua khối lượng yêu cầu dữ liệu quy mô lớn.
Giao d
iện chatbot DeepSeek hiển thị trên điện thoại thông minh tại Thượng Hải vào tháng 1. Kỹ thuật chưng cất AI lần đầu bị chú ý lớn vào năm 2025 sau khi DeepSeek ra mắt mô hình suy luận R1, khiến Microsoft và OpenAI phải điều tra liệu startup Trung Quốc này có trích xuất trái phép dữ liệu từ các mô hình của Mỹ để tạo ra R1 hay không. Ảnh: Bloomberg

