
Một nghiên cứu vừa được bình duyệt khoa học đã tiết lộ cách DeepSeek – một công ty khởi nghiệp tại Trung Quốc – tạo ra mô hình ngôn ngữ lớn (LLM) R1 chỉ với chi phí khoảng 300.000 USD, nhưng vẫn đủ sức làm rung chuyển thị trường toàn cầu.
R1 ra mắt vào tháng 1 và từng khiến chứng khoán Mỹ chao đảo. Khác với những đồn đoán ban đầu, DeepSeek khẳng định mô hình này không hề sao chép dữ liệu từ các đối thủ. Phiên bản công bố trên Nature tuần này cho thấy R1 được thiết kế để xử lý tốt các tác vụ đòi hỏi “lý luận” như toán học và lập trình, với chi phí rẻ hơn nhiều so với các sản phẩm của các tập đoàn công nghệ Mỹ. Là mô hình “trọng số mở”, R1 được tải về miễn phí và đã có gần 11 triệu lượt tải trên nền tảng Hugging Face.
Bài báo cũng tiết lộ chi phí huấn luyện R1 chỉ 294.000 USD, cộng thêm 6 triệu USD để xây dựng mô hình nền tảng. Con số này vẫn thấp hơn rất nhiều so với mức hàng chục triệu USD của các đối thủ. Đáng chú ý, R1 được huấn luyện chủ yếu bằng chip Nvidia H800 – loại chip bị Mỹ cấm xuất sang Trung Quốc từ năm 2023.
Mốc mới trong nghiên cứu AI
R1 được xem là LLM lớn đầu tiên trải qua quy trình bình duyệt khoa học. Các chuyên gia đánh giá đây là tiền lệ quan trọng, giúp kiểm chứng tính an toàn và độ tin cậy của mô hình. DeepSeek cũng đã chỉnh sửa mô tả, bổ sung thông tin về dữ liệu huấn luyện và các yếu tố an toàn theo góp ý từ hội đồng phản biện.
Điểm đột phá của R1 là phương pháp học tăng cường thuần tuý. Thay vì bắt chước ví dụ con người đưa ra, mô hình được thưởng khi tự tìm ra đáp án đúng, từ đó hình thành chiến lược suy luận riêng. Nó thậm chí còn tự chấm điểm nỗ lực của mình để tối ưu hiệu quả, thay vì cần một thuật toán khác đánh giá.
Ảnh hưởng lan rộng
Nhiều nghiên cứu trong năm 2025 đã lấy cảm hứng từ R1. Một số báo cáo từng cho rằng R1 học từ dữ liệu OpenAI, nhưng DeepSeek khẳng định điều đó không đúng. Tuy nhiên, giống như các LLM khác, mô hình nền của R1 được huấn luyện từ dữ liệu web, vốn có thể chứa nội dung AI tạo ra có sẵn trên internet.
Dù không đứng đầu về độ chính xác trong các bài kiểm tra khoa học, R1 vẫn được đánh giá là hiệu quả về mặt chi phí, cân bằng tốt giữa giá trị và khả năng. Các nhà nghiên cứu đang tìm cách áp dụng phương pháp của DeepSeek để nâng cao khả năng suy luận của nhiều LLM khác, mở rộng ứng dụng sang cả những lĩnh vực ngoài toán và lập trình.
Theo các chuyên gia, thành công của R1 đã khởi động một làn sóng đổi mới trong nghiên cứu AI toàn cầu.
DeepSeek khẳng định mô hình R1 không học bằng cách sao chép các ví dụ từ các LLM khác. Ảnh: Alamy