
Tập đoàn công nghệ tài chính Ant Group của Trung Quốc vừa mở rộng đáng kể năng lực trí tuệ nhân tạo (AI) của mình với việc ra mắt Ling-1T — mô hình ngôn ngữ có một nghìn tỷ tham số — đồng thời giới thiệu một khung suy luận mới mà công ty tuyên bố có tốc độ nhanh hơn các giải pháp của nhà sản xuất chip hàng đầu Nvidia tới mười lần.
Công ty có trụ sở tại Hàng Châu, đơn vị vận hành nền tảng thanh toán di động Alipay, công bố việc phát hành và mở mã nguồn của mô hình AI Ling-1T vào ngày 9/10. Mô hình này thể hiện hiệu năng hàng đầu trong các bài kiểm tra về suy luận phức tạp, đồng thời duy trì khả năng suy luận hiệu quả.
Theo thông báo của Ant Group, Ling-1T đạt độ chính xác 70,42% trong bài kiểm tra toán học American Invitational Mathematics Examination (AIME) năm 2025, với chi phí trung bình hơn 4.000 token đầu ra cho mỗi bài toán — mức hiệu năng được công ty cho là tương đương với các mô hình AI tiên tiến nhất hiện nay.
Việc mở rộng này diễn ra sau khi Ant Group ra mắt Ring-1T-preview vào tháng 9, được mô tả là mô hình “tư duy” mã nguồn mở đầu tiên trên thế giới với quy mô một nghìn tỷ tham số. Hai lần ra mắt liên tiếp này cho thấy bước tiến mạnh mẽ trong hệ sinh thái mô hình AI của Ant Group, hiện gồm ba dòng chính: Ling (phi tư duy), Ring (có tư duy) và Ming (đa mô thức), cùng mô hình thử nghiệm LLaDA-MoE.
Thách thức các ông lớn bằng tốc độ
Bên cạnh mô hình ngôn ngữ mới, Ant Group còn giới thiệu dInfer — một khung suy luận được thiết kế riêng cho các mô hình ngôn ngữ khuếch tán (diffusion language models), dòng hệ thống AI mới có khả năng tạo kết quả song song thay vì tuần tự.
Công ty khẳng định dInfer có tốc độ xử lý nhanh hơn gấp ba lần so với vLLM — công cụ suy luận mã nguồn mở do Đại học California, Berkeley phát triển — và nhanh hơn gấp mười lần so với khung Fast-dLLM của Nvidia.
Trong các thử nghiệm nội bộ trên mô hình khuếch tán LLaDA-MoE của Ant Group, dInfer tạo trung bình 1.011 token mỗi giây trong bài kiểm tra sinh mã code HumanEval, trong khi Fast-dLLM của Nvidia chỉ đạt 91 token/giây và mô hình Qwen-2.5-3B của Alibaba (tối ưu bằng vLLM) đạt 294 token/giây.
“Chúng tôi tin rằng dInfer vừa là bộ công cụ thực tiễn vừa là nền tảng tiêu chuẩn hóa, giúp thúc đẩy nghiên cứu và phát triển trong lĩnh vực mô hình ngôn ngữ khuếch tán (dLLM) đang tăng trưởng nhanh chóng,” nhóm nghiên cứu của Ant viết trong báo cáo kỹ thuật kèm theo.
Chiến lược thích ứng giữa bối cảnh hạn chế chip
Nỗ lực mạnh mẽ này trong việc phát triển mô hình và khung tối ưu mới phản ánh cách các công ty công nghệ Trung Quốc đang tận dụng đột phá về thuật toán để bù đắp cho hạn chế trong việc tiếp cận chip AI tiên tiến.
Trong khi các mô hình ngôn ngữ tự hồi quy (autoregressive) — từ GPT-3.5 của OpenAI đến R1 của DeepSeek — đang dẫn đầu làn sóng chatbot, Ant Group tiếp tục thử nghiệm các mô hình ngôn ngữ khuếch tán nhằm tìm kiếm hiệu năng và hiệu quả cao hơn.
Ông He Zhengyu, Giám đốc Công nghệ của Ant Group, cho biết các lần ra mắt này phản ánh triết lý rộng hơn của công ty về phát triển AI.
“Tại Ant Group, chúng tôi tin rằng Trí tuệ Nhân tạo Tổng quát (AGI) nên là tài sản chung của nhân loại — một cột mốc cho tương lai thông minh của con người,” ông nói. “Chúng tôi cam kết xây dựng các dịch vụ AGI thực tiễn và bao trùm, mang lại lợi ích cho tất cả mọi người, và điều đó đòi hỏi phải không ngừng thúc đẩy công nghệ tiến lên.”
Hệ quả rộng hơn trong cuộc đua AI
Các bước tiến của Ant Group diễn ra trong bối cảnh cạnh tranh ngày càng gay gắt trong lĩnh vực AI tại Trung Quốc. Nhiều công ty công nghệ lớn khác cũng đang thử nghiệm những hướng tiếp cận thay thế — chẳng hạn, vào tháng 7, ByteDance ra mắt Seed Diffusion Preview, tuyên bố có tốc độ nhanh hơn năm lần so với các mô hình tự hồi quy tương đương.
ByteDance cũng đang phát triển AWorld — một khung phát triển hỗ trợ khả năng học tập liên tục cho các tác nhân AI có thể tự động hoàn thành nhiệm vụ cho người dùng, mở rộng thêm tham vọng hạ tầng AI của mình.
Tuy vậy, vẫn còn nhiều câu hỏi về tính ứng dụng thực tế của các mô hình ngôn ngữ khuếch tán trong môi trường thương mại. Dù thể hiện tiềm năng ở một số bài kiểm tra, các mô hình tự hồi quy vẫn chiếm ưu thế nhờ khả năng hiểu và tạo ngôn ngữ tự nhiên đã được chứng minh.
Khác với các mô hình ngôn ngữ tự hồi quy như GPT, vốn tạo ra văn bản theo trình tự từng từ một, mô hình khuếch tán tạo ra toàn bộ chuỗi đầu ra song song qua nhiều bước tinh chỉnh.
Chiến lược mã nguồn mở mà Ant Group lựa chọn — công khai cả mô hình Ling-1T và khung dInfer — cho thấy công ty đang đặt cược vào cách tiếp cận hợp tác để đẩy nhanh đổi mới, đồng thời định vị công nghệ của mình như tiêu chuẩn ngành. Tuy nhiên, liệu chiến lược này có thể thách thức các đối thủ dẫn đầu — đặc biệt là những hãng có khả năng tiếp cận phần cứng tiên tiến hơn — vẫn còn phải được kiểm nghiệm trong thực tế.
Ở thời điểm hiện tại, các động thái dồn dập của Ant Group cho thấy các công ty công nghệ Trung Quốc quyết không nhường bước trong cuộc đua AI toàn cầu, thay vào đó tập trung vào đổi mới phần mềm và hiệu quả thuật toán như những lợi thế cạnh tranh chủ chốt.
Trụ sở Ant Group tại Hàng Châu. Ảnh: Techwire Asia