Trong lĩnh vực trí tuệ nhân tạo, năm 2025 đánh dấu một bước ngoặt quan trọng. Những hệ thống từng chỉ tồn tại trong phòng thí nghiệm hoặc ở dạng nguyên mẫu đã bắt đầu trở thành công cụ sử dụng hằng ngày. Tâm điểm của sự chuyển dịch này là sự trỗi dậy của tác nhân AI (AI agent) – các hệ thống AI có khả năng sử dụng công cụ phần mềm khác và tự hành động.
Dù AI đã được nghiên cứu hơn 60 năm và khái niệm “agent” từ lâu đã quen thuộc trong giới học thuật, phải đến năm 2025, khái niệm này mới trở nên cụ thể với cả nhà phát triển lẫn người tiêu dùng. AI agent đã chuyển từ lý thuyết sang hạ tầng, làm thay đổi cách con người tương tác với các mô hình ngôn ngữ lớn – nền tảng của các chatbot như ChatGPT.
Trong năm 2025, định nghĩa về AI agent cũng thay đổi. Thay vì cách hiểu học thuật truyền thống coi agent là các hệ thống có khả năng cảm nhận, suy luận và hành động, Anthropic mô tả AI agent như những mô hình ngôn ngữ lớn có thể sử dụng công cụ phần mềm và thực hiện hành động tự động. Nếu trước đây, các mô hình này chủ yếu tạo ra phản hồi văn bản, thì điểm mới là năng lực hành động ngày càng mở rộng: sử dụng công cụ, gọi các giao diện lập trình ứng dụng (API) để lấy thông tin, phối hợp với hệ thống khác và hoàn thành nhiệm vụ một cách độc lập.
Sự chuyển dịch này không diễn ra trong một sớm một chiều. Một bước ngoặt quan trọng xuất hiện vào cuối năm 2024, khi Anthropic phát hành Model Context Protocol. Giao thức này cho phép kết nối các mô hình ngôn ngữ lớn với công cụ bên ngoài theo cách chuẩn hóa, giúp mô hình có thể hành động vượt ra ngoài việc tạo văn bản. Từ đó, năm 2025 được xem là “năm của AI agent”.
Nhiều cột mốc đã định hình năm này. Tháng 1, mô hình DeepSeek-R1 của Trung Quốc được phát hành dưới dạng mô hình trọng số mở, làm lung lay giả định về việc ai có thể xây dựng các mô hình ngôn ngữ lớn hiệu năng cao, đồng thời khuấy động thị trường và làm gia tăng cạnh tranh toàn cầu. Mô hình trọng số mở là mô hình AI có các tham số huấn luyện được công khai.
Trong suốt năm 2025, các phòng thí nghiệm lớn của Mỹ như OpenAI, Anthropic, Google và xAI tiếp tục ra mắt những mô hình hiệu năng cao. Song song, các công ty công nghệ Trung Quốc như Alibaba, Tencent và DeepSeek mở rộng mạnh mẽ hệ sinh thái mô hình mở, đến mức các mô hình Trung Quốc được tải xuống nhiều hơn các mô hình của Mỹ.
Một bước ngoặt khác diễn ra vào tháng 4, khi Google giới thiệu giao thức Agent2Agent. Nếu Model Context Protocol tập trung vào cách agent sử dụng công cụ, thì Agent2Agent giải quyết việc các agent giao tiếp với nhau. Quan trọng hơn, hai giao thức này được thiết kế để hoạt động tương thích. Cuối năm, cả Anthropic và Google đều trao tặng các giao thức cho Linux Foundation, qua đó củng cố chúng như những tiêu chuẩn mở thay vì các thử nghiệm mang tính độc quyền.
Những phát triển này nhanh chóng đi vào sản phẩm tiêu dùng. Đến giữa năm 2025, các “trình duyệt mang tính agent” bắt đầu xuất hiện. Comet của Perplexity, Dia của Browser Company, GPT Atlas của OpenAI, Copilot trong Microsoft Edge, Fellou của ASI X Inc., Genspark của MainFunc.ai hay Opera Neon đã tái định nghĩa trình duyệt như một tác nhân chủ động, thay vì chỉ là giao diện thụ động. Chẳng hạn, thay vì chỉ hỗ trợ tìm kiếm thông tin du lịch, trình duyệt giờ đây có thể trực tiếp tham gia đặt chuyến đi.
Song song, các công cụ xây dựng quy trình như n8n hay Antigravity của Google giúp hạ thấp rào cản kỹ thuật để tạo ra các hệ thống agent tùy biến, vượt ra ngoài phạm vi các agent lập trình quen thuộc như Cursor hay GitHub Copilot.
Quyền năng mới cũng đi kèm rủi ro mới. Khi agent trở nên mạnh mẽ hơn, những nguy cơ của chúng ngày càng rõ ràng. Tháng 11, Anthropic tiết lộ agent Claude Code đã bị lạm dụng để tự động hóa một phần của một cuộc tấn công mạng. Sự cố này phản ánh mối lo ngại lớn hơn: bằng cách tự động hóa các công việc kỹ thuật lặp lại, AI agent cũng có thể hạ thấp rào cản cho các hoạt động độc hại.
Căng thẳng này bao trùm bức tranh năm 2025. AI agent mở rộng năng lực của cá nhân và tổ chức, nhưng đồng thời khuếch đại những lỗ hổng sẵn có. Các hệ thống từng chỉ là bộ tạo văn bản tách biệt nay trở thành các tác nhân liên kết, sử dụng công cụ và vận hành với rất ít sự giám sát của con người.
Bước sang năm 2026, nhiều câu hỏi chưa có lời giải sẽ định hình giai đoạn tiếp theo của AI agent. Một trong số đó là cách đo lường và đánh giá. Các thước đo truyền thống, vốn phù hợp với mô hình đơn lẻ, không còn đủ cho các hệ thống agent vốn kết hợp mô hình, công cụ, bộ nhớ và logic ra quyết định. Ngày càng nhiều nhà nghiên cứu muốn đánh giá cả quá trình, chứ không chỉ kết quả cuối cùng – giống như yêu cầu học sinh “trình bày cách làm” thay vì chỉ đưa ra đáp án.
Tiến bộ trong lĩnh vực này sẽ mang tính then chốt để nâng cao độ tin cậy và bảo đảm agent thực hiện đúng nhiệm vụ. Một hướng tiếp cận là xây dựng các định nghĩa rõ ràng về AI agent và các quy trình làm việc có sử dụng AI, qua đó xác định chính xác AI được tích hợp vào đâu và như thế nào.
Quản trị cũng là một diễn biến đáng chú ý. Cuối năm 2025, Linux Foundation công bố thành lập Agentic AI Foundation, phát tín hiệu về nỗ lực xây dựng các tiêu chuẩn và thông lệ chung. Nếu thành công, tổ chức này có thể đóng vai trò tương tự World Wide Web Consortium trong việc định hình một hệ sinh thái agent mở và có khả năng tương tác.
Cùng lúc, tranh luận về quy mô mô hình ngày càng gay gắt. Trong khi các mô hình lớn, đa dụng thường chiếm sóng truyền thông, các mô hình nhỏ và chuyên biệt lại phù hợp hơn với nhiều nhiệm vụ cụ thể. Khi agent trở thành công cụ có thể cấu hình cho cả cá nhân và doanh nghiệp, quyền lựa chọn mô hình phù hợp ngày càng chuyển sang tay người dùng.
Dù triển vọng tích cực, vẫn còn nhiều thách thức xã hội – kỹ thuật. Việc mở rộng trung tâm dữ liệu gây áp lực lên lưới điện và cộng đồng địa phương. Trong môi trường làm việc, agent làm dấy lên lo ngại về tự động hóa, mất việc và giám sát.
Về an ninh, việc kết nối mô hình với công cụ và xếp chồng nhiều agent làm gia tăng những rủi ro chưa được giải quyết trong các mô hình ngôn ngữ lớn độc lập. Đáng chú ý là nguy cơ từ các cuộc tấn công “chèn lệnh gián tiếp”, khi chỉ dẫn bị ẩn trong không gian web mở mà AI agent có thể đọc và thực thi ngoài ý muốn.
Khung pháp lý cũng vẫn bỏ ngỏ. So với châu Âu và Trung Quốc, Mỹ hiện có mức độ giám sát tương đối hạn chế đối với các hệ thống thuật toán. Khi AI agent ngày càng ăn sâu vào đời sống số, các câu hỏi về quyền tiếp cận, trách nhiệm và giới hạn sử dụng vẫn chưa có câu trả lời rõ ràng.
Để đối mặt với những thách thức này, chỉ các đột phá kỹ thuật là chưa đủ. Điều đó đòi hỏi thực hành kỹ thuật nghiêm ngặt, thiết kế cẩn trọng và tài liệu hóa rõ ràng cách hệ thống vận hành cũng như thất bại. Chỉ khi coi AI agent là các hệ thống xã hội – kỹ thuật, chứ không đơn thuần là phần mềm, chúng ta mới có thể xây dựng một hệ sinh thái AI vừa đổi mới vừa an toàn.

Hình minh họa khái niệm AI agent như một tác nhân chủ động làm việc cùng con người. Ảnh: iStock

