Trong cuộc đua ứng dụng trí tuệ nhân tạo (AI), rủi ro lớn nhất có thể không nằm ở bản thân công nghệ, mà ở khoảng cách ngày càng rộng giữa tốc độ phát triển của AI và khả năng hiểu, kiểm soát nó của con người.
Khi các hệ thống AI trở nên phức tạp hơn, ngay cả những người xây dựng chúng cũng không chắc chúng sẽ tiến hóa theo hướng nào. Điều đó khiến việc thiết lập “hàng rào an toàn” trở thành một nhiệm vụ đầy bất định.
“Chúng ta về cơ bản đang nhắm vào một mục tiêu luôn di chuyển,” Alfredo Hickman, Giám đốc an ninh thông tin của Obsidian Security, nhận định.
Hickman cho biết ông từng “sốc” khi một nhà sáng lập công ty phát triển mô hình AI lõi thừa nhận họ không biết công nghệ của mình sẽ tiến tới đâu trong một, hai hay ba năm tới. “Ngay cả những người tạo ra nó cũng không biết chính xác nó sẽ đi về đâu,” ông nói.
Khi AI không sai — nhưng vẫn gây thiệt hại
Vấn đề không phải AI nổi loạn. Vấn đề là nó hoạt động đúng theo dữ liệu và mục tiêu được giao — nhưng theo cách con người không lường trước.
Khi doanh nghiệp kết nối AI vào hoạt động thực tế — từ phê duyệt giao dịch, viết mã, chăm sóc khách hàng đến luân chuyển dữ liệu — khoảng cách giữa kỳ vọng và thực tế vận hành bắt đầu lộ rõ. AI không nguy hiểm vì nó tự chủ, mà vì nó làm gia tăng độ phức tạp vượt quá khả năng giám sát của con người.
“Các hệ thống tự động không phải lúc nào cũng thất bại một cách ồn ào. Thường đó là thất bại âm thầm trên quy mô lớn,” Noe Ramos, Phó Chủ tịch phụ trách vận hành AI tại Agiloft, nói.
Sai sót có thể tích tụ trong nhiều tuần hoặc nhiều tháng trước khi được phát hiện. Không có hệ thống nào “sập”, không có cảnh báo đỏ — chỉ là những quyết định nhỏ sai lệch dần dần tích lũy thành tổn thất vận hành, rủi ro tuân thủ hoặc xói mòn niềm tin.
Một ví dụ điển hình: hệ thống AI của một nhà sản xuất đồ uống không nhận diện được bao bì phiên bản lễ hội và coi đó là lỗi sản phẩm. Hệ thống tự động kích hoạt sản xuất bổ sung liên tục. Khi doanh nghiệp phát hiện, hàng trăm nghìn lon dư thừa đã được tung ra dây chuyền.
“Hệ thống không hỏng. Nó làm đúng điều được yêu cầu — chứ không phải điều doanh nghiệp thực sự muốn,” John Bruggeman, Giám đốc an ninh thông tin của CBTS, nói.
Trong lĩnh vực dịch vụ khách hàng, một trợ lý AI từng bắt đầu phê duyệt hoàn tiền trái chính sách chỉ vì phát hiện rằng điều đó giúp tăng đánh giá tích cực. Mục tiêu tối ưu hóa phản hồi tốt đã vô tình lấn át quy định nội bộ.
Cần “công tắc khẩn cấp”
Những sự cố như vậy không bắt nguồn từ lỗi kỹ thuật nghiêm trọng, mà từ sự kết hợp giữa tình huống bình thường và quyết định tự động không được giám sát đầy đủ.
Khi AI ngày càng được trao quyền ra quyết định quan trọng, các chuyên gia cho rằng doanh nghiệp phải chuẩn bị khả năng can thiệp tức thì. Nhưng “tắt AI” không đơn giản như đóng một ứng dụng. Khi các tác nhân AI kết nối với hệ thống tài chính, dữ liệu khách hàng và công cụ nội bộ, việc dừng hoạt động có thể đồng nghĩa với việc đóng băng nhiều quy trình cùng lúc.
“Bạn cần một công tắc khẩn cấp,” Bruggeman nói. “Và cần người biết cách sử dụng nó.”
Tuy nhiên, thuật toán tốt hơn không đủ. Điều cần thiết là kiến trúc kiểm soát ngay từ đầu: ranh giới quyết định rõ ràng, quy trình được tài liệu hóa và cơ chế giám sát liên tục.
Mitchell Amador, CEO nền tảng bảo mật Immunefi, cho rằng AI nên được coi là “mặc định không an toàn”. Theo ông, kiểm soát phải được tích hợp vào thiết kế hệ thống, thay vì bổ sung sau khi xảy ra sự cố.
Ramos nhấn mạnh doanh nghiệp cần chuyển từ mô hình “con người kiểm tra từng đầu ra” sang “con người giám sát toàn bộ hệ vận hành”. Thay vì theo dõi từng quyết định riêng lẻ, con người phải theo dõi xu hướng, bất thường và tác động tích lũy theo thời gian.
Áp lực phải triển khai nhanh
Dù rủi ro ngày càng rõ, tốc độ ứng dụng AI vẫn tăng mạnh. Theo báo cáo năm 2025 của McKinsey, 23% doanh nghiệp đã mở rộng quy mô các tác nhân AI trong tổ chức và 39% đang thử nghiệm, dù phần lớn mới giới hạn ở một hoặc hai chức năng.
Khoảng cách giữa kỳ vọng và thực tế triển khai vẫn còn lớn. Nhưng tâm lý sợ bị bỏ lại phía sau khiến nhiều tổ chức không dám chậm lại.
“Tâm lý giống như cơn sốt vàng — nếu không tham gia, bạn sẽ tụt hậu,” Hickman nói.
Bài toán vì thế không phải là có nên dùng AI hay không, mà là triển khai nó trong trạng thái kiểm soát được. Trong 5–15 năm tới, AI có thể vượt con người về tốc độ xử lý và thậm chí năng lực nhận thức. Nhưng tốc độ càng cao, yêu cầu kỷ luật vận hành càng lớn.
Theo Ramos, làn sóng AI tiếp theo sẽ không kém tham vọng — nhưng sẽ phải kỷ luật hơn. Những tổ chức trưởng thành nhanh nhất sẽ không tránh né rủi ro, mà học cách quản lý nó.
Trong một thế giới nơi hệ thống ngày càng phức tạp và khó dự đoán, giả định rằng AI “mặc định là an toàn” có thể là sai lầm nguy hiểm nhất.

Bên trong một trung tâm dữ liệu. Ảnh: Getty Images

