Kể từ Chủ nhật, 2-2-2025, Liên minh Châu Âu đã trao quyền cho các cơ quan quản lý cấm sử dụng các hệ thống trí tuệ nhân tạo (AI) bị coi là gây “rủi ro không thể chấp nhận” hoặc gây hại.
Ngày 2-2 là thời hạn tuân thủ đầu tiên của Đạo luật AI của EU (AI Act) – khung pháp lý toàn diện về AI mà Nghị viện Châu Âu đã chính thức thông qua vào tháng 3 năm ngoái sau nhiều năm xây dựng. Đạo luật này có hiệu lực từ ngày 1-8, và các thời hạn tuân thủ đầu tiên đang bắt đầu có hiệu lực.
Những quy định cụ thể được nêu trong Điều 5, nhưng nhìn chung, đạo luật này bao quát nhiều trường hợp AI có thể xuất hiện và tương tác với con người, từ các ứng dụng tiêu dùng đến môi trường vật lý.
Theo cách tiếp cận của EU, AI được chia thành bốn cấp độ rủi ro, bao gồm: 1/ Rủi ro tối thiểu (ví dụ: bộ lọc thư rác) không bị giám sát; 2/ Rủi ro hạn chế, bao gồm chatbot dịch vụ khách hàng, sẽ chịu sự giám sát nhẹ (light-touch regulatory oversight); 3/ Rủi ro cao, như AI đưa ra khuyến nghị về chăm sóc sức khỏe, sẽ chịu sự giám sát chặt chẽ; và 4/ Rủi ro không thể chấp nhận, là trọng tâm của các yêu cầu tuân thủ tháng này, sẽ bị cấm hoàn toàn.
Một số hoạt động AI bị cấm bao gồm:
- AI sử dụng để chấm điểm xã hội (ví dụ: xây dựng hồ sơ rủi ro dựa trên hành vi của một cá nhân).
- AI thao túng quyết định của con người một cách tiềm thức hoặc lừa dối.
- AI lợi dụng các điểm yếu như tuổi tác, khuyết tật hoặc tình trạng kinh tế – xã hội.
- AI dự đoán khả năng một người phạm tội dựa trên ngoại hình.
- AI sử dụng dữ liệu sinh trắc học để suy luận đặc điểm của một người, chẳng hạn như xu hướng tính dục.
- AI thu thập dữ liệu sinh trắc học “thời gian thực” ở nơi công cộng nhằm mục đích thực thi pháp luật.
- AI cố gắng suy luận cảm xúc của con người tại nơi làm việc hoặc trường học.
- AI tạo hoặc mở rộng cơ sở dữ liệu nhận diện khuôn mặt bằng cách thu thập hình ảnh trực tuyến hoặc từ camera an ninh.
Các công ty bị phát hiện sử dụng những ứng dụng AI kể trên tại EU sẽ bị phạt, bất kể trụ sở chính đặt ở đâu. Mức phạt có thể lên tới 35 triệu EUR 36 triệu USD) hoặc 7% doanh thu hàng năm của năm tài chính trước đó, tùy theo mức nào cao hơn.
Tuy nhiên, các khoản phạt chưa được áp dụng ngay, theo Rob Sumroy, trưởng bộ phận công nghệ tại hãng luật Slaughter and May (Anh), trong một cuộc phỏng vấn với TechCrunch.
“Các tổ chức được yêu cầu tuân thủ đầy đủ từ ngày 2-2, nhưng… thời hạn quan trọng tiếp theo mà các công ty cần lưu ý là vào tháng 8,” Sumroy cho biết. “Khi đó, chúng ta sẽ biết cơ quan có thẩm quyền là ai, và các quy định về xử phạt cũng như thực thi sẽ có hiệu lực.”
Cam kết sơ bộ
Thời hạn ngày 2-2 phần nào mang tính thủ tục.
Tháng 9 năm ngoái, hơn 100 công ty đã ký Hiệp ước AI của EU (EU AI Pact) – một cam kết tự nguyện nhằm bắt đầu áp dụng các nguyên tắc của Đạo luật AI trước khi luật chính thức có hiệu lực. Trong khuôn khổ Hiệp ước này, các bên ký kết (signatories) – bao gồm Amazon, Google và OpenAI – cam kết xác định các hệ thống AI có khả năng bị xếp vào danh mục rủi ro cao theo Đạo luật AI.
Một số tập đoàn công nghệ lớn, đáng chú ý là Meta và Apple, không tham gia Hiệp ước. Startup AI của Pháp Mistral – một trong những nhà phê bình mạnh mẽ nhất của Đạo luật AI – cũng từ chối ký kết.
Tuy nhiên, điều đó không có nghĩa là Apple, Meta, Mistral hay các công ty khác không tham gia Hiệp ước sẽ không tuân thủ các nghĩa vụ của họ – bao gồm cả lệnh cấm đối với các hệ thống có rủi ro không thể chấp nhận. Sumroy cho rằng, xem xét bản chất của những trường hợp sử dụng bị cấm, hầu hết các công ty sẽ không thực hiện những hoạt động đó.
“Điều các tổ chức lo ngại về Đạo luật AI của EU là liệu các hướng dẫn rõ ràng, tiêu chuẩn và quy tắc ứng xử có được ban hành kịp thời hay không – và quan trọng nhất là liệu chúng có giúp các tổ chức hiểu rõ về các yêu cầu tuân thủ hay không,” Sumroy cho biết. “Tuy nhiên, các nhóm công tác đến nay vẫn đang hoàn thành đúng thời hạn các quy tắc ứng xử dành cho… nhà phát triển.”
Các trường hợp ngoại lệ có thể được áp dụng
Một số lệnh cấm trong Đạo luật AI có ngoại lệ.
Chẳng hạn, luật cho phép cơ quan thực thi pháp luật sử dụng một số hệ thống thu thập dữ liệu sinh trắc học tại nơi công cộng nếu những hệ thống này hỗ trợ thực hiện một “cuộc tìm kiếm có mục tiêu” – chẳng hạn như tìm kiếm nạn nhân bị bắt cóc hoặc giúp ngăn chặn một mối đe dọa “cụ thể, nghiêm trọng và sắp xảy ra” đối với tính mạng. Việc miễn trừ này phải được cơ quan có thẩm quyền phê duyệt, và Đạo luật nhấn mạnh rằng cơ quan thực thi pháp luật không được đưa ra quyết định “gây ảnh hưởng pháp lý bất lợi” đối với một cá nhân chỉ dựa trên kết quả của các hệ thống này.
Đạo luật cũng dành ngoại lệ cho các hệ thống suy luận cảm xúc tại nơi làm việc và trường học nếu có lý do chính đáng về “y tế hoặc an toàn,” chẳng hạn như các hệ thống được thiết kế cho mục đích trị liệu.
Ủy ban Châu Âu – cơ quan hành pháp của EU – cho biết họ sẽ công bố thêm hướng dẫn vào “đầu năm 2025” sau khi tham vấn các bên liên quan vào tháng 11 năm ngoái. Tuy nhiên, các hướng dẫn này vẫn chưa được ban hành.
Sumroy cho rằng vẫn chưa rõ các luật hiện hành khác sẽ thích ứng như thế nào với các lệnh cấm và quy định liên quan của Đạo luật AI. Sự rõ ràng có thể chưa xuất hiện cho đến cuối năm, khi thời điểm thực thi đến gần.
“Điều quan trọng đối với các tổ chức là phải nhớ rằng quy định về AI không tồn tại một cách độc lập,” Sumroy nói. “Hiểu cách các luật lệ khác liên kết với nhau sẽ quan trọng không kém so với việc hiểu Đạo luật AI.”