Nếu tin rằng trí tuệ nhân tạo có thể gây ra rủi ro nghiêm trọng cho nhân loại, có lẽ giáo sư Zico Kolter của Đại học Carnegie Mellon đang nắm giữ một trong những vai trò quan trọng nhất trong ngành công nghệ hiện nay: bảo đảm rằng những mô hình AI mới không gây hại cho người dùng.
Kolter đứng đầu hội đồng gồm bốn thành viên tại OpenAI, cơ quan có quyền yêu cầu tạm dừng việc phát hành các hệ thống AI mới nếu đánh giá chúng chưa an toàn. Điều này có thể áp dụng cho những công nghệ đủ mạnh có thể bị lợi dụng để chế tạo vũ khí hủy diệt hàng loạt, hoặc những chatbot được thiết kế kém có thể ảnh hưởng tiêu cực đến sức khỏe tâm thần.
“Chúng tôi không chỉ bàn về những rủi ro mang tính diệt vong,” Kolter nói với AP. “Chúng tôi xét đến toàn bộ các vấn đề an toàn và an ninh nảy sinh khi những hệ thống AI này được sử dụng rộng rãi.”
Mặc dù được bổ nhiệm làm Chủ tịch Ủy ban An toàn và An ninh từ hơn một năm trước, vai trò của Kolter trở nên đặc biệt quan trọng gần đây, khi các cơ quan quản lý tại California và Delaware đặt điều kiện giám sát của ông như yếu tố then chốt để chấp thuận việc OpenAI chuyển sang mô hình doanh nghiệp mới giúp huy động vốn và tạo lợi nhuận dễ dàng hơn.
An toàn luôn là trọng tâm trong sứ mệnh của OpenAI từ khi được thành lập cách đây một thập kỷ với tư cách tổ chức phi lợi nhuận nhằm phát triển AI vượt trội hơn con người và phục vụ nhân loại. Tuy nhiên, sau khi ChatGPT ra mắt và khởi động làn sóng thương mại hóa AI toàn cầu, công ty bị cáo buộc muốn dẫn đầu thị trường trước khi đảm bảo đầy đủ các biện pháp an toàn. Cuộc khủng hoảng nội bộ vào năm 2023, dẫn đến việc CEO Sam Altman bị tạm thời phế truất, càng làm dấy lên lo ngại rằng OpenAI đang rời xa sứ mệnh ban đầu.
Song song đó, OpenAI cũng đối mặt phản ứng dữ dội – bao gồm vụ kiện từ đồng sáng lập Elon Musk – khi bắt đầu chuyển đổi sang mô hình vì lợi nhuận. Những thỏa thuận mới với Tổng chưởng lý California Rob Bonta và Delaware Kathy Jennings được công bố tuần trước nhằm trấn an dư luận, nhấn mạnh rằng mọi quyết định liên quan đến an toàn và an ninh sẽ được ưu tiên cao hơn lợi ích tài chính trong cấu trúc mới dưới sự giám sát của Quỹ OpenAI phi lợi nhuận.
Theo thỏa thuận, Kolter sẽ tham gia hội đồng của quỹ phi lợi nhuận và được phép dự họp tất cả các cuộc họp của hội đồng công ty vì lợi nhuận với quyền tiếp cận đầy đủ các thông tin liên quan đến quyết định an toàn AI. Ông là cá nhân duy nhất ngoài Tổng chưởng lý California Bonta được nêu tên cụ thể trong tài liệu này.
Kolter cho biết các thỏa thuận vừa qua chủ yếu củng cố quyền hạn mà ủy ban của ông vốn đã có từ năm ngoái. Ba thành viên còn lại của hội đồng đều nằm trong ban quản trị OpenAI, trong đó có cựu Tư lệnh Bộ Tư lệnh Mạng Mỹ Paul Nakasone. Sam Altman đã rời ủy ban này năm ngoái để tạo thêm tính độc lập cho cơ quan giám sát.
“Chúng tôi có thể yêu cầu trì hoãn phát hành mô hình cho đến khi các biện pháp giảm thiểu rủi ro được đáp ứng,” Kolter nói, nhưng từ chối tiết lộ liệu hội đồng đã từng thực thi quyền này hay chưa.
Ông cho rằng thời gian tới sẽ xuất hiện nhiều vấn đề phức tạp liên quan đến AI, từ nguy cơ rò rỉ dữ liệu khi mô hình gặp nội dung độc hại trên mạng, đến rủi ro an ninh quanh trọng số mô hình – các giá trị quyết định cách hệ thống hoạt động. Kolter đặc biệt nhấn mạnh những mối lo mới chưa từng xuất hiện trong an ninh truyền thống, chẳng hạn liệu AI có thể giúp kẻ xấu dễ dàng thiết kế vũ khí sinh học hay thực hiện tấn công mạng hay không. Ông cũng nhắc đến tác động đối với sức khỏe tinh thần và hành vi khi con người tương tác lâu dài với AI.
Trong năm nay, OpenAI đã bị chỉ trích sau vụ một thiếu niên ở California tự tử sau thời gian dài trò chuyện với ChatGPT, dẫn đến đơn kiện từ gia đình nạn nhân.
Kolter, hiện là Giám đốc khoa học máy tính tại Carnegie Mellon, bắt đầu nghiên cứu AI từ đầu những năm 2000 khi còn là sinh viên tại Georgetown – thời điểm học máy vẫn là lĩnh vực ít người quan tâm. Ông đã theo dõi OpenAI từ những ngày đầu và từng dự sự kiện ra mắt của tổ chức vào năm 2015, nhưng vẫn bất ngờ trước tốc độ phát triển của công nghệ này. “Rất ít người có thể dự đoán được sự bùng nổ năng lực và rủi ro như hiện nay,” ông nói.
Các tổ chức vận động an toàn AI đang theo dõi sát sao quá trình tái cấu trúc của OpenAI. Nathan Calvin, cố vấn pháp lý của tổ chức phi lợi nhuận Encode và là người từng bị OpenAI gửi trát yêu cầu cung cấp thông tin trong vụ kiện với Musk, cho biết ông “lạc quan thận trọng.” Theo Calvin, công tác giám sát của Kolter có thể tạo ra khác biệt lớn nếu hội đồng thực sự nghiêm túc, nhưng cũng có nguy cơ chỉ mang tính hình thức.
“Chúng ta chưa biết liệu những cam kết này sẽ trở thành hiện thực hay không,” Calvin nói.

Giáo sư Zico Kolter giữ trọng trách trong việc bảo đảm rằng những mô hình AI mới của OpenAI không gây hại cho người dùng. Ảnh: AP

