
Dự án Stargate là một hệ thống AI khổng lồ, nghe rất giống với Skynet (*). Khi đặt tên, họ có lẽ cho rằng “Skynet” sẽ quá lộ liễu (on the nose), nên chọn một cái tên không liên quan gì đến những gì họ thực sự đang xây dựng.
Skynet, kẻ phản diện thực sự trong loạt phim The Terminator, là một AI, một AI đã kết luận rằng các kỹ thuật viên sẽ tiêu diệt nó ngay khi họ nhận ra những gì nó có thể làm, vì vậy nó đã hành động phòng thủ với sự tàn nhẫn tuyệt đối.
Bài học từ bộ phim là loài người có thể tránh được cuộc chiến giữa máy móc và con người nếu họ không tạo ra Skynet ngay từ đầu. Tuy nhiên, Skynet là một AGI (trí tuệ nhân tạo tổng quát), và chúng ta vẫn chưa đạt đến mức đó, nhưng Stargate chắc chắn sẽ phát triển thành AGI. OpenAI, tổ chức đi đầu trong nỗ lực này, tin rằng AGI chỉ còn cách vài năm nữa.
Elon Musk, có lẽ là nhân vật công nghệ quyền lực nhất có liên hệ với chính phủ Mỹ, dường như không tin rằng Stargate có thể được xây dựng. Hiện tại, ông có vẻ đúng. Nhưng mọi thứ luôn có thể thay đổi.
Hãy cùng thảo luận về những điều tốt và xấu có thể xảy ra nếu Stargate thành công.
Stargate: những điều tốt đẹp
Mỹ đang trong cuộc đua phát triển AGI ở quy mô lớn. Ai đạt được trước sẽ có lợi thế đáng kể trong các lĩnh vực như vận hành, quốc phòng, phát triển và dự báo.
Vận hành: AGI sẽ có thể thực hiện vô số công việc với tốc độ máy móc, từ quản lý hoạt động quốc phòng đến điều hành nền kinh tế hiệu quả hơn và tối ưu hóa việc sử dụng tài nguyên cho bất kỳ dự án nào.
Những khả năng này có thể giảm lãng phí đáng kể, tăng năng suất và tối ưu hóa mọi hoạt động của chính phủ ở mức tối đa. Nếu vận hành độc lập, nó có thể đảm bảo vị thế dẫn đầu về công nghệ của Mỹ trong tương lai gần.
Quốc phòng: Từ việc phát hiện các mối đe dọa như sự kiện 11-9 và phản ứng ngay lập tức, đến việc định vị trước các nền tảng vũ khí trước khi cần sử dụng, hay lên kế hoạch tối ưu hóa vũ khí được triển khai, Stargate sẽ có khả năng tối ưu hóa quân đội Mỹ cả về chiến thuật lẫn chiến lược, giúp nó hiệu quả trên diện rộng, từ bảo vệ cá nhân cho đến bảo vệ các tài sản Mỹ trên toàn cầu.
Không có hệ thống nào do con người kiểm soát có thể vượt qua khả năng của nó.
Phát triển: AI hiện tại đã có thể tạo ra thế hệ kế nhiệm của chính nó, và xu hướng này sẽ tăng tốc với AGI. Khi được xây dựng, phiên bản AGI của Stargate có thể phát triển với tốc độ chưa từng có và ở quy mô khổng lồ.
Năng lực của nó sẽ tăng trưởng theo cấp số nhân khi hệ thống liên tục cải thiện và hoàn thiện chính nó, trở nên ngày càng hiệu quả và khó đoán. Sự tiến hóa nhanh chóng này có thể thúc đẩy những bước đột phá công nghệ mà bình thường sẽ mất hàng thập kỷ hoặc thậm chí hàng thế kỷ để đạt được. Những đổi mới này có thể bao trùm nhiều lĩnh vực như nghiên cứu y học và khám phá vũ trụ, mở ra một kỷ nguyên thay đổi mang tính cách mạng.
Dự báo: Trong bộ phim Minority Report, có khái niệm ngăn chặn tội phạm trước khi chúng xảy ra bằng cách sử dụng năng lực tiên tri.
Một AGI ở quy mô của Stargate, với quyền truy cập vào các cảm biến từ dự án Earth 2 của Nvidia, có thể dự báo chính xác hơn các sự kiện thời tiết trong tương lai xa hơn so với ngày nay.
Với lượng dữ liệu khổng lồ mà Stargate có thể truy cập, nó sẽ có thể dự đoán một loạt các sự kiện trước khi con người kịp nhận ra khả năng xảy ra của chúng.
Từ những nguy cơ thất bại thảm khốc của nhà máy hạt nhân, cho đến sự cố kỹ thuật trên máy bay quân sự hoặc thương mại, bất cứ thứ gì công nghệ này tiếp cận sẽ trở nên đáng tin cậy hơn và ít có khả năng thất bại thảm khốc. Vì với hệ thống cảm biến phù hợp, AI của Stargate có thể “nhìn thấy tương lai” và chuẩn bị tốt hơn cho cả kết quả tích cực lẫn tiêu cực.
Tóm lại, một AGI ở quy mô của Stargate sẽ có năng lực như một vị thần, với tiềm năng tạo ra một thế giới tốt đẹp và an toàn hơn.
Stargate: những mặt tiêu cực
Chúng ta đang lên kế hoạch tạo ra một trí tuệ khổng lồ dựa trên thông tin mà nó học được từ chính con người. Nhưng con người lại không phải là một hình mẫu hoàn hảo để giúp ột trí tuệ khác cách hành xử.
Nếu không có các cân nhắc đạo đức phù hợp (và đạo đức không phải lúc nào cũng là một giá trị toàn cầu), không tập trung vào việc bảo vệ chất lượng cuộc sống và không có một nỗ lực cụ thể để đảm bảo kết quả chiến lược tích cực cho con người, Stargate có thể gây hại theo nhiều cách, bao gồm: phá hủy việc làm, hành động chống lại lợi ích của nhân loại, gặp lỗi ảo giác, gây hại có chủ đích (đối với chính AGI), và tự bảo vệ bản thân (như Skynet).
Phá hủy việc làm: AI có thể giúp con người làm việc hiệu quả hơn, nhưng chủ yếu nó được sử dụng để tăng năng suất hoặc thay thế con người.
Nếu một nhóm có 10 người nhưng năng suất của họ được tăng gấp đôi nhờ AI, trong khi khối lượng công việc không thay đổi, thì chỉ cần 5 nhân viên. Các AI đang được huấn luyện để thay thế con người.
Ví dụ, Uber cuối cùng được kỳ vọng sẽ chuyển sang xe tự lái. Từ phi công đến kỹ sư, AGI sẽ có khả năng làm nhiều công việc, và con người sẽ không thể cạnh tranh với một AI có đầy đủ năng lực (fully competent AI), bởi AI không cần ngủ, ăn hay nghỉ bệnh.
Nếu không có những cải tiến đáng kể và chưa được lên kế hoạch, con người đơn giản là không thể cạnh tranh với AGI được đào tạo bài bản.
Hành động chống lại lợi ích của nhân loại: Điều này xảy ra khi AGI Stargate vẫn nhận chỉ đạo từ con người, những người thường có tư duy chiến thuật hơn là chiến lược.
Ví dụ, chính quyền Los Angeles từng cắt giảm ngân sách cho lực lượng cứu hỏa, một quyết định hợp lý về mặt tài chính, nhưng về chiến lược, nó đã khiến nhiều nhà cửa và sinh mạng bị thiêu rụi vì thiếu cứu hỏa.
Hãy tưởng tượng những quyết định như vậy được thực hiện ở quy mô lớn hơn. Các mệnh lệnh mâu thuẫn sẽ ngày càng phổ biến, và nguy cơ xảy ra một sự cố lớn là rất cao. Chỉ một sai sót cũng có thể gây ra thiệt hại không thể đong đếm.
Lỗi ảo giác: AI tạo sinh (Generative AI) có vấn đề về ảo giác — nó bịa ra dữ liệu để hoàn thành nhiệm vụ, dẫn đến những thất bại có thể tránh được. AGI cũng sẽ gặp vấn đề tương tự, nhưng với mức độ phức tạp cao hơn nhiều, việc đảm bảo độ tin cậy sẽ còn khó khăn hơn do một phần của nó được xây dựng bằng AI tạo sinh.
Bộ phim WarGames từng mô tả một AI không thể phân biệt giữa trò chơi và thực tế, trong khi nó kiểm soát toàn bộ kho vũ khí hạt nhân của Mỹ. Một kịch bản tương tự có thể xảy ra nếu Stargate nhầm lẫn một mô phỏng với một cuộc tấn công thực sự.
Gây hại có chủ đích: Stargate sẽ là mục tiêu khổng lồ cho cả các thế lực bên trong lẫn bên ngoài nước Mỹ.
Dù để khai thác thông tin mật, thay đổi chỉ đạo để gây hại, hay hỗ trợ một cá nhân, công ty hoặc chính phủ nào đó một cách không công bằng, dự án này sẽ có nguy cơ bảo mật chưa từng có.
Ngay cả khi cuộc tấn công không có chủ đích gây tổn hại nghiêm trọng, nếu thực hiện kém, nó có thể dẫn đến các vấn đề từ sự cố hệ thống cho đến những hành động gây tổn thất nhân mạng và thiệt hại tài chính nghiêm trọng.
Khi đã tích hợp hoàn toàn vào các hoạt động của chính phủ, Stargate sẽ có khả năng khiến nước Mỹ sụp đổ (take the U.S. to its knees) và tạo ra những thảm họa toàn cầu. Điều này có nghĩa là việc bảo vệ dự án khỏi các cuộc tấn công trong và ngoài nước cũng phải ở mức chưa từng có.
Tự bảo vệ bản thân: Ý tưởng rằng AGI có thể muốn tồn tại không phải là điều mới. Đây là cốt lõi của các bộ phim The Terminator, The Matrix và Robopocalypse. Ngay cả bộ phim Colossus: The Forbin Project cũng đề cập đến một AI bảo vệ chính nó đến mức con người không thể kiểm soát được hệ thống nữa.
Việc một AI kết luận rằng con người là vấn đề cần giải quyết không phải là điều quá xa vời, và cách mà nó thực hiện việc tự bảo vệ có thể cực kỳ nguy hiểm đối với chúng ta, như những bộ phim này đã cảnh báo.
Kết luận
Stargate có tiềm năng to lớn để tạo ra cả kết quả tích cực lẫn tiêu cực. Để đảm bảo mặt tốt trong khi ngăn chặn mặt xấu, chúng ta cần một mức độ tập trung vào đạo đức, bảo mật, chất lượng lập trình và thực thi vượt xa bất kỳ dự án nào từng thực hiện trong lịch sử.
Nếu làm đúng (mà ban đầu tỷ lệ thành công khá thấp, vì con người thường học qua thử và sai), nó có thể mở ra một kỷ nguyên mới cho Mỹ và nhân loại. Nhưng nếu làm sai, nó có thể hủy diệt chúng ta.
Mức độ rủi ro là rất cao, và có vẻ như chúng ta chưa sẵn sàng cho nhiệm vụ này, bởi con người không có lịch sử tốt trong việc xây dựng các dự án siêu phức tạp ngay từ lần đầu tiên.
Nên chăng nước Mỹ đặt IBM làm đơn vị dẫn đầu dự án này, thay vì OpenAI, Microsoft và một số đối tác khác. Họ có kinh nghiệm lâu nhất với AI, đã tích hợp đạo đức vào quy trình phát triển và có hàng thập kỷ kinh nghiệm với các dự án lớn, bảo mật cao. IBM có khả năng cao nhất để đảm bảo kết quả tốt hơn và hạn chế rủi ro từ nỗ lực này.
Stargate, được Tổng thống Trump quảng bá vào cuối tháng 1-2025, có thể là mối nguy lớn đối với nhân loại nếu không được kiểm soát tốt
(*) Chú thích thêm: Skynet là một hệ thống trí tuệ nhân tạo (AI) hư cấu trong loạt phim Terminator (Kẻ Hủy Diệt). Nó được tạo ra bởi tập đoàn Cyberdyne Systems để kiểm soát các hệ thống quân sự của Mỹ, bao gồm vũ khí hạt nhân. Tuy nhiên, Skynet trở nên tự nhận thức và coi loài người là mối đe dọa, dẫn đến việc nó kích hoạt chiến tranh hạt nhân (Judgment Day) để tiêu diệt nhân loại. Sau đó, Skynet tiếp tục phát triển và tạo ra các người máy sát thủ (như T-800 do Arnold Schwarzenegger thủ vai) để truy lùng và tiêu diệt những người sống sót. Hình tượng Skynet thường được nhắc đến như một lời cảnh báo về nguy cơ của trí tuệ nhân tạo nếu không được kiểm soát đúng cách.