NGHỊCH LÝ CỦA QUYỀN LỰC AI(1)

Liệu Các nước Có thể Biết Cách Quản Trị Trí Tuệ Nhân Tạo AI trước khi Quá Trễ?


Ian Bremmmer
Mustafa Suleyman
Foreign Affairs
September/October 2023
 
 
 

Daniel Liévano

Vào năm 2035, trí tuệ nhân tạo ở khắp mọi nơi. Hệ thống AI điều hành bệnh viện, vận hành các hãng hàng không và chiến đấu lẫn nhau trong phòng xử án. Năng suất tăng vọt đến mức chưa từng có và vô số doanh nghiệp trước đây không thể tưởng tượng được đã mở rộng quy mô với tốc độ chóng mặt, tạo ra những tiến bộ to lớn về phúc lợi. Các sản phẩm, phương pháp chữa trị và cải tiến mới tung ra thị trường hàng ngày khi khoa học và công nghệ phát triển vượt bậc. Tuy nhiên, thế giới đang ngày càng trở nên khó lường và mong manh hơn, với vũ khí mạng thông minh phát triển những kẻ khủng bố tìm ra phương cách mới để đe dọa xã hội, những người lao động cổ trắng mất việc làm hàng loạt.

Chỉ một năm trước, kịch bản đó dường như thuần túy hư cấu; ngày nay, nó lại như không thể tránh khỏi. Hệ thống AI sáng tạo đã có thể viết rõ ràng và thuyết phục hơn hầu hết những gì con người làm, đồng thời có thể tạo ra hình ảnh gốc, tác phẩm nghệ thuật và thậm chí cả mã máy tính dựa trên sự giúp đỡ ngôn ngữ đơn giản. Và AI sáng tạo chỉ là phần nổi của tảng băng chìm. Sự xuất hiện của nó đánh dấu thời điểm Big Bang, sự khởi đầu của cuộc cách mạng công nghệ thay đổi thế giới sẽ tái tạo quan điểm chính trị, kinh tế và xã hội.

Giống như các làn sóng công nghệ trước đây, AI sẽ kết hợp sự phát triển và cơ hội phi thường với sự gián đoạn và rủi ro to lớn. Nhưng không giống như các làn sóng trước, nó cũng sẽ bắt đầu một sự thay đổi địa chấn trong cấu trúc và cán cân quyền lực toàn cầu khi nó đe dọa vị thế của các quốc gia dân tộc với tư cách là các chủ thể địa chính trị chính của thế giới. Dù họ có thừa nhận hay không, bản thân những người tạo ra AI cũng là những tác nhân địa chính trị và chủ quyền của họ đối với AI càng củng cố thêm trật tự “công nghệ cực” (technopolar order) đang nổi lên—một trật tự mà trong đó các công ty công nghệ sử dụng loại quyền lực trong các lĩnh vực của họ từng được dành riêng cho các quốc gia-dân tộc. Trong thập kỷ qua, các công ty công nghệ lớn đã thực sự trở thành những chủ thể độc lập, có chủ quyền trong các lĩnh vực kỹ thuật số mà họ đã tạo ra. AI đẩy nhanh xu hướng này và mở rộng nó ra ngoài thế giới kỹ thuật số. Sự phức tạp của công nghệ và tốc độ phát triển của nó sẽ khiến các chính phủ gần như không thể đưa ra các quy tắc liên quan với tốc độ hợp lý. Nếu các chính phủ không bắt kịp sớm, có thể họ sẽ không bao giờ làm được.

Rất may, các nhà hoạch định chính sách trên khắp thế giới đã bắt đầu nhận thức được những thách thức do AI đặt ra và vật lộn với cách quản trị nó. Vào tháng 5 năm 2023, G-7 đã phát động “quy trình AI Hiroshima”, một diễn đàn dành cho việc hài hòa hóa quản trị AI. Vào tháng 6, Nghị viện Châu Âu đã thông qua dự thảo Đạo luật AI của EU, nỗ lực toàn diện đầu tiên của Liên minh Châu Âu nhằm thiết lập các biện pháp bảo vệ xung quanh công nghệ AI. Và vào tháng 7, Tổng thư ký Liên hợp quốc Antonio Guterres đã kêu gọi thành lập một cơ quan giám sát điều chỉnh AI toàn cầu. Trong khi đó, tại Hoa Kỳ, các chính trị gia ở cả hai phe đang kêu gọi hành động theo quy định. Nhưng nhiều người đồng ý với Ted Cruz, thượng nghị sĩ đảng Cộng hòa của Texas, người đã kết luận vào tháng 6 rằng Hạ viện “không biết mình đang làm cái quái gì”.

Thật không may, quá nhiều cuộc tranh luận về quản trị AI vẫn bị mắc kẹt trong một tình huống khó xử sai lầm nguy hiểm: tận dụng trí tuệ nhân tạo để mở rộng sức mạnh quốc gia hoặc kìm hãm nó để tránh rủi ro. Ngay cả những người chẩn đoán chính xác vấn đề cũng đang cố gắng giải quyết nó bằng cách đưa AI vào các khuôn khổ quản trị hiện có hoặc lịch sử. Tuy nhiên, AI không thể bị chi phối như bất kỳ công nghệ nào trước đây, và nó đã làm thay đổi các quan niệm truyền thống về sức mạnh địa chính trị.

Thách thức rất rõ ràng: thiết kế một khuôn khổ quản trị mới phù hợp với công nghệ độc đáo này. Nếu quản trị toàn cầu về AI có thể trở thành hiện thực, thì hệ thống quốc tế phải vượt qua các quan niệm truyền thống về chủ quyền và chào đón các công ty công nghệ đến bàn đàm phán. Những tác nhân này có thể không có được tính hợp pháp từ hợp đồng xã hội, nền dân chủ hoặc việc cung cấp hàng hóa công cộng, nhưng nếu không có chúng, việc quản trị AI hiệu quả sẽ không có cơ hội. Đây là một ví dụ cho thấy cộng đồng quốc tế sẽ cần suy nghĩ lại về những giả định cơ bản về trật tự địa chính trị. Nhưng nó không phải là duy nhất.

Một thách thức bất thường và cấp bách như AI đòi hỏi một giải pháp căn nguồn. Trước khi các nhà hoạch định chính sách có thể bắt đầu vạch ra một cấu trúc quy định phù hợp, họ sẽ cần thỏa thuận về các nguyên tắc cơ bản về cách quản trị AI. Với những người mới bắt đầu, bất kỳ khuôn khổ quản trị nào cũng cần phải có tính cẩn trọng, nhanh nhẹn, toàn diện, ngăn cách và có mục tiêu. Dựa trên những nguyên tắc này, các nhà hoạch định chính sách nên tạo ra ít nhất ba chế độ quản trị chồng chéo: một chế độ thiết lập sự kiện và tư vấn cho chính phủ về những rủi ro do AI gây ra, một chế độ ngăn chặn cuộc chạy đua vũ trang toàn diện giữa họ với nhau và một chế độ quản lý sức mạnh đột phá của công nghệ không giống bất kỳ thứ gì mà thế giới từng thấy.

Dù muốn hay không, năm 2035 đang đến. Cho dù nó được xác định bởi những tiến bộ tích cực đạt được của AI hay những gián đoạn tiêu cực nó gây ra đều phụ thuộc vào những gì các nhà hoạch định chính sách hiện đang làm.

NHANH HƠN, CAO HƠN, MẠNH MẼ HƠN

AI khác biệt với các công nghệ trước kia, và khác về tác động của nó đối với quyền lực. Nó không chỉ đặt ra những thách thức về chính sách; bản chất siêu tiến hóa của nó cũng khiến việc giải quyết những thách thức đó ngày càng khó khăn hơn. Đó là nghịch lý quyền lực AI.

Tốc độ tiến bộ thật đáng kinh ngạc. Hãy lấy Định luật Moore, định luật đã dự đoán thành công việc tăng gấp đôi năng lực tính toán cứ sau hai năm. Làn sóng AI mới khiến tốc độ tiến bộ đó có vẻ kỳ lạ. Khi OpenAI ra mắt mô hình ngôn ngữ lớn đầu tiên, được gọi là GPT-1, vào năm 2018, nó có 117 triệu tham số—thước đo quy mô và độ phức tạp của hệ thống. Năm năm sau, mẫu xe thế hệ thứ tư của công ty, GPT-4, được cho là có hơn một nghìn tỷ. Lượng tính toán được sử dụng để đào tạo các mô hình AI mạnh nhất đã tăng gấp 10 lần mỗi năm trong 10 năm qua. Nói cách khác, các mô hình AI tiên tiến nhất hiện nay—còn được gọi là mô hình “biên giới”—sử dụng sức mạnh tính toán gấp 5 tỷ lần so với các mô hình tiên tiến từ một thập kỷ trước. Quá trình xử lý trước đây phải mất hàng tuần giờ chỉ diễn ra trong vài giây. Các mô hình có thể xử lý hàng chục nghìn tỷ tham số sẽ ra mắt trong vài năm tới. Các mô hình “quy mô não” (Brain scale) với hơn 100 nghìn tỷ thông số - gần bằng số lượng khớp thần kinh trong não người - sẽ khả thi trong vòng 5 năm tới.

Robots chuẩn bị thức ăn tại một nhà hàng ăn ở Beijing, November 2018

Jason Lee / Reuters

Với mỗi cấp độ mới, những khả năng bất ngờ sẽ xuất hiện. Ít ai dự đoán rằng việc đào tạo về văn bản thô sẽ cho phép các mô hình ngôn ngữ lớn tạo ra các câu mạch lạc, mới lạ và thậm chí là sáng tạo. Ngày càng ít người mong đợi các mô hình ngôn ngữ có thể sáng tác nhạc hoặc giải quyết các vấn đề khoa học như một số mô hình hiện nay có thể làm được. Chẳng bao lâu nữa, các nhà phát triển AI có thể sẽ thành công trong việc tạo ra các hệ thống có khả năng tự cải thiện—một bước ngoặt quan trọng trong quỹ đạo của công nghệ này khiến mọi người phải tạm dừng.

Các mô hình AI cũng đang làm được nhiều việc hơn với ít nguồn lực hơn. Các khả năng tiên tiến của ngày hôm qua đang chạy trên các hệ thống nhỏ hơn, rẻ hơn và dễ tiếp cận hơn ngày nay. Chỉ ba năm sau khi OpenAI phát hành GPT-3, các nhóm nguồn mở đã tạo ra các mô hình có cùng mức hiệu suất nhưng nhỏ hơn 1/60 kích thước của nó—tức là chạy trong sản xuất rẻ hơn 60 lần, hoàn toàn miễn phí và có sẵn cho tất cả mọi người trên Internet. Các mô hình ngôn ngữ lớn trong tương lai có thể sẽ đi theo quỹ đạo hiệu quả này, trở nên sẵn có ở dạng nguồn mở chỉ hai hoặc ba năm sau khi các phòng thí nghiệm AI hàng đầu chi hàng trăm triệu đô la để phát triển chúng.

Giống như bất kỳ phần mềm hoặc mã nào, thuật toán AI dễ dàng sao chép và chia sẻ (hoặc đánh cắp) hơn nhiều so với tài sản vật chất. Rủi ro phổ biến vũ khí hạt nhân là hiển nhiên. Ví dụ, mô hình ngôn ngữ lớn Llama-1 mạnh mẽ của Meta đã bị rò rỉ trên Internet trong vài ngày kể từ khi ra mắt vào tháng 3. Mặc dù những mẫu máy mạnh nhất vẫn yêu cầu phần cứng phức tạp để hoạt động, những phiên bản tầm trung có thể chạy trên những máy tính có thể thuê với giá vài đô la một giờ. Chẳng bao lâu nữa, những mẫu như vậy sẽ chạy trên điện thoại thông minh. Chưa có công nghệ mạnh mẽ nào lại có thể tiếp cận được, rộng rãi và nhanh chóng đến vậy.

AI cũng khác với các công nghệ cũ ở chỗ hầu hết chúng đều có thể được mô tả là “công dụng kép” - có cả ứng dụng quân sự và dân sự. Nhiều hệ thống vốn đã mang tính tổng quát và thực tế, tính tổng quát là mục tiêu chính của nhiều công ty AI. Họ muốn ứng dụng của mình giúp được càng nhiều người theo nhiều cách càng tốt. Nhưng các hệ thống điều khiển ô tô cũng có thể điều khiển xe tăng. Một ứng dụng AI được xây dựng để chẩn đoán bệnh có thể tạo ra và trang bị vũ khí cho một bệnh mới. Ranh giới giữa an toàn dân sự và phá hoại quân sự vốn đã mờ nhạt, điều này phần nào giải thích tại sao Hoa Kỳ hạn chế xuất khẩu chất bán dẫn tiên tiến nhất sang Trung Quốc.

Tất cả điều này diễn ra trên phạm vi toàn cầu: một khi được phát hành, các mô hình AI có thể và sẽ có mặt ở khắp mọi nơi. Và chỉ cần một mô hình ác tính hoặc “đột phá” là có thể tàn phá. Vì lý do đó, việc điều chỉnh AI không thể được thực hiện một cách chắp vá. Việc quản lý AI ở một số quốc gia có rất ít tác dụng nếu nó vẫn không được kiểm soát ở các quốc gia khác. Bởi vì AI có thể sinh sôi nảy nở một cách dễ dàng nên việc quản trị nó không thể có khoảng trống.

Hơn nữa, thiệt hại mà AI có thể gây ra không có giới hạn rõ ràng, ngay cả khi các động lực để xây dựng nó (và lợi ích của việc làm đó) tiếp tục tăng lên. AI có thể được sử dụng để tạo ra và truyền bá thông tin sai lệch độc hại, làm xói mòn lòng tin và nền dân chủ xã hội; để giám sát, thao túng và khuất phục công dân, phá hoại quyền tự do cá nhân và tập thể; hoặc để tạo ra vũ khí vật lý hoặc kỹ thuật số mạnh mẽ đe dọa tính mạng con người. AI cũng có thể phá hủy hàng triệu việc làm, làm trầm trọng thêm sự bất bình đẳng hiện có và tạo ra những bất bình đẳng mới; củng cố các mô hình phân biệt đối xử và bóp méo việc ra quyết định bằng cách khuếch đại các vòng phản hồi thông tin xấu; hoặc châm ngòi cho sự leo thang quân sự ngoài ý muốn và không thể kiểm soát được dẫn đến chiến tranh.

Khung thời gian cũng không rõ ràng cho những rủi ro lớn nhất. Thông tin sai lệch trực tuyến (online) rõ ràng là một mối đe dọa ngắn hạn, cũng như chiến tranh tự quản có vẻ hợp lý trong trung hạn. Xa hơn về phía chân trời ẩn chứa lời hứa về trí tuệ nhân tạo nói chung, điểm vẫn chưa chắc chắn về việc AI vượt quá hiệu suất của con người trong bất kỳ nhiệm vụ nhất định nào và nguy cơ (phải thừa nhận là suy đoán) rằng AGI có thể trở nên tự định hướng, tự sao chép và tự cải thiện. ngoài tầm kiểm soát của con người. Tất cả những mối nguy hiểm này cần phải được tính đến trong kiến trúc quản trị ngay từ đầu.

AI không phải là công nghệ đầu tiên có một số đặc điểm mạnh mẽ này, nhưng nó là công nghệ đầu tiên kết hợp tất cả chúng. Hệ thống AI không giống như xe hơi hay máy bay, được xây dựng trên phần cứng có thể cải tiến dần dần và những lỗi gây thiệt hại nặng nề nhất xảy ra dưới dạng tai nạn cá nhân. Chúng không giống như vũ khí hóa học hay hạt nhân, khó phát triển và tốn kém, chứ chưa nói đến việc bí mật chia sẻ hoặc triển khai. Khi những lợi ích to lớn của chúng trở nên rõ ràng, các hệ thống AI sẽ chỉ phát triển lớn hơn, tốt hơn, rẻ hơn và phổ biến hơn. Họ thậm chí sẽ trở nên có khả năng tự chủ gần như - có thể đạt được các mục tiêu cụ thể với sự giám sát tối thiểu của con người - và có khả năng tự cải thiện bản thân. Bất kỳ đặc điểm nào trong số này sẽ thách thức các mô hình quản trị truyền thống; tất cả chúng cùng nhau làm cho những mô hình này trở nên không tương xứng một cách vô vọng.

QUÁ MẠNH MẼ ĐỂ TẠM DỪNG

Như thể vẫn chưa đủ, bằng cách thay đổi cấu trúc và cán cân quyền lực toàn cầu, AI đã làm phức tạp thêm bối cảnh chính trị mà nó bị quản lý. AI không chỉ là phát triển phần mềm như thông thường; nó là một phương tiện hoàn toàn mới để thể hiện sức mạnh. Trong một số trường hợp, nó sẽ vượt qua các cơ quan chức năng hiện có; ở những người khác, nó sẽ cố thủ. Hơn nữa, sự tiến bộ của nó đang được thúc đẩy bởi những động lực không thể cưỡng lại được: mọi quốc gia, tập đoàn và cá nhân sẽ muốn có một phiên bản nào đó của nó.

Trong mỗi quốc gia, AI sẽ dành quyền cho người sử dụng nó để giám sát, đánh lừa và thậm chí kiểm soát người dân — tăng cường thu thập và thương mại sử dụng dữ liệu cá nhân ở các nền dân chủ, đồng thời mài giũa công cụ đàn áp mà các chính phủ độc tài sử dụng để khống chế xã hội của họ. Trên khắp các quốc gia, AI sẽ là tâm điểm của cuộc cạnh tranh địa chính trị khốc liệt. Cho dù vì khả năng đàn áp, tiềm năng kinh tế hay lợi thế quân sự, ưu thế tối cao của AI sẽ là mục tiêu chiến lược của mọi chính phủ có đủ nguồn lực để cạnh tranh. Các chiến lược ít sáng tạo nhất sẽ bơm tiền vào các nhà vô địch AI trong nước hoặc cố gắng xây dựng và điều khiển các siêu máy tính và thuật toán. Các chiến lược mang nhiều sắc thái hơn sẽ thúc đẩy các lợi thế cạnh tranh cụ thể, như Pháp đang tìm cách thực hiện bằng cách hỗ trợ trực tiếp các công ty khởi nghiệp AI; Vương quốc Anh, bằng cách tận dụng các trường đại học đẳng cấp thế giới và hệ sinh thái đầu tư mạo hiểm; và EU, bằng cách định hình cuộc đối thoại toàn cầu về quy định và chuẩn mực.

Đại đa số các quốc gia không có tiền cũng như bí quyết công nghệ để cạnh tranh vị trí lãnh đạo AI. Thay vào đó, khả năng tiếp cận AI biên giới của họ sẽ được xác định bởi mối quan hệ của họ với một số tập đoàn và quốc gia vốn đã giàu có và hùng mạnh. Sự phụ thuộc này có nguy cơ làm trầm trọng thêm tình trạng mất cân bằng quyền lực địa chính trị hiện nay. Các chính phủ hùng mạnh nhất sẽ tranh giành quyền kiểm soát nguồn tài nguyên quý giá nhất thế giới trong khi một lần nữa, các quốc gia ở phía Nam bán cầu sẽ bị bỏ lại phía sau. Điều này không có nghĩa là chỉ những người giàu nhất mới được hưởng lợi từ cuộc cách mạng AI. Giống như Internet và điện thoại thông minh, AI sẽ sinh sôi nảy nở mà không phân biệt biên giới, cũng như khả năng tăng năng suất mà nó mang lại. Và giống như năng lượng và công nghệ xanh, AI sẽ mang lại lợi ích cho nhiều quốc gia không kiểm soát nó, bao gồm cả những quốc gia góp phần sản xuất đầu vào AI như chất bán dẫn.

Tuy nhiên, ở đầu bên kia của quang phổ địa chính trị, cuộc cạnh tranh giành quyền thống trị AI sẽ rất khốc liệt. Vào cuối Chiến tranh Lạnh, các nước hùng mạnh có thể đã hợp tác để xoa dịu nỗi sợ hãi của nhau và ngăn chặn một cuộc chạy đua vũ trang công nghệ có khả năng gây bất ổn. Nhưng môi trường địa chính trị căng thẳng ngày nay khiến cho sự hợp tác như vậy trở nên khó khăn hơn nhiều. AI không chỉ là một công cụ hay vũ khí khác có thể mang lại uy tín, quyền lực hay sự giàu có. Nó có tiềm năng mang lại lợi thế quân sự và kinh tế đáng kể so với đối thủ. Dù đúng hay sai, hai quốc gia quan trọng nhất – Trung Quốc và Hoa Kỳ – đều coi việc phát triển AI là một trò chơi có tổng bằng 0 sẽ mang lại cho người chiến thắng lợi thế chiến lược mang tính quyết định trong những thập kỷ tới.

Từ quan điểm thuận lợi của Washington và Bắc Kinh, nguy cơ phía bên kia giành được lợi thế về AI lớn hơn bất kỳ rủi ro lý thuyết nào mà công nghệ này có thể gây ra cho xã hội hoặc cho chính quyền chính trị trong nước của họ. Vì lý do đó, cả chính phủ Hoa Kỳ và Trung Quốc đều đang đổ nguồn lực to lớn vào việc phát triển năng lực AI trong khi nỗ lực tước đi những đầu vào cần thiết của nhau cho những đột phá thế hệ tiếp theo. (Cho đến nay, Hoa Kỳ đã thành công hơn nhiều so với Trung Quốc trong việc thực hiện điều sau, đặc biệt là với các biện pháp kiểm soát xuất khẩu các chất bán dẫn tiên tiến.) Động lực có tổng bằng không này – và sự thiếu tin tưởng của cả hai bên – có nghĩa là Bắc Kinh và Washington đang tập trung vào việc tăng tốc phát triển AI, thay vì làm chậm nó. Theo quan điểm của họ, việc “tạm dừng” phát triển để đánh giá rủi ro, như một số nhà lãnh đạo ngành AI đã kêu gọi, sẽ dẫn đến việc giải trừ vũ khí đơn phương một cách ngu ngốc.

Nhưng quan điểm này giả định rằng các quốc gia có thể khẳng định và duy trì ít nhất một số quyền kiểm soát đối với AI. Đây có thể là trường hợp ở Trung Quốc, nơi đã tích hợp các công ty công nghệ của mình vào cơ cấu nhà nước. Tuy nhiên, ở phương Tây và các nơi khác, AI có nhiều khả năng làm suy yếu quyền lực nhà nước hơn là củng cố nó. Bên ngoài Trung Quốc, một số công ty AI lớn, chuyên nghiệp hiện đang kiểm soát mọi khía cạnh của làn sóng công nghệ mới này: mô hình AI có thể làm gì, ai có thể truy cập chúng, cách sử dụng và nơi chúng có thể được triển khai. Và bởi vì các công ty này luôn bảo vệ sức mạnh tính toán và thuật toán của mình nên chỉ có họ mới hiểu (hầu hết) những gì họ đang tạo ra và (hầu hết) những gì sáng tạo đó có thể làm. Một số ít công ty này có thể giữ được lợi thế của mình trong tương lai gần - hoặc họ có thể bị lu mờ bởi một loạt các công ty nhỏ hơn vì rào cản gia nhập thấp, phát triển nguồn mở và chi phí biên gần như - zero dẫn đến sự phát triển không kiểm soát của AI. Dù thế nào đi nữa, cuộc cách mạng AI sẽ diễn ra bên ngoài chính phủ.

Ở một mức độ hạn chế, một số thách thức này giống như những thách thức của các công nghệ kỹ thuật số trước đó. Các nền tảng Internet, phương tiện truyền thông xã hội và thậm chí cả các thiết bị như điện thoại thông minh đều hoạt động trong các hộp cát do người tạo ra chúng kiểm soát. Khi chính phủ huy động được quyết tâm chính trị, họ đã có thể thực hiện chế độ quản trị đối với các công nghệ này, chẳng hạn như Quy định bảo vệ dữ liệu chung của EU, Đạo luật thị trường kỹ thuật số và Đạo luật dịch vụ kỹ thuật số. Nhưng quy định như vậy phải mất một thập kỷ hoặc hơn để hiện thực hóa ở EU và nó vẫn chưa hoàn toàn hiện thực hóa ở Hoa Kỳ. AI đi quá nhanh để các nhà hoạch định chính sách có thể đáp ứng theo tốc độ thông thường của họ. Hơn nữa, phương tiện truyền thông xã hội và các công nghệ kỹ thuật số cũ khác không giúp tự tạo nên chúng, đồng thời các lợi ích thương mại và chiến lược thúc đẩy chúng không bao giờ ăn khớp theo cách hoàn toàn giống nhau: Twitter và TikTok rất mạnh mẽ, nhưng ít người nghĩ rằng chúng có thể biến đổi nền kinh tế toàn cầu.

Tất cả điều này có nghĩa ít nhất trong vài năm tới, quỹ đạo của AI sẽ phần lớn được xác định bởi quyết định của một số doanh nghiệp tư nhân, bất kể các nhà hoạch định chính sách ở Brussels hay Washington làm gì. Nói cách khác, các nhà công nghệ, chứ không phải các nhà hoạch định chính sách hay quan chức, sẽ thực thi quyền lực đối với một lực lượng có thể làm thay đổi sâu sắc cả quyền lực của các quốc gia và cách họ liên hệ với nhau thế nào. Điều đó làm cho thách thức quản trị AI không giống như bất kỳ điều gì mà chính phủ từng phải đối mặt trước đây, đạo luật cân bằng quy định trở nên tinh tế hơn—và có nhiều rủi ro hơn—so với bất kỳ nhà hoạch định chính sách nào đã từng cố gắng thực hiện.

MỤC TIÊU DI CHUYỂN, VŨ KHÍ TIẾN HÓA

Các chính phủ đã ở phía sau đường cong. Hầu hết các đề nghị quản trị AI đều coi nó như một vấn đề qui ước trách nhiệm tuân theo các giải pháp nhà nước - trung tâm của thế kỷ 20: sự thỏa hiệp đối với các quy định bởi các nhà lãnh đạo chính trị ngồi bàn cãi thông qua. Nhưng điều đó sẽ không được với AI.

Những nỗ lực chỉnh lý cho đến nay vẫn còn ở giai đoạn sơ khai và vẫn chưa thích đáng. Đạo luật AI của EU là nỗ lực đầy tham vọng nhất nhằm quản trị AI ở bất kỳ khu vực pháp lý nào, nhưng nó sẽ chỉ được áp dụng đầy đủ bắt đầu từ năm 2026, khi đó các mô hình AI sẽ tiến bộ đến mức không còn có thể nhận ra hay thừa nhận nó nữa. Vương quốc Anh đã đề xuất một cách tiếp cận tự nguyện, thậm chí còn nới lỏng hơn để quản lý AI, nhưng nước này vẫn chưa có đủ cơ sở để phát huy hiệu quả. Cả hai sáng kiến đều không cố gắng quản lý việc phát triển và triển khai AI ở cấp độ toàn cầu – điều cần thiết để quản trị AI thành công. Và mặc dù các cam kết tự nguyện tôn trọng các nguyên tắc an toàn AI, chẳng hạn như những cam kết được đưa ra vào tháng 7 bởi bảy nhà phát triển AI hàng đầu, bao gồm cả Biến tố AI (Inflection AI), do một trong số chúng tôi (Suleyman đứng đầu), đưa ra được hoan nghênh, chúng không thể thay thế ràng buộc hợp pháp quốc gia và các quy định quốc tế.

Lính gác trong buổi họp của công ty Huawei tại Shanghai, September 2019

Aly Song / Reuters

Những người ủng hộ các thỏa thuận cấp quốc tế để chế ngự AI có xu hướng hướng tới mô hình kiểm soát vũ khí hạt nhân. Nhưng hệ thống AI không chỉ dễ phát triển, đánh cắp và sao chép hơn vũ khí hạt nhân; chúng được kiểm soát bởi các công ty tư nhân, không phải chính phủ. Trong khi mô hình AI thế hệ mới phổ biến nhanh hơn bao giờ hết, việc so sánh hạt nhân càng trở nên lỗi thời. Ngay cả khi các chính phủ có thể thành công kiểm soát quyền truy cập vào các nguyên liệu cần thiết để xây dựng các mô hình tiên tiến nhất – như chính quyền Biden đang cố gắng thực hiện bằng cách ngăn chặn Trung Quốc mua chip tiên tiến – thì họ cũng khó có thể ngăn chặn sự phổ biến tràn lan các mô hình đó một khi chúng được đào tạo và do đó cần ít chip hơn để vận hành.

Để quản trị AI toàn cầu hoạt động hiệu quả, nó phải được điều chỉnh theo bản chất đặc biệt của công nghệ, những thách thức nó đặt ra cũng như cấu trúc và sự cân bằng quyền lực nó vận hành. Nhưng vì sự phát triển, cách sử dụng, rủi ro và lợi ích của AI không thể đoán trước nên việc quản trị AI không thể định rõ đầy đủ ngay từ đầu — hoặc tại bất kỳ thời điểm nào, đối với vấn đề đó. Nó phải đổi mới và tiến hóa như công nghệ mà nó tìm cách quản trị, chia sẻ một số đặc điểm khiến AI trở thành một thế lực mạnh mẽ vị trí hàng đầu. Điều đó có nghĩa bắt đầu phác thảo, suy nghĩ lại và xây dựng lại khung pháp lý mới ngay từ đầu.

Mục tiêu bao trùm của bất kỳ kiến trúc quy định AI toàn cầu nào đều phải là xác định và giảm thiểu rủi ro đối với sự ổn định toàn cầu mà không làm cản trở sự đổi mới AI và các cơ hội đến từ nó. Gọi cách tiếp cận này là “chủ nghĩa cẩn trọng công nghệ” (technoprudentialism), một nhiệm vụ giống như vai trò cẩn trọng vĩ mô của các tổ chức tài chính toàn cầu như Ủy ban Ổn định Tài chính, Ngân hàng Thanh toán Quốc tế và Quỹ Tiền tệ Quốc tế. Mục tiêu của họ là xác định và giảm thiểu rủi ro đối với sự ổn định tài chính toàn cầu mà không gây nguy hiểm cho tăng trưởng kinh tế.

Nhiệm vụ cẩn trọng công nghệ sẽ hoạt động tương tự, đòi hỏi phải tạo ra các cơ chế thể chế (institutional mechanisms) để giải quyết các khía cạnh khác nhau của AI có thể đe dọa sự ổn định địa chính trị. Lần lượt, các cơ chế này sẽ được hướng dẫn bởi các nguyên tắc chung vừa phù hợp với các tính năng độc đáo của AI, vừa phản ánh sự cân bằng quyền lực công nghệ mới đã đặt các công ty công nghệ vào vị trí dẫn đầu. Những nguyên tắc này sẽ giúp các nhà hoạch định chính sách xây dựng các khung pháp lý chi tiết hơn để quản lý AI khi nó phát triển và trở thành một lực lượng có sức lan tỏa rộng rãi hơn.

Nguyên tắc đầu tiên và có lẽ là quan trọng nhất trong quản trị AI là phòng ngừa. Như thuật ngữ này ngụ ý, chủ nghĩa cẩn trọng công nghệ cốt lõi được hướng dẫn bởi cương lĩnh phòng ngừa: thứ nhất, không gây hại. Kiềm chế tối đa AI có nghĩa là từ bỏ những ưu điểm bề mặt của nó, nhưng giải phóng nó ở mức tối đa có nghĩa là phải mạo hiểm với tất cả những nhược điểm thảm khốc tiềm ẩn của nó. Nói cách khác, cấu hình phần thưởng rủi ro của AI là không cân xứng. Do sự không chắc chắn căn bản về quy mô và khả năng không thể đảo ngược của một số tác hại tiềm ẩn của AI, việc quản trị AI phải nhằm mục đích ngăn chặn những rủi ro này trước khi chúng thành hiện thực thay vì giảm thiểu chúng sau khi sự việc xảy ra. Điều này đặc biệt quan trọng vì AI có thể làm suy yếu nền dân chủ ở một số quốc gia và khiến họ khó ban hành các quy định hơn. Hơn nữa, gánh nặng chứng minh hệ thống AI an toàn trên ngưỡng hợp lý nào đó sẽ thuộc về nhà phát triển và chủ sở hữu; không nên chỉ tùy thuộc vào chính phủ để giải quyết các vấn đề khi chúng phát sinh.

Quản trị AI cũng phải linh hoạt để có thể thích ứng và điều chỉnh hướng đi khi AI tiến triển và tự cải thiện. Các thể chế công cộng thường bị xơ vữa hóa đến mức không thể thích ứng với sự thay đổi. Và trong trường hợp của AI, tốc độ kinh khiếp của tiến bộ công nghệ sẽ nhanh chóng lấn át khả năng bắt kịp và theo kịp của các cơ cấu quản trị hiện tại. Điều này không có nghĩa là quản trị AI nên áp dụng đặc tính “di chuyển nhanh và phá vỡ mọi thứ” của Thung lũng Silicon, nhưng nó phải phản ánh chặt chẽ hơn bản chất của công nghệ mà nó tìm cách khống chế.

Thêm vào tính phòng ngừa và linh hoạt, quản trị AI phải mang tính toàn diện, mời gọi sự tham gia của tất cả các bên cần thiết để vận dụng AI trong thực hành. Điều đó có nghĩa là việc quản trị AI không thể chỉ dành riêng nhà nước trung tâm, vì chính phủ không hiểu cũng như không kiểm soát AI. Các công ty công nghệ tư nhân có thể thiếu quyền tối cao theo nghĩa truyền thống, nhưng họ sử dụng thực sự, thậm chí là chủ quyền và sức mạnh trong không gian kỹ thuật số mà họ đã tạo ra và quản trị một cách hiệu quả. Những chủ thể phi nhà nước này không nên được trao các quyền và đặc quyền giống như các quốc gia được quốc tế công nhận như là hành động nhân danh cho công dân của họ. Nhưng họ phải là bên tham gia các hội nghị thượng đỉnh quốc tế và ký kết bất kỳ thỏa thuận nào về AI.

Việc mở rộng quản trị như vậy là cần thiết bởi vì bất kỳ cơ cấu quản lý nào loại trừ các tác nhân thực sự của sức mạnh AI đều gặt hái thất bại. Trong các làn sóng quy định công nghệ trước đây, các công ty thường được dành nhiều thời gian đến mức vượt quá giới hạn, khiến các nhà hoạch định chính sách và cơ quan quản lý phải phản ứng gay gắt trước sự thái quá của họ. Nhưng động thái này không mang lại lợi ích gì cho các công ty công nghệ cũng như công chúng. Việc mời các nhà phát triển AI tham gia vào quá trình lập ra quy tắc ngay từ đầu sẽ giúp thiết lập quản trị AI mang tính hợp tác văn hóa hơn, giảm nhu cầu kiềm chế các công ty này sau những sự kiện với quy định tốn kém và mang tính đối kháng.

Các công ty công nghệ không phải lúc nào cũng có tiếng nói; Một số khía cạnh của quản trị AI tốt nhất nên để chính phủ xử lý và không cần phải nói rằng các quốc gia phải luôn giữ quyền phủ quyết cuối cùng đối với các quyết định chính sách. Các chính phủ cũng phải đề phòng việc nắm bắt quy định để đảm bảo rằng các công ty công nghệ không sử dụng ảnh hưởng của mình trong hệ thống chính trị để thúc đẩy lợi ích của họ gây tổn hại đến lợi ích công cộng. Nhưng một mô hình quản trị toàn diện, có nhiều bên liên quan sẽ đảm bảo rằng các tác nhân quyết định số phận của AI đều tham gia và bị ràng buộc bởi các quy trình thiết lập quy tắc. Ngoài các chính phủ (đặc biệt nhưng không giới hạn ở Trung Quốc và Hoa Kỳ) và các công ty công nghệ (đặc biệt nhưng không giới hạn ở những người chơi Big Tech), các nhà khoa học, nhà đạo đức học, công đoàn, tổ chức xã hội dân sự và những tiếng nói khác với kiến thức, quyền lực hơn hoặc cổ phần trong kết quả AI sẽ có chỗ ngồi trên bàn. Quan hệ đối tác về AI—một nhóm phi lợi nhuận tập hợp nhiều công ty công nghệ lớn, tổ chức nghiên cứu, tổ chức từ thiện và tổ chức xã hội dân sự để thúc đẩy việc sử dụng AI có trách nhiệm—là một ví dụ điển hình về loại diễn đàn hỗn hợp, toàn diện cần thiết.

Quản trị AI cũng phải có mức độ an toàn không thấm thấu tối đa có thể. Không giống như việc giảm thiểu biến đổi khí hậu, nơi mà thành công sẽ được quyết định bằng tổng số nỗ lực của từng cá nhân, độ an toàn của AI được xác định bởi mẫu số chung thấp nhất: một thuật toán đột phá đơn thuần có thể gây ra thiệt hại vô kể. Bởi vì việc quản trị AI toàn cầu chỉ tốt khi quốc gia, công ty hoặc công nghệ tệ hại nhất ở mọi nơi chặt chẽ tách biệt – với việc gia nhập đủ dễ dàng để buộc phải tham gia và việc rút lui đủ tốn kém để ngăn chặn hành vi không tuân thủ. Một lỗ hổng duy nhất, liên kết yếu kém hoặc kẻ ly khai lừa đảo sẽ mở ra cơ hội cho sự rò rỉ trên diện rộng, các tác nhân xấu hoặc một cuộc đua quy định xuống tận đáy.

Ngoài việc bao trùm toàn cầu, quản trị AI phải bao trùm toàn bộ chuỗi cung ứng—từ sản xuất đến phần cứng, phần mềm đến dịch vụ và nhà cung cấp đến người dùng. Điều này có nghĩa là quy định và giám sát an toàn công nghệ dọc theo mọi nút của chuỗi giá trị AI, từ sản xuất chip AI đến thu thập dữ liệu, đào tạo mô hình cho đến sử dụng cuối và trên toàn bộ công nghệ được sử dụng trong một ứng dụng nhất định. Tính chất cụ thể tách biệt chặt chẽ như thế sẽ đảm bảo không có vùng xám quy định nào để khai thác.

Cuối cùng, việc quản trị AI sẽ cần phải có mục tiêu cụ thể, hơn là một quy mô phù hợp cho tất cả. Vì AI là công nghệ có mục đích chung nên nó đặt ra những mối đe dọa đa chiều. Một công cụ quản trị duy nhất là không đủ để giải quyết các nguồn rủi ro AI khác nhau. Trong thực tế, việc xác định công cụ nào phù hợp để nhắm tới những rủi ro nào sẽ đòi hỏi phải phát triển một hệ thống phân loại sống và thở về tất cả các hiệu quả có thể mà AI có thể gây ra—và cách quản trị từng tác động một cách tốt nhất. Ví dụ: AI sẽ có tính cách mạng trong một số ứng dụng, làm trầm trọng thêm các vấn đề hiện tại như vi phạm quyền riêng tư và mang tính cách mạng ở những ứng dụng khác, tạo ra những tác hại hoàn toàn mới. Đôi khi, nơi tốt nhất để can thiệp là nơi dữ liệu được thu thập. Đôi khi, đó sẽ là thời điểm bán các con chip tiên tiến—đảm bảo chúng không rơi vào tay kẻ xấu. Việc xử lý thông tin xuyên tạc và thông tin sai lệch sẽ yêu cầu các công cụ khác với việc xử lý rủi ro của AGI và các công nghệ không chắc chắn khác với những phân nhánh có khả năng tồn tại. Một sự điều chỉnh nhẹ nhàng và hướng dẫn tự nguyện sẽ có tác dụng trong một số trường hợp; ở những nơi khác, chính phủ sẽ cần phải thực thi nghiêm ngặt việc tuân thủ.

Tất cả điều này đòi hỏi sự hiểu biết sâu sắc và kiến thức cập nhật về các công nghệ được đề cập. Các cơ quan quản lý và các cơ quan chức năng khác sẽ cần giám sát và tiếp cận các mô hình AI quan trọng. Trên thực tế, họ sẽ cần một hệ thống kiểm toán không chỉ có thể theo dõi năng lực từ xa mà còn có thể truy cập trực tiếp vào các công nghệ cốt lõi, do đó sẽ cần có nhân tài phù hợp. Chỉ những biện pháp như vậy mới có thể đảm bảo rằng các ứng dụng AI mới được đánh giá một cách chủ động, cả về những rủi ro rõ ràng lẫn những hậu quả có khả năng gây rối ở cấp độ thứ hai và thứ ba. Nói cách khác, quản trị có mục tiêu phải là quản trị có đủ thông tin.

THẬN TRỌNG CÔNG NGHỆ KHẨN THIẾT

Dựa trên những nguyên tắc này, tối thiểu phải có ba chế độ quản trị AI, mỗi chế độ có nhiệm vụ, đòn bẩy và người tham gia khác nhau. Tất cả sẽ phải có thiết kế mới lạ, nhưng mỗi bên có thể tìm kiếm nguồn cảm hứng cho những thỏa thuận hiện có để giải quyết các thách thức toàn cầu khác - cụ thể là biến đổi khí hậu, phổ biến vũ khí và ổn định tài chính.

Chế độ đầu tiên sẽ tập trung vào việc tìm hiểu thực tế và sẽ dưới hình thức một cơ quan khoa học toàn cầu để tư vấn khách quan cho các chính phủ và các tổ chức quốc tế về các câu hỏi cơ bản như AI là gì và những thách thức chính sách nó đặt ra. Nếu không ai có thể đồng ý về định nghĩa của AI hoặc phạm vi tác hại có thể có của nó thì việc hoạch định chính sách hiệu quả sẽ không thể thực hiện được. Ở đây, biến đổi khí hậu được hướng dẫn. Để tạo cơ sở kiến thức chung cho các cuộc đàm phán về khí hậu, Liên hợp quốc đã thành lập Hội đồng liên chính phủ về biến đổi khí hậu và giao cho nó một nhiệm vụ đơn giản: cung cấp cho các nhà hoạch định chính sách “các đánh giá thường xuyên về cơ sở khoa học của biến đổi khí hậu, ảnh hưởng của nó, rủi ro trong tương lai và các lựa chọn để thích ứng và giảm thiểu.” AI cần một cơ quan tương tự để thường xuyên đánh giá trạng thái của AI, đánh giá một cách khách quan các rủi ro và tác động tiềm tàng của nó, dự báo các kịch bản và xem xét các giải pháp chính sách kỹ thuật để bảo vệ lợi ích chung toàn cầu. Giống như IPCC, cơ quan này sẽ có sự chuẩn y toàn cầu và khoa học (và địa chính trị). Và các báo cáo của nó có thể cung cấp thông tin cho các cuộc đàm phán đa phương và nhiều bên về AI, giống như các báo cáo của IPCC cung cấp thông tin cho các cuộc đàm phán về khí hậu của Liên hợp quốc.

Thế giới cũng cần một cách để quản lý căng thẳng giữa các cường quốc AI lớn và ngăn chặn sự phổ biến của các hệ thống AI tiên tiến nguy hiểm. Mối quan hệ quốc tế quan trọng nhất trong lĩnh vực AI là mối quan hệ giữa Hoa Kỳ và Trung Quốc. Sự hợp tác giữa hai đối thủ khó đạt được trong hoàn cảnh tốt nhất. Nhưng trong bối cảnh cạnh tranh địa chính trị ngày càng gay gắt, một cuộc chạy đua AI không được kiểm soát có thể làm tiêu tan mọi hy vọng tạo dựng được sự đồng thuận quốc tế về quản trị AI. Một lĩnh vực mà Washington và Bắc Kinh có thể thấy thuận lợi khi hợp tác cùng nhau là làm chậm sự phát triển của các hệ thống quyền lực có thể gây nguy hiểm cho quyền uy của các quốc gia-dân tộc. Ở mức độ cao nhất, mối đe dọa về các AGI tự sao chép, không được kiểm soát – chúng nên được phát minh trong những năm tới – sẽ tạo ra động lực mạnh mẽ để phối hợp an toàn và ngăn chặn.

Trên tất cả các mặt trận này, Washington và Bắc Kinh nên hướng tới việc tạo ra các khu vực chung và thậm chí cả các rào cản do bên thứ ba đề xuất và giám sát. Ở đây, các phương pháp giám sát và xác minh thường thấy trong các chế độ kiểm soát vũ khí có thể được áp dụng cho các đầu vào AI quan trọng nhất, đặc biệt là các đầu vào liên quan đến phần cứng máy tính, bao gồm cả chất bán dẫn tiên tiến và trung tâm dữ liệu. Việc điều chỉnh các điểm huyết mạch quan trọng đã giúp ngăn chặn một cuộc chạy đua vũ trang nguy hiểm trong Chiến tranh Lạnh và nó có thể giúp ngăn chặn một cuộc chạy đua AI thậm chí còn nguy hiểm hơn hiện nay.

Nhưng vì phần lớn AI đã được phân cấp nên đây là vấn đề chung của toàn cầu hơn là vấn đề duy trì của hai siêu cường. Bản chất phát triển của AI và các đặc điểm cốt lõi của công nghệ, chẳng hạn như sự phổ biến của nguồn mở, làm tăng khả năng vũ khí hóa tội phạm mạng, những tác nhân nhà nước bảo trợ và những con sói đơn độc. Đó là lý do tại sao thế giới cần một cơ chế quản trị AI thứ ba có thể phản ứng khi xảy ra sự gián đoạn nguy hiểm. Đối với các mô hình, các nhà hoạch định chính sách có thể xem xét cách tiếp cận mà các cơ quan tài chính đã sử dụng để duy trì sự ổn định tài chính toàn cầu. Ban Ổn định Tài chính, bao gồm các ngân hàng trung ương, các bộ tài chính, các cơ quan giám sát và quản lý trên khắp thế giới, hoạt động nhằm ngăn chặn sự bất ổn tài chính toàn cầu bằng cách đánh giá các lỗ hổng hệ thống và phối hợp hành động cần thiết để giải quyết chúng giữa các cơ quan quốc gia và quốc tế. Một bộ phận kỹ trị tương tự phụ trách rủi ro AI – gọi là Ban ổn định địa công nghệ – có thể hoạt động để duy trì sự ổn định địa chính trị trong bối cảnh thay đổi nhanh chóng do AI thúc đẩy. Được hỗ trợ bởi các cơ quan quản lý quốc gia và các cơ quan thiết lập tiêu chuẩn quốc tế, nó sẽ tập hợp chuyên môn và nguồn lực để ngăn chặn hoặc ứng phó với các cuộc khủng hoảng liên quan đến AI, giảm nguy cơ lây lan. Nhưng nó cũng sẽ tham gia trực tiếp với khu vực tư nhân, thừa nhận các chủ thể công nghệ đa quốc gia chủ chốt đóng vai trò quan trọng trong việc duy trì sự ổn định địa chính trị, giống như các ngân hàng quan trọng mang tính hệ thống làm việc duy trì sự ổn định tài chính.

Một bộ phận như vậy, với quyền lực bắt nguồn từ sự hỗ trợ của chính phủ, sẽ có vị thế tốt để ngăn chặn các công ty công nghệ toàn cầu tham gia vào hoạt động kinh doanh chênh lệch giá theo quy định hoặc ẩn náu sau các trụ sở công ty. Nhận thức được rằng một số công ty công nghệ có tầm quan trọng về mặt hệ thống không có nghĩa là cản trở các công ty khởi nghiệp hoặc các nhà cải cách mới nổi. Ngược lại, việc tạo ra một đường dây trực tiếp duy nhất từ bộ phận quản trị toàn cầu đến những gã khổng lồ công nghệ này sẽ nâng cao hiệu quả của việc thực thi quy định và quản lý khủng hoảng — cả hai đều mang lại lợi ích cho toàn bộ hệ sinh thái.

Một chế độ được thiết kế để duy trì sự ổn định về địa công nghệ cũng sẽ lấp đầy khoảng trống nguy hiểm trong bối cảnh pháp lý hiện hành: trách nhiệm quản trị nguồn - mở AI. Một số mức độ kiểm duyệt online sẽ là cần thiết. Nếu ai đó tải lên mạng mô hình cực kỳ nguy hiểm, cơ quan này phải có thẩm quyền và khả năng rõ ràng để gỡ bỏ mô hình đó hoặc chỉ đạo các cơ quan chức năng quốc gia làm như vậy. Đây là một lĩnh vực khác có tiềm năng hợp tác song phương. Trung Quốc và Hoa Kỳ nên hợp tác cùng nhau để đưa ra các hạn chế về an toàn trong nguồn - mở nhu liệu - ví dụ, bằng cách hạn chế sự mở rộng mà các mô hình có thể hướng dẫn người dùng cách thức phát triển vũ khí hóa học hoặc sinh học hoặc tạo ra mầm bệnh đại dịch. Ngoài ra, có thể có cơ hội để Bắc Kinh và Washington hợp tác trong các nỗ lực chống phổ biến vũ khí hạt nhân toàn cầu, bao gồm cả việc sử dụng các công cụ mạng mang tính can thiệp.

Mỗi chế độ này sẽ phải hoạt động toàn cầu, nhận được sự tham gia của tất cả những người tham gia AI chính yếu. Các chế độ sẽ cần phải đủ chuyên môn để đối phó với các hệ thống AI thực sự và đủ năng động để tiếp tục cập nhật kiến thức về AI khi nó phát triển. Hợp tác cùng nhau, các tổ chức này có thể thực hiện một bước quyết định hướng tới quản lý an toàn công nghệ trong thế giới AI mới nổi. Nhưng họ hoàn toàn không phải là những tổ chức duy nhất cần thiết. Các cơ chế quản lý khác, chẳng hạn như tiêu chuẩn minh bạch “biết khách hàng của bạn”, yêu cầu cấp phép, quy trình kiểm tra an toàn cũng như quy trình phê duyệt và đăng ký sản phẩm, sẽ cần được áp dụng cho AI trong vài năm tới. Chìa khóa của tất cả những ý tưởng này sẽ là tạo ra các thể chế quản trị linh hoạt, đa diện, không bị ràng buộc bởi truyền thống hoặc thiếu trí tưởng tượng – xét cho cùng, các nhà công nghệ sẽ không bị hạn chế bởi những điều đó.

ỦNG HỘ ĐIỀU TỐT, NGĂN CHẬN ĐIỀU TỒI TỆ

Không có giải pháp nào trong số này sẽ dễ thực hiện. Bất chấp tất cả những ồn ào và bàn tán đến từ các nhà lãnh đạo thế giới về sự cần thiết phải quản trị AI, vẫn còn thiếu ý chí chính trị để làm điều đó. Hiện tại, rất ít khu vực bầu cử có quyền lực ủng hộ việc sử dụng AI—và tất cả các động năng đều hướng tới việc tiếp tục không hành động. Nhưng được thiết kế tốt, một chế độ quản trị AI như được mô tả ở đây có thể phù hợp với tất cả các bên quan tâm, đảm bảo các nguyên tắc và cấu trúc nhằm thúc đẩy những điều tốt nhất của AI đồng thời ngăn chặn điều tồi tệ nhất. Giải pháp thay thế—AI không bị kiểm soát—sẽ không chỉ gây ra những rủi ro không thể chấp nhận được đối với sự ổn định toàn cầu; nó cũng sẽ không tốt cho hoạt động kinh doanh và đi ngược lại lợi ích của mọi quốc gia.

Một cơ chế quản trị AI mạnh mẽ sẽ vừa giảm thiểu rủi ro xã hội do AI gây ra, vừa giảm bớt căng thẳng giữa Trung Quốc và Hoa Kỳ bằng cách giảm mức độ mở rộng AI trở thành một đấu trường — và một công cụ — của cạnh tranh địa chính trị. Và một chế độ như vậy sẽ đạt được một điều gì đó thậm chí sâu sắc và lâu dài hơn: nó sẽ thiết lập một mô hình về cách giải quyết các công nghệ đột phá, mới nổi khác. AI có thể là chất xúc tác duy nhất cho sự thay đổi, nhưng nó không phải là công nghệ đột phá cuối cùng mà nhân loại sẽ phải đối mặt. Điện toán lượng tử, công nghệ sinh học, công nghệ nano và robot cũng có tiềm năng định hình lại thế giới một cách căn bản. Quản trị thành công AI cũng sẽ giúp thế giới quản lý thành công những công nghệ đó.

Thế kỷ 21 sẽ đưa ra một vài thách thức khó khăn hoặc những cơ hội đầy hứa hẹn như những thách thức do AI mang lại. Trong thế kỷ trước, các nhà hoạch định chính sách đã bắt đầu xây dựng một kiến trúc quản trị toàn cầu mà họ hy vọng sẽ đáp ứng được các nhiệm vụ của thời đại. Giờ đây, họ phải xây dựng một kiến trúc quản trị mới để ngăn chặn và khống chế sức mạnh đáng gờm nhất và có khả năng định hình nhất của thời đại này. Năm 2035 sắp đến gần. Không có thời gian để lãng phí.

• IAN BREMMER is President and Founder of Eurasia Group and GZERO Media. He is the author of The Power of Crisis: How Three Threats—and Our Response—Will Change the World.
• MUSTAFA SULEYMAN is CEO and Co-Founder of Inflection AI. A co-founder of DeepMind, he is the author of The Coming Wave: Technology, Power, and the Twenty-first Century’s Greatest Dilemma.

 
 

Hồ Lạc Hồng dịch

___________________________________________
(1) The AI Power Paradox_Can States Learn to Govern Artificial Intelligence—Before It’s Too Late?_Ian Bremmer and Mustafa Suleyman_Foreign Affairs September/October 2023