Trước những rủi ro liên quan đến trí tuệ nhân tạo (AI), cộng đồng quốc tế năm 2024 này sẽ đặc biệt chú trọng xây dựng hành lang pháp lý để ngăn ngừa. Bài này tóm tắt những nỗ lực mà các nơi trên thế giới đã thực hiện cho đến nay để đảm bảo an toàn về AI.

AI 2
(Ảnh minh họa: easy-peasy.ai)

Đại hội đồng Liên Hiệp Quốc (LHQ) vào ngày 21/3 đã đồng thuận thông qua một sáng kiến ​​do Mỹ khởi xướng nhằm quản lý rủi ro và tận dụng lợi ích của AI. Đây là nghị quyết đầu tiên về vấn đề này được Đại hội đồng LHQ thông qua. Những lời của Đại sứ Mỹ tại LHQ Linda Thomas-Greenfield vào ngày hôm đó phản ánh những cảm xúc phức tạp của thế giới đối với AI: “Hôm nay, LHQ và AI cuối cùng đã hợp tác với nhau, chúng ta có cơ hội và trách nhiệm lựa chọn quản lý công nghệ này như một cộng đồng toàn cầu thống nhất thay vì để nó chi phối chúng ta”.

Thực tế trước đó nhiều nơi bùng nổ AI như Mỹ, châu Âu, Trung Quốc… đã có những nỗ lực thông qua các chính sách và pháp luật để kiểm soát các yếu tố rủi ro của AI, mặc dù tốc độ điều chỉnh của chính phủ luôn khó theo kịp với tốc độ phát triển của công nghệ mới này.

Tại sao cần có luật về AI

Sau khi chatbot AI tổng hợp ChatGPT trở nên phổ biến vào năm 2023, AI đang mở ra “cách mạng công nghiệp lần thứ 4” của nhân loại: viết tin tức, dẫn chương trình tin tức, sáng tạo nghệ thuật, soạn thảo dự luật, phân tích tài chính, chẩn đoán bệnh tật, phẫu thuật não, dự đoán sự kiện, lái xe không người lái, lò phản ứng hạt nhân, vũ khí tinh vi, chỉ huy chiến đấu….

CEO Sundar Pichai của Alphabet, công ty mẹ của Google, mô tả AI: “Nó có sức ảnh hưởng sâu rộng hơn [phát minh] lửa hay điện”.

chatGPT
(Ảnh minh họa: Rafapress/Shutterstock)

Nhưng các nhà lãnh đạo ngành AI năm ngoái đã cảnh báo rằng công nghệ AI trong tương lai có thể đe dọa sự sống còn của con người, nên coi là mối đe dọa đối với xã hội loài người tương tự như đại dịch và chiến tranh hạt nhân.

Vậy thì AI sẽ mang lại lợi ích to lớn cho con người hay sẽ  là thảm họa đối với nhân loại?

Thự tế những rủi ro vì AI đang nổi lên: các cuộc tấn công của hacker, xâm phạm quyền riêng tư và quyền cá nhân, thất nghiệp do thay thế công việc của con người, lan truyền nhanh chóng các lỗi và thông tin sai lệch khó phân biệt giữa đúng và sai, làm sâu sắc thêm định kiến ​​và phân biệt đối xử trong xã hội, mở rộng bất công xã hội, và những tình huống khó xử về đạo đức do việc sử dụng AI trong các lĩnh vực quân sự, y tế và tư pháp… gây ra.

Có vô số ví dụ về việc AI tạo và phát tán hình ảnh, video giả mạo. Các sự cố gần đây đã thu hút chú ý rộng rãi tiêu biểu: bức ảnh khiêu dâm của ca sĩ người Mỹ Taylor Swift do AI tạo ra được chia sẻ rầm rộ trên mạng, bức ảnh giả lan truyền trên mạng xã hội về một vụ nổ gần Lầu Năm Góc đã nhất thời ảnh hưởng đến thị trường chứng khoán Mỹ.

CEO Louis Rosenberg của công ty công nghệ Mỹ Unanimous AI từng nói với VOA: “Khi nói đến việc quản lý công nghệ, chính phủ có thành tích đánh giá thấp các tính năng mới của công nghệ”.

Quản lý AI tại EU

Ngày 13/3 năm nay, Nghị viện châu Âu đã thông qua một bộ luật về AI được dư luận đánh giá là luật AI toàn diện nhất trên thế giới cho đến nay. Luận này dự kiến ​​sẽ có hiệu lực vào tháng Năm. Luật đưa ra các yêu cầu nghiêm ngặt về tính minh bạch, và yêu cầu các công ty công nghệ tiến hành đánh giá rủi ro khi áp dụng các mô hình AI hiệu suất cao.

Luật phân loại công nghệ AI thành 4 mức độ rủi ro: “không thể chấp nhận”, “cao”, “trung bình” “thấp”. Mức độ rủi ro càng cao thì yêu cầu mà các công ty công nghệ liên quan cần phải tuân thủ càng nghiêm ngặt hơn.

Luật cấm một số ứng dụng AI đe dọa đến quyền công dân, chẳng hạn như chụp ảnh khuôn mặt không có mục tiêu để mở rộng cơ sở dữ liệu nhận dạng khuôn mặt, xác định cảm xúc tại nơi làm việc và trong khuôn viên trường, phân loại đơn xin việc, dự đoán chính sách…

Luật yêu cầu các nhà phát triển AI hiệu suất cao – chẳng hạn như OpenAI đã tạo ra ChatGPT – tiến hành các đánh giá bảo mật tiên tiến nhất trên các mô hình AI đó. Một khi mô hình có vấn đề sự cố nghiêm trọng thì phải báo cáo với cơ quan quản lý. Dự luật cũng quy định các nhà phát triển AI như vậy phải báo cáo mức tiêu thụ năng lượng của họ và thực hiện các biện pháp giảm thiểu rủi ro tiềm ẩn cũng như các biện pháp bảo vệ an ninh mạng chống lại tin tặc.

Luật yêu cầu hình ảnh, video và âm thanh “mô phỏng sâu” (deep fake) phải được dán nhãn rõ ràng. Mô phỏng sâu là chỉ việc sử dụng AI để tạo và xử lý hình ảnh, video và âm thanh trông như thật.

Các công ty vi phạm quy định sẽ phải đối mặt với mức phạt lên tới khoảng 37,7 triệu USD hoặc 7% doanh thu toàn cầu của công ty.

Luật này áp dụng cho tất cả các sản phẩm AI trên thị trường EU, bất kể AI đó được phát triển từ đâu, tiêu chuẩn AI này của EU có thể ảnh hưởng khắp thế giới. Tạp chí Phố Wall (WSJ) có nhận định: “Bởi vì các công ty AI lớn khó có thể từ bỏ tiếp cận thị trường EU có dân số khoảng 448 triệu người. Không chỉ vậy, các khu vực pháp lý khác cũng có thể sử dụng luật mới này làm hình mẫu cho các quy định về AI của họ, tạo ra hiệu ứng dây chuyền”.

Quản lý AI tại Mỹ

Không giống như châu Âu, Mỹ vẫn chưa có quy định liên bang nào nhắm mục tiêu cụ thể đến AI. Tuy nhiên, ứng dụng AI trong các ngành cụ thể phải tuân theo luật pháp và quy định hiện hành trong ngành đó. Ví dụ: Cơ quan Quản lý Thực phẩm và Dược phẩm Mỹ (FDA) quản lý hoạt động chăm sóc y tế bằng AI, Ủy ban Thương mại Liên bang (FTC) quản lý các sản phẩm và dịch vụ do AI điều khiển, Bộ Giao thông Vận tải quản lý xe tự lái…

Tổng thống Biden vào ngày 30/10/2023 đã ký một sắc lệnh hành pháp để quản lý AI, đặt ra các tiêu chuẩn về an ninh quốc gia, quyền riêng tư của người tiêu dùng và bảo vệ quyền công dân cũng như cạnh tranh công bằng, đồng thời xây dựng “hành lang” AI để sau này tiến tới luật hóa. Trong số đó, sắc lệnh yêu cầu các công ty công nghệ phải thông báo cho chính phủ khi phát triển các mô hình AI có rủi ro cao, phải đánh giá rủi ro bảo mật của các mô hình AI thông qua thử nghiệm “Đội Đỏ” (Red Team –  thường được sử dụng trong lĩnh vực an ninh mạng để chơi vai trò của những kẻ tấn công nhằm tìm ra các lỗ hổng và rủi ro trong hệ thống).

Quốc hội Mỹ đã bắt đầu có nhiều hành động hơn về luật AI và rất quan tâm đến việc thiết lập cơ chế quản lý. Trong bài phát biểu Thông điệp Liên bang trước đây, Tổng thống Biden cũng kêu gọi Quốc hội thực hiện hành động khẩn cấp để hợp pháp hóa các quy định về AI.

Thượng nghị sĩ Cộng hòa John Kennedy bang Louisiana và Thượng nghị sĩ Dân chủ Brian Schatz bang Hawaii đã hợp tác để đưa ra Đạo luật ghi nhãn AI (AI Labeling Act), trong đó yêu cầu các công ty công nghệ dán nhãn nội dung do AI tạo ra, qua đó nhằm xác định và thông báo cho người tiêu dùng danh tính của chủ sở hữu đằng sau công nghệ AI có liên quan.

Các Thượng nghị sĩ Josh Hawley (phe Cộng hòa bang Missouri), Richard Blumenthal (phe Dân chủ bang Connecticut) đã hợp tác để đưa ra một khuôn khổ lập pháp về AI, nhằm tìm cách thành lập một cơ quan liên bang chuyên quản lý AI, yêu cầu các công ty công nghệ phải xin phép trước khi tung ra các mô hình ngôn ngữ lớn ở cấp độ ChatGPT, và buộc các công ty công nghệ phải chịu trách nhiệm về việc vi phạm quyền riêng tư và quyền công dân.

Ngoài ra còn có các đề xuất nhắm mục tiêu sử dụng AI trong các lĩnh vực cụ thể: đề xuất cấm cho phép AI hoặc các hệ thống tự động phóng vũ khí hạt nhân mà không có sự kiểm soát của con người; đề xuất yêu cầu hình ảnh và âm thanh do AI tạo ra trong quảng cáo chiến dịch chính trị phải được dán nhãn rõ ràng.

Bloomberg dẫn dữ liệu từ các cơ quan lập pháp tiểu bang của Mỹ chỉ ra rằng vào năm 2023, ít nhất 25 tiểu bang ở Mỹ đã xem xét các luật liên quan đến AI, trong số đó có 15 bang đã thông qua các luật hoặc nghị quyết liên quan. Những đề xuất nhằm hạn chế việc sử dụng AI trong việc làm, quyết định bảo hiểm, chăm sóc sức khỏe, kiểm phiếu bầu cử và nhận dạng khuôn mặt ở không gian công cộng.

Cố vấn cấp cao Bill Wyman của Chương trình Công nghệ Chiến lược tại Trung tâm Nghiên cứu Chiến lược và Quốc tế (CSIS) cho biết: “Kết quả có thể xảy ra nhất đối với Mỹ là các quy định chắp vá từ dưới lên trên thông qua hành động của ngành hành pháp. Không giống như châu Âu, Mỹ khó có thể thông qua luật AI áp dụng chung trên toàn nước Mỹ. Việc lập pháp liên quan mà thành công thường sẽ tập trung vào các biện pháp ít gây tranh cãi và có tính mục tiêu thật sự rõ, chẳng hạn như tài trợ cho nghiên cứu AI và an toàn cho trẻ em trong AI”.

“Quy định kiểu Mỹ thường không nghiêm ngặt như châu Âu và châu Á. Đã từ lâu, xu hướng tự do kinh doanh và giảm thiểu can thiệp là đặc điểm của hệ thống Mỹ”, giáo sư công nghệ truyền thông W. Russell Neuman tại Đại học New York đã cho biết trong một cuộc phỏng vấn của Đài VOA, “Đó là đặc điểm trong cách tiếp cận kinh doanh của liên bang và tiểu bang Mỹ, đó là sự thận trọng về quy định và lo sợ rằng quy định sẽ tồi tệ hơn những gì các cơ quan quản lý lo ngại ban đầu”.

Giám đốc Jessica Brandt về Chính sách AI và Sáng kiến ​​công nghệ mới nổi tại Viện Brookings cũng từng chia sẻ với VOA: “Thách thức đối với các nền dân chủ tự do là đảm bảo rằng AI phát triển và triển khai một cách có trách nhiệm, trong khi đó vẫn phải hỗ trợ đổi mới sôi động thu hút nhân tài và đầu tư”.

Quản lý AI tại Trung Quốc

Vào ngày 15/8 năm ngoái, Trung Quốc đã chính thức thực hiện luật “Các biện pháp tạm thời để quản lý các dịch vụ AI sáng tạo”. Đối tượng của 24 quy định trong luật này là các dịch vụ AI tổng hợp tạo ra hình ảnh, video, văn bản và các nội dung khác, chẳng hạn như ChatGPT. Luật này nhấn mạnh các nhà phát triển phải “chịu trách nhiệm” về đầu ra của các mô hình AI mà họ tạo ra.

Luật quy định rằng, các công ty công nghệ “cung cấp dịch vụ AI tổng hợp có đặc điểm dư luận hoặc khả năng huy động xã hội” cần tiến hành đánh giá an toàn đối với các mô hình AI và khai báo thuật toán liên quan cho cơ quan quản lý.

Nội dung được tạo ra thông qua AI phải được dán nhãn rõ ràng.

Các công ty công nghệ phải đảm bảo rằng văn bản và hình ảnh do mô hình AI của họ tạo ra là chính xác và đáng tin cậy, đồng thời nguồn dữ liệu thu thập phải lấy từ các nguồn hợp pháp.

Luật quy định tôn trọng quyền riêng tư dữ liệu, bảo vệ quyền sở hữu trí tuệ và quyền công dân.

Nhưng không giống như hầu hết các nước khác, luật này của Trung Quốc quy định rằng sản phẩm AI tạo ra phải phản ánh “giá trị cốt lõi xã hội chủ nghĩa”, tuân thủ các quy định kiểm duyệt của chính phủ, tránh bôi nhọ các nhà lãnh đạo Trung Quốc hoặc chạm vào ranh giới đỏ chính trị, và “không được chứa đựng nội dung lật đổ quyền lực nhà nước, hệ thống xã hội chủ nghĩa, kích động ly khai đất nước, phá hoại khối đại đoàn kết dân tộc”.

Mặc dù Trung Quốc vẫn tụt hậu so với Mỹ trong đổi mới công nghệ AI, nhưng quan điểm phổ biến xem Trung Quốc là một trong những nước tiên phong trong luật pháp quản lý AI. Luật này nhắm mục tiêu cụ thể đến AI sáng tạo, luật được xây dựng dựa trên các quy định AI trước đó liên quan đến đề xuất thuật toán và tổng hợp sâu.

  • Quy định về quản lý tổng hợp sâu của các dịch vụ thông tin Internet” có hiệu lực từ ngày 10/1/2023. Một trong những yêu cầu là phải gửi thuật toán tổng hợp sâu tới Cục Quản lý Không gian mạng Trung Quốc để lập hồ sơ.
  • Quy định quản lý đề xuất thuật toán dịch vụ thông tin Internet” có hiệu lực từ ngày 1/3/2022, tiêu chuẩn hóa việc sử dụng công nghệ thuật toán để cung cấp dịch vụ mạng tại Trung Quốc.
  • Cơ quan quản lý internet của Trung Quốc vào tháng Tám năm ngoái cũng công bố dự thảo quy định nhằm hạn chế sử dụng công nghệ nhận dạng khuôn mặt. Dự thảo hạn chế sử dụng công nghệ nhận dạng khuôn mặt, tuy nhiên lại bật đèn xanh cho các mục đích sử dụng liên quan đến “an ninh quốc gia”.

Nhìn chung tương lai của quản trị AI đòi hỏi nỗ lực chung từ khắp nơi trên thế giới. Liên minh Viễn thông Quốc tế của LHQ vào tháng 5 năm nay sẽ tổ chức Hội nghị thượng đỉnh toàn cầu AI vì điều tốt đẹp (AI for Good Global Summit); tháng 9 năm nay, Hội nghị thượng đỉnh tương lai của LHQ sẽ tìm cách thông qua Hiệp ước kỹ thuật số toàn cầu (Global Digital Compact Proposal)…

Theo Chương Lạc Cổ, VOA