Giải mã luật A.I của EU - Đạo luật tiên phong về quản lý trí tuệ nhân tạo

HUY PHONG - ANH DUY - TRỌNG AN // TRUNG TÂM TIN TỨC HTV 24/3/2024, 17:00

(HTV) - Ngày 13/3 vừa qua, Nghị viện châu Âu đã chính thức thông qua Đạo luật Quản lý AI đầu tiên trên thế giới. Đây được xem là nỗ lực tăng cường quản lý toàn diện và chi tiết đối với lĩnh vực công nghệ đang có những bước tiến đáng kinh ngạc này.

Hiện nay, trí tuệ nhân tạo (gọi tắt là A.I.) đã trở thành một phần của cuộc sống của chúng ta, dưới nhiều hình thức khác nhau, mang lại nhiều tiện ích, nhưng cũng có thể mang đến những tác hại.


Không phải chờ đến thì tương lai, từ một vài năm trước, A.I. đã gây ra những hậu quả nghiêm trọng, gióng lên hồi chuông báo động về sự cần thiết phải nhanh chóng tăng cường quản lý nhà nước đối với A.I. Có thể kể ra vài vụ điển hình như: 

Các công nghệ nhận diện gương mặt hiện nay đã được chứng minh là không chính xác đối với những người da màu. Đã có những vụ cảnh sát bắt giữ oan nhiều người da màu. Chẳng hạn như những gì đã xảy ra ở Detroit, Mỹ. 

Tháng 02 năm 2023, Porcha Woodruff, 32 tuổi, cư dân Detroit, bị cảnh sát bắt về tội cướp tài sản và cướp xe hơi trong khi đang mang bụng bầu 8 tháng. Nguồn ảnh: NBC News

Còn tại Hà Lan, năm 2021, các thuật toán mà cơ quan thuế sử dụng đã cáo buộc tội oan sai cho hàng ngàn gia đình, cụ thể là tội danh lừa đảo an sinh xã hội. Hơn 26.000 hộ gia đình một ngày nọ bỗng dưng bị cơ quan thuế đòi hàng trăm ngàn euro mà họ không hề nợ. Vụ việc đã khiến nhiều gia đình rơi vào cảnh tán gia bại sản và tan nát. Chính phủ của Thủ tướng Mark Rutte vào thời điểm đó đã phải từ chức vì vụ bê bối này. Kết quả điều tra cho thấy thuật toán được sử dụng có tính phân biệt. Phần đông nạn nhân của vụ này là người da màu, và những người giữ 2 quốc tịch.

 

 

Chính phủ của Thủ tướng Mark Rutte phải từ chức vì vụ bê bối này. Nguồn ảnh: The Guardian

Nạn thông tin giả cũng lan tràn trên mạng Internet, trong đó một trong những tấm ảnh giả được bàn tán nhiều nhất là tấm ảnh này về Đức Giáo Hoàng Francis. Nạn tin giả khiến nhà chức trách và người dân nhiều nước lo ngại, đặc biệt trong năm 2024, năm có nhiều cuộc bầu cử quan trọng có tầm ảnh hưởng toàn cầu. Họ lo ngại những thông tin sai sự thật, do A.I. tạo ra một cách dễ dàng, có thể khiến cử tri nhận thức sai lệch về các ứng cử viên, dẫn đến kết quả bầu cử sai lệch. 

Hình ảnh và video do A.I. tạo ra ngày càng khó phân biệt thật giả. Bức ảnh này là do A.I. tạo ra, về Đức Giáo Hoàng Francis

Tháng 02 vừa qua, hãng hàng không Air Canada bị tòa buộc phải bồi thường cho một khách hàng sau khi một chatbot trả lời tự động trên website của hãng đã tự đặt ra chính sách hoàn tiền vé, trong khi hãng không có chính sách đó. Vụ việc cho thấy tầm quan trọng của sự giám sát và trách nhiệm của các công ty đối với hệ thống chatbot trong bối cảnh nhiều công ty đang đổ xô theo xu hướng triển khai chatbot nhiều công việc hay tác vụ tự động trên các nền tảng số của mình. 

Vụ việc của Air Canada liên quan đến loại vé mà hành khách mua gấp để kịp về dự đám tang một người thân. Nguồn ảnh: NurPhoto/Getty Images

Thông tin sai sự thật do chatbot cung cấp đã khiến Jake Moffatt quyết định mua loại vé đó, vì tin rằng sẽ được hoàn tiền. Nhưng đến khi anh yêu cầu hãng hoàn tiền vé thì không được hãng chấp nhận. Ban đầu Air Canada từ chối trách nhiệm, nhưng tòa phán quyết buộc hãng hàng không này phải bồi thường cho hành khách.

Với đạo luật được thông qua hôm 13/3, Châu  Âu giờ đây đã thiết lập chuẩn mực toàn cầu đầu tiên về quản lý A.I. ở cấp nhà nước. Đó là nhận định của ông Thierry Breton, chánh ủy viên EU, người giám sát quá trình đàm phán dự luật này.

Đạo luật A.I. của EU vận hành theo nguyên tắc: ứng dụng A.I. nào càng có rủi ro cao thì các biện pháp quản lý nhà nước sẽ càng siết chặt và cụ thể hơn.

Đa số các hệ thống A.I. hiện nay đều có rủi ro thấp, chẳng hạn như các hệ thống theo dõi và đề xuất nội dung mà người dùng mạng xã hội nhìn thấy, theo hướng cá nhân hóa. Đến các hệ thống lọc email rác. Các công ty A.I. có thể chọn lựa tuân theo các yêu cầu tự nguyện hoặc các bộ quy tắc ứng xử.

Những việc sử dụng A.I. có rủi ro cao, chẳng hạn như trong các thiết bị y tế hoặc trong các hạ tầng trọng yếu như các mạng lưới cung cấp điện và nước, đối mặt với những quy định khó khăn hơn, chẳng hạn như phải sử dụng dữ liệu chất lượng cao và cung cấp thông tin rõ ràng đến người dùng.

A.I. dùng trong các thiết bị y tế và trong các hạ tầng cung cấp điện nước được EU xem là có rủi ro cao, và phải được quản lý gắt gao

Các nhà lập pháp Châu Âu cấm sử dụng A.I. trong một số mục đích, vì chúng được xem là một nguy cơ không thể chấp nhận được, chẳng hạn như các hệ thống chấm điểm người dân, dựa trên cách ứng xử của người dân, một số biện pháp mang tính phòng ngừa của cảnh sát, và các hệ thống nhận diện tình cảm trong trường học và nơi làm việc.

Việc cảnh sát thực hiện nhận diện các gương mặt ở nơi công cộng, theo thời gian thực, bằng A.I. cũng bị hạn chế, ngoại trừ đối với một số trường hợp tội phạm nghiêm trọng như bắt cóc hoặc khủng bố.

EU hạn chế việc nhận diện gương mặt bằng A.I. theo thời gian thực ở nơi công cộng. Ngoại trừ các trường hợp tội phạm nghiêm trọng. Nguồn ảnh: Joe Buglewicz for The New York Times

Các công ty phát triển những mô hình A.I. thông dụng sẽ phải cung cấp bản tóm tắt chi tiết về những dữ liệu mà họ đã dùng để huấn luyện hệ thống A.I. cũng như phải tuân thủ luật bản quyền của EU.

Những hình ảnh, video hoặc đoạn âm thanh do A.I. tạo ra, về những người đang còn sống, những nơi chốn và sự kiện, phải được dán nhãn là đã có sự chỉnh sửa nhân tạo.

Tháng 3/2023, trong khi cựu Tổng thống Mỹ Donald Trump, và có thể là cả thế giới, đang trông chờ phán quyết của tòa về việc có truy tố ông Trump hay không, thì Eliot Higgins tung bức ảnh này lên mạng xã hội. Bức ảnh ngay lập tức gây xôn xao vì việc truy tố một cựu tổng thống Mỹ là điều chưa từng xảy ra. Vấn đề là đây là ảnh do A.I. tạo ra

EU cho biết họ lo ngại những hệ thống A.I. cực mạnh này có thể gây ra những tình huống hay sự cố nghiêm trọng hoặc bị dùng vào mục đích tấn công mạng máy tính gây hậu quả sâu rộng. Họ cũng lo ngại "A.I. tạo sinh" có thể phát tán những định kiến có hại trong nhiều ứng dụng, ảnh hưởng đến nhiều người.

Các công ty cung cấp các hệ thống này sẽ phải đánh giá và giảm nhẹ các nguy cơ, báo cáo bất kỳ sự cố nghiêm trọng nào, chẳng hạn như những lỗi gây chết người hoặc gây hại nghiêm trọng đến sức khỏe hoặc tài sản;  hoặc những lỗi gây ra những hậu quả có thể làm thay đổi cuộc đời của một người, chẳng hạn như các lỗi sai trong chấm điểm các kỳ thi quan trọng, hay lỗi sai trong chẩn đoán ung thư. 

Các công ty A.I. phải áp dụng các biện pháp an ninh mạng; và tiết lộ những mô hình này dùng bao nhiêu năng lượng.

Vi phạm đạo luật A.I. có thể bị phạt lên đến 35 triệu euro, hoặc 7% doanh thu toàn cầu của một công ty.

Trở ngại lớn nhất đối với đạo luật này là làm thế nào để thực thi, tại một liên minh có đến 27 nước. Chủ tịch Nghị viện Châu Âu, Roberta Metsola, mô tả : “Đạo luật này mang tính tiên phong, sẽ giúp tạo điều kiện cho sự sáng tạo, đồng thời bảo vệ các quyền cơ bản.” Nhưng nhiều nước có ngành A.I. mạnh, như Đức và Pháp, lo ngại các quy định ngột ngạt sẽ bóp nghẹt sáng tạo, và làm giảm tính cạnh tranh của nước họ và của EU.

Đây là một đoạn trailer giới thiệu phim, hoàn toàn do A.I. tạo ra. Đoạn video là một trong nhiều ví dụ cho thấy A.I. đã tiến bộ đáng kinh ngạc; và ranh giới giữa sự sáng tạo của con người và trí tuệ nhân tạo đã dần dần bị xóa nhòa. Nguồn: phim “The Outworld: Chronicles” by Maxescu on X.com

Theo đạo luật này, mỗi nước EU sẽ lập cơ quan quản lý A.I. của riêng mình. Trong khi đó, Ủy ban Châu Âu sẽ lập ra một văn phòng A.I. có nhiệm vụ thực thi và giám sát đạo luật này đối với các hệ thống A.I. có mục đích rộng rãi.

Các nhà lập pháp EU nói rằng đạo luật này nhắm đến đảm bảo sự cân bằng được giữa bảo vệ sự riêng tư của người dân và đảm bảo an toàn, an ninh; nhất là ở các hệ thống nhận diện gương mặt nơi công cộng.

Bà Arba Kokalari, Nghị sĩ EU, Đảng Nhân Dân Châu Âu, cho biết EU muốn đảm bảo an toàn cho người dân, nhưng cũng không muốn bị tụt hậu trong cuộc cạnh tranh công nghệ A.I.: “Nếu như chúng ta cấm hoàn toàn những công nghệ này, sẽ xảy ra 2 điều sau đây. Thứ nhất, công chúng sẽ hỏi: tại sao sự riêng tư và các quyền của những kẻ khủng bố lại quan trọng hơn sự an ninh cho các công dân? Và thứ hai, nếu bị cấm ở Châu Âu, những công nghệ này vẫn sẽ tiếp tục được phát triển ở những nước khác, mà nhất là ở Trung Quốc.”

Phản ứng về đạo luật quản lý A.I. Amazon nói rằng họ cam kết hợp tác với EU để hỗ trợ cho sự phát triển công nghệ A.I. có trách nhiệm, an ninh, và an toàn.

Nhưng công ty Meta thì cảnh báo không nên quản lý chặt chẽ quá mức. Mark Zuckerberg nhấn mạnh tiềm năng to lớn của A.I. trong việc thúc đẩy sáng tạo và cạnh tranh của EU.

Một chuyên gia quản lý cấp cao tại Mỹ cảnh báo rằng giới hạn mà EU đặt ra đối với sức mạnh của siêu máy tính dùng để huấn luyện A.I. là quá thấp, so với các giới hạn tương tự ở Mỹ. Điều này có thể khiến các công ty ở EU chuyển sang Mỹ để tránh các quy định của EU.

Đạo luật A.I. của EU sẽ chính thức trở thành luật vào tháng 5/2024 và bắt đầu có hiệu lực từ đầu năm 2025, theo từng giai đoạn. Hiện nay EU đã áp dụng một số luật khác có liên quan, để quản lý A.I. cho đến khi đạo luật mới này được áp dụng.

Một ngày sau khi thông qua đạo luật A.I. Ủy ban Châu Âu đã tiến hành kiểm tra các công ty công nghệ hàng đầu thế giới trong ngành A.I. yêu cầu họ trình phương án ứng phó trong trường hợp xảy ra nạn tin giả trong năm 2024. Ủy ban Châu Âu cho biết đây các quy định pháp luật về quản lý A.I. sẽ còn tiếp tục được hoàn thiện. 

Trước đây, EU cũng đã từng đi đầu trong việc đặt ra các quy định quản lý các ngành công nghệ cao, khi ban hành điều luật bảo vệ dữ liệu chung (GDPR) vào năm 2016. Luật này được xem là điểm hội tụ của các quy định trên thế giới về bảo vệ thông tin riêng tư trên Internet. Với Đạo Luật A.I. EU một lần nữa đi đầu trong quản lý các ngành công nghệ cao. 

Tuy nhiên, các nhà hoạt động bảo vệ các quyền dân sự cho rằng Đạo Luật A.I. được xây dựng và triển khai quá chậm. Họ lo ngại đạo luật sẽ sớm lạc hậu trước những bước tiến mạnh mẽ của công nghệ này.

 

Ý kiến của bạn: