Ngày 23/9, hơn 200 cựu nguyên thủ quốc gia, nhà ngoại giao cùng các nhà khoa học đoạt giải Nobel và chuyên gia trí tuệ nhân tạo (AI) đã đồng loạt ký vào một sáng kiến mang tính toàn cầu nhằm xây dựng những giới hạn nghiêm ngặt cho sự phát triển của AI. Mục tiêu chính của đề xuất là thúc đẩy các chính phủ trên thế giới nhanh chóng đạt được một thỏa thuận quốc tế về những “lằn ranh đỏ” mà công nghệ AI không được phép vượt qua, với thời hạn thực hiện trước cuối năm 2026. Đây là bước đi quan trọng trong bối cảnh AI ngày càng ảnh hưởng sâu rộng đến nhiều lĩnh vực của đời sống xã hội.
Sáng kiến này được khởi xướng bởi Trung tâm An toàn AI tại Pháp, phối hợp cùng The Future Society và Đại học UC Berkeley, tập trung vào việc tạo ra một khuôn khổ pháp lý và đạo đức để kiểm soát các rủi ro tiềm ẩn từ AI. Những người đứng đầu và chuyên gia công nghệ hàng đầu thế giới như nhà khoa học Geoffrey Hinton, đồng sáng lập OpenAI Wojciech Zaremba và Giám đốc an ninh thông tin của Anthropic Jason Clinton cũng đã tham gia ký tên, thể hiện sự đồng thuận cao về tầm quan trọng của việc đặt ra giới hạn rõ ràng cho AI ngay từ giai đoạn đầu phát triển.
Ông Charbel-Raphaël Segerie, Giám đốc điều hành trung tâm CeSIA, nhấn mạnh rằng dù các quốc gia vẫn còn nhiều khác biệt trong cách tiếp cận AI, một điểm cần thống nhất bắt buộc là những hành động và chức năng mà AI không bao giờ được phép thực hiện. Quan điểm này nhằm ngăn chặn các hậu quả khó lường khi công nghệ này phát triển quá nhanh mà thiếu sự kiểm soát chặt chẽ từ con người.
Hiện nay, một số khu vực trên thế giới đã ban hành luật lệ cụ thể nhằm kiểm soát AI, ví dụ như Đạo luật AI của Liên minh châu Âu hay thỏa thuận giữa Mỹ và Trung Quốc về việc duy trì quyền kiểm soát vũ khí hạt nhân ở tay con người. Tuy nhiên, chưa có một sự đồng thuận mang tính toàn cầu nào thật sự hiệu quả để áp dụng rộng rãi và đồng bộ. Điều này làm nổi bật nhu cầu cấp thiết về một cơ quan độc lập toàn cầu có thẩm quyền giám sát và điều chỉnh hoạt động của trí tuệ nhân tạo.
Theo bà Niki Iliadis thuộc The Future Society, các cam kết tự nguyện từ phía doanh nghiệp trong ngành công nghệ chưa đủ sức ràng buộc để đảm bảo an toàn tuyệt đối cho AI. Vì vậy, bà đề xuất thành lập một tổ chức quốc tế có trách nhiệm rõ ràng trong việc định nghĩa và giám sát các “lằn ranh đỏ” nhằm tránh những tình huống nguy hiểm do AI gây ra hoặc bị xâm phạm.
Giáo sư Stuart Russell từ Đại học UC Berkeley so sánh ngành công nghiệp AI với ngành năng lượng hạt nhân, cho rằng công nghệ mới cần được phát triển song song với các biện pháp quản lý rủi ro nghiêm ngặt ngay từ đầu. Ông khẳng định việc xác lập những giới hạn không chỉ không cản trở sự tiến bộ kinh tế mà còn giúp đảm bảo AI phục vụ xã hội theo cách an toàn và bền vững hơn.
Trước đó, tại hội nghị chiến lược về AI diễn ra vào ngày 11/9, PGS.TS Nguyễn Quân – nguyên Bộ trưởng Bộ Khoa học và Công nghệ – đã chỉ ra nhiều mặt tối tiềm ẩn trong ứng dụng trí tuệ nhân tạo. Ông đặc biệt nhấn mạnh rằng khi xây dựng khung pháp lý liên quan đến AI tại Việt Nam, yếu tố đạo đức cần được đặt lên hàng đầu nhằm ngăn ngừa các hệ quả tiêu cực có thể xảy ra.
Ở góc độ quản lý nhà nước, TS Hồ Đức Thắng – Viện trưởng Viện Công nghệ số và Chuyển đổi số Quốc gia thuộc Bộ Khoa học và Công nghệ – cho biết Luật AI đang được xây dựng dựa trên các nguyên tắc cân bằng giữa kiểm soát chặt chẽ và thúc đẩy phát triển ngành công nghệ này. Luật hướng tới việc lấy con người làm trung tâm với nguyên tắc con người phải giữ quyền kiểm soát vĩnh viễn đối với mọi hoạt động của AI. Ví dụ điển hình là xe tự lái phải luôn được giám sát bởi con người để đảm bảo an toàn và trách nhiệm rõ ràng.