Tại cuộc họp của Đại hội đồng Liên Hợp Quốc ở New York ngày 12/5, các quốc gia đã họp bàn nhằm quản lý các loại vũ khí tự động do AI điều khiển, trong đó có "robot sát thủ". Trước đó, giới chuyên gia cảnh báo thời gian để đưa ra biện pháp bảo vệ đối với công nghệ gây chết người mới "đang dần cạn kiệt".

Robot Ameca tại Hội nghị thượng đỉnh toàn cầu về AI tại Geneva, Thụy Sĩ tháng 7/2023. Ảnh: UN
Cuộc họp của Liên Hợp Quốc diễn ra sau khi 164 quốc gia ủng hộ nghị quyết năm 2023 của Đại hội đồng Liên Hợp Quốc, kêu gọi cộng đồng quốc tế khẩn trương giải quyết những rủi ro do vũ khí tự động gây ra. Đây cũng là cuộc đàm phán đầu tiên của cơ quan này dành riêng cho vũ khí tự động.
Theo Tổ chức Ân xá Quốc tế, trong khi nhiều nước ủng hộ khuôn khổ ràng buộc toàn cầu, các nước như Mỹ, Nga, Trung Quốc, Ấn Độ lại muốn ưu tiên hướng dẫn theo từng quốc gia hoặc dựa trên pháp luật quốc tế hiện hành.
"Chúng tôi không tin luật hiện hành không đủ để áp dụng", một phát ngôn viên của Lầu Năm Góc cho biết, thêm rằng vũ khí tự động "ít gây rủi ro cho người dân hơn so với vũ khí thông thường".
Chính phủ Ấn Độ, Nga và Trung Quốc chưa đưa ra bình luận.
Hệ thống vũ khí tự động hỗ trợ bởi AI đang đóng vai trò lớn trong các cuộc xung đột. Theo dữ liệu của Nga, lực lượng quân đội nước này đã triển khai 3.000 máy bay không người lái cảm tử Veter với khả năng tự động phát hiện và tấn công mục tiêu tới Ukraine. Viện nghiên cứu Future of Life ghi nhận khoảng 200 hệ thống vũ khí tự động ở Ukraine, Trung Đông và châu Phi, trong khi Israel sử dụng hệ thống AI để xác định mục tiêu ở Gaza.
Chi tiêu quốc phòng trên thế giới được dự đoán tăng mạnh thời gian tới khi công nghệ quân sự tích hợp AI phát triển. Dù vậy, tiến trình thiết lập quy tắc kiểm soát được đánh giá chưa thể theo kịp, còn tiêu chuẩn ràng buộc quốc tế hầu như chưa tồn tại. Từ 2014, các quốc gia tham gia Công ước về vũ khí thông thường (CCW) đã họp tại Genève để thảo luận về lệnh cấm tiềm tàng đối với các hệ thống hoàn toàn tự động, nhưng chưa đạt sự thống nhất.
Tại cuộc họp ngày 12/5, Tổng thư ký Liên hợp quốc Antonio Guterres đặt ra thời hạn năm 2026 để các quốc gia thiết lập "quy tắc rõ ràng" về việc sử dụng vũ khí AI. Dù vậy, một số nhóm nhân quyền cảnh báo vẫn chưa có sự đồng thuận giữa các chính phủ.
"Thời gian thực sự không còn nhiều, do đó cần nhanh chóng đưa ra biện pháp bảo vệ nhằm ngăn chặn những kịch bản ác mộng mà một số chuyên gia nổi tiếng nhất cảnh báo sẽ xảy ra", Alexander Kmentt, người đứng đầu cơ quan kiểm soát vũ khí của Áo, nói với Reuters.
Theo giới chuyên gia, dù không mang tính ràng buộc về mặt pháp lý, các quốc gia dường như muốn tăng áp lực lên các cường quốc quân sự vốn đang phản đối quy định vì lo ngại chúng có thể làm giảm lợi thế trên chiến trường khi nói đến vũ khí AI.
Bên cạnh đó, các nhóm vận động hy vọng cuộc họp sẽ giải quyết vấn đề quan trọng về đạo đức và nhân quyền. "Vấn đề này cần được làm rõ thông qua một hiệp ước ràng buộc về mặt pháp lý. Công nghệ đang phát triển quá nhanh", Patrick Wilcken, nhà nghiên cứu quân sự, an ninh và cảnh sát của Tổ chức Ân xá Quốc tế, cho biết.
Bảo Lâm (theo Reuters)
- Google hủy lời hứa 'không dùng AI chế tạo vũ khí', nhân viên phản ứng