24/12/2021 - 07:45

Nguy cơ chạy đua chế tạo “robot sát thủ” 

“Vũ khí tự động gây chết người” có thể thổi bùng cuộc chạy đua vũ trang lớn tiếp theo, thậm chí trở thành cuộc chạy đua cuối cùng của nhân loại - chuyên gia về nhân quyền tại Ðại học Macalester (Mỹ) James Dawes cảnh báo.

Một chiến dịch kêu gọi cấm robot sát thủ. Ảnh: Getty Images

Ðàm phán bế tắc

Thông điệp được ra trong bối cảnh nỗ lực quốc tế nhằm thiết lập giới hạn về việc sử dụng hệ thống vũ khí tự động không đạt được tiến bộ.

Hệ thống vũ khí tự động là những robot trang bị vũ khí sát thương, có khả năng hoạt động độc lập, lựa chọn và tấn công mục tiêu mà không phụ thuộc vào quyết định của con người. Những năm gần đây, nỗi sợ hãi về robot giết người càng gia tăng khi các quốc gia áp dụng công nghệ robot tiên tiến, từ robot chó bốn chân của Boston Dynamics đến các công cụ, giải pháp sử dụng trí thông minh nhân tạo (AI) hoàn toàn.

Gây chú ý gần đây là báo cáo của Liên Hiệp Quốc (LHQ) hồi tháng 3, trong đó các nhà điều tra cho biết “robot sát thủ” dưới dạng máy bay không người lái, súng và bom tự quyết định, có khả năng hoạt động độc lập, lựa chọn và tấn công đã lần đầu tiên giết người khi được các lực lượng do chính phủ hậu thuẫn ở Libya sử dụng vào năm ngoái. Sự kiện trên đánh dấu cột mốc trong lịch sử phát triển của những cỗ máy sát thủ trong chiến tranh, với tính chất tương đương phát minh ra thuốc súng và bom hạt nhân.

Nhiều chuyên gia cảnh báo, công nghệ vũ khí tự động không được kiểm soát có thể gây nguy hiểm cho các chiến lược hạt nhân hiện tại. Bởi chúng có khả năng thay đổi hoàn toàn nhận thức về chiến lược thống trị, tăng nguy cơ tấn công phủ đầu và khả năng kết hợp với vũ khí hóa học, sinh học, phóng xạ và vũ khí hạt nhân. Trước lo ngại này, cuộc họp của 125 quốc gia tham gia Công ước về vũ khí thông thường (CCW) diễn ra tại Geneva (Thụy Sĩ) hồi giữa tháng 12 được kỳ vọng tạo tiền đề cho lệnh cấm quốc tế các loại vũ khí sát thương tự động, tương tự những sáng kiến đã giúp tạo ra hiệp ước cấm sử dụng mìn sát thương (năm 1997) hay hiệp ước cấm bom bi (2008). Tuy nhiên, cuộc họp đã kết thúc mà không đưa ra được công cụ ràng buộc pháp lý nào.

Mối đe dọa hiện hữu

Theo Giáo sư Dawes, hội nghị trên có thể là cơ hội cuối cùng giúp ngăn chặn cuộc chạy đua vũ trang không thể quay đầu. Trong nỗ lực giúp nâng cao nhận thức cộng đồng, chuyên gia này từng chỉ ra những mối nguy hiểm của vũ khí tự động gây chết người.

Trước tiên là rủi ro xác định sai mục tiêu. Giáo sư Dawes nghi ngờ các cỗ máy có thể phân biệt được kẻ địch và những đứa trẻ đang cầm súng đồ chơi; hoặc xác định đâu là dân thường đang chạy nạn với chiến thuật rút lui của đối phương. Quan trọng hơn là sự khác biệt giữa lỗi của con người và lỗi thuật toán quy định quy mô, phạm vi và tốc độ. Chẳng hạn một khẩu súng tự hành bị lỗi, người điều khiển có thể giảm hậu quả bằng cách hướng vũ khí về phía an toàn. Vũ khí tự động không có cơ chế bảo vệ như vậy. Ngoài ra, hệ thống AI khi mắc lỗi sẽ tạo ra sai lầm hàng loạt bởi không dễ xác định nguyên nhân và cách khắc phục trong thời gian ngắn.

Nguy cơ nữa là điều kiện giúp phổ biến vũ khí tự động. Hiện quân đội các nước đều tin chắc họ có thể kiểm soát robot sát thủ cũng như kỳ vọng vũ khí mới giúp ngăn chặn hiệu quả các mối đe dọa. Nhưng lịch sử ngành công nghiệp vũ khí cho thấy, một loại vũ khí nổi trội có thể khiến thị trường  nhanh chóng bùng nổ, dẫn đến việc chế tạo, lưu hành rộng rãi và vượt tầm kiểm soát.

Khi đó, các nước sẽ cạnh tranh để phát triển các phiên bản vũ khí tự động có sức tàn phá khủng khiếp. Xu hướng này có thể dẫn đến chiến tranh thường xuyên hơn. Bởi chúng làm giảm 2 yếu tố chính giúp ngăn chặn và rút ngắn các cuộc chiến tranh trong lịch sử: mối quan ngại đối với dân thường và mối quan tâm đối với binh sĩ tham chiến. Mặt khác, vũ khí tự động làm giảm nhu cầu và rủi ro đối với binh lính, thay đổi đáng kể phân tích chi phí/lợi ích mà các quốc gia phải chịu khi phát động và duy trì chiến tranh, từ đó thúc đẩy chiến tranh.

Một yếu tố then chốt nữa là vũ khí tự động có thể làm suy yếu chốt chặn cuối cùng của nhân loại chống lại tội ác chiến tranh và các hành động tàn bạo khác: Luật quốc tế về xung đột vũ trang. Luật này được hệ thống hóa trong các hiệp ước đã có từ lâu và được ví như lằn ranh mỏng manh phân chia giữa chiến tranh với thảm sát. Cuối cùng, câu hỏi đặt ra là làm thế nào để quy trách nhiệm cho vũ khí tự động? Ai sẽ là người chịu trách nhiệm cho một robot phạm tội ác chiến tranh? Người sẽ bị đưa ra xét xử là vũ khí hay người lính, chỉ huy của anh ta hoặc tập đoàn chế tạo vũ khí. Với những khoảng trống trách nhiệm nghiêm trọng khi giải trình, Giáo sư Dawes cho rằng thế giới không nên lặp lại những sai lầm thảm khốc của cuộc chạy đua vũ trang hạt nhân.

MAI QUYÊN
(Theo Conversation)

Chia sẻ bài viết