Những loại UAV sát thủ với khả năng tự động theo dõi và tiêu diệt mục tiêu,ạiUAVsátthủdoAIkiểmsoásuối nước nóng bình châu có thể tự đưa ra quyết định gây chết người mà không cần sự cho phép của con người, có thể sớm trở thành hiện thực khi Mỹ, Trung Quốc và một số quốc gia khác đang đạt được những tiến bộ trong việc phát triển và triển khai công nghệ này.
Việc giao phó các quyết định sinh tử cho UAV tự hành được trang bị AI có thể làm thay đổi hoàn toàn môi trường chiến tranh trong tương lai và gây ra nhiều lo ngại cho các chính phủ.
Theo tờThe New York Times, nhiều bên đang vận động LHQ đưa ra những quy tắc ràng buộc pháp lý để quản trị những loại vũ khí tự hành chết người này. Tuy nhiên, Mỹ và các nước khác đang phản đối đề xuất và chỉ ủng hộ một nghị quyết không ràng buộc.
Những cỗ máy giết người
Vũ khí tự hành không phải là điều mới mẻ khi những loại mìn tự động nổ hay tên lửa dẫn đường bằng radar đã được sử dụng trong hàng chục năm qua. Tuy nhiên, thứ thay đổi cuộc chơi chính là việc tích hợp AI vào các hệ thống vũ khí, cho phép chúng độc lập ra quyết định sau khi tiếp nhận và xử lý thông tin. Diễn biến đó đã gia tăng sự tranh luận về các loại vũ khí này, khi chúng có khả năng hoạt động mà không có sự can thiệp của con người, không phân biệt giữa mục tiêu đã định và nạn nhân ngoài ý muốn.
Các quan chức Bộ Quốc phòng Mỹ đã nhiều lần nói rõ ý định triển khai các vũ khí tự hành ở quy mô lớn để cạnh tranh với các hệ thống tương tự của đối phương. Trong một thông báo hồi hè này, Thứ trưởng Quốc phòng Mỹ Kathleen Hicks vạch kế hoạch triển khai các hệ thống UAV tự hành có thể tái sử dụng nhưng cũng hoàn toàn có thể được dùng cho mục đích "cảm tử" ở quy mô nhiều ngàn chiếc trong 2 năm tới.
Những bước tiến lớn trong phát triển AI và việc sử dụng UAV tràn lan trong các cuộc xung đột như Ukraine và Trung Đông đã làm gia tăng tính cấp thiết của việc kiểm soát, ngăn chặn rủi ro.
"Đây không phải là cốt truyện của một tiểu thuyết đen tối mà là thực tế đang dần hiển hiện", Thủ tướng Gaston Browne của Antigua và Barbuda cảnh báo. Vụ trưởng Vụ giải trừ quân bị, kiểm soát vũ khí và không phổ biến vũ khí hạt nhân Alexander Kmentt của Bộ Ngoại giao Áo cho rằng đây là một trong những ngã rẽ quan trọng cho nhân loại. "Vai trò của con người là gì trong việc sử dụng vũ lực. Đây là vấn đề an ninh, pháp lý và đạo đức mang tính nền tảng", ông Kmentt nói trong một cuộc phỏng vấn.
Tranh cãi về quy định
Tuy nhiên, nhiều nước như Mỹ, Nga, Úc, Israel cho rằng chưa phải là lúc cần thiết cho một bộ luật mới của quốc tế. Họ cho rằng vũ khí AI thông minh có thể mang lại lợi ích khi giúp giảm thương vong cho dân thường và thiệt hại vật chất không cần thiết. Những người chủ trương kiểm soát vũ khí cho rằng vũ khí AI tự hành có thể hành động khó đoán và dễ xảy ra lỗi trong xác định mục tiêu, tương tự như tai nạn liên quan xe tự lái.
Tranh luận giữa các bên hiện xoay quanh nhận định rằng liệu có đủ khi LHQ chỉ đơn giản phê chuẩn các hướng dẫn không ràng buộc trong phát triển AI, hướng đi mà Mỹ ủng hộ. Ông Joshua Dorosin, Vụ trưởng các điều ước quốc tế thuộc Bộ Ngoại giao Mỹ cho rằng việc đưa ra quy định với ngôn ngữ mang tính bắt buộc là điều khó để chấp nhận. Thay vào đó, ông và các thành viên phái đoàn Mỹ nhấn mạnh thay vì thiết lập một luật mới, LHQ nên làm rõ hơn các luật quốc tế hiện có về nhân quyền, trong đó cấm các nước triển khai vũ khí nhắm vào dân thường hay gây thiệt hại ở mức độ không cân xứng cho họ. Trong khi đó, Trung Quốc thúc đẩy đưa ra những hạn chế về pháp lý trong phạm vi rất hẹp, đến nỗi gần như không hiệu quả nếu được ban hành, theo The New York Times.
Các nước ủng hộ biện pháp quản lý lại ngày càng lo ngại về quan điểm của các cường quốc. Họ sợ rằng vũ khí tự hành gây chết người có thể trở nên phổ biến trên chiến trường trước khi các quy định quản lý ra đời. Đại sứ Pakistan Khalil Hashmi nói trong một cuộc họp tại trụ sở LHQ rằng thời cơ để hành động ngày càng giảm xuống nhanh chóng khi thế giới đang chuẩn bị cho một cú đột phá về công nghệ.
"Nếu chúng ta chờ quá lâu, chúng ta sẽ phải hối hận. Sẽ sớm thôi, nó (UAV AI) sẽ rẻ, dễ mua và có ở khắp nơi. Và người ta sẽ hỏi: vì sao chúng ta không hành động đủ nhanh để hạn chế nó khi chúng ta có cơ hội?", quan chức Kmentt của Áo nói.
Chính sách sử dụng AI của Mỹ
Theo The New York Times, Mỹ đã áp dụng các chính sách tự nguyện, đặt ra các giới hạn về cách sử dụng AI và vũ khí tự hành gây chết người, đồng thời kêu gọi các quốc gia khác tham khảo. Chính sách của Lầu Năm Góc cấm sử dụng vũ khí tự hành mới, thậm chí là cấm phát triển, trừ khi được giới lãnh đạo Bộ Quốc phòng Mỹ chấp thuận. Các vũ khí phải được vận hành trong một khu vực địa lý xác định trong thời gian giới hạn. Nếu vũ khí được điều khiển bởi AI, quân nhân phải duy trì "khả năng hủy nhiệm vụ hoặc hủy kích hoạt các hệ thống đã triển khai thể hiện hành vi ngoài ý muốn". Bộ trưởng Không quân Mỹ Frank Kendall nói rằng ở giai đoạn đầu, các hệ thống AI cần được con người cho phép để thực hiện hành động sát thương nhưng về sau, chúng sẽ tự hành động hoàn toàn và con người chỉ giám sát cách các vũ khí được triển khai.