ATLAS yang kontradiktif
Pada awal tahun lalu, militer Amerika Serikat membangunkan dunia dengan berita pengembangan sistem ATLAS (Advanced Targeting and Lethality Aided System), yang dirancang untuk membawa operasi tempur ke tingkat otomatisasi yang baru. Inisiatif ini menimbulkan reaksi beragam di antara orang-orang biasa dan pakar militer yang tercerahkan. Sebagian besar kesalahan ada pada pengembang (pusat C5ISR militer dan Pusat Persenjataan Kementerian Pertahanan), yang, demi singkatan ATLAS yang merdu, memasukkan istilah "mematikan" dan "peningkatan penunjukan target" dalam nama. Takut dengan cerita robot pemberontak, Amerika mengkritik inisiatif tentara, kata mereka, itu bertentangan dengan etika perang. Secara khusus, banyak yang merujuk ke Pentagon Directive 3000.09, yang melarang pengalihan hak untuk melepaskan tembakan ke sistem otomatis. Integrasi kecerdasan buatan dan pembelajaran mesin ke dalam kendaraan darat, menurut pengunjuk rasa, dapat menyebabkan korban yang gegabah di antara warga sipil dan pasukan sahabat. Di antara para kritikus adalah ilmuwan yang cukup terhormat - misalnya, Stuart Russell, profesor ilmu komputer di University of California di Berkeley.
Para pengembang dengan cukup masuk akal menjelaskan bahwa ATLAS tidak ada hubungannya dengan "robot pembunuh" hipotetis yang telah diimpikan umat manusia sejak "Terminator" pertama. Sistem ini didasarkan pada algoritma untuk menemukan target menggunakan berbagai sistem sensor, memilih yang paling penting dan memberi tahu operator tentang hal itu. Sekarang di AS, pengangkut personel lapis baja M113 dengan sistem ATLAS terintegrasi sedang diuji. Untuk operator senjata, algoritma kecerdasan buatan tidak hanya menampilkan target paling berbahaya di layar, tetapi juga merekomendasikan jenis amunisi dan bahkan jumlah tembakan untuk menjamin kekalahan. Menurut pengembang, keputusan akhir untuk mencapai target tetap pada penembak, dan dialah yang bertanggung jawab atas hasilnya. Tugas utama ATLAS dalam versi lapis baja adalah meningkatkan kecepatan respons terhadap potensi ancaman - rata-rata, sebuah tank (BMP atau pengangkut personel lapis baja) menembaki target dengan asisten otomatis tiga kali lebih cepat. Secara alami, kendaraan lapis baja dapat bekerja lebih efisien dengan target kelompok. Dalam hal ini, kecerdasan buatan segera memilih target dalam urutan bahaya tank, memandu senjatanya sendiri dan merekomendasikan jenis amunisi. Sejak awal Agustus, berbagai jenis kendaraan lapis baja dengan sistem ATLAS terintegrasi telah diuji di Aberdeen Proving Ground. Berdasarkan hasil kerja, keputusan akan dibuat pada tes militer dan bahkan pada adopsi senjata tersebut.
Tank sekarang menjadi salah satu target paling konservatif di medan perang. Banyak dari mereka tidak meningkat secara mendasar selama beberapa dekade, tetap pada 70-80-an abad terakhir dalam hal pengembangan teknis. Seringkali kelembaman ini dikaitkan dengan meluasnya penggunaan tangki di masing-masing negara. Untuk memodernisasi ribuan pasukan lapis baja secara serius, diperlukan sumber daya yang sangat besar. Tetapi sarana untuk melawan tank berkembang dengan pesat. Contoh yang sangat baik adalah konflik saat ini di Nagorno-Karabakh, ketika pesawat tak berawak Turki dan Israel sangat efektif melawan tank-tank Armenia. Jika kita mengabaikan korban, menghitung rasio harga / kinerja senjata anti-tank semacam itu menjadikan mereka raja medan perang. Tentu saja, ATLAS tidak akan melindungi dari ancaman udara, tetapi bisa menjadi alat yang baik untuk peringatan dini target berbahaya tank seperti kru ATGM atau peluncur granat tunggal.
Pentagon menganggap sistem ATLAS bukan sebagai struktur militer tunggal, tetapi sebagai bagian dari Konvergensi Proyek besar. Inisiatif ini harus membawa kesadaran pasukan ke tingkat berikutnya. Melalui pembelajaran mesin, kecerdasan buatan, dan kejenuhan medan perang yang belum pernah terjadi sebelumnya dengan drone, Amerika berharap untuk secara serius meningkatkan kemampuan tempur unit mereka. Ide kuncinya bukanlah hal baru - untuk menghubungkan semua objek di medan perang dengan struktur informasi umum dan untuk mendigitalkan realitas di sekitarnya. Sejauh ini, ATLAS tidak sepenuhnya termasuk dalam Konvergensi Proyek karena kurangnya keterampilan pertukaran data dengan "tetangga", tetapi di masa depan, otak buatan tangki akan menjadi milik bersama. Omong-omong, dalam iklan untuk proyek tersebut, China dan Rusia ditetapkan sebagai target militer yang jelas.
Tidak percaya pada elektronik
Pasukan Amerika sudah memiliki pengalaman negatif dengan sistem robot bersenjata. Pada tahun 2007, tiga platform berukuran kecil SWORDS (singkatan dari Special Weapons Observation Reconnaissance Detection System), dipersenjatai dengan senapan mesin M249, dikirim ke Irak. Dan meskipun mereka bukan kendaraan yang sepenuhnya otonom, mereka berhasil menakut-nakuti para prajurit dengan gerakan acak laras senapan mesin mereka saat berpatroli di jalan-jalan Baghdad. Bagi Pentagon, ini tampak sebagai tanda ketidakpastian, dan penembak senapan mesin yang dilacak perlahan-lahan dikirim pulang. Pada tahun 2012, sebuah arahan dikeluarkan yang menyatakan bahwa sistem senjata otomatis dan dikendalikan dari jarak jauh tidak boleh menembak sendiri. Secara formal, ATLAS telah dikembangkan sepenuhnya dalam kerangka ketentuan ini, tetapi tidak sedikit pertanyaan tentang inovasi. Beberapa ahli (khususnya, Michael S. Horowitz, asisten profesor ilmu politik di University of Pennsylvania) menuduh kebaruan terlalu menyederhanakan proses mencapai target. Faktanya, tingkat otomatisasi pencarian dan penunjukan target ini mengubah pertempuran menjadi permainan biasa seperti World of Tanks untuk penembak. Dalam sistem panduan ATLAS, target prioritas disorot dengan warna merah, alarm berbunyi dan tekniknya, semampunya, merangsang seseorang untuk melepaskan tembakan. Dalam kondisi pertempuran yang ekstrem, hanya ada sedikit waktu untuk membuat keputusan tentang menembak, dan kemudian "robot pintar" mendorong Anda. Akibatnya, petarung tidak punya waktu untuk menilai situasi secara kritis, dan dia, tanpa pemahaman, melepaskan tembakan. Penting untuk mengevaluasi bagaimana ATLAS memilih target dengan benar setelah pemotretan. Sejauh mana pendekatan ini etis dan apakah itu sesuai dengan arahan Amerika yang terkenal kejam? Microsoft, omong-omong, telah berhasil mendapat kecaman publik karena sistem penunjukan target yang dipasang di helm untuk militer, hingga dan termasuk boikot pengguna. Di Amerika Serikat, telah terjadi perdebatan tentang robotisasi sistem deteksi dan panduan selama bertahun-tahun. Sebagai contoh, kritikus mengutip contoh kesalahan sistem autopilot di jalan umum, yang telah memakan korban jiwa. Jika bahkan setelah mengemudi jutaan kilometer, autopilot tidak menjadi 100% dapat diandalkan, lalu apa yang bisa kita katakan tentang ATLAS yang benar-benar baru, yang dapat mendorong tanker untuk menembak orang yang tidak bersalah dengan proyektil 120 mm. Perang modern sekarang begitu berdarah justru karena militer memperoleh kemampuan untuk membunuh dari jarak jauh, bersembunyi di balik penghalang yang andal. Contoh Nagorno-Karabakh yang disebutkan sekali lagi menegaskan kebenaran ini. Jika pejuang juga kehilangan kesempatan untuk menilai secara kritis parameter target (inilah yang mengarah ke ATLAS), maka akan ada lebih banyak korban, dan kesalahan atas pembunuhan itu sebagian dapat dialihkan ke mesin.
Dan akhirnya, argumen utama yang menentang sistem tipe ATLAS di antara komentator pasifis adalah tidak adanya larangan pembukaan tembakan otomatis. Sekarang hanya persyaratan etika Pentagon (yang juga memiliki banyak keberatan) yang melarang sepenuhnya mengotomatisasi proses pembunuhan. Dengan diperkenalkannya ATLAS, tidak akan ada kendala teknis untuk ini sama sekali. Akankah Angkatan Darat AS dapat memberikan kesempatan yang menjanjikan seperti itu untuk lebih mempercepat waktu respons terhadap ancaman dan menjaga agar para pejuangnya tidak diserang?