Pentagon Inci Menuju Membiarkan Senjata Kontrol AI


Agustus lalu, beberapa lusinan drone militer dan robot mirip tank terbang ke langit dan jalan 40 mil di selatan Seattle. Misi mereka: Temukan teroris yang dicurigai bersembunyi di antara beberapa bangunan.

Begitu banyak robot yang terlibat dalam operasi tersebut sehingga tidak ada operator manusia yang dapat mengawasi semuanya. Jadi mereka diberi instruksi untuk menemukan — dan memusnahkan — kombatan musuh bila perlu.

Misi itu hanyalah sebuah latihan, yang diorganisir oleh Defense Advanced Research Projects Agency, sebuah divisi penelitian langit biru dari Pentagon; robot dipersenjatai dengan tidak lebih mematikan daripada pemancar radio yang dirancang untuk mensimulasikan interaksi dengan robot teman dan musuh.

Latihan tersebut adalah salah satu dari beberapa latihan yang dilakukan musim panas lalu untuk menguji bagaimana kecerdasan buatan dapat membantu memperluas penggunaan otomatisasi dalam sistem militer, termasuk dalam skenario yang terlalu kompleks dan bergerak cepat bagi manusia untuk membuat setiap keputusan penting. Demonstrasi juga mencerminkan pergeseran halus dalam pemikiran Pentagon tentang senjata otonom, karena semakin jelas bahwa mesin dapat mengungguli manusia dalam mengurai situasi kompleks atau beroperasi dengan kecepatan tinggi.

Jenderal John Murray dari Komando Masa Depan Angkatan Darat AS mengatakan kepada audiensi di Akademi Militer AS bulan lalu bahwa segerombolan robot akan memaksa perencana militer, pembuat kebijakan, dan masyarakat untuk memikirkan apakah seseorang harus membuat setiap keputusan tentang menggunakan kekuatan mematikan dalam sistem otonom baru . Murray bertanya: “Apakah dalam kemampuan manusia untuk memilih mana yang harus dilibatkan” dan kemudian membuat 100 keputusan individu? “Apakah perlu melibatkan manusia dalam lingkaran?” dia menambahkan.

Komentar lain dari komandan militer menunjukkan minat untuk memberikan lebih banyak hak kepada sistem senjata otonom. Pada konferensi tentang AI di Angkatan Udara minggu lalu, Michael Kanaan, direktur operasi untuk Akselerator Kecerdasan Buatan Angkatan Udara di MIT dan suara terkemuka di AI dalam militer AS, mengatakan bahwa pemikiran sedang berkembang. Dia mengatakan AI harus melakukan lebih banyak mengidentifikasi dan membedakan target potensial sementara manusia membuat keputusan tingkat tinggi. “Saya pikir ke sanalah tujuan kita,” kata Kanaan.

Pada acara yang sama, Letnan Jenderal Clinton Hinote, wakil kepala staf untuk strategi, integrasi, dan persyaratan di Pentagon, mengatakan bahwa apakah seseorang dapat dikeluarkan dari lingkaran sistem otonom yang mematikan adalah “salah satu perdebatan paling menarik yang datang, [and] belum diselesaikan. “

Sebuah laporan bulan ini dari National Security Commission on Artificial Intelligence (NSCAI), sebuah kelompok penasihat yang dibuat oleh Kongres, merekomendasikan, antara lain, bahwa AS menolak seruan untuk larangan internasional terhadap pengembangan senjata otonom.

Timothy Chung, manajer program Darpa yang bertanggung jawab atas proyek swarming, mengatakan latihan musim panas lalu dirancang untuk mengeksplorasi kapan operator drone manusia harus, dan tidak boleh, membuat keputusan untuk sistem otonom. Misalnya, ketika dihadapkan pada serangan di beberapa medan, kendali manusia terkadang dapat menghalangi sebuah misi, karena orang tidak dapat bereaksi dengan cukup cepat. “Sebenarnya, sistem dapat bekerja lebih baik jika tidak ada campur tangan seseorang,” kata Chung.

Drone dan robot beroda, masing-masing seukuran ransel besar, diberi tujuan keseluruhan, lalu memanfaatkan algoritme AI untuk menyusun rencana untuk mencapainya. Beberapa dari mereka mengepung gedung sementara yang lain melakukan penyisiran. Beberapa dihancurkan oleh bahan peledak simulasi; beberapa suar diidentifikasi mewakili kombatan musuh dan memilih untuk menyerang.

AS dan negara lain telah menggunakan otonomi dalam sistem persenjataan selama beberapa dekade. Beberapa misil dapat, misalnya, secara otonom mengidentifikasi dan menyerang musuh di dalam area tertentu. Tetapi kemajuan pesat dalam algoritme AI akan mengubah cara militer menggunakan sistem semacam itu. Kode AI off-the-shelf yang mampu mengendalikan robot dan mengidentifikasi landmark dan target, seringkali dengan keandalan tinggi, akan memungkinkan untuk menerapkan lebih banyak sistem dalam berbagai situasi yang lebih luas.

Tetapi seperti yang disoroti oleh demonstrasi drone, penggunaan AI yang lebih luas terkadang akan membuat manusia lebih sulit untuk terus memantau. Ini mungkin terbukti bermasalah, karena teknologi AI dapat menyimpan bias atau berperilaku tidak terduga. Algoritme penglihatan yang dilatih untuk mengenali seragam tertentu mungkin salah menargetkan seseorang yang mengenakan pakaian serupa. Chung mengatakan proyek gerombolan itu berasumsi bahwa algoritme AI akan meningkat ke titik di mana mereka dapat mengidentifikasi musuh dengan keandalan yang cukup untuk dipercaya.

Diposting oleh : Lagutogel