Pentagon Memperkuat Sistem AI-nya—dengan Meretas Dirinya Sendiri


Pentagon melihat kecerdasan buatan sebagai cara untuk mengakali, mengakali, dan mendominasi musuh di masa depan. Tetapi sifat AI yang rapuh berarti bahwa tanpa kehati-hatian, teknologi ini mungkin dapat memberi musuh cara baru untuk menyerang.

Pusat Kecerdasan Buatan Gabungan, yang dibuat oleh Pentagon untuk membantu militer AS memanfaatkan AI, baru-baru ini membentuk unit untuk mengumpulkan, memeriksa, dan mendistribusikan model pembelajaran mesin sumber terbuka dan industri ke kelompok-kelompok di seluruh Departemen Pertahanan. Bagian dari upaya itu menunjukkan tantangan utama dengan menggunakan AI untuk tujuan militer. Sebuah “tim merah” pembelajaran mesin, yang dikenal sebagai Grup Tes dan Evaluasi, akan menyelidiki kelemahan model yang telah dilatih sebelumnya. Tim keamanan siber lainnya memeriksa kode AI dan data untuk kerentanan tersembunyi.

Pembelajaran mesin, teknik di balik AI modern, mewakili cara yang berbeda secara fundamental, seringkali lebih kuat, untuk menulis kode komputer. Alih-alih menulis aturan untuk diikuti mesin, pembelajaran mesin menghasilkan aturannya sendiri dengan belajar dari data. Masalahnya, proses pembelajaran ini, bersama dengan artefak atau kesalahan dalam data pelatihan, dapat menyebabkan model AI berperilaku aneh atau tidak terduga.

“Untuk beberapa aplikasi, perangkat lunak pembelajaran mesin hanya bajillion kali lebih baik daripada perangkat lunak tradisional,” kata Gregory Allen, direktur strategi dan kebijakan di JAIC. Namun, tambahnya, pembelajaran mesin “juga rusak dengan cara yang berbeda dari perangkat lunak tradisional.”

Algoritme pembelajaran mesin yang dilatih untuk mengenali kendaraan tertentu dalam citra satelit, misalnya, mungkin juga belajar mengasosiasikan kendaraan dengan warna tertentu dari pemandangan di sekitarnya. Musuh berpotensi menipu AI dengan mengubah pemandangan di sekitar kendaraannya. Dengan akses ke data pelatihan, musuh juga mungkin dapat menanam gambar, seperti simbol tertentu, yang akan membingungkan algoritme.

Allen mengatakan Pentagon mengikuti aturan ketat mengenai keandalan dan keamanan perangkat lunak yang digunakannya. Dia mengatakan pendekatan ini dapat diperluas ke AI dan pembelajaran mesin, dan mencatat bahwa JAIC bekerja untuk memperbarui standar DoD seputar perangkat lunak untuk memasukkan masalah seputar pembelajaran mesin.

AI mengubah cara beberapa bisnis beroperasi karena ini bisa menjadi cara yang efisien dan kuat untuk mengotomatisasi tugas dan proses. Alih-alih menulis algoritme untuk memprediksi produk mana yang akan dibeli pelanggan, misalnya, perusahaan dapat membuat algoritme AI melihat ribuan atau jutaan penjualan sebelumnya dan merancang modelnya sendiri untuk memprediksi siapa yang akan membeli apa.

AS dan militer lainnya melihat keuntungan serupa, dan bergegas menggunakan AI untuk meningkatkan logistik, pengumpulan intelijen, perencanaan misi, dan teknologi senjata. Kemampuan teknologi China yang berkembang telah memicu rasa urgensi di dalam Pentagon tentang mengadopsi AI. Allen mengatakan Departemen Pertahanan bergerak “dengan cara yang bertanggung jawab yang memprioritaskan keselamatan dan keandalan.”

Para peneliti sedang mengembangkan cara yang lebih kreatif untuk meretas, menumbangkan, atau menghancurkan sistem AI di alam liar. Pada Oktober 2020, para peneliti di Israel menunjukkan betapa gambar yang di-tweak dengan hati-hati dapat membingungkan algoritme AI yang memungkinkan Tesla menafsirkan jalan di depan. Jenis “serangan permusuhan” ini melibatkan penyesuaian input ke algoritme pembelajaran mesin untuk menemukan perubahan kecil yang menyebabkan kesalahan besar.

Dawn Song, seorang profesor di UC Berkeley yang telah melakukan eksperimen serupa pada sensor Tesla dan sistem AI lainnya, mengatakan serangan terhadap algoritme pembelajaran mesin sudah menjadi masalah di berbagai bidang seperti deteksi penipuan. Beberapa perusahaan menawarkan alat untuk menguji sistem AI yang digunakan di bidang keuangan. “Tentu saja ada penyerang yang ingin menghindari sistem,” katanya. “Saya pikir kita akan melihat lebih banyak masalah seperti ini.”

Contoh sederhana dari serangan pembelajaran mesin melibatkan Tay, chatbot skandal Microsoft yang salah, yang memulai debutnya pada tahun 2016. Bot menggunakan algoritme yang mempelajari cara menanggapi pertanyaan baru dengan memeriksa percakapan sebelumnya; Redditor dengan cepat menyadari bahwa mereka dapat memanfaatkan ini untuk membuat Tay memuntahkan pesan kebencian.

Diposting oleh : Lagutogel