Jangan Berakhir di Aula Kecerdasan Buatan Ini


Ketika seseorang meninggal dalam kecelakaan mobil di AS, data tentang insiden tersebut biasanya dilaporkan ke Administrasi Keselamatan Lalu Lintas Jalan Raya Nasional. Undang-undang federal mengharuskan pilot pesawat sipil memberi tahu Dewan Keselamatan Transportasi Nasional tentang kebakaran dalam penerbangan dan beberapa insiden lainnya.

Registri suram dimaksudkan untuk memberi pihak berwenang dan produsen wawasan yang lebih baik tentang cara-cara untuk meningkatkan keselamatan. Mereka membantu mengilhami repositori crowdsourced insiden kecerdasan buatan yang bertujuan untuk meningkatkan keselamatan di area yang jauh lebih tidak diatur, seperti kendaraan otonom dan robotika. Basis Data Insiden AI diluncurkan pada akhir tahun 2020 dan sekarang berisi 100 insiden, termasuk #68, robot keamanan yang jatuh ke air mancur, dan #16, di mana layanan pengorganisasian foto Google menandai orang kulit hitam sebagai “gorila.” Anggap saja sebagai AI Hall of Shame.

Database Insiden AI diselenggarakan oleh Partnership on AI, sebuah organisasi nirlaba yang didirikan oleh perusahaan teknologi besar untuk meneliti kelemahan teknologi tersebut. Gulungan aib dimulai oleh Sean McGregor, yang bekerja sebagai insinyur pembelajaran mesin di startup prosesor suara Syntiant. Dia mengatakan itu diperlukan karena AI memungkinkan mesin untuk campur tangan lebih langsung dalam kehidupan manusia, tetapi budaya rekayasa perangkat lunak tidak mendorong keselamatan.

“Sering kali saya akan berbicara dengan rekan-rekan insinyur saya dan mereka akan memiliki ide yang cukup cerdas, tetapi Anda perlu mengatakan ‘Sudahkah Anda memikirkan bagaimana Anda membuat distopia?’” kata McGregor. Dia berharap database insiden dapat berfungsi baik sebagai wortel dan tongkat pada perusahaan teknologi, dengan menyediakan bentuk akuntabilitas publik yang mendorong perusahaan untuk tetap berada di luar daftar, sambil membantu tim teknik membuat penerapan AI yang cenderung tidak salah.

Basis data menggunakan definisi luas tentang insiden AI sebagai “situasi di mana sistem AI menyebabkan, atau hampir menyebabkan, bahaya di dunia nyata.” Entri pertama dalam database mengumpulkan tuduhan bahwa YouTube Kids menampilkan konten dewasa, termasuk bahasa seksual eksplisit. Yang terbaru, #100, menyangkut kesalahan dalam sistem kesejahteraan Prancis yang bisa salah menentukan orang berutang uang negara. Di antaranya adalah kecelakaan kendaraan otonom, seperti insiden fatal Uber pada 2018, dan penangkapan yang salah karena kegagalan terjemahan otomatis atau pengenalan wajah.

Siapa pun dapat mengirimkan item ke katalog bencana AI. McGregor menyetujui penambahan untuk saat ini dan memiliki simpanan yang cukup besar untuk diproses tetapi berharap pada akhirnya database akan menjadi proyek mandiri dan sumber terbuka dengan komunitas dan proses kurasinya sendiri. Salah satu insiden favoritnya adalah kesalahan AI oleh sistem deteksi jaywalking bertenaga pengenalan wajah di Ningbo, Cina, yang salah menuduh seorang wanita yang wajahnya muncul dalam iklan di sisi bus.

100 insiden yang dicatat sejauh ini termasuk 16 yang melibatkan Google, lebih banyak dari perusahaan lain mana pun. Amazon memiliki tujuh, dan Microsoft dua. “Kami menyadari database dan sepenuhnya mendukung misi dan tujuan kemitraan dalam menerbitkan database,” kata Amazon dalam sebuah pernyataan. “Mendapatkan dan mempertahankan kepercayaan pelanggan kami adalah prioritas tertinggi kami, dan kami telah merancang proses yang ketat untuk terus meningkatkan layanan kami dan pengalaman pelanggan.” Google dan Microsoft tidak menanggapi permintaan komentar.

Center for Security and Emerging Technology di Georgetown sedang mencoba membuat database lebih kuat. Entri saat ini didasarkan pada laporan media, seperti insiden 79, yang mengutip laporan WIRED tentang algoritme untuk memperkirakan fungsi ginjal yang menurut desain menilai penyakit pasien kulit hitam tidak terlalu parah. Siswa Georgetown sedang bekerja untuk membuat database pendamping yang mencakup rincian insiden, seperti apakah kerusakan itu disengaja atau tidak, dan apakah algoritme masalah bertindak secara mandiri atau dengan masukan manusia.

Helen Toner, direktur strategi di CSET, mengatakan bahwa latihan menginformasikan penelitian tentang potensi risiko kecelakaan AI. Dia juga percaya bahwa database menunjukkan bagaimana mungkin ide yang baik bagi pembuat undang-undang atau regulator yang mengincar aturan AI untuk mempertimbangkan untuk mengamanatkan beberapa bentuk pelaporan insiden, mirip dengan untuk penerbangan.

Pejabat UE dan AS telah menunjukkan minat yang semakin besar dalam mengatur AI, tetapi teknologinya sangat bervariasi dan diterapkan secara luas sehingga menyusun aturan yang jelas yang tidak akan cepat ketinggalan zaman adalah tugas yang menakutkan. Rancangan proposal baru-baru ini dari UE dituduh dengan berbagai cara, melampaui batas, buta tekno, dan penuh celah. Toner mengatakan mewajibkan pelaporan kecelakaan AI dapat membantu diskusi kebijakan dasar. “Saya pikir akan bijaksana bagi mereka untuk disertai dengan umpan balik dari dunia nyata tentang apa yang kami coba cegah dan hal-hal apa yang salah,” katanya.

Diposting oleh : Lagutogel