Keluarnya Timnit Gebru Dari Google Mengekspos Krisis dalam AI

Keluarnya Timnit Gebru Dari Google Mengekspos Krisis dalam AI

[ad_1]

Tahun ini telah banyak hal yang diselenggarakan, di antaranya klaim berani atas terobosan kecerdasan buatan. Komentator industri berspekulasi bahwa model generasi bahasa GPT-3 mungkin telah mencapai “kecerdasan umum buatan”, sementara yang lain memuji algoritme pelipatan protein anak perusahaan Alphabet DeepMind — Alphafold — dan kemampuannya untuk “mengubah biologi”. Meskipun dasar dari klaim semacam itu lebih tipis daripada berita utama yang berlebihan, hal ini tidak banyak mengurangi antusiasme di seluruh industri, yang keuntungan dan prestisenya bergantung pada perkembangan AI.

Dengan latar belakang inilah Google memecat Timnit Gebru, teman dan kolega kita, dan pemimpin di bidang kecerdasan buatan. Dia juga salah satu dari sedikit wanita kulit hitam dalam penelitian AI dan pendukung teguh untuk membawa lebih banyak BIPOC, wanita, dan orang non-Barat ke lapangan. Dengan ukuran apa pun, dia unggul dalam pekerjaan yang dipekerjakan Google, termasuk mendemonstrasikan perbedaan ras dan gender dalam teknologi analisis wajah dan mengembangkan pedoman pelaporan untuk kumpulan data dan model AI. Ironisnya, ini dan advokasi vokalnya untuk mereka yang kurang terwakili dalam penelitian AI juga menjadi alasan, katanya, perusahaan tersebut memecatnya. Menurut Gebru, setelah menuntut agar dia dan rekan-rekannya menarik makalah penelitian yang mengkritik sistem AI skala besar (menguntungkan), Google Research memberi tahu timnya bahwa pihaknya telah menerima pengunduran dirinya, terlepas dari kenyataan bahwa dia belum mengundurkan diri. (Google menolak berkomentar untuk cerita ini.)

Perlakuan Google yang mengerikan terhadap Gebru memperlihatkan krisis ganda dalam penelitian AI. Lapangan ini didominasi oleh elit, terutama tenaga kerja pria kulit putih, dan dikendalikan serta didanai terutama oleh pemain industri besar — ​​Microsoft, Facebook, Amazon, IBM, dan ya, Google. Dengan pemecatan Gebru, politik kesopanan yang mendorong upaya muda untuk membangun pagar pembatas yang diperlukan di sekitar AI telah terkoyak, membawa pertanyaan tentang homogenitas rasial tenaga kerja AI dan ketidakefektifan program keanekaragaman perusahaan ke pusat wacana. Tetapi situasi ini juga memperjelas bahwa — betapapun tulusnya perusahaan seperti janji Google — penelitian yang didanai perusahaan tidak pernah dapat dipisahkan dari realitas kekuasaan, dan arus pendapatan dan modal.

Ini harus menjadi perhatian kita semua. Dengan penyebaran AI ke dalam domain seperti perawatan kesehatan, peradilan pidana, dan pendidikan, para peneliti dan pendukung meningkatkan kekhawatiran yang mendesak. Sistem-sistem ini membuat keputusan yang secara langsung membentuk kehidupan, pada saat yang sama mereka tertanam dalam organisasi yang dibentuk untuk memperkuat sejarah diskriminasi rasial. Sistem AI juga memusatkan kekuatan di tangan mereka yang merancang dan menggunakannya, sambil mengaburkan tanggung jawab (dan kewajiban) di balik lapisan komputasi yang kompleks. Risikonya sangat besar, dan insentifnya jelas-jelas merugikan.

Krisis saat ini memperlihatkan hambatan struktural yang membatasi kemampuan kami untuk membangun perlindungan yang efektif di sekitar sistem AI. Hal ini sangat penting karena populasi yang mengalami bahaya dan bias dari prediksi dan penentuan AI terutama adalah orang-orang BIPOC, perempuan, agama dan gender minoritas, dan orang miskin — mereka yang telah menanggung beban diskriminasi struktural. Di sini kita memiliki perbedaan rasial yang jelas antara mereka yang diuntungkan — perusahaan dan terutama peneliti dan pengembang pria kulit putih — dan mereka yang paling mungkin dirugikan.

Ambil contoh teknologi pengenalan wajah, yang telah terbukti lebih jarang “mengenali” orang berkulit gelap daripada mereka yang berkulit lebih terang. Ini saja sudah mengkhawatirkan. Tapi “kesalahan” rasial ini bukan satu-satunya masalah dengan pengenalan wajah. Tawana Petty, direktur pengorganisasian di Data for Black Lives, menunjukkan bahwa sistem ini digunakan secara tidak proporsional di lingkungan dan kota yang didominasi orang kulit hitam, sementara kota yang berhasil melarang dan menolak penggunaan pengenalan wajah didominasi warna putih.

Tanpa penelitian kritis dan independen yang memusatkan perspektif dan pengalaman mereka yang menanggung kerugian dari teknologi ini, kemampuan kita untuk memahami dan menentang klaim berlebihan yang dibuat oleh industri akan terhambat secara signifikan. Perlakuan Google terhadap Gebru semakin memperjelas di mana letak prioritas perusahaan ketika pekerjaan kritis menekan kembali insentif bisnisnya. Hal ini membuat hampir tidak mungkin untuk memastikan bahwa sistem AI bertanggung jawab kepada orang-orang yang paling rentan terhadap kerusakannya.

Pengawasan pada industri selanjutnya dikompromikan oleh hubungan erat antara perusahaan teknologi dan institusi akademis yang seolah-olah independen. Peneliti dari perusahaan dan akademisi menerbitkan makalah bersama-sama dan bertemu di konferensi yang sama, dengan beberapa peneliti bahkan memegang posisi rangkap di perusahaan teknologi dan universitas. Ini mengaburkan batas antara penelitian akademis dan perusahaan dan mengaburkan insentif yang menjamin pekerjaan tersebut. Ini juga berarti bahwa kedua kelompok terlihat sangat mirip — penelitian AI di dunia akademis mengalami masalah homogenitas rasial dan gender yang merusak yang sama seperti rekan perusahaannya. Selain itu, departemen ilmu komputer teratas menerima dana penelitian Teknologi Besar dalam jumlah besar. Kita hanya perlu melihat Big Tobacco dan Big Oil untuk template bermasalah yang mengungkap seberapa besar pengaruh terhadap pemahaman publik tentang masalah ilmiah kompleks yang dapat dilakukan oleh perusahaan besar ketika penciptaan pengetahuan berada di tangan mereka.

Diposting oleh : Toto HK

Releated

Kerusuhan DC Adalah Kail Pengait dari Krisis Disinformasi

Kerusuhan DC Adalah Kail Pengait dari Krisis Disinformasi

[ad_1] Pemberontakan yang kejam melawan US Capitol pada 6 Januari 2021, mungkin terbukti menjadi titik kritis dalam hal bagaimana ekosistem media kita memperlakukan disinformasi dan individu serta organisasi yang memproduksinya. Pada hari itu, kami menyaksikan dengan tepat apa yang paling ditakuti oleh para peneliti masalah disinformasi, serangan langsung terhadap institusi demokrasi yang dipicu oleh teori […]

Tingkat Kejahatan Turun pada 2020 — Sama Seperti yang Mereka Lakukan pada 1918

Tingkat Kejahatan Turun pada 2020 — Sama Seperti yang Mereka Lakukan pada 1918

[ad_1] Saat terjadi pandemi menghantam AS musim semi lalu, dan negara bagian dikunci, pembuat kebijakan dan ahli bertanya-tanya tentang trade-off. Mana yang akan berakhir lebih buruk: kerusakan ekonomi akibat pembatasan yang berlarut-larut, atau penyebaran penyakit baru dan berbahaya yang tidak terkendali? “KITA TIDAK BISA BIARKAN PENYEMBUHAN LEBIH BURUK DARI MASALAH DIRI,” tweeted Presiden Donald Trump […]