Algoritma Pemotongan Foto Twitter Menyukai Wanita Muda dan Kurus


Di bulan Mei, Twitter mengatakan bahwa itu akan berhenti menggunakan algoritme kecerdasan buatan yang ditemukan untuk mendukung wajah putih dan wanita saat memotong gambar secara otomatis.

Sekarang, kontes yang tidak biasa untuk meneliti program AI untuk perilaku buruk telah menemukan bahwa algoritme yang sama, yang mengidentifikasi area paling penting dari sebuah gambar, juga membedakan berdasarkan usia dan berat, dan mendukung teks dalam bahasa Inggris dan bahasa Barat lainnya.

Entri teratas, disumbangkan oleh Bogdan Kulynych, seorang mahasiswa pascasarjana di bidang keamanan komputer di EPFL di Swiss, menunjukkan bagaimana algoritma pemotongan gambar Twitter mendukung orang yang lebih kurus dan tampak lebih muda. Kulynych menggunakan teknik deepfake untuk menghasilkan wajah yang berbeda secara otomatis, dan kemudian menguji algoritme pemangkasan untuk melihat bagaimana responsnya.

“Pada dasarnya, semakin kurus, muda, dan perempuan suatu gambar, semakin disukai,” kata Patrick Hall, ilmuwan utama di BNH, sebuah perusahaan yang melakukan konsultasi AI. Dia adalah salah satu dari empat juri untuk kontes tersebut.

Hakim kedua, Ariel Herbert-Voss, seorang peneliti keamanan di OpenAI, mengatakan bahwa bias yang ditemukan oleh para peserta mencerminkan bias dari manusia yang menyumbangkan data yang digunakan untuk melatih model tersebut. Tetapi dia menambahkan bahwa entri menunjukkan bagaimana analisis menyeluruh dari suatu algoritme dapat membantu tim produk menghilangkan masalah dengan model AI mereka. “Ini membuat lebih mudah untuk memperbaikinya jika seseorang seperti ‘Hei, ini buruk.’”

“Algorithm bias bounty challenge,” yang diadakan minggu lalu di Defcon, sebuah konferensi keamanan komputer di Las Vegas, menunjukkan bahwa membiarkan peneliti luar meneliti algoritma untuk perilaku yang salah mungkin dapat membantu perusahaan mengatasi masalah sebelum mereka benar-benar membahayakan.

Sama seperti beberapa perusahaan, termasuk Twitter, mendorong para ahli untuk mencari bug keamanan dalam kode mereka dengan menawarkan hadiah untuk eksploitasi tertentu, beberapa ahli AI percaya bahwa perusahaan harus memberi orang luar akses ke algoritme dan data yang mereka gunakan untuk menemukan masalah.

“Sangat menarik melihat ide ini dieksplorasi, dan saya yakin kita akan melihatnya lebih banyak lagi,” kata Amit Elazari, direktur kebijakan keamanan siber global di Intel dan dosen di UC Berkeley yang menyarankan penggunaan bug-bounty pendekatan untuk membasmi bias AI. Dia mengatakan pencarian bias dalam AI “dapat mengambil manfaat dari memberdayakan orang banyak.”

Pada bulan September, seorang Kanada siswa menarik perhatian cara algoritma Twitter memotong foto. Algoritme dirancang untuk membidik wajah serta bidang minat lainnya seperti teks, hewan, atau objek. Tetapi algoritme sering kali lebih menyukai wajah dan wanita kulit putih dalam gambar yang menampilkan beberapa orang. Twittersphere segera menemukan contoh lain dari bias yang menunjukkan bias ras dan gender.

Untuk kontes bounty minggu lalu, Twitter membuat kode untuk algoritma pemotongan gambar tersedia untuk peserta, dan menawarkan hadiah untuk tim yang menunjukkan bukti perilaku berbahaya lainnya.

Lainnya menemukan bias tambahan. Satu menunjukkan bahwa algoritma itu bias terhadap orang-orang dengan rambut putih. Yang lain mengungkapkan bahwa algoritme lebih menyukai teks Latin daripada skrip Arab, sehingga memberikan bias Barat-sentris.

Hall of BNH mengatakan dia yakin perusahaan lain akan mengikuti pendekatan Twitter. “Saya pikir ada harapan dari lepas landas ini,” katanya. “Karena regulasi yang akan datang, dan karena jumlah insiden bias AI meningkat.”

Dalam beberapa tahun terakhir, banyak hype seputar AI telah memburuk dengan contoh betapa mudahnya algoritme dapat menyandikan bias. Algoritme pengenalan wajah komersial telah terbukti mendiskriminasi ras dan jenis kelamin, kode pemrosesan gambar terbukti menunjukkan gagasan seksis, dan program yang menilai kemungkinan seseorang melakukan pelanggaran ulang terbukti bias terhadap terdakwa kulit hitam.

Masalah ini terbukti sulit untuk dicabut. Mengidentifikasi keadilan tidaklah mudah, dan beberapa algoritme, seperti yang digunakan untuk menganalisis sinar-X medis, dapat menginternalisasi bias rasial dengan cara yang tidak mudah dikenali manusia.

“Salah satu masalah terbesar yang kami hadapi—yang dihadapi setiap perusahaan dan organisasi—ketika berpikir tentang menentukan bias dalam model kami atau dalam sistem kami adalah bagaimana kami menskalakannya?” kata Rumman Chowdhury, direktur grup Etika, Transparansi, dan Akuntabilitas ML di Twitter.


Diposting oleh : Lagutogel