Cara Baru Melatih AI Ini Dapat Mengurangi Pelecehan Online


Selama sekitar enam bulan tahun lalu, Nina Nørgaard bertemu setiap minggu selama satu jam dengan tujuh orang untuk membicarakan seksisme dan bahasa kekerasan yang digunakan untuk menargetkan wanita di media sosial. Nørgaard, kandidat PhD di IT University of Copenhagen, dan kelompok diskusinya mengambil bagian dalam upaya yang tidak biasa untuk mengidentifikasi misogini secara online dengan lebih baik. Para peneliti membayar tujuh orang untuk memeriksa ribuan posting Facebook, Reddit, dan Twitter dan memutuskan apakah mereka membuktikan seksisme, stereotip, atau pelecehan. Seminggu sekali, para peneliti membawa kelompok itu bersama-sama, dengan Nørgaard sebagai mediator, untuk membahas panggilan-panggilan sulit di mana mereka tidak setuju.

Misogini adalah momok yang membentuk bagaimana perempuan diwakili secara online. Sebuah studi Plan International 2020, salah satu yang terbesar yang pernah dilakukan, menemukan bahwa lebih dari separuh wanita di 22 negara mengatakan mereka telah dilecehkan atau dilecehkan secara online. Satu dari lima wanita yang mengalami pelecehan mengatakan bahwa mereka mengubah perilaku mereka—mengurangi atau menghentikan penggunaan internet—sebagai hasilnya.

Perusahaan media sosial menggunakan kecerdasan buatan untuk mengidentifikasi dan menghapus postingan yang merendahkan, melecehkan, atau mengancam kekerasan terhadap perempuan, tetapi ini adalah masalah yang sulit. Di antara para peneliti, tidak ada standar untuk mengidentifikasi postingan seksis atau misoginis; satu makalah baru-baru ini mengusulkan empat kategori konten yang merepotkan, sementara yang lain mengidentifikasi 23 kategori. Sebagian besar penelitian dilakukan dalam bahasa Inggris, membuat orang yang bekerja dalam bahasa dan budaya lain bahkan tidak memiliki panduan untuk keputusan yang sulit dan seringkali subjektif.

Jadi para peneliti di Denmark mencoba pendekatan baru, mempekerjakan Nørgaard dan tujuh orang secara penuh waktu untuk meninjau dan memberi label pada postingan, alih-alih mengandalkan kontraktor paruh waktu yang sering dibayar melalui pos. Mereka sengaja memilih orang-orang dari berbagai usia dan kebangsaan, dengan pandangan politik yang beragam, untuk mengurangi kemungkinan bias dari satu pandangan dunia. Para pemberi label termasuk perancang perangkat lunak, aktivis iklim, aktris, dan pekerja perawatan kesehatan. Tugas Nørgaard adalah membawa mereka ke sebuah konsensus.

“Hal yang hebat adalah mereka tidak setuju. Kami tidak ingin visi terowongan. Kami tidak ingin semua orang berpikiran sama,” kata Nørgaard. Dia mengatakan tujuannya adalah “membuat mereka berdiskusi di antara mereka sendiri atau di antara kelompok.”

Nørgaard memandang pekerjaannya sebagai membantu pemberi label “menemukan jawabannya sendiri.” Seiring waktu, dia mengenal masing-masing dari ketujuh orang itu sebagai individu, dan siapa, misalnya, yang berbicara lebih banyak daripada yang lain. Dia mencoba memastikan tidak ada individu yang mendominasi percakapan, karena itu dimaksudkan untuk menjadi diskusi, bukan debat.

Panggilan terberat melibatkan posting dengan ironi, lelucon, atau sarkasme; mereka menjadi topik pembicaraan yang besar. Namun, seiring waktu, “pertemuan menjadi lebih singkat dan orang-orang lebih jarang berdiskusi, jadi saya melihatnya sebagai hal yang baik,” kata Nørgaard.

Para peneliti di balik proyek ini menyebutnya sukses. Mereka mengatakan percakapan mengarah ke data berlabel yang lebih akurat untuk melatih algoritma AI. Para peneliti mengatakan AI yang disesuaikan dengan kumpulan data dapat mengenali kebencian terhadap wanita di platform media sosial populer 85 persen dari waktu. Setahun sebelumnya, algoritme deteksi misogini yang canggih memiliki akurasi sekitar 75 persen. Secara keseluruhan, tim meninjau hampir 30.000 posting, 7.500 di antaranya dianggap kasar.

Postingan tersebut ditulis dalam bahasa Denmark, tetapi para peneliti mengatakan pendekatan mereka dapat diterapkan pada bahasa apa pun. “Saya pikir jika Anda ingin menjelaskan misogini, Anda harus mengikuti pendekatan yang setidaknya memiliki sebagian besar elemen kami. Jika tidak, Anda mempertaruhkan data berkualitas rendah, dan itu merusak segalanya, ”kata Leon Derczynski, rekan penulis studi dan profesor di IT University of Copenhagen.

Temuan ini bisa berguna di luar media sosial. Bisnis mulai menggunakan AI untuk menyaring daftar pekerjaan atau teks terbuka seperti siaran pers untuk seksisme. Jika perempuan mengecualikan diri mereka dari percakapan online untuk menghindari pelecehan, itu akan menghambat proses demokrasi.

“Jika Anda akan menutup mata terhadap ancaman dan agresi terhadap separuh populasi, maka Anda tidak akan memiliki ruang online demokratis sebaik yang Anda bisa,” kata Derczynski.

Diposting oleh : Lagutogel