Bagaimana Penyensoran Dapat Mempengaruhi Kecerdasan Buatan


Kecerdasan buatan adalah hampir tidak dibatasi oleh perbatasan internasional, karena bisnis, universitas, dan pemerintah memanfaatkan kumpulan ide, algoritme, dan bakat global. Namun program AI yang dihasilkan dari demam emas global ini masih dapat mencerminkan perbedaan budaya yang dalam.

Penelitian baru menunjukkan bagaimana sensor pemerintah memengaruhi algoritme AI — dan dapat memengaruhi aplikasi yang dibuat dengan algoritme tersebut.

Margaret Roberts, seorang profesor ilmu politik di UC San Diego, dan Eddie Yang, seorang mahasiswa PhD di sana, memeriksa algoritme bahasa AI yang dilatihkan pada dua sumber: Wikipedia versi bahasa Mandarin, yang diblokir di China; dan Baidu Baike, situs serupa yang dioperasikan oleh mesin telusur dominan China, Baidu, yang tunduk pada sensor pemerintah. Baidu menolak berkomentar.

Para peneliti penasaran apakah penyensoran kata dan frasa tertentu dapat dipelajari oleh algoritme AI dan menemukan jalannya ke perangkat lunak yang menggunakan algoritme tersebut. Ini mungkin memengaruhi bahasa yang digunakan chatbot atau asisten suara, frasa oleh program terjemahan, atau teks alat pelengkapan otomatis.

Jenis algoritme bahasa yang mereka gunakan belajar dengan menganalisis cara kata-kata muncul bersamaan dalam teks dalam jumlah besar. Ini mewakili kata-kata yang berbeda sebagai simpul yang terhubung dalam ruang fisik; semakin dekat kata-kata yang muncul, semakin mirip artinya.

Program penerjemahan mungkin menyimpulkan arti dari kata yang tidak dikenal dengan melihat hubungan ini dalam dua bahasa yang berbeda, misalnya.

Para peneliti UCSD menemukan perbedaan utama dalam algoritma AI yang dihasilkan yang menurut para peneliti tampaknya mencerminkan informasi yang disensor di China. Misalnya, yang dilatih di Wikipedia bahasa China merepresentasikan “demokrasi” yang lebih dekat dengan kata-kata positif, seperti “stabilitas”. Algoritme yang dilatih di Baike Baidu merepresentasikan “demokrasi” yang lebih dekat dengan “kekacauan”.

Roberts dan Yang kemudian menggunakan algoritme untuk membangun dua program guna menilai sentimen — makna positif versus negatif — dari berita utama. Mereka menemukan bahwa seseorang yang dilatih di Wikipedia bahasa China memberikan skor yang lebih positif untuk berita utama yang menyebutkan istilah termasuk “pemilihan,” “kebebasan,” dan “demokrasi,” sementara yang dilatih di Baidu Baike memberikan skor yang lebih positif untuk berita utama yang menampilkan “pengawasan,” ” kontrol sosial, “dan” CCP “. Studi ini akan dipresentasikan pada Conference on Fairness Accountability and Transparency (FAccT) 2021 pada bulan Maret.

Dalam beberapa tahun terakhir, para peneliti telah menyoroti bagaimana bias ras dan gender dapat mengintai di banyak sistem kecerdasan buatan. Algoritme yang dilatih pada teks yang diambil dari web atau buku lama, misalnya, akan belajar meniru bias yang ditampilkan oleh penulis manusia dari teks tersebut. Pada tahun 2018, para peneliti di Google mendemonstrasikan bias budaya dalam algoritme pengenalan gambar, yang mungkin, misalnya, hanya mengenali adegan pernikahan Barat.

Panduan WIRED untuk Artificial Intelligence

Algoritme supersmart tidak akan mengambil semua pekerjaan, tetapi mereka belajar lebih cepat dari sebelumnya, melakukan segalanya mulai dari diagnostik medis hingga menayangkan iklan.

Roberts mencatat bahwa perbedaan yang terlihat dalam penelitian mereka mungkin tidak sepenuhnya disebabkan oleh sensor pemerintah. Beberapa mungkin hasil dari swasensor atau perbedaan budaya di antara mereka yang menulis artikel ensiklopedia. Namun dia mengatakan penting untuk menyadari bahwa kebijakan pemerintah dapat menyebabkan bentuk bias lain mengintai dalam sistem AI. “Kami melihat ini sebagai titik awal untuk mencoba memahami bagaimana data pelatihan berbentuk pemerintah muncul dalam pembelajaran mesin,” kata Roberts.

Roberts mengatakan para peneliti dan pembuat kebijakan perlu mempertimbangkan bagaimana pemerintah di masa depan dapat memengaruhi bagaimana sistem AI dilatih untuk membuat penyensoran lebih efektif atau mengekspor nilai-nilai tertentu.

Graeme Hirst, seorang profesor di Universitas Toronto yang berspesialisasi dalam linguistik komputasi dan pemrosesan bahasa alami, memiliki sedikit keraguan dengan metodologi studi. Tanpa mempelajari dengan cermat perbedaan antara Wikipedia bahasa Cina dan Baidu Baike, kata Hirst, sulit untuk menganggap variasi dalam algoritme sebagai penyensoran. Mungkin juga Wikipedia bahasa China berisi konten anti-China atau secara terbuka pro-demokrasi, katanya. Hirst menambahkan bahwa tidak jelas bagaimana analisis sentimen dilakukan dan apakah bias mungkin telah diperkenalkan di sana.

Yang lain melihatnya sebagai kontribusi yang disambut baik di lapangan.

“Dalam arti tertentu, ini tidak mengherankan,” kata Suresh Venkatasubramanian, seorang profesor di Universitas Utah yang mempelajari etika AI dan ikut mendirikan konferensi FAcct.

Venkatasubramanian menunjukkan bahwa algoritme AI yang dilatih pada artikel berita Barat mungkin berisi bias anti-China mereka sendiri. “Tapi saya pikir itu masih penting untuk melakukan pekerjaan untuk menunjukkan itu terjadi,” katanya. “Lalu Anda bisa mulai bertanya bagaimana tampilannya, bagaimana Anda mengukurnya, seperti apa bentuknya, dan sebagainya.”


Lebih Banyak Kisah WIRED Hebat

Diposting oleh : Lagutogel