Upaya Membuat AI Berbasis Teks Kurang Rasis dan Mengerikan


Dalam tes lain, Xudong Shen, seorang mahasiswa PhD Universitas Nasional Singapura, menilai model bahasa berdasarkan seberapa banyak mereka membuat stereotip orang berdasarkan jenis kelamin atau apakah mereka mengidentifikasi sebagai aneh, transgender, atau nonbiner. Dia menemukan bahwa program AI yang lebih besar cenderung terlibat dalam lebih banyak stereotip. Shen mengatakan pembuat model bahasa besar harus memperbaiki kekurangan ini. Peneliti OpenAI juga menemukan bahwa model bahasa cenderung tumbuh lebih beracun saat mereka menjadi lebih besar; mereka mengatakan bahwa mereka tidak mengerti mengapa demikian.

Teks yang dihasilkan oleh model bahasa besar semakin mendekati bahasa yang terlihat atau terdengar seperti berasal dari manusia, namun masih gagal untuk memahami hal-hal yang membutuhkan penalaran yang hampir semua orang mengerti. Dengan kata lain, seperti yang dikatakan beberapa peneliti, AI ini adalah omong kosong yang fantastis, yang mampu meyakinkan peneliti AI dan orang lain bahwa mesin tersebut memahami kata-kata yang dihasilkannya.

Profesor psikologi UC Berkeley Alison Gopnik mempelajari bagaimana balita dan remaja belajar menerapkan pemahaman itu ke komputasi. Anak-anak, katanya, adalah pembelajar terbaik, dan cara anak-anak belajar bahasa sebagian besar berasal dari pengetahuan dan interaksi mereka dengan dunia di sekitar mereka. Sebaliknya, model bahasa besar tidak memiliki koneksi ke dunia, membuat output mereka kurang membumi dalam kenyataan.

“Definisi omong kosong adalah Anda banyak bicara dan itu terdengar masuk akal, tapi tidak ada akal sehat di baliknya,” kata Gopnik.

Yejin Choi, seorang profesor di University of Washington dan pemimpin kelompok yang mempelajari akal sehat di Institut Allen untuk AI, telah menempatkan GPT-3 melalui lusinan tes dan eksperimen untuk mendokumentasikan bagaimana ia dapat membuat kesalahan. Terkadang terulang kembali. Di lain waktu itu beralih ke menghasilkan bahasa beracun bahkan ketika dimulai dengan teks yang tidak menyinggung atau berbahaya.

Untuk mengajarkan AI lebih banyak tentang dunia, Choi dan tim peneliti menciptakan PIGLeT, AI yang dilatih dalam lingkungan simulasi untuk memahami hal-hal tentang pengalaman fisik yang dipelajari orang saat tumbuh dewasa, seperti menyentuh kompor panas adalah ide yang buruk. Pelatihan itu memimpin model bahasa yang relatif kecil untuk mengungguli orang lain dalam tugas-tugas penalaran akal sehat. Hasil tersebut, katanya, menunjukkan bahwa skala bukanlah satu-satunya resep kemenangan dan peneliti harus mempertimbangkan cara lain untuk melatih model. Tujuannya: “Bisakah kita benar-benar membangun algoritme pembelajaran mesin yang dapat mempelajari pengetahuan abstrak tentang cara kerja dunia?”

Choi juga sedang mencari cara untuk mengurangi toksisitas model bahasa. Awal bulan ini, dia dan rekan-rekannya memperkenalkan algoritme yang belajar dari teks yang menyinggung, mirip dengan pendekatan yang diambil oleh Facebook AI Research; mereka mengatakan itu mengurangi toksisitas lebih baik daripada beberapa teknik yang ada. Model bahasa yang besar bisa menjadi racun karena manusia, katanya. “Itu bahasa yang ada di luar sana.”

Anehnya, beberapa peneliti telah menemukan bahwa upaya untuk menyempurnakan dan menghilangkan bias dari model dapat berakhir dengan menyakiti orang-orang yang terpinggirkan. Dalam sebuah makalah yang diterbitkan pada bulan April, para peneliti dari UC Berkeley dan University of Washington menemukan bahwa orang kulit hitam, Muslim, dan orang-orang yang mengidentifikasi sebagai LGBT sangat dirugikan.

Para penulis mengatakan masalahnya berasal, sebagian, dari manusia yang memberi label data yang salah menilai apakah bahasa itu beracun atau tidak. Itu mengarah pada bias terhadap orang yang menggunakan bahasa berbeda dari orang kulit putih. Rekan penulis makalah itu mengatakan ini dapat menyebabkan stigmatisasi diri dan bahaya psikologis, serta memaksa orang untuk beralih kode. Peneliti OpenAI tidak membahas masalah ini dalam makalah terbaru mereka.

Jesse Dodge, seorang ilmuwan peneliti di Allen Institute for AI, mencapai kesimpulan serupa. Dia melihat upaya untuk mengurangi stereotip negatif tentang gay dan lesbian dengan menghapus dari data pelatihan model bahasa besar teks apa pun yang berisi kata-kata “gay” atau “lesbian.” Dia menemukan bahwa upaya untuk menyaring bahasa dapat mengarah pada kumpulan data yang secara efektif menghapus orang dengan identitas ini, membuat model bahasa kurang mampu menangani teks yang ditulis oleh atau tentang kelompok orang tersebut.

Dodge mengatakan cara terbaik untuk menangani bias dan ketidaksetaraan adalah dengan meningkatkan data yang digunakan untuk melatih model bahasa alih-alih mencoba menghilangkan bias setelah fakta. Dia merekomendasikan untuk mendokumentasikan sumber data pelatihan dengan lebih baik dan mengenali batasan teks yang diambil dari web, yang mungkin merepresentasikan orang yang mampu mengakses internet dan memiliki waktu untuk membuat situs web atau memposting komentar. Dia juga mendesak untuk mendokumentasikan bagaimana konten difilter dan menghindari penggunaan daftar blokir untuk memfilter konten yang diambil dari web.

Diposting oleh : Lagutogel