AI Bisa Menulis dalam Bahasa Inggris. Sekarang Belajar Bahasa Lain


“Yang mengejutkan dari model bahasa besar ini adalah seberapa banyak yang mereka ketahui tentang cara kerja dunia hanya dari membaca semua hal yang dapat mereka temukan,” kata Chris Manning, seorang profesor di Stanford yang berspesialisasi dalam AI dan bahasa.

Tapi GPT dan sejenisnya pada dasarnya adalah burung beo statistik yang sangat berbakat. Mereka belajar bagaimana menciptakan kembali pola kata dan tata bahasa yang ditemukan dalam bahasa. Itu berarti mereka dapat melontarkan omong kosong, fakta yang sangat tidak akurat, dan bahasa kebencian yang diambil dari sudut web yang lebih gelap.

Amnon Shashua, seorang profesor ilmu komputer di Universitas Ibrani Yerusalem, adalah salah satu pendiri startup lain yang membangun model AI berdasarkan pendekatan ini. Dia tahu satu atau dua hal tentang mengkomersilkan AI, setelah menjual perusahaan terakhirnya, Mobileye, yang mempelopori penggunaan AI untuk membantu mobil menemukan sesuatu di jalan, ke Intel pada 2017 seharga $15,3 miliar.

Perusahaan baru Shashua, AI21 Labs, yang keluar dari siluman minggu lalu, telah mengembangkan algoritme AI, yang disebut Jurassic-1, yang menunjukkan keterampilan bahasa yang mencolok dalam bahasa Inggris dan Ibrani.

Dalam demo, Jurassic-1 dapat menghasilkan paragraf teks tentang subjek tertentu, membuat judul yang menarik untuk posting blog, menulis kode komputer sederhana, dan banyak lagi. Shashua mengatakan modelnya lebih canggih daripada GPT-3, dan dia percaya bahwa versi Jurassic di masa depan mungkin dapat membangun semacam pemahaman yang masuk akal tentang dunia dari informasi yang dikumpulkannya.

Upaya lain untuk menciptakan kembali GPT-3 mencerminkan keragaman bahasa di dunia—dan internet. Pada bulan April, para peneliti di Huawei, raksasa teknologi Cina, menerbitkan rincian model bahasa Cina mirip GPT yang disebut PanGu-alpha (ditulis sebagai PanGu-α). Pada bulan Mei, Naver, raksasa pencarian Korea Selatan, mengatakan telah mengembangkan model bahasanya sendiri, yang disebut HyperCLOVA, yang “berbahasa” Korea.

Jie Tang, seorang profesor di Universitas Tsinghua, memimpin tim di Akademi Kecerdasan Buatan Beijing yang mengembangkan model bahasa Mandarin lainnya yang disebut Wudao (berarti “pencerahan”) dengan bantuan dari pemerintah dan industri.

Model Wudao jauh lebih besar daripada yang lain, yang berarti bahwa jaringan saraf tiruannya tersebar di lebih banyak komputer cloud. Meningkatkan ukuran jaringan saraf adalah kunci untuk membuat GPT-2 dan -3 lebih mampu. Wudao juga dapat bekerja dengan gambar dan teks, dan Tang telah mendirikan perusahaan untuk mengkomersialkannya. “Kami percaya bahwa ini bisa menjadi landasan dari semua AI,” kata Tang.

Antusiasme seperti itu tampaknya didukung oleh kemampuan program AI baru ini, tetapi perlombaan untuk mengkomersialkan model bahasa semacam itu mungkin juga bergerak lebih cepat daripada upaya untuk menambah pagar pembatas atau membatasi penyalahgunaan.

Mungkin kekhawatiran yang paling mendesak tentang model bahasa AI adalah bagaimana mereka dapat disalahgunakan. Karena model dapat menghasilkan teks yang meyakinkan tentang suatu subjek, beberapa orang khawatir bahwa mereka dapat dengan mudah digunakan untuk menghasilkan ulasan palsu, spam, atau berita palsu.

“Saya akan terkejut jika operator disinformasi setidaknya tidak menginvestasikan energi yang serius untuk bereksperimen dengan model ini,” kata Micah Musser, seorang analis riset di Universitas Georgetown yang telah mempelajari potensi model bahasa untuk menyebarkan informasi yang salah.

Musser mengatakan penelitian menunjukkan bahwa tidak mungkin menggunakan AI untuk menangkap disinformasi yang dihasilkan oleh AI. Tidak mungkin ada cukup informasi dalam tweet untuk mesin untuk menilai apakah itu ditulis oleh mesin.

Jenis bias yang lebih bermasalah mungkin bersembunyi di dalam model bahasa raksasa ini juga. Penelitian telah menunjukkan bahwa model bahasa yang dilatih pada konten internet China akan mencerminkan sensor yang membentuk konten tersebut. Program-program tersebut juga secara tak terelakkan menangkap dan mereproduksi bias halus dan terbuka seputar ras, jenis kelamin, dan usia dalam bahasa yang mereka konsumsi, termasuk pernyataan dan gagasan yang penuh kebencian.

Demikian pula, model bahasa besar ini mungkin gagal dengan cara yang mengejutkan atau tidak terduga, tambah Percy Liang, profesor ilmu komputer lain di Stanford dan peneliti utama di pusat baru yang didedikasikan untuk mempelajari potensi model AI tujuan umum yang kuat seperti GPT-3.

Diposting oleh : Lagutogel