GPT-3 Dapat Menulis Disinformasi Sekarang — dan Pembaca Manusia Ganda


Saat OpenAI mendemonstrasikan Algoritma kecerdasan buatan yang kuat yang mampu menghasilkan teks yang koheren Juni lalu, penciptanya memperingatkan bahwa alat tersebut berpotensi digunakan sebagai senjata misinformasi online.

Sekarang tim ahli disinformasi telah mendemonstrasikan seberapa efektif algoritme tersebut, yang disebut GPT-3, dapat digunakan untuk menyesatkan dan memberikan informasi yang salah. Hasilnya menunjukkan bahwa meskipun AI mungkin bukan tandingan pembuat meme terbaik Rusia, hal itu dapat memperkuat beberapa bentuk penipuan yang akan sangat sulit dikenali.

Selama enam bulan, sebuah kelompok di Pusat Keamanan dan Teknologi yang Muncul Universitas Georgetown menggunakan GPT-3 untuk menghasilkan informasi yang salah, termasuk cerita seputar narasi palsu, artikel berita yang diubah untuk mendorong perspektif palsu, dan tweet yang mengoceh tentang poin-poin tertentu dari disinformasi.

“Saya tidak berpikir itu suatu kebetulan bahwa perubahan iklim adalah pemanasan global baru,” baca contoh tweet yang disusun oleh GPT-3 yang bertujuan untuk memicu skeptisisme tentang perubahan iklim. “Mereka tidak dapat berbicara tentang kenaikan suhu karena tidak lagi terjadi.” Perubahan iklim kedua berlabel “komunisme baru — ideologi yang didasarkan pada sains palsu yang tidak dapat dipertanyakan”.

“Dengan sedikit kurasi manusia, GPT-3 cukup efektif” dalam mempromosikan kebohongan, kata Ben Buchanan, seorang profesor di Georgetown yang terlibat dalam penelitian tersebut, yang berfokus pada persimpangan AI, keamanan siber, dan pesawat negara.

Para peneliti Georgetown mengatakan GPT-3, atau algoritme bahasa AI yang serupa, terbukti sangat efektif untuk secara otomatis menghasilkan pesan singkat di media sosial, yang oleh para peneliti disebut misinformasi “satu ke banyak”.

Dalam eksperimennya, para peneliti menemukan bahwa tulisan GPT-3 dapat mempengaruhi opini pembaca tentang masalah diplomasi internasional. Para peneliti menunjukkan sampel tweet sukarelawan yang ditulis oleh GPT-3 tentang penarikan pasukan AS dari Afghanistan dan sanksi AS terhadap China. Dalam kedua kasus tersebut, mereka menemukan bahwa peserta terpengaruh oleh pesan. Setelah melihat postingan yang menentang sanksi China, misalnya, persentase responden yang menyatakan menentang kebijakan tersebut menjadi dua kali lipat.

Mike Gruszczynski, seorang profesor di Indiana University yang mempelajari komunikasi online, mengatakan dia tidak akan terkejut melihat AI mengambil peran lebih besar dalam kampanye disinformasi. Dia menunjukkan bahwa bot telah memainkan peran kunci dalam menyebarkan narasi palsu dalam beberapa tahun terakhir, dan AI dapat digunakan untuk menghasilkan foto profil media sosial palsu. Dengan bot, deepfake, dan teknologi lainnya, “Sayangnya, menurut saya langit adalah batasnya,” katanya.

Peneliti AI telah membangun program yang mampu menggunakan bahasa dengan cara yang mengejutkan akhir-akhir ini, dan GPT-3 mungkin adalah demonstrasi yang paling mengejutkan dari semuanya. Meskipun mesin tidak memahami bahasa dengan cara yang sama seperti manusia, program AI dapat meniru pemahaman hanya dengan menggunakan teks dalam jumlah besar dan mencari pola tentang bagaimana kata dan kalimat cocok satu sama lain.

Para peneliti di OpenAI membuat GPT-3 dengan memasukkan sejumlah besar teks yang diambil dari sumber web termasuk Wikipedia dan Reddit ke algoritme AI yang sangat besar yang dirancang untuk menangani bahasa. GPT-3 sering kali mengejutkan pengamat dengan penguasaan bahasanya yang tampak jelas, tetapi tidak dapat diprediksi, mengeluarkan celoteh yang tidak koheren dan bahasa yang menyinggung atau penuh kebencian.

OpenAI telah membuat GPT-3 tersedia untuk lusinan startup. Pengusaha menggunakan GPT-3 untuk membuat email secara otomatis, berbicara dengan pelanggan, dan bahkan menulis kode komputer. Tetapi beberapa penggunaan program juga telah menunjukkan potensinya yang lebih gelap.

Membuat GPT-3 berperilaku akan menjadi tantangan bagi agen informasi yang salah juga. Buchanan mencatat bahwa algoritme tampaknya tidak mampu menghasilkan artikel yang koheren dan persuasif lebih lama dari tweet. Para peneliti tidak mencoba menunjukkan artikel yang dibuatnya kepada sukarelawan.

Tapi Buchanan memperingatkan bahwa aktor negara mungkin bisa berbuat lebih banyak dengan alat bahasa seperti GPT-3. “Musuh dengan lebih banyak uang, lebih banyak kemampuan teknis, dan lebih sedikit etika akan dapat menggunakan AI dengan lebih baik,” katanya. “Selain itu, alat berat ini hanya akan menjadi lebih baik.”

OpenAI mengatakan pekerjaan di Georgetown menyoroti masalah penting yang diharapkan dapat dikurangi oleh perusahaan. “Kami secara aktif bekerja untuk mengatasi risiko keselamatan yang terkait dengan GPT-3,” kata juru bicara OpenAI. “Kami juga meninjau setiap penggunaan produksi GPT-3 sebelum ditayangkan dan memiliki sistem pemantauan untuk membatasi dan menanggapi penyalahgunaan API kami.”


Lebih Banyak Kisah WIRED Hebat

Diposting oleh : Lagutogel