Dunia Membutuhkan Pakar Deepfake untuk Membendung Kekacauan Ini


Baru-baru ini militer pemerintah kudeta di Myanmar menambahkan tuduhan korupsi serius ke serangkaian kasus palsu yang ada terhadap pemimpin Burma Aung San Suu Kyi. Tuduhan baru ini didasarkan pada pernyataan seorang politisi terkemuka yang ditahan yang pertama kali dirilis dalam video Maret yang dicurigai banyak orang di Myanmar sebagai deepfake.

Dalam video tersebut, suara dan wajah tahanan politik tampak terdistorsi dan tidak wajar saat ia membuat klaim rinci tentang memberikan emas dan uang tunai kepada Aung San Suu Kyi. Pengguna media sosial dan wartawan di Myanmar langsung mempertanyakan apakah pernyataan itu benar adanya. Kejadian ini menggambarkan masalah yang hanya akan bertambah buruk. Saat deepfake nyata menjadi lebih baik, keinginan orang untuk mengabaikan rekaman asli sebagai deepfake meningkat. Alat dan keterampilan apa yang akan tersedia untuk menyelidiki kedua jenis klaim, dan siapa yang akan menggunakannya?

Dalam video tersebut, Phyo Min Thein, mantan kepala menteri kota terbesar Myanmar, Yangon, duduk di sebuah ruangan kosong, tampaknya membaca dari sebuah pernyataan. Bicaranya terdengar aneh dan tidak seperti suara normalnya, wajahnya statis, dan dalam versi berkualitas buruk yang pertama kali beredar, bibirnya terlihat tidak sinkron dengan kata-katanya. Tampaknya semua orang ingin percaya bahwa itu palsu. Hasil tangkapan layar dari detektor deepfake online menyebar dengan cepat, menunjukkan kotak merah di sekitar wajah politisi dan pernyataan dengan 90 persen-plus keyakinan bahwa pengakuan itu adalah deepfake. Wartawan Burma tidak memiliki keterampilan forensik untuk membuat penilaian. Tindakan militer negara bagian di masa lalu dan saat ini memperkuat kecurigaan. Juru bicara pemerintah telah membagikan gambar-gambar yang dipentaskan yang menargetkan kelompok etnis Rohingya sementara penyelenggara kudeta militer telah membantah bahwa bukti media sosial tentang pembunuhan mereka bisa jadi nyata.

Tapi apakah “pengakuan” tahanan itu benar-benar palsu? Bersama dengan peneliti deepfake Henry Ajder, saya berkonsultasi dengan pembuat deepfake dan spesialis forensik media. Beberapa mencatat bahwa video tersebut cukup berkualitas rendah sehingga gangguan mulut yang dilihat orang kemungkinan besar merupakan artefak dari kompresi sebagai bukti deepfakery. Algoritme pendeteksian juga tidak dapat diandalkan pada video terkompresi berkualitas rendah. Suaranya yang terdengar tidak wajar bisa jadi karena membaca naskah di bawah tekanan yang ekstrim. Jika itu palsu, itu sangat bagus, karena tenggorokan dan dadanya bergerak pada saat-saat penting selaras dengan kata-kata. Para peneliti dan pembuat umumnya skeptis bahwa itu adalah deepfake, meskipun tidak pasti. Pada titik ini lebih mungkin menjadi apa yang dikenal oleh aktivis hak asasi manusia seperti saya: pengakuan yang dipaksakan atau dipaksakan di depan kamera. Selain itu, substansi tuduhan tidak boleh dipercaya mengingat keadaan kudeta militer kecuali ada proses peradilan yang sah.

Mengapa ini penting? Terlepas dari apakah video tersebut adalah pengakuan paksa atau deepfake, hasilnya kemungkinan besar sama: kata-kata secara digital atau fisik dikeluarkan dari mulut seorang tahanan oleh pemerintah kudeta. Namun, sementara penggunaan deepfake untuk membuat gambar seksual nonkonsensual saat ini jauh melampaui contoh politik, deepfake dan teknologi media sintetis berkembang pesat, berkembang biak, dan komersial, memperluas potensi penggunaan berbahaya. Kasus di Myanmar menunjukkan kesenjangan yang semakin besar antara kemampuan untuk membuat deepfake, peluang untuk mengklaim video asli adalah deepfake, dan kemampuan kami untuk menentangnya.

Ini juga menggambarkan tantangan membuat publik bergantung pada detektor online gratis tanpa memahami kekuatan dan keterbatasan deteksi atau bagaimana menebak-nebak hasil yang menyesatkan. Deteksi deepfake masih merupakan teknologi yang baru muncul, dan alat deteksi yang berlaku untuk satu pendekatan sering kali tidak berfungsi pada pendekatan lainnya. Kita juga harus waspada terhadap kontra-forensik—di mana seseorang dengan sengaja mengambil langkah untuk mengacaukan pendekatan deteksi. Dan tidak selalu mungkin untuk mengetahui alat deteksi mana yang dapat dipercaya.

Bagaimana kita menghindari konflik dan krisis di seluruh dunia yang dibutakan oleh deepfake dan dugaan deepfake?

Kita seharusnya tidak mengubah orang biasa menjadi pengintai palsu, menguraikan piksel untuk membedakan kebenaran dari kepalsuan. Kebanyakan orang akan lebih baik mengandalkan pendekatan yang lebih sederhana untuk literasi media, seperti metode SIFT, yang menekankan pada pemeriksaan sumber lain atau penelusuran konteks asli video. Faktanya, mendorong orang untuk menjadi ahli forensik amatir dapat mengirim orang ke lubang kelinci konspirasi ketidakpercayaan pada gambar.


Diposting oleh : Toto HK