Rezim Otoriter Dapat Mengeksploitasi Teriakan ‘Deepfake’


Video viral memperlihatkan seorang wanita muda yang memimpin kelas latihan di bundaran di ibu kota Burma, Nyapyidaw. Di belakangnya konvoi militer mendekati pos pemeriksaan untuk melakukan penangkapan di gedung Parlemen. Apakah dia secara tidak sengaja merekam kudeta? Dia terus menari.

Video itu kemudian menjadi meme viral, tetapi untuk hari-hari pertama, detektif amatir online memperdebatkan apakah itu layar hijau atau dimanipulasi, sering kali menggunakan jargon verifikasi dan forensik gambar.

Bagi banyak pemirsa online, video tersebut menangkap absurditas tahun 2021. Namun klaim manipulasi audiovisual semakin sering digunakan untuk membuat orang bertanya-tanya apakah yang asli itu palsu.

Di Witness, selain pekerjaan kami yang sedang berlangsung untuk membantu orang-orang merekam realitas pelanggaran hak asasi manusia, kami telah memimpin upaya global untuk lebih mempersiapkan manipulasi audiovisual yang semakin canggih, termasuk yang disebut deepfakes. Teknologi ini menyediakan alat untuk membuat seseorang tampak mengatakan atau melakukan sesuatu yang tidak pernah mereka lakukan, untuk membuat acara atau orang yang tidak pernah ada, atau untuk mengedit video dengan lebih mulus.

Namun, hype tersebut gagal. Ancaman politik dan elektoral dari deepfakes yang sebenarnya cocok menjadi berita utama, tetapi kenyataannya lebih bernuansa. Alasan sebenarnya untuk prihatin menjadi jelas melalui pertemuan ahli yang dipimpin Saksi di Brasil, Afrika Selatan, dan Malaysia, serta di AS dan Eropa, dengan orang-orang yang pernah hidup melalui serangan terhadap reputasi dan bukti mereka, serta para profesional seperti jurnalis dan pemeriksa fakta yang bertugas melawan kebohongan. Mereka menyoroti kerugian saat ini dari manipulasi gambar seksual nonkonsensual yang menargetkan wanita biasa, jurnalis, dan politisi. Ini adalah masalah yang nyata, sudah ada, tersebar luas, dan pelaporan terbaru telah mengkonfirmasi skalanya yang berkembang.

Kesaksian mereka juga menunjukkan bagaimana caranya klaim pemalsuan mendalam dan manipulasi video semakin banyak digunakan untuk apa yang oleh profesor hukum Danielle Citron dan Bobby Chesney disebut sebagai “dividen pembohong”, kemampuan yang kuat untuk mengklaim penyangkalan yang masuk akal atas rekaman yang memberatkan. Pernyataan seperti “Ini adalah kesalahan besar” atau “Itu telah dimanipulasi” sering digunakan untuk meremehkan video yang bocor tentang situasi yang membahayakan atau untuk menyerang salah satu dari sedikit sumber kekuatan sipil di rezim otoriter: kredibilitas rekaman ponsel cerdas tentang kekerasan negara. Ini dibangun di atas sejarah penipuan yang disponsori negara. Di Myanmar, tentara dan pihak berwenang telah berulang kali berbagi gambar palsu dan mempertanyakan kebenaran dan integritas bukti nyata pelanggaran hak asasi manusia.

Dalam diskusi kami, jurnalis dan pembela hak asasi manusia, termasuk yang berasal dari Myanmar, menggambarkan rasa takut yang berat karena harus tanpa henti membuktikan apa yang nyata dan apa yang palsu. Mereka khawatir pekerjaan mereka tidak hanya akan menyanggah rumor, tetapi juga harus membuktikan bahwa sesuatu itu asli. Audiens yang skeptis dan faksi publik menebak-nebak bukti untuk memperkuat dan melindungi pandangan dunia mereka, dan untuk membenarkan tindakan dan alasan partisan. Di AS, misalnya, para konspirasis dan pendukung sayap kanan menolak pidato konsesi canggung mantan presiden Donald Trump setelah serangan di Capitol dengan mengklaim “itu benar-benar palsu.”

Tidak ada solusi yang mudah. Kita harus mendukung keterampilan forensik dan verifikasi audiovisual yang lebih kuat di komunitas dan pemimpin profesional secara global yang dapat membantu audiens dan anggota komunitas mereka. Kami dapat mempromosikan aksesibilitas yang luas dari alat platform untuk membuatnya lebih mudah untuk melihat dan menantang video “shallowfake” yang salah kontekstualisasi atau diedit yang terus-menerus diedit yang hanya salah membuat video atau melakukan pengeditan dasar, serta deepfake yang lebih canggih. “Infrastruktur keaslian” yang bertanggung jawab yang memudahkan untuk melacak jika dan bagaimana sebuah gambar telah dimanipulasi dan oleh siapa, bagi mereka yang ingin “menunjukkan karyanya”, dapat membantu jika dikembangkan dari awal dengan kesadaran tentang bagaimana gambar itu juga bisa dibuat. disalahgunakan.

Kami juga harus secara terbuka mengakui bahwa alat promosi dan keterampilan verifikasi pada kenyataannya dapat melanggengkan pendekatan konspirasi “tidak percaya secara default” terhadap media yang sebenarnya merupakan inti dari masalah dengan begitu banyak video yang faktanya tunjukkan kenyataan. Setiap pendekatan untuk memberikan keterampilan dan infrastruktur yang lebih baik harus menyadari bahwa penalaran konspirasi merupakan langkah pendek dari keraguan yang membangun. Pendekatan literasi media dan alat forensik media yang mengirim orang ke lubang kelinci alih-alih mempromosikan penilaian akal sehat dapat menjadi bagian dari masalah. Kita tidak perlu menjadi penyelidik open source instan. Pertama kita harus menerapkan kerangka kerja sederhana seperti metodologi SIFT: Berhenti, Selidiki sumbernya, Temukan cakupan tepercaya, dan Lacak konteks aslinya.


Diposting oleh : Toto HK