Apa yang Dapat Dilakukan Apple Selanjutnya untuk Melawan Pelecehan Seksual Anak


Pada Mei 2019, Melissa Polinsky, direktur penyelidikan global dan tim keselamatan anak Apple, menghadapi penyelidik yang bekerja pada penyelidikan Inggris tentang pelecehan seksual anak. Selama dua jam interogasi, Polinsky mengakui Apple hanya mempekerjakan enam orang di tim globalnya yang bertanggung jawab untuk menyelidiki gambar pelecehan anak. Polinsky juga mengatakan teknologi yang digunakan Apple untuk memindai gambar pelecehan anak yang ada secara online “efektif.”

Maju cepat dua tahun, dan pekerjaan Apple untuk menangani materi pelecehan seksual anak telah jatuh dari rel. Pada tanggal 3 September, perusahaan tersebut melakukan putar balik publik yang langka karena menghentikan rencana untuk memperkenalkan sistem yang mencari materi pelecehan seksual anak yang diketahui, atau CSAM, di iPhone dan iPad orang-orang di AS. “Kami telah memutuskan untuk mengambil waktu tambahan selama beberapa bulan mendatang untuk mengumpulkan masukan dan melakukan perbaikan sebelum merilis fitur keselamatan anak yang sangat penting ini,” kata Apple dalam sebuah pernyataan, mengutip “umpan balik” yang diterimanya.

Jadi apa yang Apple lakukan selanjutnya? Tidak mungkin perusahaan dapat memenangkan atau menyenangkan semua orang dengan apa yang mengikutinya—dan dampak dari rencananya telah menciptakan kekacauan besar. Kompleksitas teknis proposal Apple telah mengurangi beberapa diskusi publik menjadi pernyataan yang tumpul, mendukung atau menentang, dan bahasa yang meledak-ledak, dalam beberapa kasus, telah mempolarisasi perdebatan. Dampaknya terjadi ketika Komisi Eropa menyiapkan undang-undang perlindungan anak yang dapat mewajibkan perusahaan teknologi untuk memindai CSAM.

“Gerakan [for Apple] untuk melakukan semacam tinjauan konten sudah lama tertunda,” kata Victoria Baines, pakar keamanan siber yang telah bekerja di Facebook dan Europol dalam investigasi keselamatan anak. Perusahaan teknologi diwajibkan oleh undang-undang AS untuk melaporkan CSAM apa pun yang mereka temukan secara online ke National Center for Missing and Exploited Children (NCMEC), sebuah organisasi keselamatan anak nirlaba AS, tetapi Apple secara historis tertinggal di belakang para pesaingnya.

Pada tahun 2020, NCMEC menerima 21,7 juta laporan CSAM, naik dari 16,9 juta pada tahun 2019. Facebook menduduki puncak daftar tahun 2020—membuat 20,3 juta laporan tahun lalu. Google membuat 546.704; Dropbox 20.928; Twitter 65.062, Microsoft 96.776; dan Snapchat 144.095. Apple hanya membuat 265 laporan CSAM ke NCMEC pada tahun 2020.

Ada beberapa alasan “logis” untuk perbedaan tersebut, kata Baines. Tidak semua perusahaan teknologi sama. Facebook, misalnya, dibangun untuk berbagi dan terhubung dengan orang baru. Fokus utama Apple adalah pada perangkat kerasnya, dan kebanyakan orang menggunakan layanan perusahaan untuk berkomunikasi dengan orang yang sudah mereka kenal. Atau, terus terang, tidak ada yang bisa mencari iMessage untuk anak-anak yang bisa mereka kirimi pesan seksual eksplisit. Masalah lain yang berperan di sini adalah deteksi. Jumlah laporan yang dikirim perusahaan ke NCMEC dapat didasarkan pada seberapa banyak upaya yang dilakukan untuk menemukan CSAM. Alat deteksi yang lebih baik juga dapat berarti lebih banyak materi yang kasar ditemukan. Dan beberapa perusahaan teknologi telah melakukan lebih dari yang lain untuk membasmi CSAM.

Mendeteksi materi pelecehan seksual anak yang ada terutama melibatkan pemindaian apa yang orang kirim, atau unggah, saat konten tersebut mencapai server perusahaan. Kode, yang dikenal sebagai hash, dibuat untuk foto dan video, dan dibandingkan dengan hash yang ada untuk materi pelecehan seksual anak yang diidentifikasi sebelumnya. Daftar hash dibuat oleh organisasi perlindungan anak, seperti NCMEC dan Internet Watch Foundation Inggris. Ketika kecocokan positif diidentifikasi, perusahaan teknologi dapat mengambil tindakan dan juga melaporkan temuan tersebut ke NCMEC. Paling umum prosesnya dilakukan melalui PhotoDNA, yang dikembangkan oleh Microsoft.

Rencana Apple untuk memindai CSAM yang diunggah ke iCloud membalikkan pendekatan ini dan, menggunakan beberapa kriptografi pintar, memindahkan sebagian deteksi ke telepon orang. (Apple telah memindai iCloud Mail untuk CSAM sejak 2019, tetapi tidak memindai Foto iCloud atau cadangan iCloud.) Proposal tersebut terbukti kontroversial karena berbagai alasan.

Diposting oleh : SGP Prize