Apple Menolak Rencana Pemindaian Foto Kontroversialnya


Pada bulan Agustus, Apple merinci beberapa fitur baru yang dimaksudkan untuk menghentikan penyebaran materi pelecehan seksual terhadap anak. Reaksi dari kriptografer hingga pendukung privasi hingga Edward Snowden sendiri hampir seketika, sebagian besar terkait dengan keputusan Apple tidak hanya untuk memindai foto iCloud untuk CSAM, tetapi juga untuk memeriksa kecocokan di iPhone atau iPad Anda. Setelah berminggu-minggu protes terus-menerus, Apple mundur. Setidaknya untuk sekarang.

“Bulan lalu kami mengumumkan rencana untuk fitur yang dimaksudkan untuk membantu melindungi anak-anak dari predator yang menggunakan alat komunikasi untuk merekrut dan mengeksploitasi mereka, dan membatasi penyebaran Materi Pelecehan Seksual Anak,” kata perusahaan itu dalam pernyataan Jumat. “Berdasarkan umpan balik dari pelanggan, kelompok advokasi, peneliti, dan lainnya, kami telah memutuskan untuk mengambil waktu tambahan selama beberapa bulan mendatang untuk mengumpulkan masukan dan melakukan perbaikan sebelum merilis fitur keselamatan anak yang sangat penting ini.”

Apple tidak memberikan panduan lebih lanjut tentang bentuk perbaikan yang mungkin dilakukan, atau bagaimana proses input itu dapat bekerja. Tetapi pendukung privasi dan peneliti keamanan optimis dengan hati-hati tentang jeda tersebut.

“Saya pikir ini adalah langkah cerdas oleh Apple,” kata Alex Stamos, mantan kepala petugas keamanan di Facebook dan salah satu pendiri perusahaan konsultan keamanan siber Krebs Stamos Group. “Ada serangkaian pertukaran yang sangat rumit yang terlibat dalam masalah ini dan sangat tidak mungkin Apple akan menemukan solusi optimal tanpa mendengarkan berbagai ekuitas.”

Pemindai CSAM bekerja dengan menghasilkan “hash” kriptografis dari gambar kasar yang diketahui—semacam tanda tangan digital—dan kemudian menyisir sejumlah besar data untuk mencocokkan. Banyak perusahaan sudah melakukan beberapa bentuk ini, termasuk Apple untuk iCloud Mail. Namun dalam rencananya untuk memperluas pemindaian itu ke foto iCloud, perusahaan mengusulkan untuk mengambil langkah tambahan untuk memeriksa hash tersebut di perangkat Anda, juga, jika Anda memiliki akun iCloud.

Pengenalan kemampuan untuk membandingkan gambar di ponsel Anda dengan serangkaian hash CSAM yang diketahui—disediakan oleh National Center for Missing and Exploited Children—segera menimbulkan kekhawatiran bahwa alat tersebut suatu hari nanti dapat digunakan untuk penggunaan lain. “Apple akan menyebarkan fitur pemindaian CSAM ke ponsel semua orang yang dapat, dan akan, ditumbangkan oleh pemerintah menjadi alat pengawasan untuk membuat Apple mencari ponsel orang untuk materi lain juga,” kata Riana Pfefferkorn, peneliti di Stanford Internet Observatory.

Apple telah menolak beberapa permintaan pemerintah Amerika Serikat untuk membangun alat yang memungkinkan penegak hukum untuk membuka dan mendekripsi perangkat iOS di masa lalu. Tetapi perusahaan juga telah membuat konsesi ke negara-negara seperti China, di mana data pelanggan berada di server milik negara. Pada saat legislator di seluruh dunia telah meningkatkan upaya untuk melemahkan enkripsi secara lebih luas, pengenalan alat CSAM terasa sangat berat.

“Mereka jelas merasa ini menantang secara politis, yang menurut saya menunjukkan betapa tidak dapat dipertahankannya posisi ‘Apple akan selalu menolak tekanan pemerintah’,” kata kriptografer Universitas Johns Hopkins, Matthew Green. “Jika mereka merasa harus memindai, mereka harus memindai file yang tidak terenkripsi di server mereka,” yang merupakan praktik standar untuk perusahaan lain, seperti Facebook, yang secara teratur memindai tidak hanya CSAM tetapi juga konten teroris dan jenis konten terlarang lainnya. Green juga menyarankan agar Apple membuat penyimpanan iCloud terenkripsi ujung-ke-ujung, sehingga tidak dapat melihat gambar-gambar itu meskipun diinginkan.

Kontroversi seputar rencana Apple juga bersifat teknis. Algoritme hashing dapat menghasilkan positif palsu, salah mengidentifikasi dua gambar sebagai kecocokan meskipun sebenarnya tidak. Disebut “tabrakan,” kesalahan itu sangat memprihatinkan dalam konteks CSAM. Tidak lama setelah pengumuman Apple, para peneliti mulai menemukan tabrakan dalam algoritma iOS “NeuralHash” yang dimaksudkan Apple untuk digunakan. Apple mengatakan pada saat itu bahwa versi NeuralHash yang tersedia untuk dipelajari tidak persis sama dengan yang akan digunakan dalam skema, dan bahwa sistemnya akurat. Tabrakan mungkin juga tidak berdampak material dalam praktik, kata Paul Walsh, pendiri dan CEO perusahaan keamanan MetaCert, mengingat sistem Apple memerlukan 30 hash yang cocok sebelum membunyikan alarm, setelah itu pengulas manusia dapat mengetahui apa itu CSAM dan apa itu CSAM. positif palsu.

Diposting oleh : SGP Prize