Apple Menjalani Ketegangan Privasi untuk Menemukan Pelecehan Anak di iCloud


Selama bertahun-tahun, teknologi perusahaan telah berjuang di antara dua dorongan: kebutuhan untuk mengenkripsi data pengguna untuk melindungi privasi mereka, dan kebutuhan untuk mendeteksi jenis penyalahgunaan terburuk di platform mereka. Sekarang Apple memulai debutnya dengan sistem kriptografi baru yang berusaha menghubungkan jarum itu, mendeteksi citra pelecehan anak yang disimpan di iCloud tanpa—secara teori—memperkenalkan bentuk-bentuk baru invasi privasi. Dalam melakukannya, itu juga mendorong kesenjangan antara privasi dan ahli kriptografi yang melihat pekerjaannya sebagai solusi baru yang inovatif dan mereka yang melihatnya sebagai penyerahan berbahaya terhadap pengawasan pemerintah.

Hari ini Apple memperkenalkan serangkaian tindakan teknologi baru di iMessage, iCloud, Siri, dan pencarian, yang semuanya menurut perusahaan dirancang untuk mencegah pelecehan terhadap anak-anak. Pengaturan keikutsertaan baru di akun iCloud keluarga akan menggunakan pembelajaran mesin untuk mendeteksi ketelanjangan dalam gambar yang dikirim di iMessage. Sistem juga dapat memblokir gambar tersebut agar tidak dikirim atau diterima, menampilkan peringatan, dan dalam beberapa kasus memperingatkan orang tua bahwa seorang anak melihat atau mengirimnya. Siri dan pencarian sekarang akan menampilkan peringatan jika mendeteksi bahwa seseorang sedang mencari atau melihat materi pelecehan seksual anak, juga dikenal sebagai CSAM, dan menawarkan opsi untuk mencari bantuan atas perilaku mereka atau untuk melaporkan apa yang mereka temukan.

Namun dalam fitur baru Apple yang paling inovatif secara teknis—dan kontroversial—, iPhone, iPad, dan Mac kini juga akan mengintegrasikan sistem baru yang memeriksa gambar yang diunggah ke iCloud di AS untuk mencari gambar pelecehan seksual anak yang diketahui. Fitur itu akan menggunakan proses kriptografi yang berlangsung sebagian di perangkat dan sebagian di server Apple untuk mendeteksi gambar tersebut dan melaporkannya ke Pusat Nasional untuk Anak Hilang dan Tereksploitasi, atau NCMEC, dan akhirnya penegak hukum AS.

Apple berpendapat bahwa tidak ada fitur baru untuk menangani CSAM yang membahayakan privasi pengguna—bahkan mekanisme deteksi iCloud akan menggunakan kriptografi pintar untuk mencegah mekanisme pemindaian Apple mengakses gambar yang terlihat yang bukan CSAM. Sistem ini dirancang dan dianalisis bekerja sama dengan kriptografer Universitas Stanford Dan Boneh, dan pengumuman fitur tersebut oleh Apple mencakup dukungan dari beberapa pakar kriptografi terkenal lainnya.

“Saya percaya bahwa sistem Apple PSI memberikan keseimbangan yang sangat baik antara privasi dan utilitas, dan akan sangat membantu dalam mengidentifikasi konten CSAM sambil mempertahankan privasi pengguna tingkat tinggi dan meminimalkan kesalahan positif,” Benny Pinkas, kriptografer di Israel’s Universitas Bar-Ilan yang meninjau sistem Apple, menulis dalam sebuah pernyataan kepada WIRED.

Kelompok keselamatan anak-anak, pada bagian mereka, juga segera memuji langkah Apple, dengan alasan mereka mencapai keseimbangan yang diperlukan yang “membawa kita selangkah lebih dekat ke keadilan bagi para penyintas yang momen paling traumatisnya disebarluaskan secara online,” Julie Cordua, CEO kelompok advokasi keselamatan anak Thorn, menulis dalam sebuah pernyataan kepada WIRED.

Penyedia penyimpanan cloud lainnya dari Microsoft hingga Dropbox sudah melakukan deteksi pada gambar yang diunggah ke server mereka. Tetapi dengan menambahkan segala jenis analisis gambar ke perangkat pengguna, beberapa kritikus privasi berpendapat, Apple juga telah mengambil langkah menuju bentuk pengawasan baru yang mengganggu dan melemahkan sikap privasi yang kuat secara historis dalam menghadapi tekanan dari penegak hukum.

“Saya tidak membela pelecehan anak. Tetapi seluruh gagasan bahwa perangkat pribadi Anda terus-menerus memindai dan memantau Anda berdasarkan beberapa kriteria untuk konten yang tidak pantas dan melaporkannya secara bersyarat kepada pihak berwenang adalah kemiringan yang sangat, sangat licin, ”kata Nadim Kobeissi, kriptografer dan pendiri Paris- perusahaan perangkat lunak kriptografi berbasis Symbolic Software. “Saya pasti akan beralih ke ponsel Android jika ini terus berlanjut.”

Sistem baru Apple bukanlah pemindaian langsung gambar pengguna, baik di perangkat mereka atau di server iCloud Apple. Alih-alih, ini adalah bentuk analisis gambar baru yang cerdas—dan kompleks—yang dirancang untuk mencegah Apple melihat foto-foto itu kecuali jika mereka sudah bertekad untuk menjadi bagian dari kumpulan beberapa gambar CSAM yang diunggah oleh pengguna. Sistem mengambil “hash” dari semua gambar yang dikirim pengguna ke iCloud, mengubah file menjadi string karakter yang secara unik berasal dari gambar tersebut. Kemudian, seperti sistem deteksi CSAM yang lebih lama seperti PhotoDNA, sistem ini membandingkannya dengan kumpulan besar hash gambar CSAM yang diketahui yang disediakan oleh NCMEC untuk menemukan kecocokan.

Apple juga menggunakan bentuk hashing baru yang disebut NeuralHash, yang menurut perusahaan dapat mencocokkan gambar meskipun ada perubahan seperti pemotongan atau pewarnaan. Sama pentingnya untuk mencegah penghindaran, sistemnya tidak pernah benar-benar mengunduh hash NCMEC tersebut ke perangkat pengguna. Sebagai gantinya, ia menggunakan beberapa trik kriptografi untuk mengubahnya menjadi apa yang disebut “basis data buta” yang diunduh ke ponsel atau PC pengguna, yang berisi rangkaian karakter yang tampaknya tidak berarti yang berasal dari hash tersebut. Pembutaan itu mencegah pengguna mendapatkan hash dan menggunakannya untuk menghindari deteksi sistem.

Diposting oleh : SGP Prize