Pemindaian CSAM Apple bisa sangat berbahaya, kata para peneliti

Kabar terkini dari Berita teknologi gadget, Beberapa minggu yang lalu, Apple mengumumkan bahwa mereka akan menerapkan tindakan baru di semua iPhone yang mendukung iCloud untuk membantu menangkap predator yang memiliki foto yang berisi pelecehan seksual anak. Sayangnya, ini telah lama menjadi masalah umum di masyarakat kita, dan hanya ada begitu banyak yang dapat kita lakukan untuk melawannya.

Ide Apple untuk membantu adalah dengan segera menerapkan pemindaian gambar otomatis dari setiap dan semua foto pribadi yang diunggah ke akun iCloud di Amerika Serikat (untuk saat ini). Ini berarti bahwa hampir semua foto akan menjalani pemindaian ini, karena kebanyakan orang cenderung mengaktifkan Foto iCloud karena ruang penyimpanan yang pada dasarnya tidak terbatas yang ditawarkannya.
Setelah foto dipindai, nilai hashnya akan diperiksa dengan gambar dalam database CSAM (atau Materi Pelecehan Seksual Anak) yang ada. Jika ditemukan kecocokan yang identik atau bahkan mirip, foto tersebut akan langsung ditandai. Namun, agar akun ditandai dan dilaporkan ke Pusat Nasional untuk Anak Hilang dan Tereksploitasi, perlu ada sekitar 30 kecocokan CSAM yang ditemukan di akun itu.
Ini memberikan “peluang kurang dari satu dalam 1 triliun per tahun untuk salah menandai akun tertentu,” atau begitulah kata Apple.
Keputusan Apple untuk menerapkan pengawasan pada perangkat semacam ini segera menerima banyak reaksi, karena mengancam untuk secara serius membahayakan hak fundamental orang atas privasi dan secara inheren rentan terhadap eksploitasi dan penyalahgunaan yang berlebihan. Ribuan orang telah menandatangani surat penolakan  terhadap kebijakan yang akan datang, dan bahkan Parlemen Jerman menghubungi Tim Cook  memintanya untuk mempertimbangkan kembali.
Integritas seluruh perusahaan dan reputasi privasi tempat Apple didirikan dapat dikompromikan, jika memilih untuk mengganti kebijakan enkripsi ujung-ke-ujung standar industri untuk menindaklanjuti rencana ini. Baik orang dan pemerintah di seluruh dunia secara alami memiliki hak untuk khawatir dengan prospek pintu belakang yang begitu besar yang terbuka untuk pengawasan gelap, dan seluruh kotak Pandora tentang kemungkinan kejahatan.

Princeton bergabung dalam keributan, menyerukan bahaya dalam sistem Apple

Beberapa peneliti dari Universitas Princeton baru-baru ini berkontribusi pada diskusi dengan beberapa pengetahuan mendalam dan pengalaman langsung dengan sistem semacam itu. Anunay Kulshrestha dan Jonathan Mayer telah mengembangkan prototipe sistem pengawasan yang sangat mirip dengan fungsi dan tujuan Apple—dirancang untuk mengidentifikasi materi pelecehan anak melalui pencocokan hash perseptual (PHM).
Namun, mereka dengan cepat mengalami masalah etika. Tidak ada sistem PHM yang dirancang “untuk melawan media berbahaya, seperti CSAM dan konten ekstremis” yang datang tanpa bahaya juga dimanfaatkan untuk tujuan tidak bermoral, jika jatuh ke tangan yang salah.
Dengan kata lain, sebuah sistem yang memungkinkan komunikasi pribadi dipantau dan diserahkan kepada pihak berwenang pada waktu tertentu dapat menjadi alat yang mudah bagi kediktatoran. Pada akhirnya, cara sistem PHM diimplementasikan dan dimanfaatkan sepenuhnya terletak pada kebijaksanaan pengontrol manusianya, yang “harus mengkurasi dan memvalidasi [bahwa hash set B memang secara eksklusif berisi media berbahaya].”
Apa yang merupakan media berbahaya juga tidak memiliki definisi objektif, dan dapat berpotensi diperluas dan dipelintir, untuk memasukkan apa pun yang oleh kekuasaan yang dipilih dianggap sebagai “media yang berbahaya”—mengkompromikan hak kebebasan berbicara, atau menekan warga negara lebih jauh di negara-negara di mana itu kebebasan tidak dianggap sebagai hak asasi manusia.
Tingkat deteksi palsu Apple “satu-dalam-triliun” juga dipertanyakan, karena raksasa teknologi itu membuatnya terdengar seperti tidak mungkin, para peneliti Princeton percaya bahwa hasil positif palsu ini adalah kemungkinan yang sah (walaupun dengan probabilitas rendah) yang bisa membahayakan keselamatan individu yang tidak bersalah. “Media Klien [bisa] cocok dengan nilai dalam kumpulan hash meskipun tidak ada kesamaan persepsi,” tulis mereka.
“Dalam hal ini, Klien E2EE yang tidak bersalah dapat—bergantung pada respons moderasi konten—kehilangan kerahasiaan komunikasi, akun mereka dihentikan, atau menjadi

subjek penyelidikan penegakan hukum.” Tak perlu dikatakan, ini adalah skenario yang sangat tidak diinginkan, risiko yang seharusnya tidak pernah ada.

Bahkan karyawan yang bekerja untuk Apple telah menyuarakan keprihatinan mereka akan bahaya yang melekat dalam sistem seperti itu juga. Apple telah menanggapi kritik sekali, berjanji bahwa itu tidak akan pernah membiarkan sistem pengawasan foto seperti itu jatuh ke dalam kendali entitas pemerintah atau eksternal, dan itu hanya akan digunakan untuk mencegah kepemilikan materi pelecehan anak.
Tentu saja, janji ini saja jauh dari memuaskan, dan sepertinya reaksi balik tidak akan melambat sampai Apple setuju untuk tetap berpegang pada enkripsi ujung ke ujung, dengan tidak ada orang lain selain pemilik yang memiliki akses ke foto dan data apa pun yang disimpan. baik di iPhone atau iCloud—yang saat ini telah menjadi perpanjangan tangan dari hampir semua iPhone yang beredar.

Leave a Reply

Your email address will not be published. Required fields are marked *