Apple Membela Sistem Barunya, Yaitu Teknologi Perlindungan Anak Melalui Pemindaian Foto Baru

Apple telah membela sistem barunya yang memindai ponsel pengguna untuk mencari materi pelecehan seksual anak (CSAM), setelah mendapat reaksi keras dari pelanggan dan pendukung privasi. Teknologi mencari kecocokan materi penyalahgunaan yang diketahui sebelum gambar diunggah ke penyimpanan iCloud-nya.

Advertisement

Kritikus memperingatkan itu bisa menjadi pintu belakang untuk memata-matai orang, dan lebih dari 5.000 orang dan organisasi telah menandatangani surat terbuka menentang teknologi tersebut. Akibatnya, Apple telah berjanji untuk tidak memperluas sistem dengan alasan apa pun.

Pekan lalu, juru kampanye privasi digital memperingatkan bahwa pemerintah otoriter dapat menggunakan teknologi tersebut untuk mendukung rezim anti-LGBT, atau menindak pembangkang politik di negara-negara di mana protes dianggap ilegal. Tetapi Apple mengatakan akan tidak akan menyetujui permintaan pemerintah mana pun untuk memperluas sistem. Ini menerbitkan dokumen tanya-jawab, mengatakan itu memiliki banyak perlindungan di tempat untuk menghentikan sistemnya digunakan untuk apa pun selain deteksi citra pelecehan anak.

Kami telah menghadapi tuntutan untuk membangun dan menerapkan perubahan yang diamanatkan pemerintah yang menurunkan privasi pengguna sebelumnya, dan dengan tegas menolak tuntutan itu. Kami akan terus menolaknya di masa depan, katanya.

Advertisement

Namun, Apple telah membuat beberapa konsesi di masa lalu untuk tetap beroperasi di negara-negara di seluruh dunia.

Malam Tahun Baru lalu, raksasa teknologi itu menghapus 39.000 aplikasi dari App Store China di tengah tindakan keras terhadap game tanpa izin oleh pihak berwenang di negara tersebut. Apple juga mengatakan alat anti-CSAM tidak akan memungkinkan perusahaan untuk melihat atau memindai album foto pengguna. Ini hanya akan memindai foto yang dibagikan di iCloud. Sistem akan mencari kecocokan, dengan aman di perangkat, berdasarkan database hash dari gambar CSAM yang diketahui yang disediakan oleh organisasi keselamatan anak.

Advertisement

Apple juga mengklaim hampir tidak mungkin untuk secara tidak benar menandai orang yang tidak bersalah ke polisi. Kemungkinan bahwa sistem akan salah menandai akun yang diberikan adalah kurang dari satu dalam satu triliun per tahun, katanya. Ada juga ulasan manusia tentang pertandingan positif. Namun, pendukung privasi berpendapat bahwa satu-satunya hal yang mencegah teknologi itu beralih ke penggunaan lain adalah janji Apple bahwa itu tidak akan terjadi.

Kelompok hak digital Electronic Frontier Foundation, misalnya, mengatakan bahwa yang diperlukan adalah perluasan parameter pembelajaran mesin untuk mencari jenis konten tambahan.

Itu bukan lereng yang licin itu adalah sistem yang dibangun sepenuhnya hanya menunggu tekanan eksternal untuk membuat perubahan sekecil apa pun, peringatan itu.

Apple juga memberikan jaminan mengenai fitur baru lainnya yang akan memperingatkan anak-anak dan orang tua mereka menggunakan akun keluarga yang ditautkan, ketika foto seksual eksplisit dikirim atau diterima. Perusahaan mengatakan dua fitur barunya tidak menggunakan teknologi yang sama, dan mengatakan tidak akan pernah mendapatkan akses ke komunikasi pribadi pengguna.

Artikel Bermanfaat dan Menghibur Lainnya

Advertisement

“Artikel ini merupakan kiriman dari pembaca hipwee, isi artikel sepenuhnya merupakan tanggung jawab pengirim.”

Berikan Komentar

Tim Dalam Artikel Ini

Penulis

CLOSE