Diterangkan: Bagaimana Apple akan mengimbas imej eksploitasi kanak-kanak pada peranti, dan sebab ia menaikkan kening
Dijangka untuk disiarkan secara langsung di Amerika Syarikat pada mulanya, ciri tersebut termasuk penggunaan teknologi baharu untuk mengehadkan penyebaran CSAM dalam talian, terutamanya melalui platform Apple.

Apple telah mengumumkannya kemas kini perisian akhir tahun ini akan membawa ciri-ciri baharu yang akan membantu melindungi kanak-kanak daripada pemangsa yang menggunakan alat komunikasi untuk merekrut dan mengeksploitasi mereka, dan mengehadkan penyebaran Bahan Penderaan Seksual Kanak-kanak (CSAM).
Dijangka untuk disiarkan secara langsung di Amerika Syarikat pada mulanya, ciri tersebut termasuk penggunaan teknologi baharu untuk mengehadkan penyebaran CSAM dalam talian, terutamanya melalui platform Apple.
Kemudian akan ada perlindungan pada peranti untuk kanak-kanak daripada menghantar atau menerima kandungan sensitif, dengan mekanisme untuk memaklumkan ibu bapa sekiranya pengguna berumur di bawah 13 tahun. Apple juga akan campur tangan apabila Siri atau Carian digunakan untuk mencari topik berkaitan CSAM .
Apakah teknologi yang Apple lakukan untuk menghalang penyebaran CSAM dalam talian?
Dalam catatan blog, Apple menjelaskan bahawa ia akan menggunakan aplikasi kriptografi melalui iOS dan iPadOS untuk memadankan imej CSAM yang diketahui yang disimpan pada Foto iCloud. Teknologi ini akan memadankan imej pada iCloud pengguna dengan imej yang diketahui yang disediakan oleh organisasi keselamatan kanak-kanak. Dan ini dilakukan tanpa benar-benar melihat imej dan hanya dengan mencari apa yang seperti padanan cap jari. Sekiranya terdapat perlawanan yang melepasi ambang, Apple akan melaporkan kejadian ini kepada Pusat Kebangsaan untuk Kanak-kanak Hilang dan Dieksploitasi (NCMEC).
Apple menjelaskan bahawa teknologinya mengekalkan privasi pengguna dalam fikiran, dan oleh itu pangkalan data diubah menjadi set cincang yang tidak boleh dibaca yang disimpan dengan selamat pada peranti pengguna. Ia menambah bahawa sebelum sebarang imej dimuat naik ke iCloud, sistem pengendalian akan memadankannya dengan cincang CSAM yang diketahui menggunakan teknologi kriptografi yang dipanggil persimpangan set peribadi. Teknologi ini juga akan menentukan perlawanan tanpa mendedahkan keputusan.
Pada ketika ini, peranti mencipta baucar keselamatan kriptografi dengan hasil padanan dan data disulitkan tambahan dan menyimpannya ke iCloud dengan imej. Teknologi perkongsian rahsia ambang memastikan baucar ini tidak boleh ditafsirkan oleh Apple melainkan akaun Foto iCloud melepasi ambang kandungan CSAM yang diketahui. Ambang ini, dakwa blog itu, telah disediakan untuk memberikan tahap ketepatan yang sangat tinggi dan memastikan kurang daripada satu dalam satu trilion peluang setahun untuk membenderakan akaun yang diberikan secara tidak betul. Jadi satu imej tidak mungkin mencetuskan amaran.
Tetapi jika ambang melebihi, Apple boleh mentafsir kandungan baucar keselamatan dan menyemak secara manual setiap laporan untuk perlawanan, melumpuhkan akaun pengguna dan menghantar laporan kepada NCMEC. Apple berkata pengguna akan dapat membuat rayuan jika mereka fikir mereka telah ditanda secara salah.
Bagaimanakah ciri-ciri lain berfungsi?
Keselamatan komunikasi baharu Apple untuk Messages akan mengaburkan imej sensitif dan memberi amaran kepada kanak-kanak tentang sifat kandungan tersebut. Jika didayakan dari bahagian belakang, kanak-kanak itu juga boleh diberitahu bahawa ibu bapa mereka telah dimaklumkan tentang mesej yang telah mereka lihat. Perkara yang sama akan berlaku jika kanak-kanak memutuskan untuk menghantar mesej sensitif. Apple berkata Messages akan menggunakan pembelajaran mesin pada peranti untuk menganalisis lampiran imej dan menentukan sama ada foto adalah seksual yang eksplisit dan Apple tidak akan mendapat akses kepada mesej tersebut. Ciri ini akan datang sebagai kemas kini pada akaun yang ditetapkan sebagai keluarga dalam iCloud untuk versi sistem pengendalian terkini.
Selain itu, dengan kemas kini, apabila pengguna cuba mencari topik CSAM yang berpotensi, Siri dan Carian akan menerangkan sebab ini boleh membahayakan dan bermasalah. Pengguna juga akan mendapat panduan tentang cara memfailkan laporan tentang eksploitasi kanak-kanak jika mereka memintanya.
| Diterangkan: Bagaimana dan sebab Google akan menawarkan lebih banyak perlindungan kepada kanak-kanak dalam talian
Mengapa Apple melakukan ini dan apakah kebimbangan yang dibangkitkan?
Syarikat teknologi besar selama bertahun-tahun berada di bawah tekanan untuk membanteras penggunaan platform mereka untuk eksploitasi kanak-kanak. Banyak laporan selama ini telah menggariskan betapa tidak cukupnya dilakukan untuk menghentikan teknologi daripada menjadikan kandungan CSAM tersedia dengan lebih meluas.
Walau bagaimanapun, pengumuman Apple telah mendapat kritikan dengan ramai yang menggariskan bagaimana ini adalah jenis teknologi pengawasan yang banyak kerajaan ingin miliki dan suka disalahgunakan. Hakikat bahawa ini datang dari Apple, yang telah lama menjadi pengundi privasi, telah mengejutkan ramai.
Selain itu, pakar kriptografi seperti Matthew Green dari Johns Hopkins University telah menyatakan kebimbangan bahawa sistem itu boleh digunakan untuk membingkai orang yang tidak bersalah menghantar imej kepada mereka yang bertujuan untuk mencetuskan perlawanan untuk CSAM. Penyelidik telah dapat melakukan ini dengan mudah, katanya kepada NPR, sambil menambah bahawa adalah mungkin untuk menipu algoritma sedemikian.
Tetapi The New York Times memetik ketua pegawai privasi Apple Erik Neuenschwander sebagai berkata ciri-ciri ini tidak akan bermakna apa-apa yang berbeza untuk pengguna biasa.
Jika anda menyimpan koleksi bahan CSAM, ya, ini tidak baik untuk anda, katanya kepada penerbitan itu.
Surat berita| Klik untuk mendapatkan penerangan terbaik hari ini dalam peti masuk anda
Adakah syarikat teknologi besar lain mempunyai teknologi yang serupa?
ya. Malah, Apple adalah peserta yang agak lewat di tempat kejadian kerana Microsoft, Google dan Facebook telah memaklumkan agensi penguatkuasa undang-undang tentang imej CSAM. Apple telah ketinggalan kerana mana-mana teknologi sedemikian akan bertentangan dengan komitmen yang digembar-gemburkan terhadap privasi pengguna. Akibatnya, pada 2020, apabila Facebook melaporkan 20.3 juta pelanggaran CSAM kepada NCMEC, Apple hanya boleh melaporkan 265 kes, lapor The New York Times.
Kini barulah ia dapat mencari titik manis teknologi untuk melakukan ini tanpa memberi kesan kepada pengguna biasa, atau sekurang-kurangnya menakutkan mereka. Walau bagaimanapun, seperti yang ditunjukkan oleh tindak balas awal, ia masih berjalan di atas tali.
Kongsi Dengan Rakan Anda: