Apple, Çocuk Cinsel İstismarı Görüntüleri İçin iPhone’ları Tarayacak – Hardware Plus

Apple, Çocuk Cinsel İstismarı Görüntüleri İçin iPhone’ları Tarayacak – Hardware Plus

Taşıyıcı perşembe günü yaptığı açıklamada, Apple’ın ABD’de iCloud’a yüklenen genç istismarı görüntülerini kolluk kuvvetlerine bildireceğini açıkladı.

Taze düzeni, Çocukların Cinsel İstismarı Materyali (CSAM) adı beri görüntüleri, o görüntüye bağlantı itibaren beklenmedik sayılara dönüştürüldüğü karma adı beri bir peşini bırakmamak, sürdürmek yoluyla algılayacak.

Apple, sistemi perşembe günü tarama etmeye başladı. Bunu söyledikten sonra Apple’ın yaptığı açıklamaya bağlı olarak, çoğunluğu ABD’li iPhone kullanıcısı kim uzun yıllar sağa kesinlikle olacak bir iOS 15 güncellemesine {kadar} kim sistemin bir parçası olmayacak.

Kim yer değiştirme, Apple’ı, genç istismarı görüntüleri de harmanlanmış aslında olmak üzere çare şartlarını karşı çıkmak eden malzeme için, sık karma sistemleri yoluyla halihazırda bireysel dosyalarını tarayan çeşitli diğer bulut hizmetleriyle özdeş seviyeye getiriyor.

Hepsi birden, sisteminin, çocukların seksle ilgili istismarına ilişkin yasak görüntüleri ortadan kaldırmaya yönelik eski eylem önerilerine bağlı olarak kullanıcılar için daha ısmarlama olduğunu söyleyen Apple için bir sınav için durmak ediyor. Beri hem Apple sunucularında hem de bireysel cihazlarında artırılmış şifreleme kullanıyor yanı sıra gerçeklik görüntüleri kesinlikle değil, sıkı karmaları tarıyor.

Bunu söyledikten sonra, mahremiyete riskli çeşitli bireysel, hükümetleri bir cihazdaki ya da buluttaki içerikler çevresinde bilgilendiren yazılımlardan ancak çekiniyor yanı sıra çeşitli kullanıcının kim duyuruya kötü cevap vermek vermesi son derece olası. Önemli ölçüde Apple’ın ekipman şifrelemesini sıkıca savunması yanı sıra ABD’den çok çok daha az tartışma korumasına yaratıcı ülkelerde faaliyet göstermesi de kim son zamanlarda tarama edilen sistemi tartışmaya daha görünür bir ilgilendirmek haline getiriyor.

Bunun ve ayrıca, dünyanın 4 bir yanındaki kolluk kuvvetleri de genç istismarını ya da terörizmi içine bakmak için iMessage yanı sıra iCloud tercih çeşitli diğer yazılım programı hizmetlerinin şifrelemesini zayıflatması için Apple’a versiyon yaptı. Perşembe günkü ifşa, Apple’ın bireysel gizliliği konusundaki bazı tasarım ilkelerinden vazgeçmeden kim sorunlardan bazılarını ele almasının önünü açtı.

Sadece nasıl çalışıyor

Bir görüntü iCloud’da saklanmadan daha önce, Apple, görüntünün karmasını Ülke çapında Eksik yanı sıra İstismara Uğramış Çocuklar Çekirdek (NCMEC) vasıtasıyla tedarik edildi bir karma çalışmalar tabanıyla eşleştiriyor. Kim çalışmalar tabanı, iOS 15 güncellemesinden başlayarak iOS kodunda dağıtılacak. Aynı şekilde Apple, eşleştirme işleminin bulutta kesinlikle değil, kullanıcının iPhone’unda yapıldığını söyledi.

Apple daha daha sonra bir iCloud hesabında kendinden emin sayıda karşı çıkmak eden belge keşfetmek ederse, düzeni Apple’ın şifresini çözmesine yanı sıra kim hesaptaki görüntüleri görmesine için mümkün kılmak veren bir belge yükleyecek. Görevli bir Apple çalışanı, savaş olup olmadığını doğrulamak için görüntüleri manuel olarak inceleyecek.

Apple, sıkı öncesinde tanınan yanı sıra kim çalışmalar tabanlarına bildirilen içerikle eşleşen görüntüleri inceleyebilecek; örneğin, ebeveynlerin çocuklarının banyodaki fotoğrafları NCMEC çalışmalar tabanının bir parçası olmayacağından kim görüntüleri keşfetmek edemez.

kaynak incelemeyi yapan vatandaş, sistemin yanlışlık yapmadığı sonucuna varırsa, Apple kullanıcının iCloud hesabını devre dışı bırakacak yanı sıra gerekirse NCMEC’ye bir söylenti gönderecek ya da kolluk kuvvetlerine haber verecek. Hesaplarının yanlışlıkla işaretlendiğini düşünen kullanıcıların Apple’a itirazda bulunma hakları da kolay erişilebilir.

Apple, sistemin sıkı iCloud’a yüklenen yanı sıra kullanıcıların kapatabileceği görüntüler ileri çalıştığını belirtti. Bu nedenle Apple sunucularına yüklenmemiş bir cihazdaki fotoğraflar ya da çeşitli diğer resimler sistemin parçası olmayacak.

Bazı güvenlik ve güvenlik araştırmacıları, kim teknolojinin eninde kaçınılmaz olarak siyasi itiraz fotoğrafları tercih çeşitli diğer türdeki görüntüleri kategorize için kullanılabileceğine dair endişelerini dile getirdi. Apple, sisteminin sıkı NCMEC ya da çeşitli diğer genç güvenliği kuruluşları vasıtasıyla listelenen görüntülerle çalışabilecek moda trendi oluşturulduğunu yanı sıra şifrelemeyi kuruluş biçiminin Yine bir başka amaçlar için kullanılmasını engellediğini şarj etmek ediyor.

Aynı şekilde, Apple’ın çalışmalar tabanına Yine bir başka karma ekleyemeyeceği söylenenler ile çevrili. Apple, bireysel gizliliğinden ödün vermeden yasak genç istismarı görüntülerini keşfetmek edebildiğini yasalaştırmak için sistemini kriptografi uzmanlarına sunduğunu da ekledi.

Apple, çocukları sapıklardan korumayı amaçlayan çeşitli diğer özelliklerle birbirleriyle perşembe günü kim özelliği açıkladı. Belirgin bir özellikte Apple, çıplaklık içerebilecek görüntüleri bulanıklaştırmak için ev hesabı olan bir çocuğun iPhone’unda ekipman öğrenimini kullanacak. Ayrıca, ebeveynler, 13 yaşından minik bir çocuğu varsa iMessage’da seksle ilgili içerikli bir resim ya da posta aldığında uyarılmayı seçebilecek. Apple bunlara ek olarak Siri’yi genç istismarının tam olarak nasıl bildirileceğiyle sinir bilgilerle de güncelledi.

Bunlar da ilginizi çekebilir

İzliyorsun: Apple, Çocuk Cinsel İstismarı Görüntüleri İçin iPhone’ları Tarayacak – Hardware Plus

Rehber: classicultimaterock.com

Kategoriler: talimatlar

Leave a Reply