Fragen? Antworten! Siehe auch: Alternativlos
Apple's iCloud service encrypts all data, but Apple has the decryption keys and can use them if there is a warrant. However, nothing in the iCloud terms of service grants Apple access to your pictures for use in research projects, such as developing a CSAM scanner. (Apple can deploy new beta features, but Apple cannot arbitrarily use your data.) In effect, they don't have access to your content for testing their CSAM system.If Apple wants to crack down on CSAM, then they have to do it on your Apple device. [...] If it encounters any CSAM content, it will send the file to Apple for confirmation and then they will report it to NCMEC. (Apple wrote in their announcement that their staff "manually reviews each report to confirm there is a match". They cannot manually review it unless they have a copy.)
Neal beschäftigt sich beruflich mit Fotos und empfängt Uploads von Usern und muss daher auch nach Missbrauchsfotos gucken und die melden nach US-Recht. Und hier wird es dann inhaltlich spannend, denn er hat NCMEC (die US-Behörde, die die Hash-Datenbank betreibt) um eine Liste mit den Hashes gebeten, damit er danach scannen kann.Eventually (about a year later) they provided me with about 20,000 MD5 hashes that match known CP. In addition, I had about 3 million SHA1 and MD5 hashes from other law enforcement sources.
Warum sind das so viele? Weil es von demselben Bild verschiedene Bilddateien gibt. Mal mit nem Header davor, mal ohne, mal als PNG, mal als JPEG mit 70% Qualitätsschieber, mal mit 80%. Alle visuell identisch aber andere Bits und daher anderer Hash.In the six years that I've been using these hashes at FotoForensics, I've only matched 5 of these 3 million MD5 hashes. (They really are not that useful.) In addition, one of them was definitely a false-positive. (The false-positive was a fully clothed man holding a monkey -- I think it's a rhesus macaque. No children, no nudity.)
OK, dann ist das Problem vielleicht einfach viel kleiner? Nein, ist es nicht!At my FotoForensics service, I typically submit a few CSAM reports (or "CP" -- photo of child pornography) per day to the National Center for Missing and Exploited Children (NCMEC). [...] According to NCMEC, I submitted 608 reports to NCMEC in 2019, and 523 reports in 2020.
Da gibt es dann noch ein interessantes Detail. Apple hat in den Zeiträumen bloß 205 und 265 Reports bei MCMEC gefiled. Er kann aber an den Dateinamen seiner Uploads sehen, dass die von Apple kamen, weil die ein eigenes Schema für Foto-Dateinamen haben. Apple hat also eine Menge solches Material, aber meldet es nicht. Er glaubt, weil sie nicht gucken.