Fragen? Antworten! Siehe auch: Alternativlos
Das Verfahren, das sie das benutzen, ist auffallend wenig schlimm. Die haben das sozusagen umgedreht. Man erspielt sich Awards, wenn man bestimmte Hashes vorweisen kann, die nicht öffentlich bekannt sind. Nur dass der Hash halt aus den Bildern berechnet wird und die Awards dann eine Meldung beim FBI sind.
Es werden also weder deine Fotos gegen deinen Willen in die Cloud hochgeladen zum Analysieren, noch läuft da irgendeine freidrehende "KI" und macht Pornoerkennung.
Wobei, eine freidrehende KI soll es wohl auch geben, und zwar um Eltern zu warnen, wenn ihre Kinder Nacktfotos von sich selbst machen.
Ja, äh, schön ist das natürlich alles nicht. Aber von allen Dinge, die Apple hätte implementieren können, ist das am unteren Ende der Schlimmheitsskala. Ich gebe ja Youtube die Schuld. Die haben das Fluttor geöffnet, dass man Dinge automatisiert scannen kann. Damit haben sie die ganze Welt in den Abgrund gestürzt. Jetzt wird alles ständig überall gescannt.
Klar findet das nichts am Ende. So wird das auch hier sein. Die haben eine Datenbank mit Hashes von bekannten Bildern. Angeblich geht es ja hier um die Bekämpfung von Missbrauch. Alte Bilder kursieren lassen ist zwar nicht schön aber da ist der Missbrauch ja schon geschehen und hoffentlich geahndet, denn die Polizei hat die Bilder gesehen und ermittelt und hoffentlich jemanden inhaftiert. Den Missbrauch von Kindern zum Anfertigen von neuen Bildern hält das mit den Hashes hier natürlich überhaupt nicht auf.
Und so ist das am Ende wie immer. Ihr tut so, als ob ihr uns angemessen bezahlt, und wir tun so, als hätten wir für das Geld gearbeitet. Das tatsächliche Lösen des tatsächlichen Problems? Not my job.
Update: Eine Sache fällt noch auf. Die Leute laden ja ihre Backups in die Cloud hoch, inklusive Fotos. Eigentlich würde es ja völlig reichen, wenn Apple in ihrer Cloud die Bilder scannt. Der ganze Aufwand mit Software auf die Geräte schieben, und dann dafür sorgen müssen, dass ein Angreifer auf den Geräten nicht sehen kann, welche Hashes hier gesucht werden, den Schuh hat sich Google gar nicht angezogen. Die scannen einfach in der Cloud rum.
Warum macht Apple das also?
Nun, gibt zwei offensichtliche Erklärungsansätze. Entweder sie wollen hier wirklich Kriminelle finden, und glauben nicht, dass die Cloud-Backup angeschaltet haben. Oder sie planen ihre Cloud-Backups so zu machen, dass sie da gar nicht reingucken können, selbst wenn sie wollten. Kryptografisch wäre das gar kein Problem, und würde auch ihren Kopf aus gleich mehreren Schlingen ziehen. Wenn ich einen Cloud-Backup bauen sollte, hätte ich das von Anfang an so gemacht.
Dass Kriminelle Cloud-Backup abschalten, glaube ich auch. Aber dass es Apple hier tatsächlich um die Kriminalitätsbekämpfung geht glaube ich auch nicht. Da wird jemand vom FBI den Tim Cook zu einem Abendessen eingeladen haben und dem ein paar fiese Bilder gezeigt haben, und dann hat Tim Cook sich bereiterklärt, ein bisschen Placebo auszurollen, damit man sagen kann, man helfe. Vielleicht auch als Pfand für die nächste Iteration gedacht, wenn das FBI mal wieder Hintertüren fordert. Ich glaube ja nicht, dass das funktioniert. Eher anders herum. Wenn man denen einmal einen kleinen Finger hinhält, beißen sie den ganzen Arm ab.
Der Nachteil von verschlüsselten Cloud-Backups ist, dass man dann auch Kunden mit Demenz nicht helfen kann, oder Hinterbliebenen.