Apple gegen Kinderpornografie

In den letzten Tagen haben alle Medien, auch die, die sich sonst keinen Ruf als Digitalisierungsexperten erarbeitet haben, über Apple berichtet.
Während Kinderschutzbunde jubelten, haben Sicherheitsforscher das Datenschutzarmageddon vorhergesagt.

Schauen wir uns die Fakten an. Zwischendrin und danach teile ich Ihnen meine Meinung mit. Diese muss nicht die Ihre sein, wie so oft: Jeder hat seine eigene Einschätzung von Datenschutz und der Abwägung mit, in diesem Fall, Kinderpornografie.

Meinung

Zu allererst: Kindermisshandlung, Kinderpornografie, Gewalt gegen Kinder sind für mich die abscheulichsten Verbrechen, die es gibt. Daher bin ich tendenziell geneigt, andere Dinge, die mir wichtig sind, hintanzustellen. Wenn Sie helfen, diese widerlichen Menschen für immer wegzusperren.

Fakt 1: Was macht Apple?

Apple will etwas gegen Kinderpornografie unternehmen.
Nicht heute oder jetzt, wie einige schrieben, sondern mit dem nächsten grossen Release im September, iOS 15 und iPadOS 15. Das ist lustig, denn Apple macht das schon seit Anfang 2020. Dort hat Apple mitgeteilt, Bilder, die in der iCloud liegen, regelmässig auf kriminelle Inhalte zu überprüfen.

Stimmen in den Medien:
Das ist super. Fantastisch. Das ist ein massiver Eingriff in die Privatsphäre. Damit verletzt Apple sein Mantra unsere Daten zu schützen.
Viel extremer konnten die Seiten nicht sein. Wie immer, wenn es um Kinderpornografie geht. Da bleibt keiner kühl.

Laut dem WhitePaper von Apple sollen Fotos, die in die iCloud hochgeladen werden, vor dem Hochladen, auf dem iPhone oder iPad auf Kinderpornografie untersucht werden.
Jedoch nicht bei neuen Bildern, die Sie gerade aufnehmen. (Ausnahme: Kinder und Nachrichten-App, das kommt gleich).
Wie macht Apple das?
Bevor die Datei auf die Apple Server hochgeladen werden, generiert eine Apple-Software über das zu hochladende Bild einen Hashwert.

Ex-Kurs Hashwerte

Das ist eine eindeutige Zahlenrepräsentation einer digitalen Datei, egal ob Foto, Word-Document oder ASCII Text.
Es gibt verschiedene Programme, die solche Hashwerte erzeugen. Nehmen wir als Beispiel md5. Wenn Sie den Hashwert von der Zeichenkette „Lionel Messi“ mit md5 erzeugen, erhalten Sie: ec7974cc02081546811ca3d5ce046a65.

Diese Zeichenketten sollen eindeutig sein, es kann keinen Hash zweimal geben, egal welche andere Datei oder Zeichenkette Sie verwenden. Sie ist nicht zurückrechenbar (oder nicht mit vertretbarem Aufwand). Das heisst, aus der unlesbaren Zeichenkette oben kann man nicht zurück auf „Lionel Messi“ schliessen. Das sind die beiden wesentlichen Anforderungen.

Hashwerte werden bei Passwörtern verwendet. Wenn Sie als Passwort die obige Zeichenkette eingeben, speichert der Anbieter, wenn er ein bisschen Verstand hat, einen gehashten Wert ab. Wird die Firma gehackt, dann erhält der Kriminelle nicht Ihr Passwort sondern die Zeichenkette und kann das Passwort nicht zurückrechnen.
Das soll als Einführung reichen.

Fakt 2: Wozu braucht Apple die Hashwerte?

Bekannte Kinderpornografiebilder haben einen Hashwert bei den Behörden. Anstelle sich Bilder anschauen zu müssen, um diese unfassbar schlechten Menschen zu fassen, werden alle Bilder, die die Polizei und andere Behörden in die Finger bekommen, gehasht. Diese Hashes werden in einer Datenbank gespeichert. Das NCMEC (National Centre for Missing and Exploited Children) ist eine US-amerikanische Organisation, die Fälle von vermissten oder ausgebeuteten Kindern bearbeitet. Außerdem meldet NCMEC Verdachtsfälle von Kinderpornografie an das Bundeskriminalamt (BKA).

Diese Liste von gehashten, abscheulichen Bildern, sendet das NCMEC an Apple. Apple speichert diese auf Ihrem iPhone. Wenn Sie ein Foto in die iCloud hochladen wollen, dann wird das Bild gehasht und mit dieser Liste verglichen. Es ist also ein Vergleich von zwei Zeichenketten.

Wenn es einen Treffer gibt, dann wird das Apple gemeldet und die schauen sich das genauer an. Wenn es Kinderpornografie ist, wir das NCMEC informiert, die daraufhin die Polizei einschalten. Gab es keine Übereinstimmung, passiert nichts.

Zwei Anmerkungen:

  1. Natürlich hat Apple das Recht, Daten, die auf Ihren Servern landen sollen, abzulehnen. Genauso wie Sie entscheiden, wer in Ihre Wohnung darf.
  2. Einen ähnlichen Mechanismus gibt es auch bei Apple, Google und anderen. Der Unterschied: Apple bisher und die anderen scannen die Daten, wenn Sie auf deren Servern sind und nicht auf dem Gerät des Nutzers, also dem Google Pixel oder iPhone oder Samsung Galaxy.

Mit dem Vergleich von zwei Hashwerten können keine neuen Bilder identifiziert werden. Nur bekannte Bilder. Das gilt für Bilder bei Google oder anderen und bei Apple.

Meinung

Das könnte dazu führen, dass diese Monster mehr Material erzeugen, um damit dieses Thema zu umgehen. Der Bedarf nach neuen Bildern wird steigen, die Verteilung von bekannten Bildern reduziert sein. Für Kinder ist das keine positive Aussicht.
Ausserdem glaube ich, dass diese Kriminellen nicht Gigabyte-weise Kinderpornografiematerial auf Servern von Apple oder Google speichern. Spätestens jetzt nicht mehr.

Es gab schon Anfang 2020 Meldungen, das Apple Bilder in der iCloud daraufhin überprüft.

Ein weiterer Unterschied zwischen Apple und den anderen ist, dass Apple angibt, nicht nur genau dieselben Bilder zu finden, sondern auch ähnliche. Stellen Sie sich ein Bild vor, dass minimal bearbeitet, beispielsweise ein wenig verkleinert wurde. Schon wäre der Hashwert ein völlig anderer und das Bild fiele nicht auf. Diese Veränderungen kann ein findiger Menschenverächter automatisieren. Also will Apple Künstliche Intelligenz einsetzen, um auch „ähnliche“ Bilder zu finden.

Hier setzen Kritiker an: Das könnte zu sog. False Positives führen, also zu falschen Verdächtigungen. Dann könnte ein Mitarbeiter von Apple das Nacktbild der Tochter sehen und wer weiss ob dieser zuverlässig ist.

Ich halte dieses Risiko für gering. Es wird False Positives geben, aber wahrscheinlich wenige. Die Frage, für die ich noch keine Antwort habe: Sind das Apple Mitarbeiter oder eine externe Firma auf den Philippinen, wie bei Siri?

Ein Gerät von einer privaten Firma, das ich teuer bezahlt habe, durchsucht mein Telefon nach kriminellem Material, ohne mich zu informieren. Das empfinde ich als schwierig.

Warum werde ich auf meinem Gerät dazu gezwungen, die Bilder zu scannen die ich hochlade?

Hashes sind nicht absolut sicher. Kollisionen, also ein Hashwert für zwei oder mehrere Dateien sind selten aber möglich. Die Wahrscheinlichkeit, dass das zu Problemen führt halte ich für sehr gering.
Auch Kollisionen führen dazu, dass ein Mitarbeiter bei Apple das Bild Ihrer Frau, Ihrer Tochter, Ihres Sohnes, Ihres Hundes sieht.

Auch das finde ich nicht sooo kritisch.

Meine Sorge

Was mich mehr umtreibt: Gibt es fehlerfreien Code? Ist der Code sicher oder kann er Fehler haben, die digitale Kriminelle ausnutzen können, um mir mehr Schaden zuzufügen. Zum Beispiel mir ein Kinderpornografiebild unterzuschieben?

Die NSO Group hat eindrucksvoll bewiesen, dass jedes Gerät ohne Nutzereingriff komplett überwacht und gesteuert werden kann und damit Ihr gesamtes Leben.
Der NSO Group Vorfall hat auch gezeigt, dass es mehr als genug Regierungen gibt, die solche Technik anders als geplant einsetzen, auch gegen Menschen aus anderen Ländern.
Was die können, können vielleicht auch Kriminelle? Oder nicht so nette Regierungen?

Ausblick

Aus meiner Sicht ist dieser Schritt von Apple:

Ein weiterer Schritt in die Überwachung der Nutzer. Sie haben die Funktionalität in der iCloud schon. Warum das Ganze auf das Handy vorziehen, wenn es doch nur um Bilder geht, die sowieso in der iCloud landen? Rein funktional schützt das kein Kind mehr als vorher. Es kann nur einen Grund dafür geben.

Wenn Apple auf Ihrem iPhone oder iPad Ihre Bilder, die Sie in die iCloud senden wollen, scannen kann, was kommt als nächstes?

  • Werden die Bilder auf Ihrem Gerät gescannt auch wenn Sie diese nicht in die iCloud hochladen? Das wäre problemlos möglich.
  • Wird das Mikrofon heimlich angeschaltet um herauszufinden, ob Sie terroristische Anschläge planen oder planen Kinder zu missbrauchen? Informiert das iPhone dann sofort die Polizei?
  • Schaltet Apple die Kamera ein, wenn das Mikrofon einen Knall hört um ggf. einen Mord oder eine Party heimlich zu filmen, zu scannen und ggf. zu melden?
  • Wie sieht es mit Ihren Messengern wie Signal oder Threema aus? Werden diese auf dem Gerät dann auch überwacht? Der feuchte Traum der Bundesregierung würde wahr werden.
  • Wie weit geht das? Ganz ehrlich: Alles was denkbar ist, wird früher oder später gemacht.
  • Eine kleine Veränderung der Künstlichen Intelligenz kann reichen, den Algorithmus völlig anders als gedacht einzusetzen.
  • Wo endet das?

Wir wissen alle: Geben Sie den kleinen Finger, dann nimmt der Staat den Arm, den Körper und die gesamte Familie.

Bisher wurden Sie vor allem beim Surfen im Internet überwacht und die Ortsdaten, wenn Sie unterwegs waren. Jetzt kommt der erste Schritt, bei dem Ihre Inhalte auf einem Ihrer Geräte überwacht werden. Der nächste sind nicht nur Bilder, sondern Text, Tonaufnahmen, Videos, Chats….

Genau: Videos sind in dem Dokument von Apple nicht genannt. Die Monster könnten also Filme machen und in die iCloud hochladen, problemlos. Was die Produktion derartigen Materials angeht, sind Videos vielleicht sogar schlimmer für die Kinder.
Sind Filme vielleicht nicht das grössere Problem? Sind nicht Live-Fotos bei Apple dateitechnisch Filme? Auf meinem Rechner sind Sie das!

Wenn Sie sehen, wie die NSO Group iPhones überwacht hat, dann kann ich mir auch vorstellen, dass über einen derartigen Mechanismus oder einen Fehler in der Software von Apple ein schlechter Mensch ein Kinderpornografiebild auf mein iPhone speichert. Wenn ich dann noch automatische iCloud Synchronisierung eingeschaltet habe, steht plötzlich die Polizei vor der Tür.

Möglich: Ja.
Wahrscheinlich: Nein.
Aber irgendwann wird alles mal passieren.

Wie wird damit vom Staat umgegangen? Reicht es, wenn ein derartiges Bild auf meinem Gerät ist oder muss ich das aktiv gespeichert haben? Wie wird das bewiesen? Oder muss ich meine Unschuld beweisen? Ich befürchte Schlimmes.

Ich habe in der Schweiz gearbeitet und meine mich erinnern zu können, dass es illegal ist, dreckige Bilder herunterzuladen, aber wenn Sie aus Versehen auf einer Webseite gelandet sind und dort ein illegales Bild erschien, so also das Bild auf Ihrem Rechner im Browser-Cache vorhanden war, Sie aber nicht ‚Speichern unter‘ gesagt haben, dass das legal war. Wie wird das in Zukunft sein?

Verärgerung

Was mich wirklich ärgert: Apple könnte das bisher von ihnen Vorgestellte erreichen, ohne mein iPhone dafür zu missbrauchen. Sie könnten in der iCloud, wie Google und andere auch, die Bilder scannen. Warum aber muss es auf meinem Endgerät sein? Das macht mich sehr nachdenklich.

Das bedeutet implizit natürlich auch: Apple ist kein Zero-Knowledge-End-to-End-Encryption Anbieter. Sie haben die Schlüssel und können alle Ihre Inhalte in der iCloud sehen. Mit dieser Initiative könnten sie auch erklären, dass sie Ihre Mail, Ihre Nachrichten, Ihr Adressbuch und Ihren Kalender durchsuchen, zum Schutz von Kindern.

Worüber die Medien und Sicherheitsexperten viel weniger gesprochen haben, was ich aber als mindestens genauso schwierig empfinde, ist die Überwachung von Nachrichten-App.

Nachrichten-App

Fakt 3: Apple überwacht Bilder in der Nachrichten-App

Die Nachrichten-App ist der Apple Chat Dienst, vergleichbar mit Signal oder WhatsApp, aber nur für Apple Produkte. Auch SMS kann das natürlich.

Mit iOS 15 sollen Kinder vor Nacktbildern geschützt werden. Die Bilder, die hin und her geschickt werden, sollen gescannt werden. Der Beweis, dass das keine Ende-zu-Ende Verschlüsselung bei der Nachrichten-App ist. Aber das wussten Sie schon.

Dabei sollen die Bilder in Nachrichten überprüft werden, egal ob sie aus der iCloud kommen oder nicht.

Wenn ein Kind ein Nacktbild (oder was Apple dafür hält) erhält, oder versucht eines zu senden, erhält es eine Warnung. Wenn das Kind, wie bei allen Eltern natürlich vorhanden, im Familiennetz bei Apple ist, erhalten auch die Eltern diese Warnung.

Das Nacktbild wird verschwommen dargestellt und die Warnung fragt das Kind, ob es das mögliche Nacktbild wirklich ansehen will. Tippt es auf ja, kommt eine weitere Meldung, dass es sich um sensitive Informationen handelt (die Eltern bekommen das auch). Damit versucht Apple Kinder vor Nacktbildern zu schützen. Sowohl beim Senden als auch beim Empfangen.

Auch dieser Mechanismus bei der Nachrichten-App ist lokal auf Ihrem iPhone. Ihre Nachrichten werden gescannt und die Bilder. Hier geht es nicht mehr um Hashwerte, sondern um echte Bilder, die mit einem Algorithmus auf „nackt“ oder „nicht-nackt“ untersucht und dann markiert werden. Jede Nachricht wird gescannt. Jede Nachricht.
Natürlich nur die Bilder, ich vergass.

Diese Funktion ist Opt-in. Das heisst, die Eltern müssen das einrichten, wenn Sie das wollen. Welche Mutter, welcher Vater möchte sein Kind nicht vor soetwas schützen. Aber es ist Opt-in, dass muss ich fairerweise sagen.

Meinung

Ich habe von 11 Jahren (!!!) einen Fall erlebt, da haben sich Teenager in der Umkleide beim Sport in der Schule nackt fotografiert. Als eines der Mädchen sich in einen Jungen verliebt hat, der jedoch die beste Freundin besser fand, hat sie die Bilder der Freundin ins Internet gestellt. Der Skandal war gross. Das ist 11 Jahre her.

Stellen wir den Timer um herauszufinden, wann diese Funktionalität missbraucht wird, ein kluger Kopf einen Bug findet und diese Funktion in für mich aktuell nicht vorstellbarem Masse so verändert, dass der Schaden gross ist.

Siri und Suche

Wenn Sie noch nicht genug haben, lesen Sie weiter. Das ist zwar der schlimmste Teil gewesen, aber noch nicht alles, was Apple angekündigt hat. Und was die Medien gänzlich ignoriert haben. Sie haben den Vergleich von Hashwerten auf einem iPhone höher bewertet als die anderen beiden Punkte. Das verstehe ich nicht.

Verwenden Sie Siri? Suchen Sie mit Siri manchmal.
Dann achten Sie in Zukunft auf Ihre Sprache.

Fakt 4: Apple überwacht die Sprache und die Suchen mit Siri

Auch diese Dienste werden in iOS 15 und iPadOS 15 so ausgebaut, dass Sie Hinweise auf Kinderpornografie (oder was Apple dafür hält) erkennen. Wenn Apple das erkennt, dann kommt eine Meldung, dass das Gesuchte oder Gesprochene gegebenenfalls anrüchig ist. Das bedeutet, Apple hat nicht nur bei Bildern und Nachrichten die Möglichkeit alles von Ihnen zu überwachen und zu scannen, sondern auch bei Suchen oder bei gesprochenem Text.

Meinung

Alles drei zusammen ist für mich unerträglich, so gerne ich den Kindern helfen will.
Denn für mich…

Fazit

  • …helfen diese massiven Eingriffe in meine Privatsphäre nicht, die Kinder zu schützen.
  • Videos sind nicht dabei. Nur bekannte Bilder werden erkannt, neue nicht.
  • Der grösste Teil der Kriminellen wird aus meiner Sicht kein iCloud oder Google Cloud verwenden, um Kinderpornografie zu speichern.
  • Es hätte andere, weniger invasive Möglichkeiten gegeben, denselben Effekt zu erzielen, als dieser massive Eingriff.
  • Das lässt nur erahnen, dass das der erste Schritt in diese Richtung ist und die Grundlage für viele weitere und nicht nur gut gemeinte Überwachung.

Ich habe bis hierher nicht erwähnt, dass das aktuell nur für US iPhones geplant ist. Machen Sie sich nichts vor: Das kommt auch nach Deutschland.

Apple hat sich damit gebrüstet:

What happens on your phone, stays on your phone (was auf Deinem Handy passiert, bleibt auf Deinem Handy).

Apple Marketing

Ab September müssen sie diesen umschreiben:

What happens on your phone, will be surveilled. (Was auf dem Handy passiert, wird überwacht)

Noch nicht Apple Marketing

Um das nochmal klarzustellen:
Ich finde Kinderpornografie und -missbrauch unerträglich. Würde Apple mit seinen hochgelobten Ingenieuren bessere Lösungen anbieten, wäre ich der erste, der das lobt.

Sollten wir Apple verdammen? Ich verdamme die Menschen, die Kinder missbrauchen, misshandeln, das filmen und fotografieren und dann auch noch austauschen. Wir sollten als Gesellschaft dagegen vorgehen, auch digital, aber nicht so.

Ein persönlicher, letzter Satz:
Selten habe ich mich so schlecht gefühlt, einen Artikel zu schreiben. Ich trainiere Kinder im Sport, ich betreue sie in der Schule. Der Gedanke, auch nur eines davon könnte irgendwie Opfer werden, macht mich fuchsteufelswild.