Apple hat beschlossen, im Kampf gegen Kinderpornografie weiterzugehen. Das Unternehmen hat ein neues Scan- und Verschlüsselungssystem entwickelt, mit dem es die Fotos seiner Nutzer auf der Suche nach verdächtigen Inhalten verfolgen kann. Die neue auf maschinellem Lernen basierende Funktion wird vorerst nicht in einige Länder kommen, sie wird zunächst in den USA getestet, hat aber bereits bei Cybersicherheitsexperten Verdacht geweckt.
Damit bestätigte das Unternehmen am Donnerstag die von Matthew Green, Professor für Kryptographie an der Johns Hopkins University, auf Twitter verbreiteten Informationen. Ab sofort erhalten iPhone-Nutzer eine Benachrichtigung, wenn eines der Bilder, die sie versuchen, per iMessage zu senden, verdächtigt wird, Minderjährige sexuell missbraucht zu haben.
„Messages verwendet maschinelles Lernen auf dem Gerät, um Bildanhänge zu analysieren und festzustellen, ob ein Foto sexuell eindeutig ist. Die Funktion ist so konzipiert, dass Apple keinen Zugriff auf Nachrichten hat“, erläutert Apple in einem Bericht, der die Funktionsweise dieses Systems beschreibt, das nicht so neu ist, wie es sich anhört.
Wie funktioniert es?
Die Technologie wird in iOS, macOS, WatchOS und iMessages verwendet, von wo aus alle Bilder, die Benutzer teilen möchten, analysiert werden. Dazu haben sie auf Algorithmen des maschinellen Lernens zurückgegriffen, die als NeuralHash bekannt sind.
Die Hash-Technologie analysiert das Bild, ohne dass es angezeigt oder die Datei geöffnet werden muss. Es wandelt jedes Foto in eine eindeutige Nummer um, die seinen Inhalt beschreibt, wie ein digitaler Fingerabdruck, aber für jeden Benutzer unmöglich zu verstehen wäre.
Nach dem Vergleich dieses Codes mit denen, die vom Unternehmen als verdächtiger Inhalt eingestuft wurden, wird eine Warnung erstellt, die das Bild verwischt und die Weitergabe verhindert, wenn genügend Übereinstimmungen zwischen einem Code gefunden werden.
Apple stellt sicher, dass Eltern benachrichtigt werden können, wenn ihre Kinder als verdächtig eingestufte Inhalte senden möchten. Die Behörden könnten auch über diese Spiele informiert werden, damit ein menschliches Team die Bilder überprüfen kann.
Matthew Green erklärt auf seinem Twitter-Account, dass diese Technologie falsch positive Ergebnisse liefern kann, da sie nicht sehr genau sind: „Das ist Absicht. Sie wurden entwickelt, um Bilder zu finden, die wie schlechte Bilder aussehen, selbst wenn sie in der Größe geändert, komprimiert usw. wurden.“ Das Unternehmen bestreitet diese Behauptung: „Das Risiko, dass das System ein Konto fälschlicherweise kennzeichnet, ist äußerst gering. Darüber hinaus überprüft Apple alle an NCMEC übermittelten Berichte manuell, um die Richtigkeit der Berichte sicherzustellen.“
Die Datenschutzrisiken
Was ein wichtiges Instrument zur Verfolgung von Kriminellen, Pädophilen und Terroristen sein könnte, bedrohe gleichzeitig die Privatsphäre unschuldiger Bürger und sei eine sehr nützliche Waffe für totalitäre Regime, kritisiert der Cybersicherheitsexperte.
Das Problem mit diesem neuen Tool wäre eher, wo nach diesen Ähnlichkeiten gesucht wird. Die auf den Geräten gespeicherten und in der iCloud gespeicherten Fotos werden verschlüsselt auf Apple-Servern gespeichert, aber wie Experten erklären, sind die Schlüssel zum Entschlüsseln dieser Codes Eigentum von Apple.
Die einzigen, die über eine Ende-zu-Ende-Verschlüsselung (E2E) verfügen, sind die von iMessages, die wie WhatsApp von einem Gerät zum anderen geschützt sind, sodass niemand außer Benutzer sie sehen kann. Hier würde theoretisch das neue System von Apple ins Spiel kommen.
Diese Inhaltsanalyse ist nicht so neu. Facebook scannt Beiträge in seinen sozialen Netzwerken (Facebook und Instagram) auf Nacktheit. Apple hat auch Hashing-Systeme verwendet, um per E-Mail gesendete Bilder von Kindesmissbrauch zu suchen, Systeme ähnlich wie Gmail und andere Cloud-E-Mail-Anbieter, die nicht durch Ende-zu-Ende-Verschlüsselung geschützt sind.
Green glaubt, dass diese Technologie eine beunruhigende Botschaft sendet. „Unabhängig von den langfristigen Plänen von Apple haben sie ein sehr klares Signal gesendet. (…) es ist sicher, Systeme zu bauen, die die Telefone der Benutzer auf verbotene Inhalte scannen“, erklärt er auf seinem Twitter-Profil.
Allerdings waren nicht alle Cybersicherheitsexperten so kritisch. Nicholas Weaver, Senior Research Fellow am International Computer Science Institute der UC Berkeley, hat versichert Hauptplatine dass Apples neue Nachrichtenfunktion „eine SEHR gute Idee zu sein scheint“. „Insgesamt scheint Apples Ansatz gut durchdacht zu sein und die Privatsphäre zu maximieren“, fügt er hinzu.