Laut Apple sieht sich Apple mit einer Klage von Opfern sexuellen Kindesmissbrauchs konfrontiert, weil es die Implementierung eines Systems zur Erkennung von Material zum sexuellen Kindesmissbrauch (Child Sexual Abuse Material, CSAM) in iCloud versäumt hat Die New York Times. Die in Nordkalifornien eingereichte Klage fordert Schadensersatz in Höhe von über 1,2 Milliarden US-Dollar für etwa 2.680 Personen. In der Klage wird Apples Nachlässigkeit beim Schutz von Benutzerdaten vorgeworfen, insbesondere nachdem das Unternehmen ursprünglich eine vorgeschlagen hatte CSAM Erkennungstool im Jahr 2021.
Hintergrundinformationen zu Apples CSAM-Tool und dessen anschließender Abkehr
Im Jahr 2021 kündigte Apple Pläne für ein CSAM-Erkennungstool an, das iCloud nach missbräuchlichen Bildern durchsuchen und das National Center for Missing and Exploited Children alarmieren soll. Ziel dieser Initiative war es, die Sicherheit von Kindern zu verbessern und Ausbeutung wirksam zu bekämpfen. Das Unternehmen zog das Projekt jedoch aufgrund heftiger Gegenreaktionen wegen möglicher Datenschutzverletzungen zurück. Kritiker äußerten Bedenken, dass die Technologie die Privatsphäre der Benutzer verletzen könnte, was zu ihrer Aufgabe führen könnte. Infolgedessen behaupten die Opfer, Apple habe es versäumt, die notwendigen Maßnahmen zu ergreifen, um die Verbreitung schädlicher Bilder zu verhindern.
Die Klage beschreibt die Not der Opfer, darunter einer 27-jährigen Frau, die weiterhin Benachrichtigungen der Strafverfolgungsbehörden über die Weitergabe ihrer Bilder aus ihrer Kindheit erhält. Die kursierenden Bilder verschärfen das emotionale Leid der Beteiligten. Die Kläger argumentieren, dass das Versäumnis von Apple, seine eigenen vorgeschlagenen Sicherheitsmaßnahmen umzusetzen, dazu geführt habe, dass solche Materialien unkontrolliert auf seiner Plattform verblieben seien.
Apples Reaktion und bestehende Maßnahmen
Als Reaktion auf die Klage betonte Apple sein Engagement für den Schutz von Kindern und gleichzeitig für die Wahrung der Privatsphäre der Benutzer. Sprecher Fred Sainz erklärte: „Materialien über sexuellen Missbrauch von Kindern sind abscheulich und wir setzen uns dafür ein, die Art und Weise zu bekämpfen, in der Raubtiere Kinder gefährden.“ Er wies auf bestehende Sicherheitsfunktionen hin, beispielsweise auf Communication Safety, das Benutzer warnt, wenn sie anstößige Inhalte senden oder empfangen. Trotz dieser anhaltenden Bemühungen wird das Unternehmen zunehmend auf seine Wirksamkeit bei der Bewältigung von CSAM-Herausforderungen geprüft.
Anfang des Jahres wurde Apple auch von der britischen National Society for the Prevention of Cruelty to Children (NSPCC) kritisiert, die dem Unternehmen vorwarf, auf seinen Plattformen gefundene CSAM-Fälle nicht ausreichend zu melden. Dieser zunehmende Druck unterstreicht die anhaltenden Bedenken hinsichtlich der Strategien von Apple zur Bekämpfung der Ausbeutung von Kindern und zur Gewährleistung der Benutzersicherheit bei seinen Diensten.
Hervorgehobener Bildnachweis: Tim Mossholder/Unsplash
Der Beitrag, den Apple wegen CSAM-Erkennungsfehlern auf 1,2 Milliarden US-Dollar verklagte, erschien zuerst auf TechBriefly.
Source: Apple verklagte 1,2 Milliarden US-Dollar wegen CSAM-Erkennungsfehlern