Ein erheblicher Anstieg von KI-Deepfake-Nacktdiensten, wie Graphika berichtet, verdeutlicht einen beunruhigenden Trend beim Einsatz künstlicher Intelligenz zur Generierung nicht einvernehmlicher intimer Bilder, was ernsthafte ethische und rechtliche Bedenken aufwirft.
Wachsende Beliebtheit von KI-Ausziehtools
Graphika, ein Social-Media-Analyseunternehmen, hat gemeldet eine besorgniserregende Zunahme des Einsatzes von „KI-Entkleidungs“-Tools. Diese generativen KI-Tools werden präzise kalibriert, um Kleidung aus von Benutzern übermittelten Bildern zu entfernen, was zu einem erstaunlichen Anstieg der Online-Verweise auf diese Dienste um 2.408 % führt.
Bei synthetischen nicht einvernehmlichen intimen Bildern (NCII) handelt es sich typischerweise um die Generierung expliziter Inhalte ohne die Zustimmung der abgebildeten Personen. Diese Tools bergen die Gefahr gezielter Belästigung, Sextortion und der Produktion von Material über sexuellen Missbrauch von Kindern (CSAM).
Die Internet Watch Foundation (IWF), ein in Großbritannien ansässiges Internet-Überwachungsunternehmen, hat dies getan hervorgehoben die Herausforderung, zwischen KI-generierter Pornografie und authentischen Bildern zu unterscheiden, was die Bemühungen zur Bekämpfung von Online-Missbrauch erschwert.
Internationale Reaktion
Die Vereinten Nationen haben beschrieben KI-generierte Medien stellen eine „ernsthafte und dringende“ Bedrohung für die Informationsintegrität dar. Als Reaktion darauf haben sich das Europäische Parlament und der Rat kürzlich auf Regeln für den Einsatz von KI in der EU geeinigt.
Source: Die Zunahme von KI-generierten Deepfake-Nacktdiensten löst Alarm aus