Am 27. Juni trat das Problem laut The New York Times mit einem Video der britischen Tageszeitung Daily Mail auf. Facebook hat sich entschuldigt und die Empfehlungsfunktion zur Bewertung des Betriebs seiner KI aufgrund des öffentlichen Aufschreis deaktiviert.
Dieses Ereignis ergänzt nur die lange Liste rassistischer und sexistischer Verhaltensweisen, die KI repliziert. Wir haben besprochen, wie Social-Media-Sites wie Facebook Fotos von Weißen hervorheben und gleichzeitig andere Rassen bei mehr als einer Gelegenheit diskriminieren.
Dem User wurde ein Video über Primaten empfohlen, in dem sich ein Schwarzer und ein Weißer streiten. Berichten britischer Medien zufolge war der weiße Mann gegenüber der anderen Person beleidigend und die Polizei musste hinzugezogen werden. Doch unabhängig vom Thema des Videos schlug Facebook nach dem Video mit dieser Nachricht vor: „Willst du weiter Videos anschauen!“ über Primaten?“
Die Daily Mail war die erste, die Facebook kritisierte, aber der Fehler wurde ihnen zunächst nicht offenbart. Später entschuldigte sich Facebook bei der New York Times: „Wie wir bereits gesagt haben, haben wir zwar Fortschritte bei der KI gemacht, aber sie ist nicht perfekt und es gibt noch mehr zu tun“.
Um zu untersuchen, was passiert ist und um zu verhindern, dass es erneut passiert, hat das Unternehmen, zu dem auch WhatsApp und Instagram gehören, die Empfehlungsfunktion in seinem sozialen Kernnetzwerk deaktiviert.
Andere Fehler
„Jeden Tag sehen wir die Grenzen, die Vorurteile und die reine Idiotie, sich ausschließlich auf künstliche Intelligenz zu verlassen. Und doch erlauben wir uns weiterhin, Versuchskaninchen zu sein“, so Nicole Perlroth, Cybersicherheitsautorin der New York Times, auf dieses Beispiel.
Künstliche Intelligenz ist keine Ausnahme von der Regel, dass Menschen dazu neigen, Vorurteile voneinander zu erben. Dieser Realität musste sich in den letzten Wochen auch Twitter stellen: Seine smarten Algorithmen favorisieren Fotos junger, weißer Menschen.
Programme, die künstliche Intelligenz verwenden, sind voreingenommen, da sie sich zum Trainieren der Funktionen häufig auf eine Reihe von Stichproben oder Parametern verlassen. Es wird für künstliche Intelligenz schwierig sein, den Rest der Menschheit zu identifizieren, der diese Kriterien nicht erfüllt, wenn die Stichprobe begrenzt ist und viele Bilder einer Rasse oder eines Geschlechts enthält.