Der automatische Foto-Cropping-Algorithmus von Twitter begünstigte laut den Ergebnissen eines Wettbewerbs des sozialen Netzwerks „junge, dünne, hellhäutige Gesichter“.
Das Unternehmen hat im März dieses Jahres das automatische Zuschneiden von Fotos deaktiviert. Viele Benutzer wiesen darauf hin, dass beim Posten eines Gruppenbildes weiße Menschen gegenüber schwarzen Menschen hervorgehoben wurden.
Der von Twitter organisierte Wettbewerb bestätigte die Situation. Die Teilnehmer, Experten für künstliche Intelligenz, hoben die Verzerrungen hervor, die das System des Netzwerks fütterten.
Die Gewinner zeigten, dass der Algorithmus „junge, schlanke, hellhäutige Gesichter, glatte Hautstruktur mit stereotypisch weiblichen Zügen“ bevorzugt. Der erste Platz ging an Bogdan Kulynych, ein Doktorand an der EPFL: Er erhielt 3.500 Dollar.
Zweitens wurde darauf hingewiesen, dass sie Personen mit weißem oder grauem Haar voreingenommen war, was eine Altersdiskriminierung implizierte.
An dritter Stelle wurde festgestellt, dass in den Bildern die englische gegenüber der arabischen Schrift bevorzugt wurde.
Auf der Suche nach Verbesserungen in der KI von Twitter
Denken wir daran, dass sich das System in ständiger Entwicklung befindet und daher noch verbessert werden kann. Twitter suchte, basierend auf Expertenmeinungen und Erkenntnissen, eine bessere Richtlinie für das automatische Zuschneiden von Fotos.
Rumman Chowdhury, Leiter des META-Teams von Twitter, analysiert die Ergebnisse.
Platz 3 geht an @RoyaPak der mit dem Salienzalgorithmus von Twitter mit zweisprachigen Memes experimentierte. Dieser Eintrag zeigt, wie der Algorithmus das Beschneiden lateinischer Schriften gegenüber arabischen Schriften bevorzugt und was dies in Bezug auf die Beeinträchtigung der sprachlichen Vielfalt im Internet bedeutet.
— Twitter-Engineering (@TwitterEng) 9. August 2021
Er sagte: „Wenn wir über Verzerrungen in unseren Modellen nachdenken, geht es nicht nur um das Akademische oder das Experimentelle“, sagte die Führungskraft. (Es geht darum) wie das auch mit der Art und Weise zusammenarbeitet, wie wir über die Gesellschaft denken.“
„Ich verwende den Ausdruck ‚Leben imitiert Kunst und Kunst imitiert das Leben’. Wir entwickeln diese Filter, weil wir denken, dass das das Schöne ist, und das führt dazu, dass unsere Models trainiert und diese unrealistischen Vorstellungen davon gefördert werden, was es bedeutet, attraktiv zu sein.“
Das META-Team von Twitter untersucht die Ethik, Transparenz und Verantwortlichkeit des maschinellen Lernens.
Wie kam der Gewinner zu seinem Abschluss?
Damit Bogdan Kulynych zu seinen Schlussfolgerungen über den Algorithmus von Twitter gelangte, verwendete er ein KI-Programm namens StyleGAN2. Damit generierte er eine große Anzahl echter Gesichter, die er je nach Hautfarbe, sowie weibliche vs. männliche Gesichtszüge und Schlankheit variierte.
Wow, das war ein unerwarteter Abschluss der Woche! Mein Beitrag wurde mit dem 1. Platz im Algorithmic Bias-Programm von Twitter ausgezeichnet. Vielen Dank an @ruchowdh, @TwitterEng META-Team und die Jury…
— Bogdan Kulynych (@hiddenmarkov) 8. August 2021
Wie Twitter erklärt, hat Kulynych die Varianten in den automatischen Foto-Cropping-Algorithmus des Netzwerks eingespeist und herausgefunden, welches sein Favorit war.
„(Sie beschnitten) diejenigen, die nicht den Präferenzen des Algorithmus für Körpergewicht, Alter und Hautfarbe entsprachen“, hob der Experte in seinen Ergebnissen hervor.
Unternehmen und rassistische Vorurteile, wie gehen Sie damit um?
Twitter hat mit seinem Wettbewerb die allgegenwärtige Natur von Social Bias in algorithmischen Systemen bestätigt. Jetzt kommt eine neue Herausforderung: Wie kann man diese Vorurteile bekämpfen?
„KI und maschinelles Lernen sind nur der Wilde Westen, egal für wie kompetent Sie Ihr Data-Science-Team halten“, bemerkte Patrick Hall, KI-Forscher.
„Wenn du deine Fehler nicht findest oder die Bug Bounties deine Fehler nicht finden, wer findet dann deine Fehler? Weil du Fehler hast.“
Seine Worte greifen auf die Arbeit anderer Unternehmen zurück, wenn diese ähnliche Misserfolge haben. The Verge erinnert sich daran, dass das Unternehmen die Forscher diskreditierte, als ein MIT-Team in den Gesichtserkennungsalgorithmen von Amazon rassistische und geschlechtsspezifische Vorurteile feststellte.
Anschließend musste sie die Verwendung dieser Algorithmen vorübergehend verbieten.