![Der KI-Bildgenerator von Meta kann keine Bilder von interrassischen Paaren erzeugen Der KI-Bildgenerator von Meta kann keine Bilder von interrassischen Paaren erzeugen](https://techbriefly.com/wp-content/uploads/2024/04/Metas-AI-image-generator-fails-to-produce-images-of-interracial-couples_02.jpg)
- Das KI-Tool Imagine von Meta steht in der Kritik, weil es Schwierigkeiten damit hat, Bilder von gemischtrassigen Paaren oder Freunden zu erstellen
- Ähnlich wie beim Gemini-Vorfall hat Imagine Schwierigkeiten, interrassische Beziehungen genau darzustellen
- Meta erkennt das Problem und verspricht, Voreingenommenheit in KI-Systemen durch Benutzerfeedback und Verbesserungen anzugehen
- Die ethischen Bedenken im Zusammenhang mit KI-Rendering-Tools verdeutlichen, dass Technologiegiganten Transparenz priorisieren und rassistische Vorurteile wirksam bekämpfen müssen
In der KI-Branche herrscht Aufruhr zwischen Metas KI-Erstellungstool Imagine und Meta AI, Sora und DALL-E 3. Jüngsten Berichten zufolge wurde das KI-Tool von Meta dafür kritisiert, dass es Probleme bei der Erstellung von Bildern von gemischtrassigen Paaren oder Freunden hatte.
In von CNN durchgeführten Tests erzeugte das Tool Bilder von Paaren gleicher Rasse, anstatt Bilder von Paaren unterschiedlicher Rassen zu erstellen. Dies ähnelt dem Gemini-Vorfall, den wir Ihnen zuvor mitgeteilt haben. Zwillinge hatten ebenfalls ein ähnliches Problem und erhielten eine tolle Reaktion.
Hier finden Sie alles, was Sie wissen müssen …
Stellen Sie sich vor, dass Meta-KI keine Bilder von Menschen verschiedener Rassen erzeugen kann
Mit der Weiterentwicklung der Technologie hat sich künstliche Intelligenz in allen Bereichen verbreitet, auch in Werkzeugen zur Bilderstellung.
Im Detail ging es um die Tests: Berichten zufolge hatte das KI-Rendering-Tool Schwierigkeiten, Bilder von asiatisch-weißen, schwarz-weißen und asiatisch-schwarzen Paaren zu rendern.
![Der KI-Bildgenerator von Meta kann keine Bilder von gemischtrassigen Paaren erzeugen 2 Der KI-Bildgenerator von Meta kann keine Bilder von interrassischen Paaren erzeugen](https://techbriefly.com/wp-content/uploads/2024/04/Metas-AI-image-generator-fails-to-produce-images-of-interracial-couples-e1712324547938.jpg)
Meta hat das Problem erkannt und mit einem verlinkt Blogeintrag im September veröffentlicht über die verantwortungsvolle Erstellung effizienter KI-Funktionen. Im Blogbeitrag des Unternehmens heißt es:
„Wir ergreifen Maßnahmen, um Vorurteile abzubauen. Der Umgang mit potenziellen Verzerrungen in produktiven KI-Systemen ist ein neues Forschungsgebiet. Wie bei anderen KI-Modellen kann es uns dabei helfen, unseren Ansatz zu verfeinern, wenn mehr Menschen die Funktionen nutzen und Feedback geben.“
Technologiegiganten müssen mehr tun, um rassistische Vorurteile in KI-Modellen zu beseitigen.
Unterdessen hat Sora, das Videoproduktionstool von OpenAI, ein neues Musikvideo veröffentlicht. Ich kann sagen, dass es wirklich einen unglaublichen Job gemacht hat. Andererseits warnte YouTube-CEO Neal Mohan OpenAI vor Soras Training. Die Warnung kam, nachdem Mira Murati, CTO von OpenAI, die Frage nicht beantwortet hatte: „Wurde Sora mit YouTube-Videos trainiert?“, fragte Joanna Stern vom Wall Street Journal letzten Monat.
Unten können Sie sich das von Sora produzierte Musikvideo ansehen:
Während KI-Tools zur Bilderzeugung aufgrund ihrer Möglichkeiten aufregend sind, werfen sie auch wichtige ethische Fragen auf, beispielsweise rassistische Vorurteile. Technologiegiganten müssen mehr tun, um diese Probleme anzugehen und transparent voranzukommen.
Hervorgehobener Bildnachweis: Dima Solomin / Unsplash
Source: Der KI-Bildgenerator von Meta kann keine Bilder von interrassischen Paaren erzeugen