Google wird in den Suchergebnissen Bilder offenlegen, die von künstlicher Intelligenz erstellt oder bearbeitet wurden. Der Technologieriese plant, für mehr Transparenz zu sorgen, indem er von KI erstellte oder bearbeitete Bilder mit Beschriftungen versieht.
Die Änderung erfolgt, nachdem Google mit großen Unternehmen in der Coalition for Content Provenance and Authenticity (C2PA) eine Partnerschaft eingegangen ist, deren Ziel darin besteht, die Verbreitung irreführender Informationen im Internet zu bekämpfen. Werfen wir einen Blick auf die Einzelheiten von Googles Plan, KI-generierte Inhalte zu kennzeichnen, und die damit verbundenen Fragen.
Ist Googles Jagd nach KI eine Nebensache?
In den kommenden Monaten wird Google damit beginnen, KI-generierte und bearbeitete Bilder in Suchergebnissen. Dies geschieht mithilfe von Metadaten aus dem Inhaltsangabe Standard, der Informationen enthält, wie etwa wann, wo und wie das Bild erstellt wurde. Benutzer können dieses Tag über Googles Funktion „Über dieses Bild“ sehen, die aufgerufen werden kann, indem sie in den Suchergebnissen auf die drei Punkte über einem Bild klicken.
Die Idee dahinter ist, den Benutzern die Möglichkeit zu geben, die Quelle von Bildern zu ermitteln und es einfacher zu machen, Erkennen Sie KI-generierte Inhalte. Dieser Schritt erfolgt, nachdem Google zusammen mit anderen Technologieunternehmen wie Amazon, Adobe und Microsoft die neuesten Richtlinien für Inhaltsangabe entwickelt hat. Gemeinsam hoffen diese Unternehmen, die Transparenz zu erhöhen und die Verbreitung gefälschter oder irreführender Bilder einzudämmen.
Auch wenn Googles Initiative ein Schritt in die richtige Richtung ist, muss man bedenken, dass die Kennzeichnung nicht sofort offensichtlich sein wird. Nutzer müssen aktiv nach Informationen suchen, indem sie auf den Abschnitt „Über dieses Bild“ klicken. Dadurch ist die Funktion möglicherweise weniger effektiv als manche vielleicht erwarten.
Wie erhalten Benutzer Zugriff auf KI-Informationen?
Die neue Funktion ist in Google Lens und Androids „Circle to Search“-Funktion zu finden und zeigt nun an, ob ein Bild mithilfe künstlicher Intelligenz erstellt oder geändert wurde. Wenn die Beschriftung nicht direkt angezeigt wird, kann dies dazu führen, dass viele Benutzer nicht wissen, dass dieses Tool existiert. Da zusätzliche Schritte erforderlich sind, können bestimmte Personen möglicherweise nie bestätigen, ob ein Bild mithilfe von KI erstellt wurde, es sei denn, sie sind bereits mit der Funktionalität vertraut. Selbst wenn Personen sich dessen bewusst sind, kann der Prozess dennoch schwierig sein, insbesondere wenn sie erwarten, dass von KI erstellte Bilder deutlicher gekennzeichnet sind.
Ungeachtet dieser Einschränkung könnte sich die Partnerschaft zwischen Google und C2PA als wertvoll erweisen, da der Content Credentials-Standard eine breitere Struktur zur Nachverfolgung der Herkunft digitaler Inhalte bietet. Dennoch wurde dieser Standard nicht von allen KI-Entwicklern angenommen. Einige Organisationen, wie Schwarzwaldlaborehaben sich dazu entschieden, es nicht einzuschließen, was die Bemühungen, die Quelle der von bestimmten Modellen generierten Bilder zu ermitteln, potenziell erschwert.
Bedenken hinsichtlich der Wirksamkeit: Tut Google genug?
Es gibt aber noch ein größeres Problem: KI-generierte Bilder werden immer schwieriger zu erkennen. Eine Universität von Waterloo Eine Studie ergab, dass 39 % der Menschen den Unterschied zwischen KI-generierten und echten Bildern nicht erkennen können. Wenn sich dieser Trend fortsetzt, reicht Googles Kennzeichnungssystem möglicherweise nicht aus, um Benutzern dabei zu helfen, KI-generierte Inhalte sicher zu identifizieren.
Darüber hinaus gehen andere Tech-Unternehmen nicht mit gutem Beispiel voran. Meta beispielsweise hat kürzlich Tagging-Informationen an eine weniger sichtbare Stelle in Beiträgen verschoben. Dies wirft die Frage auf, ob die Tech-Giganten wirklich bereit sind, KI-generierte Inhalte transparenter zu machen, oder ob sie nur minimale Schritte unternehmen.
Nur wenige Kameras, wie die Leica M-11P Und Nikon Z9verfügen über integrierte Inhaltsangabe. Das bedeutet, dass das System nicht so effektiv sein wird, wie es sein könnte, wenn Fotografen und Entwickler diese Tools nicht nutzen. Transparenz bei KI-generierten Inhalten hängt stark von branchenübergreifender Zusammenarbeit ab, und bisher scheinen nicht alle gleichermaßen daran interessiert zu sein.
Gleichzeitig hat die Zunahme von KI-generierten Bildern neue Bedenken hinsichtlich Fehlinformationen geweckt. Von Deepfakes bis hin zu KI-generierten Nacktfotos ist das Schadenspotenzial klar. Auch wenn Googles neues Kennzeichnungssystem nicht alle diese Probleme lösen wird, ist es doch ein kleiner Schritt zur Eindämmung der Verbreitung irreführender Inhalte im Internet.
Bildnachweise: Furkan Demirkaya / Ideogramm KI
Source: Wird Googles KI-Bild-Tag leicht zu erkennen sein?