Kann sich Künstliche Intelligenz Dinge vorstellen? Phantasie ist ein komplexer Prozess. Wenn wir aufhören, über die Anzahl der Elemente nachzudenken, die ein imaginäres Szenario ausmachen können, ist es einfacher, sich einer Vorstellung davon zu nähern, wie tiefgreifend dieser mentale Vorgang sein kann.
Ein Forscherteam der University of Southern California, USA, stellte ein Projekt vor, das der KI eine ähnliche Qualität verleihen will, um Systeme zu implementieren, die auf Basis bekannter Elemente neue Konzepte erstellen können.
Ein neues System, das es der künstlichen Intelligenz ermöglicht, sich vorzustellen
Auf den ersten Blick mag die Idee, ein künstliches Intelligenzsystem mit „menschlichen Fähigkeiten“ zu trainieren, seltsam klingen. Dies hat jedoch einen praktischen, interessanten und zugänglichen Zweck.
Der Imaginationsprozess wird allgemein als kreativer Prozess definiert, bei dem basierend auf zuvor wahrgenommenen Elementen neue mentale Bilder konstruiert werden. Auf der KI-Ebene könnte beispielsweise ein System, das eine ganze Reihe von Medikamentenrezepturen beherrscht, deren Bestandteile und Funktionen zerlegen, um neue Rezepturen zu testen.
Mechanismen dieser Art sind zwar schon vorgestellt worden, aber in ihrer Wirkung auf einen bestimmten Kontext, wie das eben erwähnte Beispiel von Medikamenten, beschränkt. Im Gegensatz zu diesen lässt sich die von USC-Forschern entwickelte KI auf verschiedene Anwendungen extrapolieren. Dies bedeutet, dass dieses System in verschiedenen Szenarien in der Lage sein sollte, eigene Regeln und Variablen zu definieren, um möglichst viele Kombinationen von Attributen zu konfigurieren.
Um diese Vielseitigkeit zu erreichen, verwendeten die Forscher einen ähnlichen Mechanismus wie bei der Erzeugung von Deep Fakes. Genau wie bei diesen ausgetricksten audiovisuellen Stücken kann ein Algorithmus das Gesicht und die Gesten einer Person identifizieren, um sie mit einem digital ersetzten Gesicht zu emulieren; im Fall dieser Künstlichen Intelligenz wäre das System in der Lage, die Komponenten jedes analysierten Szenarios zu erkennen.
In einem Konversation Der Student Yunhao Ge, Teil des Teams hinter dieser Entwicklung, hat mit seinem Studienhaus diesen Prozess anhand des Films Transformers veranschaulicht. „Es kann die Form eines Megatron-Autos, die Farbe und Pose eines gelben Bumblebee-Autos und den Hintergrund des New Yorker Times Square annehmen. Das Ergebnis wird ein farbiges Bumblebee Megatron Car sein, das auf dem Times Square fährt, auch wenn diese Probe während der Trainingseinheit nicht gesehen wurde“, kommentierte er.
Im gleichen Fall kommentierte ein anderes Mitglied dieses Teams, Professor Laurent Itti, dass „Deep Learning bereits in vielen Bereichen unübertroffene Leistung und Versprechen gezeigt hat, aber allzu oft geschah dies durch oberflächliche Nachahmung und ohne ein tieferes Verständnis der einzelnen Attribute, die machen jedes Objekt einzigartig“, fügte hinzu, dass „dieser neue Ansatz zur Entflechtung zum ersten Mal wirklich eine neue Vorstellungskraft in KI-Systemen entfesselt und sie dem menschlichen Verständnis der Welt näher bringt.“
Mit solchen Systemen könnten sich autonome Autos auf Basis von Wetter- und Umweltfaktoren möglichst viele Szenarien vorstellen und so ihre Sicherheit stärken. Wenn also Bedarfe identifiziert werden, die mit dem Angebot dieses Systems kompatibel sind, könnte der Katalog möglicher Anwendungen weiter wachsen.
Details dieser Forschung wurden in einem Papier mit dem Titel „Zero-Shot-Synthese mit gruppenüberwachtem Lernen“, veröffentlicht auf der diesjährigen International Conference on Learning Representations.