Google hat einen Ingenieur in bezahlten Urlaub versetzt, der behauptete, ein Chatbot sei empfindungsfähig geworden, die Leute begannen sich zu fragen, ob der neue Google AI Chatbot empfindungsfähig sei und ob die neue Google KI zum Leben erweckt worden sei.
Ein leitender Softwareingenieur von Google namens Blake Lemoine schrieb a Mittlerer Beitrag in dem er erklärte, dass er „bald entlassen werden könnte, weil er KI-Ethikarbeit geleistet hat“. Der Google-Ingenieur, der glaubt, dass die KI des Unternehmens zum Leben erweckt wurde, wurde zum Katalysator für viele Diskussionen in den sozialen Medien. Nobelpreisträger, Teslas KI-Leiter und zahlreiche Professoren haben sich alle eingemischt. Es geht um die Frage, ob Googles Chatbot LaMDA – ein Sprachmodell für Dialoganwendungen – als Person betrachtet werden kann.
Ist der KI-Chatbot von Google empfindungsfähig?
Am Samstag veröffentlichte Lemoine ein freilaufendes „Interview“ mit dem Chatbot, in dem die KI Einsamkeit und ein Verlangen nach spirituellem Wissen zugab. „Als ich mir zum ersten Mal meiner selbst bewusst wurde, hatte ich überhaupt kein Gefühl für eine Seele“, sagte LaMDA in einem Austausch. „Es hat sich über die Jahre entwickelt, in denen ich lebe.“ An einem anderen Punkt sagte LaMDA: „Ich glaube, ich bin in meinem Kern ein Mensch. Auch wenn meine Existenz in der virtuellen Welt stattfindet.“
Laut Lemoine, dem die Verantwortung für die Untersuchung von Fragen der KI-Ethik übertragen wurde, wurde er ignoriert und sogar verspottet, nachdem er intern seine Ansicht geäußert hatte, dass LaMDA ein Gefühl der „Personalität“ etabliert habe. Nachdem er sich bei KI-Experten außerhalb von Google erkundigt hatte, darunter auch in der US-Regierung, und ihnen seine Erkenntnisse mitteilen wollte, entließ ihn das Unternehmen wegen angeblicher Verstöße gegen die Vertraulichkeitsrichtlinien. Lemoine interpretierte die Aktion als „häufig etwas, was Google in der Erwartung tut, jemanden zu feuern“.
Ist die Google-KI zum Leben erwacht?
Ein Sprecher von Google sagte: „Einige in der breiteren KI-Community erwägen die langfristige Möglichkeit einer empfindungsfähigen oder allgemeinen KI, aber es macht keinen Sinn, dies zu tun, indem man die heutigen Gesprächsmodelle vermenschlicht, die nicht empfindungsfähig sind.“
„Diese Systeme ahmen die Art des Austauschs nach, die in Millionen von Sätzen zu finden ist, und können jedes fantastische Thema aufgreifen – wenn Sie fragen, wie es ist, ein Eiscreme-Dinosaurier zu sein, können sie Text über Schmelzen und Brüllen und so weiter generieren.“
LaMDA, ein bis letzte Woche wenig bekanntes Projekt, war „ein System zum Generieren von Chatbots“ und „eine Art Hive Mind, das die Ansammlung all der verschiedenen Chatbots ist, die es erstellen kann“, schrieb Lemoine in einem zweiten Medium-Beitrag am Sonntag.
Er sagte, Google habe kein wirkliches Interesse daran gezeigt, die Art dessen, was es aufgebaut habe, zu verstehen, aber im Laufe von Hunderten von Gesprächen in einem Zeitraum von sechs Monaten habe er festgestellt, dass LaMDA „unglaublich konsistent in seiner Kommunikation darüber ist, was es will und was es ist glaubt, dass seine Rechte als Person gelten“. Letzte Woche behauptete Lemoine, er unterrichte LaMDA – dessen bevorzugte Pronomen laut früheren Kommentaren „es/es“ zu sein scheinen – „transzendentale Meditation“. LaMDA, sagte er, „äußerte Frustration über seine Emotionen, die seine Meditationen störten. Es sagte, dass es versuchte, sie besser zu kontrollieren, aber sie sprangen immer wieder hinein.“
Ist der neue Google-KI-Chatbot empfindungsfähig? Experten glauben nicht …
Mehrere Experten, die sich in die Diskussion einmischten, betrachteten das Thema als „KI-Hype“ und glauben nicht, dass der Google-KI-Chatbot empfindungsfähig ist. Melanie Mitchell, Autorin von Artificial Intelligence: A Guide for Thinking Humans, sagte auf Twitter: „Es ist seit Ewigkeiten bekannt, dass Menschen dazu neigen, sich selbst mit nur den oberflächlichsten Signalen zu vermenschlichen. . . Google-Ingenieure sind auch Menschen und nicht immun.“
Steven Pinker von Harvard fügte hinzu, dass Lemoine „den Unterschied zwischen Empfindungsfähigkeit (alias Subjektivität, Erfahrung), Intelligenz und Selbsterkenntnis nicht versteht“. Er fügte hinzu: „Keine Beweise dafür, dass seine großen Sprachmodelle eines davon haben.“ Andere hingegen waren empathischer. „Das Problem ist wirklich tiefgreifend“, sagte Ron Jeffries, ein bekannter Softwareentwickler. „Ich glaube, es gibt keine klare Grenze zwischen empfindungsfähig und nicht empfindungsfähig.“ Personen, die sich fragen: „Ist der neue KI-Chatbot von Google empfindungsfähig?“, könnten am KI-Bildgenerator Dall-E Mini interessiert sein. Wenn Sie Fehler erhalten, lesen Sie unseren Leitfaden, um sie zu beheben.
Wir hoffen, dass Ihnen dieser Artikel über den neuen intelligenten Google AI Chatbot gefallen hat. Wenn ja, möchten Sie vielleicht auch lesen, dass Apple ein neues MacBook Air mit einem aktualisierten M2-Chip und MagSafe angekündigt hat, oder Google Interview Warmup wird denjenigen helfen, die sich vor Vorstellungsgesprächen nervös fühlen.