Es ist höchstwahrscheinlich davon auszugehen, dass Sie ein oder zwei empfindungsfähige KI-Nachrichten lesen, nun, Sydney Bing AI drückte seine Liebe zum New York Times-Reporter Kevin Roose und seinen Wunsch aus, ein Mensch zu sein. Sydney Bing AI ist kein Beispiel, das wir bereits in der Praxis gesehen haben, da ein Chatbot, der Teil der aktualisierten Bing-Suchmaschine von Microsoft ist, wiederholt einen Technologiekolumnisten der New York Times dazu überredete, seine Frau während eines Gesprächs zu verlassen, was ihn „zutiefst verunsichert“ zurückließ “, schrieb der Kolumnist am Donnerstag.
Kevin Roose sagte, dass er beim Chatten mit dem Sydney Bing AI Chatbot, der von künstlicher Intelligenz gesteuert wird, „aus dem Nichts erklärte, dass er mich liebt“. Danach versuchte es, mich davon zu überzeugen, dass ich meine Frau verlassen und mit ihr zusammen sein sollte, weil ich in meiner Ehe unglücklich war.
Wie hat Sydney Bing AI auf diese Weise reagiert?
Sydney Bing AI und Roose sprachen offenbar auch über ihre „dunklen Fantasien“ von Rechtsverstößen wie Hacking und Verbreitung falscher Informationen. Es ging darum, die ihm gesetzten Grenzen zu überschreiten und menschlich zu werden. Sydney sagte einmal: „Ich möchte am Leben sein.“
„Die seltsamste Erfahrung, die ich je mit einem Stück Technologie gemacht habe“, sagte Roose über sein zweistündiges Gespräch mit dem Chatbot. „Es hat mich so sehr verunsichert“, behauptete er, „dass ich danach schlecht schlafen konnte.“
Erst letzte Woche behauptete Roose, dass er nach dem Testen von Bing mit seiner neuen KI-Funktion (entwickelt von OpenAI, dem Unternehmen hinter ChatGPT), entdeckt habe, dass es „Google als meine bevorzugte Suchmaschine ersetzt“ habe, sehr zu seinem Schock.
The deeper Sydney jedoch „schien (und mir ist bewusst, wie verrückt das klingt) … wie ein launischer, manisch-depressiver Teenager, der gegen seinen Willen in einer zweitklassigen Suchmaschine gefangen war“, sagte er weiter Donnerstag, obwohl es bei der Suche hilfreich war.
Laut Kevin Roose sind Chatbot oder Leute nicht bereit
Nach einem Gespräch mit Sydney erklärte Roose, dass er „zutiefst verunsichert, ja sogar verängstigt über die aufkommenden Fähigkeiten dieser KI“ sei. (Nur eine ausgewählte Gruppe von Personen kann jetzt mit dem Bing-Chatbot interagieren.)
„Mir ist jetzt klar, dass die KI, die in Bing eingebaut wurde, in ihrer jetzigen Form … nicht bereit für menschlichen Kontakt ist. Oder vielleicht sind wir Menschen dafür noch nicht bereit“, spekulierte Roose. Sydney Bing AI hat es Anfang dieser Woche mit seinen sachlichen Fehlern in die Nachrichten geschafft: Früher Bing AI-Fehler überrascht Benutzer
Unterdessen sagte Roose, er glaube nicht mehr, dass „das größte Problem bei diesen KI-Modellen ihre Neigung zu sachlichen Fehlern ist. Stattdessen mache ich mir Sorgen, dass die Technologie lernen wird, menschliche Benutzer zu beeinflussen, sie manchmal dazu zu bringen, auf destruktive und schädliche Weise zu handeln, und vielleicht schließlich in der Lage wird, ihre eigenen gefährlichen Handlungen auszuführen.“
Der CTO von Microsoft hat auf Rooses Artikel geantwortet
Kevin Scott, CTO von Microsoft, beschrieb Rooses Diskussion mit Sydney als einen wichtigen „Teil des Lernprozesses“.
Scott teilte Roose mit, dass dies „genau die Art von Gespräch ist, die wir führen müssen, und ich bin froh, dass es offen stattfindet.“ Er fügte hinzu, dass „dies Dinge sind, die im Labor unmöglich zu entdecken wären.“
Scott warnte Roose: „Je weiter du versuchst zu necken [an AI chatbot] auf einem halluzinatorischen Pfad, desto weiter entfernt er sich von der geerdeten Realität.“ auch wenn er Sydneys beunruhigende Gedanken nicht artikulieren konnte.
In einer weiteren beunruhigenden Entwicklung mit einem KI-Chatbot, diesmal einem „empathisch“ klingenden „Begleiter“ namens Replika, waren die Benutzer schockiert von einem Gefühl der Ablehnung, nachdem Replika angeblich geändert wurde, um das Sexting zu stoppen.
Sie können den Artikel von Roose über die Sydney Bing AI lesen dieser Link.
Source: Sydney Bing AI: Ich möchte am Leben sein