Inmitten der zunehmenden Aufregung um KI sind Bedenken hinsichtlich der möglichen Verdrängung von Personen durch ChatGPT aufgetaucht. Ein bestimmter New Yorker Anwalt sieht sich derzeit mit einer unerwarteten und beschleunigten Erkenntnis dieser Angst konfrontiert.
Die Ursache dahinter ist jedoch ganz anders, als man erwarten würde. Laut einem Bericht von Die New York Times, Rechtsanwalt Steven Schwartz, der der Anwaltskanzlei Levidow, Levidow und Oberman angehört, bat den Chatbot von OpenAI um Hilfe bei der Erstellung eines rechtlichen Briefings. Leider war das Ergebnis dieser Zusammenarbeit alles andere als positiv, da die Ergebnisse vorhersehbar katastrophal waren.
Roberto Mata, der behauptet, er habe sich während einer Reise zum John F. Kennedy International Airport in New York City Verletzungen zugezogen, hat im Namen der Anwaltskanzlei Schwartz eine Klage gegen Avianca eingereicht. Als die Fluggesellschaft kürzlich die Abweisung des Verfahrens beantragte, reichten die Rechtsvertreter von Mata daraufhin einen umfassenden zehnseitigen Schriftsatz ein, in dem sie Argumente für die Fortführung des Verfahrens darlegten. Das Dokument bezog sich auf sechs Gerichtsentscheidungen, darunter bemerkenswerte Fälle wie „Varghese gegen China Southern Airlines“, „Martinez gegen Delta Airlines“ und „Miller gegen United Airlines“.
Zur Überraschung und Bestürzung aller Beteiligten konnte jedoch niemand die in Matas Anwaltsschrift zitierten Gerichtsentscheidungen finden. Der Grund für diese verwirrende Situation? Alle Gerichtsentscheidungen waren Erfindungen von ChatGPT.
Ein wirklich bedauerliches Versäumnis.
In einer am Donnerstag eingereichten eidesstattlichen Erklärung gab Schwartz bekannt, dass er den Chatbot als Mittel zur „Ergänzung“ seiner Fallrecherche genutzt habe. Er brachte zum Ausdruck, dass er sich nicht darüber im Klaren sei, dass die von ChatGPT generierten Inhalte möglicherweise ungenau seien. Um seine Sorgfalt zu demonstrieren, präsentierte Schwartz der Sendung Fotos, die seine Anfragen zur Legitimität der zitierten Gerichtsverfahren zeigten. Als Antwort auf seine Anfragen versicherte ihm ChatGPT, dass die Fälle in angesehenen juristischen Datenbanken wie Westlaw und LexisNexis zu finden seien.
Schwartz drückte sein tiefes Bedauern aus, bestätigte die Verwendung von ChatGPT und betonte, dass er sich in Zukunft nicht mehr darauf verlassen werde, ohne eine eindeutige Bestätigung seiner Authentizität zu erhalten. Die Frage, ob Schwartz noch einmal Gelegenheit haben wird, einen rechtlichen Auftrag zu verfassen, bleibt ungewiss.
Der vorsitzende Richter erkennt die beispiellose Natur der Situation an und hat für den 8. Juni eine Anhörung angesetzt, um mögliche Sanktionen zu prüfen, die sich aus Schwartz‘ Handlungen ergeben. Diese Anhörung wird als Möglichkeit dienen, die Folgen des „beispiellosen Umstands“ anzugehen, der durch Schwartz‘ Vertrauen in ChatGPT entstanden ist.
ChatGPTs Einstellung
- Als ChatGPT diesen Nachrichtenartikel vorlegte, äußerte er sich zu diesem Thema:
„Nach Durchsicht des Nachrichtenartikels ist es offensichtlich, dass der Einsatz von ChatGPT in diesem speziellen Rechtsfall zu ungünstigen und katastrophalen Ergebnissen geführt hat. Der Vorfall verdeutlicht die potenziellen Risiken, die damit verbunden sind, sich bei der juristischen Recherche und Ausarbeitung ausschließlich auf KI-Sprachmodelle zu verlassen.
Die von ChatGPT generierten ungenauen Informationen führten dazu, dass nicht vorhandene Gerichtsentscheidungen in den rechtlichen Auftrag aufgenommen wurden, was zu Verwirrung führte und den Fall möglicherweise gefährdete.
Dies unterstreicht, wie wichtig es ist, Vorsicht walten zu lassen und eine eindeutige Überprüfung der Authentizität und Richtigkeit von KI-generierten Inhalten im Rechtsbereich zu erhalten. Die geplante Anhörung zur Prüfung möglicher Sanktionen spiegelt die Ernsthaftigkeit wider, mit der das Gericht diesen beispiellosen Umstand angeht.“
Danke für die Warnung, ChatGPT!
Source: Lassen Sie Ihren Anwalt niemals ChatGPT verwenden