Anwälte beschuldigen ChatGPT für die Aufnahme von fiktiven Rechtsgutachten und drohen mit möglichen Sanktionen

lawyers-blame-chatgpt-for-inclusion-of-fictitious-legal-research,-face-possible-sanctions

In einer überraschenden Wendung der Ereignisse sahen sich zwei Anwälte vor einem Bundesgericht in Manhattan mit einer möglichen Strafe konfrontiert, nachdem ChatGPT, ein von künstlicher Intelligenz gesteuerter Chatbot, sie angeblich dazu gebracht hatte, in einer Gerichtsakte gefälschte Rechtsprechung zu zitieren.

Die Anwälte Steven A. Schwartz und Peter LoDuca haben sich beim Gericht entschuldigt und Reue gezeigt, weil sie sich in einer Klage gegen die kolumbianische Fluggesellschaft Avianca auf fiktive juristische Untersuchungen bezogen haben.

Die Enthüllung der Rolle von ChatGPT

Auf der Suche nach juristischen Präzedenzfällen, die die Klage seines Mandanten gegen Avianca wegen einer auf einem Flug im Jahr 2019 erlittenen Verletzung unterstützen, wandte sich Schwartz an das bahnbrechende Programm ChatGPT.

Dieser KI-gesteuerte Chatbot hatte weltweit für seine Fähigkeit, detaillierte Antworten auf Benutzeranfragen zu geben, Aufmerksamkeit erregt. Schwartz verließ sich auf die Vorschläge von ChatGPT, der mehrere Fälle von Flugunfällen anbot, die er mit herkömmlichen Recherchemethoden nicht hatte finden können.

Die Entdeckung von fiktiven Fällen

Leider mussten die Anwälte bald feststellen, dass mehrere der von ChatGPT empfohlenen Fälle frei erfunden waren oder nicht existierende Fluggesellschaften betrafen.

Bei einer Anhörung vor Gericht erklärte Schwartz, dass er in dem Irrglauben gehandelt habe, der Chatbot greife auf Fälle aus einer nicht genannten Quelle zu, die ihm nicht zugänglich sei.

Schwartz gab zu, dass er es versäumt hatte, die Richtigkeit der Zitate zu überprüfen, und äußerte sich überrascht über die Fähigkeit von ChatGPT, Fälle zu fabrizieren.

Enttäuschte Richterin und entschuldigende Anwälte

Der US-Bezirksrichter P. Kevin Castel äußerte seine Verwunderung und Enttäuschung über das Vorgehen der Anwälte. Die Anwälte von Avianca und das Gericht hatten Schwartz zuvor auf die Einbeziehung der gefälschten Rechtsprechung aufmerksam gemacht, aber es wurden damals keine Korrekturmaßnahmen ergriffen.

Richter Castel stellte Schwartz einen der erfundenen Fälle vor und betonte, dass es sich um juristisches Kauderwelsch handele. Beide Anwälte, Schwartz und LoDuca, entschuldigten sich aufrichtig und räumten ein, dass der Fehler persönliche und berufliche Konsequenzen nach sich zieht.

Auswirkungen und Bedenken im Zusammenhang mit der KI-Technologie

Die Rolle von ChatGPT in diesem juristischen Missgeschick hat Bedenken über die Folgen des Verlassens auf KI-Technologien geweckt, ohne deren Grenzen und Risiken vollständig zu verstehen.

Der Erfolg der KI, der durch Microsofts 1-Milliarde-Dollar-Investition in OpenAI, das Unternehmen hinter ChatGPT, veranschaulicht wird, hat zu einer weltweiten Debatte über die Abschwächung der mit dieser transformativen Technologie verbundenen Risiken geführt.

Branchenführer haben betont, dass die Bewältigung von KI-Risiken neben anderen globalen Problemen wie Pandemien und Atomkriegen Priorität haben muss.

Gelernte Lektionen und künftige Sicherheitsvorkehrungen

Schwartz und LoDuca sowie ihre Anwaltskanzlei Levidow, Levidow & Oberman haben sich verpflichtet, Schutzmaßnahmen zu ergreifen, um ähnliche Vorfälle in Zukunft zu verhindern.

Ronald Minkoff, ein Anwalt, der die Anwaltskanzlei vertrat, argumentierte, dass die Einreichung eher auf Nachlässigkeit als auf Bösgläubigkeit zurückzuführen sei und forderte das Gericht auf, keine Sanktionen zu verhängen. Er hob die Herausforderungen hervor, vor denen Anwälte bei der Anpassung an neue Technologien stehen, und betonte die Notwendigkeit eines tieferen Verständnisses ihrer Funktionen.

Warten auf Sanktionen und Überlegungen der Industrie

Der Richter schloss die Anhörung ab, indem er sich ein Urteil über mögliche Sanktionen vorbehielt und darauf hinwies, dass eine Entscheidung zu einem späteren Zeitpunkt getroffen werden würde. Der Vorfall mit ChatGPT hat in der juristischen Gemeinschaft erhebliche Diskussionen ausgelöst, insbesondere während einer Konferenz, die vor kurzem Juristen aus staatlichen und bundesstaatlichen Gerichten zusammenbrachte. Der Fall hat als Weckruf gedient und die Risiken aufgezeigt, die mit dem Einsatz von KI-Technologien ohne umfassendes Wissen über deren Fähigkeiten und Grenzen verbunden sind.

Während sich die Rechtswelt mit den Auswirkungen dieses Vorfalls auseinandersetzt, unterstreicht der Vorwurf, ChatGPT habe Anwälte dazu verleitet, fiktive juristische Untersuchungen zu zitieren, wie wichtig es ist, die Risiken und Grenzen der KI-Technologie zu verstehen. Da der Richter nun über mögliche Sanktionen entscheiden wird, dient dieser Fall als Erinnerung daran, dass ein vorsichtiger Ansatz und ein tieferes Verständnis dieser Technologien von entscheidender Bedeutung sind, um ähnliche Fehler in der Zukunft zu vermeiden, da die KI weiterhin verschiedene Branchen prägt.