KI-generierter juristischer Fauxpas: Cohens Fall nimmt eine technologische Wendung

ai-generated-legal-faux-pas-cohen's-case-takes-a-technological-twist

Michael Cohen, der ehemalige Anwalt von Donald Trump, ist in eine einzigartige Situation geraten, in der künstliche Intelligenz Zitate aus Rechtsfällen generiert hat. Diese Entwicklung, die sich vor einem Bundesgericht in Manhattan abspielt, unterstreicht den wachsenden Einfluss der KI auf verschiedene Berufsfelder, darunter auch das Recht.

Cohen, der sich zuvor unter anderem der Steuerhinterziehung, des Verstoßes gegen die Wahlkampffinanzierung und der Lüge gegenüber dem Kongress schuldig bekannt hatte, steht seit seiner Inhaftierung unter gerichtlicher Aufsicht. In dem Bestreben, diese Überwachung frühzeitig zu beenden, hat sein Anwalt, David M. Schwartz, einen Antrag bei Gericht eingereicht. Der Antrag enthielt jedoch unerwartet gefälschte Rechtsprechungszitate, was Cohen zum Zeitpunkt der Einreichung nicht wusste.

Diese gefälschten Zitate stammen von Google Bard, einem KI-Dienst, der ChatGPT ähnelt und den Cohen für seine juristischen Recherchen nutzte. Indem er es für eine fortgeschrittene Suchmaschine hielt, erkannte Cohen nicht, dass Google Bard, ähnlich wie sein in Microsoft Bing integriertes Gegenstück, in der Lage ist, fiktive Informationen zu erzeugen. Dieses Phänomen, das in KI-Kreisen als „Halluzination“ bekannt ist, führte dazu, dass nicht existierende Rechtsfälle in den Antrag aufgenommen wurden.

Die Enthüllung kam ans Licht, nachdem Richter Jesse Furman, der den Vorsitz in dem Fall führte, die Herkunft dieser falschen Zitate hinterfragte. Cohens Antwort deutete darauf hin, dass er, ein ausgeschlossener Anwalt, auf Online-Ressourcen für juristische Recherchen zurückgegriffen hatte, da er keinen Zugang zu offiziellen juristischen Datenbanken mehr hatte. Sein Vertrauen in Google Bard, ein Produkt, das Anfang des Jahres als Reaktion auf die aufkeimende KI-Industrie auf den Markt gebracht wurde, führte versehentlich zu diesem ungewöhnlichen juristischen Malheur.

Schwartz, Cohens Anwalt und langjähriger Freund, wurde als derjenige bezeichnet, der es versäumt hat, die Gültigkeit dieser Zitate vor ihrer Vorlage zu überprüfen. Cohen hat jedoch im Namen von Schwartz um Nachsicht gebeten und dieses Versehen auf einen ehrlichen Irrtum und nicht auf eine Täuschungsabsicht zurückgeführt.

In einer interessanten Nebenhandlung glaubte Schwartz, dass die Entwürfe der eingereichten Papiere von einem anderen von Cohens Anwälten, E. Danya Perry, überprüft wurden, was Perry entschieden bestritten hat. Als Perry die falschen Vorladungen entdeckte, meldete er sie umgehend dem Richter und den Bundesanwälten.

Dieser Vorfall ist kein Einzelfall. Anfang des Jahres ging es in einem anderen Fall vor dem Bundesgericht in Manhattan um ein ähnliches Problem, bei dem Anwälte zu einer Geldstrafe verurteilt wurden, weil sie gefälschte, von ChatGPT generierte Fälle zitiert hatten.

Die Geschichte erhält durch Trumps laufende Rechtsstreitigkeiten eine breitere Dimension. In einem separaten Verfahren vor einem New Yorker Gericht bekannte sich Trump nicht schuldig im Hinblick auf 34 Straftaten im Zusammenhang mit der Fälschung von Geschäftsunterlagen in seiner Privatfirma, die auf Schweigegeldzahlungen zurückgehen sollen. Der ehemalige Präsident hat auch in drei anderen Strafverfahren auf nicht schuldig plädiert und diese Anklagen als eine Strategie bezeichnet, um seine mögliche Präsidentschaftskampagne 2024 zu untergraben.

Cohens unbeabsichtigter Fehltritt mit KI-generierten Rechtszitaten wirft nicht nur ein Schlaglicht auf die Komplexität und die Fallstricke aufkommender Technologien in der beruflichen Praxis, sondern fügt auch eine weitere Ebene zu den laufenden juristischen Dramen um Trump und seine Mitarbeiter hinzu. Da KI weiterhin verschiedene Sektoren durchdringt, dient dieser Fall als abschreckendes Beispiel für die Notwendigkeit von Wachsamkeit und Überprüfung im digitalen Zeitalter.