Viele Kanzleien. Ein starkes Netzwerk.
Aktuelles
Neues aus Markt und Netzwerk
 

KI lieferte fehlerhafte Ergebnisse Drohendes Disziplinarverfahren nach der Nutzung des KI-Tools ChatGPT zur juristischen Recherche

Zwei New-Yorker Anwälten – Peter Loduca und Steven Schwartz – der Kanzlei  Levidow, Levidow & Oberman , droht aktuell die Einleitung eines Disziplinarverfahrens wegen der Einsetzung des KI-Tools ChatGPT. Was war passiert?

ChatGPT als KI-Tool

ChatGPT ist ein Modell künstlicher Intelligenz des Unternehmens Open AI, welches auf sog. Prompts (Anfragen) Texte erstellt. Das Unternehmen weißt dabei darauf hin, dass die erstellen Texte „ungenaue Informationen“ beinhalten können. Erfahrungsgemäß kommt es dabei regelmäßig dazu, dass ChatGPT (juristisch) falsche Inhalte und / oder Quellen aufführt und solche schlicht erfindet.

Diese Gefahr wurde durch die Kollegen Loduca und Schwartz offenbar ignoriert, indem das sie bei Gericht einen Schriftsatz einreichten, welcher Verweise und Zitate auf zahlreiche vergangene Gerichtsentscheidungen enthielt. Damit wollte das Anwaltsteam die Erfolgsaussichten des eigenen Mandanten untermauern. Den Anwälten der gegnerischen Fluggesellschaft fiel auf, dass zahlreiche der angeführten vermeintlichen Präzedenzfälle überhaupt nicht auffindbar waren und wies im laufenden Gerichtsverfahren darauf hin.

Laut dem zuständigen Richter ein „noch nie dagewesener Umstand“

Der im Verfahren zuständige Richter Castel stellte daraufhin fest, dass insgesamt 6 zitierte Fälle vollkommen erfunden waren. Dabei hatte das KI-Tool nicht nur die Gerichtsentscheidungen an sich frei erfunden, sondern auch dazugehörige Inhalte, Zitate und interne Verweise.  Richter Castel bezeichnete diesen Vorfall als „noch nie dagewesenen Umstand“, da nach seiner Kenntnis in einem Schriftsatz noch nie auf juristische Beispielfälle verwiesen wurde, die sich als nicht existent herausstellten.

Kollege Loduca wies darauf hin, dass allein sein Kollege Schwartz mit der Recherche beauftragt worden war. Letzterer gab an, ChatGPT tatsächlich zur Recherche ähnlicher Fälle genutzt zu haben und bestätigte, dass Kollege Loduca von seiner Nutzung des KI-Tools im konkreten Fall nichts gewusst habe. Zu seiner Verteidigung gab Kollege Schwartz an nicht gewusst zu haben, das ChatGPT auch fehlerhafte Ergebnisse liefern könne und versicherte, zukünftig keine KI mehr zur juristischen Recherche zu verwenden, ohne vor Einreichung deren Authentizität geprüft zu haben.

Beide Anwälte erhalten Gelegenheit sich bei einer Anhörung am kommenden 8. Juni zu ihrem Vorgehen zu äußern und zu erläutern, warum sie keine disziplinarischen Maßnahmen verdienen.

Wir gehen davon aus, dass dieser Fall in der juristischen Gemeinschaft eine Debatte über den möglichen Einsatz von KI-Tools in der juristischen Recherche und Fallbearbeitung auslösen wird. Dabei wird es auch und die Frage der Notwendigkeit umfassender Richtlinien zur Vermeidung von Präzedenzfällen gehen müssen.

Alle Fachbeiträge zeigen