Viele Kanzleien. Ein starkes Netzwerk.
Aktuelles
Neues aus Markt und Netzwerk
 

KI lieferte fehlerhafte Ergebnisse Drohendes Disziplinarverfahren nach der Nutzung des KI-Tools ChatGPT zur juristischen Recherche

Zwei New-Yorker Anwälten – Peter Loduca und Steven Schwartz – der Kanzlei  Levidow, Levidow & Oberman , droht aktuell die Einleitung eines Disziplinarverfahrens wegen der Einsetzung des KI-Tools ChatGPT. Was war passiert?

ChatGPT als KI-Tool

ChatGPT ist ein Modell künstlicher Intelligenz des Unternehmens Open AI, welches auf sog. Prompts (Anfragen) Texte erstellt. Das Unternehmen weißt dabei darauf hin, dass die erstellen Texte „ungenaue Informationen“ beinhalten können. Erfahrungsgemäß kommt es dabei regelmäßig dazu, dass ChatGPT (juristisch) falsche Inhalte und / oder Quellen aufführt und solche schlicht erfindet.

Diese Gefahr wurde durch die Kollegen Loduca und Schwartz offenbar ignoriert, indem das sie bei Gericht einen Schriftsatz einreichten, welcher Verweise und Zitate auf zahlreiche vergangene Gerichtsentscheidungen enthielt. Damit wollte das Anwaltsteam die Erfolgsaussichten des eigenen Mandanten untermauern. Den Anwälten der gegnerischen Fluggesellschaft fiel auf, dass zahlreiche der angeführten vermeintlichen Präzedenzfälle überhaupt nicht auffindbar waren und wies im laufenden Gerichtsverfahren darauf hin.

Laut dem zuständigen Richter ein „noch nie dagewesener Umstand“

Der im Verfahren zuständige Richter Castel stellte daraufhin fest, dass insgesamt 6 zitierte Fälle vollkommen erfunden waren. Dabei hatte das KI-Tool nicht nur die Gerichtsentscheidungen an sich frei erfunden, sondern auch dazugehörige Inhalte, Zitate und interne Verweise.  Richter Castel bezeichnete diesen Vorfall als „noch nie dagewesenen Umstand“, da nach seiner Kenntnis in einem Schriftsatz noch nie auf juristische Beispielfälle verwiesen wurde, die sich als nicht existent herausstellten.

Kollege Loduca wies darauf hin, dass allein sein Kollege Schwartz mit der Recherche beauftragt worden war. Letzterer gab an, ChatGPT tatsächlich zur Recherche ähnlicher Fälle genutzt zu haben und bestätigte, dass Kollege Loduca von seiner Nutzung des KI-Tools im konkreten Fall nichts gewusst habe. Zu seiner Verteidigung gab Kollege Schwartz an nicht gewusst zu haben, das ChatGPT auch fehlerhafte Ergebnisse liefern könne und versicherte, zukünftig keine KI mehr zur juristischen Recherche zu verwenden, ohne vor Einreichung deren Authentizität geprüft zu haben.

Beide Anwälte erhalten Gelegenheit sich bei einer Anhörung am kommenden 8. Juni zu ihrem Vorgehen zu äußern und zu erläutern, warum sie keine disziplinarischen Maßnahmen verdienen.

Wir gehen davon aus, dass dieser Fall in der juristischen Gemeinschaft eine Debatte über den möglichen Einsatz von KI-Tools in der juristischen Recherche und Fallbearbeitung auslösen wird. Dabei wird es auch und die Frage der Notwendigkeit umfassender Richtlinien zur Vermeidung von Präzedenzfällen gehen müssen.

Alle Fachbeiträge zeigen

Briefkasten
Arbeitsrecht, Allgemeines Zivilrecht
20.02.2026

Zugang von Kündigung: Warum Einwurf-Einschreiben nach neuer Rechtsprechung nicht mehr ausreichen

Digitalisierung des Zustellverfahrens mindert die Beweiskraft

Beitrag lesen
Partner-Familie-Ehe
Zivilrecht, Allgemeines Zivilrecht, Familienrecht
20.02.2026

Ausgleich von Mietzahlungen nach Trennung

Nichteheliche Lebensgemeinschaft beendet: Partner hat keinen automatischen Anspruch auf Ausgleich von Mietzahlungen

Beitrag lesen
Experte-Gutachten-Sachverständiger-Bau-Werk
Werkvertragsrecht, Insolvenzrecht
06.02.2026

Mangelhafte Werkleistung und Insolvenz: Wann wird Werklohn trotz Mängeln fällig?

Ein Handwerksbetrieb deckt das Dach eines Hauses, doch nach Abschluss der Arbeiten bemängelt der Auftraggeber die Ausführung, gravierende Fehler sind unübersehbar. Kurz darauf wird über das Vermögen des Handwerkers das Insolvenzverfahren eröffnet.

Beitrag lesen