Viele Kanzleien. Ein starkes Netzwerk.
Aktuelles
Neues aus Markt und Netzwerk
 

KI lieferte fehlerhafte Ergebnisse Drohendes Disziplinarverfahren nach der Nutzung des KI-Tools ChatGPT zur juristischen Recherche

Zwei New-Yorker Anwälten – Peter Loduca und Steven Schwartz – der Kanzlei  Levidow, Levidow & Oberman , droht aktuell die Einleitung eines Disziplinarverfahrens wegen der Einsetzung des KI-Tools ChatGPT. Was war passiert?

ChatGPT als KI-Tool

ChatGPT ist ein Modell künstlicher Intelligenz des Unternehmens Open AI, welches auf sog. Prompts (Anfragen) Texte erstellt. Das Unternehmen weißt dabei darauf hin, dass die erstellen Texte „ungenaue Informationen“ beinhalten können. Erfahrungsgemäß kommt es dabei regelmäßig dazu, dass ChatGPT (juristisch) falsche Inhalte und / oder Quellen aufführt und solche schlicht erfindet.

Diese Gefahr wurde durch die Kollegen Loduca und Schwartz offenbar ignoriert, indem das sie bei Gericht einen Schriftsatz einreichten, welcher Verweise und Zitate auf zahlreiche vergangene Gerichtsentscheidungen enthielt. Damit wollte das Anwaltsteam die Erfolgsaussichten des eigenen Mandanten untermauern. Den Anwälten der gegnerischen Fluggesellschaft fiel auf, dass zahlreiche der angeführten vermeintlichen Präzedenzfälle überhaupt nicht auffindbar waren und wies im laufenden Gerichtsverfahren darauf hin.

Laut dem zuständigen Richter ein „noch nie dagewesener Umstand“

Der im Verfahren zuständige Richter Castel stellte daraufhin fest, dass insgesamt 6 zitierte Fälle vollkommen erfunden waren. Dabei hatte das KI-Tool nicht nur die Gerichtsentscheidungen an sich frei erfunden, sondern auch dazugehörige Inhalte, Zitate und interne Verweise.  Richter Castel bezeichnete diesen Vorfall als „noch nie dagewesenen Umstand“, da nach seiner Kenntnis in einem Schriftsatz noch nie auf juristische Beispielfälle verwiesen wurde, die sich als nicht existent herausstellten.

Kollege Loduca wies darauf hin, dass allein sein Kollege Schwartz mit der Recherche beauftragt worden war. Letzterer gab an, ChatGPT tatsächlich zur Recherche ähnlicher Fälle genutzt zu haben und bestätigte, dass Kollege Loduca von seiner Nutzung des KI-Tools im konkreten Fall nichts gewusst habe. Zu seiner Verteidigung gab Kollege Schwartz an nicht gewusst zu haben, das ChatGPT auch fehlerhafte Ergebnisse liefern könne und versicherte, zukünftig keine KI mehr zur juristischen Recherche zu verwenden, ohne vor Einreichung deren Authentizität geprüft zu haben.

Beide Anwälte erhalten Gelegenheit sich bei einer Anhörung am kommenden 8. Juni zu ihrem Vorgehen zu äußern und zu erläutern, warum sie keine disziplinarischen Maßnahmen verdienen.

Wir gehen davon aus, dass dieser Fall in der juristischen Gemeinschaft eine Debatte über den möglichen Einsatz von KI-Tools in der juristischen Recherche und Fallbearbeitung auslösen wird. Dabei wird es auch und die Frage der Notwendigkeit umfassender Richtlinien zur Vermeidung von Präzedenzfällen gehen müssen.

Alle Fachbeiträge zeigen

Produkthaftung, Produkthaftungsrecht
20.10.2025

Die neue Produkthaftungsrichtlinie (NLD)

Was genau ändert sich mit der neuen Produkthaftungsrichtlinie, die bis spätestens Anfang Dezember 2026 von den Mitgliedstaaten umgesetzt werden muss?

Beitrag lesen
Gesellschaftsrecht
20.10.2025

Achten Sie auf die Uhr: Was, wenn die Gesellschafterversammlung zu früh beginnt? (NLD)

Was geschieht, wenn eine Gesellschafterversammlung früher als in der Einberufung angekündigt beginnt und nicht alle Gesellschafter rechtzeitig anwesend sein konnten? Ist der gefasste Beschluss dann ungültig?

Beitrag lesen
Datenschutzrecht
20.10.2025

Urteil des EuGH: der Begriff „Unternehmen“ und die Folgen für die Berechnung von Geldbußen bei Datenschutzverstößen

Der Gerichtshof der Europäischen Union hat in seinem Urteil in der Rechtssache C-383/23 Hinweise dazu gegeben, wie die Höhe von Geldbußen bei Verstößen gegen die niederländische Algemene Verordening Gegevensbescherming (kurz: AVG, Äquivalent zur DSGVO) zu bemessen ist, und (einige) Faktoren für deren Berechnung näher erläutert.

Beitrag lesen