Viele Kanzleien. Ein starkes Netzwerk.
Aktuelles
Neues aus Markt und Netzwerk
 

Haftung für falsche Auskünfte von Chatbots Fehlinformation von der Künstlichen Intelligenz - Air Canada muss für falsche Auskunft des Chatbots über Rabatt geradestehen

Vergleichbare Urteile zur Künstlichen Intelligenz lassen hierzulande noch auf sich warten – das dürfte allerdings nur noch eine Frage der Zeit sein. Denn um Personal einzusparen, setzen Unternehmen bei der Kommunikation mit den Kunden zunehmend auf Chatbots: Kundenfragen werden mithilfe künstlicher Intelligenz beantwortet. Der konkrete Fall spielte sich in Kanada ab:

Ein Mann informierte sich nach dem Tod seiner Großmutter bei der Fluggesellschaft Air Canada über Flüge von Vancouver nach Toronto, weil er zur Beerdigung fliegen wollte. Im Internet erfuhr er von „Trauertarifen“ des Unternehmens – reduzierte Flugpreise für Personen, die nach dem Tod eines Angehörigen zur Trauerfeier reisen. Das Angebot wollte der Kunde wahrnehmen und korrespondierte über die Website mit dem Chatbot-Programm der Airline.

Der virtuelle Assistent teilte mit, der Kunde könne das Last-Minute-Ticket nach Toronto zunächst zum normalen Tarif kaufen und sich den Differenzbetrag zum reduzierten Preis innerhalb von 90 Tagen erstatten lassen. Der Preis von ca. 1.640 Dollar für Hin- und Rückflug verringere sich dann auf 380 Dollar pro Ticket plus Gebühren. Der Chatbot verlinkte auch die Informationen über die Trauertarife: Denen hätte der Kunde entnehmen können, dass so eine Erstattung nicht vorgesehen war.

Doch er klickte die Informationen auf der Website nicht mehr an, sondern verließ sich auf die Auskunft des Chatbots und erwarb reguläre Tickets. Den Antrag des Kunden auf Erstattung lehnte Air Canada jedoch unter Verweis auf die Vertragsbedingungen ab: Nachträglichen Rabatt gebe es bei den Trauertarifen nicht. Daraufhin zog der Mann vor Gericht und verlangte den Rabatt, der ihm zugesagt worden sei.

Wie hat das Gericht entschieden?

Die Fehlinformation der Künstlichen Intelligenz sei der Fluggesellschaft zuzurechnen, entschied das Civil Resolution Tribunal of British Columbia (BCCRT 149). Air Canada müsse dem Kunden den vom Chatbot versprochenen Rabatt gewähren und seine Anwaltskosten ersetzen.

Dass die Auskunft des Chatbots weniger vertrauenswürdig sein solle als die – verbindlichen – Informationen auf der Website des Unternehmens, sei für Kunden nicht zu erkennen. Wenn die Fluggesellschaft beim Kundenservice einen Chatbot einsetze, müssten dessen Aussagen ebenso gelten wie die Aussagen auf der Website. Die Airline müsse sicherstellen, dass der virtuelle Assistent Kunden korrekt informiere.

Urteil des Civil Resolution Tribunal (British Columbia, Kanada) vom 14.02.2024 – BCCRT 149

Alle Fachbeiträge zeigen