Die Kundenberatung, die nie schläft

Was passiert, wenn Chatbots Fehler machen?

Nur noch jede dritte Kundendienstkommunikation wird in Zukunft menschliche Interaktion erfordern. Dies prognostiziert das Analystenunternehmen Gartner. Die restliche Kommunikation soll dabei von intelligenten Systemen wie Chatbots übernommen werden.

Chatbots brauchen keinen Schlaf, sondern sind rund um die Uhr erreichbar.

Chatbots brauchen keinen Schlaf, sondern sind rund um die Uhr erreichbar.

Nur noch jede dritte Kundendienstkommunikation wird in Zukunft menschliche Interaktion erfordern. Dies prognostiziert das Analystenunternehmen Gartner. Die restliche Kommunikation soll dabei von intelligenten Systemen wie Chatbots übernommen werden. Diese bieten für die Kunden den Vorteil, sich nicht an Geschäftszeiten halten zu müssen: Zu jeder Tages- und Nachtzeit kümmern sich software-basierte Berater um die Anliegen.

Fortgeschrittene Chatbot-Systeme gehören aus technologischer Sicht zu den Vertretern Künstlicher Intelligenz (KI) und beherrschen maschinelles Lernen. Das heißt, sie werden zunehmend schlauer und können sich den Bedürfnissen der Zielgruppen immer weiter anpassen. Dadurch wird ihr Einsatz für Unternehmen attraktiver. Kann sich ein System an ein Unternehmen und die Bedürfnisse der Kunden anpassen, steigt auch das Vertrauen in die Software. Jeder dritte Konsument schätzt die Servicequalität eines Chatbots inzwischen gleichwertig zu der Arbeit eines menschlichen Kollegen ein. Doch auch, wenn Kunden nicht mehr das Gefühl haben, mit einer Künstlichen Intelligenz zu kommunizieren – getäuscht werden dürfen sie in wirtschaftlich relevanter Weise nicht. Eine Täuschung liegt etwa dann vor, wenn den Kunden suggeriert wird, sie würden mit einem Menschen Kontakt aufnehmen, sie aber in Wahrheit mit einer Software sprechen.

Dies kann insbesondere bei Flirt-Portalen oder Flirt-Apps relevant sein. Den Nutzern darf hier kein menschlicher Kontakt vorgetäuscht werden, wenn in Wahrheit ein Chatbot das Gespräch führt. Auch bei der Beanspruchung von Anlageberatern oder Anwälten dürfen Bots nicht ohne Weiteres eine Beratung vornehmen und dabei menschliche Kompetenz vortäuschen. Hier genügt allerdings die Aufklärung des Nutzers über die roboterbasierte Unterstützung.

Betreiber haften bei Falschaussagen


Das bedeutet aber nicht, dass jeder Chatbot explizit ausgewiesen werden muss. Ist es aus Verbrauchersicht „egal“, „wer“ die Anfrage bearbeitet, muss nicht offengelegt werden, dass dafür eine KI eingesetzt wird. Selbst bei einem Vertragsschluss ist diese Aufklärung nicht zwingend notwendig. Entscheidend ist letztlich nur, dass der Unternehmer den Verbraucher vor Abschluss des Vertrags ausreichend über die Eigenschaften der Leistung, die Identität des Vertragspartners und seine Rechte gegenüber dem Vertragspartner informiert hat. Ein Chatbot wird nach aktuellem Recht nicht Vertragspartner, sondern der Anbieter der betreffenden Leistung.

Bei den breiten Einsatzmöglichkeiten von Chatbots stellt sich die Frage: Wer haftet, wenn ein Verbraucher durch eine falsche Beratung zu Schaden kommt? Generell haftet der Betreiber des Bots. Wer einen Bot einsetzt, trägt grundsätzlich die Verantwortung, dass das Computerprogramm verlässliche Ergebnisse liefert. Kommt es durch falsche Beratung oder Täuschung des Verbrauchers zu einem Haftungsfall, muss immer im Einzelnen geprüft werden, ob dem ein individuelles Fehlverhalten des Betreibers vorausgegangen ist. Es ist also nicht haftungsrelevant, ob der Bot sich falsch verhalten hat. Denn Fehlverhalten kann nur einer natürlichen oder juristischen Person zugerechnet werden – der Bot als Maschine kann nicht haften. Hier häufen sich die Überlegungen zu einer Versicherungspflicht von Künstlichen Intelligenzen. Dies ist mit Sicherheit dann sinnvoll, wenn der Einsatz eines Chatbots potentiell hohe Schäden hervorrufen kann. Diese allgemeine Versicherungspflicht besteht etwa schon für Fahrzeughalter und Betreiber bestimmter Maschinen. Hier drängt sich die Frage auf, ob auch künftig die Halter bzw. Betreiber der automatisierten Systeme dieser Pflicht unterliegen oder die Hersteller.

Jeder dritte Konsument glaubt, dass Chatbots einen mindestens ebenbürtigen Service anbieten können wie menschliche Mitarbeiter. Doch bei vielen herrschen Bedenken zum Thema Datenschutz. Was passiert mit den Nutzerdaten, die ein Chatbot im Gespräch erhebt? Auf welche bereits vorhandenen Daten darf er zurückgreifen? Hier gibt es keinen Unterschied zwischen Mensch und Maschine. Chatbots und menschliche Kundenberater dürfen auf die gleichen Daten zurückgreifen, denn in beiden Fällen findet eine Datenverarbeitung statt.

Dies ist ein Artikel aus unserer Print-Ausgabe 04/2018. Bestellen Sie ein kostenfreies Probe-Abo.

Dennoch muss, egal ob Mensch oder Bot, nach Datenschutzrecht immer eine Befugnis, z. B. eine Einwilligung des Nutzers, vorliegen. Auch in der Verarbeitung und Speicherung von Daten, die in dem Gespräch anfallen, wird kein Unterschied zwischen Software und Mensch gemacht. Hinter jedem Roboter steht eine rechtliche Einheit oder ein Unternehmer, der diese Konsumentendaten dann verarbeiten darf, wenn er eine datenschutzrechtliche Befugnis dafür hat.

Bildquelle: Thinkstock/iStock

©2018Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok