Digi­ta­le Versprecher

Künst­li­che Intel­li­genz: Wer haf­tet, wenn der Chat­bot fal­sche Emp­feh­lun­gen gibt?

Gast­kom­men­tar von Phil­ipp Reusch in HORIZONT, Aus­ga­be 42/2017

Chat­bots gel­ten als die nächs­te gro­ße Tech-Revolution, die den Kun­den­ser­vice grund­le­gend ver­än­dern wird. Ob im Finanz‑, Rechts- oder Gesund­heits­we­sen – die spre­chen­den Maschi­nen sol­len Anfra­gen von Kun­den auto­ma­tisch beant­wor­ten und eigen­stän­dig bear­bei­ten. Nicht nur Face­book und Goog­le, son­dern auch die Com­merz­bank und Arzt­pra­xen set­zen zuneh­mend auf die neus­te Tech­no­lo­gie und inves­tie­ren Mil­li­ar­den­be­trä­ge. Doch wer haf­tet, wenn der Sprach­as­sis­tent falsch berät, feh­ler­haf­te Dia­gno­sen stellt oder gar ungül­ti­ge Ver­trä­ge erstellt? Braucht es eine Ver­si­che­rungs­pflicht für vir­tu­el­le Assistenten?

Phil­ipp Reusch klärt:

  • Wor­auf müs­sen Unter­neh­men ach­ten, wenn sie der­ar­ti­ge Tech­no­lo­gien zur Ver­bes­se­rung ihres Kun­den­ser­vices ein­set­zen wollen?
  • Wel­che recht­li­chen Stell­schrau­ben muss ein Unter­neh­men imple­men­tie­ren um eine siche­re Bera­tung durch Chat­bots gewähr­leis­ten zu können?

Der Bei­trag kann auch als ePa­per von Hori­zont erwor­ben werden. 

zurück

Bleiben Sie
up to date

Wir verwenden Ihre E-Mail-Adresse ausschließlich für den Versand unseres Newsletters. Sie können Ihre Einwilligung hierfür jederzeit mit Wirkung für die Zukunft widerrufen. Weitere Informationen entnehmen Sie bitte unserer Datenschutzerklärung.