Ilko von Bieberstein: „Generative KI im Kundenservice bedeutet Innovation und Verantwortung“

Ilko von Bieberstein: „Generative KI im Kundenservice bedeutet Innovation und Verantwortung“

Ilko von Bieberstein: „Generative KI im Kundenservice bedeutet Innovation und Verantwortung“

Die einen sehen KI als die größte technologische Chance unserer Lebzeiten, die anderen wollen von ChatGPT und Co. lieber nichts wissen. Was sich aber nicht leugnen lässt: Künstliche Intelligenz kann unfassbar viel und hat in vielen Branchen die täglichen Abläufe schon jetzt grundlegend verändert.

Welche Vorteile die Integration von KI-Anwendungen hat, welche ethischen Bedenken dabei aufkommen und wie sich verhindern lässt, dass KI-Systeme voreingenommen handeln, erklärt Ilko von Bieberstein, Leiter des Kundenservices für Privat- und Gewerbekunden bei der GASAG-Gruppe, im Interview.

Was sind die größten Vorteile der Integration von GPTs in Serviceprozessen? Was sind die größten Herausforderungen?

Ilko von Bieberstein: Die Integration von Generative Pretrained Transformers (GPTs) in Serviceprozesse bietet viele Vorteile für Firmen, Servicemitarbeitende sowie Kundinnen und Kunden. GPTs sind in der Lage, hochwertige Texte zu generieren und können daher eine Vielzahl von Aufgaben unterstützen, die bisher nur von Servicemitarbeitern erledigt werden können. Sie sind rund um die Uhr verfügbar und können schnell und effizient auf eine große Anzahl von Anfragen zeitgleich reagieren. GPT Modelle sind sehr flexibel und werden eingesetzt, um beispielsweise Kundenanliegen zu erkennen, Antwortschreiben zu formulieren oder spezifisches Wissen bereit zu stellen. So können sie Kundendienstmitarbeiter von Routineaufgaben entlasten, damit sie sich stärker auf ihre Kunden und deren Bedürfnisse konzentrieren können. Dies kann zu einer höheren Servicequalität und besseren Kundenerlebnissen führen.

Es gibt jedoch auch Herausforderungen bei der Integration von GPTs in Serviceprozessen. Bei der Einbindung von GPTs in bestehende IT-Infrastrukturen ist es besonders wichtig, Datenschutz und Datensicherheit zu gewährleisten. Darüber hinaus erfordert der Einsatz von GPTs eine sorgfältige Überwachung und Kontrolle der Ergebnisse, um unangemessene oder unerwünschte Antworten zu erkennen und zu vermeiden. Eine besondere Herausforderung besteht in der Tendenz von GPTs zu „Halluzinieren, das heißt zum „freien Erfinden“ von Informationen oder Details, die nicht in den bereitgestellten Daten vorhanden waren. Dies kann zu ungenauen oder sogar falschen Aussagen führen. Obwohl es verschiedene Ansätze gibt, um dieses Problem zu minimieren, ist es aktuell noch nicht vollständig gelöst.

Welche ethischen Bedenken bestehen im Bereich Datenschutz bei KI-Anwendungen?

Ilko von Bieberstein: Mit dem zunehmenden Angebot von kostenlosen KI-Anwendungen und Apps im Internet steigen auch die Nutzungsrisiken, insbesondere in Bezug auf den Datenschutz. Viele frei nutzbare Anwendungen sammeln und analysieren große Mengen persönlicher Daten, wobei den Nutzern oft nicht bewusst ist, welche Informationen genau erfasst und wie sie verwendet werden. So gesammelte persönliche Daten können auf unerwünschte Weise genutzt werden, etwa für Überwachungszwecke, zur Erstellung von Verhaltensprofilen oder zur Diskriminierung der Nutzer bei Produkten und Preisen. Datenschutzbestimmungen und Nutzungsbedingungen sind oft kompliziert und für Nutzer schwer verständlich. Zudem sind die langfristigen Auswirkungen der Datenerhebung und -nutzung durch KI-Anwendungen im Internet oft schwer vorhersehbar.

Es ist wichtig, Nutzern leicht verständlich zu machen, welche Daten erfasst und wie sie genutzt werden. Die Nutzer sollten die Möglichkeit haben, ihre Zustimmung zur Verarbeitung ihrer Daten bewusst zu erteilen oder zu widerrufen. Entwickler, Unternehmen und Gesetzgeber müssen gemeinsam agieren, um den Datenschutz und die Privatsphäre der Nutzer zu sichern. Datensparsamkeit und Anonymisierung sind dabei wichtige Ansätze.

Wie kann man verhindern, dass KI-Systeme voreingenommen sind (zum Beispiel bei der Bildgenerierung), und welche Verantwortung haben Unternehmen beim Einsatz von KI-basierten Anwendungen und Systemen?

Ilko von Bieberstein: Um Voreingenommenheit in KI-Systemen zu vermeiden, ist ein zentraler Aspekt die Verwendung von ausgewogenen und repräsentativen Daten für das Training dieser Systeme. KI-Systeme lernen aus den ihnen zur Verfügung gestellten Daten – sind diese Daten unausgewogen oder voreingenommen, spiegelt sich dies auch in den Systemen wider. Das gilt für Text- und Bildgeneratoren gleichermaßen.

Mittlerweile haben viele große KI-Unternehmen öffentlich zugesagt, Voreingenommenheit in ihren Modellen zu reduzieren und arbeiten aktiv an der Verbesserung ihrer Modelle. Dabei spielt das Feedback der Nutzer eine wichtige Rolle, um unerwünschte Muster in den generierten Antworten zu identifizieren und zu korrigieren.

Unternehmen, die KI-basierte Anwendungen und Systeme einsetzen, tragen die Verantwortung für die Arbeitsergebnisse der KI. Sie müssen den Datenschutz und die Sicherheit gewährleisten und sollten sich stets der sozialen Auswirkungen ihrer Produkte bewusst sein. Dazu gehört auch die Verpflichtung, ihre Systeme kontinuierlich zu überwachen und zu verbessern. Die Sensibilisierung der Mitarbeiter für ethische und rechtliche Aspekte der KI sowie deren Schulung sind dabei wichtige Faktoren. Grundsätzlich sollten Organisationen ethische Prinzipien wie Transparenz, Unvoreingenommenheit, Objektivität, Diskriminierungsfreiheit und den Schutz der Privatsphäre in ihre KI-Anwendungen integrieren.

© Titelbild: GASAG AG

Summit

Der CFS | Customer Focus Summit ist der digitale Fachkongress für Customer Centricity.

Spotlight

Am 13. September geht es weiter mit dem interdisziplinären, hybriden Fachkongress rund um die Mobilität von morgen.

Podcast

Der Customer Focus Podcast „InTouch“, behandelt die aktuellen Entwicklungen rund um den Kunden im Zentrum unternehmerischen Handels.

Partner