Der Einsatz von Künstlicher Intelligenz (KI) im Callcenter-Bereich hat eine neue Stufe erreicht. Neben der Analyse von Gesprächsverläufen und Arbeitsprozessen wird zunehmend auch die Erkennung und Auswertung von Emotionen in den Fokus gerückt. Dabei handelt es sich um Technologien, die menschliche Gefühle wie Freude, Wut oder Verwirrung interpretieren und bewerten können – sowohl auf Seiten der Kund:innen als auch der Callcenter-Beschäftigten. Doch wie verträgt sich diese innovative Technik mit den Anforderungen des Datenschutzes?
Emotionsanalyse: Wie funktioniert sie?
Die KI-gestützte Emotionsanalyse nutzt geschriebene und gesprochene Sprache, um Stimmungen zu erkennen. Dabei kommen verschiedene Algorithmen zum Einsatz, die anhand von Tonfall, Wortwahl oder sprachlichen Mustern Emotionen interpretieren. Ziel dieser Technologie ist es, die Kundenzufriedenheit zu steigern und die Dienstleistungsqualität zu optimieren. Sie ermöglicht es Unternehmen, auf die Emotionen der Gesprächsteilnehmer gezielt einzugehen und ihre Serviceangebote zu verbessern.
Beschwerde über den Einsatz von Emotionsanalyse in Callcentern
Ein Hinweis einer Journalistin führte den Hamburger Beauftragten für Datenschutz und Informationsfreiheit (HmbBfDI) auf die Spur eines Logistikunternehmens, das angeblich eine solche Emotionsanalyse-Software in seinen Callcentern einsetzt. Laut dem Bericht sollten über ein Tool sowohl die Sprache als auch die Emotionen der Mitarbeitenden und Kund:innen analysiert werden. Die Software sollte dem Unternehmen von einem spezialisierten Dienstleister bereitgestellt werden, dessen Partnerschaft mit dem Logistikunternehmen auf dessen Website beworben wurde.
Datenschutzrechtliche Herausforderungen
Der Einsatz von KI und automatisierter Entscheidungsfindung wirft zahlreiche datenschutzrechtliche Fragen auf, die sich insbesondere auf folgende Punkte konzentrieren:
- Transparenz: Wie werden Betroffene über die Datenverarbeitung informiert?
- Automatisierte Entscheidungsfindung: Liegt eine vollautomatische Verarbeitung vor, die direkte Auswirkungen auf Betroffene hat?
- Rechtsgrundlage: Auf welcher Basis wird die Verarbeitung von Emotionen und Gesprächsdaten durchgeführt?
Diese Fragen sind essenziell, da die Verarbeitung personenbezogener Daten – insbesondere sensibler Informationen wie Emotionen – streng reguliert ist. Verstöße gegen die Datenschutz-Grundverordnung (DSGVO) können erhebliche rechtliche und finanzielle Konsequenzen haben.
Ermittlungen und Ergebnisse
Der HmbBfDI hat aufgrund des Hinweises die Ermittlungen aufgenommen und dem Unternehmen einen umfangreichen Fragenkatalog zugesandt. In seiner Stellungnahme erklärte der Verantwortliche jedoch, dass die beschriebene Software in der genannten Form nie eingesetzt wurde. Dies konnte belegt werden, sodass kein Datenschutzverstoß festgestellt werden musste.
Trotzdem brachte der Vorfall wichtige Erkenntnisse: Der HmbBfDI konnte wertvolle Erfahrungen sammeln und einen Fragenkatalog zur Emotions- und Sprachanalyse durch KI entwickeln. Diese Grundlagen werden für zukünftige Prüfungen und Beschwerden von großer Bedeutung sein.
Zukünftige Herausforderungen
Mit der fortschreitenden Verbreitung von KI-basierten Technologien im Arbeitsalltag – insbesondere in Callcentern – ist davon auszugehen, dass Beschwerden und Prüfungen zur Emotionsanalyse in Zukunft zunehmen werden. Die Datenschutzbehörden stehen dabei vor der Herausforderung, die Einhaltung der DSGVO zu überwachen und gleichzeitig den technologischen Fortschritt zu berücksichtigen.
Fazit
Die Emotionsanalyse in Callcentern mag auf den ersten Blick als innovative Methode zur Verbesserung der Kundenzufriedenheit erscheinen. Doch sie wirft auch erhebliche datenschutzrechtliche Fragen auf, die sowohl Unternehmen als auch Aufsichtsbehörden beschäftigen. Der Fall des HmbBfDI zeigt, wie wichtig Hinweise aus der Öffentlichkeit sind, um potenzielle Verstöße frühzeitig aufzudecken und die Rechte der Betroffenen zu schützen. Unternehmen, die solche Technologien einsetzen wollen, müssen sicherstellen, dass sie rechtskonform und transparent agieren – und dabei das allgemeine Persönlichkeitsrecht wahren.