Technologie

Nicht in diesem Ton: KI-Programm soll Gefühle aus Gesprächen filtern

Callcenter-Mitarbeiter leiden oft unter wütenden Anrufern, ein Computer-Tool soll Abhilfe schaffen.
Callcenter-Mitarbeiter leiden oft unter wütenden Anrufern, ein Computer-Tool soll Abhilfe schaffen.Imago
  • Drucken

Ein japanischer Konzern arbeitet an einem automatisierten Klangfilter, der heftige Emotionen bei Callcenter-Anrufern erkennen und auf der Hörerseite entschärfen soll.

So sehr es uns Hollywoodfilme und Technologieunternehmen auch weismachen wollen: KI-Anwendungen haben keine Gefühle. Menschen hingegen schon. Unsere Stimmung wirkt sich oft darauf aus, wie wir zu anderen sprechen. Das kann hilfreich sein, die Kommunikation erleichtern. Oder aber übers Ziel – das Verstandenwerden – hinausschießen, wenn die Emotionen den Gehalt des Gesagten überlagern und unkenntlich machen.

Ist das ein Problem? Der japanische Konzern Softbank meint: Ja. Zumindest für Callcenter-Mitarbeiter im Kundenkontakt. Die haben es oft mit wütenden Anrufern zu tun, die Beratungsgespräche nutzen, um ihren aufgestauten Ärger an der wildfremden Person am anderen Ende der Leitung abzulassen. Auf Dauer kann das sehr belastend sein, gar zu Burnout führen. Daher, so Softbank, arbeite der Technologiearm des Unternehmens nun an einem KI-Tool, mit dem Gefühle aus Stimmen „herausgefiltert“ werden sollen.

Das „Softvoice“-Programm fußt auf maschinellem Lernen. „Trainiert“ wurde es mit zigtausenden Audioaufnahmen, die Schauspieler eingesprochen haben. Mit deren Hilfe soll die KI in Echtzeit erkennen, ob die Stimme von Anrufern emotional über die Stränge schlägt – und gegebenenfalls ihre Intonation adjustieren. Schrilles Geschrei würde dann automatisch tiefer und ruhiger tönen, der dröhnende Bass eines grimmigen Grantlers als süßes Falsett erklingen. Wann und in welchem Maß Softvoice Stimmen verstellen soll, läge laut Erfinder Toshiyuki Nakatani in den Händen der Nutzer. So würden diese bei Bedarf etwa auch das Geschlecht der Stimme umwandeln können, ohne den Inhalt des Gehörten zu verändern.

„Mentaler Schutzschild“

Im Übrigen ginge es nicht darum, wuterfüllte Timbres komplett zu kaschieren, so Nakatani im Gespräch mit der japanischen Zeitung Asahi Shimbun – schließlich müsse die Dringlichkeit eines Anliegens für dessen Empfänger erkennbar bleiben. Sondern darum, einen „mentalen Schutzschild“ zu errichten, der Berater davor schützt, ihre „Nerven übermäßig zu strapazieren“. Zu diesem Zweck soll das Programm den Kunden auch die Warnung übermitteln, dass ihr Anruf kurz vor dem Abbruch steht, wenn sie zu lang mit Schaum vor dem Mund auf Berater eingeredet haben.

Laut Nakatani steht hinter Softvoice keine Absicht, Softbank-Mitarbeiter zu ersetzen: Ein menschliches Gegenüber sei enorm wichtig für Kunden – nicht zuletzt, wenn sie sich beschweren und eine Entschuldigung hören wollen. 2025 soll der KI-Filter auf den Markt kommen. Vielleicht gibt es bis dahin ja auch einen Stimmenmodulator für die Gegenseite: Wer sich so richtig über die groben Mängel eines Produkts aufregen will, aber zu müde dafür ist, müsste dann nur noch den „Wut“-Regler auf Stufe 11 drehen. Und zwar ganz ohne schlechtes Gewissen, im Callcenter würde ja eine Künstliche Intelligenz für die Entschärfung des Gezeters sorgen. So bliebe uns allen mehr Gefühlsenergie für die wirklich wichtigen Dinge des Lebens.

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.