Mit äh und hm

IBM: Computerstimmen sollen menschlich sprechen

IBM möchte dafür sorgen, dass in Zukunft Computerstimmen nicht mehr blechern und monoton klingen. Dazu entwickelten die IBM-Forscher ein Sprachsystem, das beispielsweise an den richtigen Stellen Pausen setzt.

Zudem soll das Sprechtempo variiert und Fülllaute eingebaut werden. So werden Computerstimmen bald auch "hmm" und "äh" in ihren Sprachschatz aufnehmen. Der künstliche Klang mit eintöniger Sprachmelodie sei der Grund, warum Menschen sich bei Automatenstimmen nicht wohlfühlen, so die Entwickler. Des weiteren sind sie fehlerfrei programmiert. Die IBM-Forscher ergänzen die Stimmen nun mit menschlichen Lauten wie dem "äh" in der deutschen Sprache. "Diese werden beim Sprechen für gewöhnlich nicht wahrgenommen", erläutert der IBM-Sprachforscher Andy Aaron. Ihre Integration habe jedoch einen eindeutigen psychologischen Effekt für den Menschen, denn der Anrufer fühle sich dabei deutlich wohler.

Aaron streicht Supporthotlines als Beispiel hervor. "Diese Kleinigkeiten in der Sprache können den Unterschied ausmachen zwischen einem zufriedenen Kunden und einem, der frustriert auflegt", sagt Aaron. Laut den Entwicklern ist die Software sogar in der Lage, den Anrufer an einer passenden Stelle zu unterbrechen. Durch selbstlernende Technologien soll das System zudem kontinuierlich verbessert und somit an die Gewohnheiten der Menschen angepasst werden. Auf diese Weise soll die Betonung von Worten und Sätzen verbessert werden.

Das System wurde vor kurzem zum Patent angemeldet. "Wir sind mittlerweile an einem Punkt angelangt, wo die menschliche von der computergenerierten Stimme kaum zu unterscheiden ist", berichtet der IBM-Sprachforscher. Allerdings sei es nicht das Ziel der Entwickler, den Unterschied völlig zu verbergen, schließlich wolle man niemanden täuschen. Also wird auch künftig für das menschliche Empfinden erkennbar sein, ob es sich um einen Menschen oder um eine Maschine am anderen Ende der Leitung handelt. (pte/mje)