Wie KI Gefühle erfasst

9 min lesen

Künstliche Intelligenz erkennt Muster – und sucht sie immer öfter in unseren Stimmen und Gesichtsausdrücken. So sollen die Algorithmen lernen, unsere Emotionen zu ergründen.

Wir können gar nicht anders. Bei jedem Satz, den wir sprechen, und bei jedem Blick, den wir jemandem zuwerfen, schicken wir eine Flut subtiler Signale mit. Die Informationen sind entscheidend für unser Zusammenleben: Eine Aussage wird vom Gegenüber je nach Ton, Mimik und Gestik völlig unterschiedlich interpretiert. Inzwischen erfassen selbst einfache Mikrofone und Kameras jede noch so feine Nuance eines Klangs und jeden noch so flüchtigen Gesichtsausdruck – mit einer Präzision, die die Fähigkeiten unserer Sinnesorgane übersteigt.

Solche Technologien bergen eine Vielzahl möglicher Anwendungen: So können sie eingesetzt werden, um einen intuitiven Umgang mit Robotern und Computern zu ermöglichen. Zudem haben Unternehmen großes Interesse daran, damit Marktforschung zu betreiben und herauszufinden, was die Kunden wirklich interessiert. Eine weitere Anwendung bieten nahezu unfehl_ bare Lügendetektoren. Und schon jetzt ist es Berichten zufolge in Callcentern gang und gäbe, Kundengespräche automatisch auf ihren emotionalen Gehalt hin zu analysieren – was allerdings datenschutzrechtliche Probleme mit sich bringt.

Der Versuch, mit maschinellem Lernen unsere Gemütszustände zu ergründen, wird als »Affective Computing« bezeichnet. Die Programme stützen sich dabei oft auf stark vereinfachte Konzepte aus der Psychologie. So unterscheidet etwa das 1988 von den Psychologen Andrew Ortony, Gerald Clore und Allan Collins formulierte OCC-Modell zwischen 22 emotionalen Kategorien, von Freude über Stolz bis hin zu Liebe und Hass. Der Psychologe Albert Mehrabian wiederum hat bereits in den 1960er Jahren festgestellt, dass die Mimik die Wirkung einer Mitteilung wesentlich stärker beeinflussen kann als die Wortwahl. Und das »Big-Five-Modell« von Paul Costa und Robert McCrae unterscheidet zwischen fünf Persönlichkeiten, von gewissenhaft bis neurotisch.

UNSER AUTOR Thomas Brandstetter ist promovierter Physiker, der im österreichischen Puchenau lebt. Er widmet sich als Wissenschaftsjournalist vor allem der künstlichen Intelligenz, der Robotik und den Beziehungen zwischen Mensch und Maschine.

ALENA IVOCHKINA / GETTY IMAGES / ISTOCK

Auf einen Blick: Emotionen erkennen

1 Mittels »Affective Computing« will man per maschinellem Lernen menschliche Gemütszustände ergründen. Bei komplexen oder widersprüchlichen Emotionen stoßen die Modelle aber an ihre Grenzen.

2 Um die Persönlichkeit, Aufmerksamkeit oder Emotionen einer Person vorherzusagen, lassen Fachleute immer mehr Informationen in ihre KI-Systeme einfließen: Stimmlage, Augenbewegungen, Pupillenweite, Hirnsignale, Atmung und Puls.

3 Allerdings sind solche Informa

Dieser Artikel ist erschienen in...

Ähnliche Artikel

Ähnliche Artikel