Digitale Emotionen

In der Diskussion um die Zukunft des Einzelhandels, in Zeiten der Digitalisierung taucht immer wieder ein scheinbar starkes Argument für den stationären Einzelhandel auf. Es heißt: "Bei allem was das Internet leistet, eins kann es nicht, es kann nicht lächeln!" Stimmt das eigentlich?

Was lässt sich dazu sagen? Zum einen ist es natürlich so, dass auch viele Beschäftigte im Einzelhandel nicht immer ein perfektes Lächeln hinbekommen und so mancher "Erlebniskauf" zur menschlichen Erfahrung wird, die man sich doch lieber erspart hätte.
Aber darum geht es ja nicht. Es geht nicht darum, was der stationäre Handel nicht kann, sondern darum, dass der Onlinehandel eine bestimmte emotionale Nähe nie schaffen kann. Auch das Internet ist am Ende des Tages nur eine kalte Maschine. So die Logik dieser Argumentation. 

Loriot würde sagen: "Maschinen und Emotionen passen eben nicht zusammen!" 
Richtig ist das aber nicht. Bereits 1995 veröffentlichte die amerikanische Professorin für Media Arts and Sciences, Rosalind Picard am Massachusetts Institute of Technology ein Papier zu den grundlegenden Ideen des sogenannten "affective computing". 

Sie schlug damals vor, die Modellierung und Berechnung von Emotionen in die Informatik zu integrieren. Anfangs fand dieser Gedanke wenig Zustimmung, doch inzwischen gehört affective computing zu den bedeutendsten Forschungsrichtungen im Hinblick auf die Mensch-Maschine-Kommunikation. Affective Computing ist eine relativ neue wissenschaftliche Teildisziplin bzw. ein Verfahren, das eine Symbiose aus Informatik, Psychologie und Kognitionswissenschaft darstellt und mittels Tonsequenzen oder Gesichts- und Mimikanalyse Emotionen, Persönlichkeit und sogar Absichten einer Person verraten soll. 

Aber das Analysieren menschlicher Emotionen mittels einer sensorbasierten Software ist natürlich nicht gleichzusetzen mit der Fähigkeit maschineller, emotioneller Intelligenz selbst. Der Schritt dahin ist aber nicht mehr weit. Das Media Laboratory des Massachusetts Institute of Technology (MIT) von Fr. Prof. Picard ist auch hier wieder ganz vorne dabei. Das Institut hat bereits Avatare entwickelt, die die Mimik, Haltung und Sprache eines Gesprächspartners erkennen, aufnehmen und dann mit hoher Empathie auf die Person vor dem Bildschirm eingehen. Ein Avatar stellt z.B. seinen Probanden in simulierten Jobinterviews Fragen, erkennt ihr Lächeln und erwidert es. 

Auch Kaufempfehlungen können in Zukunft auf Basis emotionaler Profile erstellt werden. Das Londoner Unternehmen real eyes z.B. vermag per Webcam zu scannen, wo zum Beispiel ein Online-Shopper hinschaut und wie sehr er von dem Gesehenen angesprochen wird. Dabei können auch direkt, also ohne weitere Sensoren am Körper, der Herz- und Atemrythmus der Person gemessen werden allein durch minimale Farbveränderungen im Gesicht, wenn das Blut durch die Venen gepumpt wird, und anhand der Bewegung des Brustkorbs.

Wir sollten nicht allzu sicher sein, dass Emotionen und Maschinen nichts miteinander zu tun haben werden in der digitalen Zukunft.

 

Autor*in