Werbung/Ads
Menü
Christiane Attig - Sabine Wollenberg versucht mit einem Programm, das sie nicht kennt, eine Aufgabe zu lösen. Während die Studentin grübelt, werden ihre Gesichtszüge und Gesten erfasst.

Foto: Wolfgang Schmidt

Wenn Maschinen Gedanken lesen

Kameras beobachten Menschen. Das Verhalten wird kontrolliert. Wo Überwachung und Kontrolle zusammenfallen, da gruseln sich die Datenschützer. Forscher aus Chemnitz aber zeigen: Maschinelle Verhaltens-erkennung kann auch ganz sozialen Zwecken dienen.

Von Jens Eumann
erschienen am 14.11.2017

Chemnitz. Wie sieht Grübeln aus? Studentin Sabine Wollenberg setzt sich an den Laptop und schaut zu ihrer Projekt-Betreuerin auf. Psychologin Christiane Attig stellt ihr eine Aufgabe: "Berechne die benötigte Stichprobengröße für eine kleine Korrelation!" Zu deutsch: Sabine Wollenberg soll herausfinden, wie oft man einen Versuch ausführen muss, um auszuschließen, dass sein Ergebnis zufällig auftritt, und zu wissen, dass ein Zusammenhang mit dem Versuchsablauf besteht. Die Schwierigkeit: Die Studentin kennt das Statistik-Programm gar nicht, mit dem sie die Aufgabe lösen soll. "Ist aber kein überkomplexes Problem", findet Christiane Attig.

Allerdings ist die gestellte Aufgabe an diesem sonnigen Nachmittag nur Mittel zum Zweck. Im Fokus steht nicht das Ergebnis, sondern Sabine Wollenberg selbst. Die 24-jährige Studentin ist eine von 73 Probanden, mit deren Hilfe Christiane Attig selbst versucht, Zusammenhänge zu erkennen. Zusammenhänge zwischen dem Schwierigkeitsgrad einer Aufgabe und den Gesichtsausdrücken ihrer Testpersonen.

Während ihre Maus unschlüssig über den Monitor fährt, schiebt sich die Unterlippe von Sabine Wollenberg nach vorn. Ihre Mundwinkel verengen, ihre Augen weiten sich. Sie zieht die rechte Augenbraue hoch, greift an die Stirn, zieht erst die Nase kraus, dann das Kinn, bevor sie dieses hinter der Hand vergräbt, auf die sie ihr Gesicht stützt. So sieht Grübeln aus!

Doch was bedeutet die nächste Geste? Versteckt sie ihr Gesicht vor Verzweiflung oder kann sie im Halbdunkel hinter der Hand besser denken? Da! Der Finger scheint anzuzeigen: Jetzt hat sie's.

Christiane Attig - Psychologin

Foto: Wolfgang Schmidt

"Uns geht es darum, die Mimik aufzuzeichnen und andere Merkmale, die Hilfsbedürftigkeit beim Lösen einer Aufgabe anzeigen", schildert Attig. Das Aufzeichnen ist der erste Schritt. Danach gilt es, Muster zu erkennen, Informationen zu schematisieren und in ein System von Algorithmen zu gießen. Später soll dadurch eine Maschine erkennen können, wie Grübeln aussieht.

Die 32-jährige Psychologin und ihre Probanden sind Teil eines Forschungsteams der Technischen Universität Chemnitz, das sich aus den Professurbereichen Psychologie, Computerphysik, Künstliche Intelligenz sowie Graphische Datenverarbeitung und Visualisierung rekrutiert. Fred Hamker, Inhaber der Professur Künstliche Intelligenz, hat die Verantwortung. "Unser Projekt zielt darauf ab, ein kognitives System zu entwickeln, welches anhand beobachtbarer Parameter wie Mimik oder Körperbewegung in der Lage ist, Hilfsbedürftigkeit eines Nutzers oder einer Nutzerin zu erkennen", sagt der Professor. Ein kognitives System, also eine Maschine, die eigenständig Daten auswertet, automatisch dazulernt, und schließlich Hilfe anbieten kann, wenn sie erkennt, sie ist nötig.

Die Probanden liefern Erkenntnisse, mit denen man die Maschine zunächst füttert. Mehrere Kameras zeichnen Mimik und Gestik auf, mitunter auch Lippenbewegungen lautlos formulierter Kommentare. Einige Reaktionen seien bereits in der Literatur beschrieben, räumt Attig ein. "Wir versuchen weitere Indikatoren zu finden. Manche senken den Blick, andere blinzeln, kneifen die Augen zusammen. Der Mund steht offen. Wenn sie wirklich verzweifelt sind, fangen sie teilweise sogar an zu fluchen", sagt Attig.

Um auch aus den Rechner-Eingaben Schlüsse zu ziehen, müsse man zwischen Neulingen und Experten unterscheiden. Die einen brauchen bei der Menüauswahl ohnehin mehr Zeit, arbeiten weniger flüssig. Registriert wird aber selbst, wenn die Maus mal mehr als 150 Millisekunden stehenbleibt. "Bei Stress und Frustration klicken die Leute mehr. Sonst ist das präziser", schätzt Attig ein. Selbst aus der Körperhaltung am Rechner versucht das Team, Gemütszustände abzulesen: Verwirrung, Frustration, Verzweiflung.

Allein im Gesicht machen die Forscher neun markante Punkte aus, etwa die Mundwinkel. Von Muskelsträngen gesteuert, verschieben diese Punkte sich je nach Verzweiflungsgrad im Verhältnis zueinander. "Das alles geben wir in ein automatisches System ein, das von selbst weiter dazulernt", sagt Javier Baladron. Der 34-jährige aus Chile stammende Informatiker ist bei dem seit Juli 2016 laufenden Forschungsprojekt für die Arbeit am sogenannten Neuronalen Netz zuständig. So nennt man die maschinelle Imitation jener Abläufe, wie sie auch im Gehirn stattfinden könnten. "Im Idealfall soll das System später in der Lage sein zu verallgemeinern", sagt Baladron. "Also Zustände auch bei Leuten zu erkennen, die es noch nie zuvor gesehen hat."

Letzteres soll ein sogenanntes Memory-Hidden-Markov-Modell ermöglichen, an dem Computerphysikerin und Projektsprecherin Kim Schmidt arbeitet. Wenn es gelänge, dem System beizubringen, Informationen eigenständig zu verknüpfen, wäre das ein wichtiger Schritt, um mit technischen Systemen menschliche Gefühlsausdrücke zu interpretieren. Ob das klappt? "Natürlich glauben wir, dass es möglich sein wird", sagt Christiane Attig, "sonst würden wir es nicht versuchen."

Dass Maschinen lernen können, menschliches Verhalten zu erkennen, dieses Versprechen ist nicht neu. Ähnliches versicherte die Firma Behavioral Recognition Systems Laboratories, kurz BRS Labs, aus dem US-Bundesstaat Texas. Nach internen Skandalen wurde das Unternehmen übernommen und firmiert inzwischen unter dem Namen Omnia AI. Sein bekanntestes Produkt aber gibt es weiterhin. Die Software heißt AISight. Die beiden ersten Buchstaben sind ein Hinweis auf die künstliche Intelligenz des Systems (englisch: Artificial Intelligence, kurz AI). Ausgesprochen wird der Name im Englischen wie "eyesight", zu deutsch Sehkraft. Die Software soll Netzwerken von Überwachungskameras Intelligenz verleihen. Während Programmierer normalerweise für jede Kamera algorithmische Regeln festlegen müssen, um Bedingungen für einen Alarm zu definieren, lernen AISight-Kameras angeblich kontinuierlich neue Regeln dazu - völlig eigenständig. Erst diese Fähigkeit verleiht verzweigten Kamera-Netzwerken einen neuen Sinn, der übers Unterstützen der Strafverfolger durchs Sichern von Beweisen hinausgeht.

Weltweit, schätzt man, gibt es mehr als 50 Millionen Überwachungskameras. Allein in Großbritannien, dem Land des dichtesten Netzes, wird jeder Einwohner im Schnitt 300 Mal täglich gefilmt. Es entstehen zu viele Bilder, um sie je von Menschen auswerten zu lassen. Da kommt Automatisierung gerade recht, die nur bei ungewöhnlichen Situationen und verdächtigem Verhalten Alarm schlägt und ihre Parameter für verdächtiges Verhalten kontinuierlich verfeinert.

In Chicago und Washington DC wurde das System installiert, ebenso in Boston, als man dort nach dem Bombenanschlag zum Marathon 2013 die Überwachung des öffentlichen Raums ausbaute. Auch das World Trade Center in New York soll von AISight vor Angriffen geschützt werden. Datenschützer sind hin- und hergerissen. Während die Notwendigkeit von Schutz vor Kriminalität und Terror niemand in Frage stellen mag, befürchtet der von AISight gleichermaßen faszinierte wie verschüchterte Autor Andrew Couts auf der US-Technologie-Plattform "Digital Trends" dennoch: "Das ist der Anfang eines Schrecken erregenden Orwell'schen Polizeistaats." Immerhin verspricht man, mit der Software Verbrechen vorherzusagen, die noch gar nicht geschehen sind. Die Dystopia-Geschichte "Minority Report" lässt grüßen.

Die Forscher in Chemnitz und ihre Förderer haben anderes im Blick. Bis Juni 2019 wird ihr Projekt über den Europäischen Sozialfonds gefördert. Die Hoffnung: Die Welt immer ausgefeilterer Smartphones, Computer und fortschreitender Automatisierung für Menschen kompatibler zu machen. Besonders für ältere Menschen, die nicht zu den "Digital Natives" gehören, also jener Generation, die mit Internet, Touchscreen und Automatisierung aufwächst. Schnittstellen, an denen Verhaltenserkennung und computergesteuerte Hilfsangebote Sinn ergeben, wären Fahrkartenschalter oder automatische Supermarkt-Kassen, überlegt Christiane Attig. Ihre Probanden übrigens hat sie vor den Testsitzungen bezüglich des eigentlichen Zwecks eingeweiht. Das mag ein Hemmnis sein, weil Teilnehmer deshalb bewusst auf ihren Gesichtsausdruck achten. "Andererseits weiß man, dass Probanden immer versuchen herauszufinden, worum es im Experiment geht, wenn sie nicht Bescheid wissen", sagt Attig. Auch so ergäbe sich eine Beeinflussung der Ergebnisse - also eine Korrelation.

Ob Sabine Wollenberg bewusst auf ihre Mimik achtet, weiß sie nicht recht, dafür aber, dass sie, seit sie dabei ist, auf den Gesichtsausdruck anderer Leute achtet. "Am Fahrkartenschalter merke ich jetzt sofort, wenn jemand Hilfe braucht."

 
© Copyright Chemnitzer Verlag und Druck GmbH & Co. KG
 
0

Lesen Sie auch

Kommentare
0
Kommentieren (für Digital- und Printabonnenten)
Bildergalerien
  • 16.11.2017
Ennio Leanza
Bilder des Tages (16.11.2017)

Kreisch, Erleuchtet, Spiegelung, Naturgewalt, Abgeschirmt, In Berlin Lichtenberg, Parksünder in Pakistan ... ... Galerie anschauen

 
  • 15.11.2017
VW T-Roc im Test: Der Golf fürs Grobe

Berlin (dpa-infocom) - Mit dem Timing hat VW so seine Probleme. Als die Niedersachsen in den 1990ern den Golf Country brachten, wollte von aufgebockten Kompakten noch keiner etwas wissen. Als zwei Jahrzehnte später alle nach handlichen Kreuzungen aus Pkw und Geländewagen riefen, musste VW passen. zum Artikel ... Galerie anschauen

 
  • 13.11.2017
Zhao Lubin
Bilder des Tages (13.11.2017)

Baum-Mensch, Haushoch, Durch den Smog, Winterromantik, Gestrandet, Auf der Straße, Körperpflege ... ... Galerie anschauen

 
  • 12.11.2017
ND-KK
Zu schlechte Luft: Airline setzt Flüge nach Neu Delhi aus

Chicago/Neu Delhi (dpa) - Die US-Fluggesellschaft United Airlines stoppt vorübergehend ihre Flüge nach Neu Delhi, weil die Luft dort so verschmutzt ist. Die Maßnahme gelte zunächst bis Montag. Betroffene Fluggäste könnten kostenlos umbuchen. Auch auf dem Flughafen von Lahore in Pakistan fielen 60 Flüge aus. zum Artikel ... Galerie anschauen


 
 
 
 
 
 
 
 
am meisten ...
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
|||||
mmmmm