Im Kopf der lernenden Maschine

Kaufempfehlungen im Internet sind erst der Anfang: Katharina Zweigs Sachbuch geht den Algorithmen auf den Grund.

Ein Teil der Hoffnungen in der Coronakrise ruht auf den Möglichkeiten von Datenverarbeitung und künstlicher Intelligenz. Teams von Computerexperten in aller Welt haben sich vernetzt. Sie arbeiten bei der Analyse von Ausbrüchen zusammen. Sie bauen komplexe Prognosemodelle, suchen in Datenhalden nach Zusammenhängen und liefern Echtzeitinformationen mit wachsender Genauigkeit. Auch Bürgerwissenschaftler bringen sich ein. Einige helfen einfach dadurch, dass sie private Rechnerpower online für komplexe Analysen zur Verfügung stellen.

Die Informatik-Pioniere Alonzo Church und Alan Turing haben erwartet, dass Computer im Wesentlichen dieselben Fragen beantworten und dieselben Probleme lösen können wie ein Mensch. Beweisen lässt sich das nicht, denn das Ziel lässt sich nicht genau definieren. Inwieweit "künstliche Intelligenz" uns bereits gewachsen, worin sie uns überlegen ist und wann sie unsere gesellschaftliche Aufmerksamkeit erfordert, das untersucht die Hamburger Informatikerin Katharina Zweig, die eine Professur an der Technischen Universität Kaiserslautern innehat. Über ihr Fachgebiet hat sie ein für interessierte Laien verständliches, ja zuweilen vergnügliches Buch geschrieben.

Die Entscheidungsqualität einer "intelligenten" Maschine, schreibt Zweig, ist zum einen von ihrer Konstruktion abhängig und zum anderen von der Güte und Anzahl der Daten, die ihr dargeboten werden. Die Empfehlungsalgorithmen von Netflix, Google oder Amazon lernen bekanntlich mit jeder Abfrage und jedem Feedback ihrer Nutzer hinzu. Wann immer eine Webseite ein Bildmosaik (Captcha) einspielt, vordergründig um zu testen, ob ein Mensch oder ein Roboter den Computer bedient ("Markieren Sie alle Felder, auf denen Sie ein rotes Auto sehen!"), hilft der Nutzer einem Algorithmus im Hintergrund, der darauf abgerichtet wird, Bilder in allen Details zu erkennen.

Für Technologien wie das autonome Fahren sind solche Fähigkeiten entscheidend. Das maschinelle Lernen, schreibt Zweig, ist momentan die wichtigste Komponente "Künstlicher Intelligenz" (KI).

Die Entscheidungsqualität einer KI-trainierten Maschine hängt außer von den Daten, die sie zur Verfügung hat, auch von Entscheidungen ab, die Wissenschaftler und Informatiker bei ihrer Konstruktion getroffen haben. Manche dieser Entscheidungen sind praktischer, andere logischer oder ethischer Natur. Die Art der Fragestellung spielt ebenso hinein wie die Festlegung, was als "gute" Entscheidung gelten soll.

Beim Routenplaner scheint das einfach: Es geht um den kürzesten Weg zwischen zwei Punkten. Werden aber Schulwege von Kindern maschinell optimiert, unterliegt die Lösung einer Bewertung: Soll der Schulweg im Durchschnitt klein sein, oder soll er für kein einziges Kind ein bestimmtes Maximum überschreiten? Diese Bewertung wird messbar gemacht, also operationalisiert. Algorithmen brauchen eine messbare Größe, die ausdrückt, wie sehr eine Entscheidung der gewünschten Moral entspricht. Das ist umso wichtiger, als Menschen offenbar falsche Ergebnisse nicht leicht erkennen können. Das Sensorium fehlt, und wir neigen dazu, nach plausiblen Erklärungen zu suchen, warum das Falsche doch richtig ist.

Klassische Algorithmen wie das "Kürzeste-Wege-Problem" (Edsger W. Dijkstra veröffentlichte seine bahnbrechende Lösung bereits 1959) können heute erstaunlich viele Alltagsfragen lösen. Das sei ihre "geheime Superkraft", schreibt Zweig: "Ihre Nützlichkeit besteht darin, dass ihnen die Bedeutung der Daten egal ist und sie nur auf deren Zahlenwerten arbeiten." Ein anderer Klassiker ist das "Sortierproblem". Sie sind die Schweizer Taschenmesser im Werkzeugkoffer des Algorithmendesigners.

Bei klassischen wie neueren Algorithmen gilt das Prinzip, dass sich ihre Resultate nur sinnvoll interpretieren lassen, wenn man ihre Modellierung und die notwendigen Operationalisierungen in Betracht zieht. Zweig nennt es das "OMA-Prinzip": Operationalisierung, Modellierung und Algorithmus müssen zusammenpassen. Nur dann folgen die Ergebnisse der Messbarmachung auch der gewünschten Moral.

Im Fall des Netflix- oder Amazon-Algorithmus' mag es zu verschmerzen sein, wenn das Ergebnis - eine individualisierte Film- oder Produktempfehlung - immer wieder mal danebenliegt. Für Zweig sind sie nur ein Vorspiel - die "Urmütter" künstlicher Intelligenz.

Aber wie sieht es bei sozialen Algorithmen aus, wie sie etwa die Vereinigten Staaten benutzen, um das Rückfallrisiko entlassener Strafgefangener vorauszusagen? Hier lässt die Autorin an Deutlichkeit nichts zu wünschen übrig: Das ist ein Problem. In solche Algorithmen können sich Diskriminierungen und systematische Fehler einschleichen, insbesondere, wenn die Maschine sie aus einer diskriminierenden Praxis lernt. Hier offenbart die KI ethische und regulatorische Probleme.

Katharina Zweig, die in solchen Fragen auch die Politik berät, hat mit ihrem Team ein Instrument zur Risikoanalyse entwickelt, um mit solchen Problemen umzugehen. Die Kernfrage sei, ob die Maschine Entscheidungen trifft, die direkt oder indirekt das menschliche Wohl berühren. In solchen Fällen seien nicht nur an die Verantwortung des Anwenders, sondern auch an die des Algorithmendesigners erhöhte Ansprüche zu stellen.


Einen Monat für
nur 1€ testen.
Verlässliche Informationen sind jetzt besonders wichtig. Sichern Sie sich hier den vollen Zugriff auf freiepresse.de und alle FP+ Artikel.

JETZT 1€-TESTMONAT STARTEN 
0Kommentare

Die Diskussion wurde geschlossen.