Synthetische Psychologie, um künstliche Intelligenz & Robotik und den menschlichen Umgang damit zu erforschen

Umfrage: Was ist künstliche Intelligenz?
Quelle: Pegasystems (2017) – click to enlarge –

Intelligente Maschinen (KI und Roboter) können nicht mehr allein als Produkte der Technik, Mathematik und der Informatik betrachtet werden. Denn sie stellen eine neue Klasse von (gesellschaftlichen) Akteuren mit eigenen Verhaltensweisen und einem eigenen Ökosystem mit hoher kultureller Relevanz dar. Im Umgang mit Menschen sollte dabei deren maschinelles Verhalten beschrieben, erklärt und möglichst vorhersagbar werden. Der finale Entwurf der europäischen KI-Verordnung (AI-Act) hat mit seinen verschiedenen Risikoklassen für Aufsehen gesorgt. Das Bewerten solcher Risiken kann nur erfolgen, wenn es als synthetisches Verhalten verstanden und überprüfbar wird. Denn künstliche neuronale Netze im maschinellen Lernen realisieren Informationsverarbeitung auf Basis unseres Verständnisses von Hirnleistungen. Wir bauen (synthetisieren) Denkvorgänge nach. Dabei wird eine neue Disziplin helfen, die man synthetische Psychologie taufen sollte. Denn Kognition (geistige Verarbeitung und Steuerung) passiert jetzt mehr nicht nur im menschlichen Gehirn: Da Software nunmehr in der Lage ist, (Sinnes-)Daten zu verarbeiten, zu gewichten und nach einer Zielvorgabe einzuordnen, sogar Entscheidungen zu fällen oder zumindest vorzubereiten. Die Frage ist nur: Wie, mit welchem Training und was sind erwünschte Ziele und unerwünschte Effekte??

KI bringt sowohl Vorteile als auch Risiken mit sich, und das Verständnis des Verhaltens von KI-Systemen ist eine wesentliche Voraussetzung für die Kontrolle der Risiken und das Nutzen ihrer Vorteile bei gleichzeitiger Minimierung ihrer Schäden. Um dies zu erreichen, ist eine breit angelegte wissenschaftliche Forschungsagenda erforderlich, die den Fokus von Mathematik und Informatik erweitert auf Sozial- und Verhaltenswissenschaften und damit breite Erkenntnisse aus vielen Wissenschaften multidisziplinär einbezieht. Diese Agenda wird sich auch auf Fragen wie die Auswirkungen von KI auf Demokratie, politische Rechenschaftspflicht, Haftung allgemein, Transparenz und Bürgerbeteiligung sowie den Einfluss von KI auf Personalmanagement, Bildung, Polizeiarbeit, Überwachung und Kriegsführung konzentrieren. Besonders erfolgreich ist DeepMind mit AlphaFold, das Proteinfaltungen vorhersagen kann, also die Struktur auf Basis der Aminosäuresequenz, und so Tausende Forschende in der (Bio-)Medizin entlastet. Und nicht erst seit den Diskussionen um Pflegeroboter oder ChatGPT besteht ein Bedarf, nicht nur Verhalten von Robotern und KI zu untersuchen, sondern auch zu beschreiben, wie Menschen den Einsatz von Maschinen als Entscheidungshilfe wahrnehmen. Welche Präferenzen sie für oder gegen den Einsatz von Algorithmen haben und inwieweit menschenähnliche Maschinen und Software bei uns Unbehagen hervorrufen oder verringern können. Das Problem beim Erklären und Aufklären über KI: Quellcode und Algorithmen sind oft durch Patente, Markenrechte und Betriebsgeheimnissen geschützt. Aber auch die Entwickler selbst wissen oft nicht, warum eine KI eine bestimmte Ausgabe auf eine Eingabe hin ausgeliefert hat. Bei mehr als hundert Millionen Parametern innerhalb eines künstlichen neuronalen Netzes ist das auch keine Wunder, erst recht nicht, wenn sich das System ohne äußeres Feedback selbst trainiert. Es bleibt daher gar nichts anderes übrig, als nur noch die Ausgaben von KI, also deren Reaktion auf bestimmte Eingaben (prompt). Vor allem sind so verschiedenste Ansätze und Lösungen untereinander vergleichbar.

Eine künstliche Wissenschaft neben der Naturwissenschaft

Im Jahr 1969 schlug Nobelpreisträger Herbert Simon, ein Pionier der künstlichen Intelligenz, eine neue Wissenschaft vor, die das Studium künstlicher Objekte genauso realisieren soll wie das Studium natürlicher Objekte. Er erklärte, Naturwissenschaft sei Wissen über natürliche Objekte und Phänomene. Wir Menschen sollten uns fragen, ob es daneben nicht auch eine künstliche Wissenschaft geben kann, die Wissen über künstliche Objekte und Phänomene analog zur Naturwissenschaft beschreibt und untersucht. Die Interaktion des Menschen mit solchen Lösungen ist dabei nicht nur eine ethische Frage sondern fokussiert auch auf die Art und Weise, wie Computer Daten verarbeiten und gewichten. Aber ebenso wie Menschen die Resultate von automatisierter Statistik und Roboterhandlungen als Text, Grafiken oder motorische Entscheidungen verstehen und interpretieren. Denn sogar Journalisten, die im Grunde schon lange mit automatisierten Texthelfern kooperieren (Rechtschreibhilfe, Übersetzung etc.), haben rund um den ChatGPT-Hype gezeigt, dass sie im direkten Dialog schnell vergessen, dass die Worte nicht einem synthetischen Modell eines Subjekts oder einer Weltsicht entspringen, sondern anhand von erlernten Webtexten und ihre eigenen Texteingaben in den Chatbot jedes Wort so wählen, dass ein regelkonformer Satz entsteht, der eine hohe Äquivalenz zum Durchschnitt der Lernmenge (Trainingsdaten), also dem KI-Gedächtnis aufweist.

2019 haben viele interdisziplinär Forschende rund um Iyad Rahwan vom Max-Planck-Institut für Bildungsforschung in Berlin ein Paper zum Thema verfasst, um einen Rahmen zu beschreiben für das große Feld maschinelles Verhalten. Es beinhaltet auf Basis der Verhaltensforschung von Nikolaas Tinbergen einen Rahmen für diese neue Art des Verhaltens. Der niederländische Forscher schlug vor, zwei Arten von Fragen (Wie versus Warum) und zwei Sichtweisen (dynamisch versus statisch) zu nutzen, die auf drei Untersuchungsebenen (einzelne Maschinen, Maschinenkollektive und hybride Mensch-Maschine-Systeme) untersucht werden können.

Ursachen für synthetisches Verhalten

Die unmittelbaren Ursachen für synthetisches Verhalten haben damit zu tun, wie das Verhalten in bestimmten Umgebungen durch Beobachtung und Gewichtung erkannter Faktoren ausgelöst und erzeugt wird, z. B. KI im Hochfrequenzhandel mit Aktien, die einfache Regeln verwenden, um das Kauf- und Verkaufsverhalten auszulösen, oder Algorithmen des verstärkten Lernens, die Strategien auf der Grundlage adaptiver Heuristiken oder expliziter Maximierung des erwarteten Nutzens berechnen.

Zu den indirekten Ursachen für synthetisches Verhalten gehören externe Anreize und Marktkräfte, die beschreiben, warum sich das Verhalten entwickelt und verbreitet hat, sei es durch Programmierung oder Lernen, vorbehaltlich rechnerischer und institutioneller Beschränkungen, sowie die Folgen des Verhaltens der Maschine in der aktuellen Umgebung, die dazu führen, dass es fortbesteht: entweder weil es für bestimmte Interessengruppen (wie Nutzer oder Unternehmen) attraktiv ist oder zu einem anderen Aspekt der Umwelt passt.

Es wäre also hilfreich Profile von synthetischen Verhaltensweisen zu erstellen, (1) entwicklungsgeschichtliche Erklärungen, wie eine KI bzw. der durch sie gesteuerte Roboter Verhalten erwirbt, (2) mechanistische Erklärungen, was das Verhalten ist und wie es aufgebaut ist, und (3) evolutionäre Erklärungen, wie das Verhalten durch früheren Selektionsdruck oder zuvor entwickelte Methoden beeinflusst wird.

 

Und in der Praxis?

In der Praxis liegt der wesentlich Teil von maschinellem Lernen, eine der häufigsten Methoden von KI aktuell, darin, dass eine erste Lernmenge (das spätere KI-Gedächtnis) aus Trainingsdaten als mentale Biografie bereitgestellt wird – die Lebenserfahrungen aus denen die Software lernt. Am Ende soll aus einer KI-Eingabe oder -Aufgabe ein möglichst smartes Ergebnis  folgen, und damit auch ein kulturell und sozial erwünschtes Resultat. Aus den Trainingsdaten erstellt der KI-Agent (die Software) mittels automatisierter Statistik und Optimierungsverfahren (Gradienten), die später dazu dienen, die Eingabe, also eine Bilddatei, eine Sprachdatei oder eben eine Frage bei einem Chatbot mittels Millionen Gewichtungsvorgänge mit einem passenden Resultat zu beantworten. Um möglichst genau an dem richtigen, korrekten und damit realistischen Ziel zu bleiben, muss mathematisch der Verlust, also die Abweichung (Fehleranteil) minimiert werden. Wenn eine KI Hunde- und Katzenbilder unterscheiden soll, dann ist eine Orientierung an den Hintergrundfarben keine besonders schlaue Orientierung. Denn wenn in den Trainingsdaten viele Hunde im Schnee zu sehen sind und Katzen immer mit Sessel oder Sofa im Hintergrund, dann wird die KI solche Faktoren mit berechnen und gewichten. Diese Orientierung an vorherigen, in die Irre führenden Kriterien nennt man kognitive Verzerrung oder auch Bias. So kann in „neutraler“ Lernalgorithmus (in welchem Sinne auch immer man diesen Begriff verstehen will) ein KI-Modell generieren, das stark von der tatsächlichen Bevölkerungsstatistik oder von einem moralisch oder sozial erwünschten Modell abweicht, einfach weil die Eingabe- oder Trainingsdaten nicht repräsentativ und/oder verzerrt sind. Viele Diskriminierungsvorwürfe gegen KI kommen u.a. daher, dass die Trainingsdaten nicht neutral ausgesucht wurden. Wenn eine KI anhand der Lernmenge gelernt, dass zu 80% Männer in Führungspositionen sind, dann wird sie aus potenziellen Bewerbenden immer Männer bevorzugen, wenn es darum geht, aus einer Menge von Profilen potenzielle Führungskräfte auszuwählen. Das Kuratieren der Trainingsdaten ist daher die erste und wichtigste Aufgabe synthetischer Psychologie. Denn wir bei der Kindererziehung gilt: Sage mir mit wem du gehst. und ich sage dir wer du wirst. Der Einfluss der Startbedingungen wird zwar aktuell über verschiedene robuste oder dynamische Verfahren oft mittels initialen Gewichtungen beschränkt, aber oft greifen sie zu konservativ in den Lernprozess der Algorithmen ein. Es gilt abzuwägen zwischen Fairness und Präzision der Ergebnisse. In den USA gelten viele Minderheiten als geschützte Gruppen, die z.B. in der Personalauswahl im Verhältnis zur Mehrheitsgesellschaft besonders repräsentativ ausgewählt werden müssen (4/5-Regel). Und so können ethnischen, religiöse oder andere Attribute innerhalb der Gesamtbevölkerung antizipierend im Algorithmus integriert werden. Aber schon beim Thema Intersektionalität kommen diese Verfahren der antizipatorischen Bias-Korrektur an ihre Grenzen. Denn Fairness hat viele Gesichter.

 

Künstliche Intelligenz: Bisher Sprachmodelle, bald Weltmodell und mit einem Subjektmodell kommt dann Bewusstsein?

Aus Sicht einer zu gründenden synthetischen Psychologie sind zunächst zwei Bereiche zentral. Denn künstliche Intelligenz bildet unser aktuelles Verständnis von unseren eigenen kognitiven Prozessen im Gehirn ab. Das bedeutet, dass der Weg von einem Gegenstand oder Klang zum Auge oder Ohr innerhalb des Nervensystems als Reizdaten viele Schritte der Einordnung, Gewichtung, Gruppierung und des Abgleichs anhand bereits in der Kindheit gelernter Umweltreize auch in KI-Software abgebildet wird. Im maschinellen Lernen kann man aber, genau wie Neurowissenschaftler, gar nicht erklären, wie das im Inneren passiert. Die Kindheit wird noch nicht als die prägende Phase der frühen Kindheit verstanden, sodass die Lernmenge noch nicht die nötige Aufmerksamkeit erfährt. Mit kognitionspsychologischen Experimenten konnte man in den letzten Jahrzehnten Vorgänge wie das Deuten von Sinnesreizen anhand kleinster Variationen in logische Schritte zerlegen und damit Textverständnis, Bild- oder Diagrammverständnis oder Sprachverstehen beim Menschen erklären. Genau so muss jetzt das Prüfen von KI mit Aufgaben erfolgen, um deren Verhaltenselemente so beschreiben zu können, dass standardisierte Risikoprüfungen möglich werden. Aktuell passiert das mit einfachen Kognitionstests auf der Basis von Textaufgaben, die jeder aus Einstellungstests kennt. Das klingt auf den ersten Blick sinnvoll. Aber Sprachmodelle enthalten weder eine innere Repräsentation von Welt (Weltmodell) noch eine von einem Subjekt, also einer verantwortlichen handelnden Instanz (Subjektmodell). Das einzige was man damit prüft, sind die Repräsentation logischer Regeln innerhalb von KI.  Aber schon im Personalwesen wird einigen klar, dass man bei Testabsolventen, die in solchen logikdominierten Tests gut abschneiden, keineswegs darauf schließen kann, dass sie guten Kunden-/Kollegenumgang pflegen, Führungskompetenzen zeigen oder das sie sinnvoll reagieren auf Unvorhergesehenes. Eine Risikoprüfung von KI ist damit im besten Fall in der Lage, dass durch Training von KI für Prüfungen via data leakage erlernte Inhalte einfach direkt im Resultat landen, ohne dass ein kognitiver Vorgang abgebildet wurde. Es muss also vorher Erfolg und Mißerfolg einer Lösung bestimmt werden. Dann gilt es Indikatoren dafür zu finden und diese Signale möglichst unsichtbar für Entwickler und KI durch Aufgaben abzuprüfen. Logik ist ein zu leichtes, weil regelbasiertes Verhalten. Die aktuellen Lösungen namens chain-of-thought bilden dabei einfach die Aufgabentypen innerhalb von KI ab. KI die im Alltag helfen soll, muss jedoch auf ihre Funktionalität, ihre Resultate und auf den jeweiligen Anwendungskontext überprüfbar sein. Um im Beispiel zu bleiben: Es ist intuitiv einsichtig, dass Intelligenz im Arbeitsleben hilft. Kognitive Leistungstests von Bewerbenden liefern die Chance eine Rangliste zu bilden, um dann vermeintlich objektiv die Besten auszuwählen. Es ist aber nicht belegt worden, dass für die jeweilige Position, der/die Beste im Test auf der/die Geeignete ist. Also führt man Interviews durch, um soziales und kommunikatives Verhalten zu prüfen. Und genau das ist der Bereich, der aktuell für KI und Roboter erforscht werden muss: Wie agiert die Lösung im menschlichen, sozialen, kulturellen Zusammenhang der geplanten Anwendung?

Und wir Menschen? Wie behandeln wir synthetische Kontakte mit Maschinen und Software angemessen?

Der zweite Aspekt einer synthetischen Psychologie ist noch komplexer, wird allerdings schon rudimentär in der Human-Information-Interaction (HII) und Human-Machine-Interaction (Cognitive Systems) abgebildet. Denn es ist ebenso zentral auch die Sicht auf die Nutzenden in der synthetischen Psychologie zu fokussieren. Allein wenn man die Erwartungen an sprachbasierte KI oder Pflegeroboter betrachtet. Oder das Verwechseln eines Chatbots wie ChatGPT mit dem Dialog mit einer realen Person (Subjektmodell) führen zu unerwünschten emotionalen oder kognitiven Zuständen wie Frust, Enttäuschung oder gar Angst. Aber auch die kognitive Belastung durch die Flut an Daten, die KI liefern an und vor allem die nötige menschliche Deutungstätigkeit sind bisher zu wenig erforscht. Forschung rund um social robots und Dialoge mit Chatbots sollten langsam die ausgetretenen Pfade der Technologie und Nutzbarkeit verlassen und mehr Grundlagenforschung anstreben: wie entstehen welche Repräsentationen im Menschen und im künstlichen neuronalen Netz? Welche soziale Last nimmt der Kontakt mit synthetischem Verhalten und welche kulturelle oder kognitive Anstrengung bereitet er? Ab wann wird Information zu Wissen und wann und wie wird es veredelt zu Verständnis und Einsicht. Wenn wir das bei uns nicht untersuchen und verstehen, wie soll dann jemals eine Grundlage für eine Maschinenethik entstehen?

Fazit: Es wird Zeit, das Thema professionell in die Hände vieler Disziplinen zu legen und zu beobachten welche Wege Forschende, Entwickler und Anwender gemeinsam beschreiten können, um Segen und Fluch in der Entwicklung synthetischen Verhaltens vernünftig zu begleiten. Denn die technische Perspektive der oben genannten Interaktionsforschung ist sicher ein Segen, aber fokussiert weder die allgemeinpsychologische Relevanz der Ursachen und Prozesse des synthetischen Verhaltens selbst noch deren basale Konsequenzen auf psychologischer Ebene der Anwender und sozialer Prozesse.

 

Quellen:

Entwurf AI-Act

Interview zum AI-Act aus der (rechtlichen) IT-Praxisperspektive bei heise.de

Callaway, E. (2020) It will change everything’: DeepMind’s AI makes gigantic leap in solving protein structures. Nature, 588, https://doi.org/10.1038/d41586-020-03348-4

Jumper, J., Evans, R. et al. (2021) Highly accurate protein structure prediction with AlphaFold. Nature. https://doi.org/10.1038/s41586-021-03819-2

Rahwan, I., Cebrian, M., Obradovich, N. et al. (2019). Machine behaviour. Nature, 568. 477–486. https://doi.org/10.1038/s41586-019-1138-y

Rahwan, I. (2022). Experiments in Machine Behavior. Proceedings of the ALIFE 2022: The 2022 Conference on Artificial LifeALIFE 2021: The 2021 Conference on Artificial Life. Online. (pp. 10). ASME. https://doi.org/10.1162/isal_a_00473