Künstliche Intelligenz und Gesellschaft: KI-Angst und KI-Kompetenz

Technologie: Tanzpartner oder Bedrohung?
Technologie: Tanzpartner oder Bedrohung? Quelle: Dall-E, CC BY 4.0

Angesichts des aktuell überzogenen Hypes um künstliche Intelligenz auf der einen Seite und unbestreitbarem Nutzen in der Wissenschaft und Wirtschaft verursacht allein die Abkürzung KI bei vielen Menschen Angst. Doch neben Befürchtungen vor Arbeitsplatzverlust oder gesellschaftlichen Risiken in einigen Teilen der Bevölkerung ist bei Firmen eine ganz andere Angst entstanden: Können unsere Mitarbeitenden KI überhaupt präzise bewerten oder gar einsetzen? Neue Technologien auf Risiken und Chancen abzuklopfen, erfordert objektive und subjektive Kriterien. Die psychologische Forschung zu wahrgenommenen KI-Ängsten und KI-Kompetenzen ist noch jung, aber sehr aktiv. Wir werfen einen Blick unter die Motorhaube der aktuellen Wirkungsforschung rund um KI: Denn Bildungsverantwortliche, Personaler (HR) sowie medialer und gesellschaftlicher Diskurs brauchen feste Fundamente unter die KI-Diskussionen. Hoffen wir, dass mithilfe dieser Fragebögen die Abteilungsmeetings und Talk-Shows künftig ein bisschen näher an die Realität heranrücken…

Das McKinsey Global Institute (MGI) ging 2017 noch davon aus, dass je nach Geschwindigkeit der Einführung von KI bis zum Jahr 2030 75 bis 375 Millionen Arbeitnehmer (3 bis 14 % der weltweiten Erwerbsbevölkerung) ihren Beruf wechseln und/oder ihre Fähigkeiten verbessern müssen. Angesichts der Tatsache, das bereits jetzt KI innerhalb von Microsoft Office (Copilot) bzw. in Google Workplace Routineaufgaben im Büro integriert wurde, ist mittelfristig eher vom Fünffachen der Werte auszugehen. Die Relevanz von Wirkungsforschung dürfte kaum zu überschätzen sein. Denn es ist zu erwarten, dass sich Automatisierungstechnologien und neue Anwendungen rund um KI in naher Zukunft erheblich ausbreiten werden. Die Wahrnehmung von KI durch die Nutzer dieser Technologien wird das Tempo und den Erfolg dieser Entwicklungen erheblich beeinflussen. Daher ist es für eine erfolgreiche Förderung der Nutzerakzeptanz sowie für die Erforschung der Nutzung selber entscheidend, die wahrgenommenen Ängste der Nutzenden und ihre Fachwissen zu untersuchen. Sei es um betriebliche Weiterbildung, gesellschaftliche Akzeptanzforschung oder Risikoforschung mit validen Messinstrumenten auszustatten – oder um die Entwicklung selbst über die Zeit zu beobachten. Da ich gerade ein Projekt abgeschlossen hatte, um Konstrukt- sowie Inhaltsvalidität und Methodik internationaler und interkulturelle Eignungsmessungen für das neue Kompetenzmanagement in einem Konzern zu prüfen, hatte ich den Projektumfang aus aktuellem Anlass erweitert, um den Ast um digital literacy im Kompetenzmanagement zu aktualisieren und zu erweitern. Dieser Artikel bietet einen kleinen Einblick in meine Recherche.

Die Angst gegenüber Computern im Allgemeinen und der Digitalisierung wird schon lange erforscht und reicht von Studierenden (Korobili et al., 2010) bis zu Angestellten und Führungskräften. Wie Barbeite und Weiss (2004) vorgeschlagen haben, kann Angst im Umgang mit Computern als affektive Reaktion charakterisiert werden. Bisher haben leider nur wenige Studien diese Ängste für die breite Öffentlichkeit untersucht. Verschiedene psychologische Skalen wie die Computer Anxiety Scale (Charlton & Birkett, 1995), Mobile Computer Anxiety Scale (Wang, 2007), die Skala zur Angst vor dem Internet (Internet Anxiety Scale) (Chou, 2003) und die Skala zur Angst vor Robotern (Robot Anxiety Scale) (Nomura et al., 2006) wurden in der Vergangenheit verwendet, um zu bewerten, wie Menschen ihre Befürchtungen mit digitalen Werkzeugen erleben. Diese Messungen der Computer-, Internet- und Roboterangst sollten wir jedoch als unzureichend ansehen, wenn sie auf KI-Technologien/Produkte angewendet werden. Denn das Thema ist aufgeladen durch mediales Halbwissen, mangelnde Risikoforschung und einen industriell verengten Fokus auf Automatisierung.

KI-Angst (AI anxiety)

Die bisherigen Fragebögen befassen sich hauptsächlich mit der affektiven Komponente zu mittlerweile eingeübten Technologien, die vielfach den Alltag im Büro, der Schule und zuhause mitbestimmen. Sie leiten sich vielfach von Technophobie ab. Diese Aversion gegenüber Technik zeigt sich durch das Vorhandensein einer oder mehrerer der folgenden Eigenschaften:

  • Angst vor aktuellen oder zukünftigen Interaktionen mit computerbezogenen Technologien
  • allgemein eher negative Einstellungen gegenüber computerbezogenen Technologien, deren Verhaltensweisen und/oder sozialen Auswirkungen
  • spezifische negative Kognitionen in Form von selbstkritischen inneren Dialogen bei tatsächlichen computerbezogenen Technologie-Interaktionen oder bei der Erwägung zukünftiger Interaktionen (Weil & Rosen, 1990)

Der Forschungszweig der Interaktion zwischen KI und Menschen (HAII) ist in Deutschland leider wenig bekannt. Das hat zum Teil damit zu tun, dass politische Parteien systematisch wesentliche Zukunftstechnologien des 21. Jahrhunderts wie Erneuerbare Energie, synthetische Biologie, Werkstoffforschung und eben KI strategisch „übersehen“, um die sterbende europäische Automobilindustrie zu beschützen. Ein Teil liegt in der Angst vor dem Neuen begründet, mit dem das konservative Lage Wähler einfängt. Die Forschung fokussierte bisher ganz industrienah die Anwendungsoberflächen via Human-Computer-Interaction (HCI) oder als UX, also das Nutzererleben auf digitalen Präsentationsoberflächen. Human-Information-Interaction (HII) als mögliche Grundlagenforschung von HAAI ist in Deutschland weitgehend unbekanntes, maximal stiefmütterlich betriebenes Nischenfach.
Technophobie ist mittlerweile ein gesellschaftlich verankertes Vehikel, dass immer dann politisch in Gang gesetzt wird, um Subventionen in bestimmte Kanäle zu leiten, um so einer Diversifizierung in der Forschungspolitik und Entrepreneurförderung (Startups) nur dazustellen, aber nicht konsequent zukunftsorientiert umzusetzen. Aber auch der Forschungszweig der HAII selbst hat bisher vor allem die Entwickler in den Blick genommen. Die (zukünftigen) Nutzenden waren und sind auf mehr oder weniger gut recherchierte Zeitungs- und Blogartikel angewiesen, die nicht selten mit Empörung, gefährlichem Halbwissen und viel Angst hantieren und Reichweite zu generieren. Die Sozialwissenschaftler und Politiker folgen leider den selbst ernannten „Experten“ in den sozialen Medien, sodass die gesamte Diskussion wichtige Bereiche schlicht ausblendet und das entstehende Vakuum mangels Fachwissen durch bildungsbürgerliches Gehuber rund um Luhmann, systemische Methoden, falsche Vorstellungen von Kognition oder gar abseitige Dystopien der Arbeitswelt ergänzt wird. Das ist die dysfunktionale Seite der fehlenden KI-Kompetenz, die leider auf die unterschwellige Technophobie trifft und zu einem Amalgam aus Empörung und Heilsversprechen verklumpt. Betrachten wir zunächst die Seite der Angst genauer, die kennen wir alle:

Angst hat zwei Seiten: Es gibt ein relativ stabiles Persönlichkeitsmerkmal bestimmter Personen gegenüber bestimmten Reizen: manche reagieren auf Spinnen, andere auf Schmutz, Unordnung, Krach oder das Fehlen eines Plans für die nächste Woche. Es gibt aber auch eine situative Komponente, die Angst auslösen kann. Diese momentane Angst kann als vorübergehender emotionaler Zustand definiert werden, der aus einem Gefühlen der Besorgnis, Nervosität und/oder dem Beobachten eigener physiologischer Körpersensationen wie einer erhöhten Herzfrequenz oder schneller Atmung besteht (Spielberger 1979). Beim Thema KI kommt eine besondere Form hinzu, die man als Angst vor Kontrollverlust definieren kann. Die Beziehung zu einer derartig umwälzenden Entwicklung wie KI wird daher gut beschrieben mit der Theorie des überlegten Handelns (Theory of reasoned action; TORA) von Fishbein und Ajzen. Sie geht davon aus, dass Individuen vernunftgesteuerte Wesen sind, die die ihnen zugänglichen Informationen systematisch verarbeiten und sich in Übereinstimmung mit dem von ihnen subjektiv wahrgenommenen Nutzen verhalten.

Was aber ist nun der Nutzen von künstlicher Intelligenz für mich als Individuum? Diese Frage kann aktuell kaum jemand beantworten, da uns allen die Kompetenzen zu KI fehlen und durch halbgare Ideen oder gar Befürchtungen im Netz das Unwissen scheinbar ersetzt wird (wir kommen später zu den Kompetenzen). Die persönliche Überzeugung auf Basis vieler Artikel und Fernsehbeiträge ist daher eine wesentliche Voraussetzung für die Bildung einer Verhaltensabsicht gegenüber KI. Angesichts dieser theoretischen Grundlage kann die Angst vor KI als eine Überzeugung betrachtet werden, die als Vorläufer oder Vermittler der Verhaltensabsicht KI anzuwenden dient. Kausale Faktoren (Interesse, Offen für Neues, Hilfsmittel im Alltag) verbinden Einstellungen (Teufelszeug, Segen) zu Motiven als Treiber für zukünftigen Verhaltensweisen. Um den besonderen Eigenschaften und der neuartigen Situation gerecht zu werden, wurden in den letzten Jahren daher andere spezifische Fragebögen entworfen wie die „Attitudes Towards Artificial Intelligence“ Scale (Sindermann et al., 2021), die „General Attitudes Towards Artificial Intelligence Scale“  (Schepman & Rodway, 2022) sowie die “Artificial Intelligence Anxiety Scale” (Wang & Wang, 2022). Es wäre sicher hilfreich, diese Instrumente einzusetzen, bevor eine Einführung via Copilot in Office erfolgt. Vor allem, um in einem Vorher/Nachher-Vergleich in einer Pilotphase die Veränderungen (Prä/Post) zu evaluieren. Denn so können zukünftig Aufgaben für die Personalentwicklung abgleitet werden, die dann zu einem Aufbau von KI-Kompetenzen führen können und sollten – und zwar schon vor dem produktiven Einsatz.

KI-Kompetenz (AI Literacy)

Der schwierigere Teil ist die mentale Belastung (cognitiv load), die mit dem Einsatz neuer Technologien wie KI einhergeht. Selbst Menschen, die offen und neugierig an diese Werkzeuge herangehen, sind aufgrund unangemessener Erwartungen enttäuscht oder überwältigt von den Resultaten. Beides kann hemmende oder übersteigerte Wirkungen auf die Nutzung und die begleitende emotionale Stimmung haben. Der Begriff „Literacy“ meint ein Bündel an Kompetenzen, die einen reifen und zielgenauen Umgang begründen. Er bezeichnete ursprünglich mit dem Lesen & Schreiben eine zivilisatorische Grundfertigkeit der modernen Welt. Als vor 30 Jahren die Digitalisierung die Arbeitswelt grundlegend neu strukturierte, sprach man von „digital literacy“. Jetzt wird es wichtig eine AI-Literacy oder KI-Grundkompetenz zu erwerben. Einerseits, um die durch Angst und Befürchtungen gehemmte Verhaltensabsicht, KI zu nutzen zu überwinden. Aber andererseits ist sie auch wichtig, für sich selbst, für die eigene Karriere und nicht zuletzt, um für ein Team oder eine Firma Nutzen aus den neuen Werkzeugen zu ziehen. Die Kenntnis und das Einsetzen von KI für künftige Berufe ist jedoch nur ein, wenn auch wichtiger Aspekt der Vermittlung von KI-Kenntnissen. Jede derart mächtige Technologie wie KI birgt auch neue Risiken durch algorithmische Verzerrungen (bias), ethische Fragen durch den Einsatz von Arbeitskräften aus der dritten Welt, um Unerwünschte zu „entlernen“ und auch die böswillige Nutzung von KI (Brundage et al., 2018). Dabei wird die Bedeutung der Rolle der KI-Ethik sowie der realistischen Einschätzungen der Risiken oft übersehen oder aufgrund hoher Komplexität und mangelnden Wissens ausgeblendet. Vor allem, da sie im Arbeitsumfeld als irrelevant oder überflüssig gegenüber technischen Belangen angesehen wird (Hagendorff, 2020). Softwareentwickler haben nicht selten selbst das Gefühl, dass es an individueller oder organisationaler Verantwortlichkeit und moralischer Einordnung ihrer Arbeit mangelt, insbesondere wenn wirtschaftliche Anreize das Engagement für ethische Grundsätze und Werte überlagern.  Statt klarer inhaltlicher Test liegen nun aber zumindest erste validierte Fragebögen vor, die die wahrgenommenen KI-Kompetenzen bzw die Motivation zum Erwerb hinsichtlich des Fachwissens im Selbstbericht ermöglichen „AI literacy questionnaire“ (Laupichler et al. 2023), die Arbeiten von Ng et al. aus 2019 sowie die Bereitschaft KI -Themen zu erlernen (Lin et al., 2021). Zukünftig wäre noch eine Skala für Vertrauen in KI sinnvoll. Und natürlich müssen auch objektive Tests folgen, die genau das objektiv abprüfen, was Laupichler und Kollegen subjektiv als wahrgenommene Kompetenz beschreiben. Zum einen, um in Querschnittsdesigns Common-Method-Variance  (unabhängige und abhängige Variable sollte man NICHT in derselben Befragungen und nicht nur subjektiv erheben) zu reduzieren und zum anderen, um klare Hinweise zu erhalten, ob und wie Interventionen, Seminare und Weiterbildungen (langfristig) fruchten.

Fazit: Neben den Ängsten in der Bevölkerung und in vielen Belegschaften sind vor allem die Motivationslagen zum Erwerb von KI-Fachwissen und -Kompetenzen entscheidend dafür, ob und wie Deutschland den Anschluss an eine der Schlüsseltechnologie der Zukunft finden kann. Es nutzt nichts, unbegründete Empörungen oder Forderungen auf der Basis von wenigen Stunden Lektüre und Recherche zu verbreiten. Neben den ersten KI-Beratern sprießen jetzt auch allerlei empörte Kritiker aus dem Boden. Fast alle nutzen anschlussfähiges Wissen aus ihren vorherigen Tätigkeiten, um der staunenden Menge KI zu erklären. Kaum einer von denen hat das substantielle und breite Wissen, das nötig ist, um Ursache und Wirkungen angemessen zu beschreiben, zu erklären und Vorhersagen mit begründeter Wahrscheinlichkeit zu verbreiten. Es wird Zeit, die Diskussion möglichst breit und möglichst nahe am Menschen auf den Boden der Tatsachen zu stellen. Dabei sind überbordende Ängste und fehlende Kompetenzen zentral für Akzeptanz und gesellschaftlichen Wert. Zeit, diese beiden Konstrukte erstmal zu messen, um zu wissen, wo wir stehen.

Weitere Lektüre auf Deutsch: AI Literacy: Kompetenzdimensionen und Einflussfaktoren im Kontext von Arbeit (Paper des BMAS)
Ein ordnender Überblick: Conceptualizing AI literacy: An exploratory review