Von Jovana Popic
Forschung
Digitalisierung mit all ihren Konsequenzen ist in aller Munde. In Deutschland fokussiert sich die gesellschaftliche und politische Debatte jedoch immer noch stark auf die kurzfristigen Chancen und auf noch weitgehend abstrakte Risiken der künstlichen Intelligenz: Seit 8 Jahren verkündet die Bundeskanzlerin unentwegt, Deutschland müsse „bei der Digitalisierung aufholen”. Parallel wird von führenden Wissenschaftlern und Politikern längst der Systemwettbewerb mit den in der Nutzung digitaler Technologien führenden Ländern wie China propagiert. Und die langfristige politische und gesellschaftliche Diskussion fokussiert sich häufig auf abstrakte, spekulative Einzelaspekte wie der Frage, ob „AI-Systeme” den Menschen die Arbeit wegnehmen werden und führen damit nebenbei zur Neubelebung altbekannter liberaler Diskussionen wie der zu Grundeinkommen beziehungsweise Bürgergeld.
Doch unabhängig von diesen Diskussionen verändert die, hierzulande vorwiegend von amerikanischen „Big Tech”-Konzernen wie Amazon, Apple, Facebook, Google und Microsoft getriebene, Digitalisierung weiter rasant und unwiderruflich nicht nur die Funktionsweise unserer Gesellschaft und unserer Demokratie. In rasantem Tempo scheint auch unser humanistisch-freiheitliches Selbst- und Menschenbild auf dem Prüfstand zu stehen.
So erklärte der Historiker Yuval Noah Harari in einem Videointerview zu seinem Buch “Homo Deux” im Jahr 2017 treffend „Google and Facebook can create an algorithm that knows you better than you know yourself”. Und auch in den USA schwenkt die jüngste politische Debatte von den Chancen auch auf die Risiken der Digitalisierung und insbesondere auf die Macht von „Big Tech”-Unternehmen und ihrer die menschlichen Schwächen ausnutzenden Algorithmen um.
Doch Weiterentwicklung ist ungebrochen, während hierzulande politisch noch die Versäumnisse der Vergangenheit aufgearbeitet werden, setzt sich die Beschleunigung der technischen, und damit auch sozialer und politischer Entwicklungen, unverändert fort. Algorithmen erreichen uns an immer mehr Stellen und mit immer mehr Möglichkeiten und Fähigkeiten: Mehr als 1 Milliarde aktiv genutzte Telefone weltweit verfügen inzwischen über Apple‘s digitales Assistenzsystem „Siri”, die Zahl der in Deutschland verkauften und genutzten Geräte mit „Alexa“-Assistenten von Amazon wird inzwischen auf über 11 Millionen geschätzt. Das Ganze wird nach einer jüngsten Studie der Postbank nur übertroffen von Google‘s „Assistant”, der jüngst auch auf unserem heimischen, vernetzten Fernseher plötzlich und per automatischem Software-Update erschien.
Und diese Assistenten sind inzwischen in der Lage, Nutzer und Kontexte für Inhalte und Gespräche zu erkennen und zu berücksichtigen. Unter anderem können sie auch auf Kontexte zugreifen, welche elementarer Teil des kulturellen Gedächtnisses sind und in digitalen Datenarchiven gespeichert werden (z.B. der Zugriff dieser Assistenten auf die Plattform „Wikipedia“ für die Klärung wichtiger politischer und historischer Begriffe).
Dabei ist der Prozess der Aufbewahrung digitaler Inhalte evolutionär und, nicht nur wegen der heuristischen Filterung der Inhalte durch komplexe, nutzer- und ortsbasierte Filter, unkontrolliert. Der Prozess der Aufbewahrung, Kategorisierung, Verknüpfung und des Abrufs dieser Inhalte ist oftmals aus anthropologischer Sicht nicht transparent. Schon Georg Simmel (1858 - 1918) nannte den Prozess des kollektiven Gedächtnisses bereits im vergangenen Jahrhundert „die Tragödie der Kultur“. Neben einem Filter bestimmen auch algorithmische, von Menschen entwickelte Modelle wie der „Google Knowledge Graph“ das heutige Ergebnis einer „kollektiven Gedächtnisabfrage“. Und damit zum Beispiel die Priorisierung von Inhalten und deren gesellschaftlicher Bedeutung. Ungeachtet ihrer künstlerischen Leistung: Verdienen es Dieter Bohlen und Nena von Google‘s „Assistant“ bei der Frage nach „großen deutschen Künstlern“ in einer Reihe mit bekannten deutschen Malern wie Albrecht Dürer und Paul Klee genannt zu werden?
Humanistische Vordenker, wie Jean Jacques Rousseau im 18. Jahrhundert oder der liberale Denker Lionel Trilling in seinem Buch „The Liberal Imagination" aus dem Jahr 1950, hatten uns bislang davon überzeugt, dass unsere eigenen Gefühle und Emotionen die ultimative Quelle von Lebenssinn und Ideen seien. Laut Rousseau ist es unser freier Wille, welcher die höchste Autorität habe. Heute jedoch sind wir die Zeugen einer Verschiebung der humanen Autorität und humanistischen Ideologie hin zu einem neuen, universellen Narrativ. Nicht nur die Hightech-Gurus und -Propheten aus dem Silicon Valley propagieren, dass die Autorität von Technik, Algorithmen und Big Data („Dataismus“) ein legitimer Fortschritt seien. Auf den Punkt brachte diese Entwicklung Yuval Noah Harari schon im Jahr 2016: „In its extreme form, proponents of the Dataist worldview perceive the entire universe as a flow of data, see organisms as little more than biochemical algorithms and believe that humanity’s cosmic vocation is to create an all encompassing data-processing system – and then merge into it.“
Teile dieser Verschmelzung sind bereits heute sichtbar. Doch wie verändert der Umgang mit diesen „algorithmischen Assistenzsystemen” unsere Wahrnehmung, unsere Kultur, unser Wissen, unsere Meinungsbildung, unsere Kreativität, unsere Emotionen und insbesondere unsere Gedächtnisprozesse? Wie bestimmt sich individuelle, menschliche Identität im Kontext eines größeren Systems, bei dem die Interaktion mit diesen Technologien zu einem Teil des wahrgenommenen Selbst wird? Und wie können wir, sozial wie politisch, den Rahmen für eine menschengerechte „Mensch-Maschine-Interaktion” gestalten? Diesen drängenden Fragen widme ich mich in meinem Promotionsvorhaben, auch experimentell. Über einen Diskurs hierzu auch mit den Lesern des „freiraum“-Magazins würde ich mich freuen.
Denn zu den langfristigen individuellen wie sozialen Auswirkungen der Interaktion mit diesen digitalen, algorithmischen Assistenzsystemen und deren „Gedächtnis“-Kapazitäten existiert, schon aufgrund der relativen Neuheit der Technologien und des aktuell hohen Entwicklungstempos, noch keine systematische Forschung. Insbesondere die humanistischen, sozial- und systemwissenschaftlichen Aspekte und Prozesse des sozialen/kollektiven, kulturellen und individuellen Gedächtnisses werden bislang eher theoretisch beschrieben.
Doch wie funktionieren menschliche Gedächtnisprozesse, individuell wie kollektiv, wirklich? Für Anthropologin Aleida Assmann oszilliert die Dynamik des menschlichen Gedächtnisses stets zwischen den Prozessen der Erinnerung und des Vergessens; sie sei ein wichtiger Teil der sozialen und politischen Strategien für die Bildung von individuellem und kollektivem Gedächtnis. Das, was nicht vergessen wird, wird dem aktiven, selektiven Funktionsgedächtnis und dem passiven, akkumulativen Speichergedächtnis zugewiesen. Das in der Einrichtung des Archivs repräsentierte Speichergedächtnis sei dafür zuständig, dass immer weiter anwachsende Wissen unkommentiert aufzunehmen und einzulagern. Das Funktionsgedächtnis treffe dagegen aus dem Gespeicherten eine hochselektive Auswahl von durch politische und kulturelle Institutionen als relevant erachtetem Wissen. Laut Assmann haben sich in modernen Gesellschaften zwei Veränderungen der traditionellen Strukturen des kulturellen Gedächtnisses herausgebildet: In modernen Gesellschaften wächst und entgrenzt sich das Speichergedächtnis mit rasanter Geschwindigkeit, was eine notwendige Verengung des Funktionsgedächtnisses nach sich zieht. Durch digitale Speichermedien werden heute die „Kapazitätsschwächen“ des menschlichen Gedächtnisses überwunden.
Doch wie werden unsere Gedächtnisinhalte und unsere Identität heute konstruiert? Warum sind auch Prozesse des Vergessens für das Formen von Erinnerung wichtig? Bereits im letzten Jahrhundert argumentierte der französische Anthropologe Maurice Halbwachs (1877 - 1945), dass Gedächtnis, Identität und Wissen durch die Lernprozesse innerhalb einer Gruppe konstruiert würden und dass sich auf eine kohärente und dauerhafte Weise zu Erinnern ohne diesen Kontext unmöglich sei. So werde die Grenze zwischen individuellen und kulturellen Erinnerungen sowie individueller und Gruppenidentität fließend.
Heute wird das Konstrukt des individuellen und kollektiven Gedächtnisses stärker und stärker von der kollektiven Erfahrung der Nutzung des Internets bestimmt. Prozesse des Vergessens sind ein wichtiger Bestandteil eines bisher begrenzten menschlichen Gedächtnisses und machen Prozesse der Erinnerung erst möglich. Doch durch das Internet und die darauf aufbauenden Technologien vergisst die Menschheit nicht mehr, sie verschiebt die Erinnerungen lediglich in ein digitales Depot, auf das sich in seiner Gesamtheit immer schwerer zugreifen lässt und das zukünftig immer mehr von „Gatekeepern“ wie den besagten digitalen Assistenten kontrolliert werden wird.
Der Schriftsteller Lionel Trilling analysierte in seinen liberalen politischen Essays, dass Gefühle auf unser rationales Denken grundlegenden Einfluss ausüben. Da dies meistens unbewusst passiere, sei dies ein Einfallstor für Manipulation.
Unsere Emotionen zu „hacken“ steht somit implizit auch seit Jahren im Fokus der auf Aufmerksamkeit, Nutzungszeit und Transaktionen abzielenden „Big-Tech“-Industrie. Daher untersuche ich in meiner Arbeit weiter die bereits oben erwähnte Rolle der menschlichen Emotion in den Prozessen der Gedächtnisbildung im Kontext der Nutzung digitaler Assistenten. Durch zunehmend menschlicher wirkende Benutzerschnittstellen wie Sprachdialog, Robotergestik und -mimik sowie entstehende Kontextsensitivität digitaler Assistenzsysteme sehe ich dies als stetig relevanter werdend an. In meiner aktuell beginnenden experimentellen Forschung untersuche ich die These, dass der Mensch digitale Assistenzsysteme vermenschlicht („Alexa, wie geht es dir heute?“) und diese technologischen Helfer in seinem Alltag zunehmend als Teil der eigenen Identität, sozialen Gruppe, Erfahrung und auch individuellen Erinnerung wahrnimmt. Nehmen wir uns, bei aller Bequemlichkeit und bei allem Nutzen dieser Systeme, wirklich die Zeit zu reflektieren, welchen Nutzen, aber auch welche langfristigen Risiken und Nebeneffekte die Nutzung dieser Technologien bringt?
Denn ohne Reflexion und gegebenenfalls auch bewusste Entscheidung für die humanistisch-liberalen Ideale landen wir sonst wirklich in einer Welt, die Google‘s ehemaliger Designethiker Tristan Harris ironischerweise in seiner Netflix-Dokumentation „The Social Dilemma” und jüngst treffend für Einzelfälle aus China vorwegnimmt: „After 9 - 10 weeks, people prefer their friend, this virtual ai chatbot, to their real friends. Because that chatbot is always there, it is always available, and it will say: I love you”.
- Name: Jovana Popic
- Fachbereich: Philosophie, Literatur-, Theater-, Film- und Musik und Kulturwissenschaft, Dramatologie
Institut: Institut für Geistes- und Sozialwissenschaften - Universität: Universität Zagreb
Die Autorin ist seit März 2020 in der Promotionsförderung der FNF.
freiraum #69