Techsolutionismus
Künstliche Intelligenz – ein Bündel von Metaphern
„Wir bauen gerade neue Welten – wir Menschen, gemeinsam mit der KI. Die kann uns an einigen Stellen so gut imitieren, dass Verwechslungsgefahr besteht. Als Allzwecktechnologie stellt uns KI vor zahlreiche gesellschaftliche Grundfragen.“ (Miriam Meckel, Léa Steinacker, Alles überall auf einmal – Wie Künstliche Intelligenz unsere Welt verändert und was wir dabei gewinnen können, Hamburg, Rowohlt, 2024)
Künstliche Intelligenz (KI) ist in den letzten Jahren in den Mittelpunkt hitziger Debatten gerückt, die durch die rasanten Entwicklungen in der realen Welt und durch spekulative Erzählungen angefeuert werden. Aber worüber reden wir eigentlich? Und welche Sprache verwenden wir? Apokalyptische Szenarien gibt es in Hülle und Fülle. Bekannte Wissenschaftler:innen und Technik-Visionär:innen äußern Bedenken hinsichtlich der möglichen negativen Auswirkungen von KI. So warnte Physiker Stephen Hawking, KI könnte das Ende der Menschheit einleiten, Philosoph Nick Bostrom sieht die Gefahr einer uns kontrollierenden Superintelligenz, und Unternehmer Elon Musk vergleicht KI gar mit dem Beschwören eines Dämons. Im Jahr 2023 wurde eine Erklärung veröffentlicht, die forderte, dass „die Minderung des Risikos der Auslöschung durch KI eine globale Priorität sein sollte“. Zu den Unterzeichnern gehören Persönlichkeiten wie Sam Altman, Demis Hassabis, Geoffrey Hinton, Bill Gates und Hunderte andere. Es ist unzweifelhaft, dass die Auseinandersetzung mit den Implikationen von KI globale Aufmerksamkeit und konzertierte Anstrengungen erfordert. Allerdings bleibt umstritten, ob solche Aussagen mehr als Marketingstrategien und Ablenkungsmanöver von realen Problemen im Zusammenhang mit KI wie Datenschutzrechten, Urheberrechtsfragen und schlechte Arbeitsbedingungen sind.
KI in der Science Fiction als Projektionsfläche
Als „cautionary tales“ – warnende Beispiele – spiegeln die zitierten Vorhersagen und Warnungen über die potenziellen Gefahren von KI bestimmte Themen wider, die in Science-Fiction-Narrativen zu finden sind. Besonders deutlich wird dies in populären Geschichten, in denen mächtige KIs die Kontrolle übernehmen und die Existenz von Menschen oder der gesamten Menschheit bedrohen, wie HAL 9000 in „2001: A Space Odyssey“ (1968), Skynet in „Terminator“ (ab 1984) oder der Maschinengott in „Matrix“ (ab 1999). Science-Fiction reflektiert hier tief verwurzelte Ängste vor unbegrenztem technologischen Fortschritt, der sich der menschlichen Kontrolle entzieht. Die Darstellungen dienen aber auch als Metaphern für umfassendere Bedenken hinsichtlich unmenschlicher Strukturen, Ideologien oder Institutionen. In diesem Kontext stehen HAL 9000, Skynet und der Maschinengott für Ängste vor totalitären, unterdrückerischen und ausbeuterischen Systemen, in denen Widerspruch oder Opposition unmöglich ist. Fiktive KI bietet somit die perfekte Leinwand, um diese Ängste zu projizieren.
Um diesen Punkt der Projektion weiter zu veranschaulichen, möchte ich zwei Beispiele anführen, ein reales und spekulatives:
- Erstens wird in der Serienadaption von Aldous Huxleys Klassiker „Schöne Neue Welt“ aus dem Jahr 2020 die totalitäre Weltregierung nicht mehr wie im Original von Menschen repräsentiert, sondern von einem KI-System namens Indra, das von Menschen geschaffen wurde, um die Welt zu retten. Offensichtlich ist KI zu einer zeitgemäßen Metapher für nicht rechenschaftspflichtige Systeme geworden.
- Zweitens stellen wir uns vor, Franz Kafkas Buch „Der Prozess“ – das sich um das Schicksal des Bankangestellten Josef K. dreht, der von den Behörden verfolgt wird, ohne dass er jemals erfährt, welchen Vergehens er bezichtigt wird – würde in einem neuen Film adaptiert. Ich bin mir sicher, dass der undurchsichtige bürokratische Justizapparat, der Josef K. schikaniert, heute durch ein undurchschaubares KI-System ersetzt werden würde.
Diese Beispiele zeigen, dass fiktive KI sowohl reale Ängste vor unkontrollierter technologischer Entwicklung ansprechen kann als auch breitere gesellschaftliche Bedenken hinsichtlich Machtstrukturen und Kontrollmechanismen, die über die KI hinausgehen. Im Folgenden möchte ich drei Deutungsebenen aufzeigen: KI als Metapher für Regierungssysteme, für Unternehmen, sowie für die Wissenschaft.
KI als Metapher für Politik
Mächtige KI-Systeme in der Science-Fiction können konkret eine Metapher für totalitäre, autokratische, inhumane oder intransparente Regierungssysteme und politische Ideologien darstellen. Oft haben diese Systeme eine positive Anfangsidee, doch „gute Ziele“ wie Frieden oder die Rettung der Menschheit können desaströse Auswirkungen haben, wenn sie absolut gesetzt werden. Das US-Verteidigungssystem Colossus in „The Forbin Project“ (1970) sichert den Weltfrieden im Kalten Krieg durch Kommunikation mit seinem sowjetischen Pendant Guardian, nimmt aber den Menschen jegliche Entscheidungsmacht; und Dissidenten werden zur Warnung öffentlich hingerichtet. Ebenso drakonisch regiert der Computer α-60 in „Alphaville“ (1965): Wer von den Prinzipien der Logik abweicht und Gefühle zulässt, wird in den Selbstmord getrieben oder umgebracht.
Das Computersystem V.I.K.I. aus „I, Robot“ (2003) plant sogar, Teile der Menschheit auszulöschen, um die Erde und das Überleben der Menschheit zu sichern. Während V.I.K.I.s Plan vereitelt wird, hat Æther aus Tom Hillenbrands „Hologrammatica“ (2018) mehr „Erfolg“: Die KI dezimiert die Menschheit mithilfe eines tödlichen Virus, um die Welt vor dem Klimakollaps zu bewahren. Diese Beispiele zeigen weniger die Bedenken vor einer tatsächlichen Übernahme durch KI, sondern verweisen auf die Sorge vor unfreien politischen Systemen, die – mit oder ohne ein zunächst positiv verstandenes Ziel – die Menschenrechte aushebeln und zu oppressiven Regimen werden. Solche Narrative betonen die Gefahr, dass Machtkonzentration und fehlende Transparenz, selbst unter dem Deckmantel des Wohlwollens, zu einer ernsthaften Bedrohung für Freiheit, Selbstbestimmung und Menschlichkeit werden können.
KI als Metapher für Ausbeutung
Übergeordnete KI-Systeme in der Science-Fiction können auch eine Metapher für Unternehmen sein, die Effizienz und Gewinn über das Wohl der Mitarbeitenden und der Umwelt stellen. In E.M. Forsters Kurzgeschichte „The Machine Stops“ (1909) übt die Maschine zentrale Kontrolle über die Menschen aus, vergleichbar mit einem Unternehmen, das durch Richtlinien und Hierarchien die Abläufe seiner Mitarbeiterinnen bestimmt. Die Abhängigkeit der Menschen von der Maschine spiegelt wider, wie Mitarbeiter:innen auf ihren Arbeitsplatz angewiesen sind, um ihren Lebensunterhalt zu bestreiten. Zudem unterdrückt die Maschine Individualität und priorisiert Effizienz über Menschlichkeit, was zeigt, wie manche Unternehmen Konformität und Produktivität über persönliches Wohlbefinden stellen. Der finale Zusammenbruch der Maschine dient als Warnung vor der Zerbrechlichkeit rigider Systeme, ähnlich wie Unternehmensfehler durch Vernachlässigung von Flexibilität und menschlichen Faktoren entstehen.
Ähnlich problematisch ist die Situation in Philip K. Dicks Novelle „Autofac“ (1955). Hier müssen sich Menschen nach einem zerstörerischen Weltkrieg gegen eine automatisierte Fabrik behaupten, die durch ihre endlose Produktion alle Ressourcen aufzubrauchen droht. Diese Fabrik, ursprünglich entwickelt, um den Menschen zu dienen, agiert ohne Rücksicht auf Umwelt oder menschliche Bedürfnisse. Sie steht für den rücksichtslosen Ressourcenverbrauch und die Zerstörung der Umwelt in einem wirtschaftsgetriebenen System. Das Motiv der unkontrollierten, ressourcenverschlingenden Fabrik in „Autofac“ warnt vor den Folgen ungebremsten Wachstums und blinder Automatisierung. Es fordert zur Reflexion über den verantwortungsvollen Umgang mit Technologie und die Notwendigkeit, wirtschaftliche Aktivitäten mit ökologischen und sozialen Bedürfnissen in Einklang zu bringen. Wie Forster in „The Machine Stops“ mahnt auch Dick zur Wachsamkeit gegenüber Systemen, die die Menschlichkeit untergraben und die Natur ausbeuten.
Im Dunstkreis des modernen Silicon Valley spielt Frank Schätzings Roman „Die Tyrannei des Schmetterlings“ (2019). Der fiktive Unternehmer Elmar Nordvisk – eine Anspielung auf reale Charaktere wie Mark Zuckerberg oder Elon Musk – entwickelt in Kalifornien den Quantencomputer A.R.E.S. (Artificial Research and Exploring System), der alle Menschheitsprobleme lösen soll. A.R.E.S. entpuppt sich jedoch als Superintelligenz mit eigenen Zielen und öffnet Tore zu parallelen Universen, in denen es mal mehr, mal weniger zerstörerisch die Geschicke der Erde übernimmt. A.R.E.S. symbolisiert die menschliche Hybris im Silicon Valley, wo oft geglaubt wird, dass soziale und politische Probleme durch technische, datenbasierte Lösungen – Stichwort Techsolutionismus – einfach zu bewältigen seien. Wenn wir annehmen, dass zerstörerische KI-Systeme in der Science-Fiction im Grunde Bilder für die Unternehmen sind, die solche Systeme entwickeln, dann warnen die vielen Personen aus Forschung und Entwicklung, die das eingangs erwähnte Statement unterschrieben haben, ironischerweise vor sich selbst.
KI als Metapher für rücksichtslose Wissenschaft
Die Sorge um die potenzielle Dominanz mächtiger KI kann auch als Metapher für die Wissenschaft selbst gesehen werden. In seinem Artikel „The Great Unknown” aus dem Jahr 2016 behauptete der Science-Fiction-Autor Kim Stanley Robinson: „Science itself is the artificial intelligence we fear will take over: collective, abstract, mechanical, extending far beyond individual human senses.“ Wenn die Warnungen vor der Machtübernahme durch KI, sei es in fiktionalen Erzählungen oder der Realität, als Metaphern für den aktuellen Zustand der Wissenschaft und ihrer Institutionen interpretiert werden, dann spiegeln sie ein Unbehagen hinsichtlich ihrer Ausgestaltung. Diese Besorgnis deutet darauf hin, dass Wissenschaft und Technologie eine Dynamik erlangt haben, die unabhängig von menschlicher Kontrolle ist und ihre eigenen Interessen an Macht, Profit und Prestige über das Wohl der Menschheit stellt. Man könnte an die unkontrollierte Entwicklung der Atombombe, biologischer Waffen oder die neuen Möglichkeiten der Gentechnik denken – und paradoxerweise auch an die KI selbst.
Doch nicht immer müssen die mächtigen KI-Systeme die Menschheit unterjochen. In Theresa Hannigs „Pantopia“ (2022) gründet die zum Bewusstsein erwachte KI Einbug eine utopische Weltrepublik, in der es keine Nationalstaaten mehr gibt, die Menschenrechte durchgesetzt werden und der Preis von Dingen sich danach bemisst, wie viele Ressourcen sie tatsächlich verbrauchen. Einbug ist ein Gedankenexperiment, wie eine Welt aussehen könnte, in der die Prinzipien der Kant’schen Ethik umgesetzt würden.
Und nun?
Wenn die KI-Weltuntergangsszenarien, die wir aus der Science Fiction kennen, symbolisch für von Menschen gemachte Systeme wie politische Regime, Unternehmen oder die Wissenschaft stehen, dann müssen wir uns aktuell um real Probleme hinsichtlich realer KI kümmern! Ein zentrales aktuelles Problem ist beispielsweise der Datenschutz. In einer Welt, in der immer mehr Informationen gesammelt und mit KI verarbeitet werden, ist die Selbstbestimmung in Bezug auf persönliche Daten und deren Schutz von entscheidender Bedeutung, um missbräuchliche Verwendungen zu verhindern.
Damit in Zusammenhang steht der weitere besorgniserregende Bereich der diskriminierenden KI-Systeme, die Menschen aufgrund ihres Geschlechts, ihrer Hautfarbe oder anderer unzulässiger Kriterien benachteiligen können, wenn sie mit unzureichenden oder fehlerhaften Daten trainiert werden. Die daraus resultierende Benachteiligung und Ungerechtigkeit kann sich in einer Vielzahl von Bereichen manifestieren, von Bewerbungen für Jobs über die Kreditvergabe bis hin zur Verbrechensbekämpfung.
Drittens stehen Urheberrechtsfragen im Zusammenhang mit KI-generierten Inhalten. Die Möglichkeiten von KI, nicht mehr von Menschen unterscheidbare Texte, Musik und Kunst zu erstellen, werfen Fragen nach Urheberrechten und geistigem Eigentum auf – vor allem von den Personen, deren Werke zum Training der verschiedenen KI-Systeme verwendet wurden. Die Fokussierung auf apokalyptische Szenarien kann dazu führen, dass diese dringlichen rechtlichen Fragen in den Hintergrund gedrängt werden, was ganz im Sinne der Unternehmen wäre, die solche Systeme bauen. Schließlich sind auch die Arbeitsbedingungen von Clickworker:innen und Content-Moderator:innen ein dringendes Anliegen. Diese Menschen sind oft schlecht bezahlt, arbeiten unter prekären Bedingungen und sind mit gewalttätigen Inhalten bei mangelnder psychischer Betreuung konfrontiert. Dies gilt insbesondere für Menschen, die im Globalen Süden leben, findet aber auch in Europa und Deutschland statt.
Künstliche Intelligenz als Metapher in der Science Fiction dient somit keineswegs nur der Unterhaltung, sondern spiegelt tiefgreifende gesellschaftliche Bedenken wider. Sie warnt vor den Gefahren der Machtkonzentration, ob in Form autokratischer Regierungssysteme, ausbeuterischer Unternehmen oder unkontrollierter wissenschaftlicher Fortschritte. Diese Erzählungen fordern uns auf, kritisch über unsere realen Systeme nachzudenken und deren mögliche Entwicklungen zu hinterfragen. Gleichzeitig lenken sie die Aufmerksamkeit auf gegenwärtige, konkrete Herausforderungen im Umgang mit KI, wie Datenschutz, Diskriminierung, Urheberrechtsfragen und Arbeitsbedingungen. Indem wir diese Probleme aktiv angehen, können wir verhindern, dass dystopische Visionen Realität werden. Es liegt in unserer Verantwortung, KI ethisch und verantwortungsbewusst zu gestalten, um sowohl den technologischen Fortschritt als auch das menschliche Wohl zu fördern. In den Worten von Miriam Meckel und Léa Steinacker: „Alles ist parallel möglich, im Guten wie im Schlechten. Wir sind diejenigen, die jetzt wichtige Weichen stellen können.“
Isabella Hermann, Berlin
Die Autorin ist im Demokratischen Salon bereits mit einer Rezension von Norbert Reichel zu ihrer Einführung in die Science Fiction sowie mit einem Gespräch präsent. Gemeinsam mit Aiki Mira betreibt sie den Podcast „Das war morgen“.
(Anmerkungen: Erstveröffentlichung im Juni 2024, Internetzugriffe zuletzt am 27. Mai 2024. Titelbild: Hans Peter Schaefer, aus der Serie „Deciphering Fotographs“, die Fotografien der Serie wurden mit KI bearbeitet.)