Künstliche Intelligenz und Politische Bildung

Ein Gespräch mit der Psychologin Deborah Schnabel

„Und so wie Daten auf KI wirken, wirkt KI im Rückschluss auch auf die Gesellschaft. Ohnehin muss KI immer auch als soziotechnisches und damit von gesellschaftspolitischen Fragen abhängiges System verstanden werden. Wer meint, dass ein technisches System ein Problem lösen könne, das im Kern sozial oder politisch begründet ist, der irrt. Wenn von KI (re)produzierter Rassismus, Antisemitismus oder Extremismus fruchtet, liegt das aber auch am gesellschaftlichen Nährboden. Es gilt also, beides positiv zu beeinflussen – die KI als das Instrument, die Gesellschaft als ihren Resonanzkörper.“ (Deborah Schnabel, Präziser hoffen! 9 Thesen zum Verhältnis von Künstlicher Intelligenz, Rassismus und Antisemitismus)

Die einleitenden Sätze stammen aus dem letzten der 17 Beiträge im von der Bildungsstätte Anne Frank in Frankfurt am Main, namentlich von Marie-Sophie Adeoso, Eva Berendsen, Leo Fischer und Deborah Schnabel herausgegebenen Band „Code & Vorurteil – Über Künstliche Intelligenz, Rassismus und Antisemitismus“. Die Bildungsstätte Anne Frank wird von Meron Mendel und Deborah Schnabel geleitet.

Von links nach rechts: Leo Fischer, Eva Berendsen, Marie-Sophie Adeoso, Deborah Schnabel. Foto: Felix Schmitt / Bildungsstätte Anne Frank.

Der Band ist der vierte Band der Edition Bildungsstätte Anne Frank im Berliner Verbrecher Verlag. Er enthält 17 Beiträge von 18 Autor:innen in drei Sektionen, „KI & Strukturelle (Un)Gleichheit“, „KI & (Un)Fake“ sowie „KI & Kontrolle“. Er bietet darüber hinaus ein ausführliches Glossar. Die bisherigen drei Bände der Reihe wurden im Demokratischen Salon ausgewertet und empfohlen, „Triggerwarnung“, „Extrem unbrauchbar“ und „Frenemies“.

Kernthema von „Code & Vorurteil“ ist ein Phänomen, das in der Fachwissenschaft wie in der Praxis der Politischen Bildung als „Bias“ bezeichnet wird. Es geht um die Frage, was Politische Bildung gegen antisemitische, rassistische und andere menschenfeindliche beziehungsweise Menschen ausschließende und diskriminierende Inhalte bewirken könne, die Künstliche Intelligenz anbietet. „Künstliche Intelligenz“ hat sich inzwischen im Alltagssprachgebrauch mit dem Kürzel „KI“ eingebürgert, sodass der Eindruck entsteht als wären wir alle mit der KI vertraut, hätten mit ihr vielleicht sogar eine gute Freundin. Dies ist sicherlich auch das Framing, das diejenigen, die KI entwickeln, gerne vermitteln würden. Deborah Schnabel erläutert im Folgenden Ziele und Perspektiven des Buches.

Faktor für die Meinungsbildung

Norbert Reichel: Der Titel des Buches „Code und Vorurteil“ erinnerte mich ein wenig an Jane Austens „Pride and Prejudice“. Irgendwie passt es aus meiner Sicht, weil mit KI auch der Stolz, möglicherweise auch falscher und unberechtigter Stolz, sozusagen digitalisiert und verstetigt werden.

Deborah Schnabel: Der Titel ist in der Tat an das Buch von Jane Austen angelehnt. Es passt im Kern ganz gut zum Thema. Das Besondere an unserem Buch ist, dass sich noch nie so viele Personen in einem Sammelband zusammengefunden haben, die sich mit diesem Nischenthema befassten. Es gibt Studien zum Thema Rassismus, zum Thema Antisemitismus. Wir haben es jetzt heruntergebrochen auf das Thema Code und Vorurteile im Kontext Künstlicher Intelligenz, also den Bias, den wir in der KI finden und der Rassismus und Antisemitismus und andere menschenfeindlichen Äußerungen vervielfältigt und verbreitet.

Norbert Reichel: Ich habe den Eindruck, dass das Thema Bias inzwischen an Aufmerksamkeit gewinnt, auch in der Presse. Kathrin Werner portraitierte zuletzt in der Süddeutschen Zeitung Joy Buolamwini, die inzwischen sogar den US-amerikanischen Präsidenten berät. Miriam Meckel und Léa Steinacker haben bei Rowohlt das Buch „Alles überall auf einmal“ veröffentlicht, das eine große Zahl weiterer Expert:innen vorstellt, ebenso wie eine Vielzahl von Beispielen für den Bias aufführt. Paola Lopez schrieb in der Aprilausgabe 2024 des Merkur über die Frage, wie es gelingen könne, „KI diverser zu machen“, befürchtete dabei allerdings auch die „Ausbeutung“ Betroffener. Was ist in diesem Kontext das Besondere an Ihrem Buch?

Deborah Schnabel: Die meisten Autor:innen unseres Buches haben sich dem Thema auf der Ebene vorurteilsbewusster KI genähert. Sie befassen sich beispielsweise damit, ob und wie KI bestimmte Zielgruppen im Kontext von Rassismus oder Antisemitismus überhaupt in den Blick nimmt, wen KI ausschließt, für wen KI nachteilig ist. In den letzten Monaten haben wir allerdings auch gesehen, dass KI eine wichtige Rolle spielt im Hinblick auf Verschwörungserzählungen und Deep Fakes und somit für die Meinungsbildung. Wir sehen dies vor allem in der Art, wie über Krisenthemen berichtet wird, auch im Kontext des 7. Oktober 2023 und seinen Folgen. In den sozialen Medien wird KI oft genutzt, um die Meinungsbildung in eine bestimmte Richtung zu lenken. Wir sahen eine Lücke beim Antisemitismus, eine weitere bei dem Thema der Politischen Bildung. Als Einrichtung der Politischen Bildung haben wir uns vor allem die Frage gestellt, was KI für unsere Arbeit bedeutet, wie man sie für die Politische Bildung nutzen könnte, aber auch, wie Politische Bildung auf die Gefahren von KI hinweisen müsste. Hier gibt es noch viele Vorbehalte, Unsicherheiten, auch Unwissen. Das Thema wird in der Politischen Bildung noch nicht so berücksichtigt und angefasst, wie es erforderlich wäre.

Norbert Reichel: Der Arbeitskreis Deutscher Bildungsstätten hat sich bereits mit dem Thema beschäftigt.

Deborah Schnabel: Wir sind eines der größeren Mitglieder des Arbeitskreises. Die Mitglieder sind allerdings sehr divers, manche haben einen einzigen außerschulischen Lernort, andere arbeiten überregional, ich kann also nicht für den Arbeitskreis sprechen. Mein Eindruck ist, dass viele Einrichtungen noch stark mit dem Thema der Sozialen Medien beschäftigt sind. Ich schätze, es wird noch ein oder zwei Jahre dauern, bis wir uns flächendeckend für das Thema der KI öffnen können. Meines Erachtens sind die Antidiskriminierungsstellen da schon weiter. Sie haben sich schon länger mit den Diskriminierungsfaktoren von KI beschäftigt. In der Politischen Bildung sehe ich noch viel Bedarf.      

Norbert Reichel: Ich sage jetzt einmal ganz böse, dass ich den Eindruck habe, dass es einige Einrichtungen in der Politischen Bildung gibt, auch Lehrer:innen in Schulen, die Politik oder Geschichte unterrichten, gerade einmal gemerkt haben, dass es TikTok überhaupt gibt.

Deborah Schnabel (entschieden): Ja. Das kann sein. Es geht aber natürlich nicht darum, dass sich jetzt alle Akteure der Politischen Bildung auf TikTok anmelden oder dass alle KI nutzen. Wichtig ist aber, dass alle die technologischen Entwicklungen möglichst schnell auf dem Schirm haben. Ich erwarte, dass alle begreifen, welch ein Einflussfaktor KI ist, dass wir es mit ganz anderen Formen von Meinungsbildungsprozessen zu tun haben als noch vor zwei, drei Jahren. Das zeigt sich auf den Schulhöfen, in den Einrichtungen, in den Sozialen Medien. Dieses Zusammenspiel müssen wir alle in unserer Bildungsarbeit berücksichtigen.

Norbert Reichel: Haben Sie unter den anderen Einrichtungen Bündnispartner in Ihrem Anliegen?

Deborah Schnabel: Wir fühlen uns leider noch ziemlich allein. Ich würde mir wünschen, dass viel mehr Einrichtungen auf das Thema schauen. Es ist aber nicht anders als bei anderen digitalen Technologien und Trends. Das ist erst einmal ein fachfremdes Thema für die Politische Bildung. Man muss sich erst einmal mühsam Wissen über digitale Räume erarbeiten, die sich schnell verändern, um die eigenen Themen mit den digitalen Themen zu verknüpfen. Wenn man KI oder andere Technologien für die eigene Politische Bildung nutzen will, kostet das natürlich auch Geld, weil digitale Technologien ganz anders funktionieren als beispielsweise die Durchführung eines Workshops. Die gesamte Landschaft der Politischen Bildung wird über Drittmittel gefördert und hat daher auch nur ein begrenztes Budget. Wirklich groß angelegte Projekte zum Thema KI übersteigen die Budgets, die gewohnter Weise für die Politische Bildung zur Verfügung stehen. Daher lassen viele erst einmal die Finger von diesem Thema.

Ich glaube aber schon, dass sich Politische Bildung in einem Wandel befindet, dass Politische Bildner:innen sich noch einmal ganz anderes herausgefordert sehen. Da sich alles in dem Bereich der KI – wie gesagt – sehr schnell entwickelt, besteht allerdings ein großer zeitlicher Druck, der im Alltag nur schwer zu bewältigen ist.

Norbert Reichel: Ich denke, auf die KI passt das Sprichwort: „Wie man es in den Wald hineinruft, schallt es heraus.“ Wenn – ich sage einmal – dreißig Verschwörungserzählungen im Internet als Grundlage eines Themas zu finden sind und nur eine Erzählung, die die anderen dreißig aufdeckt, muss man sich nicht wundern, was KI dann auswirft. Ich spitze jetzt einmal zu: Sie werden mit Ihrer Bildungsstätte nicht gegen Elon Musk antreten können.

Deborah Schnabel: Das ist auch nicht unser Ziel. Unser Ziel ist eine gut gebildete und wache Zivilgesellschaft. Wir wollen das Wissen um KI und die Herausforderungen für die Demokratie – gerade in diesem weltweiten Superwahljahr 2024 – viel mehr in den Mainstream hineinbringen. Wir müssen in das Thema der Verknüpfung von Demokratiebildung und KI investieren, damit überhaupt verstanden wird, wo und wie KI demokratische Prozesse beeinflusst und wie ich erkenne, dass ich es mit einem Medium zu tun habe, das durch KI gestaltet wird. Verstehe ich die Algorithmen hinter den Plattformen, die ich täglich nutze? Wie beeinflussen diese meine Meinungsbildung? Das heißt, es muss mehr Aufklärungsarbeit geleistet werden. Wir finden schon, dass es mehr KI in den Händen von Menschen geben müsste, die an dem Erhalt und der Wehrhaftigkeit von Demokratie mitarbeiten. Zurzeit beobachten wir – das wissen wir alle – große Monopole bei der KI. Sie haben Elon Musk erwähnt, es gibt ChatGPT, Meta und andere mehr, alles kommerzielle Anbieter. Wir brauchen eine Liberation der KI.

Es geht um den gesamten Produktionsprozess

Norbert Reichel: In Ihrem Band haben Sie ein interessantes Gespräch mit Hito Steyerl veröffentlicht. Als ich dieses las, kam mir der Gedanke, dass alles, was wir bei allen Bemühungen um mehr Medienkompetenz, um mehr und bessere Politische Bildung doch irgendwie end of the pipe handeln. Wir haben ein Problem erkannt und müssen dafür sorgen, dass möglichst viele Menschen merken, dass es dieses Problem gibt. Hito Steyerl sagt, wir müssen den gesamten Produktionsprozess KI beachten und beeinflussen.

Deborah Schnabel: Darauf haben mehrere unserer Autor:innen hingewiesen: Wir müssen bei den Personen anfangen, die die KI entwickeln. Wir brauchen eine Grundsensibilisierung und Veränderung des Mind-Sets der Personen, die die Daten auswählen, mit denen KI gefüttert wird. Diese Daten enthalten oft schon die typischen Biases, die wir in der Mehrheitsgesellschaft kennen. Es ist eine Tatsache, dass diejenigen, die die Daten auswählen, die die Codes programmieren, die das maschinelle Lernen vorantreiben, meist aus bestimmten Milieus der Gesellschaft stammen. Diversitätsmerkmale und Diversitätsbewusstsein sind dort eher wenig ausgeprägt. Auch die Testing-Prozesse sind in der Regel wenig divers. KI wird oft an weißen, männlichen Personen der Mehrheitsgesellschaft getestet und dann in Umlauf gebracht. Es müssen viel mehr Menschen in die KI-Entwicklung inkludiert werden.

Hito Steyerl spricht mit leicht polemischem Unterton davon, dass wir nicht von „Künstlicher Intelligenz“, sondern von „Künstlicher Dummheit“ sprechen müssten. Sie beschreibt das Irrwitzige daran, dass wir etwas entwickeln, mit dem wir uns ein zusätzliches Problem schaffen, in einer Zeit, in der es schon genug Probleme in der Welt gibt, gerade was das Thema der Diskriminierung betrifft. Andere sagen, dass KI auch eine Chance bietet, sie mitzugestalten. Ich denke, wir müssen beides sehen, wir müssen auch zeigen, dass KI für die Demokratiebildung genutzt werden kann.

Norbert Reichel: Im Grunde haben Sie damit eine neue Zielgruppe für die Politische Bildung, all die Personen, die KI entwickeln.

Deborah Schnabel: Das denke ich ohnehin. Politische Bildung muss noch viel breiter in die Gesellschaft hineinwirken. Wir zielen hauptsächlich auf die Bildung junger Menschen, zum Beispiel in der Schule, aber auch auf interessierte Zielgruppen im Erwachsenenalter. Demokratie- und Medienbildung müssen zusammengedacht und viel breiter in die Gesellschaft hineingetragen werden. Wir müssen wissen, welche Verantwortung in der digitalen Transformation für unsere gesamte Gesellschaft steckt und auch die großen Tech- und Wirtschaftsbetriebe in ihrer Eigenschaft als Teil der Gesellschaft und als Teil des Problems ansprechen.

Norbert Reichel: Zum Beispiel die Programmierer:innen. Sie haben mehrere eindrucksvolle Beispiele gesammelt. Ich nenne nur zwei: Eine vierzigjährige Frau, gutverdienend, möchte auf Rechnung kaufen. Die KI-gesteuerte Antwort verweigert dies, weil sie davon ausgeht, dass vierzigjährige Frauen geschieden sind, alleine ein Kind erziehen, einen Teilzeitjob haben und daher nicht genug verdienen, um eine Rechnung zu bezahlen. Das andere Beispiel betrifft Schwarze Menschen, die von Passbildautomaten oder von selbstfahrenden Fahrzeugen nicht erkannt werden.

Deborah Schnabel: Das sind die Klassiker. Die kennen wir schon länger, wenn es darum geht, Produkte zu entwickeln, die auf KI basieren, von der Entwicklung über das Testing bis zur Marktreife. Ein autonom fahrendes Auto, das nur an weißen Menschen getestet wird, erkennt dann Menschen mit einer dunkleren Hautfarbe nicht. So entsteht eine lebensbedrohliche Situation!

Wir müssen den gesamten Prozess in den Blick nehmen. Darauf verweist das Interview mit Hito Steyerl. Die Frage lautet: An welchen Stellen diskriminiert KI und wie lässt sich diese Diskriminierung verhindern? Das beginnt mit der genannten Kritikwürdigkeit und geht über Formulare, in denen Namen nicht angenommen werden, die eine andere Zahl von Buchstaben haben als das im deutschen Sprachraum üblich ist, bis hin zu Produkten, etwa einem Seifenspender, der die Seife nur für Menschen herausgibt, die bestimmte Hauttypen haben.

Strukturelle und institutionelle Diskriminierung

Norbert Reichel: Das bedeutet: Manche Menschen werden nicht als schützenswert, nicht als gleichberechtigt erkannt. Ist das nicht ein strukturelles Problem? Einzelfälle lassen sich immer noch mit einer Entschuldigung oder Korrektur lösen, aber das geht meines Erachtens weit über Einzelfälle hinaus.

Deborah Schnabel: Das sind keine Einzelbeispiele. Sie betreffen eine große Gruppe von Menschen. Wir sehen bei der KI, dass wir es mit struktureller und institutioneller Diskriminierung, strukturellem und institutionellem Rassismus, strukturellem und institutionellem Antisemitismus zu tun haben. Diese und andere -ismen werden nahtlos in die KI übertragen. Wir können daher von den künstlich erzeugten Welten erst einmal nichts anderes erwarten als von unserer analogen Welt. Der erste Schritt ist immer derselbe: Wir müssen strukturelle und institutionelle Diskriminierung als Ganzes betrachten. Wir müssen aber auch offenlegen, dass Transformationen und Innovationen, die augenscheinlich in die Zukunft weisen, nicht automatisch die Probleme lösen, die wir in der analogen Gesellschaft haben.

Dieses Heilsversprechen wird aber oft mit KI verknüpft, weil sie für alle zugänglich ist. Das wird zum Beispiel bei ChatGPT diskutiert. Es bietet einen unglaublichen niederschwellig erreichbaren Wissensschatz. Man kann sich unabhängig vom eigenen Bildungshintergrund alles Mögliche erarbeiten. Das sieht aber auch nur so aus, als könnte ChatGPT soziale Ungleichheit abfangen. Gerade ChatGPT tradiert nur ausgewählte Wissensbestände bestimmter Gruppen. Wir haben es mit einem Bias in der kollektiven Erinnerung, im kollektiven Gedächtnis zu tun, weil bestimmte Personen, bestimmte Gruppen im Netz gar nicht auftauchen. Ein Beispiel dafür sind die Wissensbestände indigener Bevölkerungsgruppen.

Norbert Reichel: Schon die Agenda 21 hatte 1992 ein eigenes Kapitel für die Nutzung und Förderung der Wissensbestände indigener Gruppen für Umwelt und Entwicklung beschlossen, das Kapitel 26: „Anerkennung und Stärkung der Rolle der eingeborenen Bevölkerungsgruppen und ihrer Gemeinschaften“.

Deborah Schnabel: Indigene Gruppen stellen ihre Wissensbestände nicht über das Internet zur Verfügung. Wir müssen es als Fakt hinnehmen, dass KI nur die Daten nutzt, die im Netz vorhanden sind. Wie kann man dieses Ungleichgewicht auflösen? Darauf haben auch wir keine Antwort. Das müssen letztlich diejenigen lösen, die KI entwickeln. Das eine Kriterium ist Repräsentativität, das andere, dass die Entwicklung nicht auf Kosten einer oder mehrerer der repräsentierten Gruppen gehen darf.

Norbert Reichel: Jetzt gibt es aber auch noch folgendes Problem: Es kann sich jede:r etwas aus der KI herausholen, aber es kann noch lange nicht jede:r etwas hineintun. Das ist doch ein weiteres Strukturproblem. Aber was kann Politische Bildung vielleicht tun? Ich komme noch einmal auf die Programmierer:innen zurück, für die Sie meines Erachtens eigene Angebote entwickeln müssten.

Deborah Schnabel: Sicherlich. Der erste Schritt ist wie immer, für das Thema und seine Relevanz zu sensibilisieren. Den meisten Menschen in unserer Gesellschaft ist nicht klar, dass viele Menschen davon ausgeschlossen sind, KI zu füttern. Deshalb ist eine unserer Kernaufgaben, diese Ausschlüsse sichtbar zu machen. Im zweiten Schritt ist die Digitalbranche – wie Sie sagen – die Zielgruppe. Es gibt erste Bestrebungen, zu mehr Diversität, leider noch auf einem eher oberflächlichen Niveau. Begriffe wie Rassismus oder Antisemitismus nimmt bisher noch kaum jemand in den Mund.

Unser Buch ist ein Versuch, Zielgruppen zu erreichen, die sich mit Politischer Bildung beschäftigen, aber bisher noch weniger mit KI, ebenso Menschen, die sich mit KI befassen, aber noch nicht mit Diskriminierung, Rassismus oder Antisemitismus.

Künstliche Intelligenz braucht den mündigen Menschen…

Norbert Reichel: Mit dem Verbrecher Verlag haben Sie einen Verlag, der sich politisch versteht und positioniert, aber nicht primär ein Verlag für Politische Bildung ist. Das erweitert Ihren Wirkungsradius mit Sicherheit. In mehreren Artikeln des Buches wird sehr deutlich, dass in der KI eine starke Radikalisierungsoption enthalten ist, sich die Produkte in eine antidemokratische Richtung entwickeln können und dies mitunter auch tun. Aber es kann sich auch in die andere Richtung entwickeln.

Deborah Schnabel: Das Potenzial ist da, dass es sich in beide Richtungen entwickeln kann. Wir sehen nur, auch in den Sozialen Medien, dass diese digitalen Möglichkeiten von radikalen Kräften viel schneller genutzt werden als von demokratischen Kräften. Das hat auch damit zu tun, dass demokratische Kräfte solche Entwicklungen – positiv ausgedrückt – mehr durchdenken, oft abwarten, ob es überhaupt richtig ist, da einzusteigen, und lange überlegen, wie man dies tun sollte. All das machen antidemokratische Kräfte nicht. Diese sehen ein Tool, das einen gewissen Nutzen für sie haben kann und dann nutzen sie es, indem sie zum Beispiel KI-generierte Bilder zu ihren Zwecken verbreiten. Die Folge ist ein starker Überhang antidemokratischer Inhalte. Das bereitet mir große Sorgen, weil ich nicht sehe, dass wir schnell genug hinterherkommen. Jüngere Menschen, Generation Y, Generation Z, jetzt auch schon Generation Alpha, verstehen neue Technologien hingegen sehr schnell als ihr Medium. Wir können ihnen nicht sagen, nutzt keine Sozialen Medien, nutzt keine KI-generierten Bilder, nutzt keine Filter. Wir müssen ihre Lebensrealität annehmen und mitgestalten.

Norbert Reichel: Ich nenne einige Begriffe aus dem Buch von Miriam Meckel und Léa Steinacker: Die KI ist eine „Imitationsmaschine“, eine „Effizienzmaschine, die keine Gnade kennt“, das ist ein „Evolutionsschub“ im Hinblick auf die „Zukunft der Mensch-Maschine-Kollaboration“. Die beiden Autorinnen zitieren einen Kommentar von Zeynep Tufekcı, die John Stuart Mills Gedanken vom „Marktplatz der Ideen“ für widerlegt erachtet. Es ließe sich auch der Klassiker aller Medien-Analysten Marshall McLuhan zitieren, der schon sehr skeptisch über die Medien seiner Zeit schrieb und sich wahrscheinlich heute in dieser Skepsis bestätigt fühlen dürfte.

Deborah Schnabel: Das sind sehr zugespitzte Begriffe. Ich sehe sie als Ausdruck einer kapitalismuskritischen Perspektive, die ich gut verstehen kann. Gleichzeitig möchte ich aber dazu einladen, die Blickrichtung zu ändern und zu fragen, wo uns KI bei all den offenen Fragen, die wir in unserer Gesellschaft haben, dienlich sein könnte. Es ist auch eine zusätzliche Ressource, die wir mitgestalten können. Die eine Frage lautet: Macht KI Menschen arbeitslos? Die andere lautet: Welche Alternativen gibt es? Es gibt beispielsweise auch die Frage, ob und wie das bedingungslose Grundeinkommen durch KI befördert werden könnte.

Ich möchte einen Begriff hervorheben, den Sie zitiert haben, der meines Erachtens viel besser passt, der Begriff der „Mensch-Maschine-Kollaboration“. Darauf muss es hinauslaufen. Wir sollten KI als Möglichkeitsraum sehen, uns aber auch bewusst machen,, dass KI niemals eingesetzt werden kann, ohne dass ein Mensch dies begleitet. Das sehen wir beispielsweise bei dem Bemühen um Filter, die rassistische, antisemitische oder andere diskriminierende und menschenfeindliche Inhalte erkennen und entfernen. Wir sehen, dass das nicht wirklich funktioniert. Wir haben selbst immer wieder Selbstversuche gemacht. Ein Beispiel: Wenn man auf TikTok aus mehreren Emojis ein Hakenkreuz bastelt, erkennt die KI nur die einzelnen Emojis, nicht aber das Hakenkreuz. Man kann die KI trainieren und trainieren, austricksen lässt sie sich dennoch. Wir brauchen unbedingt den Menschen als Begleiter:in, um anzuleiten, um positiv zu framen. Wir sind noch zu sehr in dem Modus, zu glauben, alles Digitale ersetze den Menschen. Wir müssen stattdessen dahinkommen zu fragen, wodiese Technologien wirklich sinnvoll sind und wie wir mit ihnen kollaborieren können.

Norbert Reichel: Ich erlebe Sie in unserem Gespräch als sehr offen für die weiteren Entwicklungen.

Deborah Schnabel: Ich bin sehr offen. Ich nehme solche Transformationen an und versuche zu schauen, wie man sie positiv mitgestalten kann, gerade aus meiner Verantwortung in der Politischen Bildung heraus. Es handelt sich um einen der größten Veränderungsprozesse unserer Zeit. Ich sehe Potenziale. Es gibt erste Ansätze aus den USA, die sich mit Utopien befassen, nach anderen Formen des Zusammenlebens suchen. Natürlich gibt es viele Barrieren. Das ist so beim Klimawandel. Viele können sich noch nicht vorstellen, was es bedeutet, in einer Welt zu leben, in der wir auf manches verzichten müssen, das uns heute noch selbstverständlich erscheint.

Das betrifft auch virtuelle Welten, über die man vielleicht Vorbehalte abbauen könnte. Wir sollten diese Möglichkeiten nutzen. Bei allem Optimismus dürfen wir nicht verpassen, diejenigen in die Pflicht zu nehmen, die bestimmte Regularien nicht einhalten und sich nicht genug um eine diversitätsgerechte Weiterentwicklung bemühen

… und Regularien und viel Fantasie

Norbert Reichel: Konzeption und Durchsetzung solcher Regularien ist aber eine Aufgabe der Politik, nicht die einer Bildungseinrichtung oder gar der von Diskriminierung Betroffenen.

Deborah Schnabel: Das ist eine Aufgabe der Politik, die in der  Verantwortung steht bei der Entwicklung der Regularien. Da wird viel hin- und hergeschoben, es gibt natürlich auch wirtschaftliche Interessen. Es wäre zu überlegen, welche Druckmittel es gäbe, um die Europäische Union zu beeinflussen. Das ist ein riesiger Wirtschaftsraum, der doch einigen Einfluss auf die Techkonzerne haben sollte.

Norbert Reichel: Kämpfen Sie wie David gegen Goliath? Die Techkonzerne, von denen wir einige nannten, haben ein höheres Budget als 30 oder 40 Staaten zusammengenommen. Die könnten durchaus als eigene wirtschaftlich starke Staaten agieren.

Deborah Schnabel: Deshalb würde ich mich auch nicht allein auf die Politik verlassen. Wir brauchen auch eine starke Zivilgesellschaft.

Norbert Reichel: Das wäre eine spannende Frage, ob die Zivilgesellschaft, oder ich sage lieber Zivilgesellschaften im Plural, es schaffen können, die EU-Kommission, die nationalen Regierungen zu veranlassen, stärkere Regulierungsmaßnahmen zu beschließen und durchzusetzen. Für Kinder und Jugendliche stellt sich heute schon die Frage, ob sie ihre Klassenarbeiten oder Klausuren über KI anfertigen. Dann schreiben nicht mehr die Eltern die Facharbeit, sondern ein von einer KI geschaffenes Programm. Wie empfänglich sind Kinder und Jugendliche dann noch für Ihre Angebote? Wie wird sich Politische Bildung aus Ihrer Sicht in den nächsten zehn Jahren verändern? Für die Schule wäre ich schon froh, wenn der KMK-Beschluss zur Demokratiebildung vom Oktober 2018 in den Schulen, in der Ausbildung und Fortbildung von Lehrer:innen, in den Lehrplänen berücksichtigt würde. Da ist noch viel Luft nach oben.  

Deborah Schnabel: Wir müssen uns viel mehr als bisher an die Nutzungsgewohnheiten der jungen Generation anpassen. Die Formate werden niedrigschwelliger sein, kurzweiliger, mehr Unterhaltungswert haben. Die sehr formelle, sehr sachliche Politische Bildung, die wir kennen, wird zurzeit ohnehin immer mehr aufgebrochen. Es wird auch viel mehr virtuelle Elemente geben. Gerade in der historisch-politischen Bildung. Wir haben in unserem Band Beispiele von Zeitzeug:innenarbeit vorgestellt, die zeigen, wie es möglich ist, diese Arbeit fortzuführen, wenn Zeitzeug:innen nicht mehr leben. Wir könnten KI als Hilfsmittel nutzen, bei Transkriptionen, bei der Strukturierung von Fakten. Das wird kommen, so oder so. Es gilt daher auch zu schauen, wie wir die Qualitätsmerkmale, die wir uns gesetzt haben, auch den Beutelsbacher Konsens, weiter entwickeln können.

Orientierung in aufgeheizten Debatten

Norbert Reichel: „Code und Vorurteil“ ist der vierte Band ihrer Reihe, „Triggerwarnung“, „Extrem unbrauchbar“, „Frenemies“ waren die ersten drei Bände. Die Bände sind alle sehr gelungen auch „Frenemies“, ungeachtet des daraus entstandenen Konflikts. Wo sehen Sie den roten Faden und wie geht es weiter?

Deborah Schnabel: Der rote Faden liegt darin, dass wir schauen, welche in die Zukunft weisenden gesellschaftspolitischen Themen wir aufgreifen wollen und sollten und wie wir sie als Bildungsstätte Anne Frank anderen zugänglich machen sollten. Wir wollen am Puls der Zeit sein. Daher publizieren wir in der Reihe  stets Sammelbände, die unterschiedliche Meinungen enthalten. Das war sehr deutlich erkennbar bei „Frenemies“. Aber auch bei dem Thema der KI gibt es unterschiedliche Positionen. Wir haben als Herausgeber*innen den Anspruch, Orientierung zu geben, gerade in den aufgeheizten Debatten und Problemfeldern, in denen sich viele noch nicht zurechtgefunden haben. Es gibt erste Ideen für weitere Bände, aber wir werden uns an den aktuellen Debatten orientieren.

Norbert Reichel: Sie hatten schon angedeutet, welch große Veränderungen der 7. Oktober bewirkte. Was hat der 7. Oktober konkret für Sie verändert?

Deborah Schnabel: Es hatte viele Konsequenzen, auf ganz vielen Ebenen. Die schärfste Konsequenz ist die extreme Lagerbildung. Es gab in kürzester Zeit Radikalierungsprozesse in der Gesellschaft. Es wurde sehr sichtbar, dass wir es mit einem strukturellen Antisemitismus zu tun haben, der auch schon vor dem 7. Oktober benannt, aber viel zu wenig ernstgenommen wurde. Es gibt riesige Wissenslücken über die aktuellen Ausformungen des Antisemitismus. Man hat sich viel zu sehr auf traditionelle Formen konzentriert. Israelbezogener Antisemitismus spielte kaum eine Rolle. Weder in Schulen noch in anderen Einrichtungen. Ganze Räume werden von Antisemitismus eingenommen, beispielsweise im Hochschulkontext, wo sich die Situation sehr zugespitzt hat.

Das sind nicht nur aufgeheizte Debatten, sondern es gibt regelrechte Spaltungen. Wir haben in den letzten Jahren viel daran gearbeitet, das zu verhindern, zu verändern. Wir haben viel Dialogarbeit betrieben, viel Allianzbildung, gerade auch jüdisch-muslimische Allianzen gegen rechts. Viele dieser Bemühungen sind versandet und wir wissen nicht, ob man jemals wieder dorthin zurückkommen kann. Gerade auch im Thema Digitales sehen wir, welch riesiges Problem der Antisemitismus im Netz ist. Wir sehen mit Sorge auch den gleichzeitig ansteigenden anti-muslimischen Rassismus. Diese Gleichzeitigkeit wird von vielen nicht begriffen, sondern von verschiedenen Gruppen instrumentalisiert. Man sah es nach dem 7. Oktober, als Geflüchtete direkt pauschal angefeindet wurden.

Norbert Reichel: Manche kochen auf diesem Feuer ein ganz hässliches Süppchen.

Deborah Schnabel: Ganz sicher. Da kochen viele ein sehr hässliches Süppchen. Es gibt auch interessante Verknüpfungen von Milieus, die sich sonst gegenüberstehen. Es gibt linke Positionen, die sich mit islamistischen Positionen verknüpfen. Feministische Gruppen, Queer-Positionen. Es ist sehr schwer, das alles auseinanderzuhalten. Wir hatten hier in Hessen einen Tag nach dem 7. Oktober Wahlen, bei denen die AfD sehr gut abschnitt. Auch bei jungen Menschen. Das geriet durch den 7. Oktober und seine Folgen etwas in den Hintergrund, aber es spielt in diesem Jahr bei den anstehenden Wahlen wieder eine entscheidende Rolle. Und es ist schlimm, dass progressive Gruppen keine Allianzen bilden und damit gegenüber der Rechten geschwächt sind.

Norbert Reichel: Das war ja auch die Botschaft von „Frenemies“. Wir brauchen Bündnisse, jede Parzellierung auf der humanistischen Seite stärkt die Rechte.

Deborah Schnabel: Aber genau das ist geschehen.   

(Anmerkungen: Erstveröffentlichung im April 2024, Internetzugriffe zuletzt am 13. April 2024. Titelbild: Hans Peter Schaefer, aus der Reihe „Deciphering Fotographs“, Fotografien, die er mit KI bearbeitet hat.)