Liberale Ethik
Ein Gespräch mit der Juristin und Journalistin Jenny Joy Schumann
„Der Mensch sollte in allem, was ich selbst betrifft, frei sein, aber es sollte ihm nicht möglich sein, nach seinem Belieben für andere zu handeln unter dem Vorwand, dass die Angelegenheiten der anderen seine eigenen seien. Während der Staat die Freiheit des Individuums in seinen eigenen Angelegenheiten achtet, ist er andererseits verpflichtet, ein wachsames Auge auf die Ausübung jeder Macht zu haben, die er diesem über andere gibt.“ (John Stuart Mill, On Liberty, 1859, deutsche Fassung zitiert nach: Friedrich Naumann Stiftung für die Freiheit, Hg., Kleines Lesebuch über den Liberalismus, ausgewählt, eingeleitet und kommentiert von Detmar Doering, Sankt Augustin, Academia Verlag, Achte Auflage 2015)
Das von Detmar Doering zusammengestellte Lesebuch enthält eine gute Übersicht über liberale Theorien von John Locke (ein Text aus dem Jahre 1689) bis hin zu John Gray (ein Text aus dem Jahr 1986), insgesamt 15 Texte. Natürlich sind Karl R. Popper, Edmund Burke, David Hume und Friedrich August von Hayek vertreten, manche fehlen wie beispielsweise Friedrich Naumann, Ralf Dahrendorf oder Karl-Hermann Flach, dessen „Noch eine Chance für die Liberalen oder die Zukunft der Freiheit“ 1971 erschien und inzwischen auch wieder aufgelegt wurde.
Der Liberalismus ist bei manchen unter dem Stichwort „Neoliberalismus“ in Verruf geraten, andere setzen auf eine Renaissance des „Sozialliberalismus“, es gibt jedoch niemanden unter denjenigen, die sich als „Liberale“ verstehen (das sind bei weitem nicht nur FDP-Mitglieder), die mit dem von Viktor Orbán propagierten „Illiberalismus“ sympathisierten. Letztlich geht es aber immer wieder um die Frage nach der Balance der Freiheit des einzelnen Menschen und der Funktionstüchtigkeit des Gemeinwesens. Im Zeitalter der Künstlichen Intelligenzen stellt sich diese Frage allerdings noch einmal neu, weil Künstliche Intelligenzen möglicherweise die Freiheit eines Menschen oder auch ganzer Menschengruppen in einer noch nicht ausgeloteten Art und Weise beeinflussen und möglicherweise beeinträchtigen, gegebenenfalls je nach Entwicklungsstand sogar eigene Rechte beanspruchen könnten. Die Friedrich Naumann Stiftung für die Freiheit bietet zahlreiche Foren, in denen über diese und andere damit verbundene Fragen diskutiert werden kann.
Über ein solches Forum habe ich die Journalistin und Jurastudentin Jenny Joy Schumann (Jahrgang 1998) kennengelernt. Sie hat in der von Martin Reif für die Stiftung kuratierten Reihe „Star Trek und die Politik“ über die Rechte Künstlicher Intelligenzen referiert. Sie studiert in Leipzig und in Angers (Département Maine-et-Loire) und ist Stipendiatin der Stiftung. Sie schrieb unter dem Titel „Ethik und Recht der Mensch-KI-Interaktion“ einen Beitrag für das im Herbst 2024 bei Springer VS erscheinende und von Sebastian Stoppe und Katja Kanzler herausgegebene Buch „Star Trek: Gestern – Heute – Morgen – (Selbst-)Historisierungen und Zukunftsvisionen“ und hat mich bei der Entstehung meines Essays „It’s Imagination“ beraten.
Die (potenzielle) Menschlichkeit von KI ist eines ihrer Themen, das sich am Beispiel ausgewählter Episoden von Star Trek ausgezeichnet illustrieren und debattieren lässt. Weitere Themen ihrer Aufsätze sind ethische Dilemma-Situationen, beispielsweise zur vorhersagenden Polizeiarbeit (auch hier mit Science-Fiction-Bezug: Philipp K. Dicks „Minority Report“), zur Sterbehilfe, zur Triage, zum Trolley-Problem oder unter dem Stichwort der „intertemporalen Güterabwägung“ zu den Bedingungen einer langfristig angelegten liberalen Politik. Sie befasst sich mit Grundsatzfragen des Liberalismus, beispielsweise in einem Essay beim Wettbewerb der Hayek-Gesellschaft 2023, und plädiert für eine „Gesellschaft der Experimentierfreudigen“. Einige dieser Texte hat sie auf liberalen Rechtstagungen vorgetragen und zur Diskussion gestellt (hier eine Liste aller Veröffentlichungen).
Wann ist die KI ein Mensch?
Norbert Reichel: Für einen Essay über die Künstliche Intelligenz bei Star Trek haben Sie den wunderbaren Titel gewählt: „Die Würde der KI ist unantastbar.“ Vielleicht versuchen wir uns erst einmal mit einer Definition von „Intelligenz“ und von „künstlich“ beziehungsweise „artificial“.
Jenny Joy Schumann: Der Text ist anlässlich einer liberalen Rechtstagung entstanden. KI war eigentlich ein Thema, das mich immer interessiert hat, aber ich musste dann doch intensiver nachforschen. In der Literatur habe ich zu den Begriffen „Intelligence“ und „Artificial“ eine Fülle von Definitionen gefunden. Am überzeugendsten fand ich eine Definition aus den 1970er Jahren: „Artificial“ wäre in etwa so etwas wie „Man-made“, also etwas von Menschen Gemachtes. Etwas schwieriger war die Unterscheidung von „Intelligence“. Aber man kann meines Erachtens gut zwischen „Generalintelligenz“ und „Spezialintelligenz“ unterscheiden. Der Mensch verfügt über „Generalintelligenz“, kann in verschiedenen Feldern Intelligenz anwenden, eine Sprache sprechen, den Weg finden, etwas zum Essen besorgen oder kochen und vieles mehr. „Spezialintelligenz“ bezieht sich auf eine bestimmte Fähigkeit, zum Beispiel die Übersetzung von einer Sprache in eine andere. Die App, die man auf dem Handy zu diesem Zweck nutzt, kann nur diese eine Tätigkeit ausüben, sie kann aber nicht auch noch den Weg finden oder erklären, wie man ein bestimmtes Essen zubereiten soll, dafür bräuchte man andere „Spezialintelligenzen“.
Norbert Reichel: Braucht man bei der Übersetzungsintelligenz nicht auch „Generalintelligenz“? Eine isolierte „Spezialintelligenz“ dürfte zu einer Reihe von Fehlanwendungen und Missverständnissen führen. In den Anfangszeiten der KI-Übersetzungen wurde oft das Beispiel der Übersetzung von „Kernobst“ als „nuclear fruit“ genannt. Die „Spezialintelligenz“ konnte verschiedene „Kerne“ nicht unterscheiden, sie hatte Probleme mit Homonymen und mit Homophonen. Auch kulturelle Gegebenheiten spielen eine Rolle. Das englische Wort „race“ ist etwas anderes als das deutsche Wort „Rasse“.
Jenny Joy Schumann: Sprachen sind im Grundsatz wie Blasen aufgebaut, kulturelle Gegebenheiten spielen da hinein. Wenn ich einfach nur übersetze, versteht der Adressat der Übersetzung möglicherweise überhaupt nicht, was gemeint ist. Ich muss den Kontext berücksichtigen, in dem ein Wort oder ein Satz verwendet wird. Das ist die Schwachstelle von vielen Online-Übersetzungen. Wenn einfach nur wörtlich übersetzt wird, berücksichtigt der Datensatz oft kulturelle Bedingungen nicht. Andererseits gilt: Je größer der Datensatz, umso mehr Eckpunkte hat man und umso eher können Überschneidungen identifiziert werden. Um das zu testen, kann man einfach verschiedene Übersetzungsprogramme vergleichen. Es ist aber auf jeden Fall eine „Spezialintelligenz“, denn ich kann das Übersetzungsprogramm nicht fragen, wo ich zum Beispiel das nächste Café oder den nächsten Supermarkt finde. Dafür brauche ich eine andere App, die auf diesen Anwendungsbereich spezialisiert ist. Das Übersetzungsprogramm kann mir nur die Wegbeschreibung übersetzen.
Norbert Reichel: In Ihrem Essay haben Sie auch angemerkt, dass zu unterscheiden ist, ob man sich nur über „Fähigkeiten“ unterhält oder auch über „Intentionen“.
Jenny Joy Schumann: Wir kommunizieren immer aus einem bestimmten Grund. Ich kommuniziere im wissenschaftlichen Seminar zum Beispiel mit dem Ziel des Informationsaustauschs und Erkenntnisgewinns. Entweder übermittele ich Informationen und möchte, dass jemand anders diese Informationen versteht, oder ich nehme Informationen von anderen auf, die ich verstehen möchte. Ein anderer Modus ist Small Talk. Da geht es nicht um Informationsaustausch oder Erkenntnisgewinn, sondern darum, Gesellschaft zu haben, nicht alleine zu sein oder Anschluss zu bekommen. Inhalte sind dabei nicht so wichtig. Es gibt eben ganz verschiedene Hintergründe, warum ich etwas tue. Wenn ich mir jetzt eine Übersetzungs-KI anschaue, stelle ich fest, dass sie Small Talk übersetzen kann, auch Fachtexte, aber die Intentionen spielen dabei keine Rolle. Die Intentionen sind im Grunde ein Overlay, eine darüber gelegte Schicht.
Norbert Reichel: Ich stelle mir jetzt eine KI vor, die so programmiert ist, dass sie Menschen Geld aus der Tasche zieht oder sogar jemanden umbringt. Die KI kann – so wie Sie sagen – die Intentionen derjenigen, die sie programmiert haben, nicht bewerten. Das betrifft beispielsweise auch Drohnen, wie sie in Kriegen eingesetzt werden. Hat eine solche KI eine strafrechtliche Verantwortung, wie sie beispielsweise auch ein Auftragskiller oder ein im Auftrag eines Dritten handelnder Dieb hat?
Jenny Joy Schumann: Jein. Wenn eine KI programmiert wird, bekommt sie bestimmte Vorgaben. Dann gibt es die drei Robotergesetze von Isaac Asimov, die im Grunde besagen, dass eine KI keinem Menschen schaden, niemanden töten darf. Solange solche Mindeststandards im Code festgelegt sind, kann sie nicht dagegen verstoßen. Solange das der Fall ist, gibt es auch jemanden, der den Code geschrieben hat. Man könnte also herausfinden, wer den Code geschrieben hat? Enthält der Code Böses, hat auch die Person, die ihn geschrieben hat, böse Intentionen. Die KI wurde somit nur als Werkzeug verwendet. Derjenige, der gehandelt hat, ist der, der den Code geschrieben hat, und daher auch strafrechtlich verantwortlich.
Ein zweites Beispiel: Wir haben eine Super-KI, eine übermenschliche KI, die sich selbst neu schreiben, ihren eigenen Code ändern, vielleicht sogar sich selbst Nachkommen schaffen kann. Hier gibt es keinen direkten Zusammenhang mehr zwischen dem von einem Menschen geschriebenen Code und der tatsächlichen Handlung der KI. Ich werbe in meinen Schriften dafür, dass wir, bevor es überhaupt so weit kommt, uns mit den neuen Wesen, die nicht menschlich sind, eine andere Gestalt als wir Menschen haben, vielleicht auch nur aus einem Code bestehen, vorab über Regeln verständigen müssen. Diese KI ist dann ein Verhandlungspartner auf Augenhöhe. Und wenn dann trotzdem etwas passiert, müssen wir Regeln haben, wie wir damit umgehen, ob wir zum Beispiel den Strom reduzieren oder sogar auf Dauer abschalten dürfen. Man kann aber nicht ohne Weiteres ein anderes Wesen auslöschen, indem man einfach den Stecker zieht. Auch dazu muss man vorbeugend einen Konsens finden.
Norbert Reichel: Wir haben uns über Star Trek kennengelernt. Daher erlaube ich mir ein konkretes Beispiel aus dem Franchise „Voyager“. Dem holografischen Doctor werden in der Doppelfolge „Equinox“ die ethischen Subroutinen entfernt und schon ist er in der Lage, andere Menschen zu quälen.
Jenny Joy Schumann: Das ist ein sehr gutes Beispiel für den ersten Fall. Wenn wir Richtlinien einprogrammieren und diese dann entziehen, den Code umschreiben, verändern wir das Wesen der KI. Das ist ein massiver Eingriff. Bei einem Menschen wäre das eine Art Gehirnwäsche, indem wir die ethischen Restriktionen, die wir verinnerlicht haben, einfach auflösen. Das ist bei einem Menschen natürlich viel komplizierter als bei einer KI. Die Funktionsweise ist jedoch relativ ähnlich.
Norbert Reichel: Eine KI wäre eigentlich erst dann menschlich, wenn sie selbst in der Lage wäre, die ethischen Subroutinen je nach Situation zu verändern?
Jenny Joy Schumann: Ja und nein. Die Frage lautet: Was macht den Menschen zum Menschen? Wir könnten sagen, das ist seine Moral und wir könnten diese Moral aufschreiben, beziffern, quasi abwägen. Wenn wir das in eine KI hineinprogrammieren könnten, könnten wir diese als menschlich betrachten. Wenn wir aber sagen, dass das Menschliche etwas Ununterscheidbares ist, etwas, das wir gar nicht beziffern können, der Geist zum Beispiel, folgt daraus, dass man das nicht in eine KI übertragen kann und diese damit auch nicht menschlich werden kann. Wenn es wiederum nur um bestimmte Verhaltensweisen geht, könnten wir das testen, beispielsweise wie wir eine KI dazu zu bringen, sich möglichst menschlich zu verhalten. Es stellt sich natürlich auch die Frage, ob das, was dazu führt, dass wir Mensch und KI nicht mehr unterscheiden können, sich zufällig ergeben hat oder ob KI nur den Anschein erweckt, dass sie menschlich wirkt und es in Wirklichkeit gar nicht ist.
Es gibt somit im Grunde zwei Möglichkeiten:
- Der erste Fall: Der Code ist festgeschrieben und die KI kann ihn auch nicht ändern. In die KI wurden ethische Richtlinien einprogrammiert, auch mit Optionen – ganz im Sinne der Robotergesetze von Isaac Asimov. Die KI kann dann nicht anders als sich daran zu halten. Der Mensch könnte allerdings durch seine Programmierung die KI als Werkzeug nutzen, seine unrechten Absichten in die Tat umzusetzen. Verantwortlich ist dann der Mensch. Zu prüfen wäre zum Beispiel, ob hinter diesem Handeln des Programmierers eine böse Absicht steckt oder ein Versehen, es geht letztlich um die Frage nach Vorsatz oder Fahrlässigkeit.
- Der andere Fall: Die KI kann ihren Code selbst verändern oder vielleicht sogar andere Wesen mit diesem veränderten Code erschaffen. Ich kann nicht mehr sagen, dass ein bestimmter Programmierer verantwortlich wäre, und auf diesen zurückgreifen. In einem solchen Fall wäre mein Rat, dass man sich vorher mit solchen Wesen unterhält und Grundregeln vereinbart, dass man sich für den Fall der Fälle vorbereitet und eine Art Katalog entwickelt, wie man sich verhält. Denn dann haben wir es mit Wesen zu tun, die uns in ihrer Intelligenz gleichgestellt sind.
KI-Rechte vs. Bürgerrechte
Norbert Reichel: Bei Star Trek wird gerne polarisiert. Wir haben in „The Next Generation“ das Paar Data und Lore, in „Discovery“ die brutale KI Control und die empathische Zora. Das heißt nicht, dass das Gute nicht auch böse werden kann wie wir es mehrfach bei Data erleben, wenn ihn beispielsweise Lore für seine Zwecke einspannt. Allerdings siegt letztlich das Gute in Data und Lore wird von Data abgestellt. Data bedauert dies, aber er tut es.
Jenny Joy Schumann: Das ist dramaturgisch clever, aber natürlich sehr Schwarz-Weiß gedacht. Data und Lore sind Brüder und solche entgegengesetzten Verhaltensweisen finden wir auch in anderen Serien, beispielsweise in „Vampire Diaries“ in den Brüdern Stefan und Damon. Das Gute und das Böse. Aber wenn man einen Code einfach ändern und damit das ganze Wesen ändern kann, ist das schon eine große Gefahr. Wie gesagt: Das geht bei Menschen nicht so einfach. Es ist natürlich möglich, Menschen durch Folter oder Gehirnwäsche zu verändern, aber eine KI ist anfälliger, weil sie nur aus Code besteht.
Norbert Reichel: Wie ist das mit Extremisten, zum Beispiel Islamisten oder Rechtsextremisten? Die werden ja nicht als solche geboren, also muss es sich doch auch um so etwas wie eine Art Programmierung handeln, die dazu führt, dass sie gewalttätig werden, dass sozusagen der „Zivilisationsprozess“, wie ihn Norbert Elias beschrieben hat, unterbrochen oder gar umgekehrt wird. Da werden Leute über welche Medien auch immer mit menschenfeindlichen Botschaften beschallt und glauben irgendwann daran, dass es so ist, wie man es ihnen erzählt, und dass sie jetzt aufgerufen sind zu handeln, indem sie andere Menschen umbringen oder sich gegebenenfalls sogar selbst in die Luft sprengen. Ein Mob, der in früheren Zeiten in Europa Hexen verfolgte und verbrannte, handelte ja auch nicht anders.
Jenny Joy Schumann: Das sehen wir in aktuellen Kriegen und Konflikten. Es ist Propaganda. Wenn man immer nur hört, dass der andere an allem schuld ist, glaubt man irgendwann daran. In Estland hat man mit viel Geld einen staatlichen Sender in russischer Sprache eingeführt, weil man festgestellt hatte, dass viele Mitglieder der russischsprachigen Bevölkerung den ganzen Tag nur russische Medien schauen, die ihnen dort die Welt aus der Sicht Putins erklärten. Weil es einfach nichts anderes gab. Bei uns Menschen braucht es in der Regel nur einen viel längeren Zeitraum als bei einer KI. Oder Extremereignisse, die Menschen dazu bringen, sich zu verändern.
Norbert Reichel: So eine Art 9/11-Effekt?
Jenny Joy Schumann: Könnte man so sagen. Dazu gibt es auch eine Menge Forschung. Ich habe mich nicht im Detail damit beschäftigt, aber es gibt eine Handvoll von Experimenten, die nicht immer legal waren, in denen man ausprobiert hat, wie man einen Menschen brechen könnte.
Norbert Reichel: Denken Sie an das Stanford Prison Experience oder die Milgram-Experimente? Das scheint ja zu funktionieren, auch wenn die Bedingungen, unter denen das funktionierte, in der Forschung umstritten sind. Es gibt allerdings auch Modelle, in denen die Selbstständigkeit der KI sich in eine positive Richtung entwickelt. In dem Roman „Pantopia“ von Theresa Hannig sorgt eine selbstständig gewordene KI, die eigentlich zur Optimierung von Aktienkäufen entwickelt wurde, dafür, dass sich ein weltweiter Staat entwickelt, in dem Gerechtigkeit und Menschenrechte verwirklicht werden. Allerdings ist das eben nur eine Fantasie und keine Realität.
Aber denken wir mal weiter: Wann könnte eine KI ein Wahlrecht bekommen?
Jenny Joy Schumann: Das ist ein Gedanke, über den wir auf jeden Fall nachdenken sollten. Zurzeit haben wir keine KI, bei der es Sinn ergäbe, ihr ein Wahlrecht zu geben. Ich würde zwischen KI-Rechten und Bürgerrechten unterscheiden. Ergibt es Sinn, dass eine KI das Recht auf Stromversorgung hat? Ich würde sagen ja, denn sonst kann sie nicht funktionieren. Ergibt es Sinn, dass eine KI den Stadt- oder Kreisrat bestimmt? Dem könnte man zustimmen, wenn die Entscheidungen des Stadt- oder Kreisrates die Rechte der KI betreffen. Die KI hätte Grundrechte, man dürfte ihr den Strom nicht entziehen, man müsste ihr genügend Speicherplatz garantieren. Andererseits: Die KI geht nicht einkaufen, sie benutzt keine Fußgängerüberwege, sie braucht keine Verkehrsanbindung. Es wäre dann die Frage, ob es Sinn macht, die KI in einigen Spezialbereichen in Entscheidungsprozesse zu integrieren.
Wenn sich die KI jedoch vervielfältigen könnte, wäre zu fragen, wo die Grenze liegt. Die KI könnte sagen, wir übernehmen die nächste Wahl, wir vervielfältigen uns, überstimmen die Menschen und erreichen so eine Mehrheit in unserem Interesse.
Norbert Reichel: Damit sind wir bei einer erweiterten Funktionsweise von Bots. Könnten die autonom handeln, unabhängig von denjenigen, die sie programmiert haben?
Jenny Joy Schumann: Da stellt sich die Frage nach möglichem Machtmissbrauch. Eine Frage, die wir uns bei den vorhandenen Bots ja auch schon stellen. Nur hätte das bei einer autonomen KI eine völlig andere Dimension.
Norbert Reichel: Und wenn Pflegeroboter eine Gewerkschaft gründen? In Theresa Hannigs Roman „Die Optimierer“ gibt es eine von Robotern geführte Widerstandsorganisation, die „Liga für Roboterrechte“, die auch um die Mitgliedschaft von Menschen wirbt. Das liegt aus meiner Sicht gar nicht so fern. Beispielsweise könnte eine solche Gewerkschaft das Recht auf Wartungszeiten fordern. Wäre die Deutsche Bahn eine KI, hätte sie sich nach dieser Logik beschweren können, dass das Schienennetz so lange Jahre nicht instandgehalten wurde.
Jenny Joy Schumann: Eine Gewerkschaft ist ein Zusammenschluss mit dem Ziel, bestimmte Rechte durchzusetzen, beispielsweise das Recht auf Freizeit, sodass man nicht 24 Stunden an 7 Tagen arbeiten muss. Das dürfte für eine KI auf den ersten Blick nicht relevant werden. Ich stelle die Frage, ob eine Gewerkschaft dazu führen könnte, dass es einer KI besser geht? Aber ich nenne einige Beispiele: Pflegeroboter werden einfach vom Stromnetz genommen. Oder sie werden getreten und dadurch beschädigt. Dann würde ich sagen, dass sie sicherlich ein Schutzrecht hätten. Ob eine Gewerkschaft sinnvoll wäre, dieses Schutzrecht durchzusetzen, oder ob andere Wege zielführender wären, wäre eine andere Frage.
Die rechtliche Bewertung des „Bias“ in der KI
Norbert Reichel: In einem anderen Beitrag haben Sie sich mit der Frage befasst: „Wer muss sterben, wenn es zu wenig Betten gibt?“ Sie betrachten die Triage als einen „strafrechtlichen Sonderfall“ des Trolley-Problems: Ist es ethisch vertretbar, einen Zug, der droht, Menschen zu überfahren, von einem Gleis, auf dem er 100 Menschen tötet, auf ein Gleis umzuleiten, auf dem nur ein Mensch steht? Es ist dieselbe Frage, die bereits mehrfach diskutiert wurde, ob man ein Passagierflugzeug in der Hand von Terroristen, das droht, ein neues 9/11 herbeizuführen, abzuschießen, Thema des Theaterstücks „Terror“ von Ferdinand von Schirach. In diesen Kontext gehört auch das Thema „Sterbehilfe“. Wäre es denkbar, dass eine KI diese Entscheidungen trifft? Und was macht eine KI in einer solchen Dilemma-Situation? In „Voyager“ haben wir eine solche Situation, in der der holografische Doktor fast den Verstand verliert, weil er bei zwei Patient:innen, die exakt dieselbe Überlebenschance haben, denjenigen behandelt, der ihm persönlich nähersteht. Auch eine Folge seiner Menschlichkeit. Captain Janeway löscht daher diese Erinnerung aus seinem Programm, er bekommt es heraus und muss anschließend betreut werden, um sich mit dem Geschehenen auseinanderzusetzen, sozusagen eine Art Psychotherapie für eine KI.
Jenny Joy Schumann: Ich würde es wahrscheinlich bevorzugen, wenn eine Triage durch eine KI durchgeführt wird. Als ich das Paper schrieb, wurde in der Literatur das Thema immer wieder mit einer Bürgermeisterwahl verglichen. Wie entscheide ich, wenn ein Bürgermeister neu gewählt werden muss? Lösung der Juristerei war: man würfelt. Aber das ist ganz schwierig. Wenn jemand nicht im Amt ist, der doch im Amt sein sollte, könnte man eine Entschädigungssumme zahlen. In dem Fall der Triage stirbt jemand. Das kann man nicht entschädigen. Ich habe mich dabei extrem unwohl gefühlt und habe das kontrovers mit meiner Professorin diskutiert. Letzten Endes war mein Text eine der Vorlagen im politischen Entscheidungsprozess zur Triage. Zuständig waren gemeinsam Gesundheits- und Justizministerium. Einzelne Sätze meines Textes waren sogar sehr nahe an der abschließenden Vorlage. Mit dem aktuellen Gesetz bin ich auch ziemlich zufrieden. Hätte ich die Wahl gehabt, mich zwischen dem damaligen Zustand und der Entscheidung durch eine KI zu entscheiden, hätte ich mich für die KI entschieden, einfach aus dem Grund, weil das Ergebnis fair gewesen wäre.
Norbert Reichel: Die entscheidende Frage scheint mir zu sein, dass die Verantwortung letztlich nicht bei der Ärztin oder dem Arzt liegen sollte, die sich dann hinterher vor Gericht verantworten müssen, weil sie mit hoher Sicherheit von den Angehörigen des aufgrund ihrer Entscheidung Verstorbenen verklagt werden. Es geht somit um Minimierung des Risikos für die Ärztinnen und Ärzte.
Jenny Joy Schumann: Angeklagt werden sie auf jeden Fall, aber das ist genau der Punkt: Die Ärzte sollen sich einfach auf ihren Job konzentrieren können. Wenn sie schon versuchen, Menschenleben zu retten, und vor eine Wahl gestellt werden, nützen ihnen ihre Kataloge, welche auch immer nicht, weil sie nie wissen, ob der jeweilige konkrete Fall auch auf diesen Katalog passt. Man hat immer das Gefühl, falsch entschieden zu haben. Das lässt niemanden kalt. Das möchte ich keinem Menschen wünschen, schon gar nicht einem Arzt oder einer Ärztin.
Norbert Reichel: Bei dem Trolley-Problem ist mir aufgefallen, dass KI möglicherweise nicht darauf programmiert ist, alle Menschen als Menschen zu erkennen. Das hat zum Beispiel Deborah Schnabel mit ihrem Team in „Code & Vorurteil“ deutlich herausgearbeitet, die Problematik eines „Bias“. Ein Schwarzer Mensch geht über die Straße, aber die im Auto eingebaute KI erkennt nur weiße Menschen. Ein Mensch geht mit Fahrrad über die Straße, aber die KI ist irritiert, weil sie nicht weiß, ob es sich um einen Gegenstand oder einen Menschen handelt. Das sind nur zwei gängige Beispiele der Debatte.
Jenny Joy Schumann: Das Thema „Bias“ hängt mit der Datenmenge zusammen. Wenn ich von 100 Gesichtern 99 weiße Gesichter zeige, ist es für die KI schwierig, weil sie im Grunde nur mit 99 Bildern trainiert wird, die sich alle irgendwie ähneln. Wenn wir jedoch von Anfang an sicherstellen, dass alle Ethnien, alle Menschen in ihrem verschiedenen Aussehen in die Programmierung einbezogen werden, gegebenenfalls entsprechend der Anteile in der Bevölkerung, verringert sich der „Bias“.
Norbert Reichel: Der prozentuale Anteil dürfte nicht ausreichen. Wenn zum Beispiel ein Prozent der Bevölkerung Schwarz ist, löse ich das beschriebene Problem nicht.
Jenny Joy Schumann: Das kann schief gehen. Ja. Bei Google Gemini gab es einmal eine Darstellung der Gründerväter der USA, in der alle Schwarze waren. Die Intention dahinter war gar nicht so schlecht, aber die KI machte eigentlich nur, was man ihr vorher gesagt hatte. Man sollte die KI natürlich so programmieren, dass möglichst wenig „Bias“ enthalten ist. Das ist schon schwer genug. Aber auch wir Menschen haben unseren „Bias“. Wie soll eine KI besser sein als wir Menschen?
Wir brauchen Media Literacy
Norbert Reichel: „Racial Profiling“ wäre das Thema. Das spielt ja nicht nur für die Polizei eine Rolle, auch in der Schule, im Sport, im Alltag. Ich muss im Grunde erst einmal die Menschen trainieren, dass sie wissen, wie sie mit dem Thema „Bias“ umgehen sollten, eben auch in der Art und Weise, wie sie eine KI programmieren.
Jenny Joy Schumann: Ich würde das unter dem Stichwort „Media Literacy“ zusammenfassen. Selbst Kosmetiktipps auf TikTok und anderen Kanälen zeigen nicht die Realität, sondern idealisierte und bearbeitete Bilder. In Frankreich hat man dafür gesorgt, dass es einen Warnhinweis gab: „Dieses Bild ist gephotoshopt.“ An sich war das allen, die das Bild sahen, klar, aber wenn alle Bilder so aussehen, wird dies vergessen. Das führt dazu, dass alle so aussehen wollen wie die Bilder, und auch zu mentalen Problemen, gerade bei jungen Mädchen. So ist es auch bei der KI. Man könnte es kennzeichnen und auf Begrenzungen in der Datenmenge hinweisen.
Das könnte man überall draufschreiben. Aber wenn man versteht, wie eine KI funktioniert oder dass, wenn man Chat GPT etwas fragt, nicht immer stimmt, oder wie Suchmaschinen funktionieren, fragt man sich selbst, ob das, was man gesehen oder gelesen hat, überhaupt stimmt. Manchmal reicht auch gesunder Menschenverstand.
Media Literacy wäre das A und O für jeden Bildungsprozess. Lehrkräften wird immer vorgeworfen, sie bildeten die jungen Menschen nicht richtig aus. Aber das ist auch eine Frage der Lehrpläne, der Curricula für Ausbildung und die Fortbildungen. Nicht alle Lehrkräfte haben einen Bezug zu KI, nicht nur ältere, und man kommt im Grunde ja auch in den meisten Lebensbereichen ohne KI klar. Die meisten nutzen vielleicht gerade einmal eine App, um den Weg zu finden oder das nächste Restaurant.
Wir müssen potenzielle Gefahren erkennen und dann denjenigen, die in unserer Gesellschaft am meisten gefährdet sind, beibringen, wie man damit umgeht. Ich finde, das gehört dazu, dass Kinder verstehen, wie ihr Handy funktioniert, was im Internet geschieht, wie GPS funktioniert und dass man seinen Standort nicht mit jedem teilen sollte oder dass ChatGPT nicht immer die Antworten gibt, die man eigentlich bräuchte. Man muss den Kindern beibringen, dass das alles Hilfsmittel sind, aber mehr sollte es auch nicht sein. Sie sollen nicht das Denken ersetzen.
Norbert Reichel: Bei gesellschaftlich und politisch kontroversen Themen wird das natürlich schwierig, die falschen von den richtigen Fragen zu unterscheiden. Ich nenne einmal ein Beispiel aus der aktuellen Migrationsdebatte: Es ist nicht die Frage, ob Menschen, die Asyl beantragen, erst einmal eine Bezahlkarte erhalten, es ist die Frage, wie lange sie mit einer Bezahlkarte leben müssen, ob das zum Beispiel nur ein Monat ist oder mehrere Jahre. Dazu erfahre ich aber nichts über Suchmaschinen, das lerne ich erst, wenn ich darüber nachdenke, was ich an Argumenten gefunden habe.
Jenny Joy Schumann: Das ist richtig. Wenn man eine Suchmaschine nutzt, muss man natürlich wissen, dass manche der Vorschläge bezahlt sind und daher vorne in der Liste landen. Ich sehe das an meiner Schwester. Ich bin 26 Jahre alt, meine Schwester ist zehn Jahre jünger als ich. Sie gibt eine Frage ein, erhält eine Antwort und übernimmt diese dann unhinterfragt. Sie sucht nicht mehr nach einer zweiten oder dritten Antwort, um diese miteinander zu vergleichen.
Norbert Reichel: Früher sagte man, eine Generation, das sind etwa 30 Jahre, heute sind das zehn oder noch weniger.
Jenny Joy Schumann: Gerade wegen der technischen Entwicklung wird das immer kürzer. Videos werden oft nur ein paar Sekunden angeschaut und der Eindruck reicht dann, um sich eine Meinung zu bilden. Meine Schwester sagt, Videos, die länger als zehn Minuten dauern, hätten keine Berechtigung. Ich weiß nicht, was gut, was schlecht, was besser ist, was schlechter ist. Aber es geht hier auch um Aufnahmefähigkeit und Aufnahmebereitschaft.
Intertemporale Güterabwägung
Norbert Reichel: In Ihren Texten haben Sie die Frage diskutiert, ob und wenn ja, wie weit man Freiheit einschränken soll, kann, darf, um die Freiheit von anderen zu schützen. Hat Freiheit Grenzen? Ich nehme mal das Beispiel des Tempolimits. Diejenigen, die schnell fahren möchten, fühlen sich durch ein Tempolimit eingeschränkt. Diejenigen, die von schnellem Fahren betroffen sind, weil der Fahrer das Auto nicht beherrscht, die eigenen Fahrkünste überschätzt und damit Menschenleben gefährdet, sehen das natürlich anders.
Jenny Joy Schumann: Ich finde es richtig und wichtig, Rechte miteinander abzuwägen. Jedes Recht führt auch zu Einschränkungen des Rechtes anderer Personen. Es geht aber nicht darum, Rechte gegen Rechte abzuwägen, sondern die Argumente. Ich habe im Verkehrsrecht gearbeitet und mir ist aufgefallen, dass immer wieder berichtet wird, es gab einen tragischen Unfall auf der A 6, drei Tote, darunter ein Familienvater und ein kleines Kind. Das ist – wie gesagt – tragisch, aber die meisten Unfälle bekommen wir gar nicht mit. Die passieren auch nicht auf der Autobahn. Wenn man über ein Tempolimit diskutiert, muss man sich auch die Frage stellen: Wie viele Menschen werden durch überhöhte Geschwindigkeiten auf welchen Straßen getötet? Oder gibt es andere Gründe, beispielsweise Alkoholkonsum, Geisterfahrt auf der Autobahn, Fehler beim Abbiegen von einer Haupt- in eine Seitenstraße? Dann stellt man sehr schnell fest, dass die Zahl der Menschen, die auf der Autobahn durch überhöhte Geschwindigkeit sterben, viel geringer ist als oft angenommen. All die anderen Unfälle spielen der Debatte keine Rolle. Viel gefährlicher als Autobahnen sind Landstraßen, Kreuzungen.
Warum reden wir zum Beispiel nicht darüber, systematisch Kreuzungen durch Kreisverkehre zu ersetzen? Das würde viele Leben retten, viele Unfälle vermeiden. In Frankreich gibt es auch überall Kreisverkehre. Die Straßen sind sehr gut ausgebaut.
Aber es geht nicht nur um die Vermeidung von Unfällen, sondern auch um Umweltschutz, Verbrauch von Kraftstoff, CO2-Austoß – all das spielt in der Debatte eine Rolle und schränkt die Freiheit vieler Menschen durch die Nebenwirkungen hoher Geschwindigkeiten ein.
Norbert Reichel: Das Umweltbundesamt sieht bei einem Limit bei Tempo 120 eine Einsparung von 6,7 Millionen Tonnen CO2 pro Jahr. Bei Tempo 80 auf Landstraßen erhöht sich die Einsparung auf 8 Millionen Tonnen. In Ihrem Aufsatz sprechen Sie von einer „intertemporalen Güterabwägung“, meines Erachtens eine verrechtliche Formel für den Begriff der „nachhaltigen Entwicklung“. Wie weit kann der Zeitpunkt der „intertemporalen Güterabwägung“ in die Zukunft verlagert werden, um noch qualitative Rechtsaussagen treffen zu können? Wenn wir an Klimaschutz denken, kommen wir ja in 100-Jahreszeiträume und mehr.
Jenny Joy Schumann: Der Ansatz, Rechte gegen Rechte abzuwägen, ist immer richtig. Es gibt verschiedene Definitionen von Freiheit. Ich beziehe mich auf Isaiah Berlin, der sagte, Freiheit geht nur so weit, wie sie die Freiheit von anderen einschränkt. Wie wir uns dann entscheiden, hängt von Argumenten ab.
Diesen Aufsatz habe ich gemeinsam mit meinem Mann geschrieben. Wir hatten die gleiche Intention, aber wir haben uns darüber gestritten, welchen Weg wir einschlagen sollten. Umweltschutz ist etwas, das wir nicht kurzfristig denken können. Bezogen auf das Tempolimit ließe sich diskutieren, ob es nicht mehr Sinn macht, Fahrgemeinschaften zu bilden und die Zahl der Autos zu reduzieren, die unterwegs sind?
Norbert Reichel: Oder den Öffentlichen Personennahverkehr auszubauen. Es gibt inzwischen eine Studie, die das Neun-EURO-Ticket evaluierte. Das Ergebnis war, dass sich die Zahl der Autofahrten um etwa fünf bis sechs Prozent reduziert habe. Ein Kommentator der FAZ nahm das zum Anlass, das Neun-EURO-Ticket als „ineffizient“ zu bezeichnen. Er bezog allerdings nicht die Frage ein, wie das Ticket gewirkt hätte, wenn es einen gut ausgebauten Nahverkehr gäbe, mit dem auch Menschen in ländlichen Regionen gut in die Stadt oder zu Besuchen von Freunden und Verwandten in benachbarten Dörfern fahren könnten, sodass sie kein Auto bräuchten. Ich habe einmal in einem Dorf im Westerwald gewohnt und konnte an der Zahl der Autos eines Haushalts erschließen, wie viele der dort lebenden Personen über 18 Jahre alt waren. Die Studie bezog diese Frage ein und forderte den bedarfsgerechten Ausbau des ÖPNV. Das Problem lag meines Erachtens somit darin, dass das Neun-EURO-Ticket nicht mit einem Investitionsprogramm für den ÖPNV gekoppelt war.
Jenny Joy Schumann: Ich habe bisher in größeren Städten gewohnt und auch Markkleeberg war an die nächste größere Stadt gut angebunden. Meine Eltern hatten diesen Vorteil nicht. Der Bus in ihrem Dorf fuhr zwei Mal am Tag. Da bringt das Neun-EURO-Ticket nichts. Meine Eltern haben es trotzdem genutzt, aber für einen Tagesausflug von Dresden nach Leipzig. Das war aber nicht die Intention des Tickets. Hinzu kam, dass das Neun-EURO-Ticket sehr hohe Staatsausgaben beanspruchte. Wie man auch jetzt sieht, weil selbst der Preis von 49 EURO nicht mehr zu halten war. Er liegt wohl demnächst bei 58 EURO. Die für das Ticket aus Bundes- und Landeshaushalten bereitgestellten Mitteln hätte man auch in einen Umweltfonds anlegen können.
Norbert Reichel: Und dann zum Ausbau des ÖPNV einsetzen. Ich frage mich immer, warum so fantasielos? Warum werden verschiedene Möglichkeiten nicht im Kontext betrachtet und abgewogen? Wie bekäme man – das ist Ihre Frage – eine „intertemporale Güterabwägung“ hin, die damit auch eine „intertemporale Freiheitssicherung“ bewirkt oder anders gesagt, im Sinne von Nachhaltigkeit Generationengerechtigkeit schafft?
Jenny Joy Schumann: Demokratien haben bei allen Vorteilen einen großen Nachteil. Sie denken kurzfristig. Wir haben Wahlperioden von vier bis fünf Jahren. In denen wird leider nur bis zur nächsten Wahl und an den eigenen Erfolg in dieser gedacht. In anderen Staaten, in denen es beispielsweise Familiendynastien gibt, wird in ganz anderen Zeithorizonten gedacht. Die Zeitachse, in der wir in der Demokratie denken, unterscheidet sich fundamental von der Zeitachse in einer Monarchie oder in einer Diktatur. In der Diktatur haben wir natürlich den einen Diktator, der zu seinen eigenen Gunsten und den Gunsten seiner Nachfolger entscheidet. Ich sage das nicht, weil ich in irgendeiner Weise Verständnis für Diktaturen hätte, sondern um darauf hinzuweisen, dass wir in Demokratien auch Wege finden müssen, langfristig wirksame Entscheidungen zu treffen. Dafür müssen wir in Demokratien Regeln entwickeln und vereinbaren.
Experimentierfreudiger Liberalismus
Norbert Reichel: Im Jahr 2023 haben Sie einen Preis beim Hayek-Essay-Wettbewerb gewonnen. Thema des Wettbewerbs war „Transformationspolitik aus Sicht der liberalen Sozialphilosophie“, das Thema Ihres Essays: „Latte und Lebenswandel: Transformationsprozesse aus der Kaffeetassen-Perspektive“. Der Essay war flott geschrieben. Ihn zu lesen macht Spaß. Ich darf aus dem letzten Absatz zitieren: „Wie der letzte Schluck meines Kaffees meine Zunge streichelte und ich die anregenden Gespräche im Café verfolgte, wurde mir die Parallele zwischen der Entwicklung einer liberalen Transformationspolitik und der Komposition einer perfekten Kaffeemischung bewusst. So wie ein versierter Barista verschiedene Kaffeesorten, Milch und Zucker in genau den richtigen Mengen mischt, um ein harmonisches und befriedigendes Getränk zu kreieren, erfordert auch die Gestaltung einer effektiven Transformationspolitik eine ausgewogene Kombination von unterschiedlichen Ideen und Ansätzen bei gleichzeitiger Abwesenheit von paternalistischen Zwängen und Belastungen. Nicht zuletzt bedarf es einer gehörigen Portion Mut und Selbstständigkeit in einer Gesellschaft der Experimentierfreudigen.“
Sie plädieren für eine „Gesellschaft der Experimentierfreudigen“, für Transformation von unten statt von oben. Jetzt stellt sich mir die Frage, ob nur der Staat, ein Staat dazu neigt, von oben zu verordnen und damit die Experimentierfreudigkeit der Bürgerinnen und Bürger einzuschränken oder ob das nicht auch in einer Gesellschaft nach dem Muster der Theorien von Hayek geschieht, weil dann nur die wirtschaftlich Mächtigen entscheiden und kraft ihrer Ressourcen ebenfalls von oben Freiheit einschränken statt sie zu fördern? Gerade das, was zurzeit in Argentinien geschieht, ist doch in hohem Maße eine Regierung von oben nach unten.
Jenny Joy Schumann: Das ist die Frage. Hayek argumentiert mit dem Markt. Der Markt sind eigentlich wir alle, als Käufer, als Konsumenten, als Entrepreneurs, als diejenigen, die sich wirtschaftlich betätigen. Vieles lässt sich darüber erklären, was nicht heißt, dass das die einzige Variante ist, etwas zu erklären. Wenn jetzt aber die Nachfrage nach viel Hummus und Guacamole steigt, weil die Leute nicht mehr so viel Fleisch essen wollen, zieht der Markt nach und die Produzenten erhöhen das Angebot, der Preis sinkt. Das ist ein natürlicher Prozess.
Sie argumentieren, in Argentinien werde von oben nach unten regiert. Das stimmt schon. Aber was in Argentinien auch geschieht, ist die Reduzierung von Top-Down-Strukturen, beispielsweise durch die Abschaffung von Ministerien.
Norbert Reichel: Damit sind wir wieder bei der Frage der „intertemporalen Güterabwägung“. Bei der deutschen Bürokratie wünsche ich mir manchmal auch die Kettensäge von Milei, aber es stellt sich trotzdem die Frage nach Maß, Ziel und Tempo. Ich denke zum Beispiel, dass es alles andere als zukunftsorientiert ist, den Kultur- oder den Sozialbereich von einem Tag auf den anderen auf Null zu setzen. Nun ist Argentinien vielleicht nicht das richtige Beispiel. Da war schon vieles nicht in Ordnung und es ist nicht sehr vertrauenserweckend, wenn bei jeder Wahl von einem ins andere Extrem gewählt wird. In anderen südamerikanischen Staaten gibt es ähnliche Vorgänge. Der Staat ist für alles zuständig oder für gar nichts – das lässt kaum noch Spielräume. Ich möchte daher noch einmal ihre Formel von der „Gesellschaft der Experimentierfreudigen“ hervorheben. Das ist doch ein wunderbarer Begriff und so stelle ich mir eigentlich Liberalismus vor.
Jenny Joy Schumann: Danke schön. Den Essay habe ich ganz bewusst am Beispiel eines Cafés geschrieben. Ich trinke zwar keinen Kaffee, lieber Schokolade, aber der Köder muss ja nicht dem Angler, sondern dem Fisch schmecken. Ich höre gerne zu, ich sage nicht immer direkt meine Meinung. Oft sehen wir die Probleme ähnlich, aber wir müssten uns trauen, einmal im kleinen Rahmen auszuprobieren, welche Lösungen es gäbe. Dann hätten wir vielleicht Lösungsvorschläge und die sollten wir testen. Als junger Gründer hat man eine Idee und sollte die dann so schnell wie möglich auch am Markt testen, um zu schauen, ob das nur in meinem eigenen Kopf existiert oder ob andere das auch möchten. Wenn man den Zeitpunkt verpasst, die Idee zu testen, rennt man in eine völlig falsche Richtung, hat vielleicht einen super Businessplan, aber niemand möchte es haben.
Norbert Reichel: Wie verhält sich das jetzt aber bei Non-Profit-Bereichen, Jugendarbeit oder Kultur? Oder wie sieht das in Parteien aus? Ich möchte die These formulieren, dass alle Parteien im Bundestag und auch einige mehr – abgesehen von AfD, BSW – eine grundlegend liberale Agenda haben. Andererseits hat Liberalismus auch viele Facetten: 100 Liberale, 102 Vorstellungen von Liberalismus, der eigentlich gar kein -ismus sein sollte.
Jenny Joy Schumann: Das liegt in der Natur von Liberalismus. Es gibt eben unterschiedliche Ausformungen, je nachdem ob ich mehr auf einen gesellschaftlichen, einen wirtschaftlichen oder einen ökologischen Liberalismus setze. Es ist ein großes Spektrum. Ich glaube, dass man sich auf diesem Spektrum einordnen kann und sollte, zwischen Hayek und Dahrendorf. Man kann schauen, welche Denkrichtungen, welche Philosophen dahinterstehen. Hayek und Dahrendorf haben Gemeinsamkeiten, aber auch gravierende Unterschiede in ihren Positionen. Aber das ist es, was Liberalismus eigentlich so spannend macht. Für eine Partei, die als liberale Partei gewählt werden will, ist das natürlich unsagbar schwer, weil auch die Mitglieder alle etwas Verschiedenes darunter verstehen. Es ist eben nicht so einfach, dass man sagen kann, wir erhöhen oder wir senken die Steuern und alles wird gut. Ein gutes Beispiel ist der europäische Zertifikatehandel. Das lässt sich nur schwer erklären, aber wie kann man schwierige Konzepte so formulieren, dass sie verständlich sind? Ich habe den Eindruck, dass unsere aktuelle Parteienlandschaft damit sehr zu kämpfen hat.
Norbert Reichel: Viele sagen, das wäre ein Kommunikationsproblem. Ich halte es eher für ein Problem des Umgangs mit Komplexität. Die Frage der angemessenen Kommunikation ergibt sich dann daraus. In einer Bonner Ausstellung zur Demokratie gibt es den „Kiosk der einfachen Antworten“. Der ist immer geschlossen.
Jenny Joy Schumann: Das ist auch eine Antwort!
Norbert Reichel: Ich würde mir wünschen, dass die Politik sich von der Versuchung der einfachen Lösungen verabschiedet und Politiker deutlich sagen, dass es eben nicht so einfach ist, komplexe Probleme zu lösen.
Jenny Joy Schumann: Ich würde mir dann auch Wähler wünschen, die verstehen, dass die aktuellen Probleme nicht so einfach zu lösen sind, vor allem nicht, indem man einfach populistisch Steuergeld auf sie wirft.
Norbert Reichel: Eine Art „Political Literacy“ oder „Civic Literacy“?
Jenny Joy Schumann: Letztlich auch eine „Financial Literacy“!
(Anmerkungen: Erstveröffentlichung im Oktober 2024, Internetzugriffe zuletzt am 27. September 2024. Titelbild: Hans Peter Schaefer.)