angst.jpg
g71.jpg
rheinmetall-entwaffnen.jpg
räte01.jpg
siko2.jpg
pag4.jpg
previous arrow
next arrow

Teil I und II

Kritische Textreihe zu Künstlicher Intelligenz

von capulcu

text als pdf: https://capulcu.blackblogs.org/wp-content/uploads/sites/54/2023/10/GrueneKI-1.pd

 

Teil I und II

Kritische Textreihe zu Künstlicher Intelligenz

Wir haben etwas gebraucht, um einzusehen, dass wir das Geld für die Stromrechnung nicht zusammenbekommen. Eine eigene KI (künstliche Intelligenz) steht uns also nicht zur Verfügung und wir müssen unsere natürliche Intelligenz bemühen, um eine Reihe von Texten zum Thema KI und dessen Folgen zu schreiben, diskutieren, verwerfen und zu veröffentlichen. Wir haben vor, in lockerer Abfolge auf einzelne Aspekte näher einzugehen und die gewogene Weltöffentlichkeit damit zu belästigen. Die Texte sind fokussiert und gehen eher in die Tiefe, als in die Breite – sie mögen Widerspruch oder Begeisterung auslösen. Wir verstehen sie als Diskussionsangebote im Prozess einer Entwicklung einer gemeinsamen Analyse dieses neuen Hypes – über kritische Anmerkungen würden wir uns freuen. In diesem Sinne: Viel Spaß beim Lesen.

https://capulcu.blackblogs.org/

Klima: Das grüne Vehikel für die KI-Offensive

Als Microsoft-CEO Satya Nadella im Februar die neue KI-gestützte Version der Suchmaschine Bing vorstellte, beschwor er mit dem „dreiköpfigen Monster aus Inflation, Rezession und Energiekrise“ das ganz große Bedrohungsszenario herauf. Natürlich nur, um direkt im Anschluss zu verkünden, dass die technische Lösung der genannten Probleme greifbar nahe sei. Es überrascht nicht, dass ein Unternehmen wie Microsoft danach „strebt, Technologie einzusetzen, um die großen Herausforderungen, die sich Menschen, Organisationen und Staaten stellen, zu bewältigen,“ wie Nadella die Ziele des Konzerns formulierte.1 Schließlich geht es dem Konzern bei der öffentlichkeitswirksamen KI-Offensive u.a. darum, endlich wieder Marktanteile im Google-dominierten Suchmaschinenmarkt zu gewinnen.

Erstaunlicher als die PR-Darstellung Microsofts ist, dass auch weite Teile der Grünen und der (professionalisierten) Klimabewegung diese Vision übernommen haben. Der massive Ausbau des Einsatzes von Technologie und insbesondere von sogenannter Künstlicher Intelligenz wird als große Chance, wenn nicht gar Notwendigkeit, im Kampf gegen die menschengemachte Klimakrise wahrgenommen. Kein Tag vergeht, ohne dass nicht eine neue Technologie als „die“ Lösung für das Klimaproblem präsentiert wird. Sollte die Vision des umfassenden Einsatzes von KI zur Lösung politisch-sozialer Probleme Realität werden, käme es zu tiefgreifenden sozialen Umwälzungen im Sinne der leistungsfähigen, progressiven bürgerlichen und inzwischen oft grünen Eliten. Im diesem Artikel wollen wir uns genauer mit der grünen Technologie-Gläubigkeit befassen. Leitend für unsere Überlegungen ist die Frage, welche Folgen für individuelle und kollektive Selbstbestimmung von der Bekämpfung des Klimawandels mittel Künstlicher Intelligenz zu erwarten sind.

Die Hoffnung auf technische Lösungen

Die Initiative, einen informationstechnologischen Vorstoß in die Weiterentwicklung des Kapitalismus einzubringen, reicht weit zurück. Die Idee entstand jedoch – anders als man meinen könnte – zunächst nicht in Konzernzentralen wie der von Microsoft, sondern in der US-amerikanischen Gegenkultur der 60er Jahre. Die aktuellen grünen Vorstellungen eines sich selbst regulierenden Klimaschutzes und einer mittels Rückkopplungsschleifen von Informationsströmen optimierten Gesellschaft knüpfen an die Utopien der damaligen Alternativbewegung an.2 Diese Vorstellungen münden heute in dem Vorstoß, Klimapolitik und KI in einem technopolitischen Komplex neuer Art zum Kern eines totalisierenden Durchbruchs in eine neue Ära des Kapitalismus zu machen.

Bei der Heinrich-Böll-Stiftung läuft dieser Ansatz unter der Reflexion und Offenheit betonenden Überschrift: „KI & Klimawandel – Hype oder Chance?“ Die Heinrich-Böll-Stiftung ist, mehr als jede andere politische Stiftung anderer Parteien, das Strategie- und Diskursorgan (zur Meinungsbildung und Stimmungstest) der Grünen. Klimapolitik erscheint dabei sowohl als Vehikel des technologischen Durchbruchs, als auch als Vehikel zur Verdrängung alternativer politischer Ansätze (des radikalen Klimaschutzes und der gesellschaftlichen Veränderung) und weist den IT-Technologien ein Monopol in der Klimapolitik zu. Auch Ralf Fücks, einer der Gründer:innen des grünen Thinktanks Zentrum Liberale Moderne und ehemaliger Leiter der Heinrich-Böll-Stiftung, schwärmt von einer leuchtenden Zukunft dank technologischer Innovation:

Aus dem Wettlauf gegen den Klimawandel […] kann eine neue ökonomische Dynamik entstehen, eine lange Welle umweltfreundlichen Wachstums. Ihre Treiber sind Künstliche Intelligenz und die kybernetische Steuerung von Produktion und Logistik, Wasserstoff und synthetische Kraftstoffe, E-Mobilität und Batterietechnik, nachwachsende Werkstoffe, Bionik und das weite Feld der Biotechnologie mit ertragreicheren, robusteren Nutzpflanzen und Lebensmitteln aus Zellkulturen.“

Von dem Literaturwissenschaftler Roberto Simanowski wird diese Haltung so zusammengefasst:

Die Hoffnung, dass die Technik uns rechtzeitig aus dem Desaster, auf das wir zusteuern, errettet, indem sie, gepaart mit ‚nachhaltigem‘ Konsum, ein ‚grünes‘ Wirtschaftswachstum ermöglicht, ist […] nur Ausrede dafür, am Status quo nichts Wesentliches ändern zu müssen. KI in ihrer schwachen Form ist erklärter Ausdruck dieser Hoffnung, sich mit Technik, statt einer Kehrtwende, vor den Folgen der bisher entwickelten Technik schützen zu können; durch den effizienten Einsatz von Wärme mittels intelligenter Thermostate, die Optimierung von Verkehrslenkung in der intelligenten Stadt oder die CO2-Rückbindung aus der Atmosphäre in den Boden.“3

Die Hoffnung auf Technik ist demnach ein solutionistischer Ansatz, d.h. das sozial erzeugte Problem des Klimawandels wird in technische Ersatzprobleme, z.B. den enormen Verbrauch von fossiler Energie übersetzt, die dann mittels KI gelöst bzw. weg-optimiert werden können.4

Technozän statt Anthropozän?

Technokrat:innen und Solutionist:innen sehen in der (derzeitigen) politischen Unfähigkeit, einen klimagerechten Richtungswechsel auch nur einzuleiten, die Bestätigung dafür, dass ‚der Mensch‘ nicht in der Lage sei, a) über seine eigenen Bedürfnisse hinaus und b) über das unmittelbare Hier und Jetzt hinaus rationale Entscheidungen im Sinne eines (globalen) Gemeinwohls zu treffen. Als quasi naturgesetzlich soll diese Einsicht in die ‚menschliche Unfähigkeit‘ den Weg für eine Künstliche Intelligenz ebnen. Sie könne die Klimakrise weit besser als der Mensch lösen, weil sie viel besser Daten prozessieren und komplexe, klimarelevante Zusammenhänge detektieren kann.

Mensch könnte zynisch anmerken, eine KI (ausgestattet mit weitgehender Entscheidungsbefugnis) könne kaum eine noch schlechtere Klimapolitik machen als die derzeitige Politik. Doch anders, als es James Lovelock, eine der intellektuellen Referenzen von Teilen der Ökologiebewegung in seinem Buch Novozän – Das kommende Zeitalter der Hyperintelligenz analysiert, stehen wir schon lange nicht mehr vor einem Wissens- sondern vor einem Willensproblem. Der politische Wechsel vom Fokus des Individuums in seiner Jetzt-Zeitigkeit hin zu einer Gesellschaft, welche die zukunftsfähige Gemeinschaft radikal in den Mittelpunkt stellt, lässt sich nicht per Entscheidungs-Überantwortung an eine künstliche Intelligenz abkürzen. Der Grund dafür liegt weniger im technischen Problem einer niemals ausgewogenen Datenbasis, die zum Training selbstlernender Algorithmen der KI herangezogen wird, und damit zu einer unbrauchbaren Verstärkung dieser Datenvorurteile durch die KI führt. Der Grund liegt vielmehr in der konzeptionellen Unzulänglichkeit des Maschinenlernens, eine brauchbare Notion von Gemeinwohl abzubilden.

Eine semantisch ahnungslose KI, die lediglich Mustererkennung und -optimierung statistischer Gewichte betreibt, hat keine Idee von dem, was ein Gemeinwohl sein könnte und wie es sich sinnvoll dynamisch weiterentwickeln lässt, egal wie beeindruckend ‚menschenähnlich‘ selbstlernende Sprachmodelle à la ChatGPT Problemlösungsstrategien bereits jetzt imitieren. Schlimmer noch – das Konzept der Optimierung auf der Basis bestehender Daten schreibt unweigerlich Vergangenes (herrschaftsstabilisierend) in die Zukunft fort. Damit entpuppt sich eine entmündigende KI als Empfehlungs- und Entscheidungsassistent zur Lösung der ökologischen Krise als sozio-technologische Sackgasse – sie ist als (techno-)revolutionäres Hilfsinstrument untauglich. Ihre Attraktivität speist sich lediglich aus einer doppelten Verantwortungsabgabe erstens für die Mehrheit der Menschen, die sich nicht mehr mit dem von ihnen verursachten Klimawandel befassen müssen, da eine KI ohnehin bessere Lösungen findet als sie selbst, und zweitens für die Entscheidungsträger:innen, die den politischen Charakter wegweisender gesellschaftlicher Entscheidungen verschleiern und ihre eigene Verantwortung der Öffentlichkeit gegenüber auf die KI abwälzen können, um so ggf. auch unpopuläre Maßnahmen durchsetzen zu können.

Grüne KI als Akzeptanzbeschaffung für soziale Umwälzungen

Es ist festzustellen, dass die Hoffnung auf Technik in der grünen Vision nicht lediglich als bewahrend im Sinne der „Verwaltung einer bereits etablierten Ordnung“ zu charakterisieren ist, sondern die Verheißung der KI gegenüber denjenigen, die über ihren Einsatz bestimmen, gerade darin besteht, die geltenden Regeln bis in die letzten Verästlungen des sozialen Gefüges durchsetzen zu können. Eine solche Optimierung der Durchsetzung sozialer Ordnung mittels KI-getriebener Automatisierung – auch wenn diese den progressiven Zielen im Geiste des Klimaschutzes folgt – ist mehr als nur eine Erfassung immer weiterer Bereiche menschlichen Lebens im Sinne quantitativer Expansion. Sie bildet die Grundlage für eine tiefgreifende qualitative Transformation sozialer Beziehungen. Die Politik eines kombinierten klimapolitisch/technologischen Durchbruchs kann daher als total, oder besser „totalisierend“ bezeichnet werden in dem Sinne, wie es vor hundert Jahren die Kombination von Taylorismus/Fordismus und Durchsetzung von Ersparnissen und durchaus, wie in den USA, ökologischen Zielsetzungen gewesen ist. Totalisierend ist die grüne KI-Offensive auch deswegen, weil sie im Sinne einer gesamtgesellschaftlichen Veränderung bis in die Mentalitäten der Menschen hinein wirkt und wirken soll.

Das lässt sich aus der Schrift der Heinrich-Böll-Stiftung „Smarte Technologie gegen den Klimawandel, 15 Fakten über künstliche Intelligenz“ bis ins Einzelne ablesen.5 Sie stellt den Aufriss eines umfassenden gesellschaftspolitischen Projekts dar. Hier wird der klimapolitische/technologische Einsatz auf den Gebieten von Ressourcenverbrauch, Industrie 4.0, Verkehr und Mobilität, Landwirtschaft, Waldwirtschaft, Artenverwaltung durchgespielt. Eindeutig mit der Tendenz der Ausweitung auf weitere gesellschaftliche Bereiche. Herausheben möchten wir hier Folgendes: Eine Politik unbedingter Vermeidung der Katastrophe wird gar nicht erst verfolgt, es geht um „gesellschaftliche Anpassung“ (S.8). Kapitalismuskritische Gesichtspunkte tauchen ebenfalls nicht mehr auf, wenn es heißt „Energiemarkt nachvollziehbar machen“ (S. 14). Die Propaganda einer „Präzisionslandwirtschaft“ unter Einsatz von KI steht in frappanter Analogie zu der stalinistischen Strategie eines totalisierenden Zugriffs, die gesamte Landwirtschaft bis ins Letzte in eine fordistische/tayloristische Maschine zu transformieren, mit den bekannten katastrophalen Ergebnissen, wie Josephson sie als „Brute-Force-Technologie“ beschrieben hat. Die totalisierende Tendenz zu einer neuen klimapolitisch-technologischen Expertokratie ist derart hermetisch, dass alternative politische Formen der Klimapolitik und des Verhältnisses zu den neuen Technologien gar nicht mehr auftauchen. Klima- und KI-Politik nehmen die Form eines geschlossenen Systems an, das Spielräume für autonome Prozesse nicht mehr zulässt. Kritik? „Um Vertrauen in die KI zu schaffen, müssen wir uns auch mit ihren möglichen negativen Folgen auseinandersetzen“ (S.32).6

Mit ihrer betont reflektierten Herangehensweise an das Thema sind die Grünen nicht alleine. Immerhin hat das Bundesministerium für Umwelt, Naturschutz und nukleare Sicherheit (BMU) schon 2021, also noch vor der grünen Regierungsbeteiligung, auf Bundesebene ein „Fünf-Punkte-Programm ‚Künstliche Intelligenz für Umwelt und Klima‘“ ins Leben gerufen. Darin geht es vor allem um die Schaffung sogenannter KI-Leuchttürme, „Projekten also mit Strahlkraft für den Umweltschutz.“7 Und auch im BMU gibt man sich gern kritisch: „Denn es gibt ökologische Schattenseiten, die wir in den Blick nehmen müssen: Die Milliarden von Berechnungen auf Hochleistungsprozessoren, die den KI-Systemen ihre beeindruckenden Fähigkeiten verleihen, verschlingen viel Energie,“ heißt es im zugehörigen Factsheet, nur um einen Absatz weiter davon zu träumen, „eine starke Marke ‚Sustainable AI made in Europe’“ zum eigenen Wettbewerbsvorteil zu machen.

Zusammen mit den Bundesministerien für Arbeit und Soziales sowie für Familie, Frauen, Senioren und Jugend hat das BMU auch das Forschungsprojekt „Civic Coding ‒ Innovationsnetz KI für das Gemeinwohl“ gefördert. Darin legt die Bundesregierung einen international einzigartigen Fokus auf „gemeinwohlorientierte“ KI-Entwicklung, wobei einer der Schwerpunkte mit der „KI-Ideenwerkstatt“ auch hier auf Umweltzielen liegt.8 Die faktisch genannten Projekte sind dann allerdings meist eher mickrige Leuchttürme. Da werden hier mal ein paar Bienenstöcke mit Sensoren ausgestattet, um dem Bienensterben auf den Grund zu gehen, und dort mal der Bewässerungsbedarf von Stadtbäumen prognostiziert. Es drängt sich der wenig überraschende Eindruck auf, dass komplexere Probleme von einer automatisierten Lösung durch KI weit entfernt sind und es eher darum geht, den Diskurs über diese Technologien von Seiten des Ministeriums aktiv mitzugestalten.

Klimakiller KI

Die Bundesregierung gibt den KI-Leuchttürmen nicht ohne Grund einen kritisch-reflektierenden Anstrich. Denn es ist keineswegs ausgemacht, dass KI Teil der Lösung und nicht Teil des Problems ist. Schließlich ist der Ressourcen- und Energieverbrauch des maschinellen Lernens enorm. So schätzt etwa Facebook die beim Training des eigenen Sprachmodells LlaMA verbrauchte Energie auf 2638 MWh.9 Zur Einordnung: Ein modernes Windrad, das etwa 3500 Haushalte mit Energie versorgen kann, muss über drei Monate laufen, um eine solche Menge an Energie zu produzieren.10 Während Facebook in Aussicht stellt, dass nach dem einmaligen Trainingsprozess der Energieverbrauch relativ gering ausfalle und u.U. schon eine einzelne GPU ausreichen könne, um die trainierte KI zu betreiben, muss hier festgestellt werden, dass zumindest durch den geplanten massenhaften Einsatz der KI ein enormer Energiebedarf zu erwarten ist – von anderen versteckten Energiekosten wie der Herstellung der nötigen Hardware einmal gänzlich abgesehen.

Schon heute wird geschätzt, dass etwa 12 Prozent des weltweiten Strombedarfs in digitale Geräte fließen. Tendenz steigend.11 Eine einzelne Google-Anfrage – wohlgemerkt ohne Verwendung KI-basierter Chat-Assistenten – verbraucht etwa 0,3 Wh – soviel Energie, wie benötigt wird, um eine energiesparende LED für drei Minuten zu betreiben. Eine Chat-GPT3-Anfrage, die mittels bereits trainierter KI beantwortet wird, verbraucht dagegen schon 1,3 Wh, also mehr als das 4-fache – wobei das besonders energieintensive Training hier nicht beachtet wird.12 Diese Zahlen sind natürlich lediglich Schätzungen und der reale Energieverbrauch dürfte um ein Vielfaches höher liegen.13 Schließlich wird nicht nur der Strom zum Betreiben der Rechenzentren verbraucht, sondern auch Produktion und Transport der Hardware sowie Entwickler:innen und ihre Ausstattung verbrauchen Energie, die in den genannten Schätzungen oftmals nicht einbezogen wird.

Angesichts des enormen Energieverbrauchs digitaler Technologien ist Skepsis angebracht, wenn diese als Mittel zur Senkung des Energieverbrauchs angepriesen werden. Die Bundesregierung scheint sich jedoch das Ziel gesetzt zu haben, diese Zweifel zu zerstreuen. Daher befinden sich unter den erwähnten KI-Leuchttürmen auch einige Projekte mit dem Zweck, den Ressourcenverbrauch der KI selbst zu optimieren bzw. ihn transparenter zu machen. Ein solcher Leuchtturm ist das Projekt NADIKI an der Universität Stuttgart, das sich zum Ziel setzt, den realen Energie- und Ressourcenverbrauch von KI über eine Software-Schnittstelle bereitzustellen. In der Pressemeldung zum Förderbescheid heißt es:

„Für eine nachhaltige KI-Nutzung ist es daher wichtig, vorhandene Infrastruktur bestmöglich zu nutzen, um den Bau neuer Rechenzentren, Server oder Netzwerkequipment zu reduzieren oder zu vermeiden. Gleichzeitig sollten KI-Systeme optimal ausgelastet sowie der Ressourcenverbrauch erfasst und offengelegt werden.“14

Damit ist der Rahmen der kritischen Auseinandersetzung über die ökologischen Folgen abgesteckt. Eine ergebnisoffene Hinterfragung, ob KI – und sei es lediglich aus ökologischer Sicht – überhaupt eingesetzt werden sollte, steht nicht im Fokus. Zu klären ist lediglich noch, wie ihr Einsatz „nachhaltig“ gestaltet werden kann – oder anders ausgedrückt: Der Einsatz von KI wird zu einem Optimierungsproblem zweiter Ordnung. Eines ist auch ohne die Ergebnisse der Stuttgarter Forscher:innen sicher – zunächst steigt der Energiebedarf durch den Einsatz maschinellen Lernens. Die hohen Fixkosten, die im Training von KI-Modellen stecken, führen dazu, dass ein effizienter Einsatz nur dann denkbar ist, wenn das Modell anschließend im großen Stil angewendet wird. KI-Modelle kommen daher zur Lösung spezialisierter (Klima-)Probleme, bei denen kein groß angelegter Einsatz zu erwarten ist, kaum in Frage.

Es gibt noch einen weiteren Grund, den Energiespar-Versprechungen grüner KI gegenüber skeptisch zu sein: den sogenannten Rebound-Effekt. Dieser besagt, dass Effizienzsteigerungen beim Energieverbrauch nicht dazu führen, dass der Verbrauch insgesamt sinkt, sondern lediglich dazu, dass die Kosten sinken und die überschüssige, nicht mehr benötigte Energie stattdessen an anderer Stelle verbraucht wird.15 Ein einfaches Beispiel: die Senkung des Kraftstoffverbrauchs moderner PKW hat nicht dazu geführt, dass weniger Kraftstoffe verbraucht werden, sondern dazu, dass erstens mehr Auto gefahren wird, weil es sich mehr Menschen leisten können, und zweitens größere Autos wie SUVs produziert werden, die wiederum einen sehr hohen Kraftstoffverbrauch haben und ohne die Effizienzsteigerungen gar nicht denkbar gewesen wären. Eine Optimierung der bestehenden Wirtschaftsbereiche wird nicht zu einer realen Senkung des Energieverbrauchs führen. Unter diesen Voraussetzungen wiederum erscheinen auch die Effizienzsteigerungen durch grüne KI wenig geeignet, einen wesentlichen Beitrag für die Bekämpfung des Klimawandels zu leisten. Dennoch setzen viele Liberale, wie der Wirtschaftshistoriker Adam Tooze, angesichts des Widerstands der politischen und wirtschaftlichen Eliten gegen grundlegende soziale Veränderungen – mal mehr, mal weniger zähneknirschend – vor allem auf technische Lösungen.16 Das wirft die Frage auf: Wie kann es gelingen, eine Debatte über ein Ansetzen an den polit-ökonomischen Ursachen des Klimawandels zu führen, die nicht durch den Verweis auf bevorstehende technische Lösungen schon im Ansatz abgewürgt wird?

Progressiv, aber nicht emanzipatorisch

In ihrer taz-Kolumne kritisiert Charlotte Wiedemann die Grünen scharf für das „nicht ergründete Ausmaß europäischer Gewaltgläubigkeit im Ukrainekrieg,“ das die Grünen in Deutschland mit ihrer „feministischen Außenpolitik“ wie keine andere politische Kraft vorantreiben.17 Sie präzisiert:

„Heute sind die Grünen indes eine Kraft der Disziplinierung, der Einhegung geworden, der Betäubung und Verbravung des Denkens. Während sich andere verzweifelt ans Pflaster kleben, sind die Grünen mit den herrschenden Verhältnissen verleimt.“

Und tatsächlich – nicht nur die grüne Position im Ukrainekrieg, sondern auch der Einsatz von KI zur Bekämpfung des Klimawandels sind Symptom einer fatalen Idee, wie sie typisch ist für postdemokratische Gesellschaften: die Durchsetzung progressiver Politik bei gleichzeitiger Aufgabe emanzipatorischer Ansprüche. Sozial bzw. ökologisch progressiv ist diese Politik deswegen, weil der Klimawandel gestoppt werden muss, um die katastrophalen Folgen insbesondere für arme Menschen und die Natur zu verhindern. Die Grünen möchten – in Teilen – die Bekämpfung des Klimawandels auf die Umsetzung algorithmisch errechneter Maßnahmen reduzieren. Eine gesellschaftliche Auseinandersetzung über die konkreten Ziele und daraus folgenden Maßnahmen ist da lediglich Beiwerk. Der Verweis auf technologische Lösungen hat somit gerade den Zweck, eine solche Debatte über tiefgreifende Änderungen an den ursächlichen gesellschaftlichen Machtverhältnissen von vornherein abzuschmettern. Anders als der oben zitierte Adam Tooze bedauern es die meisten Grünen daher nicht, mangels politischer Mehrheiten fast ausschließlich auf technische Lösungen zu setzen. Im Gegenteil: Die kybernetische Gesellschaft soll uns als grüne Utopie verkauft werden, obwohl sie doch eigentlich vor allem mehr vom Bestehenden enthält. Immerhin erkennen weite Teile der Klimabewegung, dass diese grüne Haltung einen Frontalangriff auf all jene bedeutet, die an der zapatistischen Parole „Eine andere Welt ist möglich“ festhalten wollen. Am deutlichsten wurde dieser Dissens zwischen grüner Parteispitze und Klimabewegung Anfang des Jahres am breiten Widerstand der Bewegung gegen die von den Grünen ausgehandelte Räumung des Dorfes Lützerath.18

Auch wenn die Grünen nicht – wie es im Sinne emanzipatorischer Politik wäre – die gemeinsame und offene Aushandlung von Maßnahmen gegen den Klimawandel betreiben, so bleiben sie auf einem liberalen Weg und unterscheiden sich (noch) von einem autoritären Weg, wie er etwa in China gegangen wird. Für diese spezifische Haltung, die zwar formal die liberalen Grundfreiheiten hochhält, gleichzeitig den Fokus aber gänzlich auf die Effektivität der Umsetzung politischer Ziele verschiebt, hat Colin Crouch den Begriff der Postdemokratie geprägt.19 Der schon erwähnte Ralf Fücks vom Zentrum Liberale Moderne grenzt sich dementsprechend scharf von einem dezidiert autoritären Projekt ab, indem er typisch neoliberale Argumentationsmuster mit der Idee nationaler Wettbewerbsfähigkeit kombiniert:

„Wer Freiheit und Ökologie in Einklang bringen will, muss vor allem auf Innovation setzen und den Wettbewerb um die besten Lösungen fördern. Dafür braucht es einen ökologischen Ordnungsrahmen, der die Dynamik der Marktwirtschaft in eine ökologische Richtung lenkt. Auch eine marktwirtschaftliche Klimapolitik kommt nicht ohne Gebote und Verbote aus. Sie sind aber nicht der Königsweg für die Bewältigung der ökologischen Krise. Eine Top-Down-Steuerung durch engmaschige staatliche Vorgaben kann niemals die Innovationskraft der Marktwirtschaft ersetzen, die das Wissen und die Eigeninitiative von Abermillionen Produzenten und Konsumenten bündelt.“20

Und die Klimabewegung?

Progressiv, aber nicht emanzipatorisch – mit einer solchen Haltung ist die grüne Parteispitze nicht allein. Vielmehr spiegelt sich hier eine größere gesellschaftliche Entwicklung wider. Nicht von ungefähr gilt mit der Letzten Generation eine Kraft als die medial meist beachtete politische Bewegung in Deutschland 2023, die ihr Desinteresse an den Werten von Aufklärung und der Tradition (linker) Befreiungskämpfe offen kundtut. Carla Rochel, ein Mitglied des sogenannten Strategieteams der Letzten Generation, macht emanzipatorischer Politik eine unmissverständliche Absage zugunsten der vermeintlichen real-politischen Durchsetzung der eigenen Ziele: „Wir tun alles für eine gute Feedback-Kultur, aber wir haben leider bei anderen Organisationen gesehen, dass Basisdemokratie zu viel Zeit braucht, die wir nicht haben.“21 In der Praxis bedeutet dies, dass das Strategieteam, also eine handvoll Leute, plant und die sogenannten „Bienen“ bloß auf ihren Einsatzbefehl warten, der ihnen mitteilt, wann und wo sie sich auf die Straße zu kleben haben. Nicht unwahrscheinlich, dass eine solche Haltung der Gruppe noch auf die Füße fallen wird. Wenn sich nämlich herausstellen sollte, dass das Aktions-Know-how nicht breit genug verteilt ist, um trotz staatlicher Repression gegen die Gruppe auf Dauer weiterzumachen und flexibel auf politische Veränderungen zu reagieren, könnten auch die Vorteile dezentraler Organisationsformen wieder in Erinnerung geraten.

Es gibt jedoch auch andere Ansätze innerhalb der Klimabewegung, die mehr Hoffnung machen, weil sie sich der grünen Einhegung des Denkens nicht kampflos fügen wollen. Zu nennen sind da neben dem bereits erwähnten Widerstand gegen den Kohletagebau (in Lützerath) auch die Proteste in Sainte Soline, Frankreich, gegen die sogenannten Mega-Bassins, riesige künstliche Seen, mit dem Zweck, die industrielle Landwirtschaft in Zeiten sich häufender Dürren mit Wasser zu versorgen.22 Oder auch viele kleinere Aktionen, wie sie auf dem Blog https://switchoff.noblogs.org/ dokumentiert werden. In dem dort veröffentlichten Aktionsaufruf heißt es explizit:

Wenn uns die Illusion verkauft wird, der Klimawandel wäre technologisch zu stoppen, dann liegt dem das Vertrauen zugrunde, die Machthabenden müssten nur die richtigen Schritte unternehmen, die richtigen Maßnahmen ergreifen, um diese Welt zu retten.
 Zum einen haben sie überhaupt kein Interesse an einem Ende des Expansionskapitalismus, der ihre Machtposition sichert. Und zum anderen ist die technologische Reform mit den neuen Abhängigkeiten, die sie produziert, ebenfalls zum Scheitern verurteilt.“

Fragt sich, ob eine solche Haltung in Klima- und linker Bewegung noch mehrheitsfähig ist, oder ob der technologische Angriff auf die Aufgabe emanzipatorischer Politik schon zu weit vorangeschritten ist.

3Roberto Simanowski. 2020. Der Todesalgorithmus. Das Dilemma der künstlichen Intelligenz. S. 112.

4Zur Diskussion des Solutionismus vgl. Redaktionskollektiv Capulcu. KI zur programmatischen Ungleichbehandlung, In: Redaktionskollektiv Capulcu. 2020. Diverge – Abweichendes vom rückschrittlichen „Fortschritt“.

6Vgl. Redaktionskollektiv Capulcu. IT – Der technologische Angriff des 21. Jahrhunderts. In: Redaktionskollektiv Capulcu. 2017s. Disrupt – Widerstand gegen den technologischen Angriff.

9Hugo Touvron et al. 2023. LLaMA: Open and Efficient Foundation Language Models.

12Vgl. https://medium.com/@zodhyatech/how-much-energy-does-chatgpt-consume-4cba1a7aef85

13Für einen Überblick über die Problematik der korrekten Erfassung des Energieverbrauchs von KI und den aktuellen Stand der Forschung s. https://www.theguardian.com/technology/2023/aug/01/techscape-environment-cost-ai-artificial-intelligence

19Colin Crouch. 2008. Postdemokratie.

_______________________________________________________________________________________________________________

Zweiter Teil unserer kritischen Textreihe zu KI.

Ende Mai 2023 wird ein kurzes Statement1 veröffentlicht, welches vor der Auslöschung der Menschheit durch Künstliche Intelligenz warnt. Unter das Statement haben Koryphäen der KI-Forschung, CEOs von KI-Unternehmen wie OpenAI und weitere prominente Figuren des Tech-Sektors ihre Unterschrift gesetzt. Diese apokalyptische Warnung reiht sich ein in eine ganze Serie gleichartiger Aussagen2 von Personen und Institutionen aus dem genannten Dunstkreis. Eric Schmidt, Ex-CEO von Google und jetzt Regierungsberater, warnt vor Tausenden von Toten. Sam Altman, CEO von OpenAI, der Entwicklungsfirma von ChatGPT, fleht die US-Regierung an, Regulatorien für die Branche zu erlassen.3

Es ist schon etwas verwunderlich, dass ausgerechnet diejenigen vor einer Technologie warnen, die sie selbst mit Macht und viel Geld auf den heutigen Stand gebracht haben. Sie erscheinen wie Goethes Zauberlehrling, der die Geister, die er rief, nicht mehr unter Kontrolle hat. Nichts könnte falscher sein.

Spätestens mit der Veröffentlichung von ChatGPT hat KI den Mainstream erreicht und genießt die volle Aufmerksamkeit der Medien. Die Leistung dieser Software scheint eine Schwelle überschritten zu haben. KI wird jetzt nicht mehr als belächelnswerter netter Versuch wahrgenommen oder als beachtenswerte Leistung in einer nerdigen kleinen Nische, sondern ist in ihre Gegenteil gekippt; eine Technologie, die auf dem besten Wege sei, die Menschheit in Sachen Intelligenz zu überflügeln. Das geht soweit, dass ein an der Entwicklung beteiligter Ingenieur bei Google nicht von der Behauptung abzubringen war, dass “seine” KI ein Bewusstsein entwickelt hat. Google war das augenscheinlich so unangenehm, dass die Kündigung folgte.

ChatGPT als textgenerierende KI und andere bildgenerierende KIs (z.B. Midjourney) sind Schaufensterprodukte der Branche. Ohne sie hätte die teils enthusiastische, teils beunruhigte Reaktion der Öffentlichkeit auf KI nicht stattgefunden. AlphaGo, eine KI, die den amtierenden Weltmeister im Spiel Go wiederholt geschlagen hat, hatte dazu noch nicht ausgereicht. Die apokalyptischen Warnungen aus der KI-Szene greifen genau diese Stimmung auf. Ihre Dystopie einer übermächtigen Technologie, die die Menschheit ausrottet, betont im Wesentlichen eines: die Mächtigkeit dieser Technologie. Das apokalyptische Flair dient als Ablenkung, um von den maßlosen Übertreibungen abzulenken, und obendrein als warnender Insider, die Reputation eines kritischen und reflektierten Bewusstseins mit in die Waagschale zu werfen – CEOs, die besorgt sind um das Wohl der Menschheit. Dabei geht es mitnichten um eine Warnung und schon gar nicht um das Wohl der Menschheit, sondern um eine spezifische Verkaufsargumentation: Sei dabei, bediene dich dieser übermenschlichen Macht, investiere jetzt oder schließe zumindest ein Premium-Abo ab!

Die Goldgräberstimmung ist mit Händen zu greifen. Der Ruf nach einer Regulierung dieser Technologie durch Regierungen mag verwirren, ist aber folgerichtig. Regulierungen sind nicht zwangsläufig schädlich für die Branche, im Gegenteil: Sie ebnen das Spielfeld, schaffen Übersichtlichkeit, Planbarkeit und Investitionssicherheit. Sie können benutzt werden, um dem Einstieg von Nachzüglern in den Markt (z.B. China) Barrieren in den Weg zu legen. Außerdem wären Regulierungen eh gekommen, aus Sicht der Branche ist es deshalb vorteilhaft, hier die Initiative zu übernehmen.

Es gibt noch einen weiteren Aspekt: den Regulierungsbehörden fehlt das nötige Fachwissen. Das gilt allerdings für praktische alle Technologien, deren Einsatz reguliert wird – das Fachwissen muss von außen hinzugezogen werden. Besonders im Falle von KI ist dieses Fachwissen allerdings stark konzentriert, die Entwicklung wird im Wesentlichen von den Forschungsabteilungen der großen Konzerne voran getrieben. Das Fachwissen für die Regulierung kommt also ausgerechnet aus der Branche, die reguliert werden soll, die Interessenskonflikte sind vorprogrammiert. Für die Tech-Konzerne beste Startbedingungen, um eine Quasi-Selbstregulierung im eigenen Sinne durchzudrücken. Dieses Muster ist übrigens nicht neu, sondern lässt sich in vielen vergleichbaren Vorgängen wieder finden – und das nicht nur in den USA. Was vielleicht nicht neu, aber diesmal besonders auffällig ist, ist die Dringlichkeit, mit der das Anliegen vorgebracht wird.

Ein Schlaglicht darauf wirf Sam Altmans Kritik an den KI-Regulierungen der EU. Nach intensiver Lobbyarbeit ist es OpenAI und Google gelungen, „Allzweck“-KI-Anwendungen wie etwa ChatGPT aus der Kategorie der Hochrisiko-Technologien heraus zu bekommen, die mit strengen Auflagen belegt ist. Statt dessen wurde für diese Fälle eine neue Kategorie der „Foundation Models“ mit aufgeweichten Auflagen geschaffen.4 Regulierungen sind für Herrn Altman nur solange OK, wie sie nicht geschäftsschädigend sind.

Ein Seiteneffekt der suggerierten Dringlichkeit ist die Erzeugung eines Eindrucks, dass jetzt etwas Neues aufgetaucht sei. KI blickt aber auf eine Jahrzehnte alte Geschichte. AlphaGo wurde schon genannt. KI-basierte Gesichtserkennung zum Beispiel bei Zugangssystemen, aber auch in Überwachungskameras, wie etwa am Berliner Südkreuz mit notorischer Schwäche, Menschen mit nicht-weißer Hautfarbe zu erkennen. Auch Betrugserkennungssysteme basieren auf KI und haben dort für eine Reihe von desaströsen Skandalen gesorgt – erinnert sei hier beispielsweise an die Toeslagenaffaire5 in den Niederlanden. Unternehmen wie Clearview AI oder PimEye haben mit Porträtfotos aus dem Internet Bilddatenbanken aufgebaut, die sich mit Hilfe von KI durchsuchen lassen – ein Schnappschuss einer Person kann schon ausreichen, um Name, Arbeitgeber oder Adresse herauszufinden6 – Stalkerware, nicht nur für Repressionsbehörden. Eine ausführlichere Liste lässt sich in unserem Text „KI zur Programmatischen Ungleichbehandlung“ finden7. Ein solches Erbe im Gepäck verdüstert die Akzeptanz.

Das Gold, welches die Goldgräber der Tech-Branche zu finden hoffen, ist die Automatisierungsdividende. KI verspricht, Vorgänge automatisieren zu können, die sich bislang erfolgreich entzogen haben. In einer Studie8 über die Auswirkungen der KI schätzt GoldmanSachs, dass 66% aller Arbeitsplätze in den USA betroffen sein werden. Dort könnten 25-50% der anfallenden Aufgaben von KI übernommen werden. Andere Studien9 kommen zu ähnlichen Zahlen. Es ist die Aussicht auf diese Produktivitätssteigerung, die die oben genannten Aktivitäten anspornt.

Ende des 19ten, Anfang des 20ten Jahrhunderts entwickelte und popularisierte Frederick Taylor u.a. eine Methode, die später als „Wissenschaftliches Management“ oder besser „Taylorismus“ bekannt wurde. Erklärtes Ziel dieser Methode war es, die Arbeit zu effektivieren, mehr Leistung aus jede*r Arbeiter*in rauszupressen. Dazu wurden Arbeitsabläufe minutiös dokumentiert, analysiert und optimiert, um sie dann in neu zusammengesetzter Form in den Produktionsprozess zurückzubringen, mit der klaren Absicht, „ineffiziente“, tradierte Abläufe und Arbeitsformen zu ersetzen. Aus Facharbeiter*innen wurden austauschbare Massenarbeiter*innen, Anhängsel der Maschinen, die ab sofort den Arbeitstakt vorgaben.

Zentraler Baustein dieser Methode war ein Wissenstransfer von den Facharbeiter*innen in die Ingenieursetage. So war es möglich, dieses Wissen einzusetzen, ohne von den Menschen, von denen das Wissen stammte, abhängig zu sein. Der Transfer war im Kern ein Transfer der Verfügungsgewalt über dieses Wissen. Die Folge war eine Entmachtung der Facharbeiter*innen im Produktionsprozess, eine Dequalifizierung der Arbeit und damit eine Verschlechterung der Verhandlungsbedingungen, wenn es z.B. um Lohnforderungen oder Arbeitsschutz ging. Ein vergleichbarer Transfer findet beim Training einer KI statt.

Der Taylorismus treibt sein Unwesen seit mehr als hundert Jahren und Computer sind auch nicht erst gestern erfunden worden. Damit Abläufe aus der „analogen“ Welt in einem Computer repräsentiert und ausgeführt werden können, müssen sie formalisiert werden: in einen Satz von detaillierten Regeln bzw. Anweisungen übersetzt werden, ganz ähnlich wie auch im „wissenschaftlichen Management“. Das funktioniert je nach betrachtetem Ablauf bzw. Problemstellung unterschiedlich gut. In vielen Fällen bleibt ein „Rest“, der sich einer Formalisierung entzieht, das Ergebnis passt dann nur unvollkommen auf die Problemstellung. In anderen Fällen ist es schon schwierig zu benennen, wie überhaupt an die Formalisierung einer Problemstellung herangegangen werden kann.

Formalisierung lässt sich begreifen als eine Art notwendiger Übersetzungsschritt, der eine Aufgabenstellung „computergängig“ macht – ein Schritt, der von Menschen geleistet wird. Für die KIs der aktuellen Generation wird erst gar nicht versucht, eine Aufgabenstellung zu formalisieren. Statt dessen wird die KI in einem trial-and-error-Prozess unter enormen Aufwand an die Aufgabenstellung heran trainiert. Der Schritt, der die Aufgabenstellung computergängig macht, wird also vom Computer selbst ausgeführt. Die Trainingsdaten werden so häufig „durchgekaut“10, bis die KI zufriedenstellend plausibel die in den Trainingsdaten enthaltenen Eigenschaften nachahmen bzw. wiedererkennen kann.

Beim Training entsteht eine Art stochastisches Extrakt der Trainingsdaten, ein Tensor aus Billionen von Zahlen, der sich im Hauptspeicher der KI ausbildet. Welche Aspekte der Trainingsdaten extrahiert werden, hängt von der Gestaltung des Trainings, der Topologie der KI, der Aufbereitung der rohen Trainingsdaten und weiteren begleitenden Maßnahmen ab. Entscheidend ist, dass im Tensor die notwendigen Informationen für das plausible Nachahmen bzw. Wiedererkennen landen – im allerweitesten Sinne also das „Wissen“. Wie auch immer dieser Wissenstransfer in den Tensor beurteilt werden mag – schließlich ist Nachahmen etwas anderes als Verstehen –, er erlaubt eine „Reproduktion“, ohne auf die Menschen zurückgreifen zu müssen, von denen das Wissen stammt. Wie schon beim Taylorismus findet ein Transfer von Verfügungsgewalt statt. Dieser Transfer ist das Fundament der Automatisierungsdividende.

Auch die in klassischer Programmierung verwendete Formalisierung implementiert einen Transfer der Verfügungsgewalt, allerdings wird dieser von Menschen in Hand- oder besser Kopfarbeit gemacht und ist deshalb nur schlecht zu skalieren. KI verspricht, diesen Formalisierungsschritt zu überspringen und den Transfer selbst in einen automatisierbaren und damit skalierbaren Prozess zu verwandeln – und das ist der qualitative Sprung in der Enteignung von „Wissen“.

Das Umschiffen der Formalisierung zur Übertragung einer Aufgabenstellung auf Computer erlaubt es zwar, neue Anwendungsgebiete zu erschließen, kommt aber mit einigen Nachteilen daher. Formalisierung setzt voraus, dass ein Problem bis ins Detail verstanden wurde – dass dabei Fehler passieren und Missverständnisse ausdetailliert werden, ist dazu kein Widerspruch. Das Ergebnis lässt sich überprüfen, mit einigem Aufwand ist es sogar möglich, einen mathematikartigen Beweis zu führen.

Bei KI ersetzt das Training das Verständnis, letztendlich ist das Training ein Schuss ins Blaue. Die Begeisterung vieler Ingenieur*innen von ChatGPT und anderen KIs reflektiert deren Überraschung, wie gut dieser Schuss gelungen scheint.

Dem Extrakt der Trainingsdaten ist nicht anzusehen, was genau extrahiert wurde – was genau die KI „gelernt“ hat. Dementsprechend sind die Ausgaben, die eine KI produziert, fehlerbehaftet. Das Einsatzgebiet für KIs zielt auf Anwendungen, bei denen entweder Fehler „tolerierbar“ sind oder sie in Konkurrenz zu menschlicher Arbeit treten, die ebenfalls fehlerbehaftet ist. Oder sie tritt in Konkurrenz zu im weitesten Sinne kreativen Tätigkeiten, die nicht binär richtig oder falsch, sondern besser oder schlechter sind. Letztendlich findet hier eine ökonomische Abwägung über Kosten und Nutzen statt, deren Ergebnis einzig vom (positiven) Einfluss auf das Geschäftsergebnis abhängen wird.

Das Ergebnis ist überaus zynisch: Wenn ein System zur Aufdeckung von Sozialhilfebetrug Fehler macht und die Falschen beschuldigt (und in Folge die Unterstützungszahlungen verweigert), dann trifft es Menschen, die sich nur schlecht wehren können. Selbst wenn KIs fachlich schlechte Ergebnisse liefern, bauen sie (oder genauer diejenigen, die die KI einsetzen) einen Konkurrenzdruck auf Arbeiter*innen und Angestellte auf, der Folgen z.B. bei Tarifverhandlungen haben kann. Einen Eindruck davon liefert die Antwort von Netflix auf den Streik von Schauspieler*innen und Autor*innen in Hollywood, die u.a. eine „Zweitverwertung“ ihrer Leistungen durch KI-„generierte“ (besser: kopierte) Inhalte verhindern wollen: Netflix schreibt eine gut bezahlte Stelle für einen „KI Produkt Manager“ aus, für „alle Bereiche“, was genau diese Zweitverwertung beinhaltet.11

Wie schon der Taylorismus, wird die KI zu einer Verschiebung gesellschaftlicher Macht „nach oben“ führen, gefolgt und verstärkt durch eine entsprechende Reichtumsumverteilung in die gleiche Richtung. KI wirkt wie ein Verstärker gesellschaftlicher Ungleichheit. Der enorme Ressourcenaufwand, den die KI-Technologie verlangt – Trainingsdaten, Energie, Wasser und leistungsfähige Hardware – lässt an einer „Demokratisierung“ dieser Technologie zweifeln. Einen eigenen Web- oder Mailserver im Internet zu betreiben ist vielleicht nicht trivial, aber durchaus von normalsterblichen Individuen leistbar. Für KI gilt das auf absehbare Zeit nicht, sie wird Werkzeug der Mächtigen bleiben.

Selbst, wenn sich in einem utopischen Szenario ein gesellschaftlich sinnvoller Einsatz denken ließe – die jetzige gesellschaftliche Realität besteht praktisch vollständig aus Anwendungen zu Lasten der großen Mehrheit der Menschen und reflektiert damit die aktuelle gesellschaftliche Machtverteilung.

Es muss also – in bester luddistischer Tradition – gefragt werden, wer KI für welchen Zweck einsetzt und ob die Resultate gesellschaftlich und ökologisch erstrebenswert sind. Diese Frage kann klar verneint werden.

10Eine lesbare Einführung in die Funktionsweise von KIs vom Typ ChatGPT und was genau mit „durchkauen“ gemeint ist: https://arstechnica.com/science/2023/07/a-jargon-free-explanation-of-how-ai-large-language-models-work/

FFF_imagine_Website_Header-1024x576.jpg