Der Klimawandel ist die Phantasterei einer Rechenmaschine!

Über die Entstehungsbedingungen eines militärisch-politischen Kontrollinstruments und seinen resultierenden grünen techno-wissenschaftlichen Totalitarismus

[Es ist so weit: Beim Zündlumpen hat man sich endgültig um den Verstand gesoffen oder gekifft – ein Verdacht, den manch eine*r schon immer heimlich gehegt hat – und nun wird nach Corona und dem Segen der Immunisierungsimpfungen sogar der Klimawandel „geleugnet“. Zeit dieses „Schwurbelblatt“ endgültig ad acta zu legen? Aber doch sicher nicht, ohne sich zuvor noch die geballte Dröhnung dieses ketzerischen Beitrags zu geben und diesen letzten Trip noch einmal voll auszukosten – und wer weiß, vielleicht bleibst du darauf ja hängen; Editorische Anmerkung der Redaktion]

Wenn man die Theorie des Klimawandels, wie sie uns heute beinahe als ontologische Tatsache präsentiert wird, nutzen wollen würde, um die sozialen und ökologischen Katastrophen (besser) zu verstehen, die sich um uns herum ereignen, so ist es meines Erachtens nach unbedingt notwendig, sich auch mit der Genese dieser wissenschaftlichen Theorie auseinanderzusetzen. Denn egal was man nun im Allgemeinen von der modernen Wissenschaft halten mag, egal ob man diese als kolonial und patriarchal betrachtet oder als ein Werkzeug der Emanzipation, egal ob man einer wissenschaftlichen Analyse mehr Bedeutung beimisst als einem Gefühl, einer Erfahrung oder einem Traum – und ich sage nicht, dass diese Fragen nicht von Belang wären, ich will sie nur vorerst zurückstellen –, so muss man doch zumindest der Wissenschaft als Institution, ihren zahlreichen staatlich-kapitalistischen und militärischen Instituten, ihren Hierarchien und vor allem den aus ihrer Forschung resultierenden Technologien ein Minimum an Misstrauen entgegen bringen, wenn man vermeiden will, nicht einer Ideologie aufzusitzen, wenn man nicht in Manier der Kirchgänger*innen, die ergeben den Priestern lauschen, willentlich oder unwillentlich am nächsten Kreuzzug, der nächsten Inquisition oder – zeitgemäßer ausgedrückt – dem nächsten Kolonialisierungsfeldzug mitwirken will. Vor diesem Hintergrund will ich zunächst eine – von leviathanischer Geschichtsschreibung gar nicht allzu divergierende – Geschichte der Erforschung des Klimawandels erzählen, eine Geschichte, die 1945 nirgendwo anders beginnt als in Hiroshima und Nagasaki.

***

Am 6. und 9. August 1945 wurden die „Little Boy“ und „Fat Man“ getauften Atombomben über Hiroshima und Nagasaki abgeworfen und löschten dabei insgesamt rund 100.000 Menschen von einem Wimpernschlag auf den nächsten aus und hinterließen noch einmal mindestens ebenso viele verstümmelte Überlebende, die das nächste Jahr nicht mehr erleben sollten. Der als Schwarzer Regen bekannt gewordene Fallout dieser Atomexplosionen sollte die Militärstrategen der US-Armee in den folgenden Jahren noch intensiv beschäftigen und diese Beschäftigung würde schließlich ein gänzlich neues, interdisziplinäres Forschungsfeld hervorbringen. Wie verteilt sich der Fallout einer Atombombe in der Atmosphäre und den Meeren? Was hat das für Auswirkungen? Und wie lässt sich feststellen, ob nicht gerade vielleicht ein anderer, feindlicher Staat, eine solche genozidale Superwaffe testet? Diese Fragen trieben hochrangige Militärs um und ließen sie des Nachts nicht schlafen und so beauftragten sie diverse Wissenschaftler*innen, unter anderem auch Geologen, Meteorologen und Ozeanologen damit, Antworten auf diese Fragen zu finden.

Bei ihren Untersuchungen entwickelten einige dieser Wissenschaftler*innen eine heute sehr populäre Theorie weiter und schufen Möglichkeiten, mithilfe globaler Messungen diese Theorie zu bestätigen (wie sich eine wissenschaftliche Theorie eben bestätigen lässt): Es geht natürlich um den Kohlenstoffdioxid-induzierten Treibhauseffekt. Als im Jahre 1957/58 ein internationales Geophysikalisches Jahr ausgerufen wird (ein freilich politisches Manöver zur Legitimation militärischer Forschung und Aufrüstung, wie der in diesem Rahmen ins All geschossene Satellit Sputnik und das gescheiterte Vanguard-Projekt, das in diesem Rahmen ebenfalls einen US-Satelliten in den Orbin befördern wollte, zeigen), erhält unter anderem Charles David Keeling erhebliche Fördermittel, um weltweit mithilfe entsprechender Sensoren den CO₂-Gehalt der Atmosphäre zu messen. Seine Messreihe, die auch Keeling-Kurve genannt wird, ist der erste wissenschaftliche Beweis für einen kontinuierlichen Anstieg des CO₂-Gehalts in der Atmosphäre. Etwa zeitgleich, ab dem Jahre 1956, entwickelt der Wissenschaftler Gilbert Plass  ein Computermodell, das die zu erwartende globale Erwärmung aufgrund dieses CO₂-Anstiegs errechnen sollte. Diese Berechnungen können wohl als die historische Geburtsstunde dessen gelten, was uns heute von der Popkultur, ebenso wie von Staaten und Regierungen, aber auch Klimaaktivist*innen und sogar zahlreichen Anarchist*innen als „Klimawandel“ untergejubelt wird. Gilbert Plass, bzw. eigentlich muss man ja sagen, sein Computer errechnete – oder sollte man es orakeln nennen? – für eine Verdoppelung des CO₂-Gehalts in der Atmosphäre einen globalen Temperaturanstieg um 3,6 Grad Celsius. Bis zum Jahr 2000 würde die Temperatur, bei einem angenommenen Anstieg der CO₂-Konzentration um 30 %, um rund 1 Grad ansteigen.

Es lohnt sich zu bemerken, dass zeitgleich zu dieser Forschung Atombombentests in gigantischem Umfang stattfinden, sowohl überirdisch als auch unterirdisch, im Wasser und in der Luft. Dabei werden ganze Landstriche verwüstet, Tiere und Pflanzen ausgelöscht, Menschen zwangsweise umgesiedelt (beispielsweise auf Bikini und Enyu, aber keineswegs nur dort), sowie tausende Versuchstiere gezielt den Explosionen ausgesetzt und folglich ermordet und verstümmelt. Mehrere hunderttausende Menschen sterben in der unmittelbaren Umgebung der Testorte an den Folgen dieser Tests. Was dabei als radioaktiver Fallout auch Bevölkerungen und Natur weit ab von den Testorten vergiftet, lässt sich heute kaum noch bestimmen, auch, weil nicht nur die Tests selbst, sondern auch deren Auswirkungen der Geheimhaltung unterliegen. In der Sowjetunion und den USA wird darüber hinaus auch am „zivilen Einsatz“ von Atomsprengköpfen, etwa zum Bau von Kanälen, usw. geforscht.

Die einst zum Zwecke der Bestimmung der Auswirkung von Atombomben bestellten Forscher*innen, sie haben längst ihren eigenen Umgang mit dieser unfassbaren Auslöschung von Leben gefunden. Sie interessieren sich nicht mehr für radioaktive Strahlung und deren Folgen, sondern für CO₂. Und dabei widmen sie sich vor allem zwei ganz neuen Sparten militärischer Forschung: dem Computer und der Raumfahrt.

Es lohnt sich hier, noch einmal einen Schritt zurückzutreten, in die 1940er Jahre und uns die Arbeit von John von Neumann zu Gemüte zu führen, einem der heute als Urväter der Informatik geltenden Wissenschaftler, die damals für das US-Militär arbeiteten. Nachdem er sich zuvor bereits vor allem mit Fragen der Ballistik und den Druckwellen von Bomben- und Minenexplosionen beschäftigt hatte, wirkte von Neumann ab 1943 am sogenannten Manhattan-Projekt mit, das jene Atombomben hervorbrachte, die 1945 die Bevölkerungen von Hiroshima und Nagasaki auslöschen würden. Von Neumann gehörte dabei nicht zu jenen Wissenschaftler*innen, die im Anschluss an diese Atombombenabwürfe wenigstens vorgaben entsetzt darüber zu sein, was sie geschaffen hatten – sofern man das überhaupt für glaubwürdig halten mag –, und sich auf recht wirkungslose und ebenso beschränkte Weise, wie es einem*r Wissenschaftler*in, die*der ein*e solche*r bleibt, eben zuzutrauen ist, gegen nukleare Waffen einsetzten; Nein, von Neumann nahm am darauffolgenden atomaren Wettrüsten aktiv teil und trug unter anderem dazu bei, die Wasserstoffbombe zu entwickeln. Neben seinem Engagement als Atombombenbauer engagierte sich von Neumann jedoch auch wesentlich auf dem Gebiet der Kybernetik. Zusammen mit deren populären Begründer Norbert Wiener organisierte er im Winter 1943/44 ein Treffen von Ingenieuren, Neurowissenschaftlern und Mathematikern, das sich mit den „Gemeinsamkeiten zwischen dem Gehirn und Computern“ beschäftigte. Er trug auch maßgeblich zum Bau von Computern bei, leitete eigene militärische Projekte zur Entwicklung von Computern, mit denen beispielsweise ballistische Berechnungen durchgeführt werden sollten. Bereits 1946 schlug von Neumann vor, Computer zur numerischen Wetterprognose zu verwenden, im März 1950 wurde auf dem militärischen Großrechner ENIAC, der von Neumann mit entwickelt worden war, die erste solche computergestützte Wettervorhersage auf Basis tatsächlicher Wetterdaten errechnet. Diese Berechnungen und die dabei entstandenen Modelle würden die Grundlage der in den späten 50er und frühen 60er Jahren aufkommenden, computerbasierten Klimamodelle bilden. Nach den Arbeiten von Gilbert Plass entwickelten Syukuro Manabe und Richard Wetherald 1967 das „Manabe-Wetherald one dimensional radiative-convective model“, das für eine Verdopplung des CO₂-Gehalts der Atmosphäre einen globalen Temperaturanstieg um 2,3 ° C vorhersagte. Dieses und die folgenden computerbasierten Modelle zur Vorhersage von Klimaphänomenen basieren vor allem darauf, dass die aus verschiedenen Eisbohrkernen der Arktis und Antarktis (die in der Regel vom oder mit Unterstützung des US-Militärs aus dem Eis gebohrt wurden) gewonnenen Daten über frühere CO₂-Konzentrationen der im Eis eingeschlossenen Luft der Atmosphäre, sowie die heutigen Messungen damit simuliert werden. Spiegeln die Ergebnisse diese (sehr selektiv erhobenen) realen Messungen aus diesen Proben wieder, gelten sie als tauglich, tun sie das nicht, gelten sie als untauglich (was auf mehr als 90% solcher Modelle zutrifft) und werden verworfen. Es handelt sich also bei diesen Modellen um wissenschaftliche Orakel, deren genaue Funktionsweise selbst den entwickelnden Forscher*innen unergründlich bleibt, von denen man sich jedoch erhofft, dass diese auf die eine oder andere Weise möglichst präzise Vorhersagen machen.

Im Zusammenhang mit dem atmosphärischen CO₂-Messungen der Vergangenheit und Gegenwart sind besonders zwei Phänomene, der sogenannte Kernwaffen-Effekt und der Suess-Effekt, hervorzuheben. Die Klimawissenschaft selbst widmet diesen Phänomenen bloß insofern Aufmerksamkeit, als dass sie diese bei der Kalibrierung ihrer Messmethoden berücksichtigt, abseits der wissenschaftlichen Brille betrachtet, könnte sich aus diesen Phänomenen, wie aus der Tatsache, dass es die Militärforschung um Atomwaffen und Kernphysik ist, die so gut wie alle Grundsteine der Klimawandelforschung legte, ein ganz anderes Bild ergeben: In der Atmosphäre kommt der in CO₂ gebundene Kohlenstoff in verschiedenen Isotopformen vor, vor allem als 12C und 14C. Isotope sind Atome des gleichen Elements, was sich durch die Protonenanzahl im Kern auszeichnet, bei denen jedoch die Neutronenanzahl verschieden ist. 12C etwa hat 12 Neutronen im Kern, 14C dagegen 14. 14C ist leicht radioaktiv. Es wird von der Wissenschaft angenommen, dass in der Atmosphäre stets ein gewisses Gleichgewicht aus 12C und 14C-Isotopen des CO2 gebundenen Kohlenstoffs existiert, weil die 14C-Isotopen in höheren Atmosphärenschichten gleichmäßig durch die Sonneneinstrahlung aus Stickstoffatomen entstehen und mit einer gewissen Halbwertszeit wieder zu 12C-Isotopen zerfallen. Das Verhältnis aus 12C und 14C-Isotopen müsste also eigentlich über die Zeiten konstant sein. Ist es aber nicht. Neben angenommenen natürlichen Ursachen für Schwankungen werden vor allem zwei Technologie-induzierte Schwankungsursachen angenommen: Der Suess-Effekt trägt zu einer Verschiebung dieses Gleichgewichts in Richtung der 12C-Isotope bei. Diese Verschiebung beginnt vor ca. 150 Jahren mit der Industrialisierung und der vermehrten Verbrennung von fossilen Brennstoffen, in denen sich die 14C-Isotope aufgrund des hohen Alters ihrer Bindung, das ihre Halbwertszeit oft überschreitet, durch den radioaktiven Zerfall größtenteils in 12C-Isotope verwandelt haben. Das bei der Verbrennung frei werdende CO₂ enthält also eine deutlich höhere Konzentration an 12C-Isotopen als das atmosphärische Gleichgewicht und verschiebt dieses folglich in Richtung einer höheren 12C-Konzentration. Eine umgekehrte Verschiebung dieses Gleichgewichts wird durch den sogenannten Kernwaffeneffekt bewirkt. Insbesondere durch die oberirdischen Wasserstoffbombentests ab 1953 hat sich der Anteil der 14C-Isotope in der Atmosphäre verdoppelt, da bei einer Kernwaffenexplosion solche Isotopen freigesetzt werden. Bis heute hat sich das 12C/14C-Verhältnis nicht wieder normalisiert. Bei Unterwasser-Kernwaffentests werden übrigens ebenfalls 14C-Isotope freigesetzt, die sich jedoch kaum vertikal im Ozean verteilen, sondern teilweise eine etwa 1 Meter dicke Wasserschicht auf hunderte von Quadratkilometern radioaktiv kontaminieren. Mittlerweile testet man Atomwaffen deshalb nicht mehr in Luft oder Wasser, sondern unter der Erde … Jaja, was die Wissenschaft nicht alles für uns tut.

Die bereits angesprochenen Computermodelle für Klimaorakeleien wurden Mitte der 1960er Jahre durch eine weitere militärische Technologie ergänzt: Satelliten. Schun kurz nachdem 1959/60 die ersten militärischen Erdbeobachtungssatelliten, auch Spionagesatelliten genannt, von den USA aus ins All geschickt  wurden und sich zunächst vor allem mit der Beobachtung der UdSSR, der Volksrepublik China und schon bald mit dem Mittleren Osten (insbesondere im Sechstagekrieg) beschäftigten, wurde 1960 von den US-Behörden ESSA (Environmental Science Services Administration), NASA (National Aeronautics and Space Administration) und NOAA (National Oceanic and Atmospheric Administration) das erste Wettersatellitenprogramm namens TIROS (Television and InfraRed Observation Satellite) ins Leben gerufen. Die Satelliten der TIROS-Generation waren mit Kameras ausgestattet, die eine Auflösung von etwa 3 Kilometer und einer Beobachtungsbreite (Schwadbreite) von rund 1200 Kilometern besaßen. Zudem befanden sich Strahlungsmessgeräte an Bord, die beinahe das gesamte Spektrum elektromagnetischer Strahlung abdeckten und eine Auflösung von 50 Kilometer hatten. Ab 1966 standen die in diesem Rahmen ins All beförderten Satelliten der Klimaforschung zur Verfügung. Das bereits parallel begonnene Wettersatellitenprogramm Nimbus lieferte dem bereits erwähnten Klimapropheten Manabe 1969 jene Messdaten, mit denen sein Klimamodell „verifiziert“ werden konnte (d.h. es errechnete ähnliche Ergebnisse). Die seither in der Klimaforschung eingesetzten Erdbeobachtungssatelliten dienen dazu, Eisfelder zu vermessen und damit deren Schwund zu bestimmen, die Wärmerückstrahlung der Erdoberfläche zu bestimmen, Wind- und Meeresströmungen zu beobachten, usw.

Es dauert nicht lange, bis die Klimaforschung, die zuvor beinahe ausschließlich eine militärische Angelegenheit gewesen war, auch zu einem weltpolitischen Gegenstand wird. 1979 wird in Genf die erste Weltklimakonferenz abgehalten, aus der in weiterer Folge das Weltklimaforschungsprogramm ebenso wie das IPCC, das Intergovernmental Panel of Climate Change, auch bekannt als Weltklimarat hervorgehen werden. Ein letztes Mal noch wird die Klimaforschung in den 1980er Jahren auf ihr Entstehungsgebiet, nämlich die Folgenabschätzung von Kernwaffeneinsätzen zurückkommen. Unter der Bezeichnung „Nuklearer Winter“ sollte vor den Auswirkungen eines globalen Atomkriegs gewarnt werden, die durch eine Verdunkelung der Atmosphäre durch Ruß, Rauch und Staub als globaler Temperaturabfall um 6 bis 8 Grad prognostiziert werden. Als Reagan und Gorbatschow jedoch ihre Atomraketen wieder einpacken, wird mit ihnen auch jegliche populäre Referenz der Klimawandelforschung auf diese Epoche atomarer Vernichtungswaffen verschwinden. Mit dem zunehmenden Dahinscheiden des Kalten Krieges gewinnt der sogenannte Klimawandel als ordnungspolitisches Paradigma der Weltpolitik an Bedeutung. In den 90er Jahren wird eine Klimakonferenz die nächste jagen, bei denen Staaten untereinander regeln, wie viel CO₂ sie jeweils ausstoßen dürfen und so dieses eindimensionale Maß für die Zerstörung der Biosphäre gefestigt wird. Motivation für diese Konferenzen: Durch die prognostizierten Folgen einer globalen Erderwärmung sehen sich die Herrschenden existenziell bedroht. Sie fürchten nicht nur Hungersnöte in Folge von Naturkatastrophen und kollabierenden Ökosystemen, sondern vor allem auch Aufstände ihrer Bevölkerungen sowie Völkerwanderungen, die ihre geopolitischen Interessen gefährden. Diese Überlegungen sind bis heute maßgeblich und führten zu einer neuen Aufrüstungswelle, die weniger in genozidale Superwaffen investiert (auch wenn solche Projekte längst nicht vollständig eingestellt wurden), als in Grenztechnologie und andere Technologien des globalen Bevölkerungsmanagements (siehe auch den Artikel „Planspiel Klimawandel“ in dieser Ausgabe).

***

Was hat nun diese Genese des heute weitverbreiteten Szenarios eines Klimawandels damit zu tun, ob ich mich dieser Analyse guten Gewissens bedienen kann, um die ökologische Zerstörung dieses Planeten besser zu begreifen?

Zunächst einmal fällt unweigerlich auf, dass die Zerstörung der Biosphäre seit der Entwicklung des Modells „Klimawandel“ weitergegangen ist, ja vielfach sogar noch zugenommen hat, ebenso wie bereits vor der Etablierung dieses Modells als allgemein anerkanntes Szenario Menschen auch ohne Rückgriff darauf begriffen haben, dass die industrielle Verpestung der Umwelt, die Betonwüsten der Städte und die landwirtschaftliche Vernichtung von Lebewesen fatale Folgen für das (freie) Leben auf diesem Planeten haben. Weder lässt sich also sagen, dass die globale Zerstörung der Biosphäre nur mithilfe des Modells des „Klimawandels“ begriffen werden kann, noch hätte dieses neue Verständnis dieser Zerstörung dazu beigetragen, dass irgendeine Änderung eingetreten wäre. Soweit verhält sich das Modell „Klimawandel“ also bestenfalls neutral, wie übrigens so viele wissenschaftliche Dogmen.

Zugegeben: Die bildmächtige kulturelle Rezeption des Szenarios „Klimawandel“ vermag noch einmal eine andere Sprache zu sprechen, als die sich hinter ihr versteckende Wissenschaft. Sie bedient sich dessen, was die Wissenschaft als eine bestimmte Anzahl an Tonnen CO₂ zu abstrahieren pflegt, wenigstens als Bilder gigantischer Rauchwolken über Kohlekraftwerken oder als beinahe faschistisch anmutende, allmorgend- und allabendliche Autoparaden durch die Straßen irgendeiner (Beton-)Stadt. Doch es ist gar nicht im engeren Sinne die wissenschaftliche Theorie des Klimawandels, die dort im Vergleich zu irgendwelchen für den gemeinen Fernsehzuschauer beeindruckenden ebenso wie exotischen Naturaufnahmen über das Gerät flimmernden Bildern dargelegt wird. Nein, es sind ja eben keine nuklearen Differenzialgleichungen, keine Schaltpläne von Computern, ja nicht einmal die Schaubilder irgendeines der zahlreichen kybernetischen Klimamodelle, die dort gezeigt werden.  All das, es wäre dem gemeinen Fernsehzuschauer völlig unbegreiflich, ebenso wie es dem vielleicht wissenschaftlich-mathematisch-kybernetisch geschulten Auge bloß eine rationale, emotionslose Erläuterung eines Modells bleibt und selbst den entwickelnden Wissenschaftler*innen selbst ein nettes Zahlenspiel ist, angetrieben von einer vielleicht gewissermaßen verständlichen Faszination, das fehlende Element in einem Rätsel zu finden und manchmal vielleicht auch von irgendwelchen technokratischen Utopien beflügelt oder wenigstens von der Aussicht eines Karriereschubs.

Man kann nun freilich darauf vertrauen, dass die Damen und Herren Wissenschaftler*innen, die sich in ihrem Alltag mit jenen Zahlenspielen befassen und mal hier, mal dort eine Zahl austauschen, einen Parameter hinzufügen oder entfernen oder eine gänzlich neue Gleichung aufstellen, ihre Arbeit schon gewissenhaft machen werden. Und obwohl ich selbst das bezweifle, ist das vielleicht auch gar nicht das Problem: Denn man kann seine Arbeit ja schon gewissenhaft machen, kann wie vielleicht Robert Oppenheimer vor dem Trinity-Test auch nach Abschluss aller Arbeiten noch einmal alle Berechnungen durchgehen, um zu überprüfen, dass einem auch ja kein Fehler unterlaufen ist, und dennoch kann mein Projekt, an dem ich da gerade arbeite, vom Typus des Manhatten-Projekts sein. Was uns vielleicht zu dem eigentlichen Problem bringt: Kann ich darauf vertrauen, dass jene Wissenschaftler*innen, die zuvor direkt oder indirekt an Projekten wie dem Manhatten-Projekt beteiligt waren, jene, deren Branche nur in der Nachfolge solcher Projekte entstehen konnte, jene, deren gesamte wissenschaftliche Tradition, deren Dogmen oder Axiome, wie man auch sagt, auf diesen vorangehenden Arbeiten gründen, an irgendetwas arbeiten, was in meinem Sinne sein könnte? Ich denke, ich kann es nicht.

Wenn ich darauf jedoch nicht vertrauen kann, wie kann ich dann das Modell „Klimawandel“ für mich nutzen und es übernehmen? Der einzige Weg dazu wäre aus meiner Sicht, wenn ich es alleine oder gemeinsam mit anderen, die meine Ideen teilen, nachprüfe. Ich benötige also Computer (und wir sprechen hier gewiss nicht von einem handelsüblichen Personal Computer), Satelliten, gigantische Bohrer, Arktis-Forschungsstationen, Equipment zur Radiokohlenstoffdatierung und vielleicht, das wird sich zu gegebener Zeit dann noch herausstellen, benötige ich sogar Kernwaffen, um meine eigenen Tests damit durchzuführen. Anders ausgedrückt: Ich müsste eben jene industriell-technologisch-militärische Todesmaschinerie nachbauen oder mich ihrer uneingeschränkt bedienen (können), die eben auch die Klimawandelforschung hervorgebracht hat. Denn wie anders sollte ich in der Lage sein, den „Klimawandel“ selbst zu begreifen, ohne mich dabei auf die Behauptungen derjenigen zu stützen, die sich schon so oft als meine erbittertsten Feind*innen erwiesen haben?

Aber stellen wir diese Problematik für den Moment noch einmal zurück und widmen wir uns, bevor nun irgendwer auf die Idee kommen mag, ein „anarchistisches“ Atomprogramm ins Leben zu rufen, noch einmal den möglichen Erkenntnissen, die uns eine eigene, wissenschaftlich abgesicherte und vereinheitlichte (weil sie Objektivität behauptet und damit subjektive Erfahrungen abwertet und schließlich eliminiert) Theorie des Klimawandels erwartungsgemäß liefern würde: Die momentane industrielle, militärpolitische Ausprägung dieser Theorie, sie vermag vor allem eines zu liefern: Zukunftsprognosen. Wenn „wir“ dies oder jenes nicht innerhalb der nächsten 5, 10, 20, 30, 50 oder hundert Jahre ändern würden, dann … ja dann kommt die Apokalypse. Und weil es diese Apokalypse weder geben soll, noch darf, verlängert sich das Zeitfenster nach 5 Jahren auf 10, nach 10 auf 20, nach 20 auf 30, und so weiter. Manchmal wird auch erklärt, man habe eine entsprechende Veränderung nun erreicht oder irgendeine neue Forschungsarbeit erklärt eben kurz und knapp, dass man sich in der Vergangenheit ohnehin geirrt habe und man nicht dies, sondern jenes hätte verändern sollen, was also die ausgebliebene Veränderung irrelevant macht. Hat man von den Wissenschaftler*innen des Klimawandels jemals den Vorschlag vernommen, hier und jetzt, also jetzt gleich, hinzugehen, zum nächsten Kraftwerk, zur nächsten Autobahn, zum nächstgelegenen Tagebau, zur nächstgelegenen Raffinerie oder Fabrik und dieses Elend ein für alle Mal niederzubrennen? Gewiss nicht. Und jenen, die schon dazu neigen zu betonen, dass eigentlich alles sofort stoppen müsste, taugt als Vorwand im Zweifel, dass der Akt des Abfackelns ja nur neues CO₂ produzieren würde. Wie praktisch. Zumindest für jene, denen am Fortbestand der alten Ordnung gelegen ist. Stattdessen wird die gegenwärtige Zerstörung der Biosphäre den Klimawandel-Prophet*innen zunehmend zum Referenzpunkt des gerade noch Erträglichen, zu dem, was später rückgängig gemacht werden könne, zu dem, was zwar beendet werden soll, aber weder mitten im Geschäftsjahr, noch solange keine ertragreiche, nunmehr CO₂-neutrale Alternative der Zerstörung derselben Biosphäre gefunden ist.

Sowieso: CO₂-neutral. Auch wenn man das Klima als ein übermäßig kompliziertes und ohne Computer, Satelliten und wissenschaftliche Propheten unmöglich zu verstehendes (und doch ist man überrascht, dass indigene Bevölkerungen oft ebenso bessere Prognosen als die der Wissenschaft liefern, was diese Phänomene angeht, wie die wenigen überlieferten „Bauernweisheiten“ selbst innerhalb des zivilisierten Lebens) Gebilde zu inszenieren versteht, so sind doch die praktischen Schlüsse, die man daraus zu weissagen versteht, vergleichsweise banal: CO₂ und Treibhausgase, die sich als CO₂-Äquivalent angeben lassen, müssten beschränkt werden. Dafür ist es auch tauglich, neue Akte der Zerstörung der Biosphäre zu begehen, indem etwa CO₂ in unterirdische Gesteinsschichten hineingepresst werden soll, oder gar allzu offensichtliche Schönrechnungsversuche, indem ganze Biotope gerodet werden und dort im Anschluss neue, schneller wachsende Bäume (etwa Eukalyptus) gepflanzt werden, als Ausgleich dafür, dass etwa fossile Brennstoffe beim Transport von Waren und Menschen verbrannt werden. Ebenso verwandeln gigantische Tagebaue ganze Landstriche in Wüsten, um nach jenen Technologie-Rohstoffen zu schürfen, mit denen dann die CO₂-neutralen, erneuerbaren Wind-, Wasser-, und Solarkraftwerke errichtet werden, für deren Bau mancherorts ebenfalls Wälder gerodet werden. Nicht zuletzt wird sogar die Atomkraft als „saubere“ Energiequelle gehandelt, weil eben atomarer Müll, der noch in 10.000 Jahren eine tickende Zeitbombe sein wird, ebenso wie die schon heute gesundheitsschädliche und tödliche Strahlung selbst um „intakte“ Kernreaktoren mit nur „unbedenklichen Rissen“ oder selbst ohne irgendwelche Risse eben kein CO₂ und kein CO₂-Äquivalent sind. Das alles sind die Entscheidungen, die auf Basis der Erkenntnisse der aktuellen „Klimawandel“-Theorie von Herrschenden getroffen und der überwiegenden Mehrheit gehirngewaschener Bevölkerung gutgeheißen wird. Das ist der faktische Nutzen, den diese Theorie derzeit in einem Kampf gegen die Zerstörung der Biosphäre einzubringen vermag.

***

Wenn ich mich in der Welt umsehe, egal ob ich den Erzählungen von Gefährt*innen aus Südamerika lausche, mich mit Geflüchteten von beinahe überall aus der Welt über die Zustände in ihrer Heimat unterhalte, die Analysen von Anarchist*innen aus anderen Teilen der Welt lese, oder vor die eigene Haustür trete, so nehme ich eine gigantische ökologische Zerstörung wahr. Waldrodungen für Plantagen, die die Böden in wenigen Jahren aufbrauchen, Tagebaue, die Quadratkilometer um Quadratkilometer der Biosphäre in lebensfeindliche Wüsten verwandeln, schwindende Wasserresserven, die zu Dürren führen, Waldbränden und Wüsten, auf Feldern ausgebrachte Pflanzengifte, die Insekten ausrotten, Böden und Wasser kontaminieren und nur noch den Anbau von genmanipuliertem, patentiertem Saatgut möglich erscheinen lassen, landwirtschaftliche Monokulturen, die die Böden Jahr um Jahr schwinden lassen und gigantische Mengen an Düngemitteln erfordern, Gewässer, die aufgrund der landwirtschaftlichen Vergiftung kippen, schwindende Fischbestände, Plastikmüll in den Meeren, strahlenverseuchte Umgebungen, betonversiegelte Flächen, auf denen nichts mehr gedeiht, luftverpestende Industrie, die Krankheiten bei Mensch, Tier und Pflanzen hervorruft und Artensterben verursacht, Autobahnen, deren Lärm Tier und Mensch vertreibt, Städte, mit ihren Betonwüsten und ihrer Lichtverschmutzung, Müllberge, die Böden und Gewässer vergiften, Windparks, die zum Aussterben von Mikroorganismen und Insekten führen, Solarparks, die man auch schwarze Wüsten nennen kann, Wasserkraftwerke und begradigte Flüsse, deren Biotope dadurch zerstört werden, anhaltende Trockenheitsperioden und Wetterextreme, die zu Dürren und Überschwemmungen führen, aussterbende Vogelarten, Bienensterben, Insektensterben im Allgemeinen, usw. usw. Und man braucht kein*e Wissenschaftler*in  zu sein, um zu wissen, was für all diese Dinge verantwortlich ist, ebensowenig wie es den ohnhein zweifelhaften Verstand eines Mathematikers braucht, um sagen zu können, dass all diese Zerstörungen schon in Kürze dazu führen werden, dass die Grundlage für unser Leben auf diesem Planeten vollkommen zerstört sein wird. Man könnte vielleicht geneigt sein zu behaupten, dass die in Städten lebenden Menschen durch ihre Lebensweise so sehr von ihrer Umwelt entfremdet sind, dass sie diese Vernichtung nicht erkennen würden, aber ich bin nicht geneigt, das zu glauben. Nein, von der eigenen Umwelt entfremdet oder nicht, wer halbwegs mit offenen Augen durch diese Welt wandelt, der*dem kann diese Zerstörung nicht entgehen. Und es entgeht den Menschen ja auch nicht, dass die Welt um sie herum mitten in einem Kampf auf Leben und Tod mit der industriellen Zivilisation steckt. Und vielleicht ist durchaus bereits den meisten gedämmert, dass es nun an ihnen ist, sich für eine Seite in diesem längst tobenden Krieg zu entscheiden: für die Todesmaschinerie des Fortschritts oder für die Möglichkeit des Lebens.

Das Narrativ des Klimawandels, es erfüllt dabei vielleicht den schmutzigsten Zweck von allen, indem es den Fortschritt als auf Seiten des Lebens stehend ausgibt und die völlig unbegründete Hoffnung aufkeimen lässt, dass wenn dieser Fortschritt nur CO₂-neutral wäre, er vielleicht weniger todbringend sein könnte… Zugleich ist die Theorie des Klimawandels unzweifelhaft auch ein Instrument militärisch-technologischer Kontrolle, das strategisch relevante ökologische und soziale Zusammenbrüche vorhersehbar und folglich daraus resultierende Erhebungen gegen die Herrschenden schon präventiv bekämpfbar macht bzw. machen soll. Es ist naiv zu glauben, dass Forschungsbeiträge, die sich mit den Auswirkungen von klimainduzierter Flucht, Nahrungsmittelknappheiten, Umweltkatastrophen und Co. befassen und diese sogar in den Mittelpunkt der eigenen Forschung rücken, zu irgendetwas anderem (etwa einem Erweckungserlebnis der westlichen Bevölkerung) beizutragen vermögen, als dazu, solche Katastrophen besser verwaltbar zu machen. Egal ob man sich nun mit eigenen Forschungsbeiträgen aktiv an dieser Herrschaftssicherung beteiligt, oder ob man der Wissenschaft durch eine außerhalb von ihr stehende, sich jedoch uneingeschränkt positiv auf sie beziehende, Bewegung dazu verhilft, neuen Nachwuchs zu rekrutieren, das Vertrauen der Menschen in sie zu steigern oder auch nur den Mördern im Weißkittel das Gefühl verleiht, etwas „für die Menschheit“ zu leisten. In jeder Form kann ein Bezug auf die Wissenschaft und ihr Narrativ des Klimawandels meiner Meinung nach keinesfalls der Ausgangspunkt einer anarchistischen Analyse sein.

Wo uns die Wissenschaft das Bild vermittelt, es mit einem komplexen System aus un- oder auch nur schwer durchschaubaren Einflüssen zu tun zu haben, das die Biosphäre, unser aller Lebensgrundlage zu einer lebensfeindlichen Wüste verwandelt, in das wir daher nur äußerst besonnen, das heißt, dem Rat der Nekrowissenschaftler*innen folgend, eingreifen sollten, ist die Realität doch eigentlich ganz einfach: Es ist nicht mehr und nicht weniger als die industrielle Zivilisation, die für diese Zerstörung der Biosphäre verantwortlich ist; und auch wenn es freilich auch ein Interesse des techno-industriellen Komplexes ist, die Lebensfähigkeit der Biosphäre gerade soweit zu erhalten, dass diese auch weiterhin die notwendigen Rohstoffe zur Reproduktion der industriellen Zivilisation zu liefern vermag, so ist es doch gänzlich unvorstellbar, dass die Technologie ebenso wie die Wissenschaft dieses Komplexes irgendeinen Beitrag dazu zu leisten vermag, dass wir einst wieder Seite an Seite mit anderen freien Wesen in einer intakten Biosphäre leben können werden.

Schreibe einen Kommentar