Für wen? | Ist RWE stärker als die Demokratie?
Warum Energieversorgung mehr als eine technische Frage ist
von Paul Bachmann
Wer im Januar 2023 die Nachrichten verfolgt hat, wird den kleinen Ort Lützerath kennen. Kaum zehn Häuser, ein paar Ställe und Scheunen, ein kleines Wäldchen, mehr nicht. Und trotzdem ist Lützerath zu einem Symbol geworden, das wie kein anderes offenbart, mit welcher Macht und Gewalt Deutschland immer noch an fossiler Energie festhält.
Wie fühlt sich so ein bedeutungsbeladener Ort an? Ich war dort für die Kundgebung am 12. Januar, als 35.000 Menschen gegen die Zerstörung Lützeraths demonstrierten. Hier sprachen Klimaaktivist*innen wie Greta Thunberg, aber auch direkt vom Klimawandel Betroffene aus dem Globalen Süden. Die Stimmung am Tagebau war gespenstisch.
Tieren und Menschen wird der Boden unter den Füßen weggebaggert
Die Zerstörungskraft des Kohlebergbaus zeigt sich bereits auf Satellitenbildern: schon aus dem All sind die Löcher der Kohlereviere am Rhein, in Sachsen und in Mitteldeutschland deutlich erkennen. Doch am Abgrund der Grube selbst offenbart sich einmal mehr die unvorstellbare Gewalt, mit der hier ganze Landschaften voller Orte, Tiere und Natur zerstört wurden. Bis zum Horizont erstreckt sich in dem riesigen Loch die mondlandschaftartige, lebensfeindliche Wüste aus Schutt. Wir beobachten ein Reh, das versucht, wieder aus dem Tagebau herauszukommen und vor dem Lärm der Kohlebagger davonrennt.
Gegen Ende der Demonstration kommt es zu Ausschreitungen, die Polizei verhindert mit aller Gewalt, dass Demonstrierende das Dorf erreichen. Es gibt Verletzte und traumatisierende Szenen von Polizeigewalt.
In Deutschland wurden seit Ende des zweiten Weltkriegs für den Abbau von Braunkohle insgesamt etwa 300 Orte zerstört und mehr als 120.000 Menschen umgesiedelt. Stark betroffen sind auch die Ökosysteme in der Umgebung.
So lässt sich beispielsweise das große Fischsterben in der Oder im vergangenen Sommer auf Kohleabflüsse zurückführen. Laut Untersuchungen von Greenpeace erhöhte Pumpwasser aus Steinkohletagebauen in Polen den Salzgehalt der Oder-Zuflüsse stark. Dadurch vermehrten sich giftige Goldalgen, die schließlich das Massensterben von Fischen und anderen Tieren verursachten. Die Bergbauunternehmen und die polnische Regierung leugnen das bis heute.
Die Kohleverstromung verursacht auch Tonnen von – teilweise radioaktivem – Feinstaub, etwa Thorium und Uran. An Feinstaub sterben in Deutschland mehr als 60.000 Menschen jährlich.
Vor allem aber macht die gewaltige Menge an CO2, die durch die Kohle unter Lützerath und anderswo entstehen würde, das Erreichen des 1,5°-Zieles unmöglich. Damit wird die Chance auf eine lebenswerte Zukunft mit funktionierenden Ökosystemen für kommende Generationen immer kleiner. Auch in Deutschland sind die Folgen des Klimawandels bereits heute an Dürren, Überschwemmungen und Artensterben spürbar. Dazu werden auch weitere, vor allem gesundheitliche Probleme kommen, seien es Bakterien, Viren und Pilzerreger, die sich besser ausbreiten können oder Hitzewellen, die besonders in Städten für ältere Menschen lebensgefährlich sind.
Angesichts dieser Folgen für Mensch und Natur kann man den Erhalt der Kohleindustrie nicht rechtfertigen. Nicht einmal mit dem Strompreis lässt sich noch argumentieren, denn inzwischen sind Solar- und Windenergie meist günstiger. Warum wird der Kohleabbau also dennoch mit aller Gewalt verteidigt?
Wofür also das Ganze? Wofür der Kohlebergbau?
Diese Frage lässt sich nicht beantworten, wenn man nur fragt, wofür die Bagger und Kraftwerke betrieben werden. Um das zu verstehen, muss die Frage gestellt werden, für wen das Ganze passiert. Denn obwohl fossile Strukturen wie Kohleenergie massive Probleme fürs Gemeinwohl bringen, ist fossile Industrie für die Eigentümerinnen, Investorinnen und Aktionär*innen immer noch profitabel. Durch strukturelle Abhängigkeiten, staatliche Subventionen und Gesetze ist es immer noch möglich, mit einer Industrie, die in jedem Aspekt der Gesellschaft und Umwelt schadet, Milliardengewinne anzuhäufen.
Diese Machtkonzentration ist nicht zufällig, sondern auch die Folge der Technologien, die wir bisher für die Energieversorgung verwendet haben. Denn Technologie hat einen Einfluss auf Gesellschaftsstrukturen. Sie wird dafür genutzt, Ressourcen und Macht zu organisieren – etwa zu zentralisieren oder zu verteilen. So stellt die Studie [Machtkonzentration] fest, dass es durch jahrzehntelange fossile Investitionen weltweit eine Machtkonzentration gab – zugunsten der wenigen, die die fossilen Ressourcen besitzen. Diese Konzentration wirtschaftlicher Macht schlägt sich schließlich auch in politischer Macht nieder, etwa wenn die Lobbys fossiler Konzerne und Investor*innen effektiven Klimaschutz und eine demokratischere Organisation der Energiesysteme verhindern, sei es bei Pipelineprojekten in Naturschutzgebieten in Alaska, bei der Zerstörung von Dörfern in Deutschland für den Kohleabbau oder bei neokolonialen Wasserstoffprojekten in Nordafrika.
Während erneuerbare Energien es möglich machen, die Machtverteilung im Energiesystem zu demokratisieren, passiert auch das nicht von allein. Es kommt auf die Organisationsform an. So können auch Erneuerbare einfach in Form von großen Wind- und Solarparkprojekten betrieben werden, über die eine kleine Zahl von Aktionärinnen ohne demokratische Teilhabe bestimmt. Anders als bei Fossilen und Atomkraft gibt es hier aber zumindest die Möglichkeit, eine verteiltere Organisationsform umzusetzen. So kann Stromversorgung mit Windrädern und Solarzellen kommunal organisiert werden und die Bürgerinnen in die notwendigen Prozesse eingebunden werden. Auch Mini-Kraftwerke wie Balkonsolarzellen sind immer einfacher zu realisieren und durch Wärmepumpen und Solarthermie kann auch Wärmeversorgung dezentralisierter werden.
Diese Dezentralisierung stellt für die Gesellschaft eine Chance dar, wieder mehr Mitbestimmung im Energiesystem zu erlangen – die Besitzer*innen der alten, zentralisierten Energiesysteme sehen in ihr aber einen Angriff auf ihre Alleinherrschaft.
Es liegt deshalb an uns, unsere Energieversorgung in demokratischen Strukturen zu organisieren. Initiativen wie „RWE & Co enteignen“ kritisieren die Profitorientierung von Energieunternehmen. Sie stellen fest, dass die Erfüllung grundlegender Bedürfnisse nicht von profitorientierten Unternehmen bestimmt sein sollte, sondern gemeinschaftlich organisiert werden muss. Sie fordern deswegen eine Vergesellschaftung großer Energiekonzerne wie RWE, um mehr demokratische Teilhabe bei der Energieproduktion zu ermöglichen. Sie wollen verhindern, dass einige wenige mit den Energiesysteme private Profite anhäufen und sie stattdessen demokratisch und ökologisch umstrukturieren. Auf diesem Weg können wir als Gesellschaft die Energieproduktion bedürfnisorientiert organisieren.
Quellen
- Fischsterben in der Oder: https://www.tagesschau.de/investigativ/swr/fischsterben-oder-salzgehalt-bergbau-101.html
- Umsiedlung: https://www.bund-nrw.de/themen/braunkohle/hintergruende-und-publikationen/verheizte-heimat/verschwindende-doerfer
- Machtkonzentration durch Fossile: Jennie C. Stephens (2019) Energy Democracy: Redistributing Power to the People Through Renewable Transformation, Environment: Science and Policy for Sustainable Development, 61:2, 4-13, DOI: 10.1080/00139157.2019.1564212
- Radioaktivität: https://www.bund-nrw.de/fileadmin/nrw/dokumente/braunkohle/2008_11_BUNDhintergrund_Radioaktivitaet_aus_Kohlekraftwerken.pdf
Züge rollen, Dollars rollen
Maschinen laufen, Menschen schuften
Fabriken bauen, Maschinen bauen
Motoren bauen, Kanonen bauen
Für wen?
Ton Steine Scherben
Gegen wen? | Die Macht der Gegenstände
Von diskriminierenden Algorithmen bis zu rassistischen Seifenspendern und wieso wir diverse Entwicklungsteams brauchen
von Emma Jung
Die Macht der Gegenstände – Von diskriminierenden Algorithmen bis zu rassistischen Seifenspendern und wieso wir diverse Entwicklungsteams brauchen
In den letzten Monaten ist mit dem Hype um KI-Produkte wie ChatGPT von OpenAI auch zunehmend die Diskriminierung durch digitale Technologien in den Diskurs gekommen. „KI-Algorithmen […] finden Muster in Datensätzen, die unsere eigenen impliziten Vorurteile widerspiegeln, und betonen und verstärken diese Vorurteile als allgemeingültige Wahrheit.“ (Howard und Borenstein 2018, S. 1524.)1
Algorithmen benötigen Daten und verwenden diese, um ihre Entscheidungen zu treffen. Genau hier liegt der Kern des Problems: Denn sowohl die Qualität als auch die Zusammensetzung dieser Daten beeinflusst die Annahmen, die der Algorithmus trifft. Wenn Datensätze nicht die Personengruppe repräsentieren, über die eine Entscheidung getroffen werden soll, besteht die Möglichkeit einer Diskriminierung.2 Die Wissenschaftlerin Caroline Criado-Perez weist darauf hin, dass Datensätze vorwiegend aus Daten von Männern bestehen und somit „die Hälfte der Bevölkerung“ ausklammern.3
Darüber hinaus ergab eine Studie der US-Wissenschaftler Joy Buorumwini und Timnit Gebul, dass die Gesichtserkennungs-Algorithmen von großen Technologieunternehmen anhand von Bildern trainiert wurden, die überwiegend europäisch aussehende Männer zeigten. Dadurch wurden dunkelhäutige Frauen von der Software entweder gar nicht erkannt oder fälschlicherweise als männlich eingestuft.4 Das liegt daran, dass ein solcher Datensatz hauptsächlich aus Bildern mit männlichen Gesichtern besteht. Ein auf KI-basierender Algorithmus erkennt diesen Trend und nutzt ihn für seine Entscheidungen. Dieser durch den Algorithmus gefundene Trend wird häufig als Realität wahrgenommen, da Technik grundsätzlich als rational und neutral wahrgenommen wird.5
Auch wenn in der aktuellen Gesellschaftsdebatte bei der Diskriminierung durch Technologie der Fokus sehr stark auf den Themen KI-Algorithmen liegt, sollte nicht vergessen werden, dass keine Form der Technik grundsätzlich neutral, rational und vorurteilsfrei ist. Mit Themen wie Diskriminierung und Rassismus durch Technologie sollten sich also nicht nur zukünftige Informatiker:innen, sondern auch Entwickler:innen und Ingenieur:innen, auseinandersetzen.
Aber welche Macht können Gegenstände überhaupt besitzen?
Der US-amerikanische Technikphilosoph und Professor Langdon Winner hat eine Einteilung von 5 Typen (rechts) über die Macht von Artefakten getroffen.6 Ein Artefakt ist hierbei als ein von Menschen künstlich geschaffener – materieller oder immaterieller – Gegenstand zu verstehen.
Nicht nur Menschen können also handeln und Macht ausüben, sondern auch Gegenstände, die wir entwickeln. Akteure können beides – „menschlich oder nicht-menschlich“ (Latour 1996)11 sein und sich ebenso wie ihre Entwickler:innen, ob gewollt oder ungewollt, diskriminierend verhalten. Die Erkenntnis, dass „[a]utonome technische Systeme […] offenkundig Entscheidungen [treffen] und Handlungen in einer Weise [vollziehen], die bislang ausschließlich in der Verantwortung menschlicher Akteure lagen“ (Weyer und Fink 2011, S.40),12 sollte unbedingt beim Entwicklungsprozess berücksichtigt werden.
„Der Hardware die Schuld zu geben, erscheint noch unsinniger als den Opfern die Schuld zu geben, wenn es darum geht, die Gegebenheiten des gesellschaftlichen Lebens zu beurteilen.“
Wichtig ist hierbei jedoch, nicht die Verantwortung auf die Gegenstände oder sogar die benachteiligten Gruppen zu projizieren. Wie Langdon Winner schon 1980 in einer seiner bekanntesten Publikationen „Do Artifacts Have Politics?“ schrieb: „Wir alle wissen, dass Menschen Politik betreiben, nicht Dinge. In Gegenständen aus Stahl, Kunststoff, Transistoren, integrierten Schaltkreisen und Chemikalien entweder Tugenden oder Übel zu entdecken, scheint schlichtweg falsch. Es ist eine Art, die menschliche Konstruktion zu mystifizieren und die wahren Ursachen zu umgehen: Und zwar die menschliche Grundlage von Freiheit und Unterdrückung, Gerechtigkeit und Ungerechtigkeit. Der Hardware die Schuld zu geben, erscheint noch unsinniger als den Opfern die Schuld zu geben, wenn es darum geht, die Gegebenheiten des gesellschaftlichen Lebens zu beurteilen.“13
Macht von Artefakten – Design ist Politik
Typ 1A
Beabsichtigte Effekte für bestimmte Menschen und soziale Gruppen durch technische Artefakte
Bänke haben die Funktion, dass man sich auf ihnen niederlassen und erholen kann. Jedoch wollen Stadtverwaltungen häufig nicht, dass Obdachlose sich auf diesen aufhalten und dort übernachten. Diese im Volksmund als „Anti-Obdachlosen-Bänke“ bezeichneten Sitzgelegenheiten sind in vielen deutschen Städten aufzufinden.7
Typ 1B
Unbeabsichtigte Effekte für bestimmte Menschen und soziale Gruppen durch technische Artefakte
Smartphones schließen Menschen mit einer Sehbehinderung vom Gebrauch aus bzw. erschweren diesen erheblich. Diese Diskriminierung geschieht aber keinesfalls absichtlich.
Sicherheit im Auto: „Die Wahrscheinlichkeit, dass eine Frau ernsthaft verletzt wird, ist 47 Prozent höher, und dass sie stirbt, 17 Prozent höher als bei einem Mann, der den gleichen Unfall hätte. Das liegt daran, wie Autos designt sind und dass Crashtest-Dummies an einen Durchschnittsmann angelehnt sind“, erklärt die britische Journalistin, Autorin und Aktivistin Caroline Criado-Perez, in einem Interview über den „Gender Data Gap“ mit der taz.8 Alles ist auf den sogenannten 50-Perzentil-Mann standardisiert. Er ist 1,75 m groß und wiegt 78 kg. Die Hälfte der europäischen Männer ist größer, die andere Hälfte kleiner. Obwohl der Norm-Dummy viele Autofahrende – wie beispielsweise Frauen und Kinder – nicht abdeckt, wird er heute für die meisten Crashtests verwendet.9
Dieser Seifenspender (Video links) wurde mit dem Ziel entwickelt, kontaktlos Seife zu spenden. Jedoch wurden vom Entwicklungsteam Menschen, die dunkelhäutig sind, beim Entwicklungsprozess nicht berücksichtigt – deshalb können diese den Seifenspender nicht verwenden.10
Typ 1C
Effekte für bestimmte Menschen und soziale Gruppen durch technische Artefakte aufgrund gesellschaftlicher Strukturen.
Die Entwicklung und Durchsetzung der Tomaten-Erntemaschine vollzog sich über Jahrzehnte durch ein Wechselspiel aus Forschungsstrukturen und Märkten in der Landwirtschaft. Die Konsequenz: Ein dramatischer Arbeitsplatzverlust in Kalifornien und „schlechtere“ Tomaten (mit einer härteren Schale, um von der Tomaten-Erntemaschine geerntet werden zu können).
Typ 2A
Die soziale Ordnung wird durch Artefakte stabilisiert.
Die hierarchische Arbeitsteilung in der Fabrik ist stabilisiert durch die Maschinen und die unterschiedlichen Tätigkeiten, die sie erfordern.
Typ 2B
Artefakte benötigen eine bestimmte soziale Ordnung.
Kernkraftwerke benötigen mächtige Netzwerke aus wissenschaftlicher und technischer Expertise, Industrie und Politik, weltweiten Handel mit Brennstoffen und hierarchische Führung.
Was können wir also tun?
Eine Möglichkeit, weniger Diskriminierung durch Technologien zu erreichen, ist die umfassende gesellschaftliche Bildung von Technikentwickler:innen. Ob in der Schule, im Unternehmen oder an der Universität, angehende Entwickler:innen sollten über bestehende Machtstrukturen informiert und gebildet werden, um diese hinterfragen und durchbrechen zu können. „Das eigentliche Ziel von Bildung für mehr Sensibilität für Rassismus in der Technikentwicklung ist es, eine andere Welt zu visualisieren, in der wir uns von alten Mustern befreien“ (Daniels et al. 2019, S. 2).14
Weiterhin sind die Überarbeitung und das Überdenken des Entwicklungsprozesses notwendig. Schwachstelle ist die klassische Vorgehensweise von Expert:innen bei der Entwicklung neuer Technologien: die „I-methodology“ (Akrich 1995).15 Entwickler:innen sehen sich selbst als Benutzer:innen der Technologie und gehen dadurch unbewusst davon aus, dass zukünftige Nutzer:innen ihnen selbst entsprechen werden. Ihre Perspektive auf die Welt und Zukunft wird durch den eigenen Horizont eingeschränkt und somit auch die Entwicklung. Ein homogenes Entwicklungs-Team handelt also keinesfalls absichtlich diskriminierend oder böswillig, das Problem der Diskriminierung schleicht sich unbemerkt und ungewünscht in das Endresultat des Entwicklungsprozesses ein.16
Partizipative Technologieentwicklung kann diese Schwachstelle durch die „We-Methodology“ ausgleichen: Dabei werden möglichst alle relevanten sozialen Gruppen in die Entwicklung mit einbezogen, um Schwachstellen zu erkennen. Um auf unser Beispiel von Beginn einzugehen: Ein rassistischer Seifenspender hätte, in einem diversen Team mit partizipativer Entwicklung, nie so entstehen und auf den Markt kommen können.
Beim Entwickeln sollten wir uns also nicht nur Gedanken darüber machen, was Menschen mit den Gegenständen, die wir entwickeln tun werden (bspw. Waffen) oder für wen wir diese planen (bspw. Firmen), sondern auch GEGEN WEN wir durch unseren eigenen begrenzten Horizont diskriminieren.
Es liegt in unserer Hand, Technologien so zu entwickeln, dass Artikel wie dieser in Zukunft hoffentlich über die Vergangenheit und nicht die Gegenwart berichten.
Quellen
Icons: flaticons.com
[1] Howard, Ayanna/Borenstein, Jason (2018). The Ugly Truth About Ourselves and Our Robot Creations: The Problem of Bias and Social Inequity. In: Science and Engineering Ethics 24 (5), S. 1521–1536. Übersetzt aus dem Englischen: „AI algorithms […] find patterns within datasets that reflect our own implicit biases and, in so doing, emphasize and reinforce these biases as global truth” (S. 1524)
[2] Schelenz, Laura (2022). Rassismus und Diskriminierung durch Algorithmen. Im Rahmen des Projektes RISE – Plattform für Jugendkultur, Medienbildung und Demokratie. Online verfügbar: https://rise-jugendkultur.de/artikel/rassismus-und-diskriminierung-durch-algorithmen/
[3] Criado-Perez, Caroline (2020). Unsichtbare Frauen. Wie eine von Daten beherrschte Welt die Hälfte der Bevölkerung ignoriert. München: btb Verlag.
[4] Buolamwini, Joy/Gebru, Timnit (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. In: Proceedings of Machine Learning Research 81, S. 1–15. http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf
[5] Noble, Safiya Umoja (2018). Algorithms of Oppression. How Search Engines Reinforce Racism. New York: New York University Press, S. 70.
[6] Winner, Langdon (1980). Do Artifacts Have Politics? In: Daedalus, Vol. 109 No. 1, Technology: Problem or Opportunity? S. 121–136.
[7] Wenk, Erik (2022). „Anti-Obdachlosen-Bänke“ in Potsdam: Kritik an der Deutschen Bahn. In: Tagesspiegel. Online verfügbar: https://www.tagesspiegel.de/potsdam/landeshauptstadt/kritik-an-der-deutschen-bahn-7992457.html
[8] Schwarz, Carolina (2020). „Die Datenlücke tötet Frauen“: Der männliche Körper gilt als Norm für die Wissenschaft. Das benachteiligt Frauen vielfach. In der Coronapandemie schadet es aber auch Männern. In: Tageszeitung (taz). Online verfügbar: https://taz.de/Gender-und-Wissenschaft/!5685021/
[9] Wolf, Thembi (2019). Sexistische Crash-Test-Dummies: Warum Frauen in Unfällen öfter sterben. In: Spiegel. Online verfügbar: https://www.spiegel.de/panorama/autosicherheit-immer-nur-maennliche-crash-test-dummies-gefaehrden-frauen-a-76b3034e-31bf-4788-bbda-330658e73b1a
[10] Pavey, Harriet (2017). Automatic soap dispenser sparks ‚racism‘ outrage after footage shows it doesn‘t work for dark-skinned people. In: Evening Standard. Online verfügbar: https://www.standard.co.uk/news/world/automatic-soap-dispenser-sparks-racism-outrage-after-footage-shows-it-doesn-t-work-for-darkskinned-people-a3615096.html
[11] Latour, Bruno (1996). “On Actor-Network Theory: A Few Clarifications.” Soziale Welt, Vol. 47, No. 4, S. 369–81.
[12] Weyer, Johannes & Fink, Robin (2011). Die Interaktion von Mensch und autonomer Technik in soziologischer Perspektive. In: TATuP – Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis. S. 39-45. Vol. 20. (S.40)
[13] Winner, Langdon (1980). Do Artifacts Have Politics? In: Daedalus, Vol. 109 No. 1, Technology: Problem or Opportunity? S. 121–136. Übersetzt aus dem Englischen: “We all know that people have politics, not things. To discover either virtues or evils in aggregates of steel, plastic, transistors, integrated circuits, and chemicals seems just plain wrong, a way of mystifying human artifice and of avoiding the true sources, the human sources of freedom and oppression, justice and injustice. Blaming the hardware appears even more foolish than blaming the victims when it comes to judging conditions of public life.” (S. 122)
[14] Daniels et al. (2019). Advancing racial literacy in tech. New York: Data & Society Research Institute. Übersetzt aus dem englischen Original: „The real goal of building capacity for racial literacy in tech is to imagine a different world, one where we can break free from old patterns” (S. 2).
[15] Akrich, M. (1995). User representations: Practices, methods and sociology. In Managing technology in society: The approach of constructive technology assessment, edited by A. Rip, T. J. Misa, and J. Schot, 167-184. London: Pinter Publishers.
[16] Weber, Sara (2016). Wenn Algorithmen Vorurteile haben. In: Süddeutsche Zeitung. Online verfügbar: https://www.sueddeutsche.de/digital/diskriminierung-wenn-algorithmen-vorurteile-haben-1.2806403-2
0 Kommentare