Gutes Gehalt? Oder Rabbit Holes?

Ethics of Care: Eine andere Perspektive

2008 führt YouTube recommendations auf der Plattform ein. Anfangs läuft es noch über Klickzahlen, aber YouTube merkt schnell, dass diese Methode Clickbait begünstigt. Deshalb muss etwas Besseres her: künstliche Intelligenz natürlich. Der neue KI-Algorithmus wirkt und erhöht die Watchtime um 50%! Guillaume Chaslot ist einer der enthusiastischen Entwicklerinnen und Entwickler und am Anfang noch begeistert von dieser Innovation. Doch schnell merkt er, dass dieses Empfehlungssystem auch andere weitreichende Auswirkungen hat. Nutzerinnen und Nutzer von YouTube geraten einfacher in Bubbles und bleiben in Rabbit Holes gefangen, denn YouTube gibt ihnen immer mehr und mehr vom immergleichen Inhalt.
Chaslot fragt sich: Mache ich meinen Job, für den ich gut bezahlt werde, oder arbeite ich entgegen meiner Firma, aber für die Nutzerinnen und Nutzer? Was würdest DU tun?

Um diese Frage zu beantworten, muss man einen moralischen Kompass haben. Aber wie entwickelt sich die eigene Moral eigentlich? Ende der 50er Jahre untersuchte Lawrence Kohlberg die moralische Entwicklung von der Kindheit bis ins Erwachsenenalter. Er kam zu der Erkenntnis, dass wir sechs Stufen durchlaufen: Auf Stufe eins orientieren wir uns noch an „Strafen und Gehorsam“, auf Stufe sechs dann am „universellen ethischen Prinzip“. Außerdem fand er in seiner Studie einen enormen Entwicklungsunterschied zwischen Mädchen und Jungen. Mädchen durchliefen die sechs Stufen deutlich langsamer als Jungen. Heißt das, Frauen sind moralisch nicht so weit entwickelt wie Männer?

Nein, fand Carol Gilligan, eine Schülerin Kohlbergs und schaute sich die Studie genauer an. Die Studie war ausschließlich von Männern entworfen und sie wurde auch ausschließlich von Männern durchgeführt. Dadurch wurde die westlich-männliche Perspektive deutlich bevorzugt. Gilligan sucht zwei repräsentative Antworten aus der Studie heraus, in der die moralische Entwicklung mit dem Heinz-Dilemma abgefragt wurde:

Die Ehefrau von Heinz ist schwer krank und braucht dringend Medizin. Heinz und seine Frau haben aber nicht genug Geld, um die Medizin zu kaufen. Soll er sie in der Apotheke klauen?

Ja, antwortet Jake. Das Leben der Frau ist unbezahlbar und außerdem wird Stehlen aus dem Notstand heraus weniger schlimm bestraft. Logisch, oder?
Nein, antwortet Amy. Was ist, wenn er erwischt wird und ins Gefängnis muss? Dann kann er sich nicht um seine Frau kümmern. Oder wenn er es sich mit der Apotheke verscherzt, dann bekommt er dort vielleicht nie wieder Medizin. Heinz sollte eine andere Lösung finden, als die Medizin zu klauen.

Anhand der Denkweise von Amy entwickelt Gilligan die Ethics of Care. Diese Sichtweise wird typischerweise dem weiblichen Geschlecht zugewiesen, aber alle Personen können sie einnehmen. Diese Perspektive schaut besonders auf die Entwicklung von Beziehungen über die Zeit hinweg. Es geht nicht nur um einen effizienten Entweder-Oder-Vergleich, sondern um die Menschen um uns herum und unsere Beziehung zu ihnen. Und es geht um unsere gemeinsame Zukunft in der Gesellschaft. Genau diesen Ansatz hat auch Guillaume Chaslot mit seinem Dilemma bei YouTube verfolgt. Ehemals begeisterter Anhänger der YouTube-KI, setzt er sich heute für einen verantwortungsvollen Einsatz von KI ein. Mittlerweile hat er es sogar zusammen mit seinem Team geschafft, dass YouTube den Algorithmus angepasst hat. Nun bekommen Nutzerinnen und Nutzer weniger Empfehlungen von grenzwertigem Content, wie zum Beispiel Verschwörungstheorien. Es ist jedoch keinesfalls einfach, die Perspektive von Ethics of Care in so einem Fall einzunehmen. Joan Tronto formuliert dafür fünf Tugenden als Leitfaden:

  1. Aufmerksamkeit: Dass Chaslot dieses moralische Dilemma überhaupt aufgefallen ist, demonstriert seine Aufmerksamkeit. Es ist wichtig, sich zu fragen, was andere Menschen wollen. Was sind ihre Notwendigkeiten? Was sind ihre Bedürfnisse?
  2. Verantwortung: Nachdem das Problem aufgefallen ist, muss man eine zuständige Person finden. Wer kann diese Aufgabe übernehmen? Hier hat Chaslot diesen Auftrag auf sich genommen.
  3. Kompetenz: Nun muss die Person, die Verantwortung übernimmt, auch für diese Aufgabe geeignet sein. Eine Kunsthistorikerin wäre nicht so gut für das KI-Problem geeignet gewesen wie Chaslot.
  4. Reaktionsfähigkeit: Man kann so viel Care anbieten, wie man will, am Ende muss die andere Seite sie auch annehmen. Es ist wichtig, in den Dialog zu gehen und zusammen zu arbeiten. Im Beispiel von YouTube haben Guillaume Chaslot und YouTube gemeinsam ein Konzept für die Anpassung des Algorithmus ausgearbeitet.
  5. Pluralität: Diese Tugend hat Tronto erst im Nachhinein hinzugefügt. Es ist wichtig, dass unterschiedliche Menschen eine kollektive Verantwortung übernehmen.

Die Realität ist, dass wir Menschen nicht ausschließlich autonome Individuen sind. Für unsere Entscheidungen sind nicht nur Fakten oder unsere eigenen Gedanken wichtig. Wir leben auch in einem sehr delikat verwobenen Netz aus Beziehungen, die unsere Meinung beeinflussen und unser Handeln bestimmen. Ethics of Care sind auch nicht immer die ultimative Lösung, aber sie bietet eine Perspektive, die es zu betrachten lohnt. Diese Perspektive ist der ideale Ansatz für weitreichende gesellschaftliche Probleme wie die Klimakrise, den Pflegenotstand oder das zerfallende Rentensystem. Denn sie schaut nicht nur auf die kurzfristig wichtigen Entweder-oder-Fragen, sondern auf die Interaktionen und auf die Zukunft. Diese Perspektive stellt wieder den Menschen ins Zentrum und hört zu, was die Probleme sind. Und versucht dann, sie konstruktiv gemeinsam zu lösen. Auch als Ingenieurinnen und Ingenieure können wir von dieser Perspektive profitieren, denn die Technologien, die wir entwickeln, werden von Menschen genutzt – Menschen mit Beziehungen und einer Zukunft. Sei es eine nachhaltige Produktionslinie, ein für den Menschen geeigneter Arbeitsplatz oder verantwortungsvoller Einsatz von KI. Innovation hat einen enormen Einfluss auf die Gesellschaft und mit Ethics of Care ist die Wirtschaftlichkeit nicht mehr die oberste Priorität. Sondern der Mensch.

Quellen

West, Stephen. (2022, 13. Juli). Episode #168 … Introduction to an Ethics of Care. [Podcast]. In Philosophize this!. https://www.philosophizethis.org/

Roose, Kevin. (2020, 16. April). One: Wonderland. [Podcast]. In Rabbit Hole. https:// www.nytimes.com/2020/04/16/podcasts/rabbit-hole-internet-youtube-virus.html?action=click&module=audio-seriesbar&region=header&pgtype=Article

Algotransparency. (kein Datum). Our manifesto. Abgerufen am 17. Oktober 2022, von https:// www.algotransparency.org/our-manifesto.html

Wikipedia. (2022, 24. September). Ethics of care. Abgerufen am 17. Oktober 2022, von https://en.wikipedia.org/wiki/Ethics_of_care

Tronto, Joan C. (1998). An Ethic of Care. Generations, 22(3), 15-20. ISSN: 0738-7806

0 Kommentare

Einen Kommentar abschicken

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Fachschaft Kompakt (02/2023)

Fachschaft Kompakt (02/2023)

Leitung Liebe Kommiliton*innen, Langsam ist so richtig Sommer und wir hoffen, ihr könnt das warme Wetter trotz der anstehenden Prüfungszeit genießen. Wir haben Anfang Juni einen Wiki-Tag organisiert, an dem wir unser FSMB-Wiki überarbeitet haben. Anfang Juli haben wir...

Prickelnde Logistik bei Coca-Cola

Prickelnde Logistik bei Coca-Cola

Bericht einer Exkursion zum Coca-Cola-Abfüllbetrieb in Fürstenfeldbruck Mitte März 2023 organisierte der Lehrstuhl für Fördertechnik Materialfluss Logistik den 30. Deutschen Materialfluss-Kongress (MFK) am Campus Garching. Im Rahmen des Young Engineer Program des MFK...

Newsletter!

3 x im Semester schicken wir euch ein Update über die neuesten Artikel und einen Ausblick auf die kommenden! Meldet euch für den Newsletter an, um keine Reisswolfausgabe zu verpassen!