Programmierer gegen den Terrorstaat – wie Moral die Software bestimmt

This TED-Talk features geopolitical Technologist Yasmin Green recorded live at TED 2018“, kündigt die angenehme Frauenstimme an, die ich mir die nächsten 20 Minuten anhören werde. Mit Kopfhörern in den Ohren sitze ich im Bus und sehe der Landschaft zu, wie sie an mir vorbei rauscht. Ich bin fasziniert von dem, was Yasmin Green erzählt und höre aufmerksam zu. Sie ist director of research and development beim Technologie-Gründerzentrum Jigsaw, eine Ausgründung von Google. Jigsaw befasst sich mit der globalen Sicherheit und hat sich unter anderem zum Ziel gesetzt, innerhalb eines Jahrzehnts weltweite Onlinezensur zu beenden. Yasmin Green redet von einem ganz speziellen Projekt von Jigsaw: The Redirect Method. Mit dieser Methode haben sie ISIS den Kampf angesagt.

Eine Handvoll Programmierer gegen einen Terrorstaat?

ISIS ist nicht nur im Nahen Osten allgegenwärtig, auch im Netz stellen sie eine unglaublich große Menge an Informationen und Propaganda zur Verfügung. Es gibt Blogs, Videokanäle, Broschüren, Chatrooms – alles, was man sich vorstellen kann. Und das auch auf Sprachen wie Deutsch, Französisch, Spanisch und sogar Zeichensprache. ISIS macht sich sogar die Mühe, taube Menschen zu erreichen! Sie würden ihr Angebot nicht auf so vielfältige Art und Weise anbieten, wenn sie nicht wüssten, dass es ein Publikum dafür gibt. Die erste Berührung mit der Terrororganisation haben die meisten Angeworbenen über das Internet. Selbst, wenn man diese Leute am Flughafen abfängt und ihnen vor Augen führt, was sie bei ihrem Ausstieg erwartet, wird es sie nicht abhalten zu gehen. Zu diesem Zeitpunkt sind sie so gebrainwashed, dass sie nicht mehr überzeugt werden können. Wenn man verhindern will, dass Menschen der westlichen Welt sich auf den Weg in den Nahen Osten machen, um Teil einer Terrorgruppe zu werden, muss man früher ansetzten. Früh genug.

um Teil einer Terrorgruppe zu werden, muss man früher ansetzten. Früh genug.

Die Redirect Method hat Menschen mit anfänglichem Interesse zum Ziel. Wenn jemand den Suchbegriff „Wie werde ich Mitglied von ISIS“ oder ähnliches eingibt, wird das von den Google-Algorithmen sofort erkannt. Und an der Stelle des ersten Suchergebnisses, an der Google normalerweise Anzeigen schaltet, werden nun Videos gezeigt, die die Brutalität und den Schrecken der ISIS darstellen. Es sind Videos von Kämpfen, von Flüchtlingen, von Mord und Raub. Die Videos zeigen die andere, nicht von Versprechungen verklärte Seite. Die Videos sind nicht extra dafür entstanden. Sie waren alle schon im Netz vorhanden und wurden für das Projekt zusammengesucht. Die Methode benutzt gängige Werbealgorithmen, um die gefährdeten Personen zu erkennen und eine entsprechende Gegenanzeige zu schalten. Jigsaw gibt an, innerhalb der acht Wochen der Pilotprojektphase 320 906 Menschen erreicht zu haben, die insgesamt 500 070 Minuten Videos geschaut haben. Man kann nicht sagen, wie viele davon aufgrund dieser Videos von ihrer Entscheidung abgerückt sind, aber selbst wenn es nur eine einzige Person war, hat es sich meiner Meinung nach schon gelohnt.

Dieses Projekt hat mich einige Zeit beschäftigt. Ich habe darüber nachgedacht und war eigentlich der Meinung, dass es eine sinnvolle Möglichkeit ist, Menschen zu helfen und vor Extremismus zu schützen. Aber irgendwas schien mich zu stören und ich wusste nicht genau was. Bis ich über die Moral des Projekts nachdachte. Für mich waren die Ziele und auch das Vorgehen von Yasmin Green und ihren Mitarbeitern moralisch richtig, mich störte etwas anderes. Mich störte, dass sie sich das Recht gegeben haben, über richtig und falsch zu urteilen. Wie Apostel hatten sie sich über den normalsterblichen Googlenutzer gestellt und diktierten mit den Versen ihrer Algorithmen die Moral unserer Zeit. Darf ein Unternehmen das einfach so?

Mich störte, dass sie sich das Recht gegeben haben, über richtig und falsch zu urteilen.

Ich bin nicht die erste, die sich das fragt und mittlerweile gibt es sogar den Studiengang Sozioinformatik, der sich unter anderem mit diesem Thema beschäftigt. Software macht uns das Leben einfacher und das, indem sie uns Entscheidungen abnimmt. Bei einigen Entscheidungen reicht ein einfacher Flowchart, um das richtige Vorgehen der Software zu bestimmen. Bei manchen Dingen aber braucht die Software einen moralischen Hintergrund, um ihre Entscheidungen richtig treffen zu können und diesen liefern die Menschen hinter der Software. Und vielleicht sind das Menschen, die Bildung für wichtig halten, sich für Umweltschutz einsetzen und jeden Samstag im Altersheim helfen. Vielleicht sind es Menschen mit westlicher Ausbildung und Wertvorstellungen, die wir vertreten können. Aber vielleicht sind es Menschen, die ihren Profit vor allem anderen sehen und in diesem Fall würde die Software ganz anders aussehen.

Wir vergessen, dass Google ein privates Unternehmen ist und alle Mitarbeiter in ihrer Arbeit die Interessen von Google vertreten. Jedes mal, wenn wir einen Suchbegriff in die Zeile mit der Lupe eingeben, erwarten wir eine objektive Sammlung von Ergebnissen. Aber ist sie wirklich objektiv? In einem gewissen Rahmen ja, aber in einigen Aspekten nicht. Zum Beispiel, dass die ersten Ergebnisse Anzeigen sind, zeigt, dass Google die Suchergebnisse priorisiert und das nach Geld. Aus sicht der Profitorganisation absolut verständlich. „Es ist unser Ziel, gleiche Chancen für alle zu schaffen“, wirbt Google und vertritt damit Werte, die für uns alle als erstrebenswert gelten. Nur welche Interessen stecken dahinter? Im Fall von Yasmin Green und ihrem Team sind es Interessen, die der Gesellschaft guttun. Sie helfen Menschen und geben ihnen eine moralische Stütze, die sie brauchen und nach der sie suchen. Im Grunde genau wie Lehrer, Polizisten oder Richter nehmen sie uns an die Hand und zeigen uns den Weg.

Wir können die Zukunft gestalten!

Der Unterschied liegt aber in der Legitimation. Während Lehrer, Polizisten und Richter von einem demokratischen Staat ernannt werden und dessen verfassungsrechtlich festgelegt und transparente Werte vertreten, stützt sich die Redirect Method auf die Werte von Jigsaw und damit Google. Und nun stellt sich die Frage, ob wir damit leben können, dass ein Unternehmen hinter der Moral einer Software steckt. Offensichtlich können wir das. Denn Google hat so viele Nutzer wie sonst keine andere Suchmaschine. Wir akzeptieren ihre Werte, weil sie größtenteils unsere Werte abbildet. Wir können ja gar nicht anders, als sie zu akzeptieren, oder nicht? Wir können sehr wohl anders! Vielleicht nicht heute oder morgen, aber wenn wir als Ingenieure in einem Unternehmen arbeiten, dann können wir anders. Dann können wir unsere Moral und unsere Werte in das einfließen lassen, was wir tun. Wir können aus dem Dieselskandal lernen und anstatt die Verantwortung von einem zum anderen zu reichen, den Umweltschutz als wichtigen Leitfaden ernst nehmen. Wir können Firmen gründen, Produkte entwickeln und darin unsere Werte verwirklichen. Wir können die Zukunft gestalten!

Aus 05/18 von Elene Mamaladze

Autor

0 Kommentare

Völlig losgelöst

Völlig losgelöst

Messebesuch auf der Internationalen Luft- und Raumfahrtausstellung ILA 2024 in Berlin Die diesjährige ILA steht ganz im Zeichen der Zeit: Ein großer Teil der Aussteller ist aus der Rüstungsindustrie. Noch vor dem Einlass bekommt man gleicheine Ausgabe des Military...

Ein Gespräch mit Ulrich Walter

Ein Gespräch mit Ulrich Walter

über Wissenschaft, Raumfahrtund die Kunst der Vermittlung Prof. Dr. Ulrich Walter (* 9. Februar 1954 in Iserlohn) ist ein deutscher Physiker und ehemaliger Wissenschaftsastronaut. Bis zu seinem Ruhestand im März 2023 lehrte er an der Professur für Raumfahrttechnik an...

Space Debris

Space Debris

Against common intuition, space isn’t empty; it’s packed with junk. But what threats does space junk pose? What is the current situation? And what can be done in response to possible threats? All man-made objects placed into the Earth orbit that serve no function are...

[mailpoet_form id="1"]