Technopolitische Fehleinschätzungen verhindern!

Über den militärischen Wahsinn sprechen lernen:

Wie Louise Amoore hinsichtlich der Funktionsweise des SKYNET-Algorithmus, spricht auch Joseph Weizenbaum von einem nahezu logischem Wahnsinn. Wobei Weizenbaum von innen heraus spricht, im Gegensatz zu Amoore.

Joseph Weizenbaum und das MIT

Der Informatiker Joseph Weizenbaum (1923-2008) zählt mit zu den bekanntesten Kritikern der Computertechnik. Er arbeitete ab Mitte der Sechziger am Massachusetts Institute of Technology (MIT). Zunächst als Associate Professor, später dann als Professor für Computerwissenschaften. Während seiner gesamten Zeit am MIT, verweigerte Weizenbaum die Mitarbeit an der Entwicklung von Waffen und Waffensystemen, u.a. an der Seite von Noam Chomsky. Der Linguist, Anarchist und eine führende Stimme der Intellektuellen im Widerstand gegen den Vietnamkrieg war ebenfalls zu dieser Zeit Professor am MIT.

Weizenbaums kritische Theorie kann in der Chomsky’schen Tradition verortet werden, aber auch in der Tradition von Technik- und Gesellschaftskritikern wie Ivan Illich und Robert Jungk. Er war u.a. Mitbegründer der Computer Professionals for Social Responsibility (CPSR) in den USA und des Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF) in Deutschland.

Seine Friedensarbeit, insbesondere die innerhalb der Mauern des MIT, stellte wohl eine der größten Herausforderungen seines Lebens dar. Erstens, so sagte Weizenbaum in einem Vortrag bei den Kurzfilmtagen in Oberhausen (nachzulesen in »Computermacht und Gesellschaft«), weil das MIT “vielleicht die Technische Spitzen-Universität in Amerika” ist. Sie ist “sehr eng mit dem amerikanischen Militär, mit dem Pentagon verbunden. Ganz besonders die Computerabteilung”. Gemeint ist damit die Forschung an Computer Vision und Künstliche-Intelligenz-Forschung. Zweitens aber auch, weil Weizenbaum von der Institution selbst auch als “Feigenblatt” benutzt wurde. Häufig wenn dem MIT von der Öffentlichkeit blinde Technologiegläubigkeit vorgeworfen wird, oder fehlende kritische Stimmen innerhalb ihrer Mauern, wurde auf ihn verwiesen wird und gesagt: Hier, “Professor Weizenbaum, der denkt an solche Sachen und schreibt darüber”. Heute sind es u.a. die Abteilungen für Ethik die spätestens seid 2016 an den großen IT-Konzernen (z.B. Google Ethical AI Group spätestens forciert in der Öffentlichkeit seid dem oben aufgeführten Project Maven), die Rolle des “Feigenblatts” übernehmen. Wie schwer es ist, wirklich kritisch dem eigenem Arbeitgeber, in diesem ganz speziellen Bereich der technologischen Entwicklung kritisch entgegen zu treten, zeigte in diesem Jahr die Causa der Informatikerin und ehemaligen Co-Leiterin des Google Ethical AI Intelligence Teams Timnit Gebru.

“Alles Denken fängt mit der Alltagssprache an und entfernt sich von ihr” (H. Arendt)

Und dennoch dürfen solch kleine Erfolge aus der wissenschaftlichen Elite, zwar kritisch betrachtet, müssen jedoch zugleich auch als Lehrbeispiele angesehen werden, und uns zur Vernetzung ermuntern. Zum Schaffen von Dialogen zwischen politisch Aktiven, Kulturschaffenden und den jeweiligen Forschungsgemeinden. Die Google-Mitarbeiteri*innen haben sich Gewissensfragen gestellt und wichtige Erfolge für die Friedensarbeit erzielt.

Es ist wichtig zu erkennen, dass unsere geistigen Gewohnheiten, untrennbar sind von der von uns errichteten Ding-Welt. Und dass unsere soziotechnischen Systeme, durch welche wir menschlichem Leben ein zu Hause schenken, untrennbar sind von den derzeit eingesetzten Kriegstechnologien.

Technologien, die uns einerseits helfen zu organisieren und uns zu vernetzen, auf der anderen Seite jedoch Funktionen prozessieren, die die Pluralität von Menschen in einer Art und Weise auseinander schneiden, durch die sie nicht mehr als solches zusammenzusetzt werden kann. Eine Rückführung des Abstrahierten in unsere Lebenswelt, geschieht stets nach vorgegebenen Kriterien. Kriterien welche im Code verankert sind, und welche unseren jeweiligen Wirk- und Handlungsraum mitbestimmen, ja, in gewissen Teilen auch generieren.

Es gilt also, in erster Linie unser Handeln nicht ihren Gesetzmäßigkeiten zu unterwerfen und uns Wege zu ebnen, auf denen wir gemeinschaftlich Wirklichkeiten gestaltet können.

Politische Handlungen im Technischen, entsprangen in diesem Jahrtausend meist aus anarchischen Momenten heraus. Mutige Journalist*innen, Arbeitnehmer*innen und spontane Arbeiterbewegungen, stellen sich die Gewissensfrage und zwingen IT-Giganten in die Knie. Hackervereinigungen entfalten politische Sprengkraft in noch nie da gewesenem Maße, und Graswurzelbewegungen offenbaren in (Kultur-)Techniken eingeschriebene Machtverhältnisse.

Das Cyber Valley im Neckarthal

Insbesondere Fusionen und Forschungskooperationen wie beispielsweise die Cyber Valley, das sich seid 2016 im Neckathal formiert, machen es uns schwer die Grenze zwischen Grundlagenforschung und militärischer Anwendung einer öffentlichen kritischen Betrachtung zu unterziehen. Insbesondere in der Künstliche-Intelligenz-Forschung lautet der derzeitige Tenor: “Möglichst schnell von der Grundlagenforschung zur marktfähigen Anwendung“. Schon seit einigen Jahren lässt die Bundesregierung hierfür mit dem Label »AI made in Germany«, KI-Kompetenzzentren bauen. Das Cyber Valley wurde ohne jede öffentliche Diskussion von der Max-Planck-Gesellschaft, der Landesregierung Baden-Württemberg, der Industrie (darunter Amazon, BMW, Daimler, IAV, Porsche, die Robert Bosch GmbH und ZF Friedrichshafen) und den Universitäten Stuttgart und Tübingen als die derzeit größte KI-Forschungskooperation Europas erbaut. Das Cyber Valley wird auch durch das Land Baden-Württemberg gefördert. Zahlreiche neue Forschungsgruppen und Universitätslehrstühle wurden und werden weiterhin hierfür ausgeschrieben.

Ist die Optimierung von Flugsimulatoren Grundlagenforschung?

Es waren vor allem etablierte lokale Friedensbewegungen, wie die bereits oben erwähnte Informationsstelle Militarisierung e.V. (IMI), und das sich schnell formierende Bündnis gegen das Cyber Valley, die sehr früh auf den möglichen militärischen Nutzen der Forschung in Cyber Valley aufmerksam machten. Was zu Beginn, Seitens Vertreter des Forschungsverbundes noch vehement bestritten wurde (trotz einer Ansiedlung von ZF Friedrichshafen, einem Mitglied der deutschen “Gesellschaft für Wehrtechnik” und dem Lobbyverband “Bundesverband der deutschen Sicherheits- und Verteidigungsindustrie”), verhärtete und bestätigte sich dieser Fakt, und wurde dank der unermüdlichen Aufklärungs- und Friedensarbeit publik gemacht. Amazon stand schon früh u.a. auch im Bezug auf ihre sicherheitstechnologische Entwicklung und Vermarktung in der Kritik der Öffentlichkeit, siehe IMI Analyse 2019/16, »Künstliche Intelligenz als Cloud Service«.

Weitere Veröffentlichungen folgten:

Ansiedlung großer Tech-Konzerne in den Universitäten

Des weiteren wächst deutschlandweit die Anzahl von Instituten an öffentlichen Institutionen, die von großen Tech-Unternehmen finanziert und teils sogar (mit-)begründet werden. Das FB-Forschungsinstitut für Ethik in der Künstlichen Intelligenz an der TU München oder das Humboldt-Institut für Internet und Gesellschaft (HIIG) in Berlin, sind zwei bedeutende Beispiele, die zwar einerseits kulturelle, politische und soziale Konsequenzen dieser jeweiligen Technologien, erörtern und auch kompetent ausarbeiten, andererseits aber auch Rollen des “Feigenblatts” übernehmen, und, wenn auch durch die Hintertür, gezwungen sind, ihre Konzernkritik gegenüber der Öffentlichkeit in Grenzen zu halten. Shoshana Zuboff nannte dies im speziellen Fall des HIIG, welches von Google seit seiner Gründung 2012 bereits 13,8 Millionen Euro erhielt “Whitewashing-Bemühungen, um uns zu verwirren”.

Saubere Kriege durch Bildtechnologien aus der öffentlichen Forschung

Sie selbst ist emeritierte Professorin für Betriebswirtschaftslehre an der Harvard Business School in Cambridge, Massachusetts. Sie lehrte genau wie Weizenbaum an einer Elite-Uni, die wie keine andere Forschungsgelder vom Pentagon in Anspruch nahm. Am MIT waren es im Jahr 2013 über eine Milliarde Dollar vom US-Verteidigungsministerium, u.a. zur Forschung an Raketenabwehrsystemen, Cybersicherheit, Sensorik, KI und Überwachungstechnologien, sowie auch die Drohnenforschung. Das MIT ist eine Forschungsuniversität, in der stetig an neuen “»Sehmaschinen« gearbeitet wird, damit computergesteuerte Geräte, Roboter und Cruise Missiles, noch besser sehen, noch besser treffen können, als sie es heute schon können”. Gerade aus diesem Grund, war er sich mehr als die meisten anderen darüber bewusst, dass immer dann, wenn “wir auf dem Gebiet Bilderkennung/KI überhaupt Erfolg haben sollten, dann wird das zur »Verbesserung« einer Waffe führen”. Und das ist “Wahnsinn” sagte Weizenbaum und appellierte an Kolleginnen und Kollegen aus der Wissenschaft, insbesondere jenen in der Grundlagenforschung der neuen Technologien. Ein „militärischer Wahnsinn“, so Weizenbaum.

Er beschrieb 1991 in seinem bereits oben geannten und gleichnamigen Vortrag »Gegen den militärischen Wahnsinn«, wie am Medialab des MIT, Bildtechnologien erforscht und entwickelt wurden, die militärischen Computern und autonomen Robotics im Golfkrieg das »Sehen« beibrachten. Dass der moderne Krieg ohne die “Arbeit der Wissenschaftler, daß ohne unsere sogar begeisterte Mitarbeit an solchen Dingen der moderne Krieg überhaupt nicht möglich sein würde”. Die Präzision der Waffen, die durch diese Technologien erreicht wurde. Wie Raketen in den Neunzigern auf ein Wasserwerk in Baghdad steuerten “und wie sie da ganz genau trifft. Sie trifft ganz genau eine ganz bestimmte Tür. (…) Das ist ganz anders als sonst, wenn B52-Maschinen Tausende von Bomben werfen”.

George Bush bezeichnete, rückblickend auf vorherige Kriege, den Golfkrieg, wofür u.a. das MIT diese teils intelligenten Präzisionswaffen entwickelt hat, als “den sauberen Krieg”, gleich Präsident Barack Obama die Art der Kriegsführung in Afghanistan.

Der Dual Use Wahnsinn

Es ist ein Wahnsinn, zu glauben, dass der technologische Vorsprung westlicher Staaten keinen Einfluss auf die Autonomisierung der Technologien westlicher Streitkräfte übt. Und es ist einfach ein Wahnsinn, dass DUAL USE schleichend ein nicht wegzudenkender Teil unserer Wirklichkeit geworden ist. Ein Teil den es uns so unsagbar schwer fällt zu denken. Ein Teil unserer Wirklichkeit, den es uns so unsagbar schwer fällt zu sehen, insbesondere im Sinne von intellegere, von ‘einsehen’ von ‘erkennen’. Zu sehen ohne Sehmaschinen, unsere Denkwerkzeuge und maschinellen kognitiven Systemen.

Stop Killer Robots!

Ein generelles Verbot KI-gestützter autonomer Waffen ist noch lange nicht in Sicht. Im Gegenteil.

Zuletzt im Januar sprach sich ein von der US-Regierung eingesetztes Gremium, dem National Security Commission on Artificial Intelligence, das erschreckender Weise vom ehemaligen Google-CEO Eric Schmidt geleitet wird, dagegen aus, wie aus dem Entwurf eines Berichts hervorgeht. Über 30 Länder haben einer Ächtung von autonomen Waffensystemen zugestimmt. Deutschland gehört nicht dazu. Es sind in erster Linie Friedensbündnisse und Nichtregierungsorganisationen wie the Campaign to Stop Killer Robots, die sich seit fast einem Jahrzehnt für ein solches Verbot einsetzen.

Generell hat sich im technopolitischen Tenor, die Tendenz hin zu mehr militärischen Einsätzen und Aufklärung verstärkt. Auch bei den politischen Verantwortungsträgern.

CSU-Chef Markus Söder z.B. zog aus 20 Jahren Afghanistan-Einsatz der Bundeswehr folgende Bilanz: “Der Glaube, nur mit Ausbildung und Sanitätsdienst an internationalen Einsätzen teilzunehmen, hat sich als sicherheitspolitischer Trugschluss erwiesen”, sagte er der »Bild am Sonntag«. “Wir brauchen endlich “auch neue Waffensysteme wie zum Beispiel bewaffnete Drohnen”.

Auch die Grünen haben sich in ihrem Wahlprogramm zur Bundestagswahl im September darauf festgelegt, die Beschaffung von bewaffneten Drohnen für die Bundeswehr grundsätzlich zu ermöglichen. In eigenen Reihen sind sie demgegenüber sehr zwiegespalten, genau wie die SPD. Die Linke lehnt die Drohnenbewaffnung ab. In der Broschüre »Stoppt den Drohnenkrieg!« heißt es: “Bewaffnete Drohnen dienen nicht dazu, Leben zu retten, sondern zu töten“.

Das Verhältnis des Bundesministerium der Verteidigung zu bewaffneten Drohnen (UCAV)

Als der ehemalige Verteidigungsminister Thomas de Maizière 2013 im Bundestag erklärte: Wir können nicht sagen wir bleiben bei der Postkutsche, wenn alle anderen die Eisenbahn entwickeln, wurden Kampfdrohnen für Fortschritt und Wettbewerb moralisiert. De Maiziéres Fazit lautete damals: Kampfdrohnen sind moralisch

Seine Nachfolgerin Ursula von der Leyen, heutige Präsidentin der Europäischen Union, formulierte diese Zielsetzung bei einem Truppenbesuch im nordafghanischen Mazar-i-Scharif etwas anders, sie sagte zu ihren Soldaten: Das wichtigste ist der Mensch und nicht die Frage der Materialkosten, diese müßten zum eigenen Schutze und zum Schutz der Bevölkerung mit “modernstem Material” ausgestattet sein.

Damals setzte die Bundeswehr schon seit drei Jahren nicht-bewaffnungsfähige Heron 1-Drohnen in Afghanistan ein. 2018 leaste die Bundeswehr bewaffnungsfähige Heron TP-Drohnen. Die Regierungskoalition wollte deren Bewaffnung im letzten Jahr vom Bundestag beschließen lassen. Glücklicherweise konnte diese vorerst gestoppt werden.

Doch die derzeitige Bundesverteidigungsministerin Annegret Kramp-Karrenbauer (CDU) folgt ihren Vorgängern und versucht schon seid Beginn ihrer Amtszeit konkret zu werden. So twitterte AKK zum SPD Kanzlerkandidaten Olaf Scholz am 5. Sptember: “Es geht jetzt nicht um die #Eurodrohne, es geht um die sofort verfügbare und bewaffnete #HeronTP. Vertrag und Haushaltsvorlage sind fertig und liegen seit Monaten auf Ihrem Schreibtisch.” Als Zusatz fügte sie hinzu: “Wenn Sie die Unterlagen nicht mehr finden, schicke ich Sie Ihnen am Montag nochmal zu. Dann können Sie entscheiden und beweisen, was für Sie mehr zählt: Der Schutz unserer Soldatinnen & Soldaten oder weltfremde Ideologen in Ihrer Partei.”.

dall, dirty & dangerous

Viele Politiker berufen sich in ihren Forderungen und Einsatz für die Anschaffung von bewaffneten Drohnen (UCAV) auf perspektivisch betrachtete Erfahrungswerte: ‘99 Krieg gegen Serbien, ein reiner Luftkrieg in dem kein einziger Nato-Soldat fiel. Libyenkrieg, 60.000 Opfer, jedoch kein einziges auf Nato-Seite. In Großbritannien und den US haben in den letzten mehr Soldat*innen Selbstmord begangen, als solche die im Krieg fielen.

Drohnen dienten, und dienen weiterhin vornehmlich dem Einsatz sogenannter 3-D Missionen: dall, dirty & dangerous. An den Anfängen der Entwicklung ferngesteuerter Kampfmaschinen, sogenannter “telechirischer Maschinen” entstand folgende Utopie: “Warum sollten sich Männer im zwanzigsten Jahrhundert weiterhin von Kugeln und Granatsplittern zerreißen lassen, wo es doch ein telechirischer Soldat genauso gut an ihrer Stelle tun könnte?[…] Alle konventionellen Kriege könnte man telechirisch führen, durch Armeen von Militärrobotern, die sich in ferngelenkten Schlachten gegenüberstünden. Vollkommen neutrale Computer würden Siege und Niederlagen berechnen und durch ihren Schiedsspruch entscheiden, während die Menschen ruhig zuhause blieben, um in ihren Fernsehgeräten anstelle des eigenen Blutes Maschinenöl in den Staub spritzen zu sehen*”.

Für politische Entscheidungsträger bedeuten eigene Verluste, im Sinne von “gefallenen Soldaten” immer die Gefahr, dass die öffentliche Meinung hinsichtlich eines jeweiligen Militäreinsatzes kippen kann. Besonders dann, wenn die Militäreinsätze innenpolitisch umstritten sind, und beispielsweise klare Fortschritte auf dem Weg hin zu einem vorher definierten Missionsziel nicht erkennbar, oder verloren gehen, die eigenen Soldat*innen also “umsonst” ums Leben zu kommen scheinen.

Und insbesondere in solchen Situationen und vor dem Hintergrund des derzeitigen Bundeswehreinsatzes in Mali und des Ausgangs der Bundestagswahl, ist es für uns als Zivilgesellschaft um so wichtiger klare Fragestellungen zum Afghanistaneinsatz gemeinschaftlich auszuformulieren. Präzise Aussagen und Entscheidungen zu treffen, selbst wenn man meist nur spekulatives Ausgangsmaterial in den Händen hält.

Sich positionieren zum Krieg.