Technische Blicke von oben

Den Vorhersagen über die Zukunft liegt die Kenntnis der Vergangenheit zu Grunde”, so beginnt Gregoire Chamayou in seinem bereits oben erwähnten Buch »Ferngesteuerte Gewalt - Eine Theorie der Drohne«, sich dem Prinzip der automatischen Erkennung abnormer Verhaltensweisen anzunähern. “Die Lebensarchive”, welche in erster Linie darauf beruhen, bestimmte Lebensmuster verstehen zu lernen (siehe SKYNET), so Chamayou weiter, “bilden die Grundlage für den Anspruch, durch die Identifizierung von Regelmäßigkeiten und die Vorwegnahme von Wiederholungen, sowohl die Zukunft vorherzusagen, als auch ihren Verlauf durch vorbeugendes Eingreifen modifizieren zu können.

In den nachfolgenden Kapiteln Autonomous wide area surveillance weapons und Autonomous machine gun learning wird sich die Konzentration in diesem Vorgang auf, durch Korrelation entstehende Abnormitäten richten. Wobei in erster Linie die Grundlage meist Datenbanken terroristischer Netzwerke oder Einzelpersonen bildeten. Analytische Tools wie z.B. die soziale Netzwerkanalyse erstellen Bewegungsprofile und SIGINT’s zur Überwachung und Identifikation. Sie lesen Mobilfunktelefonnummern, GPS-Daten und weitere Daten aus, um mit Hilfe von statistischen Modellen oder Machine Learning Lebensmuster und zukünftige Verhaltensweisen zu errechnen.

Solch Muster errechnen zu wollen, bedeutet immer erst einmal, sie als “technische Handlungen” zu begreifen, wie wir sehen werden. Also die durch Technologie beobachtbar gemachten Handlungen als solche Handlungen zu verstehen, die auf Wiederholbarkeit unter wechselnden Bedingungen beruhen. Meist völlig losgelöst vom konkreten Gegenstand.

Eine technische (Kriegs-)Handlung durchzuführen bedeutet in diesem Sinne, “die Bedingungen des Gelingens” einer jeweiligen Handlung “mit Hilfe von Begriffen, Regeln und Kategorien zu abstrahieren und präzise zu fassen”, was den Kern einer jeglichen “symbolischen Repräsentation” darstellt, so Georg Trogemann in seinem Essay »Der Blick der Drohne«.

In diesem Kapitel werden wir uns daher zuerst den “Technischen Bildern” und den “Sehmaschinen”, sprich ihren Apparaten widmen.

Die Formalisierung von Handlungsvorgängen in digitalen Bildgebungsverfahren

Die hervorstechenste Täuschung unseres Denkens besteht laut dem Philosophen Henri Bergson, “in dem Glauben, das Unstarre lasse sich mit Hilfe von Starren, das Bewegte durch Unbewegtes denken”. (siehe: »L’Evolution créatrice«, 1907)

Technische Bilder sind immer von Apparaten erzeugte Bilder. Von Apparaten, die immer natürliche Zeit durch räumlich distanzierte Wahrnehmung abstrahieren. Technischen Bildern steht somit stets eine abstrakte Zeit eingeschrieben. Eine Zeit, welche während ihrer Rezeption sowie ihrer Produktion, durch das Zerschneiden von Bewegung und ihrer darauf folgenden Simulation, in den jeweiligen Betrachter übergeht. Diese Abstraktion von Bewegung ist der einzige Weg für Maschinen zu sehen. Sie ist auch der einzige Weg für Menschen, durch diese sehen zu können.

Diese abstrakte Zeit also, sie manifestiert sich in unseren Handlungsräumen, durch unser Handeln in Welt. Dies geschieht durch einen Fragmentierungsprozess, in dem die Dauer, im Sinne von Henri Bergsons “la durée”, in Teilkomponenten auseinander geschnitten wird, um sie danach wieder als ein Bild zusammenzusetzen. Dieses Bild wird fortan nach vorgegebenen Kriterien, welche im Code verankert sind, Bewegung generieren. Somit wird also das technische Bild von Handlungen und Personen, so interpretiert, damit es ihrem jewiligen Mittel zum Zweck entspricht: eine maschinelle Vorinterpretation findet statt. Eine Vorinterpretation des kryptischen, der künstlichen Sprache. Eine für Maschinen lesbare Sprache. Machine readable.

Das geistige Auge von Bürgerinnen und Bürger maschinendominierter Zivilisationen wurde in den letzten 4 Jahrhunderten geschult einen Unterschied zwischen Erfahrung und ihrer abstrahierten Form zu verstehen. Wir haben gelernt, wie wir Erkenntniswerte aus diesen schöpfen. Die Lehrmethoden des Sehens durch Apparate, den Ursprüngen technischer Bildgebung und ihrer kontextspezifischen Erlangung von, oder aber auch einer Einbettung von Bedeutung in diese Bilder.

Diese Apparate, sie sind uns sozusagen verinnerlicht. Die Erkenntnisse die wir durch diese erlangen, sie sind so stark verankert in unserem Alltag, dass unser Denken, unser Sehen, unser Zuhören, unsere Kommunikation, unsere Dialoge, unsere Argumente und Gegenaurgumente, unsere Reaktionen und unsere Aktionen, sich innerhalb eines Handlungsfeldes der technischen Bilder bewegt.

Digitale Bildgebungsverfahren folgen laut Terry Winograd und Fernando Flores in ihrem Buch »Understanding computers and cognition: a new foundation of design«, einer “rationalistischen Tradition”.

Einer Tradition die im engen Zusammenhang mit dem organisierten Wissenschaftsbetrieb steht, einem Betrieb in dem stets die “Einhaltung der -wissenschaftlichen Methode- bis zu einem gewissen Grad gewährleistet sein muß” (Ebd.).

“Einer Methode in der Wissenschaftler Regelmäßigkeiten (einige bei der Beobachtung wiederkehrende Muster) bei einem bestimmten Phänomen notieren um daraufhin ein begriffliches oder konkretes System vorzuschlagen, welches in Übereinstimmung mit den Beobachtungen gebracht werden kann und Veränderungen auf der Modellebene zuläßt. Daraufhin werden Voraussagen über andere mögliche Beobachtungen getroffen.”. So erläuterte der chilenische Neurobiologe und Philosoph Humberto Maturana, 1982 die Wissenschaftliche Methode in »Erkennen: Die Organisation und Verkörperung von Wirklichkeit. Ausgewählte Arbeiten zur biologischen Epistemologie«.

Albrecht Dürer hielt die Grundlage hierfür, die “rationalistische Tradition” im Jahre 1525 mit seiner Anleitung zur linearperspektivischen Betrachtung von Welt, in anderen Worten, einer Gebrauchsanleitung zur fragmentierten Betrachtung von Welt, erstmals fest. In seiner »Underweysung der Messung, mit dem Zirckel und Richtscheyt, in Linien, Ebenen unnd gantzen corporen« beschrieb er detailliert, wie er mit Hilfe eines Apparates die Welt in ein Raster setzen könne. Eine Technik der Fragmentierung, der Rasterung, bzw. des „Scannings“ 2 (diskrete Punkte / Zeilen / Spalten) wie es Peter Weibel einige Jahrhunderte später in seinem Essay »Neurocinema. Zum Wandel der Wahrnehmung im technischen Zeitalter« bezeichnete.

Dürer fragmentierte hierdurch also nicht ausschließlich Landschaften oder den Akt einer Frau mit Blick durch den “Teiler”, den von Dürer konstruierten Apparat zur linearperspektivischen Betrachtung von Welt. Er erstellte, folgend dieser „rationalistischen Tradition“ eine Formalisierung von Wahrnehmung und somit auch, eine Formalisierung von Handlungsvorgängen, die sich im Design unserer epistemologischen Werkzeuge und kognitiven Systemen manifestiert.

Werkzeuge, die ihre gesellschaftliche Funktion, in der Regel erst im Nicht-Funktionieren offenbaren. Systeme die durch technische Fehler in Erscheinung treten: Disruptive Technologien.

human in the loop

Mehrere Fälle vom Einsatz fehlerhafter und unausgereifter Überwachungssysteme in Kampf- und Aufklärungsdrohnen, gerieten in den 2010er Jahren an die Öffentlichkeit. Systeme, die aus Kosten und Zeitgründen in militärischen Operationen eingesetzt wurden und auf diese Weise bewusst zivile Opfer in Kauf genommen haben. Ein Bewusstsein für diese technischen Fehler (glitches) lag jedoch lediglich auf Seiten der jeweiligen Entscheidungsträger, nicht auf der eines drone- bzw. eines sensor operators. Diese waren es jedoch, die ganz konkret die jeweiligen technischen Handlungen vollzogen. Soldatinnen und Soldaten, die als human in the loop fungieren mußten, um in Folge dessen als Fehlerquelle Mensch bezeichnet zu werden.

wide area surveillance systems

Die militärischen Einsatzzwecke von Kamera- und Überwachungssystemen, wurden um die Jahrtausendwende definiert, als in Bagdad fast täglich Zivilisten und US-amerikanische Soldaten durch Packetbomben und Sprengfallen (IED, improvised explosive device) ums Leben kamen.

Man benötigte eine Überwachung vom Luftraum aus, um dieses Problem zu lösen, so zumindest der Ansatz von Donald Rumsfeld, dem damaligen US-amerikanischen Verteidigungsminister. 2001 rief er hierzu das Pentagon zu einer Beratung ein. Im Fokus stand die Suche nach Technologien, die den Gebrauch von Standbildern aus Überwachungsflugzeugen und Satellitenbildern ablösten und zu Bewegtbildern überzugehen. Seine Vision waren Großraum-Bewegtbilder (wide area surveillance), um ein gesamtes Schlachtfeld oder eine Stadt im Ganzen, sowie auch en détail zu observieren. Hierfür benötigte es natürlich nicht nur neue Kamerasysteme sondern auch neue Flugobjekte. Sie mussten für 24 Stunden in der Luft sein können, ohne den Piloten wechseln zu müssen.

RQ-1 Predator

Im Fokus stand die RQ-1 Predator, in erster Linie weil dies die einzige Mehrzweckdrohne der US-Luftwaffe war, die bereits seid Jahren im Einsatz ist.

Diese Drohne kann als ein frühes Beispiel disruptiver Kriegstechnologie angesehen werden. Die schon in den 1990er Jahren entwickelte Drohne, brauchte von ihrer Konzipierung bis hin zur Einsatzfähigkeit lediglich 30 Monate. Verglichen mit den damaligen Standards militärischer Beschaffung war das extrem schnell. Die RQ-1 Predator war sicherlich die Drohne die gerade zu Beginn des Afghanistan-Einsatzes am massivsten, vor allem zum Zweck der gezielten Tötung von Menschen, eingesetzt wurde. Bei ihrem Einsatz traten jedoch auch zahlreiche technische Fehler in Erscheinung. Von den etwa 60 eingesetzten RQ-1-Drohnen gingen 20 verloren, wobei vermutlich keine feindlichem Feuer zum Opfer fiel. Ein Großteil der Maschinen erlitt im afghanischen Hochland Systemausfälle durch Vereisung. Es war überaus schwierig für sensor operators mit den Infrarot- und Tageslichtkameras Ziele zu erkennen.

Einem Militärbericht aus dem Jahr 2011 zufolge, beurteilte man die vorhandenen Kamera- und Überwachungssysteme für die jeweiligen Einsatzzwecke vor Ort als „nicht funktionsfähig: ineffizient und unangemessen - mit unzureichender Auflösung, insbesondere dazu, effektiv Personen zu verfolgen und mit besorgniserregenden Mängeln im Lokalisierungssystem“.

Doch man konnte mit ihnen Bewegtbilder erfassen und abspeichern.

Man benötigte diese Bewegtbilder in erster Linie um in der Zeit zurückzugehen. Das heißt, sobald ein Selbstmordattentäter die Bombe gezündet hat, sollte dieser schon im Vorfeld unter Beobachtung gestanden haben, um auf Bildebene den Weg von dem Ort des Bombenbaus oder seiner Verbündeten zum Tatort zu rekonstruieren.

Dieser “kontinuierliche Blick” sollte es den US-Streitkräften ermöglichen, die Verstecke der terroristischen Netzwerke, terroristische Zellen oder führende Entscheidungsträger, örtlich wie auch personell ausfindig zu machen.

Autonomous Real-Time Ground Ubiquitois Surveillance Imaging System

Nach zahlreichen Versuchen der Optimierung, die Arthur Holland Michel, Forscher am United Nations Institute for Disarmament Research in seinem Buch »Eyes in the Sky: The Secret Rise of Gorgon Stare and How It Will Watch Us All« detailliert dargestellt hat, schaffte es letztendlich ein Forschungslabor am MIT (Massachusetts Institute of Technology), das Lincoln Laboratory ein Kamerasystem mit einer Auflösung von 66 Millionen Pixeln vorzustellen, das dazu in der Lage war einen Umkreis von sechs Kilometern einzufangen. Um das Video in stabile satellitenähnliche Bewegtbilder umzuwandeln, benötigte man jedoch noch einen 500 kg schweren Multicore Computer. Letzten Endes war es die DARPA (The Defense Advanced Research Projects Agency), die 2006 dem Verteidigungsministerium ein Proposal vorlegte, mit dem Titel “Autonomous Real-Time Ground Ubiquitois Surveillance Imaging System” (ARGUS-IS).

Dort wurden die großen Herausforderungen ausformuliert: die Chips (Bildsensoren), die zur Umwandlung des eingefangenen Lichts durch die Linse in Farbwerte zuständig waren. Das Herzstück einer jeden digitalen Kamera sozusagen. Wieder wurde das MIT Lincoln Lab hierfür beauftragt, die zu dieser Zeit schon seid längerem mit Bildsensoren aus Smartphones experimentierten. Ihre ersten Anläufe für ARGUS-IS mit Smartphone-Sensoren ergaben eine Auflösung von 880 Millionen Pixel pro Frame im Jahr 2007. Bei dem Sensorhersteller MICRON, der u.a. auch Chips für das iPhone herstellte, kaufte die DARPA diese dann für 15 Dollar das Stück ein.

Eine weitere Herausforderung stellten die Prozessoren zur Bildverarbeitung dar. Der Lösungsansatz kam aus der Spieleindustrie: GPU’s (Graphics processing unit). Der Gebrauch von GPU’s wurde bald zu einem Standard in wide area surveillance systems.

Gorgon Stare

Das System kam letzten Endes in einer sehr unausgereiften Form zum Einsatz unter dem Namen Gorgon Stare.

Es ermöglichte, wenn auch fehlerhaft, eine Überwachung von 16km2. Die Einzelbilder der Kameras betrugen je 5 Millionen Pixel, aus denen ein Gesamtbild von 1,6 Milliarden Pixel erzeugt werden konnte. Allein im Jahr 2009 wurden mit diesem wide area surveillance system Videoaufnahmen im Umfang von 24 Jahren generiert. Im Jahr 2011 waren es bereits 37 Jahre. Hierzu James O. Poss (ehemaliger U.S. Airforce Assistant Deputy Chief): “Gorgon Stare will be looking at a whole city, so there will be no way for the adversary to know what we’re looking at, and we can see everything.

Gorgon Stare ist in der 2. Version »Increment 2« bis heute noch im Einsatz. Algorithmen und Systeme des ARGUS-IS wurden erfolgreich in dieses integriert. Increment 2 besteht aus 368 Kameras und ist dazu in der Lage eine Fläche von 100 km² zu erfassen. Durch das Aufzeichnen der Videos mit zwölf Bildern pro Sekunde, werden so mehrere Terabyte Daten pro Minute erzeugt.

Interoperalität

Man erkennt leicht, dass Fehler diesen Systemen immanent sind. interoperalität Fehlerhafte Prozessualitäten, Nichtinterpretierbare Zeichen und Zeichensätze, liegen den Systemarchitekturen zu Grunde. Das Problem der “Interoperabilität”. Die Kommunikation, d.h. der Datenaustausch zwischen Systemen unterschiedlicher Herkünfte, an unterschiedlichen Orten. Enkodierungsprozesse, Komprimerungen von Datensätzen, Simulationen und Visualisierungen, vorwiegend in Echtzeit, hierfür müssen dutzende Systeme miteinander kommunizieren, d.h. Signale fehlerfrei übertragen werden. Hierfür werden internationale Standards benötigt: miteinander abgestimmte Protokolle und Schnittstellen für den reibungslosen Datenaustausch, zum Beispiel eben aktueller Aufklärungsdaten.

Hierzu zählen Standards wie z.B. JAUS (Joint Architecture for Unmanned Systems), Nachrichtenstandards für Wasser und Bodendrohnen oder das STA-NAG-4586, ein von der NATO gefördertes Format. Letzteres definiert Architekturen, Schnittstellen, Kommunikationsprotokolle, Datenelemente und Nachrichtenformate für Drohnen.

Der gemeinsame Wissensabgleich

Häufig müssen sich Drohnenpiloten, sowie auch die Soldaten in der Einsatzzentrale ausschließlich auf symbolische Repräsentationen, auf SIGINTs (Signals Intelligence) und auf die einem jeden jeweiligen Einsatz vorhergehende formale Befehls- und Ereigniskette verlassen.

U.a. aus diesem Grund, stehen Drohnenpiloten im permanenten Austausch mit ihrer jeweiligen Einsatzzentrale, dem DCGS (Distributed Common Ground System). Die Datenanalysten dort, die auf dieselben Datensätze zugreifen können, stehen bestenfalls in direkter Verbindung mit den Einsatzkräften vor Ort und interpretieren die sogenannten HUMANINT (Human Intelligence). Jedoch nur, wenn es die geographische Lage zulässt, dass dort Einsatztruppen vor Ort zum gemeinsamen Wissensabgleich bereit stehen.

Der gemeinsame Wissensabgleich findet also fast bei jedem Einsatz auf Grundlage einer unterschiedlichen Erkenntnislage statt. U.a. aus diesem Grund und auf Grund der Geschwindigkeit und Masse an Informationen die in kürzester Zeit verarbeitet werden müssen, sind Entscheidungsträger häufig überfordert, mit teils tödlichen Folgen:

“Als bei einem Hubschrauberangriff im Februar 2011 dreiundzwanzig Gäste einer afghanischen Hochzeit getötet wurden, konnten die in Nevada auf Knöpfe drückenden Bediener der Aufklärungsdrohne die Schuld für ihren Irrtum auf die Informationsüberflutung schieben und sich darauf berufen, daß ihre Bildschirme mit Daten »vollgerotzt« würden - sie verloren den Überblick, gerade weil sie auf die Bildschirme schauten. Zu den Opfern des Bombardements gehörten auch Kinder, aber das Bedienpersonal »hatte sie inmitten des Strudels von Daten übersehen« - »wie ein Büroangestellter, dem in den täglichen Mailfluten eine dringliche Nachricht entgeht«. Und dem niemand vorwerfen könnte, daß er sich damit unmoralisch verhalten habe…” < siehe: Zygmunt Bauman: »Daten, Drohnen, Disziplin«, Berlin, 2013, 2. Aufl., s. 114