Heft 1/2020 - Netzteil


Maschinelles Lernen als Gegenforensik

Über Triple-Chaser von Forensic Architecture

Julia Gwendolyn Schneider


Forensic Architecture (FA) führen den Ausdruck „forensisch“ in ihrem Namen, primär geht es ihnen aber darum, den forensischen Blick umzukehren und jene Mächte ins Visier zu nehmen – etwa die Polizei oder das Militär –, die diese Vorgehensweise normalerweise für sich beanspruchen.1 Die interdisziplinäre Gruppe, die 2010 von Eyal Weizman gegründet wurde, benutzt ästhetische, wissenschaftliche und technologische Strategien, um Menschenrechtsverletzungen aufzuzeigen und neue Ermittlungsmethoden zu entwickeln. Spätestens seit ihrer Nominierung für den Turner Prize 2018 genießen sie im Kunstkontext hohes Ansehen. Ihre Arbeit verlässt aber immer wieder den symbolischen Raum der Kunst und liefert als forensische Agentur Beweismaterial, das in den Medien, vor Gericht und in Wahrheitskommissionen präsentiert wird.
Der Wandel der Informationslandschaft führt unter anderem dazu, dass sich autoritären Staaten verstärkt die Möglichkeit bietet, Fakten über ihre Verbrechen zu manipulieren oder zu verfälschen. Zugleich stehen jedoch auch zivilgesellschaftlichen Gruppen neue Methoden zur Verfügung, um den forensischen Blick umzukehren und offizielle Angaben zu überprüfen.2 Ihrem Ansatz der „Gegenforensik“3 folgend, haben FA in jüngster Zeit damit begonnen, das kritische Potenzial von maschinellem Lernen zu erkunden und diese Technologie als gegenforensisches Recherchetool zu nutzen. „Wir haben in der Entwicklung des Internets einen Punkt erreicht, an dem menschliche Recherchen mit dem Tempo digitaler Dokumentationen nicht mehr mithalten können. Für uns ist offensichtlich, dass wir automatisierte Werkzeuge benötigen, die Kontrollen und Ermittlungen im Menschenrechtskontext unterstützen.“4
Vor diesem Hintergrund verwendeten FA 2019 maschinelles Lernen, nachdem sie beauftragt worden waren, Beweise über den Einsatz des russischen Militärs in der östlichen Ukraine im Jahr 2014 zu sammeln. Mithilfe von neuronalen Netzen begannen sie, YouTube-Videos Bild für Bild zu durchsuchen. So konnten sie die Präsenz von fast 300 russischen Militärfahrzeugen in der Region nachweisen. Das Ergebnis übermittelten sie an den Europäischen Gerichtshof für Menschenrechte.5
Als Beitrag zur Whitney Biennale 2019 präsentierten FA ein weiteres Projekt, das sich um maschinelles Lernen im Menschenrechtskontext dreht. Ihre Videoarbeit Triple-Chaser zeigt, wie eine Machine-Learning-Software entwickelt wird, die Tränengasgranaten in digitalen Bildern erkennt.6 Im Fokus steht die Marke „Triple-Chaser CS“ von Defense Technology, einem Tochterunternehmen des US-Waffenherstellers Safariland Group, deren Eigentümer Warren B. Kanders ist. Im Film sind exemplarische Einsätze zu sehen: 2018 an der US-Grenze zu Mexiko und 2013 bei den Protesten im Gezi Park in Istanbul. FA geben an, dass sie Beweise für die Verwendung gegen ZivilistInnen in 13 Ländern gesammelt haben.
Bezeichnenderweise war Kanders, als der Film entstand, nicht nur in der Waffenindustrie tätig, sondern als Kunstmäzen Vizevorstandsvorsitzender des Whitney Museum of American Art. FA bezogen sich in ihrem Beitrag direkt darauf: „Wenn Waffenhändler Kultur unterstützen, wird ihr Ansehen durch kulturelles und symbolisches Kapital poliert. Wir entschieden uns, die Biennale zu nutzen, um diese Ökonomie mit unseren Ermittlungen zu untergraben.“7 Bereits vor der Eröffnung hatten AktivistInnen gegen Kanders protestiert, Museumsangestellte seinen Rücktritt gefordert und ein Künstler seine Teilnahme abgesagt. Während der laufenden Biennale riefen drei KünstlerInnen zum Boykott auf, und vier weitere folgten ihnen.8
Einen Tag später gaben auch FA den Rückzug ihrer Arbeit bekannt.9 In einem Protestcamp in Gaza, nahe der Grenze zu Israel, wurde von einem Mitglied von FA ein unversehrtes Geschoss von Sierra Bullets entdeckt. In ihrem Video hatten FA erklärt, dass die Firma Geschosse an Israel verkaufen würde und das israelische Militär diese beispielsweise 2018 gegen protestierende ZivilistInnen eingesetzt hätte. Laut UNO waren die Gewaltanwendungen in Gaza zu dieser Zeit als Kriegsverbrechen einzuschätzen. 2017 wurde Sierra Bullets von der Clarus Corporation gekauft, deren Vorstandsvorsitzender wiederum Warren B. Kanders ist. Durch den Fund von FA bestätigte sich, dass Sierra Bullets solche Verbrechen mit ermöglicht. Kurze Zeit später trat Kanders als Vorstandsmitglied des Whitney zurück.
Neben all dem macht der lokale Munitionsfund auch deutlich, dass schlussendlich alles davon abhängt, dass Menschen vor Ort Beweise sammeln. Solange es diese nicht gibt, sie nicht dokumentiert wurden und als Open-Source-Daten zur Verfügung stehen, kann sie auch keine Software entdecken. Anders als beim Nachweis russischer Militärfahrzeuge in der Ukraine, wo es ausbaufähige Trainingssets gab, existierte so eine Vorlage im Fall von Triple-Chaser nicht. Um einem Klassifizierer beizubringen, wo im Bild sich das gesuchte Objekt befindet, ist normalerweise ein Trainingsset von Tausenden Bildern nötigt, FA konnten online nicht einmal hundert Bilder finden. Um die Datenlücke zu füllen, schufen sie ein künstliches Trainingsset und nutzen dabei ihre eigene Perspektive. „Für uns sind synthetische Bilddaten so interessant, weil dadurch die Frage nach dem Training von Algorithmen zu einer Frage der Architektur wird, der digitalen Modellbildung – wie wir synthetische, ‚unechte‘ Umgebungen bauen können, die den Einsatz eines Klassifizierers in der echten Welt verbessern können.“10
Ausführlicher als im Video berichten FA auf ihrer Webseite, wie und wieso sie mit synthetischen Daten arbeiten. Während das Vorgehen fast wie ein Hack anmutet, klären FA darüber auf, dass auch große Firmen dieses Verfahren benutzen, etwa NVIDIA und Microsoft.11 Als Vorlage dienten FA Videos von Triple-Chaser Granaten, die sie von AktivistInnen erhalten hatten. Damit erstellten sie digitale Objekte, die sie mit den Angaben im Produktkatalog abglichen. Sie setzten ihre Modelle vor farbig gemusterte Hintergründe, um sicherzustellen, dass der Klassifizierer tatsächlich die Tränengasgranate zu erkennen lernt und sich nicht auf geläufige Hintergrundelemente konzentriert. Mit farbigen Masken markierten sie die Granaten und platzierten die Modelle schließlich in fotorealistischen Umgebungen. Diese Vorgehensweisen verbesserten das maschinelle Sehen ihres Algorithmus enorm.
So wie VFRAME12, ein Projekt von Adam Harvey, das mit dem Syrian Archive13 zusammenarbeitet, sind FA mit dem Einsatz von maschinellem Lernen im Menschenrechtskontext gerade dabei, Neuland zu erobern. Die Anwendungen stecken noch in den Kinderschuhen, doch es findet jetzt schon ein regelmäßiger Austausch zwischen den Projekten und der sich ausbildenden Online-Community statt. Maschinelles Lernen, das oftmals in der Kritik steht, gerade nicht dem Wohl der Menschheit zu dienen, wird als Erfolg versprechend eingestuft, wenn sich in Zukunft umfassende Daten aus Krisengebieten effizienter durchsuchen lassen und so die Chance erhöht wird, Menschenrechtsverletzungen nahezu in Echtzeit aufzudecken. FA sehen ihre Rolle darin, die Technologie zu entwickeln, zu testen, Hypothesen über ihre Einsatzmöglichkeiten aufzustellen und Ressourcen online frei zur Verfügung zu stellen. Triple-Chaser verkörpert dabei nur eine frühe Testphase, in Folge soll die Technologie auch für weitere Bereiche nutzbar werden.14

 

 

[1] Vgl. Eyal Weizman, Forensic Architecture: Violence at the Threshold of Detectability. Zone Books 2017, S. 9.
[2] Vgl. Eyal Weizman, „Open Verification“, e-flux architecture – Becoming Digital, 18.6.2019; https://www.e-flux.com/architecture/becoming-digital/248062/open-verification/.
[3] Ebd.
[4] E-Mail-Interview mit Bob Trafford von Forensic Architecture am 19. November 2019, Übersetzung der Autorin.
[5] Forensic Architecture, „The Battle of Ilovaisk“, 19. August 2019; https://forensic-architecture.org/investigation/the-battle-of-ilovaisk.
[6] Forensic Architecture, „Triple-Chaser“, 13. Mai 2019; https://forensic-architecture.org/investigation/triple-chaser.
[7] Eyal Weizman, Zitat aus dem Pressematerial zu Triple-Chaser, produziert für die Whitney Biennale 2019, Übersetzung der Autorin.
[8] „The Tear Gas Biennial“, Artforum.com, 17. Juli 2019; https://www.artforum.com/slant/a-statement-from-hannah-black-ciaran-finlayson-and-tobi-haslett-on-warren-kanders-and-the-2019-whitney-biennial-80328 und „A Letter from Artists in the Whitney Biennial“, Artforum.com, 19. Juli 2019; https://www.artforum.com/slant/a-letter-from-artists-in-the-whitney-biennial-80361.
[9] Zachary Small, „Forensic Architecture Says It Has Found Bullet Linking Whitney Vice Chair to Violence in Gaza, Withdraws from Biennial“, Hyperallergic, 20. Juli 2019; https://hyperallergic.com/510367/forensic-architecture-biennial-withdrawal/.
[10] E-Mail-Interview mit Bob Trafford von Forensic Architecture am 19. November 2019, Übersetzung der Autorin.
[11] Forensic Architecture, „Computer Vision in Triple Chaser“, 30. November 2018; https://forensic-architecture.org/investigation/cv-in-triple-chaser.
[12] https://vframe.io/
[13] https://syrianarchive.org/en
[14] Ab Februar 2020 zeigen FA einige der neuesten Entwicklungen im Rahmen der Gruppenausstellung Uncanny Valley: Being Human in the Age of AI am de Young Museum in San Francisco.