Heft 1/2018 - Netzteil


Hypernormal Hybrids

Sozialität in Augmented-Reality-Zusammenhängen

Konrad Becker, Felix Stalder


Die Grenzen zwischen Menschen, Maschinen und Tieren verschwimmen. Intelligenzen breiten sich aus und schaffen Verwirrung. Die westlichen Mittelschichten befinden sich in einer so tiefgreifenden kulturellen Krise, dass selbst einfache Fragen wie „Was ist einzigartig menschlich?“ gemäß den Standards logischer Kohärenz unlösbar geworden sind. Wie digitale Zeitungen täglich verkünden, „stehlen“ Roboter laut Prognose 40 Prozent aller Jobs. Je schlechter die Prognosen, desto höher die Klickraten, die tiefe Verunsicherung in der durch neoliberale Stratifizierung geprägten Mittelschicht schüren. Und während die industrielle Zivilisation das „sechste große Massenaussterben“ in den letzten 500 Millionen Jahren auf diesem Planeten verursacht, werden Tiere inzwischen als weitaus komplexer und intelligenter anerkannt, als die westliche Moderne es ihnen in den letzten 300 Jahren zugestanden hat. Delfine geben sich gegenseitig Namen, Krähen lösen logische Rätsel, und Schweine zeichnen sich durch soziales Lernen aus, ganz zu schweigen von Oktopussen, die Ergebnisse von Fußballspielen vorhersagen. Diese Erosion von Gewissheiten angesichts zunehmender Komplexität führt zu existenzieller Angst, welche die westliche Kultur großräumig erfasst und sowohl reaktionärer Politik als auch radikalen Visionen einer anderen Zukunft Raum gibt.

Hypernormalisierung und hybride Räume
Die digitale Realität bahnt sich ihren Lauf im Wirbel ihrer eigenen Strömungskräfte. Zwischen materiellen Räumen von Straßen und Gebäuden und den fließenden Bereichen von Erinnerung und Phantasmen besetzen technologische Systeme die Grenzen von Außen- und Innenraum, durchdringen und normalisieren Kulturen. Ihre Logik und Rationalität sind nicht so weit von mythischen oder poetischen Vorstellungen entfernt, wie manche dies glauben möchten. Informationsfluten sind in Schemata gefasst, die den grundlegenden Erzählungen ihres sozialen Milieus entlehnt sind. Hypothesen entstehen aus spekulativen Assoziationen und ästhetischen Kriterien. Eine Realität ist unlesbar, sofern nicht die Ideengeschichte jener Theorien berücksichtigt wird, gemäß derer diese Realität definiert wird und so auch immer wieder neu definiert werden kann.
Technische Plattformen befinden sich in einem Konflikt zwischen radikaler Pluralität und dem systemischen Anreiz zum Konformismus, zwischen gleichzeitiger Individualisierung und Normalisierung, Dezentralisierung und Konzentrationseffekten. Sie schaffen Informationsräume, die von Echokammern und Filterblasen strukturiert sind, und Tim Berners-Lee, einer der Erfinder des World Wide Web, spricht von Social Media als einer systematischen Falle: „Jede Site ist ein Silo, abgeschottet von den anderen“, und: „Je weiter du hineingehst, desto mehr bist du gefangen.“ Der englische Autor und Filmemacher Adam Curtis beschreibt in seinem Dokumentarfilm HyperNormalisation (2016) eine Politik der Hypernormalität als Normalisierung durch künstliche Realitäten, die Menschen verwirren und dadurch handlungsunfähig machen.
Sprachgesteuerte Navigation ist allgegenwärtig. Mittlerweile gibt es selbstfahrende Taxis, von künstlichen Redakteuren zusammengestellte Zeitungsartikel und Maschinen, die Gerichtsdokumente lesen und auswerten. Virtuelle Assistenten (Alexa, Siri) verbinden Produktempfehlungen mit Zahlungs- und Lieferdiensten sowie Social Media. Tragbare Sensoren pumpen Billionen von Bewegungen und Körperfunktionen in die Digital Cloud, wo gespenstische Datenkörper unzähliger menschlicher Interaktionen die virtuellen Schlachtfelder professioneller Beeinflusser bevölkern. Technologieunternehmen kämpfen um Marktanteile in „Smart Cities“ und im „Internet der Dinge“, während Flüchtlinge aus aller Welt Smartphones nutzen, um zu überleben. 2016 installierte eine halbe Milliarde Menschen die Augmented-Reality-Software Pokemon Go auf ihren mobilen Geräten und demonstrierte so die Verknüpfung fiktiver Welten mit menschlichen Handlungsmustern und realen Aktivitäten; die Logik des Digitalen reorganisiert die materielle Umgebung.

Narrative Simulationen und „Influencing Machines“
Das heißeste Produkt von General Electric sind nicht Glühlampen, sondern prädiktive Lösungen und Anwendungen für Big-Data-Software namens Predix. Die neuen Entscheidungswissenschaften der algorithmischen Vorhersageindustrie sind in allen Bereichen der Gesellschaft wirksam. Modelle der Spieltheorie, Entscheidungsfindung, Künstlichen Intelligenz und Militärstrategie ersetzen menschliche Vernunft durch algorithmische Regeln einer ganz spezifischen Rationalität. Schon zu Beginn der kybernetischen Kontrollrevolution etablierten Entscheidungssysteme spezifische Regime der Wissensproduktion, im Zuge derer die demokratische Entscheidungsfindung immer mehr in eine bestimmte Richtung kanalisiert wurde.
Seit den 1950er-Jahren hat sich die strukturell-funktionalistische Reduktion von Intelligenz und strategischer Planung auf algorithmische Formeln in Psychologie, Ökonomie, politische Theorie, Soziologie und in der Philosophie verbreitet. In der Verschmelzung ihrer operativen Technologien verschwinden die traditionellen Trennungen zwischen Militär und Zivilbereich, privat und öffentlich, „Innerem“ und „Äußerem“. Der Psychoanalytiker Viktor Tausk beschreibt in dem 1919 erschienenen Artikel „On the Origin of the ‚Influencing Machine‘ in Schizophrenia“ seine Beobachtungen paranoider Wahnvorstellungen bei Patienten, die von einer „teuflischen Maschine“ gesteuert werden, welche über das technische Verständnis der Opfer hinausgeht und sie aus der Ferne beeinflusst. Früher galten Maschinen als Prothesen des Menschen. Sind Menschen heute die Prothesen von Maschinen, die Captcha-Minenarbeiter digitaler Overlords? Zwischen superermächtigten Individuen und der „Obsoleszenz des Menschen“ ergeben sich unvorhersehbare Turbulenzen. Wie lassen sich die Verwerfungslinien dieser hybriden Systeme erfassen, und welche Möglichkeiten menschlichen Handelns bleiben bestehen?

Deep Hybrids
In der mechanischen Logik dieser Augmented Realities ist die Dimension des Sozialen und des Biologischen nicht mehr vollständig enthalten, und es gibt immer etwas, das nicht berücksichtigt werden kann. Die Maschinenlogik ist nicht in der Lage, andere Seinsweisen in ihren Rahmen von Rationalität einzubeziehen. In sozialen Beziehungen führt diese Logik zu einem prekären Hyperindividualismus, in dem Möglichkeiten kollektiver Solidarität systematisch negiert werden. Nicht alles lässt sich auf Informationen reduzieren, die für Maschinen nur Signale ohne Bedeutung sind.
Wenn nun die Grenzen zwischen Mensch, Tier und Maschine sowohl konkret als auch kategorisch verschwimmen, muss dieser Prozess dann vielleicht noch weiter beschleunigt werden? Nicht um die Lebenden durch die Toten zu ersetzen – der alte Traum des Kapitalismus, menschliche Arbeit als Kosten- und Störfaktor abzuschaffen –, sondern durch ein Nachdenken über die Unterschiede zwischen den einzigartigen Fähigkeiten der verschiedenen AkteurInnen. Sie brauchen einander zunehmend um zu überleben, gerade weil die Art und Weise, wie die Maschine die Welt wahrnimmt, sich von jener des Menschen und anderer Tiere unterscheidet.
Anstelle des Unbehagens darüber, wie sehr Maschinen durch ihre Wahrnehmungs- und Schlussfolgerungsfähigkeiten den Menschen ähnlich geworden sind, sollten vielmehr die Unterschiede zwischen ihrer Logik und dem menschlichen Denken hervorgehoben werden. Erst aus diesen Unterschieden können tiefgreifende Hybride entstehen, die in der Lage sind, mit der Komplexität der Welt jenseits eines kybernetischen Paradigmas umzugehen, das alle Unterschiede zwischen Mensch und Maschine beseitigen wollte. Norbert Wieners berühmter Ruf nach der „menschenwürdigen Verwendung des Menschen“ klingt dringender denn je.

Die Veranstaltung Hypernormal Hybrids fand am 10. November 2017 im WERK X, Wien statt. Die in dieser Ausgabe enthaltenen Texte von Susana Monsó, Stefan Voltron und S. M. Amadae gehen auf Vorträge, die dort gehalten wurden, zurück.
https://world-information.net/hybrid/