Die Ausbreitung von Bildgeneratoren schädigt Kunstschaffende auf vielerlei Art, am klarsten durch wirtschaftliche Verluste, die sie durch jene Unternehmen erleiden, die sie wegautomatisieren wollen. Im Folgenden fassen wir einige der Gefahren von KI zusammen, darunter die Auswirkungen auf Künstler*innen, deren Stile ohne ihr Einverständnis nachgeahmt und bisweilen infam zweckentfremdet werden. Wir schließen mit einer Diskussion, wie Bildgeneratoren dazu beitragen, hegemonial Ansichten und Klischees im Kreativbereich aufrechtzuerhalten, und sich nicht nur auf Kunstschaffende, sondern auf Kulturproduktion und Kulturkonsum im Allgemeinen stark negativ auswirken.
Finanzielle Einbußen
Während Kunstschaffende ihr Handwerk in jahrelanger Übung, durch Beobachtung und Schulung verfeinern und Zeit sowie andere Ressourcen für Material, Bücher und Kurse aufwenden müssen, nutzen Unternehmen wie Stability AI deren Werke unbezahlt. Gleichzeitig sammeln sie bei Risikokapitalgeber*innen Milliarden ein, um dann mit den Kunstschaffenden auf deren Markt in Konkurrenz zu treten. Die Chefs von Firmen wie OpenAI oder Stability AI haben freimütig zugegeben, dass Kreativproduzent*innen ihrer Ansicht nach in Bälde schon gänzlich ersetzt werden können. So hat der CEO von Stability AI, Emad Mostaque, Künstler*innen im Gegenzug sogar vorgeworfen, sie strebten ein „Monopol auf visuelle Kommunikation“ und eine „Segregation nach Können“ an.1
In Wirklichkeit ist es genau umgekehrt. Die Geschäftsmodelle von Midjourney, OpenAI and Stability AI beruhen darauf, die Macht in den Händen weniger Firmen zu bündeln, die alle in westlichen Ländern beheimatet sind, und damit Künstler*innen weltweit zu entrechten. Heute kann, wer will, Hunderte Bilder in wenigen Minuten erstellen, in einer Stunde ein Kinderbuch zusammenstellen oder eine Kampagne auf Kickstarter in einem Bruchteil der Zeit lancieren, die echte Kunstschaffende dazu benötigen. Wenngleich viele KI-Bilder nicht die gleiche Ausdruckstiefe wie die von Menschen besitzen, überfluten kommerzielle Bildgeneratoren den Markt mit durchaus akzeptablen Bildern, die die Nachfrage nach echten Künstler*innen verdrängen. Das führte bereits zu Arbeitsplatzverlusten, verwenden doch Firmen wie beispielsweise Netflix Japan Bildgeneratoren für ihre Animationen, während sie gleichzeitig einen „Arbeitskräftemangel“ in der Anime-Industrie als Grund dafür anführen, dass sie keine Kunstschaffenden engagieren.2
Eines der bekanntesten Beispiele für die Auswirkungen von KI auf den Arbeitsmarkt ist die Titelsequenz der Fernsehserie Secret Invasion (2023) aus den Marvel Studios, die aus einer Montage computergenerierter Bilder besteht.3 Während in früheren Filmen von Marvel zwischen fünf (The She-Hulk: Attorney at Law) und neun (Hawkeye) Gestalter*innen die Titelsequenzen gestalteten, wird bei Secret Invasion nur noch ein gewisser „Sagans Carle“ als „AI Technical Director“ angeführt. Diese Arbeitsumschichtung findet gegenwärtig in allen Branchen der Kreativindustrie statt. So berichtete ein chinesischer Personalvermittler für die Gaming-Industrie laut Rest of the World von einem 70-prozentigen Rückgang an Illustrator*innenjobs, der auch auf die steigende Nutzung von Bildgeneratoren zurückzuführen sei. Ein anderes Studio in China soll bereits ein Drittel ihrer Mitarbeiter*innen im Bereich Character-Design entlassen haben.4
Zusätzlich zur Arbeitsplatzvernichtung in den Studios wird sich höchstwahrscheinlich auch das von KI-Inhalten erzeugte „Datenrauschen“ auf selbstständige Künstler*innen verheerend auswirken. Dies wurde in der literarischen Welt mit dem Aufkommen sogenannter LLMs [Large Language Models] wie ChatGPT bereits deutlich. Vor Kurzem hat das populäre Science-Fiction-Magazin Clarkesworld vorübergehend keine Textangebote mehr angenommen, nachdem es mit einer Unmenge von ChatGPT-generierten Texten überflutet worden war.5 Der Chefredakteur Neil Clarke berichtet, dass sich andere Medien, um dies zu vermeiden, darauf beschränkten, nur bereits bekannte Autor*innen mit Texten zu beauftragen. Das wiederum sei zum Nachteil von Autor*innen, die noch nicht so bekannt sind. Man kann dieses Muster leicht auf die bildende Kunst übertragen, weil aktuell auch viel zu viele KI-generierte Bilder angeboten werden. Damit wird die Kunst keineswegs „demokratisiert“, sondern bloß die Anzahl von Künstler*innen verringert, deren Werke veröffentlicht und geschätzt werden.
Einige Kunstschaffende berichten, dass sie trotz ihrer Vorbehalte gezwungen seien, Bildgeneratoren zu verwenden, um ihre Jobs nicht zu verlieren, was die kommerzielle Nutzung solcher Programme zusätzlich befördert.6 Künstler*innen berichten auch, sie seien von Firmen gefragt worden, deren KI-Software zu trainieren. Diese Arbeit setzt jedoch ihre über Jahre erworbenen Fertigkeiten und ihren geschulten Blick zu einer vergleichsweise unkreativen „Putzarbeit“ herab. Bei all diesen bekannten Problemen beginnen Kreative in Führungspositionen, die von der Realität der meisten Künstler*innen weit abgekoppelt sind, diese Werkzeuge zu benutzen, ohne die Auswirkungen auf die Branche insgesamt wie zum Beispiel die geringeren Verdienstmöglichkeiten vieler freischaffender Künstler*innen zu bedenken. Der Regisseur von Secret Invasion beispielsweise durfte selbst entscheiden, ob er Bildgeneratoren verwendet oder nicht. Er entschied sich gegen die menschlichen Illustrator*innen.7
Mit den zunehmenden Einschränkungen und Arbeitsplatzverlusten durch Bildgeneratoren könnte Kunst bald nur noch von wohlhabenden Privatiers oder von Menschen ausgeübt werden, denen es gelingt, ihre künstlerischen Fähigkeiten zu entwickeln, während sie gleichzeitig einem anderen Vollzeitjob nachgehen. Dies indes wird die Entwicklung von Künstler*innen aus Randgruppen, von Menschen mit Behinderung beispielsweise, oder solchen mit pflegebedürftigen Angehörigen unverhältnismäßig stark beeinträchtigen.
Digitale Kunstfälschungen
Bildgeneratoren werden mit Milliarden von Bild-Text-Paaren aus dem Internet trainiert, Stable Diffusion V2 zum Beispiel mit dem öffentlich zugänglichen Datensatz LAION-5B. Obwohl man LAION-5B offiziell nicht durchsuchen kann, haben bereits zahlreiche Künstler*innen berichtet, ihre Werke seien ohne ihre Zustimmung oder Namensnennung in den Trainingsdaten gelandet.8 Auch OpenAI macht den Datensatz, mit dem die Firma ihren Bildgenerator DALL-E trainiert, nicht öffentlich, und so ist unmöglich herauszufinden, inwieweit die Trainingsdaten urheberrechtlich geschützte Werke enthalten. Mithilfe eines von Simon Willison entwickelten Tools, mit dem man 0,5 Prozent der Trainingsdaten für Stable Diffusion V1.1, das heißt 12 Millionen von 2,3 Milliarden Elementen aus LAION 2B, durchsuchen kann, fanden Kunstschaffende wie Karen Hallion heraus, dass ihre urheberrechtlich geschützten Bilder ohne ihre Zustimmung als Trainingsdaten verwendet wurden. Es zeigte sich, dass Bildgeneratoren wie Stable Diffusion Bilder auch ganz unmittelbar reproduzieren und so Kopien bekannter Fotografien und Gemälde herstellen.9
Diese Art digitaler Fälschungen schädigt Künstler*innen, die ohnehin schon kaum ihren Lebensunterhalt bestreiten können und ihre kreative Arbeit mit Nebenjobs finanzieren müssen, gleich mehrfach.10 Erstens verschärft die Nutzung künstlerischer Werke ohne finanzielle Kompensation der Urheber*innen die ohnehin prekäre Lage, in der sich professionelle Kunstschaffende befinden. Zusätzlich zum finanziellen Ausfall kann die Verwendung von Bildmaterial ohne Zustimmung bei den Urheber*innen zu Reputationseinbußen bis hin zu regelrechten Traumata führen. Trainiert man nämlich Modelle wie Stable Diffusion mit Bildern einzelner Künstler*innen über längere Zeit, kann man auch irgendwann deren Stile gut nachahmen. Firmen wie Wombo bieten sogar an, Werke im Stil ganzer Firmen wie dem japanischen Studio Ghibli zu generieren.11 Eine Reihe von Kunstschaffenden hat diese Praxis als „übergriffig“ bezeichnet, weil sie dermaßen große Reputationsschäden anrichtet. So meinte die Künstlerin Hollie Mengert, nachdem jemand auf Reddit mit ihrem Namen als Prompt erstellte Bilder gepostet hatte: „Es fühlte sich nach einem Übergriff an, als ich meinen Namen in diesem Tool sah, das ich nicht kannte und von dessen Macher*innen ich auch nicht gefragt worden war.“12 Zudem frustriere sie, dass ihr Name nun mit Bildern in Verbindung gebracht wird, die nur „oberflächlichst“ ihren Stil nachäffen.
Diese übergriffige Imitation von Stilen kann sogar schwerwiegende Folge haben, wenn der Stil von Künstler*innen bei Belästigungen, Verhetzungen oder der Leugnung von Genoziden niederträchtig nachgeahmt wird. In einem Kommentar in der New York Times schrieb die Künstlerin Sarah Andersen, dass schon vor dem Hype um Bildgeneratoren ihre Werke bisweilen verändert wurden, um „gewalttätige rassistische Aufrufe zum Völkermord oder die Leugnung des Holocausts zu bebildern, komplett mit Hakenkreuzen und Menschen, die in Öfen geschoben werden. Die Bilder wurden im Internet verbreitet und auf Plattformen wie Twitter oder Reddit nur selten wieder gelöscht.“ Andersen fügte hinzu, dass „die extreme Rechte durch die Bombardierung meiner Social-Media-Accounts mit solchen Bildern eine Ersatzidentität meiner selbst, einer, die der Neonazi-Ideologie folgt, geschaffen hat [...] Ich erhielt empörte Zuschriften und musste sogar meinen Verlag bitten, meine Haltung dazu öffentlich klarzustellen.“ Andersen betont, dass dieses Problem durch Bildgeneratoren noch verschärft werde: „Die Idee, dass irgendjemand meinen Namen in einen Bildgenerator schreiben und ein Bild in meinem Stil erzeugen kann, beunruhigt mich ungemein [...] Ich fühle mich dadurch verletzt.“13
Wie wir in der Langversion dieses Artikels ausführen,14 stellt der Stil von Kunstschaffenden ihre durch Lebenserfahrungen geprägte ureigene Stimme dar. Ganz im Sinne der Klage von Hollie Mengert ob der Übergriffigkeit von Stilimitationen meint Andersen weiter: „Die Art, wie ich zeichne, ist das komplexe Ergebnis meines Bildungswegs, der Comics, die ich als Kind verschlang, und der vielen kleinen Details, die in Summe mein Leben ergeben. Diese Details sind oft persönlicher, als man denkt.“ So können Tools, die mit den Werken von Kunstschaffenden trainiert wurden und Nutzer*innen ermöglichen, deren Stil ohne deren Zustimmung oder Vergütung nachzuahmen, Ersteren erheblichen Schaden zufügen; sie können sich als diese Kunstschaffende selbst ausgeben und dabei Botschaften verbreiten, die diese nicht gutheißen.
Hegemoniale Meinung und Klischees
Abgesehen von der Aneignung persönlicher Identitäten lässt sich auch nachweisen, dass Bildgeneratoren die Identitäten ganzer Gruppen kapern und verzerren, Vorurteile reproduzieren und Klischees verstärken.15 Über die Ausstellung In/Visible, welche die Überschneidungen von KI und Kunst thematisiert, meint die senegalesische Künstlerin Linda Dounia Rebeiz: „Jede Schwarze Person, die heute KI benutzt, kann mit Sicherheit bestätigen, dass diese KI sie nicht wirklich kennt und ihre Realität einseitig und sogar unmenschlich darstellt [...] Schwarze Menschen sind bereits gewohnt, dass man sie nicht sieht. Und wenn wir doch gesehen werden, sind wir es gewohnt, falsch dargestellt zu werden. Zu oft haben wir erlebt, dass unsere Lebenswirklichkeiten ignoriert, verzerrt oder schlichtweg erfunden werden. Diese entstellten Wirklichkeiten dienen oft der politischen Ausgrenzung und verfolgen uns wie Schatten, die wir nie ganz abschütteln können.“16 In einem Interview führt sie Beispiele solcher Klischees an, die durch Bildgeneratoren perpetuiert werden. So bemerkte sie, dass von Dall-E 2 generierte Bilder ihre Heimatstadt Dakar völlig falsch abbilden; sie zeigten Ruinen und Wüsten, wo sich in Wahrheit eine blühende Küstenstadt befindet.17 Auch die in den USA lebende Künstlerin Stephanie Dinkins berichtet, dass sie auf erhebliche Vorurteile stoße, wenn sie Bildgeneratoren auffordert, Bilder Schwarzer Frauen zu erstellen.18
Mittlerweile gibt es auch Menschen, die Bilder generieren lassen, die einzig ihre Fantasie über andere Bevölkerungsgruppen darstellen. So berichtete Lauren Michelle Jackson 2018 in einem Artikel im New Yorker vom Fall des weißen britischen Fotografen Cameron-James Wilson, der einen dunkelhäutigen Avatar schuf, den er unter dem Namen „Shudu Gram“ als „erstes digitales Supermodel der Welt“ lancierte. Den Avatar, den er mit der kostenlosen 3D-Modellierungssoftware Daz 3D geschaffen hatte, veröffentlichte er auf Instagram mit der Bemerkung „iindzila sind die Halsringe der südafrikanischen Ndebele“19. Jackson verkaufte Lizenzen des Bilds an Modeplattformen wie Balmain oder Ellesse, die häufig dafür kritisiert werden, dass ihre Einstellungspolitik nicht gerade diversitätsfördernd sei. Somit profitieren Zeitschriften wie etwa Vogue, ohne dass sie die Ndebele je dafür entschädigen müssten, von der idealisierten Fantasie eines weißen Mann, der seinerseits sehr wohl bezahlt wurde. Die Autorin Francesca Sobande meinte dazu, dass dies nur eine weitere Variante „der Verdinglichung von Schwarzen und der Kommerzialisierung von Schwarzsein sei“20. Fünf Jahre später, am 6. März 2023, gab der Unternehmer Danny Postma die Gründung der Firma Deep Agency bekannt,21 die bildgenerierte Avatare als Dienstleistung vermietet. Endlich kann nun auch die Masse die von Jackson beschriebene Praxis nutzen.
Aufgrund der Fragen, wer diese Tools nutzen (und davon profitieren) darf, wenn er*sie welche Kulturen auf welche Weise darstellt, äußerten Kritiker*innen aus Pakistan, Indien und Bangladesch „Bedenken hinsichtlich des Urheberrechts, der Kommerzialisierung und der Folgen, wenn bestimmte Kunstformen ihrer traditionellen Wurzeln beraubt werden“22. Es stellt sich also die Frage, welche Kulturprodukte in den Trainingsdatensätze der Bildgeneratoren enthalten sein dürfen. Um dem weiter nachzugehen, wäre eine genauere Analyse der kulturellen Schäden vonnöten, die von Bildgeneratoren verursacht werden, darunter die Perpetuierung von kultureller Hegemonie und Klischees sowie die Auslöschung von Traditionen.
Auswirkungen auf Kulturproduktion und Kulturkonsum
Die bisher geschilderten Fälle zeigen jetzt schon die schrecklichen Auswirkungen auf Kunstschaffende, die, wie der Künstler Steven Zapata bemerkt, ohnehin schon traumatisiert sind, weil so viele von ihnen mit ihrem Geld nicht auskommen.23 Erstens werden Studierende, die daran glauben, dass Bildergeneratoren Kunstschaffende ersetzen werden, zunehmend demoralisiert – was sie mitunter davon abhält, ihr Handwerk zu perfektionieren und einen eigenen Stil zu entwickeln. Zweitens werden sowohl junge als auch arrivierte Künstler*innen immer zurückhaltender, ihre Werke und Perspektiven öffentlich zu teilen, um sich so vor einem massenhaften Abkupfern zu schützen. Zwar präsentieren freie Kunstschaffende ihre Arbeiten immer noch häufig auf Social-Media-Plattformen und versuchen, sie durch Crowdfunding-Kampagnen zu finanzieren. Zudem verkaufen sie Anleitungen, Tools und Ressourcen an andere Künstler*innen auf diversen Websites oder Fachmessen. Für die meisten von ihnen ist es jedoch aufgrund des Wettbewerbs extrem schwierig, (online oder real) ausreichend Aufmerksamkeit zu bekommen. Oft brauchen sie Jahre, um ein Publikum oder eine Fangemeinde aufzubauen, an die sie ihre Werke verkaufen, um ihren Lebensunterhalt zu bestreiten. Sich vor unethischen Praktiken von Firmen, die von ihrer Arbeit profitieren, durch Entsagung zu schützen, schränkt demnach ihre Möglichkeiten, ihre Arbeit vergütet zu bekommen, noch weiter ein.
Die schwindende Bereitschaft von Kunstschaffenden, ihre Arbeit zu veröffentlichen und andere zu unterrichten, reduziert auch die Möglichkeit, dass angehende Künstler*innen von erfahrenen lernen. Damit verringert sich die Kreativität der Menschen insgesamt. Ähnlich wie der Feedbackloop, der durch die nächsten Generationen von LLMs entsteht, die mit dem Output älterer Modelle trainiert wurden, könnten wir als Menschheit, wenn wir nur noch KI-generierte Kunst, Medien und Texte konsumieren, auf einen endlosen Feedbackloop zusteuern. Nichts wirklich Neues würde dann mehr geschaffen, und wir würden beginnen, in einer schalen Fortschreibung der Vergangenheit zu leben. Vor einem ähnlichen Problem wurde bereits gewarnt, wenn künftige Generationen von Sprachmodellen auf der Grundlage des Outputs älterer Modelle trainiert werden und ihre statischen Daten den gesellschaftlichen Wandel nicht mehr widerspiegeln.24
In seinem Buch Art schrieb Clive Bell 1916: „Der Ausgangspunkt aller ästhetischen Systeme muss das persönliche Erleben eines ganz eigenen Gefühls sein. Die Gegenstände, die dieses Gefühl hervorrufen, nennen wir Kunstwerke.“25 Wie müssen also, wie Steven Zapata fordert, „den kreativen Geist der Menschen schützen [...] Kunst zu machen ist eine der besten Möglichkeiten herauszufinden, wovon man beeinflusst wird, und diese Einflüsse anderen Menschen mitzuteilen. Wenn wir nichts dagegen unternehmen, werden diese Einflüsse fast nur noch von KI kommen – einer KI, die keine Grenzen kennt, aber dennoch Gefühle beeinflussen kann. Lassen wir das nicht zu.“26
[Auszug aus einem längeren Aufsatz, dessen Originalfassung abrufbar ist unter: https://dl.acm.org/doi/abs/10.1145/3600211.3604681]
Übersetzt von Thomas Raab
[1] https://web.archive.org/web/20230224175654/https://twitter.com/mollycrabapple/status/1606148326814089217
[2] Vgl. Samantha Cole, Netflix Made an Anime Using AI Due to a „Labor Shortage,“ and Fans Are Pissed (2023); https://www.vice.com/en/article/bvmqkv/netflix-anime-dog-and-the-boy-ai-generated-art.
[3] Zosha Millman, Yes, Secret Invasion’s opening credits scene is AI-made – here’s why, Polygon, 22. Juni 2023; https://www.polygon.com/23767640/aimcu-secret-invasion-opening-credits.
[4] Viola Zhou, AI is already taking video game illustrators’ jobs in China, Rest of World, 11. April 2023; https://restofworld.org/2023/ai-image-china-video-game-layoffs/.
[5] Neil Clarke, 2023, „A Concerning Trend“; https://neil-clarke.com/a-concerning-trend/.
[6] Vgl. ebd.
[7] Vgl. Millman (siehe Anm. 3).
[8] Andy Baio, Exploring 12 Million of the 2.3 Billion Images Used to Train Stable Diffusion’s Image Generator, 2022; https://waxy.org/2022/08/exploring-12-million-of-the-images-used-to-train-stable-diffusions-image-generator/.
[9] Vgl. Nicholas Carlini et al., Extracting Training Data from Diffusion Models, 2023; https://arxiv.org/abs/2301.13188; sowie Karla Ortiz, Why AI Models are not inspired like humans, 10. Dezember 2022; https://www.kortizblog.com/blog/why-ai-models-are-not-inspired-like-humans.
[10] Jennifer C. Lena/Danielle J. Lindemann, Who is an artist? New data for an old question, in: Poetics, 43, 2014, S. 70–85.
[11] https://dream.ai/
[12] Andy Baio, Invasive Diffusion: How one unwilling illustrator found herself turned into an AI model, 2022; https://waxy.org/2022/11/invasive-diffusion-how-one-unwilling-illustrator-found-herself-turned-into-an-ai-model/.
[13] Sarah Andersen, The Alt-Right Manipulated My Comic. Then A.I. Claimed It, The New York Times, 31. Dezember 2022; https://www.nytimes.com/2022/12/31/opinion/sarah-andersen-how-algorithim-took-my-work.html.
[14] „Image Generators Are Not Artists“ (section 3); abrufbar unter https://dl.acm.org/doi/abs/10.1145/3600211.3604681.
[15] Vgl. Leonardo Nicoletti/Dina Bass, Humans Are Biased. Generative AI Is Even Worse, Bloomberg, 2023; https://www.bloomberg.com/graphics/2023-generative-ai-bias/.
[16] https://www.kaltblut-magazine.com/feral-file-presents-in-visible-where-ai-meets-artistic-diversity-a-fascinating-encounter-of-limitations-and-storytelling/
[17] Zachary Small, Black Artists Say A.I. Shows Bias, With Algorithms Erasing Their History, The New York Times, 4. Juli 2023; https://www.nytimes.com/2023/07/04/arts/design/black-artists-bias-ai.html.
[18] Ebd.
[19] Lauren Michele Jackson, Shudu Gram, Is a White Man’s Digital Projection of Real-Life Black Womanhood, The New Yorker, 4. Mai 2018; https://www.newyorker.com/culture/culture-desk/shudu-gram-is-a-white-mans-digital-projection-of-real-life-black-womanhood.
[20] Francesca Sobande, CGI influencers are here. Who’s profiting from them should give you pause, Fast Company, 2021; https://www.fastcompany.com/90682915/cgi-influencers-are-here-whos-profiting-from-them-should-give-you-pause.
[21] https://www.deepagency.com/
[22] Rida Qadri et al., AI’s Regimes of Representation: A Community-centered Study of Text-to-Image Models in South Asia, 2023; https://dl.acm.org/doi/10.1145/3593013.3594016.
[23] Steven Zapata, AI/ML Media Advocacy Summit Keynote, 2023; https://www.youtube.com/watch?v=puPJUbNiEKg.
[24] Vgl. Emily M. Bender et al. On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, 2021; https://dl.acm.org/doi/10.1145/3442188.3445922.
[25] Clive Bell, Art. London: Chatto & Windus 2016.
[26] Zapata (siehe Anm. 23).