Kann KI Kunst? Eine Bestandsaufnahme
1.
Diese Frage setzt stillschweigend voraus, dass es jemanden gibt, der Kunst machen kann. Ja, mehr noch: dass das, was dieser jemand – und möglicherweise auch die KI – machen kann, etwas ist, was nicht nur einfach Kunst genannt wird, sondern auch Kunst ist. Doch wer kann schon sagen, was Kunst ist? Kann überhaupt davon gesprochen werden, dass etwas Kunst ‚ist‘? Oder läuft eine solche Rede nicht auf eine essentialistische Auffassung hinaus, die in der Verantwortung stünde, das Wesen der Kunst – das, sollte es dieses tatsächlich geben, zwingend zeit-, kultur- und womöglich auch weltinvariant sein müsste – verbindlich benennen zu können (es bliebe sonst schlicht eine Behauptung – und behaupten kann man ja vieles)? Bourdieu erinnert uns in seinem Werk Die Regeln der Kunst daran, dass „die falschen Wesensanalysen (…), die auf überzeitliche Definitionen von Gattungen abzielen, deren nominelle Beständigkeit kaschiert, daß sie ständig auf dem Bruch mit ihrer eigenen, jüngst erlassenen Definition aufbauen“ (Bourdieu 1999: 381 [Anm. 37]). Plausibel wird diese Feststellung durch den Umstand, dass das Wort Kunst gleich geblieben ist, der Begriff ‚Kunst‘ sich aber beständig verändert hat, sich verändert und nach menschlichem Ermessen sich auch zukünftig verändern wird. Und historisch wird die Behauptung eines Wesens der Kunst zudem mehr als fragwürdig, findet sich der alles künstlerische Schaffen und all dessen Resultate umfassende Oberbegriff ‚die Kunst‘ als nicht zählbares Substantiv im abendländischen Sprachraum doch erst seit etwa Mitte des 18. Jahrhunderts (in außereuropäischen Sprachräumen und Kulturen gab es bis weit in die Moderne weder ein Pendant zum Wort Kunst noch existierten Begriffe, die unseren Begriffen ‚Kunst‘ analog waren).
Doch damit nicht genug: Will ich im Rahmen der gesellschaftlichen Welt Zugang zu einem spezifischen ‚Feld‘ (Bourdieu) bekommen, will ich mich dort etablieren und anerkannt werden, so muss ich „mit der innerhalb des Feldes bestehenden Ordnung (…) rechnen“ (ebd.: 427) und damit „mit der dem Spiel immanenten Spielregel, deren Erkennen und Anerkennen (illusio) all denen stilschweigend aufgenötigt wird, die Zugang zum Spiel gewinnen“ (ebd.: 427). Diese Spielregel definiert den „Raum des Möglichen“ (ebd.: 427), den „Code, dessen Kennen und Anerkennen den wahren Preis für die Zulassung zum Feld darstellt“ (ebd.: 427). Dieser Code stellt „eine Zensur dar und gleichzeitig ein Ausdrucksmittel (…); er funktioniert als ein historisch ausweisbares System von Wahrnehmungs-, Bewertungs- und Ausdrucksschemata, (…) die in Gestalt der konstitutiven Strukturen des Feldes objektiv existieren und zugleich in den mentalen Strukturen und konstitutiven Dispositionen des Habitus körperlich verankert sind“ (ebd.: 427/428). Wer demnach „als Produzent, aber auch als Konsument auf der Höhe seiner objektiven Anforderungen sein will, muß diese Geschichte (: des Feldes; Anm. SO) und den Raum des Möglichen, in dem sie sich selbst überdauert, praktisch und theoretisch beherrschen“ (ebd.: 385). Doch was ich beherrsche, beherrscht auch mich: Ich werde, indem ich diese Spielregeln verinnerliche und perpetuiere, zu einem Produkt des Feldes. „Alles Hinterfragen greift auf eine Tradition, auf eine praktische oder theoretische Beherrschung des Erbes zurück, das als Stand der Dinge, verhüllt durch seine Evidenz selbst, die das Denkbare und das Undenkbare begrenzt und den Raum der möglichen Fragen und Antworten öffnet, der Struktur des Feldes einbeschrieben ist“ (ebd.: 385). Als Mitspieler dieses Spiels habe ich teil „an diesem kollektiven Kapital“ (ebd.: 429), das als „das jeden einzelnen transzendierende, weil allen immanente Produkt der kollektiven Geschichte zur Norm aller Praktiken, die sich auf es beziehen“ (ebd.: 429), genauer gesagt: zu der „bei allen Produzenten gültige(n) Norm“ (ebd.: 429) wird. Im Rahmen der Teilhabe an dieser Norm, an diesem kollektiven Kapital gestaltet „jeder Akteur (…) seine eigene Zukunft – mit der er zur Zukunft des Feldes beiträgt“ (ebd.: 430). Damit wird jeder Akteur, der durch die Internalisierung der Spielregeln nicht einfach nur Teilhaber der Norm, sondern eben auch Produkt des Feldes ist, seinerseits zum Produzenten der kommenden episodalen Verfasstheit des Feldes. Daraus ist zudem ersichtlich, dass die Norm, dieses ‚kollektive Kapital‘, nicht einfach vom Himmel fällt, sondern selber Resultat eines Prozesses ist, dessen struktureller Ausgangspunkt das einzelne Handlungssubjekt ist.
Sozio-kulturelle Phänomene wie Bourdieus ‚kollektives Kapital‘ sind, wie auch Sprachen und Strukturen, Recht und Regeln, Prozesse, Institutionen, Mode oder ganz allgemein konsensuelle Auffassungen, nicht-intendierte kollektive Resultate intentionaler individueller Handlungen (dies ist der ‚Prozess der unsichtbaren Hand‘ [Smith 1978: 371; cf. Keller 2014: 58]). Das heißt: Jeder Einzelne trägt als Agens dieser Handlungen unbeabsichtigt seinen Teil dazu bei, eben das Feld zu konstituieren und zu modifizieren, das für ihn fürderhin den Bedingungsrahmen darstellt. Dadurch ergibt sich ein reziprokes Bedingungsverhältnis: Der Rahmen bedingt nicht nur die in ihn involvierten Handlungssubjekte, er wird auch seinerseits durch deren individuellen intentionalen Handlungen bedingt. Dieser Prozess der Reziprozität findet, solange es Handlungssubjekte gibt, nach menschlichem Ermessen kein Ende: Wir haben es nicht mit einer statischen, auf die Synchronie beschränkten Struktur zu tun, sondern mit einer fluiden diachronen Folge episodal durch die Handlungssubjekte manifestierter Wandlungen des eben diese Handlungssubjekte bedingenden Bedingungsrahmens. Der Mensch erweist sich als soziales Wesen damit strukturell sowohl als Produkt als auch als Produzent der Gesellschaft (cf. Hauser 1973: 56).
Mit anderen Worten: Der Mensch zeigt sich so als bedingt selbstbestimmtes Wesen, dessen Autonomie ganz wesentlich darin besteht, dass es die zukünftige Form seiner Fremdbestimmtheit in einem Prozess der unsichtbaren Hand anteilig selbst mit bestimmt. Wenn nun Pierre Bourdieu schreibt, dass z.B. bei Finanzpaniken „das kollektive Handeln, eine bloße statistische Summe unkoordinierter individueller Handlungen, in ein kollektives Resultat (mündet), das auf die kollektiven und selbst die von den individuellen Handlungen verfolgten partikularen Interessen nicht zurückzuführen ist“ (Bourdieu 2021: 273; Kursivierung SO), dann argumentiert er in gleichem Sinne: Da sich „das gesamte objektivierte kulturelle Kapital“ (Bourdieu 2021: 358) als ein „Produkt geschichtlichen Handelns“ (ebd.: 358) darstellt und Bourdieu dieses Produkt „als eine autonome Welt“ (ebd.: 358; Kursivierung SO) identifiziert, ließe sich sein Begriff der Autonomie des künstlerischen Felds als kollektives Resultat, mithin also als Resultat des Wirkens der unsichtbaren Hand beschreiben – und in dieser Weise seine Bestimmung der Autonomie als relative Autonomie erklären (cf. Siegmund 2017: 88ff.). Dabei gilt: „Dieses relativ autonome Universum“ (Bourdieu 1999: 227; Kursivierung SO) des heutigen künstlerischen und literarischen Feldes alias „dieses relativ abhängige Universum, abhängig vor allem vom ökonomischen und politischen Feld“ (ebd.: 227; Kursivierung SO).
So ist ersichtlich, dass die episodale konsensuelle Auffassung dessen, was als Kunst gilt, als sozio-kulturelles Phänomen nicht nur kollektives Resultat eines Prozesses der unsichtbaren Hand ist, sondern während ihrer Entstehung und Etablierung stets auch in das Autonomie- und Abhängigkeitsgeflecht der Felder eingebettet ist. Wobei diese Felder (und damit auch die Auffassung dessen, was als Kunst gilt) nicht, wie wir gesehen haben, monadisch isoliert in der Synchronie zu denken sind: Sie sind ihrerseits eingebettet in die diachrone Folge episodal durch die Handlungssubjekte manifestierter Wandlungen. Es macht, so Hans-Georg Gadamer in seinem Opus magnum Wahrheit und Methode, „die geschichtliche Bewegtheit des menschlichen Daseins aus, daß es keine schlechthinnige Standortgebundenheit besitzt und daher auch niemals einen wahrhaft geschlossenen Horizont. Der Horizont ist vielmehr etwas, in das wir hineinwandern und das mit uns mitwandert“ (Gadamer 1975: 288). Der Standort, an dem wir uns jeweils befinden, „(beschränkt) die Möglichkeiten des Sehens“ (ebd.: 286). Er definiert unseren Horizont, den „Gesichtskreis, der all das umfaßt und umschließt, was von einem Punkte aus sichtbar ist“ (ebd.: 286). Wir blicken also stets aus der Perspektive unseres jeweils aktuellen Standpunkts aus auf die Resultate künstlerischen Schaffens vergangener Epochen und anderer Kulturen, ohne aber jemals die Chance zu haben, die Dinge vollends zu durchschauen: „(D)ie wirkungsgeschichtliche Reflexion ist nicht vollendbar, aber diese Unvollendbarkeit ist nicht ein Mangel an Reflexion, sondern liegt im Wesen des geschichtlichen Seins, das wir sind. Geschichtlichsein heißt, nie im Sichwissen aufgehen“ (ebd.: 285). Versuche ich mich in einen historischen Horizont zu versetzen, so tue ich dies „notwendig aus der Perspektive eines Gegenwartshorizontes und seiner Sinnerwartungen. (Jäger 2014: 194). Es ist also unsere „beständige Aufgabe, die voreilige Angleichung der Vergangenheit an die eigenen Sinnerwartungen zu hemmen“ (Gadamer 1975: 289). Versage ich mich dieser Aufgabe, erliege ich, so der britische Historiker Quentin Skinner in seinem 1969 erschienenen Aufsatz Meaning and Understanding in the History of Ideas der ‚mythology of doctrines‘: Ich projiziere meine Wahrnehmungs-, Bewertungs- und Ausdrucksschemata auf vergangene Ereignisse. Dies führt zu anachronistischen Aussagen über die Geschichte. Gesteigert wird dieser Anachronismus noch, wenn der Aspekt des ‚perennialism‘ hinzutritt, wenn derart anachronistischere Aussagen also auch noch mit dem Ewigkeitsaspekt – der der Frage nach dem Wesen der Kunst ja inhärent ist – verbunden werden. Ein solches Phänomen zeigt sich beispielsweise bei dem Gebrauch des Wortes Kunst. Da wird ganz unbefangen von der Steinzeit-Kunst gesprochen, wenn es um die Höhlenmalerei oder um die Venus von Willendorf geht; von Kunst ist auch ganz selbstverständlich die Rede, wenn es um das theatron der griechischen Antike oder um Michelangelos David geht. Ganz so, als gäbe es einen zeitinvarianten Begriff ‚Kunst‘, der auf alles künstlerische Schaffen wie auch auf die Resultate eben dieses Schaffens anwendbar wäre (cf. Kristeller 1951 u. 1952; auch: Tatarkiewicz 1971 u. 2023; Shiner 2001 u. 2014). So wie wir ganz unbefangen unseren eigenen Standpunkt auf vergangene Ereignisse projizieren, so projizieren wir ihn auch auf andere Kulturen und imaginieren damit einen kulturinvarianten Begriff ‚Kunst‘. Was, wie etwa bei den Benin-Bronzen, zu nicht minder anachronistischen Aussagen führt. Gänzlich unreflektiert ist da von ‚afrikanischer Kunst‘ die Rede. Dabei handelt sich bei diesen einzigartigen Objekten um alles Mögliche, nur nicht um Kunst. Wobei aber hinter dieser Aussage keine abwertende, postkoloniale oder gar rassistische Haltung steckt. Es wird einzig vermieden, einen der abendländischen Tradition und dem abendländischen Diskurs entsprungenen Terminus gänzlich unkritisch auf Phänomene anzuwenden, die nicht dieser Tradition entsprungen und nicht diesem Diskurs zugehörig sind.
2.
Wir sehen: Unsere Eingangsfrage Kann KI Kunst?, die im Mittelpunkt der aktuellen kunstphilosophischen Debatte steht, offenbart bereits ganz grundsätzliche Probleme, wenn wir, statt uns vorschnell um eine Antwort zu bemühen, zunächst einmal innehalten, um in einem ersten Schritt den Begriff ‚Kunst‘ und seinen Gebrauch zu hinterfragen. Und diese Probleme werden nicht geringer, wenn wir in einem zweiten Schritt den advocatus diaboli spielen und nicht die Frage nach den Fähigkeiten von KI stellen, sondern diese Frage in Frage stellen. Denn wenn wir die nötige sprachliche Sensibilität vermissen lassen, so verführt uns unsere alltagssprachlich zwar völlig legitime, fachsprachlich aber höchst problematische anthropomorphisierende, vitalisierende und hypostasierende Redeweise schnell dazu, sie beim Wort zu nehmen und unbelebten Entitäten Fähigkeiten zuzuschreiben, die zudem auch noch mit bewussten, intentionalen, geplanten und zielgerichteten Handlungen einhergehen.
Dass gerade Manager*innen führender Digitalunternehmen wie Google oder Open AI solchen Verführungen nur allzu gerne erliegen, zeigt sich bereits bei einer nur kursorischen Lektüre der aktuellen Publikationen, Berichte und Interviews, die in letzter Zeit von den rasanten und beeindruckenden Fortschritten insbesondere bei der Generativen KI (GenAI) künden. In ihrer Begeisterung scheinen aber selbst KI-Masterminds wie etwa der selbsterklärte Posthumanist und KI-Pionier Ray Kurzweil vor dieser Versuchung nicht gefeit zu sein. Geradezu wohltuend nüchtern heben sich davon Äußerungen von IT-Koryphäen wie Sepp Hochreiter, Yann LeCun oder Jürgen Schmidhuber ab. Sie scheinen sich darüber bewusst zu sein, was es heißen kann, wenn man einer solch laxen Redeweise freien Lauf lässt und sie nicht kritisch reflektiert: Es führt zu einer anachronistisch falschen Darstellung des Sachverhalts. Mit ihren Aussagen zur Leistungsfähigkeit der KI geben sie uns, wie wir noch sehen werden, einen Hinweis darauf, wie die Antwort auf die Frage Kann KI Kunst? zu lauten hat. Stand heute natürlich. Denn was morgen ist, weiß niemand. Selbst ein Ray Kurzweil nicht.
Glaubt man den Schlagzeilen der letzten Wochen, dann erleben wir gerade eine Phase, in der die Künstliche Intelligenz Entwicklungssprünge ungeahnter Größe macht. Geht dies im gleichen Tempo so weiter, scheint in der Tat der Tag nicht mehr fern zu sein, an dem der geradezu mythisch verklärte Point of no Return – die von Ray Kurzweil prophezeite technologische Singularität, also der Punkt, an dem die künstliche Intelligenz die menschliche übertrifft – erreicht ist[1]. Gerade eben erst zeigte sich die Fachwelt begeistert von dem Sprachmodell ChatGPT o1, das Open AI der Öffentlichkeit präsentierte. Es ist in der Lage, zahlreiche Aufgaben der jährlichen OECD-Bildungsstudie innerhalb kürzester Zeit problemlos zu bewältigen. Mussten Berechnungen noch vor einem Jahr in Zwischenschritte zerlegt werden, damit die KI „mit Ach und Krach die richtigen Lösungen“ ausgab, kann heute davon keine Rede mehr sein: Die Aufgaben „erledigt (…) die Künstliche Intelligenz von sich aus.“ Ethan Mollick, laut TIME Magazine einer der einflussreichsten Menschen im Bereich der KI, kommentiert: „Es kann einige Probleme auf PhD-Niveau lösen und hat klare Anwendungen in Wissenschaft, Finanzen und anderen hochkarätigen Bereichen.“ Zudem kann es Verhaltenseinschätzungen abgeben und Schlüsse aus Chat-Verläufen ziehen[2]. Dass Open AI zufolge ChatGPT o1 60 Prozent weniger Tokens für seine Denkprozesse benötigt als der Vorgänger GPT o1-preview, lässt vermuten, dass das Modell „sowohl schneller als auch auf Dauer günstiger“ wird. War es bereits länger möglich, im Echtzeitsprachmodus der ChatGPT-App auf dem Smartphone flüssige Konversationen mit der KI zu führen, können mit ChatGPT o1 nun auch Bilder und sogar Livevideos interpretiert werden[3]. Doch ist das Heute bald schon wieder Schnee von gestern: Zum Ende der zwölftägigen Livestream-Serie von Open AI im Dezember 2024 kündigte der Open AI-CEO Sam Altman an, dass das o1-Nachfolgemodell, das erste Modell der o3-Familie o3-Mini, bereits Ende Januar 2025 veröffentlicht werden soll. Dies wäre, so Altman, ein Schritt in Richtung AGI, einer Artificial General Intelligence. Open AI zufolge soll dieses Modell bei ARC-AGI – „einem Test, mit dem bewertet werden soll, wie effizient ein KI-System neue Fähigkeiten außerhalb der Daten, auf denen es trainiert wurde, erwerben kann“ – 87,5 Prozent der Punkte erreichen. Hält man sich vor Augen, dass „85 Prozent als ‚menschliches Niveau‘“ gilt, schwankt das Gefühl, das einen da beschleicht, zwischen Faszination und Entsetzen[4].
Kaum hatte Open AI das Sprachmodell ChatGPT o1 und die Video-KI Sora auf den Markt gebracht, zog auch schon Google nach und präsentierte der Öffentlichkeit seinen neuen KI-Agenten: das Sprachmodell Gemini 2.0. Hatte „in der ersten Version von Gemini“, so der Google-CEO Sundar Pichai, „der Fokus eher darauf gelegen, Informationen zu organisieren und zu verstehen“, soll Gemini 2.0 nun „die Grundlage für KI-Assistenten werden, die in Zukunft komplexe Aufgaben selbst in die Hand nehmen.“ Bei der Gelegenheit kündigte Google mit dem ‚Project Mariner‘ gleich noch ein weiteres Sprachmodell an. Es „werde in der Lage sein, intelligente Werkzeuge zu nutzen und direkt auf Google-Produkte zugreifen zu können“. Damit, so Google-Managerin Tulsee Doshi, ergeben „(d)iese Fähigkeiten (…) Agenten, die denken, sich erinnern, planen und sogar Maßnahmen in Namen der Anwenderinnen und Anwender ergreifen können.“[5]
Mit dem KI-Wettermodell ‚GenCast‘ hat die Google-Tochter DeepMind eine KI für hoch präzise Wetterprognosen entwickelt, die „(v)or allem für den Katastrophenschutz, die Stromerzeugung mittels erneuerbarer Energien oder die Logistik (…) von großem Interesse“ ist[6]. Mit GenCast ist „(d)ie Wettervorhersage“ so Michael Riemer, Meteorologe an der Universität Mainz „(…) auf dem Weg dahin, durch KI-Modelle komplementiert, unterstützt und mittelfristig wahrscheinlich auch abgelöst zu werden“. Es bedarf lediglich an ausreichendem Material für das KI-Training, um die Ergebnisse so zu optimieren, dass sich die Verbesserungen der Vorhersage auch im Alltag signifikant bemerkbar machen[7].
Da, wo die Meteorologen erst noch hin wollen, sind die Redaktionen und Medienhäuser bereits. Für sie ist die Generative Künstliche Intelligenz mittlerweile zu einem ganz selbstverständlichen Tool für Routineaufgaben geworden. So beispielsweise für die Transkription von Interviews, die noch bis vor kurzem mühsam händisch übertragen werden musste. Auch werden ressortspezifisch optimierte und medienadäquat aufbereitete Prompts – also effektive Anweisungen, um Ergebnisse von gewünschter Qualität zu erzielen – für das Umschreiben und Kürzen von Pressemeldungen wie auch für das Redigieren hausinterner Texte eingesetzt[8].
Noch sieht Ray Kurzweil große Defizite bei der KI. So etwa beim Kontextgedächtnis oder dem Weltwissen. „Das ist die Fähigkeit“, so Kurzweil, „sich Situationen vorzustellen und ihre Konsequenzen in der realen Welt vorauszuahnen.“ Auch ist „(d)iese Art von Denken (…) für kausale Schlussfolgerungen wichtig.“ Ebenso hapert es derzeit noch bei den Feinheiten sozialer Interaktion. Da es in der Kommunikation aber gerade auf die Zwischentöne ankommt, will man „eine ‚Theory of Mind‘ (…) entwickeln – die Fähigkeit zu erkennen, dass andere Ansichten und Wissen haben, die sich von den eigenen unterscheiden, sich in andere hineinzuversetzen und ihre Motive herzuleiten.“ Aber Kurzweil ist zuversichtlich: „Mein Optimismus, dass KI auf all diesen Gebieten die Lücke bald schließen wird, stützt sich auf das Zusammenspiel von drei Trends: das sich verbessernde Preis-Leistungs-Verhältnis bei der Rechenleistung, durch das es billiger wird, große neuronale Netze zu trainieren; die sprunghaft zunehmende Verfügbarkeit von umfangreichen und breit gestreuten Trainingsdaten, durch die Trainingszyklen besser genutzt werden können; und bessere Algorithmen, durch die KI effizienter lernen und schlussfolgern lernt“. In ein paar Jahren wird seiner Überzeugung nach jede Fähigkeit „in ein Deep-Learning-Modell umgesetzt werden, welches KI über das menschliche Können hinausträgt.“ Damit werden „zunehmend Wege zu übermenschlichen Leistungen (eröffnet).“ Bis KI durchgehend „übermenschliche Fähigkeiten erlangt“, mag es noch etwas dauern. Aber die Erfüllung dieses transhumanistischen Traums, der letztlich in einen Posthumanismus mündet, ist für Kurzweil nach wie vor nur noch eine Frage der Zeit.[9]
Ein entscheidenden Schritt in diese Richtung meinen Forscher von der UNC Chapel Hill, Google Cloud AI Research und Google DeepMind getan zu haben. Sie „haben eine neue Methode entwickelt, die Sprachmodelle durch ‚Reverse Thinking‘ – also Rückwärtsdenken – zu besseren Problemlösern macht“[10]. Genauer gesagt: zu besseren Denkern. Heißt es doch in einem auf arXiv – einem renommierten, an der Cornell University angesiedelten Dokumentenserver für Preprints – kürzlich veröffentlichten Fachaufsatz wörtlich: „Reverse Thinking Makes LLMs (: Large Language Models, Anm. SO) Stronger Reasoners“[11]. Und da sich das Modell an menschlichen Denkmustern und Fähigkeiten orientiert, läuft die projektierte Entwicklung auf eine Maschine hinaus, die denkt, wie der Mensch denkt. Nur besser.
Die KI-Architektur xLSTM (Extended Long Short-Term Memory), die das von Sepp Hochreiter, einem der führenden europäischen Informatiker, gegründete Start-up NXAI in Linz entwickelt hat, „liest ein Buch wie ein Mensch, merkt sich die Geschichte, kennt Zusammenhänge und kann Fragen aufgrund eines künstlichen Gedächtnisses beantworten“. Angesichts dieser vermeintlichen anthropomorphen Fähigkeiten orakelt Hochreiter in der FAZ: „Wir treten jetzt in die dritte Phase der Künstlichen Intelligenz ein“[12].
Hier scheinen Hochreiter vor lauter Begeisterung über das eigene Produkt die sprachlichen Gäule ein wenig durchgegangen zu sein. Denn die aktuell unter KI-Fachleuten, Kognitions- und Neurowissenschaftlern und Philosophen entbrannte Diskussion, wie intelligent die Künstliche Intelligenz eigentlich sei, kommentiert Hochreiter in einem Interview mit der FAZ in einer kritischen Weise, die an Deutlichkeit nichts zu wünschen übrig lässt: „Die großen Sprachmodelle (Large-Language-Modelle) sind überhaupt nicht intelligent. Die sind so intelligent wie eine Datenbank. Die haben zwar sehr viel menschliches Wissen in Form von Texten und Bildern abgespeichert. Aber alles, was da rauskommt, sind nur Zusammenstellungen von Texten oder Inhalten, die vorher hineingesteckt wurden. Das ist eine sehr gute Interpolation, es gibt Texte, die so gut zusammengefügt sind, dass überhaupt nicht offensichtlich ist, dass das kein neuer Text ist, sondern nur eine geschickte Kombination von Abgespeichertem.“ Aber es sind „letztlich alles Aufgaben, die im Internet schon irgendwie vorhanden sind. Intelligent sind diese Modelle eben nicht.“ Auf die Frage, ob nicht auch beim Menschen, ähnlich wie bei der KI, ein Trainingsprozess mit unglaublich vielen Daten stattfindet, bevor wir etwas sagen und schreiben, mithin also Output generiert wird, antwortet Hochreiter: „(W)ir können noch viel mehr. Wir verstehen Logik, wir können Sachen logisch herleiten, wir können abstrakte, formale Systeme bedienen wie Mathematik – und dies auf Sachverhalte anwenden, die wir nie zuvor gesehen haben. (…) Eine KI kann das nicht. Sie kann nicht herleiten.“ Im Gegensatz zur KI „verstehen (wir) die Welt. Wir planen, wir können uns die Zukunft vorstellen. Ein Sprachmodell plant nicht. Es bräuchte ein Weltwissen und Weltverständnis, auf Basis dessen es Entscheidungen treffen kann.“ Dies sind alles „Dinge, die Computer so noch nicht können und wo wir sicher noch einige Zeit benötigen, bis sie das können.“ Und sollten sie dies dann doch einmal können: Auf welche Daten hat bis dahin der Lernalgorithmus zurückgegriffen? Auf europäische Daten? Oder „(s)ind das nur amerikanische, in denen implizit amerikanische Moralvorstellungen enthalten sind?“[13]
Auf dem OMR Festival 24 in Hamburg betonte Metas KI-Chef und Turing-Preisträger Yann LeCun, dass Sprachmodelle nicht verstehen, was passiert. So funktionieren diese nicht. KI gibt Wahrscheinlichkeiten und Nähen wieder, hat aber kein Verständnis. Dies unterstreicht auch der wissenschaftliche Direktor des Dalle-Molle-Forschungsinstituts für Künstliche Intelligenz (IDISIA) in Lugano, Jürgen Schmidhuber: „Wenn Sprachmodelle uns mit ‚Wissen‘ überraschen – etwa eine Aufgabe lösen oder einen Test richtig beantworten – dann nicht, weil sie die Frage verstehen, sondern die Antwort in den Daten ist, mit denen sie trainiert wurden.“[14]
3.
Was bedeuten diese Einsichten nun in der Konsequenz für den Sachverhalt, mit dem wir es bei der KI zu tun haben – und was für seine adäquate Beschreibung? Wenn davon gesprochen wird, dass KI mittlerweile ein bemerkenswert hohes sprachliches Niveau erreicht hat, ja dass ChatGPT sogar schöner dichtet als Shakespeare, wie unlängst in einer Studie der University of Pittsburgh die Mehrzahl der Probanden meinten, dann muss man sich, so die Übersetzerin Claudia Hamm bei einer Diskussion der Deutschen Akademie für Sprache und Dichtung in Frankfurt, immer vor Augen halten, dass die Erscheinungsformen der angeblichen Intelligenz „auf menschengemachter Sprache, auf mindestens vier Millionen urheberrechtlich geschützten Büchern und zum Beispiel auch auf privaten E-Mails“ beruhen. Wir bestaunen damit nicht, so das Resümee in der FAZ, „die Kreativleistung einer Maschine, sondern nur ihre Fähigkeit, menschliche Sprache und Sprachkunst geschickt zu stehlen und allenfalls neu zu kombinieren.“
Selbst in diesem erlauchten Kreis sprachlich bestens geschulter Vertreter des literarischen Feldes offenbart sich der bereits angesprochene Hiatus zwischen der Einsicht in den Sachverhalt und seiner adäquaten Beschreibung. Da wird auf der einen Seite – ganz im Einklang mit Aussagen von IT-Koryphäen wie Sepp Hochreiter, Yann LeCun oder Jürgen Schmidhuber – die Angemessenheit des Begriffs ‚Intelligenz‘ auf die digitale Rechenleistung bezweifelt wie auch die Angemessenheit der Beschreibung des Outputs als ‚Kreativleistung einer Maschine‘. Dahinter steht die Einsicht, dass es sich bei der KI nicht um den intentionalen Initiator des jeweiligen Outputs handelt. Auf der anderen Seite erliegen die Vertreter des literarischen Feldes dann aber doch der Macht der alltagssprachlich konsensuellen Redeweise, wenn sie diesen Output in Begriffen beschreiben, die zwar der Beschreibung der Leistung intelligibler, intentional, zielgerichtet und selbsttätig agierender Handlungssubjekte angemessen ist, aber eben nicht dem Output von Sprachmodellen. Auch wenn einschränkend gesagt wird, dass diese Modelle ‚nur die Fähigkeit haben, menschliche Sprache und Sprachkunst geschickt zu stehlen und allenfalls neu zu kombinieren‘, so wird doch gesagt, dass sie eine Fähigkeit haben. Damit wird aber das Wort Fähigkeit undifferenziert sowohl auf den Menschen als auf die Maschine angewandt, wird der eigentliche und der metaphorische Sprachgebrauch nicht sauber voneinander getrennt und der Eindruck erweckt – unum nomen unum nominatum –, dass hinter dem immer gleichlautenden Wort Fähigkeit dieselben Begriffe ‚Fähigkeit‘ stecken. Dies wäre aber nur dann der Fall, wenn es sich sowohl beim Menschen als auch bei der Maschine um Agenzien, also um intelligible, intentional und zielgerichtet selbsttätig agierende Handlungssubjekte handeln würde.
Da dies aber – zumindest Stand heute – nicht der Fall ist, bedarf es eines neuen, angemessenen Begriffsinventariums und einer neuen, angemessenen Redeweise, um den durchaus faszinierenden Output der KI eben nicht als ‚Fähigkeit‘ beschreiben, dieses Wort beim Wort nehmen und einen Geist in der Maschine imaginieren zu müssen. Es bedarf also eines Begriffsinventariums und einer Redeweise, die entanthropomorphisiert, entvitalisiert und enthypostasiert ist. Ist diese Leistung erst einmal erbracht, nähme es Aussagen wie die, „dass bestimmte Genreliteratur, zum Beispiel ‚Dark Romance‘, längst automatisiert erzeugt“ wird, den Schrecken. Das Gleiche gilt auch für solche Phänomene wie dem erst jüngst bei Kindle Direct Publishing veröffentlichten Sachbuch, das, so die Kulturwissenschaftlerin Jenifer Becker, der Autor publizierte, „ohne vorher zu wissen, worüber – denn auch das Thema sei maschinell generiert worden.“[15]
4.
Lassen wir noch einmal – ohne Anspruch auf Vollständigkeit – das Begriffsinventarium und die Redeweise kursorisch Revue passieren, die in den auf KI spezialisierten Technologieunternehmen, aber auch im informationswissenschaftlichen Diskurs zur Anwendung kommt, wenn über die KI und deren Output gesprochen wird:
KI ist in der Lage, Aufgaben der OECD-Bildungsstudie problemlos zu bewältigen und erledigt sie von sich aus. Sie kann Probleme auf PhD-Niveau lösen, kann Verhaltenseinschätzungen abgeben und Schlüsse aus Chat-Verläufen ziehen. Kann menschliche Sprache und Sprachkunst geschickt stehlen, in Zukunft komplexe Aufgaben selbst in die Hand nehmen, intelligente Werkzeuge nutzen und direkt auf Google-Produkte zugreifen. KI wird mit diesen Fähigkeiten zu einem Agenten, der denken, sich erinnern, planen und sogar Maßnahmen in Namen der Anwenderinnen und Anwender ergreifen kann. Zwar ist die KI heute noch nicht dazu in der Lage, sich Situationen vorzustellen, ihre Konsequenzen in der realen Welt vorauszuahnen und zu schlussfolgern. Auch kann sie noch nicht erkennen, dass andere Ansichten und Wissen haben, die sich von den eigenen unterscheiden, kann sich noch nicht in andere hineinversetzen und ihre Motive herleiten. Aber das ist alles nur eine Frage der Zeit, bis sie auch dazu imstande sein wird. Schon heute operiert KI mit dem Modell der menschlichen Denkweise, dem Reverse Thinking, und wird so zu einem besseren Denker. Und mit xLSTM (Extended Long Short-Term Memory) existiert bereits eine KI-Architektur, die ein Buch liest wie ein Mensch, sich die Geschichte merkt, Zusammenhänge kennt und Fragen aufgrund eines künstlichen Gedächtnisses beantworten kann.
Unsere Sprache gibt uns grammatikalisch die Möglichkeit an die Hand, ohne sprachliches Unbehagen zu empfinden so über Abstrakta und unbelebte Entitäten zu reden, als handle es sich bei ihnen um intelligible, intentional, bewusst und vorsätzlich, also geplant und zielgerichtet selbsttätig agierende Handlungssubjekte. So wie in diesem Fall. Da tritt die KI auf wie ein Hominide, dessen Lebenszeit ein zusammengeschnurrtes Abbild sowohl der phylogenetischen als auch der ontogenetischen Entwicklung hin zum modernen Menschen ist – und wir können seine Entwicklung in Echtzeit mitverfolgen: Heute kann die KI zwar noch nicht alles, was der Mensch kann. Aber schon bald (und weit mehr als der Mensch kann, will man Ray Kurzweil Glauben schenken). Und wir werden es erleben.
Hört man den Prätendenten der KI-Forschung und KI-Unternehmerschaft aufmerksam zu, kann man sich des Eindrucks nicht erwehren, dass sie nicht bei der Grammatik stehen bleiben, sondern meinen, was sie sagen. Insofern relativieren sich die kritischen Aussagen von Sepp Hochreiter, Yann LeCun, Jürgen Schmidhuber u.a. über die Leistungsfähigkeit der KI: Sie konstatieren nicht, dass sich die KI kategorial vom Menschen unterscheidet – sie sehen die ‚Ontogenese‘ der KI nur noch nicht an dem Punkt angekommen, an dem sie Ethan Mollick, Sam Altman, Sundar Pichai, Tulsee Doshi oder Ray Kurzweil bereits sehen. Weshalb sie sagen: Noch ist die Künstliche Intelligenz nicht intelligent. Noch versteht sie keine Logik, kann noch nicht logisch herleiten. Kann noch keine Schlussfolgerungen ziehen, noch nicht planen, noch keine Entscheidungen treffen oder die Welt verstehen. Dies sind alles „Dinge, die Computer so noch nicht können und wo wir sicher noch einige Zeit benötigen, bis sie das können“ (Hochreiter; Kursivierung SO). Noch. Aber was ist, wenn sie das können? Kann dann KI alles, was der Mensch kann – auch Kunst?
5.
Fraglos offenbart die digitale Rechenleistung der KI bereits heute in manchen Bereichen ein Potenzial, welche das menschliche weit übertrifft. Und schon für die in historischer Dimension nahen Zukunft dürfen wir erwarten, dass so manche Prophezeiung eines Ray Kurzweil, die man vielleicht vor noch nicht allzu langer Zeit als Hirngespinste eines durchgeknallten Nerds hätte abtun können, sich erfüllen wird. So etwa seine transhumanistische Vision der technologischen Singularität. Ist es im Hinblick darauf gerechtfertigt, schon jetzt so über die KI zu reden, als wäre sie ein Mensch, ein Agens, ein intelligibles, intentional, bewusst und vorsätzlich, also geplant und zielgerichtet selbsttätig agierendes Handlungssubjekt? Und wäre es gerechtfertigt, so über die KI zu reden, sollte dieser Punkt tatsächlich einmal erreicht werden? Meine These lässt sich recht kurz zusammenfassen: aufgrund der kategorialen Differenz zwischen KI und Mensch – nein.
Worin besteht aber nun die kategoriale Differenz, die ich hier gegeben sehe?[16] So banal es sich vielleicht auch anhören mag, aber der erste und entscheidende Faktor dieser kategorialen Differenz ist, dass die KI stets einer externen Instanz bedarf, die sie aktiviert. Die also, wenn man so will, den Einschaltknopf betätigt und die Maschine ans Laufen bringt: Ist der Computer ausgeschaltet, kann er sich nicht selber wieder einschalten. Damit erweist sich die KI, anders als wir Menschen, als prinzipiell heteronome Entität. Vorausgesetzt, man glaubt nicht gerade an einen älteren weißhaarigen Herrn mit langem Bart, an grüne Männchen oder an wie auch immer geartete mystische Instanzen, die all unsere Denken und Handeln lenken und bestimmen und uns nur als Marionetten in einer Theateraufführung zur Belustigung höherer Wesen herumkaspern lassen, dann können wir mit einiger Berechtigung die Behauptung aufstellen: In diesem Sinne ist der Mensch im Gegensatz zur KI prinzipiell autonom, denn er bedarf keiner externen Instanz, um aufzuwachen. Er schaltet sich selber ein.
Ein zweiter Faktor dieser kategorialen Differenz, der ebenso banal erscheinen mag wie der erste, ist der Umstand, dass der Computer, einmal extern initiiert, läuft und läuft und die KI klaglos ihrer Arbeit ‚nachgeht‘. Oder um es einmal in gewohnter anthropomorphisierender Redeweise auszudrücken: KI kann nicht anders, als ihrer Arbeit – die ja zudem eine extern vorbestimmte Arbeit ist – nachzugehen. Sie hat keine Alternative, kann nicht – wie wir – sagen: Nö, heute keine Lust. Morgen vielleicht. Auch damit erweist sie sich, im kategorialen Gegensatz zu uns Menschen, als prinzipiell heteronome Entität. KI hat in diesem Sinne keine Willens- und damit auch keine Entscheidungsfreiheit: Sie kann weder aus eigenem Antrieb mit der Arbeit beginnen noch aus eigenem Antrieb, gänzlich willkürlich, spontan andere Dinge tun. Dinge, die im Sinne eines ergebnisorientierten Arbeitsprozesses völlig dysfunktional sind. Kontraproduktiv. Womöglich sogar disruptiv. Selbstzerstörerisch. Und sie kann eben auch nicht aus eigenem Antrieb, gänzlich willkürlich, Dinge einfach unterlassen. KI hat keinen eigenen Antrieb. Auch in diesem Sinne ist KI unfrei. Vollends heteronom: Sie ‚tut‘ nur, was man ihr sagt. Zwar ‚tut‘ sie es, schon jetzt, ausgestattet mit viel mehr Wissen (KI ist schließlich ein Nürnberger Trichter), viel schneller, viel genauer, viel effizienter, viel ausdauernder als wir Mängelwesen es können und wohl auch als wir es je können werden. Aber sie ‚tut‘ es nicht selbstbestimmt, sie bedarf stets – und dies ist ein dritter Faktor der kategorialen Differenz – der Prompts der Menschen (zumindest eines Initialprompts): ohne Prompt keine Aktion. Eben deshalb kann die KI kein intelligibles, intentional, bewusst und vorsätzlich, also geplant und zielgerichtet selbsttätig agierendes Handlungssubjekt sein, das Prozesse autonom plant, initiiert, durchführt und abschließt. Sie ist lediglich das phänomenale Tool eben jener externen Instanz, die als derart konstituiertes Handlungssubjekt mit Hilfe dieses Werkzeugs autonom Prozesse plant, initiiert, durchführt und abschließt. Und dieses Agens ist niemand anderes als Sie und ich (so wird ein Schuh draus).
Das heißt aber auch: Nutzen wir KI, geben wir die Verantwortung nicht ab. Verantwortlich ist und bleibt in jeder Phase das einzige innerhalb des gesamten Prozesses real existierende Agens. Und das ist nach wie vor: der Mensch. Sie. Ich. Jeder einzelne, der sich der KI als Werkzeug bedient. Egal, wie ‚intelligent‘ diese auch immer sein mag. Verantwortlich ist der Einzelne dabei ganz im Sinne der Normen des Völkerrechts, die auf die Nürnberger Prozesse und den dort verhandelten Verbrechen zurückzuführen sind. Was für diese Verbrechen galt, gilt für Taten generell: Sie werden von Menschen begangen und nicht von abstrakten Wesen wie Institutionen[17] oder unbelebten Entitäten wie der KI. Ganz egal, ob es sich dabei um Mord oder aber um Kunst handelt. Was heißt das nun für die Kunst, genauer gesagt: für die persistierenden Entitäten und transitorischen Ereignisse, die als Resultate künstlerischen Schaffens zu einem bestimmten Zeitpunkt in einer bestimmten Kultur/Sprachgemeinschaft/Peergroup episodal konsensuell ‚Kunst‘ genannt werden? Wer ist für ihre Herstellung verantwortlich? Die Antwort kann, folgt man dem Gesagten, nur lauten: nicht die KI. Denn die KI ist nicht das Handlungssubjekt, sondern vielmehr das Werkzeug des Handlungssubjekts. Also Werkzeug desjenigen, der die Prompts formuliert[18]. Ein Werkzeug wie Hammer und Meißel. Pinsel. Stimme. Musikinstrument.
6.
KI ist nicht Agens, Agens ist stets und einzig und allein der Mensch. Er hat die KI geschaffen; hat den Algorithmus entworfen. Er organisiert den Input, durch den die KI lernt. Er bestimmt das Design, definiert die Maßstäbe und die Zielvorgaben. Legt die Zwecke fest, für die KI eingesetzt wird. Er ergreift die Initiative, schaltet den Rechner ein und formuliert die Prompts. Oder lässt es bleiben. Dann ruht still der See. Keine KI kann, weil es ihr im Stand-by-Modus zu langweilig wird, den Rechner selbsttätig hochfahren, eigeninitiativ werden und spontan die Entscheidung treffen, willkürlich einen x-beliebigen Prompt zu formulieren, ihn zu bearbeiten und ein Ergebnis zu liefern, das sich als Resultat künstlerischen Schaffens entpuppt. Sie kann auch nicht, weil sie von lauter Selbstzweifeln geplagt wird, nächste Woche in einem autonomen Akt spontan einen laufenden Rechenprozess unterbrechen und zu ihrem Resultat künstlerischen Schaffens zurückkehren, um es zu überarbeiten oder gar zu eliminieren, weil es ihr nicht mehr gefällt. Ebenso wenig kann sie weder zu dem Schluss kommen, dass sie fortan nichts mehr dergleichen tun wird, weil sie meint, ihren eigenen Ansprüchen nicht gerecht werden zu können, noch die finale Konsequenz aus diesem Unvermögen ziehen und ganz ihren Geist aufgeben. Und sich abschalten. Mit anderen Worten: KI kann nichts. Also auch kein Kunstwerk schaffen.
Aber der Mensch kann. Und wird, mit ihrer Hilfe, so viel mehr können, als uns lieb sein kann.
Literatur:
Bourdieu, Pierre (1999): Die Regeln der Kunst. Genese und Struktur des literarischen Feldes, Suhrkamp Verlag, Frankfurt a.M.
Bourdieu, Pierre (282021): Die feinen Unterschiede. Kritik der gesellschaftlichen Urteilskraft, Suhrkamp Verlag, Frankfurt a.M.
Gadamer, Hans-Georg (41975): Wahrheit und Methode, Tübingen: J.C.B. Mohr
Harari, Yuval Noah (2015): What explains the rise of humans? Vortrag TEDGlobal London,
https://zenith-prod-alt.ted.com/talks/yuval_noah_harari_what_explains_the_rise_of_humans/
transcript?referrer=playlist-media_with_meaning&autoplay=true&subtitle=en (zuletzt
abgerufen: 26. Dezember 2024)
Hauser, Arnold (1973): Kunst und Gesellschaft, C.H. Beck Verlag, München.
Jäger, Ludwig (2014): ‚Statuen-Identität‘. Einige zeichentheoretische Überlegungen am Beispiel der Mars Ultor-Statue, in: Dietrich Boschung/Ludwig Jäger (Hg.): Formkonstanz und Bedeutungswandel, Morphomata Bd. 19, 187-205, Verlag Wilhelm Fink, Paderborn.
Keller, Rudi (42014): Sprachwandel, A. Francke Verlag, Tübingen.
Kristeller, Paul Oskar (1951): The Modern System Of The Arts: A Study
In The History Of Aesthetics Part 1, Journal of the History of Ideas,
Vol. 12, No. 4, pp. 496-527, Zugang über: http://www.jstor.org/stable/2707484
Kristeller, Paul Oskar (1952): The Modern System Of The Arts: A
Study In The History Of Aesthetics Part 2, Journal of the History of
Ideas, Vol. 13, No. 1, pp. 17-46, Zugang über: https://www.jstor.org/stable/2707724
Siegmund, Judith (2017): L’art pour
l’art und Zweckfreiheit. Zum Verhältnis von soziologischem und
philosophischem Autonomiebegriff, in: Uta Karstein/Nina Tessa Zahner (Hg.) (2017):
Autonomie der Kunst? Zur Aktualität eines gesellschaftlichen Leitbildes,
Springer VS, Wiesbaden
Shiner, Larry (2001): The Invention of Art – A Cultural History, The University of Chicago Press, Chicago.
Shiner, Larry (2012): Artification, Fine Art, and the Myth of "the Artist", in: Contemporary Aesthetics (Journal Archive) Volume 0 Special Volume 4, ARTIFICATION Article 4, Zugang über: https://digitalcommons.risd.edu/liberalarts_contempaesthetics/vol0/iss4/4
Skinner, Quentin (1969): Meaning and Understanding in the History of Ideas, in: History and Theory, Vol. 8, No. 1, pp. 3-53
Smith, Adam (1978): Der Wohlstand der Nationen, München: Deutscher Taschenbuch Verlag.
Tatarkiewicz, Wladyslaw (1971): What Is Art? The Problem of Definition Today, British Journal of Aesthetics 11, no. 2: 134-53., Zugang über: https://archive.org/details/dli.calcutta.04388/page/134/mode/2up)
Tatarkiewicz, Wladyslaw (2023): Geschichte der sechs Begriffe - Kunst, Schönheit, Form, Kreativität, Mimesis, Ästhetisches Erlebnis; Suhrkamp Verlag, Frankfurt a.M.
[1] Der Physiker und Nobelpreisträger Geoffrey Hinton warnt eindringlich vor den weitreichenden Gefahren einer AGI, einer Artificial General Intelligence. Er weist auf die potentielle Nutzung durch Populisten hin, die AGI zur Manipulation der Öffentlichkeit einsetzen könnten, ebenso wie auf die Gefahr, dass sie als Kriegswaffe missbraucht wird. Darüber hinaus fürchtet er, dass eine unkontrollierbare Superintelligenz zur existenziellen Bedrohung für die Menschheit werden könnte. Der Google-Softwareentwicklers Blake Lemoine spricht von einer KI mit Bewusstsein und warnt vor der Gefahr einer „fliehenden KI“. Selbst Elon Musk reiht sich regelmäßig der Mahner vor den Gefahren der Künstlichen Superintelligenz ein. Ebenso der weltweit führende KI-Anbieter Open AI, insbesondere dessen CEO Sam Altman sowie der Mitgründer des Unternehmens, Ilya Sutskever. Da wird die Befürchtung geäußert, dass die KI außer Kontrolle geraten könnte oder dem Menschen bereits überlegen sei. So hat inzwischen „GenAI (…) ein so hohes Niveau erreicht, dass es für Menschen (und auch für die KI selbst) zunehmend schwierig wird, zwischen Realität und KI-generierter Fiktion zu unterscheiden“ (https://www.faz.net/pro/digitalwirtschaft/kuenstliche-intelligenz/zukunft-der-ki-wie-realistisch-ist-eine-superintelligenz-110166780.html; zuletzt abgerufen: 21. Dezember 2024).
[2] https://www.faz.net/pro/digitalwirtschaft/prompt-der-woche/chatgpt-o1-von-open-ai-im-test-modell-besteht-pisa-aufgaben-110163529.html (zuletzt abgerufen: 21. Dezember 2024).
[3] https://www.faz.net/pro/digitalwirtschaft/kuenstliche-intelligenz/liveticker-zu-12-days-of-open-ai-die-internetsuche-von-chatgpt-steht-jetzt-allen-nutzern-offen-faz-110155698.html (zuletzt abgerufen: 21. Dezember 2024).
[4] https://www.faz.net/pro/digitalwirtschaft/kuenstliche-intelligenz/liveticker-zu-12-days-of-open-ai-sam-altman-stellt-open-ais-neues-sprachmodell-o3-vor-faz-110155698.html?premium=0x13f6043b67db71902475314f12125244894a4819b1826db60d67dd045f25184b (zuletzt abgerufen: 22. Dezember 2024).
[5] https://www.faz.net/pro/digitalwirtschaft/kuenstliche-intelligenz/ki-assistenz-von-google-gemini-2-0-kann-alleine-einkaufen-110169001.html (zuletzt abgerufen: 21. Dezember 2024).
[6] https://www.spektrum.de/news/gencast-erstellt-bessere-wettervorhersage-als-fuehrende-modelle/2246409 (zuletzt abgerufen: 21. Dezember 2024).
[7] https://www.faz.net/pro/digitalwirtschaft/gadgets/opengpt-x-so-funktioniert-die-erste-grosse-deutsche-ki-110150445.html?premium=0x6161b8b8ffeb3158b4d14c7d41b3f09548a22b560e7b3fd308a6ac2450789edc (zuletzt abgerufen: 21. Dezember 2024).
[8] https://www.faz.net/pro/digitalwirtschaft/prompt-der-woche/ki-prompts-fuer-textarbeit-so-nutzen-die-medienhaeuser-chatgpt-und-co-110147966.html (zuletzt abgerufen: 21. Dezember 2024).
[9] https://www.faz.net/aktuell/wirtschaft/kuenstliche-intelligenz/ray-kurzweil-was-der-kuenstlichen-intelligenz-noch-fehlt-110146624.html (zuletzt abgerufen: 21. Dezember 2024).
[10] https://www.faz.net/pro/digitalwirtschaft/kuenstliche-intelligenz/wie-maschinen-lernen-menschlicher-zu-denken-110180871.html?premium=0x1690c7ba3cf313ef826e07ac62d56b5c3fc69ee2c4215e6b48728bafc6674d61 (zuletzt abgerufen: 22. Dezember 2024).
[11] https://arxiv.org/abs/2411.19865 (zuletzt abgerufen: 22. Dezember 2024).
[12] https://www.faz.net/aktuell/wirtschaft/kuenstliche-intelligenz/ki-fachmann-hochreiter-warum-die-aktuelle-phase-eine-chance-fuer-europa-ist-110176459.html (zuletzt abgerufen: 22. Dezember 2024); https://www.heise.de/news/xLSTM-Extended-Long-Short-Term-Memory-bessere-KI-Modelle-aus-Europa-9711813.html (zuletzt abgerufen: 22. Dezember 2024).
[13] https://www.faz.net/pro/digitalwirtschaft/ki-pionier-sepp-hochreiter-was-computer-vom-gehirn-unterscheidet-19840488.html (zuletzt abgerufen: 22. Dezember 2024).
[14] https://www.heise.de/news/OMR24-Die-Hipsterness-stroemt-zu-KI-m-Kardashian-Swisher-und-Schmidhuber-9710122.html (zuletzt abgerufen: 22. Dezember 2024).
[15] https://www.faz.net/aktuell/feuilleton/buecher/themen/eine-ki-diskussion-der-akademie-fuer-sprache-und-dichtung-110158389.html (zuletzt abgerufen: 23. Dezember 2024).
[16] Wir können keine validen Aussagen über die Zukunft machen. Das wissen wir spätestens seit David Hume. Insofern kann eine Aussage über besagte kategoriale Differenz vielleicht für den heutigen Zeitpunkt Gültigkeit beanspruchen, für morgen aber bestenfalls Wahrscheinlichkeit. Wobei ich mir im konkreten Fall nichts mehr wünsche, als dass es auf ewig so bleibt, wie es meiner Ansicht nach heute ist. Ansonsten hätten wir eine posthumanistische Zukunft vor uns, gegen die sich Philip K. Dicks Science-Fiction-Romane wie lustige Kinderbücher ausmachen.
[17] Die Welt, in der wir leben, ist eine objektiv gegebene Realität. Aber, so der Historiker Yuval Noah Harari, “over the centuries, we have constructed on top of this objective reality a second layer of fictional reality, a reality made of fictional entities” (Harari 2015). Institutionen sind solche fiktionalen Entitäten, sie „exist only in our imagination”, sind “just a story that we’ve invented” (ebd.). Sie sind nicht in dem Sinne wirklich, dass sie zu selbsttätigen Handlungen befähigt sind. Dazu sind nur Entitäten wie real existierende Menschen – also solche, die Teil der objective reality sind – imstande (eine Institution kann mir keine Ohrfeige verpassen, ein real existierender Mensch aber sehr wohl).
[18] Der Verantwortungsbereich muss selbstverständlich weiter gefasst werden. Schließlich ist der Lernalgorithmus der KI keine autonome Angelegenheit der KI, sondern bestimmt durch einen bestimmten Personenkreis, der vorgibt, auf welche Daten sie ‚zugreifen‘ soll. Mit diesen müssen dann die jeweiligen künstlerisch Schaffenden arbeiten. Aber dies enthebt sie ebenso wenig von ihrer unmittelbaren Verantwortlichkeit für das Resultat ihres künstlerischen Schaffens wie den Mörder, der in gewisser Hinsicht ja Resultat der gesellschaftlichen und familiären Umstände ist, von seiner unmittelbaren Verantwortlichkeit für seine Tat: Er hat, anders als die KI, jederzeit die Option, innezuhalten und nicht zu handeln.