Wenn die Maschine den Job übernimmt: "KI ist Kotze"
Waren Menschen bis vor Kurzem noch unverzichtbar für das Erschaffen von Texten, Bildern oder Musik, liefern Bild- und Sprachprogramme mittlerweile unvermutet gute Ergebnisse. Die milliardenschweren Unternehmen dahinter profitieren. Die kreativen Köpfe, deren Daten zum Füttern der Programme zweitverwertet wurden, gehen oft leer aus.
Die Künstliche Intelligenz (KI) trifft nun diejenigen, die nicht damit gerechnet haben. Die, die gedacht haben, das, was sie erschaffen, sei einzigartig. Die, die gedacht haben, dass sie unersetzlich seien: die Kreativen. Und damit sind nicht nur Maler, Musiker und Schriftsteller gemeint, sondern fast alle Kopfarbeiter, etwa Professoren, Programmierer, Anwälte, Dolmetscher und viele mehr.
Die Bild- und Sprachprogramme, allen voran ChatGPT, haben in kurzer Zeit die Welt der sogenannten Wissensarbeiter auf den Kopf gestellt. Und genau das war auch die Absicht des Unternehmens Open AI. ChatGPT solle Kreativen dabei "helfen", Songs zu komponieren, Drehbücher zu schreiben oder Stile von Schriftstellern zu imitieren, erklärt Open AI-Chef Sam Altman.
Vermarktung ohne Beteiligung
Texte, Bilder oder Musik - bislang menschliche Hand- bzw. Kopfarbeit - kann nun durch KI automatisiert und seriell hergestellt werden. Dass dabei überraschend gute Ergebnisse herauskommen, liegt daran, dass die Sprachprogramme mit Milliarden von Parametern gefüttert worden sind, insbesondere auch mit den Inhalten derer, die nun von der KI ersetzt werden könnten. Unternehmen verleiben sich also das Wissen und Können der Welt ein und kopieren Stile, ohne die Kreativen dafür zu honorieren oder sie auch nur zu erwähnen.
Alles, was KI tut, speist sich aus den im Internet verfügbar gemachten Werken unzähliger Menschen. Das sei zynisch und existenzbedrohend, klagen Kreative, denn trainiert würden die "Kunst"-Generatoren ja mit ihrem Bild-Material.
KI als Zweitverwerter
Künstliche Intelligenz ist ein Zweitverwerter. Das Bildprogramm ernährt sich von dem, womit es gefüttert wurde. "Es ist alles nur Kotze. Man hat es gegessen und es kommt wieder raus. Ich spreche wirklich von Verdauung bei dieser Technik", sagt der Künstler, Grafiker, Verleger und Agent Spiridon Giannakis. Und er fragt: "Wer profitiert denn momentan von der künstlichen Intelligenz? Sind wir das? Oder diejenigen, die milliardenschwere Unternehmen auf dem Rücken der Leute gegründet haben, deren Daten da eingespeist wurden?"
Das sei nicht fair. In jeder Unterhaltung, die er mit Künstlern führe, seien die Sorgen groß: "Ich versuche, ihnen Mut zu machen, weiter zu kreieren, obwohl es hoffnungslos ist, weil eine schwarze Wolke, über ihnen hängt, die man Zukunft nennen könnte", so Giannakis.
Richard Socher arbeitet im Silicon Valley und ist der wohl einflussreichste KI-Entwickler aus Deutschland. Er ist sich sicher: Sehr viele Jobs werden einfach wegfallen. Socher hat die KI-Suchmaschine You.com entwickelt - diese ähnelt Chat GPT. "Es wird die Menschheit verändern und es verändert die Arbeit der Illustratoren. Wenn es nur einen minimalen Anteil der Jobs gibt, dann wird es schwierig für diese Industrie", sagt Socher und meint damit die Kreativen.
Denn sie weiß nicht, was sie tut
Noch aber braucht die KI Menschen, die sie korrigiert oder optimiert - denn die KI weiß nicht, was sie tut, versteht nicht, was sie schreibt. Und so kann sie den größten Nonsens absolut überzeugend präsentieren - denn sie weiß auch nicht, wie ahnungslos sie ist. Eine Gefahr, finden viele Experten. Wenn KI keine Vorstellung von Gut und Böse hat, kann sie eben auch für Schlechtes verwendet werden.
Der Informatiker und Gründer Jonas Andrulis warnt: "Wenn ich eine wichtige Plattform habe - das kann eine Suchmaschine sein, das kann eine Social Media Plattform sein - kann ich Informationen beliebig gestalten. Ich kann die Wahrnehmungswirklichkeit der Menschen verändern." Andrulis war drei Jahre lang bei Apple für verschiedene Forschungsprojekte zur Sprachsteuerung verantwortlich, vor allem im Bereich des autonomen Fahrens. In dieser Zeit kam er mit ersten Generationen von Sprachmodellen in Kontakt.
Nach seiner Zeit im Silicon Valley ging John Andrulis zurück nach Deutschland und gründete ein eigenes Unternehmen: Aleph Alpha - das einzige europäische Unternehmen, das mit Open AI mithalten kann, wie es heißt. Seine Kunden sind u.a. Versicherungen, Gerichte, das Gesundheitswesen oder Verwaltungen - für die es extrem wichtig ist, Kenntnis darüber zu haben, woher die KI ihr vermeintliches Wissen nimmt und dass ihre sensiblen Daten sicher sind. "Unser System - und da sind wir jetzt aktuell noch die Einzigen - kann den faktischen Fluss von Quellen in Ausgaben nachvollziehen. Das heißt aber noch nicht, dass es dann wahr ist, weil: eine Quelle kann ja auch falsch sein. Deswegen müssen wir den Menschen Kontext geben. Wir können nicht einfach irgendein Ergebnis raushauen und sagen: Die KI wird schon stimmen."
Sind die Europäer zu skeptisch?
You.com-Gründer Socher arbeitet seit zehn Jahren im Silicon Valley. Er wundert sich, dass die Europäer der neuen Technik gegenüber so skeptisch sind. Das sei in Kalifornien ganz anders: "Wenn dort eine neue Technologie kommt, sehe ich besonders im Silicon Valley Hunderte meiner Freunde, die sagen: Wow, wie kann ich das jetzt benutzen? Und vielleicht kann ich da ein Start-Up aufmachen, das diese neue Technologie nutzt, um etwas noch produktiver zu machen, noch effizienter. In Deutschland ist die Einstellung erst erstmal: Was könnte damit schief gehen? Jobverlust? Wie müssen wir das erstmal regulieren, bevor es überhaupt richtig funktioniert?"
"Bei Fakten ist die Komponente Mensch unerlässlich"
Der ehemalige Journalist Michael Keusgen hat das Unternehmen "Ella" gegründet. Das Kölner Start-Up hat seine Sprachmodelle mit massenhaft Textdaten gefüttert: mit Aufsätzen, Fachbüchern, aber auch mit Fiktionalem - Texte als Rohstoff. Allerdings hat Keusgen dafür die Rechte gekauft. So will er die Medienbranche revolutionieren, vor allem in Print- und Online-Redaktionen. "Wir produzieren im Moment paraphrasierte Texte und werden mehr und mehr auch Texte schreiben. Aber bei Fakten ist die Komponente Mensch unerlässlich. Sie müssen einen Redakteur haben oder eine Redakteurin, die entsprechend das Lektorat am Ende macht, um das zu überprüfen", erklärt Michael Keusgen.
Seine Sprachmodelle arbeiten wie alle großen KI-Programme: sie berechnen auf Basis statistischer Wahrscheinlichkeit, welches Wort oder welcher Satz als nächstes kommen könnte und dabei kommt nicht immer Sinnvolles heraus. Die Erwartung kann also nicht sein, dass die KI immer die Wahrheit sagt, denn sie kann Fiktion nicht von der Realität unterscheiden. Die Antworten können aber, auch wenn sie keine Faktengrundlage haben, überzeugend wirken.
Die Informatikerin Katharina Zweig rät ganz davon ab, KI im Bereich des Journalismus einzusetzen: "Wenn man KI-Systeme verwendet, um Texte zu schreiben, deren faktischen Inhalt man nicht selber überprüfen kann, dann verwendet man diese Maschinen völlig falsch. Dafür sind sie nicht trainiert worden. Ich finde, hier ist schon ein Fehler bei Open AI passiert. Denn so, wie die Nutzung kommuniziert wird, also 'frag doch mal Chat GPT, wie Quantencomputing geht, lass es dir für Sechsjährige erklären', das ist ein gefährliches Missverständnis, dass man die Maschine so benutzen kann." Zweig empfiehlt daher allen Personen, die KI nutzen, diese nicht für Texte zu verwenden, deren faktischen Inhalt sie nicht selbst überprüfen können.
Wozu brauchen wir etwas, was der Mensch selbst kann?
KI simuliert menschliches Denken und sie simuliert Kreativität. Sie hat keine Persönlichkeit. Und so kann man sich am Ende auch fragen: Wozu brauchen wir etwas, was der Mensch selbst kann? Kreative Arbeit ist meist mehr als nur ein Job. Sie ist sinnstiftend und bestenfalls erfüllend. Und menschliche Intelligenz findet eben nicht in einem isolierten Gehirn statt. Intelligenz benötigt einen Körper, andere Wesen, eine Umwelt. Noch hat KI das nicht. Und sobald es den Menschen nicht mehr braucht, wird man es wohl nicht mehr KI nennen.