Was unterscheidet künstliche Intelligenz von der menschlichen?
Rund um die künstliche Intelligenz kursieren viele Mythen und Dystopien, die auf der fragwürdigen Gleichsetzung von künstlicher und menschlicher Intelligenz beruhen. Im Philosophie-Podcast Tee mit Warum erklärt Kulturwissenschaftlerin Mercedes Bunz die Unterschiede.
Die neue Folge des Philosophie-Podcast Tee mit Warum beschäftigt sich mit der Frage: "KI: Werkzeug oder Feind?". Dabei sprechen die Hosts Denise M'Baye und Sebastian Friedrich unter anderem mit Mercedes Bunz, Professorin für Digitale Kulturen und Gesellschaft am King's College in London. Einen Auszug des Gesprächs lesen Sie hier. Die ganze Folge können Sie in der ARD Audiothek und als Podcast hören.
Was bedeutetet Maschinelles Lernen?
Mercedes Bunz: Im Grunde genommen ist es eine paradigmatische Verschiebung, wie wir Maschinen programmieren. In der Vergangenheit haben wir einfach per Computersprache einen Code geschrieben, der wurde von Menschen geschrieben. Dann lief der Computer - der prozessierte dann den Code. Maschinelles Lernen ist ein Paradigmenwechsel, weil wir jetzt nicht mehr den Code selbst schreiben, sondern den Computer mit Daten füttern - und der Computer schreibt dann den Code. Je nachdem, wie er diese Daten sortiert. Das macht man in bestimmten Bereichen wie Sprache oder bei Bildern, die sehr schwierig zu ordnen waren. Man hat festgestellt, dass der Computer auf so einer kleinteiligen Ebene Muster erfassen kann, die der Mensch gar nicht alle hineinprogrammieren könnte. Der Computer rechnet also quasi das Code-Programm aus. Das erkennt dann Objekte auf Bildern oder Wörter. Es ist recht komplex. Aber das Wichtigste ist: Es ist ein Paradigmenwechsel. Der Mensch programmiert nicht mehr. Wir errichten eine Computerarchitektur, füttern die Maschine mit Daten - und die Maschine macht dann das Programm.
Was unterscheidet die künstliche Intelligenz von der menschlichen Intelligenz?
Bunz: Oh Gott: so viel! Wir können mal damit anfangen, wie kleine Kinder lernen, wenn sie eine Sprache lernen. Man sagt einmal 'Katze' und zeigt auf eine Katze - von da weiß das Kind, das schon ein paar Mal eine Katze gesehen hat, alle zukünftigen Katzen sehen so aus. Dann kann es den Begriff anwenden und wiederholen. Für eine Maschine brauchen wir Hunderte oder sogar besser noch Tausende Bilder von Katzen. Und in allen Formen - von unten, von oben, von der Seite, im Springen, im Schlafen, eingerollt, unterm Tisch, überm Tisch und so weiter. Erst, wenn es in allen Situationen diese Katze gibt, kann die Maschine auch sagen: 'Oh ja, Katze!'. Noch dazu lernen Maschinen ganz anders als wir. Wir Menschen lernen über die abstrakte Idee: einmal Katze, immer Katze. Wenn man dem Computer eine Katzenform zeigt, aber eine Elefantenhaut hineinsetzt, sagt der Computer: Bin mir zu 90 Prozent sicher, das ist ein Elefant. Der Computer lernt von kleinen Texturen aufwärts - entwickelt also einen ganz anderen Blick auf die Dinge. Das ist eine ganz andere Intelligenz als unsere. Keine Intelligenz über eine abstrakte Idee. Sondern eine Idee vom kleinsten Detail ins Große. Und da verwirrt er sich auch manchmal.
Was ist der Vorteil dieser anderen Intelligenz?
Bunz: Er ist natürlich viel schneller. Wenn ich dem Computer sage, sortiere mir diese eine Million Daten und zeige mir alle Katzenbilder - dann ist er nach fünf Minuten fertig. Wenn man das Menschen anschauen lässt, dauert das mehrere Tage. Das hat also seine Vorteile. Der Punkt ist nur, dass ich die Katzenbilder immer noch mal ein bisschen überprüfen muss, weil er eben nicht immer hundertprozentig alles richtig macht. Wir anthropomorphisieren (Anm. d. Red: vermenschlichen) die Maschine, weil es in der Erklärung einfach leichter ist. Das ist auch im Deutschen ein bisschen schwierig. Im Deutschen ist die Handlung ein ganz starker Begriff, der ein Bewusstsein voraussetzt. Im Englischen ist das etwas abgeschwächt. Da haben in der Sprache auch Flüsse Handlungen, ohne dass man jetzt da ein Subjekt voraussetzt. Oder Wasser hat eine Handlung, die kann etwas bewegen. Das hat man im Deutschen nicht so. Deswegen erschreckt man sich da vielleicht noch etwas mehr als in anderen Sprachen, wenn man über den Computer spricht. Ich denke nicht, dass im Computer jetzt ein Subjekt, also ein Bewusstsein, entsteht. Ich denke, dass das eine Maschine ist, der man eben in gewisser Weise ein bisschen auf Augenhöhe begegnen muss. Wo man verstehen muss, wie sie funktioniert. Das sind wir von der Technologie nicht so gewohnt. Wir bekommen immer diese Interfaces, die wir bespielen und die uns dahin führen, wo wir hinwollen. Wir fluchen natürlich alle auch über die Technik, wenn sie nicht funktioniert. Aber wir verlangen eigentlich von der Technik, dass sie einfach zu verstehen ist. Kein iPhone kommt mit Bedienungsanleitung. Das ist mit maschineller Intelligenz nicht gut. Wir sollten verstehen, was die komplexen Vorgänge in den Computern oder in den Computerarchitekturen sind. Wenn wir denken: 'Das macht doch die Maschine schneller, also gehe ich mal weg' - das funktioniert eben nicht. Gerade wenn wir sie in Risikobereichen wie für Gesundheitsentscheidungen einsetzen. Sie werden ja auch für komplexe Vorgänge wie Organersatz oder für logistische Verschiebung von Blutreserven im Krankenhaus eingesetzt. In dem Maße, wo wir die diese Intelligenz dann einsetzen, kann sie sehr effektiv sein. Sie braucht aber immer noch einen 'Human in the loop'. Also jemand, der da draufschaut und auch versteht, wie das funktioniert.
Es gibt viele Dystopien, wenn es um künstliche Intelligenz geht. Sind die deiner Meinung nach ansatzweise realistisch?
Bunz: Das ist Quatsch. Jedes Mal, wenn wir den Zugriff auf Informationen verändern, gibt es viel Unruhe in der Gesellschaft. Dann kommen diese Dystopien hoch. Das ist kulturhistorisch ganz klar und eindeutig - und jetzt nicht nur bei künstlicher Intelligenz so, sondern schon viel vorher. Ein schönes Beispiel ist um 1800 das Aufkommen des Romans. Damals wurde von der sogenannten Lesesucht gesprochen. Wenn die Leute anfangen, so viel zu lesen, dann lebten sie nicht mehr in der Realität, sondern in der Romanwelt - und das sei unglaublich schädlich. Da gab es dann ganz viele Pamphlete. Vor allem Frauen seien anfällig dafür, die sollten doch eigentlich nicht mehr lesen. Es gibt erstaunlich viele Computerwissenschaftler, die glauben, dass die künstliche Intelligenz jetzt doch bald so weit ist wie die menschliche Intelligenz und die Welt übernimmt. Andere Computerwissenschaftler sind da nicht davon überzeugt. Yann LeCun zum Beispiel, der Professor an der NYU ist und bei Facebook Meta AI führt. Der ist der Meinung, dass für die Übernahme der Welt die größere Gefahr Testosteron sei und nicht Intelligenz. Eine sehr schöne Bemerkung ist auch, dass wir schon von sehr unintelligenten Leuten geführt worden sind. Und dass Intelligenz nicht unbedingt etwas damit zu tun hat, die Welt zu übernehmen. Alle Leute, die schon einmal einen Dialog mit ChatGPT geführt haben, wissen: Das klingt so, als ob man sich wirklich mit etwas unterhalten würde. Bei Maschinenintelligenz und gerade bei Dialogformen ist es so: Wie wir in die Maschine hineinrufen, so ruft sie auch heraus. Wir verlangen quasi einen bestimmten Stil von ihr und wenn wir den persönlichen Stil verlangen, normale Kommunikation, nicht zu hoch gestochen: Dann redet die mit uns, wie wir mit einem anderen Mensch redet. Das wird dann damit verwechselt, dass sie das ziemlich gut imitiert.
Trotzdem gibt es durchaus Gefahren. Unsere Leitfrage für die Folge ist "KI: Werkzeug oder Feind? Wie würdest du dich da positionieren?
Bunz: Ich glaube, dass das wie bei aller Technologie weder Freund noch Feind ist. Das ist etwas, wo man untersuchen muss, wie es angewendet wird. Ich finde es interessant, dass jetzt, wo die Maschine mit ChatGTP "sprechen gelernt" hat, diese Diskussion so hochkocht. Ich halte Image-Generation, also die Erzeugung von sogenannten Deepfakes oder von Bildern, für viel viel gefährlicher. In unserem öffentlichen Leben, in der Politik, im Fernsehen, im Internet sind Videos und Fotos ein unglaublich wichtiges Medium, um Realität zu zeigen. Und dass Realität jetzt so einfach manipuliert werden kann, braucht eigentlich eine Diskussion für sich. Wir müssen uns dem alle bewusst werden. Das halte ich für eine viel größere Gefahr als die Tatsache, dass sie jetzt schreiben und sprechen lernt. Das verschiebt unglaublich, wie unsere Gesellschaft funktioniert. Das haben wir aber auch schon mehrmals mitgemacht. Die Ankunft der Fotografie war beispielsweise auch recht erschütternd.
Der Mensch hat einen Einfluss darauf, wie sich die Maschinen entwickeln. Was ist da besonders zu beachten? Wie sollten wir künstliche Intelligenz nutzen?
Bunz: Da wäre zum Beispiel die Frage: Brauchen wir ein Wasserzeichen? Sollten wir alle Leute verpflichten, wenn eine Plattform öffentlich zugänglich ist, das mit einer Art Wasserzeichen zu versehen? Damit wir wissen: Dieser Text ist maschinengeneriert. Dieses Bild, dieses Video wurde maschinengeneriert. Das ist auf jeden Fall etwas, das man diskutieren sollte. Ob das immer machbar ist, ist noch eine andere Frage. Aber es ist eine Diskussion, die mir im Moment ein bisschen zu kurz kommt.
Wir brauchen also Regeln, die dafür sorgen, dass sichtbar ist, was menschengemacht und was nicht ist?
Bunz: Das wäre zum Beispiel eine Sache, die man diskutieren könnte. Was ist da möglich? Und wie? Wie können wir Forschung, die in diese Richtung geht, unterstützen und fördern? Das finde ich recht wichtig. Wir müssen mal davon wegkommen, dass wir immer sagen: Das Digitale ist dazu da, dass Firmen immer besser und effektiver arbeiten können - und damit mehr Geld machen. Wir leben in einer Zeit, wo das Digitale eigentlich auch dazu da sein sollte, gesellschaftliche Vorgänge zu verbessern. Uns gesellschaftlich zu helfen, damit wir in ja einer besseren, faireren, gerechteren Gesellschaft leben. Wie kann man die Logik von Künstlicher Intelligenz zum Beispiel verschieben, wenn man das für Universal-Einkommen einsetzen will. Was braucht man da? Welche Forschung muss man unterstützen? So eine Führung von Forschung machen wir eben überhaupt nicht. Wir ziehen uns da ziemlich zurück und sagen: Das sollen die Firmen mal unter sich ausknobeln. Dass die hauptsächlich daran interessiert sind, Profit zu machen, ist kein Wunder, weil sie im Bereich der Ökonomie tätig sind und nicht im Bereich des Sozialwesen.
Wer muss sich mit Maschinenintelligenz auskennen. Wir alle?
Bunz: Ja, die schlechte Nachricht ist: Wir alle müssen uns damit auseinandersetzen und in gewisser Weise auskennen. Ich glaube, dass die Maschinenintelligenz einfach zu einflussreich und zu mächtig ist, als dass wir sie einfach den Experten überlassen können - und wir müssen uns nicht weiter anstrengen. Das liegt natürlich daran, dass Technik immer wichtiger geworden ist - und ein immer größerer Machtfaktor in der Gesellschaft. Das Interessante ist, dass früher immer Macht bei Institutionen gesucht haben. Heute ist das quasi in unser Alltagsleben hineingekrochen - und kann damit unglaublich viel beeinflussen. Wir alle nützen künstliche Intelligenz schon jeden Tag - beispielsweise mit der Autokorrektur. Es ist extrem wichtig, dass wir wissen, wie das eigentlich funktioniert. Wir sind es ebenso gewöhnt, dass das alles so schöne Oberflächen sind. Dass wir keine Handlungsanleitungen brauchen. Aber ich glaube, diese Zeit sollte so ein bisschen vorbei sein. Wir sind alle beunruhigt darüber, dass Künstliche Intelligenz vielleicht die Welt übernimmt. Aber wie man sich am besten dagegen bewaffnet wäre ja eigentlich zu sagen: Wie funktioniert das Ding? Wo sind seine Schwächen?
Das Gespräch führten Denise M’Baye und Sebastian Friedrich im neuen Philosophie-Podcast Tee mit Warum. Die ganze Folge finden Sie in der ARD Audiothek und überall, wo es Podcasts gibt.