KI als Freund: Sinnvoll oder gefährlich?
Kann KI eine Freundin ersetzen? Kann der Mensch bei Anwendungen wie ChatGPT, Replika oder Character.ai wirklich irgendeine Form von Empathie erwarten? Ein Gespräch mit dem Maschinenethiker Oliver Bendel.
"Alexa, stell mir den Wecker auf fünf Minuten" - das kennen viele von sich oder von Freunden zu Hause. Da wird ganz beiläufig die KI um Unterstützung im Haushalt gebeten. Bei manchen aber geht das über klare Anweisungen hinaus, da wird dann ein ganzes Gespräch mit der Künstlichen Intelligenz aufgenommen. Verschwimmen da nicht irgendwann die Grenzen zwischen Realität und dem Virtuellen? Falls ja, fänden Sie das überhaupt bedenklich?
Oliver Bendel: Ja, ich fände das schon bedenklich, wenn das bei vielen von uns Alltag werden würde. Ich halte solche Chatbots und Sprachassistenten für sehr sinnvoll in bestimmten außerordentlichen Situationen, in bestimmten Lebensphasen oder auch bei bestimmten Menschen. Ein Beispiel: Wir haben gerade ein Projekt in Schweizer Gefängnissen gemacht, und eigentlich gingen wir mit der Hypothese rein: klassische Serviceroboter - prima, soziale Roboter - weniger prima. Aber es war genau umgekehrt. Es hat sich herausgestellt, dass man auf keinen Fall Transportroboter, Reinigungsroboter und so weiter einsetzen sollte, weil man damit den Insassen die Arbeit wegnimmt. Und die Insassen haben geäußert: Ja, wir wollen Chatbots, Sprachassistenten und soziale Roboter, denn uns fehlen Kumpel. Das hat uns verblüfft, denn wir saßen mit ziemlich harten Jungs zusammen, darunter Mörder, und wir dachten nicht, dass die für zum Teil sehr niedliche Geschöpfe dieser Art zu haben wären.
Inwiefern sind enge Beziehungen zu Künstlicher Intelligenz denkbar? Kann der Mensch hier wirklich irgendeine Form von Empathie erwarten?
Bendel: Die virtuellen und physischen Entitäten können Emotionen und Empathie simulieren, und das können sie großartig. Es fängt an bei Chatbots, die bestimmte Texte schreiben, die uns gefallen oder emotional berühren. Dann geht es weiter mit Sprachassistenten, die eine bestimmte Stimme haben. Alexa hat über eine bestimmte Markierungssprache neue Möglichkeiten hinzugewonnen: Zum Beispiel kann sie flüstern - das war vorher nicht möglich. Flüstern ist ja nicht nur leises Sprechen, sondern stimmloses Sprechen, und das musste man Alexa mit dem Befehl "whisper" erstmal beibringen.
Die Stimme und die Sprechweise, das hat Google mit Google Duplex vorgemacht: Google Duplex sagt ab und zu mmmh, oder eeeh. Wenn man das noch kombiniert mit anderen Kopf- und Körpergeräuschen, dann würde niemand mehr denken, dass es eine Maschine ist.
Bei physischen Robotern haben wir noch weitere Möglichkeiten: Die können Mimik und Gestik zeigen, die können Bewegungen machen, die können auf den Tisch hauen und so weiter. Das alles sieht so aus, als würde der Roboter Emotionen haben, Empathie zeigen und sich für uns interessieren. Und das ist genau mein Punkt: Auf der anderen Seite ist kein Interesse, dort interessiert sich nichts für uns, dort sind Nullen und Einsen. Und das ist auch das Tragische: Wenn ich das virtuelle Gegenüber als Langzeitpartner wähle, dann halte ich das für ein Problem, denn dort ist nichts.
Nochmals: für bestimmte Situationen toll: Wenn ich im Alter oder im Gefängnis bestimmte Phasen habe, die ich überbrücken muss, oder wenn ich andere Probleme habe, dann kann das helfen.
Deutschland schaut zutiefst skeptisch auf KI. Das belegen aktuelle Befragungen von Meinungsforschungsinstituten. Weniger als ein Viertel erwartet, dass KI ihr Leben unterm Strich verbessert. Skepsis ist eine Tugend der Aufklärung und der Wissenschaft. Erst kritische Reflexion treibt Fortschritt überhaupt voran. Da stellt sich die Frage, ab welcher Dosis Skepsis hier vielleicht ungesund ist im Bereich der KI.
Bendel: Als Philosoph ist der Zweifel meine Grundstimmung, die ich immer habe. Trotzdem kippe ich hier immer wieder ins Optimistische, weil ich Anwendungsmöglichkeiten von KI sehe, die fulminant sind. Wir haben zum Beispiel die App "Be My Eyes" untersucht, mit der Blinde sehen können. Die App richtet sich in die Umgebung mit der Kamera, und die Bilder, die generiert werden - im Moment Standbilder, in Zukunft auch Videos - dienen dazu, dass das Sprachmodell, das darauf läuft, eine Beschreibung der Szenerie wiedergibt. Das Faszinierende ist: Dort werden nicht nur Fakten und Details beschrieben, sondern zum Beispiel auch die Haltung einer Person oder die Stimmung im Raum. Damit kann die blinde Person in einem neuen Sinne sehen, und ich kenne auch Blinde, die sagen: Das ist das, was wir wollen. Wir wollen nicht auf irgendwelchen Flächen mit unseren Fingern herumschmieren, wo schon viele herumgeschmiert haben, sondern wir wollen Hightech haben, damit wir wieder an der Gesellschaft partizipieren können. Mit solchen Möglichkeiten von KI kann man gerade für behinderte Personen sehr viel tun. Ich denke auch an Formen der Robotik in Hightech-Prothesen oder an Exoskelette, und da brechen neue Zeiten an.
Trotzdem haben KI-Systeme auch Nachteile, und die liegen an anderer Stelle als dort, wo man sie oft vermutet. Das sind immer wieder: Datenschutz, Privatsphäre, Intimsphäre. Wir haben immer mehr Systeme, die uns bis auf den Grund ausleuchten, und darin sehe ich ein Riesenproblem. Das kommt zusammen mit Gesichtserkennung im öffentlichen Raum oder mit dem Nutzerverhalten in sozialen Medien, das analysiert wird. In der Menge ist es extrem gefährlich für uns.
Das Gespräch führte Philipp Cavert.