Künstliche Intelligenz: Was ist Gefahr, was übertriebene Furcht?
Künstliche Intelligenz wird die Menschheit verändern. Einige fürchten sogar das Ende der Menschheit. Was ist dran an dystopischen Ängsten? Und was sind reale Gefahren? Diesen Fragen widmen sich Denise M'Baye und Sebastian Friedrich im Philosophie-Podcast Tee mit Warum.
"Es sollte weltweite Priorität haben, die Risiken der Ausrottung der Menschheit durch KI zu verhindern", heißt es in einem Offenen Brief für ein KI-Memorandum, den zahlreiche Techunternehmer und KI-Forscher unterzeichnet haben - etwa Twitter-Chef Elon Musk, OpenAi-CEO Sam Altman oder Apple-Mitbegründer Steve Wozniak. Mercedes Bunz, Professorin für Digitale Kulturen und Gesellschaft am King's College in London, hat zu diesen dystopischen Endzeitszenarien eine klare Meinung: "Das ist Quatsch", sagt sie im Philosophie-Podcast Tee mit Warum. "Jedes Mal, wenn wir den Zugriff auf Informationen verändern, gibt es viel Unruhe in der Gesellschaft. Dann kommen diese Dystopien hoch." Das sei kein neues Phänomen, sondern kulturhistorisch eindeutig belegt. "Ein schönes Beispiel ist um 1800 das Aufkommen des Romans. Damals wurde von der sogenannten Lesesucht gesprochen. Wenn die Leute anfangen, so viel zu lesen, dann lebten sie nicht mehr in der Realität, sondern in der Romanwelt."
Eine Frage der Anwendung
Das Problem sei nicht die Technologie, sondern die Frage, wie sie angewendet wird, meint Timo Daum. Er forscht am Wissenschaftszentrum Berlin für Sozialforschung zum Zusammenwirken von Technologie und Gesellschaft. In der Tee-mit-Warum-Folge "KI - Wie hoch ist der Preis?" zieht er einen historischen Vergleich zum Auto. "Das ist ja auch ein Gefährt, das erstmal nicht ungefährlich ist", schildert er. Die Gesellschaft habe nach und nach Rahmenbedingungen für den Autoverkehr geschaffen. "Wir machen ein Tempolimit, wir entwickeln Verkehrsregeln und führen so etwas wie den TÜV ein. Damit haben wir die negativen Auswirkungen eingedämmt. Es gibt trotzdem noch Verkehrstote, aber wir sind uns als Gesellschaft relativ einig, dass wir da ein gutes Gleichgewicht zwischen den Verkehrstoten und dem gesellschaftlichen Nutzen des Autos gefunden haben."
KI-generierte Fakes haben hohes Zerstörungspotenzial
Einen solchen gesellschaftlichen Rahmen brauche es auch für die Künstliche Intelligenz. Zwar sind Weltuntergangsszenarien oder die Machtübernahme der Künstlichen Intelligenz laut Mercedes Bunz weit hergeholt, aber es gebe konkrete Gefahren, die schon jetzt reale Auswirkungen haben - beispielsweise die Manipulation der öffentlichen Meinung durch die Erzeugung von sogenannten Deepfakes. "In unserem öffentlichen Leben, in der Politik, im Fernsehen, im Internet sind Videos und Fotos ein unglaublich wichtiges Medium, um Realität zu zeigen", erklärt Mercedes Bunz. "Dass Realität jetzt so einfach manipuliert werden kann, das braucht eigentlich eine Diskussion für sich."
Auch die Unterzeichner des Offenen Briefes warnen davor, dass "Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten" überfluten. Mercedes Bunz hält es für wichtig, die Unternehmen zu einem Herkunftsnachweis zu verpflichten, wenn eine Plattform öffentlich zugänglich ist. "Damit wir wissen: Dieser Text, dieses Bild, dieses Video - das wurde maschinengeneriert."
EU verhandelt derzeit über gesetzlichen Rahmen
Darüber dass es gesellschaftliche Rahmenbedingungen für den Einsatz künstlicher Intelligenz braucht, gibt es einen breiten Konsens. "In dieser Phase stecken wir derzeit komplett drin", so Daum. "Egal ob wir in die USA, nach China oder in die EU schauen - es gibt Versuche, das zu regulieren und transparenter zu machen. Und es gibt eine Debatte über Anwendungsgrenzen."
In der EU verhandeln derzeit EU-Mitgliedstaaten und EU-Parlament über ein KI-Gesetz. Ziel ist es, bis Ende des Jahres eine Einigung zu erzielen. Das Parlament fordert unter anderem ein Verbot von Systemen zur Gesichtserkennung in Echtzeit im öffentlichen Raum. Auch Systeme zur Kategorisierung von Menschen - beispielsweise nach Geschlecht, Ethnie oder Religion sollen unterbunden werden.
Generative KI-Systeme wie ChatGPT müssen nach der Postion des Parlaments künftig Transparenzanforderungen erfüllen. Sie müssen offenlegen, dass Inhalte KI-generiert sind, was auch dazu beitragen soll, sogenannte Deepfake-Fotos von echten Abbildungen zu unterscheiden. Zudem sollen die Unternehmen in die Verantwortung genommen werden, dass keine rechtswidrigen Inhalte mit ihren Produkten erzeugt werden.
Wem soll Künstliche Intelligenz dienen?
Mercedes Bunz wünscht sich, dass schon bei der Forschung und Entwicklung von Künstlicher Intelligenz nicht das Profitinteresse der Unternehmen, sondern der gesellschaftliche Nutzen im Mittelpunkt steht. "Wir ziehen uns da ziemlich zurück und sagen: Das sollen die Firmen mal unter sich ausknobeln. Dass die hauptsächlich daran interessiert sind, Profit zu machen, ist kein Wunder, weil sie im Bereich der Ökonomie tätig sind und nicht im Bereich des Sozialwesen", sagt Bunz. Die Politik müsse sich die Frage stellen, wie sie KI-Forschung, die den gesellschaftlichen Nutzen im Blick hat, besser fördern kann. Auch Timo Daum wünscht sich ein aktiveres Gestalten der Politik: "Wollen wir, dass wichtige Entscheidungen über die Entwicklung von Künstlicher Intelligenz in Konzernspitzen getroffen werden?"