Wie Künstliche Intelligenz für mehr Meinungsvielfalt sorgen könnte
An der Lübecker Universität wird erforscht, wie KI helfen kann, nicht auf eigenen Vorstellungen und Meinungen zu beharren und stattdessen offener für andere Sichtweisen und neue Informationen zu werden.
Wie gehen wir mit dem Klimawandel um? Wie können wir Zuwanderung human regeln? Wie bereiten wir uns auf künftige Pandemien vor? Komplexe Fragen - zu denen viele Menschen Meinungen haben, vielleicht sogar glauben, Antworten zu kennen. Die meisten wissen jedoch viel weniger als gedacht.
"Sensemaking": Wissen, dass ich nichts weiß - und dazulernen
Das zu erkennen und diese Lücken mit Wissen zu füllen, nennt sich "Sensemaking". Daran forscht Christian Scheiner, Inhaber des Lehrstuhls für Entrepreneurship an der Uni Lübeck. Kombiniert mit KI, ergibt sich ein Konzept, mit dem der Wissenschaftler und sein Team einen Ideenwettbewerb des Bundessozialministeriums gewonnen haben.
Die Idee soll dazu beitragen, dass Menschen verstehen, wie komplex Probleme sind - und dass es zu diesen Problemen in der Regel keine simplen Lösungen gibt, sagt Christian Scheiner: "Immer dann, wenn er mit komplexen Problemen konfrontiert ist, sucht der Mensch nach Einfachheit. Und diese Einfachheit führt dann in der Regel zu falschen Antworten."
Infos anbieten, aber nicht belehren
Ins KI-basierte Programm könnte eine Frage eingegeben werden, zum Beispiel: Was hilft gegen die Spaltung der Gesellschaft? Heraus käme ein Text, im besten Falle abgestimmt auf das sprachliche Niveau des Nutzers oder der Nutzerin. Darin würden verschiedene, wissenschaftlich fundierte Informationen, Aspekte und Perspektiven geliefert. Und damit gezeigt: Dinge sind oft nicht so einfach, wie man denkt.
Der Suchmaschinenanbieter "Bing" von Microsoft hat mit einem ähnlichen Ansatz experimentiert, sagt Christian Scheiner. Die Suchmaschine hat allerdings Pro- und Kontra-Aufstellungen zu Meinungen und Sichtweisen geliefert. Davon hält der Wirtschaftswissenschaftler nicht viel. Zu konfrontativ - das könne auf die Nutzerinnen und Nutzer belehrend wirken und sei nicht hilfreich, um neugierig auf neue Perspektiven zu machen.
Forscherin: KI kann auch manipulativ eingesetzt werden
So, wie es sich der Wissenschaftler vorstellt, wären die mithilfe von KI ausgeworfenen Texte komplexer und womöglich auch weniger eindeutig. Trotzdem wären Nutzerinnen und Nutzer damit zufriedener. Denn Christian Scheiner ist sich sicher: Menschen wollen gut und umfassend informiert werden. Werde erkannt, dass Probleme komplex sind, dass es unterschiedliche Sichtweisen gibt, würden auch eher die eigene Positionen hinterfragt. Das wiederum stärke den Pluralismus und sei letztendlich gut für die Demokratie, glaubt Christian Scheiner.
Für Moreen Heine klingt die Idee vielversprechend. Sie ist Professorin für E-Government an der Lübecker Uni und forscht unter anderem an KI in öffentlichen Verwaltungen. Solch eine KI-basierte Anwendung könne helfen, dass Diskussionen fair ablaufen und ein Ausgleich geschaffen werde. Gleichzeitig sieht sie Grenzen: "Es stehen die Fragen im Raum: Wie gut funktioniert das System, das zum Einsatz kommt? Und die Schattenseite: man kann es natürlich auch zur Manipulation nutzen."
Einsatz an Schulen und zur politischen Bildung denkbar
Bis jetzt ist die Sensemaking-Anwendung nur eine Idee. Forscher Christian Scheiner hat aber schon Vorschläge, wo sie in Einsatz gehen könnte. "Man könnte auf Schulen zugehen, es an Universitäten einsetzen, auch in politischen Landeszentralen, wo politische Bildung stattfindet."