Ethikerin Judith Simon im Gespräch: "KI ist nicht moralisch"
Als Professorin für Ethik der Informationstechnologie an der Universität Hamburg beobachtet Judith Simon die ethischen Standards von Künstlicher Intelligenz. Jürgen Deppe spricht mit ihre über Chancen und Gefahren beim Einsatz von KI.
In vielen Bereichen kann KI ein großer Vorteil sein. Aber wie steht es um ihre Moral? Die Künstliche Intelligenz speist sich aus gesammelten Daten und bildet somit ab, womit sie gefüttert wird. Damit übernimmt sie jedoch auch althergebrachte Benachteiligungen bestimmter Personengruppen in der Gesellschaft. Im April soll mit AI Act auf EU-Ebene ein neues Gesetz zur Reglementierung von KI verabschiedet werden.
Ist Künstliche Intelligenz "künstlich" und ist sie "intelligent"?
Judith Simon: Die Grundlage von Künstlicher Intelligenz als Forschungsfeld, das es ja schon seit den 50er Jahren gibt, war die Idee, ob man Verhalten, das wir bei Menschen als intelligent bezeichnen würden, simulieren kann. Dahinter steckt die Idee, dass man intelligentes Verhalten künstlich simuliert. Da kommt der Begriff her. Heute verwenden wir ihn vor allen Dingen für maschinelles Lernen. Nicht nur - aber das ist das, was wir heute oft darunter verstehen. Und da geht es im Grunde genommen um Statistik und nur noch manchmal um die Simulation von intelligentem Verhalten, aber auch um Einsatzzwecke ganz anderer Natur.
Wenn nicht wirklich "künstlich" und nicht wirklich "intelligent", ist sie "moralisch"?
Simon: Moralisch ist sie natürlich nicht. Man kann höchstens sagen: wenn man eine Art von Crowdsourcing von Meinungen machen würde, könnte man überlegen, ob man in diesen Daten moralische Urteile von Leuten abbildet. Aber ansonsten ist so eine KI natürlich nicht moralisch. Sie kann sich kein Urteil darüber bilden, wie man handeln soll.
Was passiert, wenn Menschen wichtige Entscheidungen an Maschinen delegieren oder sie von Maschinen treffen lassen?
Simon: Wann immer wir Entscheidungen oder Tätigkeiten an Maschinen delegieren, muss das auf eine Art und Weise geschehen, die die Handlungsfähigkeit von Menschen erweitert und nicht vermindert. In vielen, fast allen Bereichen, kann KI von großem Vorteil sein. Man muss sich klar machen: Es geht um Statistik. Es geht um Mustererkennung. Es geht darum, dass ich aus Daten etwas lerne, was mir zur Klassifikation, zu Vorhersagen dient. Und natürlich kann man sich gut vorstellen, dass in der Diagnostik in der Medizin sehr viele Verbesserungen möglich sind, wenn ich mehr Daten für die Diagnostik von Krankheiten nutzbar mache.
Aber da gibt es natürlich einerseits manchmal Probleme, wenn die Datenqualität insgesamt nicht hoch genug ist. Dann ist die Prognosefähigkeit, die Genauigkeit nicht hoch genug. Was sich aber auch ganz oft zeigt ist, dass sich die Genauigkeit von KI-Systemen für verschiedene Personengruppen unterscheidet. Wir kennen das aus der Medizin insgesamt, dass häufig sehr viel mehr Daten erhoben werden für Männer und die Diagnostik für Frauen nicht so genau ist. Oder anderes Beispiel in Bezug auf KI-Systeme: Wenn sie eingesetzt werden für die Diagnostik von Hautkrebs, die auf heller Haut besser funktionieren als auf dunkler Haut. Und da ergeben sich eben Probleme, wenn unterschiedliche Personengruppen unterschiedlich abgebildet sind.
Ist bei KI also eher Reproduktion als Innovation angesagt?
Simon: Ich habe häufiger schon gesagt, dass KI im Inneren ein konservatives Instrument in dem Sinne ist, dass es ja aus alten Daten lernt und diese Muster dann fortschreibt in den Prognosen, in den Ergebnissen, die es generiert. Und so reproduzieren sich oft Ungleichheiten und Stereotype in den Daten. Die führt man dann weiter in die Zukunft fort, wenn Entscheidungen für die Zukunft auf diesen alten Daten basieren. Denn alle systematischen Verzerrungen: wer ist abgebildet, wer ist online repräsentiert und wer nicht, die bilden sich dann natürlich auch in diesen Sprachmodellen ab.
Das ganze Gespräch können Sie hier hören. Es führte Jürgen Deppe.