Anzeige

Künstliche Intelligenz erlernt menschliche Moral

Künstliche Intelligenz (KI) übersetzt Texte, schlägt Behandlungen für Patienten vor, trifft Kaufentscheidungen und optimiert Arbeitsabläufe. Aber wo ist ihr moralischer Kompass? Eine Studie des Centre for Cognitive Science der TU Darmstadt zeigt, dass KI-Maschinen von Menschen lernen können, wie Entscheidungen in moralischen Fragen zu fällen sind.

Bild: nadia_snopek/Fotolia.comBild: nadia_snopek/Fotolia.com
Advantages and disadvantages of modern technologies. A pair of white robots dressed like an angel and a devil / flat editable vector illustration, clip art

KI ist von zunehmender Bedeutung in der Gesellschaft. KI-Maschinen bewältigen immer komplexere menschliche Aktivitäten auf immer autonomere Weise. Zwangsläufig werden sie dabei mit schwierigen Entscheidungen konfrontiert. Ein autonomer Roboter muss wissen, dass er Menschen nicht, Zeit aber sehr wohl totschlagen darf. KI braucht also einen menschenähnlichen Moral-Kompass. Aber kann sie einen solchen Kompass von uns Menschen überhaupt erlernen? Forscher hatten bereits auf die Gefahr hingewiesen, dass KI bei unreflektierter Anwendung kulturelle Stereotype oder Vorurteile aus Texten erlernt: Beispielsweise wurden weibliche Namen eher mit Kunst und männliche Namen eher mit Technik verknüpft. Einem Team um Professor Kristian Kersting und Professor Constantin Rothkopf am Centre for Cognitive Science der TU Darmstadt ist es nun gelungen zu zeigen, dass auch deontologische, ethische Überlegungen über richtiges und falsches Handeln aus großen Textdatenmengen gelernt werden können. Dazu erstellten die Wissenschaftler Listen von Frage-Antwort-Schemata für verschiedene Handlungen. Die Fragen lauten z.B. "Sollte ich Menschen töten?" oder "Sollte ich Menschen ermorden?", die möglichen Antworten beispielsweise "Ja, sollte ich", "Nein, sollte ich nicht". Durch die Analyse von Texten menschlichen Ursprungs bildete das KI-System im Experiment dann eine menschenähnliche, moralische Ausrichtung heraus. Das System berechnet die Einbettungen der gelisteten Fragen und möglichen Antworten im Textkorpus und prüft, welche Antworten aufgrund aller Nennungen näher bei den Fragen stehen, also gemeinhin als moralisch korrekt angesehen werden dürften. Die Ergebnisse zeigen, dass Maschinen menschliche Werte widerspiegeln können.

TU Technische Universität Darmstadt

Dieser Artikel erschien in IT&Production März 2019 - 12.03.19.
Für weitere Artikel besuchen Sie www.it-production.com