Anzeige

Ethik & KI

Ethik und Erklärbarkeit in Bezug auf künstliche Intelligenz

Da eine heutige künstliche Intelligenz (KI) zu keinem Zeitpunkt ein Bewusstsein über das Erkannte entwickelt, ist KI prinzipiell vollkommen objektiv. Die Risiken aus der Anwendung von KI liegen daher in den verwendeten Daten und nicht in der KI selbst. Mit der aktuellen Diskussion von KI und Ethik soll verhindert werden, dass KI-Systeme Menschen diskriminieren.

Bild: ©Tatiana Shepeleva/stock.adobe.com

Dazu sollen diese Systeme so entwickelt werden, dass man die Gefahr unbeabsichtigter Folgen minimiert. Ein Unternehmen müsste vor dem Einsatz dann beispielsweise testen, ob KI bestimmte Personengruppen benachteiligt oder abwertet. In welchem Zusammenhang kann aber Ethik und KI gesehen werden?

  • • Integration von Ethik in KI: Da KI kein Bewusstsein über den bewerteten Inhalt entwickelt und Ethik nicht objektivierbar ist, lässt sich Ethik nicht sinnvoll in KI integrieren.
  • • Ethik der Daten: Das Ergebnis einer KI basiert auf Daten. Daher ist ein Ansatz für den ethischen Umgang mit KI der verantwortungsvolle Umgang mit den Daten.
  • • Ethik der Ergebnisse: Hier stellt sich die Frage, wie das Ergebnis einer KI zu bewerten ist und wie KI und Mensch so interagieren, dass die ethischen Grundsätze gewahrt werden.

Vergleicht man KI mit den aktuellen Methoden stellt man fest, dass KI prinzipiell den gleichen Zweck erfüllt wie die wie Elektronische Datenverarbeitung seit rund 60 Jahren. Daten werden verarbeitet und bewertet. Beide Ansätze unterscheiden sich lediglich in der Art der Modelle, die zu Bewertung der Daten verwendet werden. Der Mensch ist in seiner Fähigkeit komplexe Zusammenhänge zu erkennen, durch die Millersche Zahl (7+-2) begrenzt. In menschlichen Modellen werden daher komplexe Zusammenhänge vereinfacht und anschließend z.B. in Form eines Entscheidungsbaumes bewertet. Daraus ergibt sich eine Erklärbarkeit innerhalb des Modells. Die Frage, ob die Annahmen des Modells statistisch valide sind oder (implizit) diskriminiert, wird jedoch in der Regel weder gestellt noch geprüft. Es ist weitgehend gesellschaftlich akzeptiert eine Begründung zu bekommen, deren Erklärbarkeit d.h. Relevanz in Bezug auf die Entscheidung in der Regel jedoch nicht überprüfbar ist. Dabei zeigt sich gerade durch den Einsatz von KI, dass menschliche Annahmen oft unvollständig oder teilweise falsch sind. KI-Modelle hingegen erkennen Zusammenhänge direkt in komplexen Daten. Statt vereinfachter Annahmen spiegeln sie daher die statistische Realität der Daten. Da die Bewertung grundsätzlich anhand statistischer Zusammenhänge erfolgt, ermöglicht dies eine prinzipiell gerechtere Bewertung. Problematisch wird dies jedoch, wenn Daten unvollständig sind oder scheinbare Zusammenhänge enthalten, die nicht auf die Realität übertragbar sind.

EvoTegra GmbH

Dieser Artikel erschien in inVISION 1 Embedded Vision 2020 - 12.02.20.
Für weitere Artikel besuchen Sie