Teil 3: Wie machen wir das autonome System autonom?
Leitplanken und Probezeit für das autonome System
Bevor autonome Systeme gebrauchstaugliche Werkzeuge in der industriellen Praxis werden, müssen zahlreiche technisch-wissenschaftliche und gesellschaftliche Fragen beantwortet werden. Einen Beitrag zum Diskurs leistet der dritte Teil unserer VDI-Serie 'Autonome Systeme'. Professor Michael Weyrich berichtet, wie Menschen den Systemen ihre Autonomie verleihen.
Herr Prof. Weyrich, bevor wir über das Wie sprechen, möchte ich von Ihnen wissen, was ein autonomes System autonom macht.
Prof. Michael Weyrich: Da streite ich mich immer mit den Informatikern, die autonome Systeme als logische Weiterentwicklung automatisierter Systeme sehen. Doch das ist meiner Meinung nach nicht ganz korrekt. Autonomie hat in erster Linie mit Selbstbestimmung zu tun, während sich Automation auf prozedurale Steuerungsabläufe bezieht. Diese sind eventuell vorausschauend, aber eben fest vorgegeben. Ein System, das autonom ist, kann - in gewissen vorgegebenen Leitplanken - selbstbestimmt agieren. Automation gibt es hingegen seit vielen Jahren. Sie folgt seit jeher vorgegebenen Prozessen, indem sie deterministisch zwischen vorgegebenen Möglichkeiten entscheidet.
Welche Methoden der Automation gibt es aktuell?
Weyrich: Viele - es gibt eine große Anzahl an Verfahren, die eingesetzt werden und mehr oder weniger gut funktionieren. Nachdem früher viel mit Regeln gearbeitet wurde, sind es heute meistens Verfahren des Machine Learning. Sie werten Daten aus, um Lösungen zu finden. Zu nennen sind hierbei neuronale Netze in verschiedenen Ausprägungen, aber auch Algorithmen zur Optimierung wie genetische Algorithmen, NLP oder Clusterung (SVM, Random Forrest, k-NN) mit denen diese Daten ausgewertet werden können. Auch Bayes'sche Netze, die mit bedingten Wahrscheinlichkeiten arbeiten, liefern bei bestimmten Problemen gute Ergebnisse. Es ist eine Aufgabe der aktuellen Forschung, die vielen Ideen und Konzepte für die speziellen Anwendungsfälle gangbar zu machen. Wir sind heute allerdings noch sehr stark im Bereich der schwachen KI unterwegs. Autonome Systeme gehen im Sinne der Selbstbestimmung noch einen Schritt weiter. Sie verlassen das heutige Paradigma von festgelegten und vorausgedachten Abläufen, die mithilfe von den oben genannten Algorithmen atomisiert spezielle Probleme lösen. Ein technisches System, das selbstbestimmt agiert, verlässt den Pfad des nachvollziehbaren Determinismus und erlaubt selbstgewählte neue Wege, zu denen nur Wahrscheinlichkeitsaussagen möglich sind.
Was heißt 'deterministische Wege verlassen' genau?
Weyrich: Nehmen wir ein sehr großes System an. Das hat, wenn es automatisiert ist, immer noch klare Regeln. Das Verhalten des Systems lässt sich also genau vorhersagen. Ein Test würde also immer wieder das gleiche Ergebnis liefern. Wenn wir ein autonomes System betrachten, dann werden Ziele verfolgt, die erreicht werden sollen. Eine ganze Reihe von Software-technischen Ansätzen versucht, Systeme dahingehend zu befähigen. Sie setzen häufig sogenannte Agenten ein, die mit Methoden des Bestärkenden Lernens, oder Reenforcement Learning, komplexe Zielkriterien erreichen sollen. Bedeutet: Der Agent erhält bestimmte Fähigkeiten und Kompetenzen und bekommt dann eine Aufgabe und Ziele, die es zu bewältigen gilt. Er erarbeitet selbstständig Lösungen, um eine Belohnung zu erhalten. Vorgegeben sind allein Metriken, mit denen das gewünschte Ergebnis bewertet wird. Außerdem werden oft Leitplanken bzw. Grenzbereiche vorgegeben und ständig überwacht. So kann sich ein autonomes System nicht vollständig aus dem Lösungsraum entfernen.
Es ist also möglich, autonomen Systemen Leitplanken vorzugeben, die diese einhalten?
Weyrich: Theoretisch ist es natürlich denkbar, dass ein System erkennt, dass bestimmte Leitplanken aus seiner Sicht nicht sinnvoll sind. Es könnte diese rein theoretisch einreißen. Doch mit diesem Szenario befinden wir uns außerhalb dessen, was derzeit und auch in absehbarer Zeit technisch möglich ist und befinden uns in einem eher metaphysischem Frageraum, in dem Algorithmen auch in der Lage wären, Gewerkschaften zu gründen. Technologisch sind wir da begrenzt: gesetzte Systemgrenzen bleiben Grenzen. Die oben beschriebenen Verfahren funktionieren gut für klar strukturierte Problemstellungen wie etwa Brettspiele. Aber auch AlphaGo oder DeepMind werden nach heutigem Stand der Technik nicht verkünden: Ich mag Go nicht mehr - ich spiele jetzt lieber Schach!
Dann ist also auch ein autonomes System beherrschbar?
Weyrich: In seinen Leitplanken schon. Die zentrale Frage, die wir auch innerhalb dieser Leitplanken vorgeben können, lautet: Was passiert, wenn sich Systeme von einem deterministischen Steuerungsparadigma hin zu selbstlernenden oder gar Transfer lernenden Systemen weiterentwickeln? Von da an sind die Systementscheidungen nicht mehr nachvollziehbar und können - vor allem bei komplexen Systemen - unterschiedlich ausfallen, wenn sich einzelne Wahrscheinlichkeiten verändern. Nehmen wir das oben gewählte Beispiel mit einem Entscheidungsbaum und mehreren Entscheidungsebenen. Der Weg zur Lösung ist nicht exakt vorgegeben. Wenn sich nur an einer einzigen Stelle von Transition A zu Transition B die Wahrscheinlichkeit zugunsten eines anderen Pfades verändert, dann ändert sich auch die Handlungsentscheidung. Die Überprüfbarkeit von Entscheidungen und vor allem die Vorhersage in definierten Systemgrenzen werden unübersichtlich oder sind für Außenstehende nicht mehr nachvollziehbar. Auf dieser Basis würde beispielsweise ein autonomes Fahrzeug heute keine TÜV-Plakette bekommen. Denn es handelt sich ja um ein selbstlernendes, also ein sich veränderndes System. Außerdem ergibt sich noch ein ganz anderes Problem: das der Haftung. Wenn etwa ein selbstfahrendes Auto einen Unfall verursacht - wer trägt dann die Schuld?
Das Verhalten eines selbstlernenden Systems kann also nicht vorhergesagt werden?
Weyrich: Doch - schon, aber es muss übergeordnete Abnahmetests geben, die das Gesamtverhalten überprüfen. Wir akzeptieren heute anstandslos Führerscheinprüfungen, bei denen ein Mensch über einen kurzen Zeitraum sein Können demonstriert und dann eine Fahrerlaubnis erhält. Man diskutiert dann lediglich noch wie lange eine Probezeit gilt. Für autonome Systeme muss das ähnlich werden. Aufgrund eines sogenannten deterministischen Chaos müssen wir uns von der Vorstellung lösen, jeden einzelnen Steuerungsschritt haarklein überprüfen zu wollen. Vielmehr muss es Szenarien geben, die die kritischen Situationen abfragen und prüfen.
Ist überhaupt eine verlässliche Aussage darüber möglich, ob und wann ein lernendes System korrekt funktioniert?
Weyrich: Es gibt statistische Aussagen dazu, wann ein autonom fahrendes Fahrzeug mit sehr hoher Wahrscheinlichkeit mindestens so gut funktioniert, wie man es heute von den Unfallzahlen im Straßenverkehr gewohnt ist. Je nach Berechnungsansatz landet man im Bereich von vielen hundert Millionen Kilometern, die zurückgelegt werden müssten, um klare statistische Belege zu liefern, dass das System korrekt und so zuverlässig reagiert, wie heute menschliche Fahrer. Es ist also alles eine Frage des Reifegrads und der Wahrscheinlichkeiten, ihrer Bewertung und des Bewusstseins dafür, dass solche umfassenden Tests zu Beginn gar nicht möglich sind.
Herr Prof. Weyrich, vielen Dank für das Gespräch!
Bevor autonome Systeme gebrauchstaugliche Werkzeuge in der industriellen Praxis werden, müssen zahlreiche technisch-wissenschaftliche und gesellschaftliche Fragen beantwortet werden. Einen Beitrag zum Diskurs leistet der dritte Teil unserer VDI-Serie 'Autonome Systeme'. Professor Michael Weyrich berichtet, wie Menschen den Systemen ihre Autonomie verleihen.
Herr Prof. Weyrich, bevor wir über das Wie sprechen, möchte ich von Ihnen wissen, was ein autonomes System autonom macht.
Prof. Michael Weyrich: Da streite ich mich immer mit den Informatikern, die autonome Systeme als logische Weiterentwicklung automatisierter Systeme sehen. Doch das ist meiner Meinung nach nicht ganz korrekt. Autonomie hat in erster Linie mit Selbstbestimmung zu tun, während sich Automation auf prozedurale Steuerungsabläufe bezieht. Diese sind eventuell vorausschauend, aber eben fest vorgegeben. Ein System, das autonom ist, kann - in gewissen vorgegebenen Leitplanken - selbstbestimmt agieren. Automation gibt es hingegen seit vielen Jahren. Sie folgt seit jeher vorgegebenen Prozessen, indem sie deterministisch zwischen vorgegebenen Möglichkeiten entscheidet.
VDI Verein Deutscher Ingenieure e.V.
Dieser Artikel erschien in IT&Production Dezember +Januar 2020 2019 - 13.12.19.Für weitere Artikel besuchen Sie www.it-production.com