Künstliche Neuronale Netze sind Blackboxroutinen. Darf man die überhaupt verwenden?

Einer der am häufigsten gehörten Einwände gegen die Verwendung von Künstlichen Neuronalen Netzen ist der Umstand, dass es sich dabei um sogenannte "Blackbox"-Funktionen handelt und diese nicht physikalisch sind. Das bedeutet, dass man durch eine rein formelle Begutachtung des Modell nicht sagen kann, welcher Eingangsparameter genau welche Auswirkung auf den Ausgang des Modells hat.

Im Folgenden wird versucht, zumindest ein paar der wesentlichsten Argumente gegen diesen Einwand zusammenzufassen.

Neuronale Netze sind nicht nur eine Funktion sondern vielmehr ein Verfahren zur Ermittlung von Systemzusammenhängen

Wer Künstliche Neuronale Netze alleine auf die resultierende Funktion bzw. das resultierende Implementierungsmodell beschränkt, hat eigentlich ein wesentliches Charaktermerkmal der Neuronalen Netze nicht erfasst. In erster Linie sind diese nämlich - so wie all die anderen Machine-Learning-Verfahren auch, vorausgesetzt, man setzt sie richtig ein - eine Methode zur Identifikation und Quantifizierung jener Parameter, welche in einem System überhaupt wirken. Damit sind sie im Gegenteil zum genannten Einwand sogar eine Methode um Wissen über die Zusammenhänge und Wirkungsweisen eines bestimmten Systems zu generieren.

Die resultierende Funktion ist dabei fast ein "Abfallprodukt", welches man aber gleich für die Implementierung weiter verwenden kann - aber nicht muss. Wenn sich herausstellt, daß die Problemstellung doch nicht so komplex ist, wie anfangs gedacht und daß man für die Darstellung der resultierdenden Funktion nicht unbedingt ein Neuronales Netz benötigt wird (wobei der Trainingsprozess bei richtiger Auswertung die entsprechende Rückmeldung gibt) so spricht nichts dagegen, in einem weiteren Schritt auf Basis der identifizierten Systemparameter ein kompaktes, analytisches oder regelbasiertes Modell zu entwerfen. Vorteil hierbei ist, daß man mit der Bildung des Neuronalen Netzes am Beginn "Top-Down" geht und das Risiko, in extensive Trial-and-Error-Schlachten verwickelt zu werden, weitgehend minimiert.

Ein fertig trainiertes Neuronales Netz ist deterministisch und einfach

Sobald ein Künstliches Neuronales Netz fertig trainiert ist, handelt es sich um eine klar determinierte, einfache Funktion. Damit kann man alle beliebigen Tests und Validierungen durchführen, welche erforderlich sind.

"Analytisch" oder "regelbasiert" ist nicht unbedingt Whitebox

Im Gegenzug wird oft der Fehler gemacht, daß analytische und regelbasierte Modelle per se als "Whitebox"-Modelle dargestellt werden. Diese kann man zwar meist formal bis in die letzte Verzeigung durchsteigen, praktisch sind sie aber oft genauso "Blackbox". Ein Regelsatz oder eine analytische Gleichung mit mehr als einem Dutzend oder sogar hunderten Parametern mag zwar formell als Whitebox durchgehen, daß man aber die Wirkung aller Parameter versteht, ist damit lange noch nicht garantiert.

Weiters ist anzumerken, dass ein Konklomerat aus physikalischen Teilmodellen nicht unbedingt wieder ein physikalisches Gesamtmodell ergeben muß. Bei komplexen Systemen schlägt der reduktionistische Ansatz meist fehl.

"Analytisch" bedingt nicht notwendigerweise Kontrolle über das System

Unter dem Umstand, daß eine Lösung analytisch - und damit zumindest formell eine "Whitebox" - ist, darf man sich nicht einfach zurücklehnen und "auf die Hausaufgaben vergessen".

"Analytisch" bedeutet zwar, dass man die Funktion nach den jeweiligen Parametern rauf und runter differenzieren kann, um damit alle möglichen Sensitivitäten herauszufinden. Man muß dieses auch wirklich tun und die richtigen Schlüsse daraus ziehen! Denn automatisch verstehen muß man die hochgradig nichtlineare Gleichung damit noch nicht. Wie etwa u.a. die Chaos-Theorie lehrt, hat man ein System lange noch nicht unter Kontrolle, nur wenn man dieses analytisch beschreiben kann!

Ironischerweise wird beim Vorhandensein analytischer Lösungen oft auf die Validierung vergessen oder verzichtet, weil man unter dem Deckmantel der formellen Whitebox glaubt alles unter Kontrolle zu haben.

Prozess-Einbettung

Wie bei allen flexiblen und mächtigen Werkzeugen besteht natürlich auch die Gefahr der mißbräuchlichen und fehlgeleiteten Verwendung. Um hier sicher zu sein, wird die Anwendung in einen passenden Prozess eingebettet, welcher die saubere und konforme Formulierung der funktionalen Anforderungen inklusive der notwendigen Robustheit mit deren Validierung und Absicherung in den Vordergrund stellt. Validierung und die Absicherung gegen spezialisierte, überspitzte Lösungen ist dabei immanenter Prozessbestandteil.

 

Zuletzt aktualisiert am 2016-12-04 von Andreas Kuhn.

Zurück