Zum Inhalt springen

Das katastrophische Vergessen neuronaler Netzwerke

Erworbenen Wissen künstlicher neuronaler Netze kann nicht einfach bis ins Unendliche erweitert werden, wobei das Problem des katastrophalen Vergessens hinzukommt, denn kaum hat ein Algorithmus mühsam eine Aufgabe gelernt, werden die nun dazu passenden gewichteten Verknüpfungen des neuronalen Netzes auf eine zweite Aufgabe hin optimiert und letztlich dadurch überschrieben. Das ist im Unterschied zum tierischen oder menschlichen Lernen, denn wenn eine eine Maus etwas Neues lernt, verstärkt das die beteiligten Synapsen zwischen den Nervenzellen. Dabei wachsen Dornenfortsätze, kleine Auswüchse auf den verzweigten Dendriten, die den Empfängerteil der Synapsen enthalten. Diese Dornen bleiben aber auch bei neuen Lernvorgängen erhalten, und die synaptische Übertragung ist dauerhaft erhöht, d. h., die entsprechende Erfahrung wird konsolidiert. Nun hat man auf dieser Basis ein künstliches neuronales Netz entwickelt, das bereits gelernte Informationen so sichert, dass sie durch neue Lerninhalte nicht überschrieben werden können, sodass es die erworbenen Fähigkeiten nutzen kann, um neue zu lernen. Man entwickelte dafür einen Algorithmus, der nach dem Vorbild der synaptischen Konsolidierung arbeitete, der die simulierten Verknüpfungen, die bereits für eine vorherige Aufgabe verstärkt worden waren, verriegeln und so vor dem Überschreiben schützen sollte. Dadurch gelingt es dem System, kontinuierlich zu lernen, und in Zukunft sollten Systeme selbst entscheiden können, welche Lerninhalte sie bündeln und vor dem Überschreiben schützen. Im Gehirn wird das zum Teil durch spezialisierte Gedächtnissysteme gelöst, denn sensomotorische Erfahrungen etwa gelangen in ein eigenes Gedächtnissystem, Seheindrücke in ein anderes und Klänge von Geräuschen in ein drittes.

Doch viele Eigenschaften des Gehirns sind nach heutigem Stand noch meilenweit davon entfernt, in künstlichen neuronalen Netzen realisiert zu werden, etwa die Fähigkeit zur Imagination oder das Transferlernen, also Problemlösungen auf andere, vergleichbare Situationen zu übertragen. So können Menschen etwa schneller eine neue Fremdsprache lernen, wenn sie bereits eine andere beherrschen. In Ansätzen versucht man derzeit, diese Fähigkeit mit progressiven neuronalen Netzwerken nachzubilden, wobei mehrere künstliche Netze miteinander verknüpft werden, damit sie erworbene Kenntnisse teilen und in gewissem Maß auf neue Aufgaben übertragen können. Allerdings sind solche Deep-Learning-Netzwerke aktuell im Vergleich zum menschlichen Gehirn sehr einfache Strukturen, denn etwa für das Transferlernen fehlt diesen Netzwerken aber die Flexibilität, da die wenigsten über ein Gedächtnis verfügen und weil sie nicht reflektieren können.


Nachricht ::: Stangls Bemerkungen ::: Stangls Notizen ::: Impressum
Datenschutzerklärung ::: © Werner Stangl :::





Schreibe einen Kommentar