Eine der zentralen Fragen des menschlichen Lernens ist die Festlegung des Schwierigkeitsgrades eines Stoffes und dessen Einfluss auf die Lerngeschwindigkeit. In vielen Situationen stellt man fest, dass es einen Punkt gibt, an dem das Üben weder zu leicht noch zu schwer ist und in dem das Lernen am schnellsten voranschreitet. Wilson et al. (2019) haben die Bedingungen für diesen Punkt bei Lernalgorithmen im Kontext binärer Klassifikationsaufgaben überprüft und festgestellt, dass die optimale Fehlerquote für das Training bei etwa 15,87% liegt bzw. die optimale Trainingsgenauigkeit bei etwa 85%. Neuronale Netzwerke lernen also dann am besten, wenn sie etwa 15 Prozent Fehler machen, darunter auch solche, die menschliches und tierisches Lernen nachbilden sollen.
Diese Fünfundachtzig-Prozent-Regel (also etwa 15 Fehler unter 100 Versuchen) konnte demnach für künstliche neuronale Netze bestätigt werden, die in der AI-Forschung angewendet werden, wenn lernfähige Programme Muster in verschiedene Kategorien einteilen oder Ziffern auf Bildern als gerade oder ungerade oder als hohe und niedrige Zahlen einstufen sollten. Bei diesen Aufgabenstellungen, in denen sie zu 85 Prozent richtig lagen, lernten sie am besten weiter. Die AutorInnen vermuten, dass sich diese Regel des maximalen Informationsgewinns auch auf Menschen übertragen lässt, zumindest in jenen Fällen, in denen es um ähnliche Aufgabenstellungen geht.
Diese Ergebnisse bestätigen auch die bisherigen psychologischen Erkenntnisse, dass es bei Lernaufgaben einen optimalen Schwierigkeitsgrad gibt, denn stellt man zu leichten Aufgaben, gibt es nur einen geringen Lerneffekt, sind diese zu schwierig und die Fehlerquote zu hoch, scheitert man oder gibt sogar auf.
Literatur
Wilson, R. C., Shenhav, A., Straccia, M. & Cohen, J. D. (2019). The Eighty Five Percent Rule for optimal learning. Nature Communications, 10, doi:10.1038/s41467-019-12552-4.
Nachricht ::: Stangls Bemerkungen ::: Stangls Notizen ::: Impressum
Datenschutzerklärung ::: © Werner Stangl :::