Scherr, FranzHölldobler, Steffen2022-01-142022-01-142021978-3-88579-775-3https://dl.gi.de/handle/20.500.12116/37915Das menschliche Gehirn gestattet es uns neue Fähigkeiten scheinbar mühelos zu lernen, oft sogar nur durch Versuch und Irrtum, und das mit nur wenigen Anläufen. Diese Arbeit behandelt die Frage, wie eine solche Lernfähigkeit in gehirnähnlichen Schaltkreisen zustande kommen kann. Durch mathematisch rigoros hergeleitete Algorithmen werden Lernfähigkeiten in biologisch inspirierten Modellenrückgekoppelter neuronaler Netzwerke anhand von Computersimulationen demonstriert. Insbesondere erlaubt der entwickelte Lernalgorithmus solchen Netzwerken selbständig erfolgreiche Strategien durch Versuch und Irrtum zu lernen, etwa um eine hohe Punktezahl in Atari Videospielen zu erzielen. Hierbei erhält das Netzwerk keinerlei Information über die Regeln oder Ziele des Spiels, und es erhält auch keine Demonstration von wirksamen Strategien. Durch eine Optimierung von Lernsignalen, gestattet der Algorithmus erheblich schneller zu lernen. Die vorgestellte Theorie erweitert unser Verständnis davon, wie gehirnähnliche neuronale Netzwerke schwierige Aufgaben lernen können.deBestärkendes Lernen und Metalernen in neuronalen NetzwerkenText/Conference Paper