In meiner Masterarbeit zur Optimierung geht es darum, iterativ während des Trainings eine passende Architektur für ein Multi-Layer Perzeptron zu finden.
Dies ist eine interessante Aufgabe, da sonst der Entwickler diese festlegen muss.
Für solche Architekturen sollten für einfache Probleme einfachere Probleme meist Architekturen mit weniger Parametern genutzt werden und für komplexere Probleme entsprechend Architekturen mit mehr Parametern. Denn hat man zu wenige Parameter kann man das Problem eventuell nicht gut lösen, hat man aber zu viele Parameter kommt es zu Overfitting, also kann das Multi-Layer Perzeptron zwar auf bestimmten Daten das Problem sehr gut lösen, nicht aber generell.
In diesem Projekt werden zwei Möglichkeiten, das zu tun, verglichen und erweitert. Optisch wird das an Animationen der Entwicklungen der Netze über mehrere Iterationen sichtbar werden.