TY - GEN UR - https://archiv.ub.uni-heidelberg.de/volltextserver/6644/ N2 - Evolution in Hardware - Eine Experimentalplattform zum parallelen Training analoger neuronaler Netzwerke Künstliche neuronale Netzwerke eignen sich aufgrund der in den Neuronen und Synapsen verteilten Rechenoperationen für eine parallele Implementierung in hochintegrierten Schaltungen. Durch die Kombination aus analoger Berechnung und digitaler Kommunikation können mit geringem Stromverbrauch hohe Rechengeschwindigkeiten skalierbar erreicht werden. Diese Geschwindigkeit ist aber nur praktisch nutzbar, wenn die neuronale Hardware in ein System eingebettet wird, das hohe Geschwindigkeiten sowohl bei der Ansteuerung als auch bei der Implementierung der Trainingsalgorithmen sicherstellt. Diese Arbeit stellt eine Experimentalplattform vor, die einen Mikroprozessor zur Ausführung der Trainingsalgorithmen mit programmierbarer Logik und einem gemischt analog-digitalen neuronalen Netzwerkchip kombiniert. Die erste Hardwaregeneration basiert auf einer PCI-Karte, die in einem Standard-PC betrieben wird. Die zweite Generation bietet durch Verwendung eines FPGAs mit integriertem Mikroprozessor die gleiche Funktionalität auf einer einzigen Leiterplatte. Bis zu 16 dieser Netzwerkmodule können, verbunden über eine Backplane, parallel betrieben werden. Durch die Implementierung des Trainings in Software sind beliebige Algorithmen realisierbar. Um das Training mit evolutionären Algorithmen zusätzlich zu beschleunigen, wurde ein Koprozessor entwickelt, der die daten- und rechenintensiven Teile des Trainings unter vollständiger Kontrolle durch die Software innerhalb der programmierbaren Logik ausführt. Anhand von praxisrelevanten Klassifikationsproblemen konnte gezeigt werden, dass die Ergebnisse dieses evolutionären Trainings sehr gut mit anderen Lösungen auf der Basis neuronaler Netzwerke konkurrieren können. KW - Hardware software co-designHardware software co-design AV - public A1 - Schmitz, Tillmann TI - Evolution in Hardware : eine Experimentalplattform zum parallelen Training analoger neuronaler Netzwerke ID - heidok6644 Y1 - 2006/// ER -