TU Berlin

Neuronale InformationsverarbeitungApproximatives Reinforcement Learning

Neuronale Informationsverarbeitung

Inhalt

zur Navigation

Approximatives Reinforcement Learning

Lupe

Vollständig autonom mit ihrer Umgebung interagierende Agenten (z.B. Menschen oder Roboter) stellen das maschinelle Lernen vor ganz neue Herausforderungen. Ein Agent muss zukünftige Vorteile von Entscheidungen gegen deren Kosten aufwiegen, ohne (wie im maschinellen Lernen sonst üblich) dabei von einem menschlichen Experten angewiesen zu werden oder seine Umgebung zu kennen. Exakte Lösungen hiervon, wie sie im Feld des Reinforcement Learnings entwickelt wurden, skalieren sehr schlecht mit der Komplexität des zu lösenden Problems. Deshalb findet diese wohl fundierte Theorie in der Praxis kaum Anwendung. Dieses Projekt will das Problem durch Approximation der Lösungssuche überwinden, ohne dabei irrationales Verhalten zu erzeugen oder in Sackgassen stecken zu bleiben. Die verwendeten Methoden passen sich selbstständig an Gegebenheiten und Eingabedaten an und können direkt mit den Sensorinformationen des Agenten arbeiten. Auf diese Weise wird eine komplette Wahrnehmung/Handlung Schleife erzeugt. Neu entwickelte Algorithmen werden in Simulationen und an Robotern getestet.

Danksagung: Diese Forschung wurde/wird von der Deutschen Forschungsgemeinschaft (DFG),
dem Human-Centric Communication Cluster (H-C3) und der Technischen Universität Berlin
gefördert.

Ausgewählte Publikationen:

Towards Structural Generalization: Factored Approximate Planning
Zitatschlüssel Boehmer2013b
Autor Böhmer, W. and Obermayer, K.
Jahr 2013
Journal ICRA Workshop on Autonomous Learning
Zusammenfassung Autonomous agents do not always have access to the amount of samples machine learning methods require. Structural assumptions like factored MDP allow to generalize experiences beyond traditional metrics to entirely new situations. This paper introduces a novel framework to exploit such knowledge for approximated policy iteration. At the heart of the framework a novel factored approximate planning algorithm is derived. The algorithm requires no real observations and optimizes control for given linear reward and transition models. It is empirically compared with least squares policy iteration in a continuous navigation task. Computational leverage in constructing the linear models without observing the entire state space and in representation of the solution are discussed as well.
Typ der Publikation Selected:reinforcement
Link zur Publikation Download Bibtex Eintrag

Navigation

Direktzugang

Schnellnavigation zur Seite über Nummerneingabe