Reinforcement learning via offline trajectory planning based on iteratively approximated models,Bestärkendes Lernen mittels Offline-Trajektorienplanung basierend auf iterativ approximierten Modellen
Publikation: Beitrag in Fachzeitschrift › Forschungsartikel › Eingeladen › Begutachtung
Beitragende
Abstract
In diesem Beitrag nutzen wir Künstliche Neuronale Netze (KNN) zur Approximation der Dynamik nichtlinearer (mechanischer) Systeme. Diese iterativ approximierten neuronalen Systemmodelle werden in einer Offline-Trajektorienplanung verwendet, um eine optimale Rückführung zu bestimmen, welche auf das reale System angewandt wird. Dieser Ansatz des modellbasierten bestärkenden Lernens (engl. model-based reinforcement learning (RL)) wird am Aufschwingen des Einfachwagenpendels zunächst simulativ evaluiert und zeigt gegenüber modellfreien RL-Ansätzen eine signifikante Verbesserung der Dateneffizienz. Weiterhin zeigen wir Experimentalergebnisse an einem Versuchsstand, wobei der vorgestellte Algorithmus innerhalb weniger Versuche in der Lage ist, eine für das System optimale Rückführung hinreichend gut zu approximieren.
Details
Originalsprache | Deutsch |
---|---|
Seiten (von - bis) | 612-624 |
Fachzeitschrift | At-Automatisierungstechnik |
Jahrgang | 68 |
Ausgabenummer | 8 |
Publikationsstatus | Veröffentlicht - 2020 |
Peer-Review-Status | Ja |
Externe IDs
Scopus | 85094872674 |
---|