Reinforcement learning via offline trajectory planning based on iteratively approximated models,Bestärkendes Lernen mittels Offline-Trajektorienplanung basierend auf iterativ approximierten Modellen

Publikation: Beitrag in FachzeitschriftForschungsartikelEingeladenBegutachtung

Abstract

In diesem Beitrag nutzen wir Künstliche Neuronale Netze (KNN) zur Approximation der Dynamik nichtlinearer (mechanischer) Systeme. Diese iterativ approximierten neuronalen Systemmodelle werden in einer Offline-Trajektorienplanung verwendet, um eine optimale Rückführung zu bestimmen, welche auf das reale System angewandt wird. Dieser Ansatz des modellbasierten bestärkenden Lernens (engl. model-based reinforcement learning (RL)) wird am Aufschwingen des Einfachwagenpendels zunächst simulativ evaluiert und zeigt gegenüber modellfreien RL-Ansätzen eine signifikante Verbesserung der Dateneffizienz. Weiterhin zeigen wir Experimentalergebnisse an einem Versuchsstand, wobei der vorgestellte Algorithmus innerhalb weniger Versuche in der Lage ist, eine für das System optimale Rückführung hinreichend gut zu approximieren.

Details

OriginalspracheDeutsch
Seiten (von - bis)612-624
FachzeitschriftAt-Automatisierungstechnik
Jahrgang68
Ausgabenummer8
PublikationsstatusVeröffentlicht - 2020
Peer-Review-StatusJa

Externe IDs

Scopus 85094872674

Schlagworte

Forschungsprofillinien der TU Dresden