Entwicklung eines Methodenkartensets zur Steigerung der Multimodalität von Bedienkonzepten

Publikation: Beitrag zu KonferenzenPaperBeigetragenBegutachtung

Abstract

In vielen Industriebereichen steigt die Bedeutung digitaler Daten und Services stark an, und die Notwendigkeit diese bei der Maschinenbedienung zu berücksichtigen wächst. Die Zunahme an Daten (Komplexität) und die Veränderung deren Natur (z.B. Prozessabläufe, virtuelle Zwillinge) bringt herkömmliche Display-basierte Benutzerschnittstellen an ihre Grenzen. Neue Interaktionskonzepte und -technologien werden benötigt, um den Zugang zu komplexen Informationen während der Maschinenbedienung zu erleichtern. Multimodale Bediensysteme und Extended Reality (XR) eröffnen neue Gestaltungsmöglichkeiten, um wichtige Informationen effektiver in die Bedienumgebung zu integrieren. Dies ist besonders wichtig für Einsatzszenarien mobiler Arbeitsmaschinen, in denen ein hohes Maß an Situationsbewusstsein und Kontrolle nötig ist. Diese neuen Gestaltungsmöglichkeiten gehen unter Umständen weit über den herkömmlicher Bedienkonzepte heraus und Erfahrungen hinsichtlich deren effektiver Gestaltung und Wirkungsweise bei der Informations-wahrnehmung und -verarbeitung fehlen. Um die Einbeziehung neuer Modalitäten zu vereinfachen, Gestaltungsräume aufzuzeigen und deren Diskussion im Rahmen von Entwicklungsprojekten zu fördern, haben wir ein Kartenset entwickelt. Dieses soll HMI-Designern helfen, den Gestaltungsspielraum multimodaler Informationsvisualisierung und Interaktion auszuloten, indem es verschiedene Modalitäten vorstellt und deren Gestaltungsparameter zusammenträgt. Dieses soll helfen zielgerichtet multimodal zu denken damit Lösungen entstehen, die den zukünftigen Anforderungen an Qualität und Quantität der Daten in vernetzten und KI-unterstützen Systemen gerecht werden. Die Karten ermöglichen das Entwickeln von „Information-Mappings“, die beschreiben, wie sich einzelne Informationen auf verschiedenen Modalitäten kodieren lassen. Im Ausblick werden zudem mögliche Werkzeuge diskutiert, die Gestalter dabei unterstützen diese Modalitäten sinnvoll zu multimodalen Bedienkonzepten zu verbinden, die den zukünftigen Anforderungen an Qualität und Quantität der Daten in vernetzten und KI-unterstützen Systemen gerecht werden.

Details

OriginalspracheDeutsch
PublikationsstatusVeröffentlicht - Juni 2024
Peer-Review-StatusJa

Konferenz

TitelEntwerfen Entwickeln Erleben 2024
KurztitelEEE2024
Veranstaltungsnummer
Dauer27 - 28 Juni 2024
Webseite
BekanntheitsgradNationale Veranstaltung
OrtMesse Dresden
StadtDresden
LandDeutschland

Externe IDs

ORCID /0000-0002-3402-6714/work/173054153
ORCID /0009-0006-2556-3338/work/173055917

Schlagworte

Schlagwörter

  • HMI, Multimodalität, Interaktionsdesign, Usability