Entwicklung eines Methodenkartensets zur Steigerung der Multimodalität von Bedienkonzepten
Publikation: Beitrag zu Konferenzen › Paper › Beigetragen › Begutachtung
Beitragende
Abstract
In vielen Industriebereichen steigt die Bedeutung digitaler Daten und Services stark an, und die Notwendigkeit diese bei der Maschinenbedienung zu berücksichtigen wächst. Die Zunahme an Daten (Komplexität) und die Veränderung deren Natur (z.B. Prozessabläufe, virtuelle Zwillinge) bringt herkömmliche Display-basierte Benutzerschnittstellen an ihre Grenzen. Neue Interaktionskonzepte und -technologien werden benötigt, um den Zugang zu komplexen Informationen während der Maschinenbedienung zu erleichtern. Multimodale Bediensysteme und Extended Reality (XR) eröffnen neue Gestaltungsmöglichkeiten, um wichtige Informationen effektiver in die Bedienumgebung zu integrieren. Dies ist besonders wichtig für Einsatzszenarien mobiler Arbeitsmaschinen, in denen ein hohes Maß an Situationsbewusstsein und Kontrolle nötig ist. Diese neuen Gestaltungsmöglichkeiten gehen unter Umständen weit über den herkömmlicher Bedienkonzepte heraus und Erfahrungen hinsichtlich deren effektiver Gestaltung und Wirkungsweise bei der Informations-wahrnehmung und -verarbeitung fehlen. Um die Einbeziehung neuer Modalitäten zu vereinfachen, Gestaltungsräume aufzuzeigen und deren Diskussion im Rahmen von Entwicklungsprojekten zu fördern, haben wir ein Kartenset entwickelt. Dieses soll HMI-Designern helfen, den Gestaltungsspielraum multimodaler Informationsvisualisierung und Interaktion auszuloten, indem es verschiedene Modalitäten vorstellt und deren Gestaltungsparameter zusammenträgt. Dieses soll helfen zielgerichtet multimodal zu denken damit Lösungen entstehen, die den zukünftigen Anforderungen an Qualität und Quantität der Daten in vernetzten und KI-unterstützen Systemen gerecht werden. Die Karten ermöglichen das Entwickeln von „Information-Mappings“, die beschreiben, wie sich einzelne Informationen auf verschiedenen Modalitäten kodieren lassen. Im Ausblick werden zudem mögliche Werkzeuge diskutiert, die Gestalter dabei unterstützen diese Modalitäten sinnvoll zu multimodalen Bedienkonzepten zu verbinden, die den zukünftigen Anforderungen an Qualität und Quantität der Daten in vernetzten und KI-unterstützen Systemen gerecht werden.
Details
Originalsprache | Deutsch |
---|---|
Publikationsstatus | Veröffentlicht - Juni 2024 |
Peer-Review-Status | Ja |
Konferenz
Titel | Entwerfen Entwickeln Erleben 2024 |
---|---|
Kurztitel | EEE2024 |
Veranstaltungsnummer | |
Dauer | 27 - 28 Juni 2024 |
Webseite | |
Bekanntheitsgrad | Nationale Veranstaltung |
Ort | Messe Dresden |
Stadt | Dresden |
Land | Deutschland |
Externe IDs
ORCID | /0000-0002-3402-6714/work/173054153 |
---|---|
ORCID | /0009-0006-2556-3338/work/173055917 |
Schlagworte
Schlagwörter
- HMI, Multimodalität, Interaktionsdesign, Usability