Projekte

MARI (Mobile AR-Assistenz in der Industrie):
Augmented-Reality-Assistenzsysteme für mobile Anwendungsszenarien in der Industrie

Projektlaufzeit: 1.5.2017 bis 30.4.2021 (Laufend)
Forschungsbereich: Mensch-Technik-Interaktion : Mensch-Maschine-Interaktion
Projektleiter: Prof. Dr. Dr. habil. Carsten Röcker


  

Die fortschreitende Digitalisierung der industriellen Produktion, zusammengefasst unter dem Begriff Industrie 4.0, transformiert die Arbeitswelt der dort tätigen Menschen nachhaltig. Angesichts immer komplexer werdender Produktionsmittel und der Einführung cyber-physischer Systeme ist die Entwicklung von intelligenten Mensch-Maschine-Schnittstellen und Assistenzsystemen von zentraler Bedeutung, sowohl in wissenschaftlicher als auch in wirtschaftlicher Hinsicht.

 

Insbesondere die Fertigung bei immer höherer Variantenvielfalt oder von kleinen Losgrößen verlangt nach großer Flexibilität, die trotz zunehmender Automatisierung auch weiterhin menschliche Arbeit und manuelle Tätigkeiten erfordern wird. In Verbindung mit dem gegenwärtigen Fachkräftemangel und dem demographischen Wandel stellt sich die Frage, wie Menschen zukünftig befähigt werden können, die immer komplexer werdende Technik zu beherrschen und die notwendigen Tätigkeiten auszuüben.

Das Projekt MARI (Mobile AR-Assistenz in der Industrie) beschäftigt sich mit genau dieser zentralen Forschungsaufgabe. Im Rahmen des Projektes soll ein modulares und intelligentes Augmented-Reality-basiertes Assistenzsystem für mobile Anwendungsszenarien insbesondere für kleine und mittelständische Unternehmen entwickelt und evaluiert werden. Augmented Reality (AR) bezeichnet hierbei die Überlagerung der Realität mit digitalen Informationen, beispielsweise mittels Datenbrillen oder Projektionen.

 

Aufbauend auf unseren Vorarbeiten im Bereich von intelligenten Assistenzsystemen zur Unterstützung von Produktionstätigkeiten an stationären Handarbeitsplätzen wollen wir im Rahmen dieses Projekts untersuchen, wie neue Interaktionstechnologien die Beschäftigten in mobilen Szenarien unterstützen können. Wir wollen daher im Rahmen des Projekts ein mobiles, intelligentes und modulares Augmented-Reality-Assistenzsystem entwickeln und im Einsatz bei unseren Industriepartnern evaluieren.

 

Das zu entwickelnde System besteht aus einer Software (Kernsystem), die auf einer mobilen Plattform (z. B. Android oder Windows 10 Mobile) zum Einsatz kommt und verschiedenen Softwaremodulen (Interaktionskomponenten), die die Integration innovativer Interaktionsgeräte und Sensoren aus dem Konsumentenbereich erlauben und je nach Anwendungsszenarien flexibel aktiviert oder deaktiviert werden können. Das Kernsystem implementiert ein generisches Assistenzsystem, also eine Zustandsmaschine, die auf Basis digitaler Anleitungen komplexe Tätigkeitsprozesse im Rahmen der Fertigung, Montage oder Qualitätssicherung nachbildet. Zum „Erlernen“ neuer Tätigkeiten verfügt das Kernsystem hierbei über maschinelle Lernalgorithmen, die Input von den verschiedenen aktiven Interaktionskomponenten erhalten und hierdurch neue Tätigkeiten analysieren können. Die hieraus gewonnenen Daten können für die spätere Assistenz von Tätigkeiten oder für eine Abweichungserkennung genutzt werden. Weiterhin enthält das Kernsystem Schnittstellen zu den Interaktionskomponenten sowie externe Schnittstellen für Umsysteme zur Anbindung bestehender Manufacturing-Execution- und Enterprise-Resource-Planning-Systemen (MES und ERP). Durch Bereitstellung der Interaktionskomponenten können je nach Anwendungszweck verschiedene Eingabe- und Ausgabekanäle genutzt werden, um die optimale (ggf. multimodale) Interaktion für die jeweilige Arbeitssituation zu ermöglichen. So könnte in einem Szenario die Datenbereitstellung am Arbeitsplatz mittels AR-Brille und Smart Watch geschehen. In einem anderen Szenario wird die Anzeige über eine In-situ-Projektion mittels (Pico-)Projektor realisiert. Verschiedene integrierbare Sensoren sollen dem Assistenzsystem zusätzliche Intelligenz verleihen. Mittels Sensorik (z. B. Tiefenkameras, Bewegungs- oder Eyetrackern) können Tätigkeiten multimodal aufgezeichnet und analysiert werden. Das System soll durch die Modularisierung generisch genug sein, um flexibel an verschiedene Tätigkeitsfelder innerhalb kleiner und mittelständischer Unternehmen angepasst zu werden.

 

Ziel des Projekts ist neben der Entwicklung des Kernsystems und zahlreicher Interaktionskomponenten die Implementierung von konkreten Einsatzszenarien in den Unternehmen. Diese Umsetzung ermöglicht die im Projekt geplante umfangreiche empirische Evaluierung des Systems, die insbesondere auf Usability- und User-Experience-Aspekte abzielt.

 

Durch die prototypische Entwicklung und Evaluierung des Systems werden übertragbare Erkenntnisse über die Interaktion zwischen Menschen und AR-basierten Assistenzsystemen gewonnen, die im Rahmen des Kompetenzzentrums „Mittelstand 4.0“ für kleinere und mittelständische Unternehmen zugänglich und nutzbar gemacht werden.


  • Bosch Rexroth AG
  • Wassermann Technologie GmbH
  • Fraunhofer IOSB-INA

 

 

 

 


gefördert durch: VDI Technologiezentrum GmbHFörderkennzeichen: 13FH005IX6
Förderlinie: IngenieurNachwuchs 2016 – Kooperative Promotion
Ansprechpartner: Dipl.-Wirtsch.-Inform. Sebastian Büttner
Mitarbeiter: Dipl.-Wirtsch.-Inform. Sebastian Büttner