Hannover Messe: Technische Ausbildungsszenarien in Virtual Reality einfach selbst erstellen

Hannover Messe: Technische Ausbildungsszenarien in Virtual Reality einfach selbst erstellen

VR-Lernumgebungen ermöglichen eine effektive technische Ausbildung

BildDas Fraunhofer IGD aus Rostock stellt mit Machine@Hand 2.0 die zweite Version seiner VR-Lernumgebung auf der diesjährigen Hannover Messe vor. Mit Machine@Hand 2.0 lassen sich effektive VR-Trainingsszenarien für die Ausbildung an komplexen Maschinen, Anlagen und technischen Handlungsabläufen erstellen. Die VR-Lernumgebung ist mit einem einfach zu bedienenden Autorenwerkzeug kombiniert. Die VR-Module können einfach in bestehende Lernplattformen (LMS) und E-Learning-Module eingebunden werden. VR-Lernumgebungen sind vollständig interaktiv und helfen den Nutzenden dabei, die erlebten Lerninhalte effektiv und dauerhaft umzusetzen.

Hochkomplexe Maschinen, Anlagen und technische Handlungsabläufe müssen rund um die Uhr aktiv sein. Downtime kostet viel Geld. Darum erfordern die Bedienung und Wartung solcher Anlagen erstklassig geschultes Personal.
Machine@Hand 2.0 ist eine virtuelle Lernumgebung des Fraunhofer-Instituts für Graphische Datenverarbeitung IGD, mit der in Virtual Reality (VR) die Bedienung, Montage oder Wartung komplexer Maschinen und technischer Handlungsabläufe auf einfache Weise trainiert werden kann. Eine Besonderheit von Machine@Hand 2.0 ist die Möglichkeit, dass mehrere Lernende gemeinsam komplexe, entscheidungsbasierte Szenarien üben können. So lassen sich Teamabläufe und kooperative Handlungsabläufe trainieren – das gab es in dieser Form bisher noch nicht! Dazu können Ausbilder während eines laufenden Trainings als Remote Expert unterstützen und den Auszubildenden Hinweise geben. So lassen sich auch gefährliche Handlungsabläufe und Situationen in der kontrollierten und geschützten VR-Umgebung ideal simulieren und trainieren.

VR-Lernumgebungen ermöglichen eine effektive technische Ausbildung

Virtuelle Lernumgebungen sind aktuell und hocheffektiv. Und das nicht nur wegen der aktuellen Einschränkungen von Präsenzkursen. Im Gegensatz zu Lernmedien, die einfach konsumiert werden wie z.B. Video oder Text/Video/Audio-Kombinationen, sind VR-Lernumgebungen vollständig auf die Interaktion mit den Lernenden ausgelegt. Das erhöht die situationsbedingte Aufmerksamkeit und unterstützt die Verarbeitung und den Transfer von Informationen in das Langzeitgedächtnis, was einen langfristigen Lernerfolg ermöglicht. Virtual Reality eröffnet den Lernenden die Möglichkeit, Lerninhalte in einer effizienten, fast spielerischen Weise zu erschließen. Komplexe, schwierige oder gefährliche Handlungsabläufe lassen sich in der simulierten Umgebung am virtuellen Maschinenmodell beliebig oft wiederholen. Individuelle Lernziele werden in der VR-Umgebung auf einfache Weise umgesetzt und helfen, Berührungsängste mit der geschulten Technologie zu vermindern. Komplexe Handlungsabläufe lassen sich in lebendige Szenarien einbinden. So trainieren Lernende das richtige Verhalten und korrekte Abläufe für unterschiedliche Situationen.

Machine@Hand 2.0 eröffnet völlig neue Möglichkeiten, um hocheffiziente VR-Training-Module zu entwickeln und das zu einem Bruchteil der Kosten und der Komplexität von bisherigen Lösungen. Insbesondere innerbetriebliche Ausbildungsabteilungen, Technische Schulen und Hochschulen sowie Anbieter von technischen Trainingsinhalten bieten die ideale Umgebung für den Einsatz von Machine@Hand 2.0. Dabei ist die Anwendung aber nicht auf rein technische Trainingsinhalte begrenzt. Auch für Medizin, Dienstleistung und Handel lassen sich komplexe Trainingsszenarien mit Hilfe der VR-Technologie entwickeln.

Die Erstellung von VR-Trainingsmodulen mit Machine@Hand 2.0

Im neuesten Release des virtuellen Trainingstools können die VR-Module in einer Autorenumgebung erstellt werden, die sehr stark an die Funktionalität und die Benutzeroberfläche moderner Präsentationsprogramme angelehnt ist. Auch das Erstellen der Trainings direkt in VR wird über eine in Kürze zur Verfügung stehende VR-Authoring-Funktion möglich sein. Eine Programmierung oder teure externe Dienstleister sind dadurch nicht nötig. CAD-Daten und 3D-Modelle lassen sich direkt in das Machine@Hand 2.0 Autoren-Werkzeug importieren und dienen als Vorlagen für die Elemente in der VR-Lernumgebung. Es existiert eine Vielzahl von Bibliotheken, aus denen sich die unterschiedlichsten Elemente zu komplexen Lernszenarien zusammenfügen lassen. Auf diesem Weg ist die Erstellung von immersiven und vor allem interessanten VR-Lerninhalten möglich. Dies erlaubt die einfache Integration in bestehende E-Learning-Produktionsabläufe und ergänzt vorhandene Autorenwerkzeuge um eine effektive VR-Komponente.

In einem Video erhalten Interessenten in Kürze auf https://www.fh-igd.de/machine-at-hand konkrete Eindrücke davon, wie sich die VR-Lernumgebung ihren Anwendern präsentiert. Auf der Hannover Messe können sich Besucher des virtuellen Standes von der Funktionalität überzeugen und ab dem 25. März Termine zum Networking vereinbaren: https://www.hannovermesse.de/de/networking.

Technische Voraussetzungen für den Einsatz von Machine@Hand 2.0

Die technischen Voraussetzungen für die VR-Lernumgebung bewegen sich auf einem Niveau, das dem moderner Spielecomputer entspricht. Eine aktuelle CPU mit genügend Arbeitsspeicher, leistungsstarke Grafikkarte und ein VR-Set (VR-Brille und Hand Controller/Paddles) reichen aus. VR-Training-Module, die mit Machine@Hand 2.0 erstellt wurden, lassen sich problemlos in bestehende E-Learning-Module und technische Plattformen wie Learning Management Systeme (LMS) einbinden. Die aktuelle Standardschnittstelle xAPI wird dabei noch in diesem Jahr unterstützt. In einen E-Learning-Produktionsablauf, z. B. basierend auf dem ADDIE Modell, lässt sich die Software problemlos integrieren.

Machine@Hand unterstützt die folgenden 3D-Formate: FBX, GLTF, GLB, OBJ, STL, PLY, 3MF sowie Unity Asset-Bundles.

Bei Interesse an Machine@Hand 2.0 und für weitere Informationen wenden Sie sich bitte an: machineathand@igd-r.fraunhofer.de. Es besteht die Möglichkeit, eine Demo-Version des Autorenwerkzeuges kostenfrei zu testen.

Weiterführende Informationen:

– https://www.igd.fraunhofer.de/projekte/machinehand
– https://www.igd.fraunhofer.de/veranstaltungen/hannover-messe-2021
– https://www.hannovermesse.de/aussteller/fraunhofer-institut-igd/L837482

Fraunhofer IGD auf der Hannover Messe / 12.-16. April 2021

Ausstellerseite: Fraunhofer IGD – https://www.hannovermesse.de/aussteller/fraunhofer-institut-igd/L837482

Produktseite: Machine@Hand 2.0 – https://www.hannovermesse.de/produkt/machine-hand-plant-hand/259201/L837482

Vortrag: 14. April um 12 Uhr

Verantwortlicher für diese Pressemitteilung:

Fraunhofer-Institut für Graphische Datenverarbeitung IGD
Frau Daniela Welling
Fraunhoferstraße 5
64283 Darmstadt
Deutschland

fon ..: +49 6151 155-146
web ..: https://www.igd.fraunhofer.de
email : presse@igd.fraunhofer.de

Das 1987 gegründete Fraunhofer-Institut für Graphische Datenverarbeitung IGD ist die international führende Einrichtung für angewandte Forschung im Visual Computing, der bild- und modellbasierten Informatik. Wir verwandeln Informationen in Bilder und Bilder in Informationen. Stichworte sind Mensch-Maschine-Interaktion, Virtual und Augmented Reality, künstliche Intelligenz, interaktive Simulation, Modellbildung sowie 3D-Druck und 3D-Scanning. Rund 180 Forscherinnen und Forscher entwickeln an den drei Standorten Darmstadt, Rostock und Kiel neue technologische Anwendungslösungen und Prototypen für die Industrie 4.0, das digitale Gesundheitswesen und die “Smart City”. Durch die Zusammenarbeit mit den Schwester-Instituten in Graz und Singapur entfalten diese auch internationale Relevanz. Mit einem jährlichen Forschungsvolumen von 21 Mio. Euro unterstützen wir durch angewandte Forschung die strategische Entwicklung von Industrie und Wirtschaft.

Pressekontakt:

Fraunhofer-Institut für Graphische Datenverarbeitung IGD
Frau Daniela Welling
Fraunhoferstraße 5
64283 Darmstadt

fon ..: +49 6151 155-146
web ..: https://www.igd.fraunhofer.de
email : presse@igd.fraunhofer.de