
Neugierig und gespannt war ich, als die HoloLens 2 angekündigt und präsentiert wurden. Der HoloLens 1 wurden noch viele Schwächen nachgesagt. Direkt im Anschluss an die HoloLens 2 Präsentation von Microsoft habe ich mich dazu entschieden, diese augenscheinlich revolutionäre Brille im Kontext des Anlagenengineerings und speziell für unser Game4Automation auf Basis Unity zu testen. Ich wollte wissen, ob es möglich ist, eine Automationslösung, wie zum Beispiel eine kleine Roboterstation oder eine Werkzeugmaschine direkt neben mir auf meinem Schreibtisch zu platzieren, um sie für Simulation und Virtuelle Inbetriebnahme zu verwenden. Da unser Game4Automation-Framework zur Demokratisierung des Digitalen Zwillings auf der Spiele-Engine Unity basiert und Unity auch das häufigste genutzte Framework für die Entwicklung der Applikationen für die HoloLens ist, sollte es auf jeden Fall ein Leichtes sein, unsere Digitalen Zwillinge in der HoloLens zum Leben zu erwecken. Hier ist meine Erfahrung eher negativ. Ich versuchte mich an unserem Demomodell mit der Hololens. Eigentlich kein Ding, eben die Microsoft MRTK zum Unity Projekt hinzugefügt und los geht`s. Allerdings ist die MRTK und der Build Workflow auf die HoloLens doch noch etwas hakelig, zumindest im Vergleich mit den normalen Windows oder den gängigen Unity Android Builds. Aber dieser Faktor ist unter Umständen dem frühen Status sowie der recht geringen Anwenderzahl geschuldet. Nach einiger „Fummelei“ war es aber soweit - die Maschine, ein Roboter mit zwei kleinen Transportbändern, schwebte vor mir, als kleines 3D-Modell, das vor den Augen schwebt, mit den Händen gehalten und rotiert werden kann, aber dennoch zu klein, um Details realistisch zu erkennen. Der Versuch, dieses kleine Bild 1/5 so groß wie die Realität auf den Tisch zu stellen oder in Realgröße auf den Boden scheitertet, und so war es mit der Begeisterung schnell vorbei. Durch das eingeschränkte Gesichtsfeld ist stets nur ein Teil der 3D-Maschine zu erkennen, wie in einem Fenster. Mich störte auch das recht dunkle Glas der HoloLens und die mächtige Scheibe vor den Augen dabei. Die Sicht auf die realen Dinge wird durch die Hardware dann doch recht stark eingeschränkt. Die HoloLens funktioniert meines Erachtens eindeutig nicht so, wie es viele "gephotoshopte" Bilder von Microsoft und anderen vermuten lassen. Es ist nicht möglich, ein großes System neben sich stehen zu haben oder damit gar noch gleichzeitig mit mehreren Personen zu interagieren. Meiner Meinung nach sollte unter den Bildern eine kleine Anmerkung diesbezüglich stehen. Unter der näheren Betrachtung des eingeschränkten Sichtfeldes wird deutlich, warum das in der Realität nicht funktioniert. Fazit: Der Einsatzbereich der HoloLens beschränkt sich für mich auf das Einblenden kleinerer Objekte und Informationen direkt im Gesichtsfeld des Anwenders, wie beispielsweise für Wartungsanweisungen und kleinere Markierungen am realen Objekt. Ob die eingeschränkte und abgedunkelte Sicht den Anwender stört, muss jede Anwendung für sich entscheiden. Größere Objekte funktionieren nicht und damit war es für mich nicht weiter notwendig, mich mit Azure Remote Rendering zu beschäftigen, das bei größeren komplexeren Objekten sicherlich aufgrund der beschränkten Grafikperformance notwendig wäre. Für einen "ich bin direkt am realen Objekt"-Effekt sind daher aktuell VR Brillen oder Powerwalls notwendig. Aber eine Sache bleibt ihr dann doch: Die HoloLens 2. ist ein faszinierendes Stück Technik und lässt in die Zukunft blicken. |