game4automationgame4automationgame4automationgame4automation
  • Home
  • Demo
  • Kaufen
  • Newsletter
  • Blog
  • Forum
  • Dokumentation
  • de

  • en

game4automation | Blog Simulation und Virtuelle Inbetriebnahme mit Unity

Game4Automation User Community

02. Dezember 2020

 

You would like to receive our latest news and always be informed? If yes, please join the LinkedIn Game4Automation user community here

In the future, we will always publish here the latest news, invitations to our online events, and information about current and new releases.


powered by social2s

GAME CHANGER COFFEE BREAK

30. November 2020

We are happy that our user community is growing quickly. We would like to invite all our users to our new monthly Digital Twin Gamechanger Coffebreak.

Come together, exchange ideas, learn more about new and planned features and learn about other users use cases.

It will be a monthly event on every first Thursday each month. The agenda is open, and we would like to meet with you to drink a relaxing tea or coffee.

The meeting will be with Zoom and you can log in with this link. Please use your Webcam if possible.

 https://us02web.zoom.us/j/81460119903


powered by social2s

HOLOLENS IM ENGINEERING?

17. November 2020

 

Neugierig und gespannt war ich, als die  HoloLens 2 angekündigt und präsentiert wurden. Der  HoloLens 1 wurden noch viele Schwächen nachgesagt. Direkt  im Anschluss an die HoloLens 2 Präsentation von Microsoft habe ich mich dazu entschieden, diese augenscheinlich revolutionäre Brille im Kontext des Anlagenengineerings und speziell für unser Game4Automation auf Basis Unity zu testen.

Ich wollte wissen, ob es möglich ist, eine Automationslösung, wie zum Beispiel eine kleine Roboterstation oder eine Werkzeugmaschine direkt neben mir auf meinem Schreibtisch zu platzieren, um sie für Simulation und Virtuelle Inbetriebnahme zu verwenden.

Da unser Game4Automation-Framework zur Demokratisierung des Digitalen Zwillings auf der Spiele-Engine Unity basiert und Unity auch das häufigste genutzte Framework für die Entwicklung der Applikationen für die  HoloLens ist, sollte es auf jeden Fall  ein Leichtes sein,  unsere Digitalen Zwillinge in der HoloLens zum Leben zu erwecken. Hier ist meine Erfahrung eher negativ.  Ich versuchte mich an unserem Demomodell mit der Hololens.

Eigentlich kein Ding, eben die Microsoft MRTK zum Unity Projekt hinzugefügt und los geht`s. Allerdings ist die MRTK und der  Build Workflow auf die  HoloLens  doch noch etwas hakelig, zumindest im Vergleich mit den normalen Windows oder den gängigen Unity Android Builds. Aber dieser Faktor ist unter Umständen dem frühen Status sowie der recht geringen Anwenderzahl geschuldet.  

Nach einiger „Fummelei“ war es aber soweit - die Maschine, ein Roboter mit zwei kleinen Transportbändern, schwebte vor mir, als kleines 3D-Modell,  das vor den Augen schwebt, mit den Händen gehalten und rotiert werden kann, aber dennoch zu klein, um Details realistisch zu erkennen. Der Versuch, dieses kleine Bild 1/5 so groß wie die Realität auf den Tisch zu stellen oder in Realgröße auf den Boden scheitertet, und so war es mit der Begeisterung schnell vorbei.

Durch das eingeschränkte Gesichtsfeld ist stets nur ein Teil der 3D-Maschine zu erkennen, wie in einem Fenster.

 

Mich störte auch das recht dunkle Glas der HoloLens und die mächtige Scheibe vor den Augen dabei. Die Sicht auf die realen Dinge wird durch die Hardware dann doch recht stark eingeschränkt.  Die HoloLens funktioniert meines Erachtens eindeutig nicht so, wie es viele "gephotoshopte" Bilder von Microsoft und anderen vermuten lassen.

Es ist nicht möglich, ein großes System neben sich stehen zu haben oder damit gar noch gleichzeitig mit mehreren Personen zu interagieren. Meiner Meinung nach sollte unter den Bildern eine kleine Anmerkung diesbezüglich stehen. Unter der näheren Betrachtung des eingeschränkten Sichtfeldes wird deutlich, warum das in der Realität nicht funktioniert. 

Fazit: Der Einsatzbereich der HoloLens beschränkt sich für mich auf das Einblenden kleinerer Objekte und Informationen direkt im Gesichtsfeld des Anwenders, wie beispielsweise für Wartungsanweisungen und kleinere Markierungen am realen Objekt. 

Ob die eingeschränkte und abgedunkelte Sicht den Anwender stört, muss jede Anwendung für sich entscheiden. Größere Objekte funktionieren nicht und damit war es für mich nicht weiter notwendig, mich mit Azure Remote Rendering zu beschäftigen, das bei größeren komplexeren Objekten sicherlich aufgrund der beschränkten Grafikperformance notwendig wäre. Für einen "ich bin direkt am realen Objekt"-Effekt sind daher aktuell VR Brillen oder Powerwalls notwendig. Aber eine Sache bleibt ihr dann doch: Die HoloLens 2. ist ein faszinierendes Stück  Technik und lässt in die Zukunft blicken.


powered by social2s

Anwendung von Game4Automation in der Lehre

30. Oktober 2020

FH Wels nutzt Game4Automation und bringt in Covid19 Zeiten das Robotiklabor zu den Studenten! 

 


powered by social2s

Import CAD STEP files into Unity with Game4Automation Digital Twin Professional

27. Oktober 2020