"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

First Look: System Components Augmented Reality

mat 22.08.2017 - 00:29 1722 2
Posts

mat

Administrator
Legends never die
Avatar
Registered: Aug 2003
Location: nö
Posts: 25430
Für unseren nächsten Auftritt auf der IM.TOP am 21. September haben wir etwas wirklich Besonderes auf Lager. Wir zeigen nicht nur übertaktete Systeme und flüssigen Stickstoff auf der Messe, sondern wollen den Besuchern auch dieses Jahr wieder etwas zeigen, was man so noch nicht gesehen hat. Deshalb haben wir uns ein Augmented Reality Projekt mit dem ASUS Zenfone AR überlegt, um das Thema Overclocking und Hardware auf visuelle Art und Weise näher zu bringen. Die Konzeptzeichnung dazu sieht so aus:

click to enlarge

Das ist der Status des ersten Prototyps nach ungefähr 20 Stunden:


Der Prototyp besteht aktuell aus drei Teilen:

  • Android App auf Basis von Unity 3D (C#)
  • Win32-Anwendung für die Aufnahme und Weitergabe der Sensordaten (C++)
  • Apache/PHP7/MySQL Web Service für die Verwaltung der Sensordaten - quasi die Datenschnittstelle zwischen App und Anwendung (PHP, SQL)

Als Library für Augmented Reality verwende ich Google Tango und den Tiefensensor des Zenfones. Er erlaubt auch ein relativ gutes Occlusion Culling der 3D-Objekte mit Realtime Update (im Gegensatz zu Area Learning + Descriptions - also vorab gespeicherte Tiefendaten). Daher können auch Objekte verschoben werden und wirken sich ebenfalls auf die Sichtbarkeit aus. Sieht wirklich toll aus und bringt viel für die Immersion. Nachteil ist die Verzögerung des Cullings bei beweglichen Objekten. Außerdem darf man mit dem Tiefensensor nicht zu nah an Objekte rangehen, sonst werden sie nicht mehr erkannt.

Wie man im Video sieht, kann man auf die Hardware tippen, um das Monitoring für diese zu aktivieren. Aktuell gibt es zwar nur Grafikkarten, in den nächsten Tagen wird allerdings noch CPU, Speicher, SSD und Netzteil dazukommen. Alle können angetippt werden. Das Verfahren ist überraschend präzise und verwendet ebenfalls die aufgenommenen Tiefendaten. Wenn ein Objekt im Weg steht, dann funktioniert es natürlich nicht. Damit sollte das System von allen Seiten gut angetippt werden können, ohne eine falsche Komponente zu erwischen. Bin schon gespannt, ob mein Plan aufgeht.

Für die Sensordaten kommt wieder HWiNFO zum Einsatz. Mittlerweile hat oc.at eine Jahreslizenz für das SDK. Die Library ist einfach awesome! :cool:

Ich werde hier laufend Updates posten. Feedback ist wie immer erwünscht. :ghug:

wergor

connoisseur de mimi
Avatar
Registered: Jul 2005
Location: vulkanland
Posts: 4097
nice :eek:
nächster schritt: den gedruckten code weglassen und die komponenten direkt erkennen :cool:

Viper780

Er ist tot, Jim!
Avatar
Registered: Mar 2001
Location: Wien
Posts: 50081
Bitte das mit Erkennung von Gesichtern und Personen!
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz