wissen.de Artikel
Augmented Reality auf dem Smartphone - Wie funktioniert das eigentlich?
Jeder der zum ersten Mal vor den Überresten der Berliner Mauer steht, wird sich wohl fragen, wie diese Kulisse vor 30 Jahren aussah. Doch statt Geschichtsbücher oder alte Fotos auszupacken, macht die Augmented Reality (AR) heute noch ein ganz anderes Erlebnis möglich: Eine App, die auf Basis der Augmented Reality funktioniert, zeigt nicht nur Informationen über das Gebäude, sondern sie blendet auch historische Kulissen ein, und verschmilzt beides über das Kamerabild zu einer neuen Realität für den Benutzer.
Neuer Anreiz für unsere Sinne
Das Abbild der Berliner Mauer, das Realität und alte Aufnahmen in einem Bild überlagert, könnte man als erweiterte Realität bezeichnen. Daher kommt auch der Name Augmented Reality – wörtlich "ergänzte Wirklichkeit". Er bedeutet dass wir unsere Sinneswahrnehmung mithilfe von Computern oder Ähnlichem ausbauen. Damit kann theoretisch auch eine Wahrnehmungsveränderung des Hörens oder des Tastsinns gemeint sein, aber meistens bezieht sich der Begriff nur auf das Sehen.
Bei den gängigen Anwendungen und unserer "ergänzten" Berliner Mauer ist Augmented Reality eine Überlagerung von realer und virtueller Welt. Diese Überlagerung kann mit dem Smartphone, am PC oder auch einfach durch Leuchteinblendungen in unserer Umgebung erzeugt werden.
Software, Smartphone und GPS
Damit die Mauer in unserer Wahrnehmung wieder steht, brauchen wir ein Smartphone mit GPS und Kamera. Mithilfe dieser Hilfsmittel können dann diverse Apps für die unterschiedlichsten Anwendungen unsere Realität erweitern. Die App liefert dabei die Software, die das aufgenommene Bild der Kamera analysiert und weiterverarbeitet. Das ist ähnlich wie beim QR-Code der den Nutzer anhand der Bilddaten auf eine Website weiterleitet.
Tracking mit Fotodaten und GPS
Doch woher weiß die App, ob wir gerade an der Berliner Mauer oder beim Kölner Dom stehen? Damit die App unsere Umgebung einordnen kann, nutzt sie sogenannte Trackingverfahren. Hierbei unterscheidet man zwischen dem visuellen und dem nicht-visuellen Tracking.
Beim visuellen Tracking nimmt der Nutzer beispielsweise in der App ein Video des Kölner Doms auf. Das Programm erkennt darin eindeutige optische Merkmale wie zum Beispiel die Domspitze und gleicht diese mit einer Fotodatenbank ab. Durch Vergleich unseres Kamerabilds mit den gespeicherten Fotos erkennt die App, dass es sich bei dem Foto um den Kölner Dom handelt und ordnet dem Bild eine Orientierung und Position zu.
Das nicht-visuelle Tracking erfolgt dagegen über das GPS-Signal des Smartphone-Nutzers. Dabei dienen die Standortdaten als Referenz, mit denen die Software nun ebenfalls in einer Datenbank nach passenden Sehenswürdigkeiten oder Merkmalen sucht. So kann eine App beispielsweise erkennen, dass wir auf der Kölner Domplatte stehen.
Die App weiß also jetzt, wo wir stehen und kennt die Daten des Kölner Doms. Durch Merkmale, die im Kamerabild vorhanden sind, wie zum Beispiel ein Ausschnitt eines Bildes, errechnet das Programm jetzt die Beziehung zwischen Kamera und Dom. Das ist notwendig, damit die Lage stimmt. Wenn beispielsweise ein virtueller Pókemon vor dem Dom erscheint, dann ist dieser dadurch nicht schief, sondern steht gerade vor dem Dom. Damit das auch über eine bestimmte Zeitspanne funktioniert, analysiert die Software 30 Mal pro Sekunde die Kamerabilder, errechnet die Lagebestimmung und rendert das Bild.