Logo Logo
Hilfe
Kontakt
Switch language to English
Marouane, Chadly (2017): Visuelle Verfahren für ortsbezogene Dienste. Dissertation, LMU München: Fakultät für Mathematik, Informatik und Statistik
[img]
Vorschau
PDF
Marouane_Chadly.pdf

21MB

Abstract

Durch die rasante Entwicklung und Verbreitung mobiler Endgeräte, wie z.B. Smartphones, Tablets und Wearables, ist die Anzahl ortsbezogener Dienste in den letzten Jahren enorm angestiegen. Die Positionsbestimmung des Nutzers ist für solche Dienste zwingend notwendig. Funkbasierte Verfahren wie zum Beispiel GPS oder WLAN ermöglichen die Lokalisierung des Nutzers. Trotz der hohen Genauigkeit und der stetigen Weiterentwicklung der Verfahren haben diese Technologien ihre Grenzen und stehen nicht immer zur Verfügung, weshalb andere Lösungen unterstützend oder als Alternative zum Einsatz kommen müssen. Optische Sensoren, speziell Kamerasensoren oder sogenannte Actioncams, bieten hierfür eine Alternative an. Die Kombination aus hochauflösenden Kameras und der Leistungsfähigkeit mobiler Endgeräte bietet die Möglichkeit Methoden zur Positionsbestimmung und Aktivitätserkennung zu realisieren. Obwohl bereits heute einige visuelle Verfahren für ortsbezogene Dienste genutzt werden, steckt die Entwicklung auf diesem Gebiet immer noch in den Kinderschuhen. Daher werden in der vorliegenden Arbeit neuartige und erweiterte visuelle Verfahren zur Positionsbestimmung und Aktivitätserkennung vorgestellt, welche rein auf der Kamera mobiler Endgeräte basierend umgesetzt werden. Dafür werden markante visuelle Merkmale aus Bildsequenzen extrahiert und für die Bestimmung der relativen und absoluten Position verwendet. Zusätzlich werden die selben markanten Merkmale zur Bestimmung der aktuellen Aktivität eines Nutzers genutzt. In der vorliegenden Arbeit wird ein Verfahren zum effizienten Vergleich von Bildinformationen vorgestellt. Dazu wird ein Prozess entwickelt, der aus mehreren Vergleichsstufen besteht. Ähnlich wie bei einem Siebverfahren werden dabei stufenweise falsche Bilder aussortiert. Ziel ist es, ein Verfahren zu entwickeln, das fotografierte Bildsequenzen von Objekten oder ganzen Standorten in kürzester Zeit eindeutig wieder erkennen kann. Anschließend werden drei neue Erweiterungen für ein visuelles Positionierungssystem, namens MoViPS, vorgestellt. Diese Erweiterungen sollen das System für einen Echtzeitbetrieb nutzbar machen. Zwei Erweiterungen verkürzen allgemein die Antwortzeit und machen gleichzeitig den gesamten Prozess effizienter und robuster. Die dritte Erweiterung verbessert das bestehende Positionskorrekturverfahren aus MoViPS. Im letzten Teil dieser Arbeit wird ein Verfahren der visuellen Odometrie vorgestellt, das auf Basis eines Kamerasensors funktioniert, der aus der Ego-Perspektive einer Person aufzeichnet. Anders als bekannte State-of-the-Art-Verfahren basiert das Verfahren auf einem visuellen Schrittzähler und einem visuellen Kompass. Zusätzlich wird eine visuelle Aktivitätserkennung vorgestellt. Mit Hilfe der Eigenschaften markanter Merkmale, die aus einer Bildsequenz extrahiert werden, können Schritte sowie Aktivitäten erkannt werden. Die Beiträge der vorliegenden Arbeit liefern somit wichtige Grundbausteine für die Entwicklung und Erweiterung visueller Positionierungssysteme. Sie bieten zusätzlich visuelle Verfahren für ortsbezogene Dienste an, die die einfache Position und Aktivitäten eines Nutzers bestimmen können.

Abstract

Due to rapid development and wide distribution of mobile devices, such as Smartphones, tablets and wearables, the number of location-based services has increased enormously in recent years. For such services the position of a user is mandatory. Therefore wireless technologies and systems like e.g. GPS or WiFi are used for location determination. Despite high accuracy and continuous development these systems come with limitations like restricted availability. In order to compensate these restrictions, other technologies like optical sensors, especially camera sensors or so-called Actioncams are used as alternative or supportive systems. The combination of high-resolution cameras and the performance of mobile devices allow position determination and activity analysis. Although location-based services already make use of visual methods, development in this field is still in its infancy. This dissertation presents novel and advanced visual methods for localization determination and activity analysis based on mobile device cameras. Prominent visual features extracted from image sequences provide the basis for this kind of relative and absolute positioning and actvity determination. This work reveals a method for efficient comparison of image information. For this purpose a process is developed, which consists of several comparison steps to remove false images similary to a sieve filter. The aim is to develop a method that can clearly recognize photographed image sequences of objects or entire locations in a very short time. Subsequently three new extensions for a visual positioning system, called MoVIPS, are presented. Two of these extensions in general reduce response time and increase process efficiency and robustness. The third extension improves the existing positions correction method of MoVIPS. The last part of this work presents a camera sensor based method of visual odometry which records from first person perspective. Unlike known state-of-the-art methods, this method uses visual step counting and a visual compass. In addition, a visual activity detection is presented. Using the properties of prominent visual features that are extracted from an image sequence, steps and activities can be detected. The contributions of this work provides important foundations for the development and expansion of visual positioning systems. They also offer a visual method for location-based services that can determine the simple position and activities of a user.