Knowledge base: Warsaw University of Technology

Settings and your account

Back

Sensor Fusion in Augmented Reality System for Mobile Devices

Ziemowit Obel

Abstract

Although the work on Augmented Reality systems conducted for more than two decades, yet the last progress in the miniaturization of components and the current popularity of smartphones makes it possible to create such systems for the average customer. Correct merging of virtual content on a real-world image requires a system capable of obtaining information about the context in which the user is located, in particular his position and orientation. This paper focuses on the methods of obtaining this information in the case of mobile AR applications, running on a modern phone. It starts with a basic description of inertial, radio and visual navigations and requirements for AR systems. The following part of this study contains a study of technical limitations of sensors used in modern smartphone, proposed methods of their calibration and suitability tests for AR. It also examines methods to improve navigation through the use of a combination of data from different sources, so-called sensor fusion. Discussed methods were tested on the example application that allows incorporating furniture on an image of an empty room.
Record ID
WUT2e256ed2f1bb453390cf507b24009f34
Diploma type
Master of Science
Author
Ziemowit Obel (FEIT/ICS) Ziemowit Obel,, The Institute of Computer Science (FEIT/ICS)Faculty of Electronics and Information Technology (FEIT)
Title in Polish
Wykorzystanie fuzji sensorów w systemie rzeczywistości rozszerzonej dla urządzeń mobilnych
Supervisor
Piotr Gawrysiak (FEIT/ICS) Piotr Gawrysiak,, The Institute of Computer Science (FEIT/ICS)Faculty of Electronics and Information Technology (FEIT)
Certifying unit
Faculty of Electronics and Information Technology (FEIT)
Affiliation unit
The Institute of Computer Science (FEIT/ICS)
Language
(pl) Polish
Status
Finished
Issue date (year)
2012
Internal identifier
ENII-PM.001652
Keywords in Polish
rzeczywistość rozszerzona, fuzja sensorów, wizja komputerowa, urządzenie mobilne, smartfon
Keywords in English
augmented reality, sensor fusion, computer vision, mobile devices, smartphone
Abstract in Polish
Mimo, że prace nad systemami Rzeczywistości Rozszerzonej (ang. Augmented Reality, AR) prowadzone są od ponad dwóch dekad, dopiero ostatni postęp w miniaturyzacji podzespołów oraz obecna powszechność urządzeń mobilnych typu smartfon sprawiają, że możliwe staje się stworzenie takich systemów dla przeciętnego użytkownika. Poprawne naniesienie wirtualnych treści na obraz świata rzeczywistego wymaga uzyskania przez system informacji o kontekście w jakim się znajduje użytkownik, a w szczególności jego położeniu i orientacji. Niniejsza praca skupia się na analizie metod uzyskiwania tych informacji w przypadku mobilnej aplikacji AR, uruchomionej na nowoczesnym telefonie. Na wstępie omówione zostały podstawy nawigacji inercyjnej, wizyjnej i radiowej oraz wymagania stawiane systemom AR. W dalszej części pracy zbadano ograniczenia techniczne czujników stosowanych we współczesnym smartfonie, zaproponowano metody ich kalibracji oraz przetestowano ich przydatność w ww. systemach. Przeanalizowano również metody usprawnienia nawigacji poprzez zastosowanie połączenia danych pochodzących z różnych źródeł, tzw. fuzji sensorów. Omówione metody testowane były na przykładzie aplikacji umożliwiającej naniesienie propozycji wystroju wnętrz na obraz pustego pokoju.

Uniform Resource Identifier
https://repo.pw.edu.pl/info/master/WUT2e256ed2f1bb453390cf507b24009f34/
URN
urn:pw-repo:WUT2e256ed2f1bb453390cf507b24009f34

Confirmation
Are you sure?
Report incorrect data on this page