Keywords in Polish uczenie maszynowe, monitorowanie jakości danych, wizualizacja danych, wirtualna rzeczywistość, big data, Wielki Zderzacz Hadronów, CERN, eksperyment ALICE, fizyka wysokich energii
Keywords in Englishmachine learning, data quality assurance, data visualisation, virtual reality, big data, Large Hadron Collider, CERN, ALICE experiment, high-energy physics
Aim in Polish• stworzenie nowych metod uczenia maszynowego, które w sposób wydajny pozwolą ocenić jakość zbieranych danych i sklasyfikować je pod względem przyszłej użyteczności.

• adaptacje istniejących algorytmów uczenia maszynowego do celów monitorowania jakości danych w trybie rzeczywistym.

• opracowanie algorytmów wizualizacji danych z wykorzystaniem wirtualnej rzeczywistości.

• identyfikacja nietrywialnych obiektów, które można analizować przy użyciu metod wizualizacji, w tym efektów fizycznych, które obecnie badane są tylko z wykorzystaniem metod statystycznych i jeszcze nigdy nie były wizualizowane.

• weryfikacja zasadności i zastosowanie technik wirtualnej rzeczywistości i stereowizji w wizualizacji danych fizycznych.

W miarę możliwości planujemy również opracowanie szkieletu aplikacji wizualizacyjnej, wykorzystującej najnowsze wersje biblioteki OpenGL.

Aim in English* Development of efficient machine learning methods for data quality monitoring to reduce manual labour currently done by the experts. The methods will be inspired by the recent advancement in the fields of artificial intelligence and computer vision, where the efficiency is of crucial importance due to the application of the methods on mobile platforms.

* Development of particle trajectory (track) visualisation algorithms in combination with visu- alisation of detector geometry, including: - reduction of details according to point of obser- vation, - visualisation of particle trajectories which are combined from information coming from detectors with different spatial resolution (from micrometers to centimetres)

* Design and development of visualisation algorithms beyond single particle tracks: - visualisa- tion of high-level physical objects. In current visualisation systems only elementary properties of single particles are shown (in particular: space point where the interaction with detector occurred, and sets of points: particle trajectories reconstructed from these points). This can be considered as the first level of abstraction. However, the data contain much more informa- tion, which currently are not used in visualisation. In particle collisions there are many more levels of abstraction - a variety of physical effects which also can be visualized, e.g. ”jets” - collimates streams of particles. From the computer science point of view what is interesting are the transitions between different levels of abstraction as well as simultaneous visualisation of information from different levels of abstraction. Example of effects from different level of abstraction are visualisations of distributions of scalar fields (temperature, pressure, electric charge, etc.) and vector fields (like flow of the gas in the detector, electric and magnetic fields, etc.)

* One of the goals will be the identification of non-trivial objects which could be analysed employing visualisation techniques, including the physical effects, which are currently studied by physicists only using the statistical methods. Verification of validity and usability of stereo-vision techniques for physical data.

Description in PolishSzybki rozwój nauki i technologii jest przyczyną niewiarygodnego wzrostu ilości i złożoności produkowanych danych, obserwowanego w różnych obszarach, takich jak informatyka, medycyna, czy nauki podstawowe, zwłaszcza fizyka cząstek elementarnych i astronomia. Obecnie pojedyncze zbiory danych mogą zawierać nawet petabajty informacji, stąd też termin {\it big data}, który pojawił się w fachowej literaturze w ostatnich latach. Powstanie {\it big data} tworzy nowe wyzwania związane z przetwarzaniem ogromnych ilości danych, takie jak monitorowanie ich jakości oraz ich wizualizacja.

Aktualnie używane metody monitorowania jakości danych często sprowadzają się do manualnej analizy rozkładów statystycznych danych oraz ich parametrów, co dyskwalifikuje ich zastosowanie w przypadku ogromnych, szybko zmieniających się zbiorów danych. W ramach projektu planuje się rozszerzyć metody manualnej analizy danych o metody sztucznej inteligencji, takie jak sieci neuronowe czy algorytmy boostingu, a także opracować nowe, bardziej wydajne metody uczenia maszynowego służące do kontroli jakości danych w trybie rzeczywistym.

Kolejnym istotnym problemem dotyczącym analizy dużych ilości danych jest ich efektywna wizualizacja, na przykład poprzez zastosowanie metod Wirtualnej Rzeczywistości. Stało się to możliwe wraz z upowszechnieniem się sprzętu umożliwiającego wyświetlanie stereoskopowe (gogle 3D, wyświetlacze 3D, etc.). Zastosowanie takiego podejścia wykracza poza istniejące metody prezentacji (wywodzące się z prezentacji danych 3D na płaskich wyświetlaczach). Co więcej, podejście to nie zostało jeszcze przebadane i stanowi obszar rozwoju zarówno dla grafiki komputerowej (algorytmy wyświetlania) oraz psychologii (problemy percepcji informacji). Projekt będzie koncentrował się na metodach wizualizacji naukowej wykorzystujących interfejsy nowej generacji, biorąc przy tym pod uwagę kwestie percepcyjne.

Description in EnglishRapid development of science and technology causes an astonishing increase in volume and complexity of generated data. This growth can be observed in various areas, such as computer science, medicine, but also in basic science research areas such as particle physics and astronomy. Nowadays, a single dataset can contain many petabytes of information; hence the term {\it big data} which has appeared in the literature in recent years. The proliferation of {\it big data} poses new challenges to be addressed within data processing units, such as data quality assurance and visualisation.

Data quality assurance systems used currently are often based on manual, human-based comparisons of data statistical distributions and their parameters, hence rendering them infeasible for rapidly changing datasets with massive amounts of data. Within the frames of this project, we plan to expand the methods of manual data quality assurance using the recent advancement in the field of artificial intelligence, such as neural networks and boosting. We also plan to develop more efficient methods of machine learning for real-time data quality assurance.

Another significant problem caused by tremendous growth in data generation is an informative way of visualising its properties, which can be done using virtual reality methods. Only recently are we able to use these methods thanks to the unprecedented accessibility of the equipment capable of displaying stereoscopic information (3D goggles, 3D displays) and this project will concentrate on this aspect of data visualisation. This approach significantly extends existing methods of presentation (derived from the 3D data presentation for flat displays). Moreover, it has not been tested yet and it certainly provides a great opportunity of development in the domain of computer graphics (display algorithms) and psychology (problems of perception information). The project will be therefore focused on scientific visualisation methods employing new interactive interfaces and addressing underlying perceptual issues.

Expected results in Polish Publikacje. Implementacja rozwiązań w CERN
Expected results in EnglishPublications. Algorithms and solutions deployed at CERN.
Offer for applications in Polish-
Offer for applications in English-
Application arearesearch, education
Commercial potentialindirect

Full data (no tabs)

Get link to the record

Back
Confirmation
Are you sure?