Podsumowanie XI konferencji naukowej z cyklu Bezpieczeństwo w Internecie: Analityka danych (6-7 czerwca 2019 r.)

15-06-2019

Analityka danych jest stosowana w coraz większej liczbie procesów zarówno w sektorze prywatnym, jak i publicznym. Dla dalszego, bardziej efektywnego i dynamicznego rozwoju jej wykorzystania potrzebne są zmiany legislacyjne i organizacyjne. To główna konkluzja 11 ogólnopolskiej konferencji naukowej z cyklu Bezpieczeństwo w Internecie.

Odbyła się ona 6 i 7 czerwca 2019 r. na Uniwersytecie Kardynała Stefana Wyszyńskiego w Warszawie (UKSW). Jednym z jej organizatorów było Naukowe Centrum Prawno-Informatyczne. Pozostali to uczelnia, Urząd Ochrony Danych Osobowych (UODO) oraz Urząd Komunikacji Elektronicznej (UKE). 

W czasie konferencji w pierwszej kolejności zadano sobie pytanie, czym jest analityka danych oraz jaką rolę odgrywa we współczesnym świecie. 

„Analityka jest czymś, co jest powszechnie dostępne i wykorzystywane. To jest powód do zadowolenia, ponieważ analiza danych jest dobra z punktu widzenia społecznego. Powinniśmy jednak pamiętać, że wielkie zasoby danych, to również wielka odpowiedzialność” – powiedział dr Wojciech R. Wiewiórowski, zastępca Europejskiego Inspektora Ochrony Danych.

Z kolei prof. Marek Niezgódka, dyrektor Centrum Cyfrowej Nauki i Technologii na UKSW, wskazał, że obserwowany rozwój analityki wykonywanej przy wykorzystaniu nowoczesnych systemów teleinformatycznych, to odpowiedź na rosnące zasoby danych. „Dane dopływają z dużą intensywnością i wymagają przetworzenia w bardzo krótkim czasie” – zauważył prelegent. 

Uczestnicy konferencji wskazali również, że rozwój analityki doprowadził do wykształcenia się nowej, pożądanej na rynku pracy specjalizacji zawodowej: analityka danych. Dobrze płatna posada wymaga jednak wysokich umiejętności. Dr inż. Janusz Dygaszewicz, dyrektor Departamentu Systemów Teleinformatycznych, Geostatystyki i Spisów w Głównym Urzędzie Statystycznym (GUS), podkreślił, że budowanie odpowiednich kompetencji analityka danych odbywa się poprzez kształcenie, w czasie którego wypracowuje się u przyszłego specjalisty umiejętności analityczno-statystyczne, zdolność zdroworozsądkowego myślenia, ale również tzw. hacking skills, które mogą okazać się przydatne przy zabezpieczaniu analizowanych zasobów. 

W czasie kolejnych sesji tematycznych przedstawiciele różnych branż dzielili się doświadczeniami ze stosowania analityki danych oraz wskazywali problemy, które występują na tym tle. 

W przypadku sektora ochrony zdrowia problemem są braki w zakresie strukturalnie uporządkowanych zasobów danych.  „Rejestrów medycznych jest za mało, nie zawierają wyczerpujących informacji i nie obejmują odpowiednio długich okresów czasowych” – stwierdziła prof. Ewelina Nojszewska ze Szkoły Głównej Handlowej.

Tymczasem dobre jakościowo dane są potrzebne chociażby koncernom medycznym przy opracowywaniu nowych leków czy też szpitalom przy leczeniu pacjentów. Czasy prostej analizy to w tym przypadku przeszłość. „Kiedyś leczono raka w zależności od umiejscowienia guza w organizmie. Dziś wiemy, że to podejście anachroniczne. Charakterystyka chorych różni się nawet w sytuacji, gdy guz znajduje się w tym samym miejscu. Dzieje się tak dlatego że uszkodzenia genomu, które doprowadziły do nowotworu są inne w przypadku każdej z osób. W związku z tym nieocenione znaczenie w procesie leczenia mają wszelkie dane” – powiedziała Agnieszka Kosowka z firmy Roche. 

Konferencja była również okazją do wymiany poglądów i doświadczeń przez przedstawicieli sektora finansowego. 

Paweł Sawicki, radca prawny z Polskiej Izby Ubezpieczeń, mówił o tym, że dużą część działań instytucji zrzeszającej ubezpieczycieli stanowi analityka danych. 

„Artykuł 426 ust. 2 pkt 6 ustawy z 11 września 2015 r. o działalności ubezpieczeniowej i reasekuracyjnej (t.j. Dz. U. z 2019 r. poz. 381 ze zm.) stanowi, że do zadań izby należy pozyskiwanie, gromadzenie, przetwarzanie i przekazywanie informacji o funkcjonowaniu rynków ubezpieczeniowych w Polsce i poza jej granicami oraz opracowywanie na ich podstawie i udostępnianie analiz i prognoz. Realizacja tego obowiązku nie byłaby możliwa bez zaawansowanej analityki prowadzonej przy pomocy informatycznych baz danych” – wskazał prelegent. 

Z kolei Monika Jóźwiak, radca prawny ze Związku Banków Polskich, opowiadała o problemach w efektywnej współpracy międzysektorowej przy wymianie informacji o fraudach zidentyfikowanych dzięki analizie przepływów środków pieniężnych w bankach, firmach pożyczkowych i innych instytucjach finansowych. Artykuł 106d ustawy z 29 sierpnia 1997 r. – Prawo bankowe (t.j. Dz. U. z 2018 r. poz. 2187 ze zm.) dopuszcza co prawda wymianę między instytucjami informacji objętych tajemnicą bankową w przypadku przestępstw dokonywanych na szkodę banków oraz innych instytucji finansowych, ale nie może być on stosowany w przypadku zidentyfikowania incydentów obejmujących kilka sektorów (oprócz finansowego), jak np. ubezpieczeniowy czy telekomunikacyjny. W takiej sytuacji niezbędne do przekazania informacji jest pośrednictwo prokuratury. Brak podstaw do sprawnej wymiany danych utrudnia kompleksową analizę zdarzenia mogącego nosić znamiona czynu zabronionego.  

Aktywne korzystanie z narzędzi analityki danych ma miejsce również w administracji publicznej. Największe w kraju zasoby danych analizowane są z powodzeniem na potrzeby statystyki publicznej. W tym przypadku największy nacisk kładzie się na jakość opracowywanych danych, co okazuje się szczególnie istotne w epoce big data. Duże ilości danych nie zawsze bowiem niosą ze sobą wartość dodaną. Anna Długosz, zastępczyni dyrektora Departamentu Systemów Teleinformatycznych, Geostatystyki i Spisów w GUS, wskazała, że reprezentowana przez nią instytucja opracowała metodę eliminowania błędów z danych pochodzących z rejestrów państwowych i ewidencji samorządowych, uzupełniania braków oraz standaryzowania danych w celu uzyskania zbiorów kompletnych pod względem podmiotowym i przedmiotowym, dzięki czemu odpowiadają standardom klasyfikacyjnym. Dopiero takie zbiory są wprowadzane do systemów GUS.  

Dr hab. Katarzyna Roszewska z UKSW i dr Robert Marczak z Zakładu Ubezpieczeń Społecznych opowiadali o wdrażanych w systemie informatycznym ZUS narzędziach analitycznych. Z jednej strony mają one przyspieszać załatwianie spraw przez ten urząd, z drugiej podnosić skuteczność kontroli prowadzonych przez państwowego ubezpieczyciela. 

Przykładem wykorzystania analityki danych w administracji publicznej jest również System Informacyjny o Infrastrukturze Szerokopasmowej (SIIS) administrowany przez UKE. Marcin Błasiak, przedstawiciel UKE, swoje wystąpienie poświęcił przybliżeniu funkcjonowania systemu. Służy on nie tylko zbieraniu informacji od operatorów telekomunikacyjnych, ale i opracowywaniu tych danych. Tak powstałe analizy są potem wykorzystywane przy podejmowaniu decyzji regulacyjnych czy też dokonywaniu podziału środków finansowych z Unii Europejskiej w ramach programów rozwoju sieci telekomunikacyjnych. 

Rozwój Internetu sprawił, że w sieci pojawiły się zjawiska niezgodne z prawem. Analityka treści zamieszczanych w wirtualnej przestrzeni pozwala walczyć z nielegalnymi incydentami. Prof. Przemysław Polański z Akademii Leona Koźmińskiego zauważył, że najbardziej efektywnie narzędzia analityczne wykorzystują duże koncerny informatyczne. Przykładem jest system filtrowania treści publikowanych w serwisie YouTube. Google opracował szybki i skuteczny mechanizm weryfikacji tego, czy pliki wideo nie naruszają praw autorskich. Analityka dobrze radzi sobie również z zwalczaniem pornografii dziecięcej. Natomiast zdaniem prelegenta brakuje sukcesów na polu walki z mową nienawiści. 

„Okazuje się, że niezwykle trudno jest nauczyć systemy niuansów rządzących mową nienawiści. Algorytmy sztucznej inteligencji w tym zakresie łatwo jest oszukać. Autorzy niezgodnych z prawem treści posługują się neologizmami, albo dodają do mowy nienawiści sformułowania o pozytywnym wydźwięku, np. słowo »love« wśród szeregu obelżywych określeń. Człowiek wychwyci taki niuans i zrozumie przekaz, zaś dla systemów takie treści pozostają niewidoczne” – mówił prof. Przemysław Polański

Dwudniowa dyskusja poświęcona analityce danych była 11 konferencją naukową z cyklu Bezpieczeństwo w Internecie odbywającą się na UKSW. W poprzednich latach poruszano takie zagadnienia, jak m.in. ochrona danych osobowych, informacja przestrzenna czy też strategie cyberbezpieczeństwa. 

Zapraszamy do zapoznania się z prezentacjami poszczególnych prelegentów (poniżej).

Ramowy program konferencji dostępny jest pod tym linkiem.

Tekst i fot.: Piotr Pieńkosz, Wydział Prawa i Adminsitracji UKSW

 

Prezentacje konferencyjne

6 czerwca 2019 r.

7 czerwca 2019 r.

 

Adres:  
Ul. Kazimierza Wóycickiego 1/3, bl. 17 pok. 1756,
01-938 Warszawa

 

Przewodnicząca Komitetu Organizacyjnego Konferencji

Prof. UKSW dr hab. Grażyna Szpor