Autor

Marek Oramus

Marek Oramus

Absolwent kierunku Gospodarka i administracja publiczna na Uniwersytecie Ekonomicznym w Krakowie. Pracownik Małopolskiej Szkoły Administracji Publicznej UEK.

Big data i zagrożenia związane z ich wykorzystaniem

Wraz z postępującą czwartą rewolucją przemysłową pojawia się coraz więcej nowych technologii zmieniających sposób funkcjonowania całej gospodarki. Jednym z kluczowych trendów jest big data. Zastosowanie narzędzi służących do przeprowadzania analiz z wykorzystaniem big data generuje szereg korzyści z punktu widzenia zarówno sektora publicznego, prywatnego jak i obywateli, jednak coraz większa liczba ekspertów zaczyna dostrzegać zagrożenia związane z rozwojem tego obszaru. W niniejszym tekście wybrane spośród nich zostaną pokrótce scharakteryzowane.

Big data  można definiować jako:  „charakteryzujące się dużą wielkością (volume), szybkością (velocity) i/lub różnorodnością (variety) zasoby informacji, które wymagają nowych sposobów przetwarzania w celu umożliwienia sprawniejszego podejmowania decyzji, odkrywania nowych zjawisk (insight discovery) i optymalizacji procesów” (Beyer, Laney 2012)

Bezpieczeństwo danych

Jednym z najczęściej przytaczanych zagrożeń związanych z implementacją systemów do gromadzenia i przetwarzania danych na ich temat jest ryzyko związane z utratą prywatności, ujawnieniem poufnych danych czy wręcz wykradnięciem ich przez specjalizujące się w cyberatakach grupy przestępcze.

W poszczególnych państwach stosowane są różne regulacje w zakresie ochrony prywatnych danych – co istotne, różnie podchodzi do tego Unia Europejska przywiązująca dużą wagę do tej kwestii oraz Stany Zjednoczone, które uważane są za jednego z głównych sprawców erozji ochrony danych na świecie. Jednym z kluczowych problemów związanych z przetwarzaniem danych w obrębie sieci jest fakt, że raz pozyskane i udostępnione bardzo trudno jest kontrolować, a zatem również zweryfikować do jakich celów są wykorzystywane bez wiedzy użytkowników (Craig, Ludloff 2011, s. 69-72).

W celu zapewnienia poufności podmioty zajmujące się przetwarzaniem i obrotem danymi osób prywatnych powinny dokonywać ich anonimizacji lub deidentyfikacji. Anonimizacja stanowi proces polegający na nieodwracalnym usuwaniu łączników między konkretną osobą oraz szczegółowymi danymi na ich temat. Dokłada się w takim przypadku wszelkich starań, aby nie było możliwe ponowne połączenie tych elementów. Na tym polega główna różnica w stosunku do deidentyfikacji, przy której w odpowiednich kontrolowanych sytuacjach możliwe jest uzyskanie informacji na temat podmiotu będącego źródłem danych. Z tego względu znacznie bezpieczniejszą metodą jest anonimizacja, ale z kolei praktycznie uniemożliwia ona poprawienie błędów wykrytych w bazie, co stanowi dodatkowe ryzyko z punktu widzenia ich przetwarzania (Berman 2013, s. 229).

Badanie przeprowadzone w Stanach Zjednoczonych wykazało, że 91% dorosłych Amerykanów „zgadza się” lub „stanowczo się zgadza” ze stwierdzeniem, że konsumenci utracili kontrolę nad tym, w jaki sposób ich poufne dane są zbierane i wykorzystywane przez firmy (Hamilton et al. 2015, s. 101), co wskazuje na konieczność rozwiązania tego problemu na poziomie regulacji prawnych.

Konieczność weryfikacji wyników

Kolejnym z zagrożeń związanych z rosnącym znaczeniem analiz danych jest bezrefleksyjne ograniczanie się przez decydentów jedynie do uzyskanej w ich wyniku wiedzy. Należy pamiętać, że systemy służące do przetwarzania danych, wykorzystywane w nich algorytmy czy sprzęt, który obsługują, mogą być zawodne.

W 2016 r. oprogramowanie analizujące dane odczytywane przez czujniki zainstalowane w samochodzie Tesla Model S nie odróżniła białej naczepy skręcającej 18-kołowej ciężarówki od znajdującego się za nią jasnego nieba i w efekcie nie podjęła manewru hamowania. Doprowadziło to do uderzenia w nią z pełną prędkością, zerwania dachu pojazdu, który przebił się pod naczepą i śmierci kierowcy, który zignorował konieczność ciągłej kontroli autonomicznego samochodu (Yadron, Tynan 2016). 

Ten skrajny przykład pokazuje, że niezbędne jest każdorazowe zweryfikowanie rezultatów przez osoby podejmujące decyzje w celu uniknięcia pojawienia się niezamierzonych negatywnych skutków.

Potencjalne koszty

Należy także odnieść się w tym miejscu do kosztów związanych z implementacją rozwiązań z zakresu analizy big data. W przypadku mniejszych podmiotów, niedysponujących odpowiednim zapleczem infrastrukturalnym lub wykazujących potrzeby w tym zakresie akcydentalnie, niewłaściwe dostosowanie narzędzi dostępnych na rynku do specyfiki danego podmiotu może być nieefektywne kosztowo.

Do tego niezbędne jest podjęcie działań związanych z przeciwdziałaniem negatywnym skutkom utraty danych w wyniku awarii poprzez m.in. tworzenie kopii zapasowych (ang. backup). Trudności stanowi jednak odpowiednie dostosowanie poziomu zabezpieczeń do potencjalnych zagrożeń przy jednoczesnym uwzględnieniu racjonalności kosztowej danego rozwiązania.

Dla uniknięcia podobnych problemów część instytucji przechowuje kopie zapasowe na zewnątrz organizacji, ale to z kolei zwiększa ryzyko kradzieży danych – w 2006 r. w stanie Oregon 365 tys. rekordów medycznych zostało skradzionych przez pracownika odpowiedzialnego za tworzenie ich kopii zapasowych w domu. (Berman 2014 s. 174-175).

Inne zagrożenia big data

Rozwój nowych technologii, z którymi w istotnym stopniu powiązany jest obszar big data, może przełożyć się zdaniem respondentów na umiarkowany spadek zatrudnienia w branży wytwórczej i produkcyjnej, a znacznie bardziej dotkliwe skutki dotkną osoby pełniące funkcje biurowe i administracyjne. Przy czym należy pamiętać, że nie będzie to tylko spowodowane rozwojem technologii zastępujących pracę ludzką, ale także tendencją do efektywniejszego wykorzystywania zasobów czy mniejszym popytem w starzejących się społeczeństwach (WEF 2016, s. 11-13).

Najnowsze dane statystyczne wskazują jednak, że, przynajmniej w przypadku krajów wysoko rozwiniętych, nie występuje problem niewystarczającej liczby miejsc pracy (Economist 2019).

Wśród interesujących kwestii budzących obawy przeciwników tych technologii można wskazać także na ograniczenie dostępu do informacji poprzez np. wykorzystywanie algorytmów, które dostosowują wyświetlaną zawartość do profilu użytkownika z pominięciem informacji sprzecznych z jego poglądami (Orliński 2013, s. 61-89) czy zmniejszenie wolności wyboru związanej z coraz trudniejszym zrezygnowaniem z usług przetwarzających dane na temat użytkowników, co wynika z ich prawie monopolistycznej pozycji (Ibidem, s.13-36).


Literatura: