W samorządach

Kto nas profiluje? – felieton

Zautomatyzowane przetwarzanie danych przy użyciu sztucznej inteligencji na dobre zagościło w naszym życiu. Jeśli chcemy zgłosić awarię internetu, to najpierw musimy przejść przez rozmowę ze sztuczną inteligencją o mniej lub bardziej wymyślnym imieniu.

Właśnie niedawno miałem tę przyjemność z Maksem, który grzecznie przedstawił się jako głos sztucznej inteligencji. Nim przeszliśmy do rzeczy, Maks poprosił o mój numer telefonu, kody, a nawet PESEL.

Serfując po internecie zostawiamy ślad, a algorytm sztucznej inteligencji profiluje naszą osobowość i ustawia pod nas reklamy produktów, usług. Z takim algorytmem spotykamy się nie tylko w komputerach i smartfonach, ale także w biznesie, wkracza on do administracji publicznej, steruje procesami technologicznymi, ruchem ulicznym...

Niedawno pojawił się raport EY Law Compass „Prawa i innowacje. Wyzwania 2020”, przedstawiający opinie polskich przedsiębiorców o relacjach pomiędzy prawem a technologiami przyszłości. Wynika z niego, że prawo nie nadąża, jest mocno bezradne wobec wyzwań, jakie stawia przed nami sztuczna inteligencja. Z odpowiedzi respondentów wynika, że ta technologia będzie najważniejsza w przyszłości (66 proc. wskazań), automatyzacja i robotyzacja otrzymała 54 proc. wskazań, a chmura obliczeniowa – 45 proc. Big Data, Internet Rzeczy, Blockchain – żywią się danymi, także osobowymi, wręcz je pożerają. Dlatego jednym z najważniejszych wyzwań w obszarze nowych technologii jest problem bezpieczeństwa ich przetwarzania.

Powstają pytania: kto ma odpowiadać prawnie za błędy związane z cyberbezpieczeństwem, naruszaniem prywatności, a nawet narażaniem naszego życia i zdrowia, bo różnorakie urządzenia czy autonomiczne pojazdy mogą wyrządzić nam krzywdę. Czy dla ochrony tak ważnych wartości, jak życie i zdrowie obywateli, możemy poświęcić naszą prywatność, udostępniając nawet wrażliwe dane osobowe? Przykładem tego, że profilowanie w tej sferze jest mocno zaawansowane, jest aplikacja Kwarantanna Domowa. Co prawda, ułatwia walkę z zagrożeniami koronawirusa, ale zbudowana została na bazie oprogramowania do sondaży politycznych. To nie wszystko, bo słynna aplikacja ProteGo – używana już w niektórych krajach – tak dalece profiluje osoby, że pozwala określić, gdzie może być zakażony i wskazać osoby zagrożone wirusem. Co więcej, poinformuje o tym, że mieliśmy kontakt z chorą osobą…

Pandemia wyostrzyła problemy korzystania ze sztucznej inteligencji. Niektórzy eksperci przekonują, że zamiast zamrożenia gospodarki i usadzenia nas w izolacji domowej, może jednak warto zgodzić się na strażnika – inteligentny algorytm, jakim jest aplikacja ProteGo. Tu kłania się konstytucyjna zasada proporcjonalności, a więc użycia dla ochrony życia i zdrowia środków, które tworzą ryzyko inwigilacji, zbytniej ingerencji w prawa i wolności obywatela, w jego prywatność. Jak pogodzić te wszystkie zagrożenia, żeby nie stracić kontroli nad sztuczną inteligencją? Wszyscy mamy świadomość, że nie zatrzymamy jej rozwoju, a do tego będzie konieczny dostęp do coraz większej ilości danych. Bez nich algorytmy są ślepe.

Art. 22 RODO daje nam prawo do tego, aby nie podlegać decyzji opartej wyłącznie na automatycznym przetwarzaniu danych, w tym profilowaniu. Nasz sprzeciw w praktyce może dotyczyć np. elektronicznej rekrutacji na stanowisko pracy, jeśli zastosowana ankieta (profilowanie) wpłynęła na odrzucenie naszej aplikacji i ocenę pracodawcy. Podobnie ma się sprawa z przetwarzaniem danych osobowych przy ubieganiu się o kredyt. Ostatnio głośne były spory o nieprawidłowe wykorzystanie w bankach sztucznej inteligencji.

Z profilowaniem, czyli automatycznym podejmowaniem decyzji na podstawie przetwarzania naszych danych osobowych, spotykamy się już na co dzień. Profilowanie, ingerując dramatycznie w naszą prywatność – pozwala ocenić, analizować i prognozować różne aspekty naszego życia: od zdrowia, sytuacji finansowej, po preferencje seksualne czy polityczne, a nawet nasze przemieszczanie się i miejsca pobytu.

Skutki cywilizacyjne i prawne profilowania mogą być bardzo dotkliwe, bo istniejące obecnie zabezpieczenia prawne nie nadążają za gwałtownym postępem technologicznym. Mamy do czynienia z urządzeniami, w których producenci mogą wprowadzać zmiany i aktualizacje bez naszej wiedzy i zgody! Wszystko to skłoniło Parlament Europejski (po dwóch latach od zaistnienia RODO), aby dokonać przeglądu regulacji prawnych dotyczących profilowania. Parlamentarzyści, dostrzegając zagrożenia i godząc się z nieuchronnością stosowania nowych usług cyfrowych opartych na profilowaniu (wirtualni asystenci, doradcy) chcą, żeby konsumenci byli odpowiednio poinformowani, jak takie systemy działają. Co więcej, każdy, kto skorzysta z takich usług, powinien wiedzieć, jak skontaktować się z człowiekiem odpowiedzialnym za system. Dalej parlamentarzyści wskazują, że musimy mieć prawo do kontroli oraz zmiany decyzji podjętych przez inteligentną maszynę.

Ponieważ za całą maszynerią sztucznej inteligencji stoi człowiek, chodzi też o to, aby stosowne algorytmy były wytłumaczalne i bezstronne, a w razie wyrządzenia szkody powinniśmy wiedzieć, kto za to zapłaci. Eksperci podpowiadają, że samo monitorowanie prawa i jego dostosowanie do ryzyk związanych z profilowaniem opartym na sztucznej inteligencji – może nie wystarczyć. Są postulaty, aby wyposażyć organy – regulatory rynku – w odpowiednie uprawnienia, pozwalające kontrolować wprowadzane algorytmy.

Czy „mądre” urządzenia, które kupujemy i będziemy kupować, będą nam na tyle posłuszne, aby nie ingerować w naszą prywatność?

Aby zapewnić prawidłowe działanie i wygląd niniejszego serwisu oraz aby go stale ulepszać, stosujemy takie technologie jak pliki cookie oraz usługi firm Adobe oraz Google. Ponieważ cenimy Twoją prywatność, prosimy o zgodę na wykorzystanie tych technologii.

Zgoda na wszystkie
Zgoda na wybrane