Chrońmy cyfrowe prawa człowieka!

Z Paulem F. Nemitzem rozmawia ·

Chrońmy cyfrowe prawa człowieka!

Z Paulem F. Nemitzem rozmawia ·

Jan J. Zygmuntowski – absolwent Szkoły Głównej Handlowej w Warszawie, prezes zarządu think-tanku Fundacja Instrat i stały współpracownik kilku innych organizacji pozarządowych. Naukowo zainteresowany problematyką rozwojową, systemami gospodarczymi, ekonomią innowacji oraz polityką publiczną.

Z Paulem F. Nemitzem, głównym doradcą Komisji Europejskiej, o ochronie danych osobowych i sztucznej inteligencji rozmawia Jan J. Zygmuntowski.

Zacznijmy od Pana dotychczasowej pracy i sukcesów. Kierował Pan m.in. przygotowaniem Rozporządzenia o Ochronie Danych Osobowych (RODO) czy negocjacjami wokół tarczy prywatności (umowa o transferach danych między UE a USA). Jak wiele już udało się osiągnąć w obszarze ochrony prywatności i danych personalnych? Jesteśmy bliżej samego początku koniecznych zmian czy może udało nam się stworzyć rozbudowany system zabezpieczeń?

Paul Nemitz: Myślę, że to dopiero sam początek. RODO obowiązuje dopiero od maja ubiegłego roku i dopiero teraz widzimy pierwsze przypadki egzekwowania ze strony organów ochrony danych (DPA – Data Protection Authorities), na przykład francuski urząd ochrony danych nałożył właśnie karę finansową na Google’a. Dokonaliśmy też przeglądu tarczy prywatności i znaleźliśmy elementy wymagające poprawy. Bardzo ważne jest, żeby rozwijało się egzekwowanie prawa, żeby organy korzystały z nowych narzędzi i, co uważam za ważne, żeby obywatele również korzystali ze swoich praw. Każdy obywatel może dzięki RODO spytać każdy organ państwa i każdą prywatną firmę: „Jakie moje dane macie?”. Można zwracać się o korekty, o całkowite usunięcie, co więcej nie tylko w sprawie podstawowych danych, ale też profilowania, kiedy państwa lub firmy dokonują predykcji wobec ludzi. Takie predykcje także są danymi osobowymi i podlegają RODO. Musimy o tym mówić i uświadamiać ludzi w ich prawach.

Poruszył Pan tutaj interesujący problem, jeśli chodzi o profilowanie i algorytmy. Rozmawiałem z Paulem Masonem, który w kontekście swojej książki „Postcapitalism” mówił o podstawowych prawach człowieka. Jego zdaniem, jeżeli algorytm lub sztuczna inteligencja (AI) podejmuje decyzje o moim przypadku jako indywidualnej osoby, powinienem móc poznać decyzję, dowiedzieć się, jak została podjęta, a także móc się od niej odwołać. Tylko czy to jest możliwe, skoro rozwiązania AI są bardzo często niezrozumiałymi „czarnymi skrzynkami”, a dodatkowo firmy powołują się chętnie na „sekrety handlowe” i „prawo własności intelektualnej”, by pozbyć się zainteresowania dociekliwych?

P. N.: W przypadku zautomatyzowanego podejmowania decyzji już dzięki RODO mamy przede wszystkim prawo do sprzeciwu, a następnie prawo do zadania pytań o funkcjonowanie algorytmu lub AI i wpływ decyzji na nas – a informacje udzielone w odpowiedzi muszą być „istotne”, to jest dokładne słownictwo Rozporządzenia (w angielskiej treści „meaningful”). Ponownie podkreślę: używajmy tego prawa, zadawajmy te pytania, a jeśli nie otrzymamy odpowiedzi, zawsze możemy poskarżyć się organom ochrony danych, które muszą podjąć się śledztwa w danej sprawie. Jednym z podstawowych powodów istnienia RODO jest uznany już fakt, że przetwarzanie danych przez profilowanie algorytmiczne lub zastosowanie AI może być wyjątkowo nietransparentne, a przez to naruszać prawa człowieka. Stąd nacisk legislatorów na wspieranie otwartości i dostępu do informacji.

Na temat sekretów handlowych powiem, że są one przywoływane zdecydowanie zbyt często. W każdym razie firmy nie mogą teraz odmówić DPA bardzo pogłębionego spojrzenia w algorytmy czy architekturę AI. Poszedłbym jednak dalej, proponując, żeby zainteresowana osoba otrzymywała możliwość głębokiego wglądu, na przykład w „zielonym pokoju” do czytania („green room”), podobnie jak ma to miejsce w przypadku prawa konkurencji. Oczywiście zainteresowana osoba nie ma prawa robić zdjęć lub wynosić i rozprzestrzeniać dokumentów, ale w takim pokoju miałaby pełną dowolność badania materiałów, otrzymania wyjaśnienia, sporządzania notatek. Starajmy się najpierw odwoływać do dobrej woli i racjonalnego podejścia wykorzystujących nowe technologie do przejrzystości, a jeśli to nie zadziała – przejrzystość musi być egzekwowana na bazie RODO.

Pomimo że jest Pan przedstawicielem profesji prawnej, wspomniał Pan też o „zielonym pokoju”, co można rozumieć jako składową szeroko rozumianych standardów technicznych i infrastruktury umożliwiającej przejrzystość. Skupienie na prawach jednostki i technicznej stronie ich egzekwowania silnie różni się od chińskiego modelu AI – gromadzenia jak największej ilości danych i tworzenia jednego systemu nadzoru – ale też od forsowanego przez Stany Zjednoczone urynkowienia i utowarowienia danych osobowych. Czy Unia Europejska ma swoje odrębne podejście?

P. N.: Chciałbym zacząć od zauważenia, iż „Financial Times” podaje, że inwestycje w AI w Chinach spadły o około 30 proc. w zeszłym roku. Jednym z powodów tego spadku jest to, że inwestorzy powoli orientują się, że AI stworzone bez ochrony praw jednostki, bez kodeksu etycznego, jest nieskalowalne – nie może być użyte w demokratycznych, wolnych krajach. Może takie rozwiązania kupią dyktatury, ale nie wolne kraje.

Co do pozycji Europy względem Chin i USA – myślę, że mamy długą tradycję z jednej strony wolności jednostki i demokracji, a z drugiej strony tradycję przeciwwagi powstrzymującej ekstrema interesów biznesowych i surowego kapitalizmu. Helmut Schmidt, były kanclerz RFN (reprezentujący SPD – przyp. J. J. Z.) nazywał to wprost „drapieżnym kapitalizmem”, który trzeba okiełznać.

Brzmi Pan teraz jak Rutger Bregman tydzień temu w Davos.

P. N.: Na tym właśnie polega europejski model społeczny: tak, mamy gospodarkę rynkową, chcemy mieć innowacyjnych przedsiębiorców, ale chcemy także równego społeczeństwa i sprawiedliwości społecznej. Własność i rynki muszą służyć ludziom. Dlatego trzeba kontynuować budowanie na sprawdzonym modelu szukania demokratycznych zasad na rynku, tak, żeby powstrzymać ekstrema, ale zachować innowacyjność. Nikt nie ma problemu z przedsiębiorcami zyskującymi na tworzeniu nowych rozwiązań – ale oczywiście jest problem z prywatnymi korporacjami, które przywłaszczają sobie nasze dane osobowe bez naszej zgody. To jest przecież ogromna redystrybucja i przywłaszczenie bogactwa z dołu społeczeństwa do samej góry.

Bardzo zainteresowała mnie nowa książka Shoshany Zuboff, profesor Harvard Business School, o tytule „Surveillance capitalism” („Kapitalizm inwigilacyjny”). To przecież amerykańska badaczka, wykładająca na Harvardzie, a używa takiego terminu, żeby opisać to, co idzie w złym kierunku w gospodarce, którą z kolei Al Gore nazywa stalker economy. Zatem również w USA jest dużo krytycznych głosów. Ale to my jesteśmy w bardzo dobrej pozycji, żeby zachować naszą tradycję demokratycznego wypracowywania zasad, które chronią jednostki przed nadużyciami ze strony prywatnej siły.

Czy jest możliwe stworzenie programu na poziomie unijnym, który w pewien sposób stanowiłby odzwierciedlenie Programu Apollo i lotu na Księżyc? Tym razem mógłby służyć stworzeniu AI dla obywateli i obywatelek Europy, co przyniosłoby lepsze usługi publiczne, jak m.in. lepszą służbę zdrowia, edukację, mobilność – te wszystkie sfery życia gospodarczego, które dotykają reprodukcji społecznej i dlatego rzadko spotykają się z zainteresowaniem prywatnego biznesu, a jeśli w ogóle, to służą wąskiej, uprzywilejowanej grupie.

P. N.: Jak najbardziej, mamy w Europie historię rozwoju technologii i modeli biznesowych służących interesowi publicznemu, a zarazem efektywnych i konkurencyjnych. Wystarczy spojrzeć na system nawigacji satelitarnej Galileo czy na Airbusa – jest wiele takich przykładów. Komisja Europejska myśli może nie o takiej skali, ale szuka systemu finansowania publicznego wsparcia w prowadzeniu badań nad zapewnieniem mocy obliczeniowej superkomputerów. W tym zakresie rozwija się współpraca z krajami członkowskimi nad zapewnieniem obecności AI w celach niekomercyjnych. Tutaj podstawowym pytaniem jest nie „co jest dobre dla AI”, ale dokładniej: „jak możemy rozwinąć AI, które jest dobre dla interesu publicznego”.

Zastanawia mnie, w jakim stopniu taki kierunek zyska realnie silne instrumenty. Czy Pana zdaniem nowa polityka przemysłowa, nad którą pracuje European AI Alliance czy Komisja Europejska, będzie szła w tym kierunku?

P. N.: Na pewno istnieją elementy projektowane w tym kierunku, ale oczywiście chcemy też, żeby rynek funkcjonował i grał odpowiednio swoją rolę. Skorzystamy z klasycznych instrumentów, które zapewnią sprawne działanie rynku oraz jasny priorytet dla rozwoju zgodnego z interesem publicznym.

Podczas dzisiejszego Pana wykładu było widać duże zainteresowanie tematami profilowania w mediach społecznościowych, manipulacji i baniek informacyjnych. Jak Pan sądzi, jaki jest potencjał AI do wyjaśniania nam złożonego świata? Czy czeka nas raczej rozwój w kierunku dalszego profilowania i zwiększania napięć społecznych?

P. N.: Pozytywny potencjał na pewno istnieje, ale to, jak jest wykorzystywany teraz, szczególnie przez korporacje z Doliny Krzemowej, idzie raczej w przeciwnym kierunku. Jeśli chcemy, żeby ten pozytywny potencjał się spełnił, rynek musi wziąć na siebie odpowiedzialność. Podobnie jak miało to miejsce w przypadku rosnącego trendu skupienia się na inwestycjach w zrównoważony przemysł, alokowania intencjonalnie środków w zielonych inwestycjach. Jest konieczne, żeby rynki finansowe również przyjęły taką odpowiedzialną postawę w stosunku do AI i ogólnie zarządzania danymi.

W pewien sposób w takim razie proponuje Pan podobny rodzaj poprzedzających ten trend kampanii dezinwestycyjnych, które przekonały ubezpieczycieli i banki do wychodzenia z aktywów związanych z emisją dwutlenku węgla. Tym razem dla danych.

P. N.: Nie przekonuję do jednego czy drugiego rodzaju dezinwestycji. Chcę podkreślić, że jest to znakiem odpowiedzialności względem społeczeństwa, jak i mądrą decyzją biznesową, żeby inwestować pieniądze w sposoby użycia i rozwój AI, w powiązane użycie i rozwój przetwarzania danych, które są w długim terminie zrównoważone. Zrównoważone, czyli takie, które respektują prawa jednostek i sprzyjają dobremu funkcjonowaniu demokracji. Technologie, które nie spełniają tych dwóch warunków, mogą być zyskowne w krótkim terminie, jak widać, ale nie będą odpowiednio zrównoważone do wypracowania zysku w długim terminie.

Pytanie na koniec: czy w kwestii obecnego wykorzystania technologii w kapitalizmie jest Pan nastawiony optymistycznie?

P. N.: Jestem bardzo optymistyczny, ale jestem też przekonany, że demokracja i nasza przyszłość wymagają stałego zaangażowania w odpowiednim kierunku. On się nie pojawia sam z siebie, i na pewno nie za darmo.

Dziękuję za rozmowę.

 

2 lutego 2019 r. w Szkole Głównej Handlowej w Warszawie odbyło się oficjalne rozpoczęcie I edycji kursu Akademii Kadr Europejskich organizowanego przez Fundację Akademii Kadr Europejskich oraz Instytut Dyplomacji Gospodarczej. W ramach inauguracji kursu miał miejsce wykład Paula Nemitza pt. „Democracy and Technology in the age of Artificial Intelligence”. Powyższa rozmowa została przeprowadzona po wykładzie.

Dział
Wywiady
komentarzy
Przeczytaj poprzednie