Pełzająca dominacja algorytmów

·

Pełzająca dominacja algorytmów

·

Algorytmy zaczynają decydować o naszych losach. Jeżeli ich stosowanie ma przynieść postęp społeczny, musimy zdobyć się na ich krytyczną ocenę.

Słowo „algorytm” było do niedawna dla większości z nas jedynie elementem żargonu informatyków. Należało mu poświęcać tyle uwagi, ile poświęca się pojęciom z zakresu geologii lub lingwistyki – czyli bardzo niewiele. Dzisiaj rzecz wygląda inaczej: niemiecka wersja Google News (usługa umożliwiająca przeszukiwanie mediów internetowych) po wpisaniu hasła „algorytm” oferuje prawie 150 tysięcy wyników w serwisach informacyjnych – tytuły artykułów to na przykład: „Algorytm rozpozna kłamliwe e-maile”, „Przejrzystość: algorytm Amazona wprowadza klientów w błąd”, „Wskazówki dotyczące pisania listu motywacyjnego: sposób na przechytrzenie algorytmu”. Tytuły te dobrze ilustrują rolę, jaką algorytmy zaczęły od niedawna odgrywać w naszym życiu.

Algorytmy nie odczuwają głodu

Upraszczając, algorytmy to zadania do wykonania przez programy komputerowe. Definiują one, jakie czynności w jakiej kolejności wykonać. Jako takie nie są więc niczym nowym – pierwszy algorytm służący do programowania poprzednika dzisiejszych komputerów powstał już w XIX wieku. Obecnie coraz bardziej przenosimy swoje życie do cyfrowego świata, zabierając tam mnóstwo cyfrowych danych (tzw. big data) podatnych na analizę. To daje algorytmom nowe pole działania. Z takiej analizy coraz częściej wyciągane są konsekwencje dla naszego cyfrowego, a także rzeczywistego życia. Problematyka algorytmów zaczyna dotyczyć bezpośrednio każdego z nas.

Obecnie z algorytmów korzysta się na przykład w zarządzaniu zasobami ludzkimi. Szacuje się, że w Stanach Zjednoczonych ponad 70% CV w ogóle nie przechodzi przez ręce żywego rekrutera – są selekcjonowane przez algorytmy. Algorytmy decydują też o tym, co wyświetli nam się w internecie, obojętnie, czy chodzi o reklamę szytą na miarę użytkownika, czy o cenę produktu w sklepie Amazona, która jest różna – i można to udowodnić – dla różnych klientów. Zazwyczaj także decydują o tym, czy i na jakich warunkach otrzymamy pożyczkę albo jakie stawki ubezpieczeń zostaną nam zaoferowane. W Stanach Zjednoczonych algorytmów używa się również do przewidywania prawdopodobieństwa recydywy w odniesieniu do więźniów. To tylko kilka przykładów.

Podczas analizy big data korzysta się z algorytmów głównie ze względu na ilość danych, z którymi człowiek mógłby poradzić sobie jedynie z wielkim trudem lub których przetwarzanie leży całkiem poza jego możliwościami. Jednocześnie algorytmy mają służyć eliminacji tzw. czynnika ludzkiego – udowodniono na przykład, że sędziowie wydają surowsze wyroki, gdy są głodni, a rekruterzy nie wybierają kandydata do pracy wyłącznie na podstawie kompetencji aplikującego, lecz także na podstawie jego podobieństwa do nich samych. A ponieważ algorytmom głód raczej nie przesłoni prawidłowego wnioskowania, wierzymy w ich obiektywność i racjonalność.

Niektórzy obserwatorzy zaczęli jednak podważać to założenie. Często zapominamy bowiem, że algorytm został przez kogoś stworzony i że również ta osoba nie reprezentuje neutralnego lub obiektywnego punktu widzenia. Sposób, w jaki algorytm został zdefiniowany, musi więc nieuchronnie obejmować zniekształcenia poznawcze uwarunkowane subiektywnym odbiorem rzeczywistości przez tę osobę, a nawet powielać stereotypy. Typowym przykładem jest wpisanie w algorytm rzekomo obiektywnych kryteriów, takich jak osiągnięty poziom wykształcenia czy miejsce zamieszkania. Czy formalnie osiągnięty poziom wykształcenia rzeczywiście mówi cokolwiek o przydatności kandydata na dane stanowisko? Czy przez mechaniczną klasyfikację osób według powyższych kryteriów nie wykluczamy tych, które nie miały jednakowych warunków wyjściowych, jak cała reszta? Czy nie reprodukujemy ich wykluczenia społecznego?

Rasizm maszyn

Problem pojawia się także podczas selekcji danych, na którą może wpływać specyficzna wizja świata, co następnie rzutuje na wyniki analizy. Należy także liczyć się z faktem, że same dane zawierają zniekształcenia rzeczywistości lub wzory społeczne, których powielanie czy wzmacnianie nie leży w naszym interesie. Na przykład grupy wykluczone są w danych reprezentowane w mniejszym stopniu albo w sposób, który odpowiada ich dyskryminacji. Przykładem jest mniejszy udział kobiet na stanowiskach kierowniczych. Na takiej podstawie algorytmy nie powinny jednak ślepo formułować przewidywań i zaleceń co do przyszłości ani ukierunkowywać czyichś zachowań.

Konkretnych przykładów tego rodzaju kłopotów z algorytmami jest coraz więcej – do bardziej zabawnych należy próba zorganizowania konkursu piękności, którego celem było wyłonienie „obiektywnie” najpiękniejszego człowieka. Ludzie zostali zaproszeni do wysyłania swoich zdjęć, na podstawie których algorytm miał wybrać najpiękniejszą osobę. Zdjęcia przesłało jednak znacznie mniej osób o ciemnym kolorze skóry, przez co były o wiele słabiej reprezentowane wśród zwycięzców. Algorytm na podstawie niższej reprezentacji takich osób w danych wejściowych wywodził, że cechy charakterystyczne ich urody stanowią raczej negatywne odchylenie od powszechnie przyjętego wyobrażenia na temat piękna. Mniej zabawna jest natomiast sytuacja, kiedy kobietom w internecie wyświetla się mniej ogłoszeń o pracę na wyższych stanowiskach. Dzieje się tak, ponieważ algorytm z faktu, że są na takich stanowiskach mniej reprezentowane, wywodzi, iż kobietom nie przysługują stanowiska tego rodzaju. Dochodzi tym samym do reprodukowania istniejącego niesprawiedliwego porządku rzeczy. Do najbardziej drastycznych przykładów można zaliczyć wyniki krytycznej oceny algorytmu, którego celem było przewidywanie prawdopodobieństwa popełnienia recydywy przez więźniów w Stanach Zjednoczonych. Wynika z niej, że dla kryminalistów o ciemnym kolorze skóry istnieje dwukrotnie wyższe prawdopodobieństwo, iż ryzyko recydywy zostanie dla nich przewidziane błędnie, podczas gdy kryminalistom o białym kolorze skóry dwa razy częściej błędnie przypisuje się bezproblemowość.

Im powszechniej używa się algorytmów do analizy danych, tym częściej należy myśleć o możliwych pułapkach. Taką refleksję utrudnia jednak fakt, że nie zawsze możemy się w ogóle dowiedzieć, czy tego rodzaju analiza została w danym przypadku przeprowadzona. Odrzuceni kandydaci do pracy nigdy się nie dowiedzą, czy nie zostali wyselekcjonowani przez algorytm zawierający przesłanki o charakterze dyskryminacyjnym. Dokładna budowa algorytmów oraz dane, na których bazują, stanowią u większości programów i aplikacji ściśle strzeżoną tajemnicę handlową, a zatem bardzo trudno poddać je krytycznej ocenie. Jeśli jednak ma miejsce ich wykorzystywanie w usługach publicznych – jak choćby w przypadku wspomnianego algorytmu przewidującego recydywę – powinniśmy się domagać ujawnienia mechanizmu ich działania oraz odpowiednich danych.

Z całości można wyciągnąć jeszcze jeden wniosek: nie tylko w czeskiej debacie publicznej coraz częściej słyszymy o tym, że szybki postęp technologiczny pociąga za sobą coraz większe zapotrzebowanie na osoby z wykształceniem technicznym. Społeczne skutki niewłaściwego stosowania algorytmów są jednak dość dobrym przykładem na to, dlaczego w erze cyfrowej być może bardziej potrzebni będą ludzie z wykształceniem humanistycznym, zdolni do zwrócenia uwagi na podobne zagrożenia. Tylko właściwie ukierunkowany rozwój technologiczny możemy nazywać postępem. Od osób wykształconych czysto technicznie raczej trudno oczekiwać, że będą to ukierunkowanie korygować. Decydujące znaczenie dla przyszłości będzie mieć ścisła interdyscyplinarna współpraca dyscyplin humanistycznych i technicznych.

Tłumaczenie Krzysztof Kołek
Artykuł pierwotnie ukazał się na stronie A2larm.cz – w czeskim internetowym dzienniku związanym z pismem „A2”. Przedruk za zgodą autorki.

Dział
Nasze opinie
komentarzy
Przeczytaj poprzednie