Jak powstrzymać sztuczną inteligencję przed zniszczeniem dziennikarstwa

·

Jak powstrzymać sztuczną inteligencję przed zniszczeniem dziennikarstwa

·

Wydaje się, że oto nagle wiele strasznych ostrzeżeń dotyczących sztucznej inteligencji zamienia się w rzeczywistość. Wcześniejsze generacje automatyzacji uderzały w ogromną liczbę miejsc pracy w amerykańskim sektorze produkcyjnym i usługowym. Natomiast teraz sztuczna inteligencja przychodzi po „twórców” – pracowników umysłowych, którzy zawsze wyobrażali sobie, że są chronieni od takich banalnych zagrożeń. Żadna branża nie jest obecnie bardziej bezpośrednio zagrożona niż dziennikarstwo. Istnieje jednak sposób, aby wyprzedzić to zagrożenie już teraz, zanim algorytmy zjedzą nas wszystkich żywcem.

ChatGPT, program OpenAI, który jest w stanie wypluć spójne (jeśli już nie poetyckie) teksty, został publicznie udostępniony niedawno. Ale już teraz firmy medialne spieszą się z eksperymentowaniem ze sposobami wykorzystania programu i podobnych technologii, aby zastąpić ludzi dotychczas widniejących na ich listach płac. Buzzfeed zauważył, że niskie ceny ich akcji wzrosły po tym, jak ogłosili, że użyją ChataGPT do pisania quizów i list. „Men’s Journal” używa sztucznej inteligencji do wypluwania artykułów, które są przepisanymi ponownie starymi materiałami z archiwów. A CNET po cichu używał sztucznej inteligencji do pisania artykułów przez miesiące, zanim pod koniec stycznia powiedział, że „wstrzyma” operację, po tym, jak stwierdzono, że wiele tych tekstów zawiera błędy lub jest plagiatami.

Można śmiało powiedzieć, że to wszystko to dopiero początek. Obecnie dostępna sztuczna inteligencja może pisać (gówniane) historie, rysować ilustracje, a nawet replikować twój głos, aby czytać głośno tekst. Google ma w tym roku wprowadzić 20 oddzielnych produktów AI. Algorytmy szybko stają się coraz bardziej wyrafinowane. Każdy, kto zajmuje się twórczą pracą z tekstem – zarówno dziennikarze, pisarze, artyści, jak i reporterzy radiowi – konkuruje teraz z komputerem, który może stworzyć symulakrum naszej pracy za mniej niż kosztujemy firmę, która płaci nam za takie zadania. Zagrożenie dla wielu tysięcy miejsc pracy istnieje i ma potencjalnie charakter egzystencjalny.

Czy to pilna kwestia pracownicza? Z pewnością. Ale pracownicy mediów i ich związki zawodowe mogą walczyć nie tylko za pomocą pikiet i protestów. Podstawowe założenie („nowa technologia dziesiątkuje cały istniejący przemysł z zapierającą dech w piersiach szybkością”) jest znajome. Zdarzyło się to sprzedawcom zapałek, operatorom telegrafów i pracownikom taśm montażowych, i nie ma nic dziwnego w potencjalnej możliwości, że przydarzy się dziennikarzom – z wyjątkiem naszego zdrowego poczucia własnej wartości. Kiedy te historie są przekazywane jako powszechna mądrość, zwykle przedstawia się je jako lekcje, jak nie pozostawać w tyle za szybko zmieniającym się współczesnym światem; widmo przysłowiowego woźnicy to znana przestroga w kulturze amerykańskiej. Wyraźny brak sympatii dla pozostawionych samym sobie robotników leży w naturze tych kapitalistycznych zasad. Przecież obsługujący konne powozy powinni byli zostać mechanikami samochodowymi! A zwolnieni dziennikarze powinni nauczyć się kodować! I tak dalej, i tak dalej.

W branży dziennikarskiej mamy w USA niewielką przewagę nad innymi branżami. Mamy silne i wszechobecne związki zawodowe oraz powszechnie akceptowany kodeks etyczny, który określa, jak daleko można przesunąć standardy, zanim coś przestanie się liczyć jako dziennikarstwo. To są podstawowe narzędzia, którymi dysponujemy w naszej zbliżającej się walce z AI. Zamiast udawać, że możemy powstrzymać falę zmian technologicznych, argumentując, że byłoby to dla nas złe, musimy skupić się na bardziej istotnym fakcie, że może to być apokaliptyczne dla samego dziennikarstwa.

Należy zauważyć, że nie ma uzgodnionych ani dobrze ugruntowanych zasad dotyczących sztucznej inteligencji i etyki dziennikarskiej. Ta technologia po prostu nie istnieje wystarczająco długo, aby wprowadzić te zasady. Lepiej się z tym pospieszmy, albo gwarantujemy sobie, że wiele złych rzeczy zostanie zrobionych przy braku standardów branżowych. Pozwólcie, że zasugeruję jedną podstawową zasadę na początek: dziennikarstwo jest wytworem ludzkiego umysłu. Jeśli coś nie pochodzi z ludzkiego umysłu, nie jest dziennikarstwem. Nie dlatego, że sztuczna inteligencja nie może wypluć przekonującej repliki rzeczy, ale dlatego, że dziennikarstwo – w przeciwieństwie do sztuki czy rozrywki – wymaga odpowiedzialności, aby było uzasadnione.

Serwisy informacyjne nie tylko publikują artykuły. Mogą również, jeśli to konieczne, dokładnie wyjaśnić, jak powstała dana historia i dlaczego tak się stało. Dlaczego jest to news? Jakie ma źródła? Jakie możemy wyciągnąć z niego wnioski? W jaki sposób upewniliśmy się, że sprzeczne punkty widzenia zostały przedstawione rzetelnie? W jaki sposób ustaliliśmy, że nagłówek, wstęp, anegdoty i cytaty w historii były odpowiedni dobrane, by stworzyć jak najbardziej rzetelną, najdokładniejszą i wciągającą historię? Czy pominęliśmy coś, co mogłoby być sprzeczne z naszą tezą? Czy historia jest niewłaściwie przedstawiona? To nie są tylko kwestie estetyczne. Są to pytania, na które serwisy informacyjne muszą być w stanie odpowiedzieć, abyśmy wszyscy zgodzili się, że ich dziennikarstwo jest uzasadnione i etyczne. Przyjmuje się za pewnik, że prawdziwi dziennikarze mogą odpowiedzieć na te pytania i uzasadnić swoje odpowiedzi w przypadku sporu. Jedną wspólną cechą wszystkich tych fundamentalnych pytań jest to, że nie można na nie spójnie odpowiedzieć, jeśli odwołamy się do sztucznej inteligencji.

Tak, AI potraf wypluć zdanie w odpowiedzi na dowolne z tych pytań. Ale czy to oznacza rzeczywistą przejrzystość? Kiedy mówisz programowi AI, aby napisał historię, czy możesz definitywnie sprawdzić, że coś pominął? Czy możesz dokładnie opisać proces, który wykorzystał do wyciągnięcia wniosków? Czy możesz ostatecznie ręczyć za fakt, że sztuczna inteligencja była rzetelna i dokładna oraz że jej praca nie jest wadliwym produktem jakiejkolwiek liczby ukrytych uprzedzeń? Nie, nie możesz. Tak naprawdę nie wiesz, jak sztuczna inteligencja zrobiła to, co zrobiła. Nie znasz procesu, którego użyła do wytworzenia efektu swojej pracy. Nie możesz też dokładnie opisać ani ocenić tego procesu. Jest bardzo prawdopodobne, że wiele mediów pospieszy się, by wykorzystać sztuczną inteligencję do produkcji tanich treści, a następnie zlecić redaktorowi przejrzenie ich przed publikacją i wykorzysta takie ludzki wgląd jako uzasadnienia dla publikacji. Ale ten proces jest iluzją – redaktor-człowiek nie wie i nigdy nie może wiedzieć, w jaki sposób sztuczna inteligencja stworzyła daną historię. Technologia jest w rzeczywistości czarną skrzynką. A to czyni ją śmiertelnie wadliwą w naszej konkretnej dziedzinie.

Dziennikarze-ludzie też mają wady. Ale jesteśmy odpowiedzialni. To jest różnica. Instytucje dziennikarskie żyją z wiarygodności, a ta wiarygodność wynika bezpośrednio z odpowiedzialności, która towarzyszy każdej historii. Gdy historie zawierają błędy lub uprzedzenia, pomijają pewne rzeczy, przeinaczają lub naginają prawdę, można je wiarygodnie zakwestionować, a wiarygodne instytucje są zobowiązane do wykazania, w jaki sposób i dlaczego historia jest taka, jaka jest, i są zobowiązane do przyznania tego i poprawienia wszelkich błędów w swoich procesach raportowania, pisania i publikowania. Jeśli tego nie robią, tracą wiarygodność. Kiedy to tracą, tracą wszystko. Ten proces odpowiedzialności jest podstawą dziennikarstwa. Bez tego możesz „coś robić”, ale nie zajmujesz się dziennikarstwem.

Nie musicie mnie przekonywać, że media często są leniwe, głupie, gonią za sensacją lub są pełne nieświadomych przedzałożeń wprost z Ivy League [grupa amerykańskich elitarnych uczelni wyższych], wygłaszając zdumiewająco ignoranckie wypowiedzi na temat świata. Właśnie dlatego w ciągu ostatniego stulecia powstał cały nurt etyki dziennikarskiej, którego głównym celem jest sprawienie, by branża była odpowiedzialna, a tym samym wiarygodna. Odpowiedzialność wymaga obecności ludzkiego umysłu, który może odpowiedzieć na wszystkie wspomniane pytania. Ponieważ sztuczna inteligencja nigdy nie może być naprawdę odpowiedzialna za swoją pracę, jej rezultat nie jest dziennikarstwem. Z tego powodu publikowanie takich prac jest nieetyczne. Jako branża musimy wspólnie zgodzić się na standardy, które zapewniają, że żaden serwis informacyjny nie publikuje treści wyprodukowanych bezpośrednio przez sztuczną inteligencję. Technologia może być narzędziem pomagającym ludziom w zbieraniu wiadomości, ale nigdy nie powinna zastępować ludzi w redakcji.

Wkraczamy w erę mediów, które będą zapełniane bagnami pełnymi filmów, nagrań audio, zdjęć i tekstów całkowicie generowanych komputerowo i mających na celu wprowadzanie ludzi w błąd. Opinia publiczna będzie miała bardzo, bardzo duże trudności z odróżnieniem tego, co prawdziwe, od tego, co fałszywe. Ważniejsze niż kiedykolwiek jest to, aby wiarygodne serwisy informacyjne istniały – i aby pozostały wiarygodne. Żeby to zrobić, musimy sprzeciwić się sztucznej inteligencji, która przejmuje pracę dziennikarzy. Musimy zjednoczyć się wokół idei, że coś takiego nie jest etyczne. Jeśli tego nie zrobimy, możesz założyć się, że firmy będą działały tak szybko, jak to możliwe, aby zaoszczędzić dolary – i przy okazji całkowicie zniszczyć dziennikarstwo.

Hamilton Nolan

Tłum. Magdalena Okraska

Powyższy tekst pierwotnie ukazał się w serwisie internetowym inthesetimes.com w lutym 2023. Zdjęcie w nagłówku tekstu: Gerd Altmann from Pixabay.

Hamilton Nolan jest zatrudniony w redakcji amerykańskiego lewicowego pisma „In These Times”. Ostatnią dekadę spędził na pisaniu o pracy i polityce dla „Gawker”, „Splinter”, „The Guardian” i innych.

Dział
Nasze opinie
komentarzy
Przeczytaj poprzednie