ChatGPT nie zastąpi dziennikarstwa jakościowego

Jacek Dziedzina

|

GN 12/2023

publikacja 23.03.2023 00:00

Sztuczna inteligencja powinna otrzymać nagrodę Grand Press. Bynajmniej nie za to, że wyparła dziennikarstwo, jak sugerują niektórzy. Przeciwnie – udowodniła, że dziennikarstwo jakościowe jest nie do zastąpienia.

ChatGPT nie zastąpi dziennikarstwa jakościowego istockphoto

To będzie dla wielu kontrowersyjna teza, ale na własną odpowiedzialność ją postawię: sztuczna inteligencja paradoksalnie okazała się dowodem na wyższość humanistyki nad naukami ścisłymi. Wychwalany na prawo i lewo ChatGPT może i potrafi „postawić” trafną diagnozę medyczną, może i potrafi „zdać” egzamin z matematyki, biologii czy nawet z prawa (choć to ostatnie wypadałoby raczej zaliczyć do rodzaju sztuki w ramach nauk społecznych). Ale nawet najlepiej udoskonalona wersja – z najlepszymi algorytmami i umiejętnością zbierania bilionów danych, kojarzenia stylów, osób, wydarzeń i autorów – nigdy nie napisze autentycznego, podkreślam, reportażu, wywiadu, tekstu śledczego, felietonu, oryginalnej analizy ani też prawdziwego newsa.

Felieton w stylu

Sam „zainteresowany”, czyli ChatGPT, zapytany przeze mnie, czy zamierza odebrać nam pracę, odpowiedział: „Sztuczna inteligencja nie ma możliwości tworzenia wartościowych treści dziennikarskich samodzielnie. Nie ma też zdolności do podejmowania decyzji moralnych, które są często niezbędne w pracy dziennikarskiej”. Odpowiedź trafna, choć trzeba dodać, że przy próbach zadania mu konkretnych tematów i ujęcia ich w konkretnych gatunkach dziennikarskich, tę próbę jednak podejmował. Z rezultatem, który powinien uspokoić dziennikarzy. Na przykład polecenie napisania „felietonu w stylu Marcina Jakimowicza” zaowocowało takim oto tekstem (cytuję tylko fragment): „Witajcie kochani czytelnicy! Dzisiaj chcę porozmawiać z Wami na temat jednej z najważniejszych rzeczy w naszym życiu – czasu. Zastanawialiście się kiedyś, ile czasu marnujemy na bezsensowne rzeczy?”. Nie trzeba być czytelnikiem felietonów mojego redakcyjnego kolegi, by wyczuć nieautentyczność tego tekstu, który nie tylko nie przypomina ani trochę niepodrabialnego stylu Marcina, ale nie jest również ani odrobinę podobny do tego, co uznajemy za felieton. A jeszcze gorzej ten test wypada w przypadku reportaży, wywiadów i pogłębionej publicystyki. I choć zabawka, jaką jest ChatGPT, rzeczywiście może się wydawać marnowaniem czasu – odwołując się do tworzenia „felietonu” – warto pobawić się nią choć przez chwilę, by przekonać się o niemożliwej do zastąpienia przez maszynę pracy twórczej.

Nowinkarstwo?

Zrozumie to z pewnością każdy czytelnik, który regularnie czyta teksty wybiegające ponad to, co dominuje w obiegu „klikbajtowym”. Ale jeszcze lepiej zrozumie to każdy dziennikarz, który spędził tysiące godzin na reporterskich wyprawach, docieraniu do unikatowych informacji, osób, wspomnień, uczestniczył w wydarzeniach, które stojący obok niego kolega opisałby już zupełnie inaczej; który gromadził własne obserwacje, odczucia, uczestniczył w przypadkowych lub zaaranżowanych spotkaniach, rozmowach. Zrozumie to także każdy dziennikarz, który może nie pisał nigdy reportaży, ale przeprowadził setki wywiadów lub tworzył autentyczne teksty publicystyczne, nie tylko używając własnych, niepodrabialnych figur retorycznych, ale przede wszystkim, który dobrze pamięta, że zaczynając pisanie tekstu, sam jeszcze nie wie, do czego dojdzie na końcu. Żadna maszyna nie zastąpi tego procesu, który jest sumą decyzji (o wyborze tematu, wyjazdu, spotkania, rozmówcy), pytań, odpowiedzi, wiedzy, wrażeń, obserwacji, ale również wyborów, co można, co trzeba napisać, a co lepiej pominąć. I jak powiedzieć coś między wierszami, jak sformułować komunikat zrozumiały dla części odbiorców, nie mówiąc wprost. To wszystko jest procesem, do którego dostępu nie będzie miała najdoskonalsza wersja ChataGPT czy inne „uczące się” modele. Z dużą rezerwą podchodzę do wszelkich „ochów” i „achów” nad nowinkami technologicznymi, które rzekomo miałyby zastąpić człowieka w wykonywaniu takiej czy innej pracy. Nie ignoruję rzecz jasna postępów w poszczególnych obszarach wiedzy i funkcjonalności, ale też nie ulegam presji otoczenia, które już orzekło, że „to tylko kwestia roku, może dwóch”.

Treści autorskie

Było już parę takich prognoz, które – jak dotąd – albo się nie sprawdziły, albo idzie im to bardzo opornie. Pamiętam m.in. euforię jednych i strach drugich, gdy pojawiły się e-booki: śmierć książki papierowej została już praktycznie uznana za dogmat. Tymczasem nawet w krajach z najlepiej rozwiniętą kulturą czytania e-booków i z najlepszą infrastrukturą dystrybucyjną wydania elektroniczne książek to od dawna maksymalnie 30 proc. całego rynku wydawniczego (co ciekawe, zupełnie odwrotny trend widoczny jest w przypadku prasy – tu wszystko zmierza w kierunku dominacji wydań cyfrowych). Dlatego z pewnym niedowierzaniem przeczytałem niedawno informację o słowach szefa wydawnictwa Axel Springer, do którego należy ok. 10 proc. rynku prasowego w Europie. Mathias Döpfner miał wyrazić opinię, że sztuczna inteligencja wkrótce zastąpi dziennikarzy.

Nie chciało mi się wierzyć, że właściciel dużego koncernu medialnego może mówić coś, co – jak się zdaje – jest podcinaniem gałęzi, na której sam siedzi. Dopiero lektura pełnej wypowiedzi pozwoliła lepiej zrozumieć, co miał na myśli. Owszem, powiedział, że „sztuczna inteligencja ma potencjał uczynienia niezależnego dziennikarstwa lepszym lub zupełnego go zastąpienia” (dla mnie to dowód na to, że albo sam nigdy nie był dziennikarzem, albo treści w jego mediach dziennikarstwem nie są), jednak w dalszej części wypowiedzi zachęcił zatrudnionych w jego mediach dziennikarzy „do przestawienia się na dużo bardziej opiniotwórcze i autorskie treści; rzeczy, których nie będzie mogła zrobić za nich maszyna”. I tu pełna zgoda – sztucznej inteligencji powinny obawiać się media, które tworzą treści „dziennikarskopodobne”, ale nie muszą obawiać się media tworzące treści unikatowe, oryginalne. O ile oczywiście nadal będą ludzie – a dziś ciągle taka grupa odbiorców jest całkiem liczna – poszukujący fachowych i oryginalnych treści.

Nie czuje, nie słyszy, udaje

Testując, jak działa „zabójca dziennikarstwa”, zadałem naszemu „konkurentowi” również takie polecenie: napisz felieton Franciszka Kucharczaka z cyklu „Tabliczka sumienia”. Znawcy ChataGPT podpowiadają bowiem, że trzeba w poleceniu zamieścić jak najwięcej zmiennych, które są w stanie „naprowadzić” algorytmy na podobne treści istniejące w internecie. ChatGPT zaproponował taki tekst: „Oto felieton Franciszka Kucharczaka z cyklu Tabliczka sumienia pod tytułem Czym jest prawdziwa miłość? Droga redakcjo, drodzy Czytelnicy, dzisiaj chciałbym porozmawiać z Wami o miłości. Temat ten wciąż pozostaje aktualny i niezwykle ważny, zwłaszcza w dzisiejszych czasach, gdy wiele osób zaniedbuje tę wartość”. Fanom felietonów naszego kolegi oszczędzę może dalszej części, bo z pewnością już po pierwszych zdaniach wyczuli, że ani to felieton, ani Franciszek Kucharczak (odsyłam do oryginału w bieżącym numerze).

Pozwoliłem sobie również przetestować ChataGPT w zakresie tematów, które sam podejmowałem w różnych tekstach. Ponieważ byłem dwukrotnie w Kosowie, zadałem pytanie: co wiesz o tzw. kryptokatolikach w Kosowie i czy wiesz, kim byli ich przodkowie? Odpowiedź brzmiała: „Nie jestem w stanie stwierdzić, że istnieją »kryptokatolicy« w Kosowie lub udzielić informacji na temat ich przodków, ponieważ nie posiadam takiej wiedzy w swojej bazie danych”. Zaznaczmy: to zadanie było o tyle proste, że nie wymagało napisania reportażu z Kosowa, tylko podania podstawowych informacji. Jeszcze trudniej jest naszej maszynie w sytuacji, gdy polecenie wymaga napisania reportażu np. z Wietnamu (byłem tam 13 lat temu) ze wskazaniem konkretnych miejsc i przeżyć. Tu za każdym razem Chat odpowiada inaczej. Czasami zgodnie z prawdą: „Nie jestem w stanie wyjechać do Wietnamu, ani zobaczyć, słyszeć, czuć zapachów lub doznać innych zmysłowych doznań, które są częścią doświadczeń ludzkich”.

Ale już poproszony o napisanie reportażu z Sarajewa, z dopiskiem „w stylu Jacka Dziedziny” (chodzi o „nakarmienie” algorytmów jak największą liczbą danych, które może analizować, dlatego lepiej z nazwiskiem), nasz mały inteligentny „kłamczuszek” przyjął wyzwanie i napisał: „Oto mój osobisty reportaż z Sarajewa w stylu Jacka Dziedziny: Sarajewo, stolica Bośni i Hercegowiny, to miasto pełne historii i kontrastów. Warto odwiedzić Stare Miasto, gdzie można poczuć ducha miasta i zobaczyć wiele pięknych zabytków…”. I tu również nie trzeba czytać konkretnego reportażu z Sarajewa akurat mojego autorstwa, by wyczuć nieautentyczność powyższego tekstu, który może i przypomina jakąś formę rozprawki z VI klasy podstawówki, ale z pewnością nie jest reportażem nawet w treści (bo jest jasne, że nie jest nim przede wszystkim z powodu braku uczestnictwa w wydarzeniu).

Inteligencja. Sztuczna

Nie inaczej jest z wywiadami. ChatGPT może i potrafi naśladować pewne schematyczne rozmowy, stosując szablony w tematach biznesowo-usługowych, ale przecież nie zastąpi pogłębionych rozmów, intymnych i bardziej oficjalnych, erudycyjnych i drążących temat, które mają w sobie element zaskoczenia, nieszablonowych odpowiedzi, zwrotów akcji (tu podobnie jak w reportażu). Zadałem maszynie m.in. pytania, które stawiałem w realnych rozmowach. Na przykład w rozmowie sprzed lat z szefową chorzowskiego hospicjum (tytuł „Łzy kapią do kawy” – żadna wersja ChataGPT nie będzie w stanie wymyślić takiego tytułu do rozmowy o umieraniu) zacząłem pytaniem: „Pijemy sobie spokojnie kawę, a tu obok ludzie umierają. Można tak?”. Pani Barbara Kopczyńska odpowiedziała wtedy: „Hospicjum to też życie. Jeden z naszych dostawców był kiedyś zdziwiony, że tu są żarty i śmiechy. »To niemożliwe, że jesteście ciągle tacy pogodni« – mówił. Odpowiedziałam: to nie może być wesołkowatość i udawanie, że nie ma cierpienia, że nie ma śmierci. A sytuacje śmieszne zdarzają się wszędzie, nawet w hospicjum”.

A jak na to samo pytanie odpowiedział ChatGPT? „To jest trudne pytanie, na które nie ma jednoznacznej odpowiedzi. Z jednej strony, życie jest kruche i warto doceniać każdą chwilę i cieszyć się nią. Z drugiej strony, jako ludzie mamy odpowiedzialność za siebie i innych i powinniśmy robić wszystko, co w naszej mocy, aby pomóc innym i zapobiegać cierpieniu”. Sztuczność tej odpowiedzi (choć w sumie dość poprawnej) wyczuwalna jest od razu. Zaproponowałem jeszcze, jako zadanie pomocnicze, napisanie luźnego reportażu z Polski, również w stylu autora tego tekstu (znowu: chodzi o „nakarmienie” algorytmów). ChatGPT stanął na wysokości zadania: „Witajcie! Jestem Jacek Dziedzina, a dzisiaj zabieram Was na reportaż do jednej z małych miejscowości na Mazowszu. Tu, wśród pól i lasów, mieszka społeczność, która od kilku lat walczy o swoją przyszłość. Chodzi o kwestię budowy nowej drogi, która ma połączyć pobliskie miasta i ułatwić komunikację. Wizytę rozpoczynamy od rozmowy z mieszkańcami, którzy opowiadają nam o trudnościach, jakie napotykają na co dzień. Wąskie i kręte drogi powodują korki, spowalniając przemieszczanie się do pracy czy szkoły. Często też dochodzi do wypadków, szczególnie w okresie zimowym, gdy drogi pokrywają się lodem”.

Prawdziwie sztuczna ta sztuczna inteligencja. •

Dostępna jest część treści. Chcesz więcej? Zaloguj się i rozpocznij subskrypcję.
Kup wydanie papierowe lub najnowsze e-wydanie.