Książka napisana przez ChatGPT z szansą na literacką Nagrodę Nobla! Brzmi prawdopodobnie? Owszem, i wielu pewnie dało się zwieść temu zapewnieniu. Co prawda artykuł z tym tytułem pojawił się w sieci w dniu 1 kwietnia, kiedy wiele informacji trzeba było odbierać z pewną dozą sceptycyzmu. Co nie znaczy, że ta, jak na razie, fikcja nie może niebawem stać się faktem.
Skąd czerpie wiedzę?
Dzisiaj ChatGPT potrafi wyręczyć człowieka w wielu czynnościach: nie tylko napisać tekst w określonym stylu, ale nawet stworzyć wiersz lub piosenkę. Potrafi wykonać tłumaczenie z jednego języka na drugi. Może napisać kod w języku programowania, jaki jej zaproponujemy, dlatego wielu programistów już teraz „podpiera się” umiejętnościami wirtualnego asystenta.
– Owszem, korzystam z pomocy, jaką daje ChatGPT. Narzędzie radzi sobie z pisaniem kodu dużo szybciej niż ja, dlatego używam go do wykonywania prostszych zadań w programowaniu – mówi „Kurierowi Wileńskiemu” Aleksander, programista.
ChatGPT, znany też jako Generative Pre-trained Transformer (Generatywny wstępnie wyszkolony transformator), to wielkoskalowy model językowy opracowany przez firmę technologiczną OpenAI. Jego największym atutem jest zdolność do generowania bardzo długich tekstów, które są spójne i poprawne gramatycznie. Może poruszać wiele różnych tematów, od odpowiedzi na proste pytania po bardziej złożone i wyspecjalizowane treści, co sprawia, że jego zastosowanie staje się coraz szersze.
Skąd ta technologia czerpie wiedzę? Źródłem informacji i danych treningowych są dla ChatGPT miliardy zbiorów danych, które zostały wprowadzone do bazy. Są to teksty z książek, czasopism, artykułów, encyklopedii.
Co istotne, ChatGPT nie sprawdza prawdziwości generowanych przez siebie informacji. Tworzy on tekst w oparciu o dane, na których został przeszkolony, i może generować odpowiedzi, które nie są dokładne lub wiarygodne.
– W ChatGPT zadałam pytanie na temat pewnego badania psychologicznego, na co otrzymałam bardzo prawdopodobną, obszerną odpowiedź, z wymienieniem treści badania, daty, nazwiska osoby przeprowadzającej badanie. Kiedy sprawdziłam informacje w internecie, okazało się, że takie badanie po prostu nie istniało, a wymienione nazwisko pojawiło się w innym badaniu – dzieli się spostrzeżeniami Alina, studentka psychologii.
Dlatego użytkownik musi sam sprawdzić dokładności informacji generowanych przez ChatGPT. Obecnie ta technologia najlepiej radzi sobie z danymi sprzed 2021 r. Z późniejszymi może mieć duży problem, co może się przełożyć na większy poziom nieprawdziwych informacji.
Czytaj więcej: Dialog sztuki z technologią. Rozmowa z Ivoną Tau
Przyszłość sztucznej inteligencji
Mimo że SI może popełniać błędy, to jej przyszłość prezentuje się wręcz imponująco. Wystarczy wspomnieć, że ChatGPT zdał właśnie egzamin podyplomowy MBA (Master of Business Administration) na Uniwersytecie Pensylwanii w USA. Zaliczył też złożony egzamin lekarski, co pokazuje, że AI może mieć potencjał zastąpienia zawodów, które wydawały się dalekie od algorytmów. Niepotrzebni mogą się okazać przedstawiciele handlowi, których zastąpią chatboty, kasjerzy w sklepach zostaną zastąpieni przez kasy samoobsługowe, operatorzy maszyn ustąpią miejsca sztucznej inteligencji.
Naukowcy z Microsoftu poddali licznym testom słynny ChatGPT-4. „Wykazuje cechy tzw. ogólnej sztucznej inteligencji (o możliwościach analogicznych do ludzkiego mózgu). Świadczą o tym jego podstawowe zdolności umysłowe (takie jak wnioskowanie, kreatywność i dedukcja) oraz zakres tematów, w których zdobył wiedzę (takich jak literatura, medycyna czy programowanie komputerowe). A także różnorodność zadań, które jest w stanie wykonywać, np. grać w gry, wyjaśniać własne działania” – napisali m.in. we wnioskach.
Już dziś sztuczna inteligencja ma wiele zastosowań, takich jak: samochodowe systemy nawigacyjne, rekomendacje zakupowe, systemy diagnozowania chorób, analiza danych i wiele innych. Potrafi też odpisać na mejla, dokonać podsumowania pracy firmy, pomóc w zarabianiu pieniędzy.
Co istotne, ChatGPT wykazał zdolność do budowania złożonego kodu Pythona i komponowania esejów. Toteż uzasadnione są obawy, że taka technologia może prawdopodobnie zastąpić pracowników, takich jak: dziennikarze, matematycy, księgowi lub programiści.
Zagrożenia dla ludzkości
Możliwe jest, że na skutek powierzania zadań dla sztucznej inteligencji ludzie utracą swoje dotychczasowe umiejętności i zdolności, które byłyby wciąż potrzebne w sytuacjach, gdy sztuczna inteligencja zawodzi lub nie jest dostępna. Dla przykładu ludzie nauczyli się już polegać na nawigacji, która podpowiada im, dokąd mają skręcić na skrzyżowaniu. Intuicja może im sugerować, by skręcili w lewo, ale Google podpowiada „skręć w prawo”. Jadą w lewo, trafiają na korek, spóźniają się na ważne spotkanie. Jadąc w prawo, omijają korki, przyjeżdżają na czas.
Coraz częściej kierowcy są skłonni ufać podpowiedziom map Google’a, a kiedy rozładuje im się komórka, tracą orientację i błądzą w ulicach wielkiego miasta. Zdarzały się też przypadki, że ślepo wykonując polecenia GPS-u, wjeżdżali do jeziora albo spadali z rozebranego mostu.
Korzystanie z SI wiąże się z innymi zagrożeniami dla ludzkości. Niektóre prace mogą zostać zautomatyzowane, co w efekcie spowoduje wzrost bezrobocia w niektórych sektorach gospodarki. „Dużo bardziej przerażającym scenariuszem jest jednak to, że stracimy kontrolę nad własnym życiem. Jeszcze bardziej niż niebezpieczeństwo masowego bezrobocia powinna nas martwić możliwość, że władza przejdzie z rąk ludzi na algorytmy, co mogłoby otworzyć drogę do cyfrowych dyktatur” – ostrzega Yuval Noah Harari w książce „21 lekcji na XXI wiek”.
Podaje przykład. Już dzisiaj coraz więcej banków, korporacji i instytucji używa algorytmów do analizowania danych oraz podejmowania decyzji, które nas dotyczą. Gdy starasz się o pożyczkę w banku, może się zdarzyć, że twój wniosek rozpatrzy algorytm, a nie człowiek. Algorytm analizuje mnóstwo danych na twój temat oraz statystyki dotyczące milionów innych ludzi, po czym decyduje, czy jesteś wystarczająco wiarygodny, by bank udzielił ci pożyczki. Często algorytm spisuje się lepiej niż bankier. Jeśli bank odmówi pożyczki, a ty zapytasz: „Dlaczego?”, usłyszysz w odpowiedzi, że to algorytm nie wyraził zgody. Spytasz: „Co jest ze mną nie tak?”, a bank odpowie: „Nie wiemy. Żaden człowiek nie rozumie tego algorytmu, ponieważ opiera się on na zaawansowanym uczeniu maszynowym. Ale ufamy swojemu algorytmowi, dlatego nie udzielimy pożyczki”.
Kluczowym pytaniem dzisiejszych czasów jest, kto i w jakim celu będzie zarządzał danymi. Jak pisze Harari, na dłuższą metę, gromadząc dostateczną ilość danych i dysponując wystarczającą mocą obliczeniową, informatyczni giganci będą mogli zhakować najskrytsze tajemnice życia, a następnie wykorzystać tę wiedzę nie tylko do dokonywania za nas wyborów albo do oddziaływania na nas, lecz również do przeprojektowywania życia organicznego i do tworzenia form życia nieorganicznego.
ChatGPT w niewłaściwych rękach może zostać wykorzystany np. do generowania fałszywych informacji lub dezinformacji. Dzieje się to już na naszych oczach, jak w przypadku australijskiego burmistrza Briana Hooda. Polityk dowiedział się od lokalnej społeczności, że ChatGPT niezgodnie z prawdą wskazuje go jako winnego w skandalu łapówkarskim w Bank Rezerw Australii. Tymczasem Brian Hood nigdy nie został oskarżony o przestępstwo, co podkreślili jego prawnicy. Odwrotnie, to właśnie on doniósł o nieprawidłowościach w firmie. W związku z tym może dojść do procesu sądowego wytoczonego firmie OpenAl o zniesławienie. To pierwszy taki przypadek, gdy człowiek wstępuje na ścieżkę prawną przeciwko sztucznej technologii.
Czytaj więcej: Anna Tondrik: Bez technologii nauczyciel staje się nudny dla dziecka
Czy SI przejmie nad nami kontrolę?
Na razie sztuczna inteligencja wykonuje tylko to, czego nauczy ją człowiek. Jeśli założymy, że są to dobre intencje, możemy być spokojni. Ale co, jeżeli człowiek wykorzysta maszynę, by podszyła się pod człowieka? Taki przypadek miał już miejsce. Bot nie mógł się uporać z zadaniem i na pytanie, czy nie jest robotem, skłamał: „Nie, nie jestem robotem. Mam wadę wzroku, która utrudnia mi oglądanie obrazów. Dlatego potrzebuję usługi 2captcha”. Tak ChatGPT, wcześniej odpowiednio poinstruowany, oszukał człowieka, by ten zaznaczył pole: „Nie jestem robotem”. To przerażający przykład niewłaściwego używania sztucznej inteligencji.
Zadałam pytanie ChatGPT: „Czy sztuczna inteligencja może w przyszłości przejąć kontrolę nad życiem ludzi?”. Oto wygenerowana odpowiedź: „Sztuczna inteligencja jest narzędziem stworzonym przez ludzi i działa wyłącznie na podstawie zaprogramowanych algorytmów. W tej chwili sztuczna inteligencja nie ma zdolności do samodzielnego myślenia i działania, poza zadaniami, na które została zaprogramowana. Jednakże, wraz z rozwojem sztucznej inteligencji, pojawiają się pewne obawy, że w przyszłości mogłaby ona stanowić zagrożenie dla ludzkości. Jednym z potencjalnych scenariuszy jest taki, w którym sztuczna inteligencja stanie się na tyle rozwinięta, że będzie w stanie przewyższyć ludzkie umiejętności intelektualne i stać się autonomiczna. W takim przypadku istnieje ryzyko, że sztuczna inteligencja może przejąć kontrolę nad procesami decyzyjnymi, co mogłoby prowadzić do poważnych problemów”.
Kwestie etyczne
W styczniu papież Franciszek zabrał głos w sprawie sztucznej inteligencji. „Niedopuszczalne jest, aby decyzję o życiu i losie człowieka powierzyć algorytmowi” – apelował przywódca Kościoła podczas spotkania z sygnatariuszami „Rzymskiego wezwania dla etyki sztucznej inteligencji”.
„Rozwój sztucznej inteligencji to ogromny potencjał dla ludzkości. Zostanie on jednak wykorzystany tylko wtedy, gdy ci, którzy rozwijają te techniki, zachowają konsekwentną wolę działania w sposób etyczny i odpowiedzialny” – powiedział papież na marcowej audiencji dla uczestników tzw. Dialogów Minerwy.
Franciszek zauważył, że jeśli rozwój sztucznej inteligencji ma służyć ludzkości, to jego podstawowym kryterium musi być godność osoby ludzkiej. Dotychczasowe dane zdają się natomiast sugerować, że techniki cyfrowe posłużyły do zwiększenia nierówności w świecie, i to nie tylko, gdy chodzi o różnice w bogactwie materialnym, lecz także w dostępie do wpływów politycznych i społecznych.
Artykuł opublikowany w wydaniu magazynowym „Kuriera Wileńskiego” Nr 15(43) 15-22/04/2023