Czytaj więcej: Inteligencja węglowa a krzemowa: potencjał, obawy, zalety i wady (cz. 1)
Leszek Wątróbski: Jak zdaniem pani profesor wygląda sprawa etyczności w edukacji, jeżeli rozmawiamy o umyśle krzemowym?
Maria Czerepaniak-Walczak: Myślę, że sprawa etyki związanej z uczeniem się zasługuje m.in. na odpowiedź: czego się tak naprawdę uczymy korzystając z potencjału, z zasobów chatbota. Uczymy się, jak sformułować pytanie, ale i jak je postawić. Kiedy zaś dostaję odpowiedź, to pojawia się kwestia zaufania, czy jest to odpowiedź poprawna, wystarczająca. A następnie — co mogę zrobić z tą odpowiedzią, czy i jak się nią posłużyć, jak i do czego wykorzystać. Oczywiście, najprościej jest przyjąć tę odpowiedź za pewną i użyć jako własny pomysł, własne odkrycie i następnie: zaznacz, kopiuj, wklej i przedstaw jako wykonanie zadania. Nie muszę przy tym obciążać swojej pamięci. Więc mój mózg węglowy wykonuje zupełnie inne operacje, aniżeli wtedy, kiedy muszę wyszukać jakieś źródła, kiedy muszę dodatkowo wypytać osobę, kiedy muszę się przejść po parku i wyszukać określone rośliny, aby móc je opisać. I tu się właśnie rodzą te zagrożenia edukacyjne. Grozi nam, że nie będziemy umieli uczyć się — czyli wyszukiwać związków przyczynowo-skutkowych w zjawiskach, które nas otaczają. Korzystanie z chatbota pozbawione krytycznej refleksji i wrażliwości etycznej uwalnia nas od wielu ważnych działań, niezbędnych dla procesów poznawania. Naraża też na pokusy zachowań nieetycznych, w tym oszustwa, co może wywoływać zakłócenie relacji międzyludzkich, tak ważnych w procesie edukacji.
W celu osobistego doświadczenia interakcji w chatbotem posłużyłam się tym narzędziem w wypełnianiu pewnego zadania. Otóż kolega poprosił mnie o tekst do jego jubileuszowej książki. Zastrzegł, że nie oczekuje rozprawy naukowej. Uznałam więc, że mogę posłużyć się żartem. A ponieważ wiem, czym się zajmuje naukowo, wpadłam na pomysł skorzystania z pomocy sztucznej inteligencji. Wiem też, że jest absolwentem politechniki i cyfrowo zorientowany, zrozumie więc mój żart. Chatbotowi postawiłam więc pytanie i natychmiast dostałam odpowiedź. Ponieważ kolega zajmuje się kompetencjami przyszłości i od lat pracuje nad kategoriami kwalifikacji kompetencji, to zwróciłam się do inteligentnej skrzynki w tej właśnie sprawie. Jak mówiliśmy wcześniej, mamy tendencję do antropomorfizowania rzeczy. Tak też zrobiłam. Mojej rozmówczyni, jak sama o sobie napisała, jest programem komputerowym, nadałam imię i nazwisko Afiria Encegilli-Tencial. Jest to anagram Artificial Intelligence (pl. sztuczna inteligencja). Mogłam wtedy, zamiast zwracać się do skrzynki, kierować pytania do wyimaginowanej osoby. Zadawałam jej więc kolejne pytania i dostawałam odpowiedzi. I pisząc tekst do księgi jubileuszowej, działałam metodą: zaznacz, kopiuj, wklej. I w taki właśnie sposób „wyprodukowałam” przy jej pomocy okolicznościowy tekst, dopisując do niego jeszcze moje pytania i komentarze. Potraktowałam to jak wywiad mówiąc: to ja stawiałam pytania, a moja rozmówczyni mi odpowiadała. Uznaliśmy z kolegą ten żart za udany. Zachowane zostały zasady poszanowania prawa autorskiego, gdyż wyraźnie zaznaczałam, które fragmenty tekstu są autorstwa Afirii Encegilli-Tencial.
Czy w podobny sposób można też napisać powieść historyczną?
…w której są pewne fakty, ale i fikcja literacka. W związku z tym można spokojnie „napisać” powieść przy pomocy chatbota. Można ją nawet opublikować. Ale tu zaczynają się pojawiać pewne schody — mianowicie prawa autorskie. Przede wszystkim teksty z chatbota nie są demaskowane przez programy antyplagiatowe. I to jest źródło nieuczciwości. Niedawno czytałam, że chatbot napisał maturalne wypracowanie z języka polskiego w ramach zadań z matury z ubiegłego roku. Pracę tę oceniała nauczycielka, która nie wniosła żadnych zastrzeżeń i uznała, że cała praca została napisana poprawnie. No i co teraz dalej robić?
Jako pedagożka mam wielki niepokój — czy zamknąć szkołę, czy zamknąć uniwersyteckie drzwi i okna, aby ten mózg krzemowy nie wdarł się w interakcję edukacyjną. A może wprost przeciwnie — mówić o tym i pokazywać, jak obchodzić się z tym potencjałem? Włosi np. zabronili korzystania z chatbota. Innego zdania są uniwersytety brytyjskie, gdzie np. Uniwersytet w Cambridge otworzył się na niego. W moim przekonaniu nie możemy się zamknąć czy odizolować. Jest to po prostu kolejne narzędzie nadające się do wzbogacenia procesu edukacji, otwierające też nowe konteksty wychowania.
Nie tak przecież dawno temu, kiedy wprowadzono długopisy w szkołach, pisanie nimi było zabronione. Używano przecież ołówków i piór ze stalówkami na atrament. Uważano powszechnie, że długopis może zmienić charakter (nie tylko pisma). Dziś wszyscy piszą długopisem. Później pojawiły się kalkulatory. I zamiast uczyć się tabliczki mnożenia na pamięć, zaczęto ich używać. W przyszłości nie unikniemy tego, żeby w procesy uczenia się nie wdarło się coś nowego. Nie możemy być takimi luddystami protestującymi przeciwko zmianom ulepszającymi sposób życia, jak ci angielscy XIX-wieczni robotnicy niszczący maszyny, które miały zastąpić ich pracę i doprowadzić do bezrobocia. Takie straszenie sztuczną inteligencją jest obecne w wielu wypowiedziach publicznych. Stawiane są pytania o miejsce i rolę nauczyciela w świecie, w którym „rozpycha się” sztuczna inteligencja. Jestem pewna, że nie jest to wytwór, który zastąpi nauczyciela — istotę biopsychoetyczną. Z całą też pewnością nie wyręczy człowieka we wszystkim, ale może być ułatwieniem w wykonywaniu wielu prac. Analizowaliśmy to z grupą studentów. I na szczęście studenci powiedzieli, że już są na to uwrażliwieni. Uważam, że uczenie się koegzystencji mózgu węglowego z mózgiem krzemowym jest ważnym i interesującym wyzwaniem dla edukacji i naszej całej cywilizacji.
Warto byłoby jeszcze zająć się sprawą ewentualnych błędów, które mogą znaleźć się w odpowiedziach chatbota…
Otóż jedna z moich koleżanek zapytała się chatbota, kim ja jestem, a ja z kolei zapytałam: kim jest moja córka. Odpowiedzi na te pytania bardzo mnie rozbawiły. Za każdym razem chatbot odpowiadał, że jesteśmy autorkami i współautorkami „wielu publikacji naukowych, wśród których znajdują się m.in. artykuły, książki i rozdziały w podręcznikach”. I to była jedyna prawdziwa informacja. Pozostałe były nieprawdziwe. W przypadku mojej córki była informacja o nagrodzie, której ona jeszcze nie dostała. Oznacza to, że nie każdą odpowiedź należy przyjmować bezkrytycznie.
Jeśli mówimy o obecności sztucznej inteligencji, a konkretnie potencjału chatbota w edukacji, warto zdawać sobie sprawę z jawności, szczerości i zaufania w interakcjach społecznych. Sama świadomość wśród uczących się, że nauczyciele wiedzą, jak to działa, ogranicza uleganie pokusie wyręczania się chatbotem w wypełnianiu zadań, w pisaniu prac. A że ułatwia wyszukiwanie informacji, to naprawdę duża pomoc w wielu sytuacjach.
Na przykład, kiedy stawiam pytanie po angielsku i dostaję odpowiedzi po angielsku, w świetle mojej wiedzy jest to poprawna angielszczyzna z zachowaniem zasad gramatyki i ortografii. Nie muszę już korzystać z pomocy translatorów. Minusem natomiast przy korzystaniu z chatbota jest zagrożenie zwolnienia naszego mózgu węglowego z wykonania wielu dodatkowych operacji tak ważnych dla umysłu i ciała. Pojawia się więc nowy mind-body problem.
Jak widać, inteligencja, zarówno jako kondycja umysłu jak i jako grupa społeczna ma wciąż wiele do zrobienia. Wciąż ważne jest kształtowanie i doskonalenie kompetencji, nie wiem, dlaczego powszechnie nazywanych kompetencjami przyszłości, takich jak: krytyczne myślenie, umiejętność współpracy, racjonalna komunikacja, aktualizowanie metod uczenia się oraz generowania pomysłów i rozwiazywania problemów w sposób twórczy. To są sprawności mózgu węglowego konieczne tu i teraz. One chronią nas przed zniewoleniem i kolonizowaniem naszego świata życia przez „nowych” jego „mieszkańców”. Wchodźmy z nimi w interakcje, ale strzeżmy granice naszej wolności.