Prof. Andrzej Zybertowicz, socjolog zajmujący się problemami współczesności, doradca prezydentów RP Lecha Kaczyńskiego i Andrzeja Dudy, w książce „AI – Eksploracja” podkreśla, że źródłem zagrożeń nie jest sama sztuczna inteligencja, lecz sposób, w jaki z niej korzystamy. AI – a tak naprawdę tzw. duże modele językowe (LLM) – to narzędzie; może wspierać proces uczenia się lub go spłycać.
Jeśli uczeń traktuje je wyłącznie jako maszynę do „kopiuj–wklej”, pomija etap samodzielnego myślenia, analizowania i weryfikowania informacji. To tak, jakby uczyć się jazdy na rowerze, siedząc na fotelu pasażera: można podziwiać widoki, ale umiejętności jazdy się nie zdobędzie.
Od lenistwa do refleksji
W edukacji szczególnie groźne jest zastępowanie pracy intelektualnej gotowymi odpowiedziami. Krytyczne myślenie i umiejętność argumentowania kształtują się wtedy, gdy uczeń samodzielnie formułuje myśli, dobiera argumenty, analizuje źródła. AI może w tym pomóc, ale tylko jeśli używamy jej w trybie „asystenta”, a nie „dostawcy gotowych rozwiązań”.
Przykładem może być sytuacja, gdy uczeń dostaje zadanie napisania wypracowania o przyczynach I wojny światowej. Wpisuje temat w ChatGPT, kopiuje wygenerowany tekst i oddaje nauczycielowi. Ocena pisemnej pracy? Poprawna. Jednak na lekcji, kiedy zostaje poproszony o ustne wyjaśnienie kluczowych przyczyn konfliktu, gubi się. Nie potrafi wskazać różnic między przyczynami bezpośrednimi a pośrednimi, nie pamięta nazwisk czy dat. Dlaczego? Bo nie przeszedł procesu selekcji informacji, łączenia faktów i formułowania własnych wniosków.
Takie sytuacje pokazują, że praca z AI wymaga świadomej strategii. Zamiast prosić o „gotowy tekst”, lepiej użyć AI do stworzenia listy zagadnień do sprawdzenia, wyszukania źródeł czy wygenerowania pytań sprawdzających wiedzę. W ten sposób uczeń nie tylko poznaje temat, lecz także trenuje analizę, interpretację i argumentację.
Kluczowa zmiana to przejście od biernego odbioru treści do aktywnej refleksji. AI nie jest po to, by wyręczać, lecz by inspirować i prowokować do myślenia.
AI jako tutor – nauka na miarę ucznia
Sztuczna inteligencja może pełnić funkcję spersonalizowanego nauczyciela, który dostosowuje materiał do tempa i stylu uczenia się konkretnego ucznia. Wyobraźmy sobie taką sytuację: uczeń przygotowuje się do matury z biologii. W aplikacji AI wybiera temat „układ krążenia” i ustawia, by co dwa dni otrzymywać kwizy. Po każdym błędzie system wyjaśnia poprawną odpowiedź, podaje źródło i proponuje kolejne ćwiczenie. Dzięki temu nauka staje się procesem powtarzalnym i kontrolowanym, a nie chaotycznym zbiorem notatek.
Moc AI może jednak obrócić się przeciwko uczniowi, jeśli narzędzie zacznie wyręczać zamiast wspierać. Eksperymenty pokazały, że osoby całkowicie polegające na AI uzyskiwały wyniki gorsze nawet o 25 proc. w porównaniu z tymi, którzy zachowali aktywną rolę w procesie uczenia się. Co ciekawe, uczniowie wykorzystujący AI jedynie do porządkowania własnych notatek czy tworzenia streszczeń osiągali lepsze efekty, bo utrzymywali kontrolę nad treścią i musieli samodzielnie ją analizować.
AI może przyjmować różne role w edukacji – od tutora przez coacha i mentora po partnera w dyskusji, narzędzie czy symulator. Może być nawet „uczniem”, któremu my coś tłumaczymy. Niezależnie od formy kluczowe jest zachowanie zasady „człowiek w pętli”: to nauczyciel lub uczeń decyduje, jakie pytania zadać, jak zweryfikować odpowiedzi i w jaki sposób wykorzystać uzyskane informacje. Dla przykładu: nauczyciel języka polskiego prosi AI o odegranie roli „ucznia”, który źle zrozumiał treść „Lalki” Prusa. Klasa ma wytłumaczyć „uczniowi AI” sens powieści, odnosząc się do argumentów i przykładów z tekstu. Takie ćwiczenie nie tylko utrwala wiedzę, ale też rozwija umiejętność krytycznej analizy i pracy zespołowej.
Obawy nauczycieli i rodziców
Wprowadzenie sztucznej inteligencji do edukacji wywołuje wiele pytań i wątpliwości, szczególnie wśród nauczycieli i rodziców. Z raportu NASK Polska (Naukowej i Akademickiej Sieci Komputerowej – Państwowego Instytutu Badawczego) wynika, że aż 81 proc. nauczycieli obawia się, iż uczniowie mogą uzależnić się od korzystania z AI.
Obawy te nie wynikają jedynie z braku zaufania do nowych technologii, lecz z realnego ryzyka, że nadmierne poleganie na wirtualnych asystentach ograniczy samodzielność uczniów. Pedagodzy zwracają uwagę, że zbyt częste korzystanie z AI może prowadzić do spadku motywacji do własnego wysiłku, a także osłabienia umiejętności rozwiązywania problemów bez pomocy algorytmów.
Inny istotny niepokój dotyczy relacji społecznych. Szkoła to nie tylko miejsce zdobywania wiedzy, lecz także przestrzeń budowania więzi z rówieśnikami i rozwijania kompetencji komunikacyjnych. Jeśli uczniowie zaczną coraz częściej zwracać się do AI po odpowiedzi, a nie do kolegów, koleżanek czy nauczycieli, może dojść do stopniowego zaniku interakcji międzyludzkich w procesie uczenia się. W efekcie nauka stanie się bardziej indywidualnym, odizolowanym doświadczeniem, pozbawionym wartościowej wymiany myśli i wspólnego dochodzenia do rozwiązań.
Rodzice i nauczyciele sygnalizują również problem jakości treści generowanych przez AI w języku polskim, a tym bardziej w języku litewskim. Narzędzia sztucznej inteligencji wciąż działają lepiej w języku angielskim, co może powodować błędy merytoryczne, niedokładne tłumaczenia lub uproszczone sformułowania. Uczniowie, którzy bezrefleksyjnie przyjmują takie odpowiedzi, ryzykują przyswojenie nieprecyzyjnej lub niepełnej wiedzy.
Dlatego coraz częściej podkreśla się potrzebę wprowadzenia w szkołach jasnych zasad korzystania z AI. Regulaminy powinny określać, w jakich sytuacjach technologia może być używana, a kiedy warto postawić na tradycyjne metody pracy. Ważne jest także, aby zarówno rodzice, jak i nauczyciele byli zgodni co do tych zasad i potrafili wspólnie egzekwować ich przestrzeganie. Takie podejście pozwoli połączyć korzyści płynące z nowych narzędzi z ochroną kluczowych wartości edukacji – samodzielnego myślenia, rzetelności, współpracy i odpowiedzialności.
Sztuczna inteligencja może być genialnym wsparciem w nauce – ale tylko wtedy, gdy pozostajemy aktywnymi uczestnikami procesu. Największą wartością nie jest to, że AI zna odpowiedź, lecz to, że potrafimy tę odpowiedź zrozumieć, zakwestionować i twórczo wykorzystać.
Jeśli chcemy wychować pokolenie myślących i samodzielnych ludzi, musimy przejść od lenistwa do refleksji. AI nie zastąpi nam pracy umysłowej, ale może ją uczynić mądrzejszą.
Artykuł opublikowany w wydaniu magazynowym dziennika „Kurier Wileński” Nr 36 (101) 06-12/09/2025