4.2. Zagrożenia przy wdrażaniu rozwiązań AI w edukacji
Musimy pamiętać, że współczesne technologie, w tym sztuczna inteligencja (AI), zyskują na znaczeniu w edukacji, oferując nowe możliwości personalizacji nauki oraz oceny i wsparcia uczniów, jednak zastosowanie AI w szkole wiąże się także z pewnymi niebezpieczeństwami. Poniżej przedstawiamy główne zagrożenia, które powinny być brane pod uwagę przy wdrażaniu takich rozwiązań w środowisku edukacyjnym.
Zagrożenia zostały podzielone na następujące kategorie: ochrona danych, uczeń a AI, zdrowie fizyczne i psychiczne, nauczyciel a AI, etyka i transparentność w korzystaniu z AI, dostępność technologii.
Ochrona danych
W szkołach przechowywane są różnorodne dane, które obowiązek ochrony wynika z przepisów prawa lub standardów etycznych. Orzeczenia o potrzebie kształcenia specjalnego czy protokoły rad pedagogicznych zawierają informacje, które mogą wpłynąć na życie uczniów i ich rodzin, jeśli zostaną ujawnione. Jeżeli systemy oparte na AI nie są odpowiednio zabezpieczone, mogą stanowić łakomy kąsek dla cyberprzestępców. Nawet jeśli nie dojdzie do włamania, samo ryzyko ujawnienia takich informacji może powodować obawy rodziców i nauczycieli, dlatego w przypadku korzystania z ogólnodostępnych rozwiązań, takich jak ChatGPT czy Bard, nie powinno się w rozmowie z AI przekazywać żadnych danych osobowych ani danych objętych tajemnicą rady pedagogicznej.
W celu przetwarzania takich danych szkoła powinna zadbać o zamknięte i w pełni przez siebie kontrolowane środowisko dla danego modelu językowego (np. wstępnie wytrenowany model na lokalnym serwerze, „karmiony” danymi z zamkniętego środowiska edukacyjnego, dostępny tylko dla osób uprawnionych). Jednak nawet wtedy istnieje ryzyko wycieku danych, dlatego należy właściwie zabezpieczyć system przed dostępem osób nieupoważnionych.
Uczeń a AI
W dobie rewolucji związanej z upowszechnieniem narzędzi sztucznej inteligencji coraz częściej rodzi się obawa, że uczniowie mogą być zbyt zależni od technologii, przez co stracą zdolność do samodzielnego myślenia i rozwiązywania problemów. W związku z tym celem instytucji publicznych, w tym szkół i nauczycieli, jest zapewnienie takiego zrozumienia materii w środowisku szkolnym, aby sztuczna inteligencja była traktowana jako narzędzie wspierające, a nie zastępujące tradycyjne metody nauczania.
Dla przykładu uczniowie mogą:
● polegać na narzędziach do tłumaczenia zamiast uczyć się nowych języków;
● korzystać z narzędzi AI, które umożliwiają rozwiązywanie skomplikowanych równań i zadań otwartych, zamiast rozwijać własne umiejętności matematyczne;
● poprosić AI o wygenerowanie wypracowania na danych temat, a nawet „nauczyć się” stylu pisania bota, by jeszcze bardziej uśpić czujność nauczyciela – to powoduje, że uczniowie tracą możliwość zdobycia umiejętności sprawnego pisania, argumentowania, jasnego wyrażania myśli.
Należy pamiętać, że nadmierne poleganie na technologii może hamować rozwój krytycznego myślenia i innych kluczowych umiejętności. Poza tym uczniowie mogą stać się zbyt zależni od narzędzi AI i stracić zdolność do wykonywania zadań bez wsparcia technologicznego. Współczesny system edukacji powinien przygotowywać uczniów do funkcjonowania w świecie, w którym technologia jest wszechobecna, ale też uczyć ich samodzielności i umiejętności radzenia sobie bez niej.
Trzeba mieć również na uwadze, że bezkrytyczne i niekontrolowane korzystanie przez uczniów z narzędzi AI może prowadzić do ograniczenia ich kreatywności. Systemy oparte na AI, które generują wyczerpujące odpowiedzi, mogą nie zachęcać uczniów do wykraczania poza schematy myślowe czy do testowania różnych rozwiązań. Nadużywanie takich narzędzi minimalizuje więc przestrzeń eksploracji uczniów. W ten sposób zmarginalizowane zostaje również twórcze myślenie i podejmowanie ryzyka w procesie nauczania. Jeśli zaś AI zbytnio upraszcza rozwiązywanie problemów lub podaje gotowe odpowiedzi, uczniowie mogą stracić szansę rozwijania kreatywności i analitycznego myślenia, a te dwie kompetencje są w dzisiejszym świecie bardzo istotneIndeks górny Indeks górny [28][28] Indeks górny koniecIndeks górny [28][28].
Toczy się obecnie wiele dyskusji na temat błędu w procesie edukacyjnym i doniosłości praktycznej, która temu towarzyszy. Musimy zatem pamiętać, że jeżeli narzędzia AI natychmiast korygują błędy uczniów, ci mogą nie poznać wartości popełniania błędów jako części procesu nauki. Błędy są naturalną częścią tego procesu i pomagają uczniom zrozumieć, co robią źle. Jeżeli AI interweniuje zbyt szybko, uczniowie mogą nie mieć okazji do refleksji nad własnymi błędamiIndeks górny Indeks górny [29][29] Indeks górny koniecIndeks górny [29][29].
W obecnych czasach, w epoce postępu sztucznej inteligencji, szczególne znaczenie przypisuje się umiejętności krytycznego myślenia. Pozwala ona na odróżnienie informacji rzetelnych od iluzji generowanych przez sztuczną inteligencję, a także – w sytuacjach bardziej niebezpiecznych – od informacji fałszywych, zmanipulowanych.
Korzystanie z narzędzi umożliwiających tworzenie treści powinno być połączone z odpowiedzialnością wynikającą z ich używania.
Powszechny dostęp do rozwiązań opartych na sztucznej inteligencji może prowadzić do zaniku krytycznego myślenia i samodzielnego wnioskowania wśród uczniów, którzy za bardzo polegają na tych technologiach. Wspieranie się technologią w procesie nauczania jest istotne, jednakże uczniowie powinni być świadomi konieczności rozwijania umiejętności samodzielnej oceny otaczającej ich rzeczywistości, zwłaszcza że nie wszystkie treści generowane przez AI odzwierciedlają stan faktyczny, przez co zarówno uczniowie, jak i nauczyciele są narażeni na dezinformację, która może wpłynąć na ich poglądy czy decyzje.
Innym istotnym zagrożeniem, które niesie za sobą sztuczna inteligencja, jest rezygnacja z relacji międzyludzkich. Uczeń, który korzysta z osobistego asystenta AI w czasie nauki, może przestać rozwijać umiejętność komunikacji interpersonalnej, koncentrując się wyłącznie na interakcji z maszyną. Sztuczna inteligencja może być wartościowym narzędziem wsparcia, ale nie zastąpi autentycznych relacji międzyludzkich, które są kluczowe dla emocjonalnego i społecznego rozwoju człowieka. Nadmierne wykorzystanie technologii może izolować uczniów ani utrudniać nabywania przez nich istotnych umiejętności społecznych.
Zdrowie fizyczne i psychiczne
Istnieje ryzyko, że powszechny dostęp do technologii opartych na sztucznej inteligencji skutkować będzie zwiększonym czasem spędzonym przed ekranem komputera lub smartfona. Osobami szczególnie narażonymi na negatywne skutki tego zjawiska są dzieci. Aby przeciwdziałać jego konsekwencjom, szkoły powinny zadbać o balans między wykorzystaniem technologii a aktywnością fizyczną uczniów.
Warto pamiętać, że brak odpowiednich środków ostrożności w stosowaniu technologii w życiu uczniów może prowadzić do nasilenia uczucia izolacji, wystąpienia lęku czy depresji. W momencie, gdy szkoły zaczną powszechnie korzystać ze sztucznej inteligencji, zauważalny będzie wzrost tempa pracy i produktywności. Jednakże nie wszyscy dostosują się łatwo do tych zmian. Nauczyciele będą w stanie efektywniej śledzić postępy uczniów i monitorować ich pracę, co może wywierać nadmierną presję na uczniów, zobowiązując ich do ciągłego osiągania lepszych wyników.
Należy zawsze uwzględniać czynnik ludzki. Mimo że nauczyciele potrafią identyfikować emocjonalne potrzeby uczniów i dostosowywać się do nich, systemy sztucznej inteligencji mogą nie być w stanie rozpoznać czy zrozumieć ludzkich uczuć i zachowań. W przypadku wykrycia podejrzanych sygnałów w zachowaniu dzieci i młodzieży to nauczyciele powinni reagować. Tylko nauczyciel jest bowiem w stanie zauważyć różne subtelności i rozpoznać istotne zmiany w nastroju ucznia.
Nauczyciel a AI
Nauczyciele zastanawiają się, czy używać sztucznej inteligencji, czy stanowi ona dla nich szansę, czy raczej zagrożenie dla ich pracy, a także czy AI może zwiększyć dystans między nimi a uczniami. Z jednej strony technologia sztucznej inteligencji może zrewolucjonizować i ulepszyć proces edukacyjny oraz stać się pożytecznym narzędziem pracy, z drugiej zaś jej nieumiejętne wykorzystanie może doprowadzić do sytuacji konfliktowych oraz etycznie wątpliwych. I to właśnie przed nauczycielami stoi trudne zadanie pokazania uczniom, jak korzystać ze sztucznej inteligencji w sposób odpowiedzialny i etyczny. Poniżej zostaną wymienione szczególne trudności, których doświadczają i mogą doświadczać nauczyciele.
Konieczne jest zajęcie się kwestiami etycznymi związanymi z wykorzystywaniem technologii sztucznej inteligencji. Choć algorytmy sztucznej inteligencji mają potencjał do bycia obiektywnymi i sprawiedliwymi, to istnieje ryzyko programowania ich w sposób, który skutkować będzie nieobiektywną oceną lub nawet dyskryminacją danego ucznia. To zjawisko mogłoby rodzić poważne dylematy moralne i etyczne. Należy pamiętać, że technologie sztucznej inteligencji uczą się na podstawie danych, na których są szkolone. Jeśli dane te zawierają uprzedzenia, także one mogą zostać przejęte i utrwalone przez system sztucznej inteligencji.
Co więcej, technologie sztucznej inteligencji nie posiadają zdolności rozumienia ludzkiego pojmowania rzeczywistości. Nie wiedzą, z czym wiążą się indywidualne trudności ucznia, w tym na przykład walka ze wstydem czy z lękiem przed porażką. Brak zrozumienia tych okoliczności może prowadzić do nieadekwatnej oceny sytuacji i braku odpowiedniego wsparcia w obszarach, które są kluczowe dla dalszego rozwoju ucznia.
Wprowadzenie sztucznej inteligencji do systemu edukacji niesie za sobą także ryzyko nadmiernej standaryzacji. Kiedy algorytmy decydują o tym, które treści są najbardziej odpowiednie dla uczniów, istnieje realne niebezpieczeństwo, że indywidualność w procesie uczenia zostanie zepchnięta na drugi plan. Z ostrożnością należy więc podchodzić do narzędzi, które umożliwiają automatyczną ocenę pracy uczniów. Ich bezrefleksyjne używanie skutkować może bowiem nadmiernym skupieniem uwagi na konkretnych wytycznych, kryteriach i nie uwzględniać głębszego, odmiennego rozumienia tematu przez ucznia. Automatyczne spojrzenie może oceniać jedynie powierzchowne aspekty pracy, nie zaś niuanse opracowania czy przejawy kreatywnego podejścia ucznia do zadania. Niepożądana byłaby sytuacja, w której uczniowie, zamiast w pełni zrozumieć i przyswoić materiał, zaczęliby dostosowywać się do algorytmu, żeby tylko osiągnąć jak najwyższy wynik.
Obawy o przyszłość edukacji budzi także ewentualna utrata autonomii decyzyjnej nauczycieli, która może wynikać z rosnącej roli narzędzi sztucznej inteligencji. Wspomaganie nauczania przez sztuczną inteligencję może powodować, że decyzje dotyczące oceny, personalizacji materiałów czy nawet planowania lekcji będą coraz bardziej narzucane przez algorytm. Tymczasem sztuczna inteligencja powinna przede wszystkim wspierać nauczycieli, umożliwiając im dostosowanie narzędzi do indywidualnych potrzeb uczniów, a nie pozbawiać ich możliwości podejmowania kluczowych decyzji pedagogicznych.
W kontekście sztucznej inteligencji pojawia się również pytanie o autorytet nauczyciela i możliwość jego zakwestionowania. Niewątpliwie istotne jest, aby w miarę wspomagania procesów edukacyjnych przez technologie AI podkreślać, że to nauczyciele posiadają unikalne umiejętności, które trudno jest zastąpić algorytmami. Ich zdolność do odkrywania potencjału ucznia, do inspirowania do nauki, dostosowywania się do indywidualnych potrzeb uczniów oraz kreatywnego i abstrakcyjnego myślenia jest niezastąpiona. Nie wolno zapominać także, że to z nauczycielem, a nie z narzędziem sztucznej inteligencji, uczeń może budować relację, która będzie wspomagała uczenie się. Zbyt częste wykorzystywanie technologii w edukacji może skutkować rozluźnieniem więzi społecznych i spadkiem interakcji uczniów zarówno z nauczycielami, jak i rówieśnikami. W rezultacie nieumiejętne i nadmierne korzystanie z technologii AI powoduje wzrost poczucia samotności uczniów, ich izolację czy właśnie pogorszenie się relacji międzyludzkich, które są filarem zdrowia psychicznego.
Ważnym aspektem jest także kwestia prywatności i ochrony danych osobowych. Gdy uczniowie lub nauczyciele korzystają z technologii AI, ich rozmowy i dane osobowe mogą być przechowywane i analizowane przez dostawcę narzędzia, co stanowi zagrożenie dla ich prywatności. W przypadku publicznych narzędzi sztucznej inteligencji to nauczyciele powinni zachować szczególną ostrożność i powstrzymać się od wprowadzania lub ujawniania poufnych informacji o sobie lub uczniach, w tym między innymi prywatnej korespondencji, danych osobowych, wyników w nauce, informacji finansowej czy też danych objętych tajemnicą medyczną.
Uwagę należy poświęcić także problemowi niedostatecznego przeszkolenia nauczycieli w zakresie efektywnej pracy z narzędziami sztucznej inteligencji. W kontekście dynamicznie zmieniającego się świata technologii istnieje pilna potrzeba zorganizowania szkoleń,w czasie których edukatorzy uzyskają nie tylko podstawową wiedzę na temat AI, ale i poznają praktyczne aspekty łączenia tych narzędzi z procesem nauczania. Jest to konieczne, aby nauczyciele mogli być przewodnikami dla uczniów, realnym wsparciem w scyfryzowanym świecie, w którym coraz większą rolę odgrywać będą technologie sztucznej inteligencji.
Etyka i transparentność w korzystaniu z AI
Wszechobecny dostęp do narzędzi sztucznej inteligencji może przyczynić się do nieograniczonego korzystania z ich możliwości, co oznacza zarówno szanse, jak i zagrożenia. Istnieje duże zagrożenie, że treści wygenerowane przez AI zostaną potraktowane jako w pełni wytworzone przez człowieka. Bardzo ważne jest więc, aby oznaczać fragmenty przygotowane przez sztuczną inteligencję oraz opisywać jej udział w tworzeniu materiałów autorskich.
W związku z powyższym każdy użytkownik narzędzi sztucznej inteligencji musi mieć świadomość konieczności przestrzegania standardów etycznych i wpajania ich dzieciom od najmłodszych lat. Pytanie jednak brzmi: czy taki proces jest w ogóle możliwy? Tak. I warto go rozpocząć od redefinicji prac domowych. Wraz z rozwojem narzędzi AI rośnie ryzyko, że uczeń obciążony zbyt dużą liczbą wypracowań oraz zadań matematycznych wykorzysta sztuczną inteligencję do wykonania pracy domowej. To zaś wymusi zmianę prowadzenia lekcji w szkołach, a z czasem również rewizję podstawy programowej. Nie da się bowiem w sposób efektywny i transparentny kontrolować potencjalnych nadużyć ani związanej z nimi pokusy. Praca domowa ulegnie radykalnej zmianie i będzie musiała mieć charakter bardziej praktyczny: skupiać się na realizacji projektów i interakcji z rówieśnikami.
Dostępność technologii
Koszty i dostępność
Różnice w dostępie do odpłatnych technologii wykorzystujących AI mogą prowadzić do powstania nierówności edukacyjnych. Taka dysproporcja stwarza zagrożenie szczególnie dla uczniów mniej zamożnych, których nie stać na korzystanie z odpłatnej wersji AI, zawierającej najaktualniejsze dane. Może to skutkować zmniejszeniem szans mniej zamożnych uczniów na szybszy rozwój.
Zależność od dostawców technologii
Uzależnienie od jednego dostawcy AI może prowadzić do ujednolicenia wybranych technologii oraz ograniczonego wprowadzania innowacyjnych rozwiązań w przyszłości. Może też skutkować brakiem elastyczności w dostosowywaniu narzędzia do zmieniających się potrzeb edukacyjnych. W przypadku wystąpienia problemów technicznych lub nagłej zmiany warunków użytkowania szkoły mogą mieć trudności w utrzymaniu ciągłości nauczania. W obliczu dynamicznie rozwijającej się technologii kluczem do efektywnego wykorzystania sztucznej inteligencji w procesie edukacji jest zatem dywersyfikacja rozwiązań oraz wykorzystywanych technologii i sprzętu.
Należy także mieć świadomość, że technologia sama w sobie nie jest ani dobra, ani zła, jej wartość uzależniona jest bowiem od sposobu jej używania, dlatego istotne jest, aby proces wdrażania AI w środowisku edukacyjnym był przemyślany i poparty solidnymi badaniami, uwzględniającymi zarówno potencjalne korzyści, jak i zagrożenia wynikające z jej używania. Wymaga to jednak współpracy między Ministerstwem Edukacji i Nauki, firmami z branży EdTech, nauczycielami, rodzicami i uczniami. Musimy mieć bowiem pewność, że technologia służy prawdziwym potrzebom uczniów. Im bardziej świadomie będziemy kształtować polskie środowisko edukacyjne w erze cyfrowej, tym większą zyskamy pewność, że w przyszłości sztuczna inteligencja będzie pracować ramię w ramię z człowiekiem, a co za tym idzie – także wesprze i urozmaici proces nauczania.
Podsumowanie
Przygotowując podsumowanie, posłużyliśmy się modelem językowym ChatGPT‑4, aby pokazać praktyczne zastosowanie narzędzia. Sądzimy, że jest to ciekawe przedstawienie jednego z wielu sposobów wykorzystywania modeli językowych opisywanych w tej broszurze.
Dostarczyliśmy botowi jako prompt broszurę w formacie .pdf i wydaliśmy mu polecenie:
„Napisz podsumowanie załączonej broszury edukacyjnej dla nauczycieli w Polsce, koncentrującej się na wykorzystaniu sztucznej inteligencji w edukacji. Tekst powinien mieć długość od pół do jednej strony A4 i stanowić ostatni podrozdział broszury, skutecznie podsumowując wszystkie zawarte w niej tematy. Należy uwzględnić krótką refleksję na temat poruszanych zagadnień. Tekst powinien być napisany po polsku, z zachowaniem właściwej struktury i stylu, odpowiedniego dla edukacyjnego materiału informacyjnego, mając na uwadze jego publikację na końcu broszury”.
Oto tekst, który został wygenerowany przez LLM:
„Niniejsza broszura edukacyjna, zatytułowana Do czego AI nie służy, jest skierowana do nauczycieli i nauczycielek polskich szkół. Jest to kontynuacja publikacji Chat GPT w szkole. Szanse i zagrożenia i skupia się na kreatywności generatywnej sztucznej inteligencji (Gen AI), etyce i moralności w kontekście AI, wykorzystaniu modeli językowych, a także wskazuje sytuacje, w których korzystanie AI w szkole może być niepożądane.
Publikacja rozważa kreatywność modeli językowych, ich zdolności do generowania nowych treści i potencjalnych zastosowań w edukacji. Porusza również kwestię etyki i moralności w pracy z dużymi modelami językowymi, prezentując wskazówki i przestrogi dla nauczycieli. Wskazane są również przykłady działań niepożądanych w pracy z modelami językowymi w szkole.
Niektóre z zagadnień, które nie powinny być podejmowane z użyciem modeli językowych, to leczenie i diagnoza, naukowe lub akademickie badania, porady prawne, tłumaczenia wymagające dużej dokładności, przetwarzanie poufnych informacji, krytyczne decyzje życiowe, sytuacje wymagające zrozumienia emocji, kwestie etyczne i moralne, sytuacje awaryjne, oraz dane personalne.
Znaczenie AI w edukacji wzrasta, a nauczyciele muszą być przygotowani do korzystania z narzędzi AI w etyczny i odpowiedzialny sposób. Etyka odgrywa kluczową rolę w podejmowaniu decyzji moralnych i rozwijaniu zasad współżycia społecznego, co jest istotne przy projektowaniu i wykorzystywaniu technologii AI w edukacji.
Podsumowując, ta broszura to przewodnik dla nauczycieli, który pomaga zrozumieć, jak korzystać z AI w sposób odpowiedzialny i etyczny, zwracając uwagę na ograniczenia i potencjalne zagrożenia związane z jej wykorzystaniem w edukacji. Cel to wspieranie nauczycieli w przygotowaniu uczniów do życia w świecie, gdzie AI odgrywa coraz większą rolę, jednocześnie zachowując świadomość odpowiedzialności i etycznych aspektów korzystania z tych narzędzi”.
Do kogo należy, będący odpowiedzią na prompt, powyższy fragment, który został wygenerowany przez model językowy? O tym już w następnej publikacji.