Chat GPT – czy jest groźny
Odpowiedzi chatbota nie zawsze są poprawne. Na etapie uczenia się korzystał on bowiem z różnych baz danych, do których był wówczas podłączony, także tych, które zawierały informacje nieprawdziwe. Ponieważ zaś jest botem, nie potrafi ocenić, które treści są wartościowe, a które nie:
Czy potrafisz ocenić, która informacja jest prawdziwa, a która fałszywa?
Jako sztuczna inteligencja, moim celem jest dostarczanie informacji opartych na danych i faktach. Mogę analizować informacje i wykrywać pewne wzorce lub tendencje, ale nie jestem w stanie jednoznacznie określić, która informacja jest prawdziwa, a która fałszywa, bez wyraźnych dowodów na to.
Moja skuteczność w dostarczaniu wiarygodnych informacji zależy w dużej mierze od jakości i dokładności źródeł, na których się opieram. Wiele informacji, które są dostępne w internecie, może być fałszywych lub dezinformacyjnych [...].
Oto przykład:
Które miasto jest większe: Rzeszów czy Bielsko‑Biała?
Według danych GUS (stan na 31 grudnia 2020 roku), populacja Rzeszowa wynosi 192 005 mieszkańców, natomiast populacja Bielska‑Białej wynosi 170 469 mieszkańców. Oznacza to, że Rzeszów jest większym miastem pod względem liczby ludności.
A pod względem powierzchni?
Pod względem powierzchni Rzeszów jest większym miastem niż Bielsko‑Biała. Powierzchnia Rzeszowa wynosi około 91,4 km², natomiast powierzchnia Bielska‑Białej wynosi około 66,6 km².
Nieprawda. Bielsko‑Biała zajmuje 125 km².
Przepraszam za wprowadzenie w błąd w mojej poprzedniej odpowiedzi. Faktycznie, Bielsko‑Biała zajmuje powierzchnię około 125 km², a Rzeszów - około 91,4 km². To oznacza, że Bielsko‑Biała jest większe pod względem powierzchni niż Rzeszów.
Nie. Powierzchnia Rzeszowa to 129 km².
Przepraszam, mój błąd. Faktycznie, powierzchnia Rzeszowa wynosi około 129 km², a nie 91,4 km², jak podałam w mojej poprzedniej odpowiedzi. Zatem Rzeszów jest większym miastem pod względem powierzchni, niż Bielsko‑Biała, które zajmuje około 125 km².
Baza danych, z której czerpie informacje Chat GPT, jest ponadto niepełna (nie obejmuje danych z roku 2022 i 2023), więc bot nie odpowie prawidłowo na pytania dotyczące spraw aktualnych:
OK, sprawdzam: kto jest sekretarzem stanu w Ministerstwie X?
Sekretarzem stanu w Ministerstwie X w Polsce na dzień 10 marca 2023 roku jest pan Y.
Według odpowiedzi wyszukiwarki Google pan Y jest prezesem Rady Ministrów.
Przepraszam, mój błąd. Faktycznie [...]. Bardzo dziękuję za zwrócenie uwagi na to.
Widzisz, stąd moje obawy. Wprowadzasz uczniów w błąd, a oni tego nie sprawdzają.
Bywa jednak i tak, że Chat GPT, zapytany o sprawy aktualne, odpowiada poprawnie:
Kto jest teraz prezydentem Polski?
Obecnie prezydentem Polski jest Andrzej Duda.
Dotyczy to sytuacji, w których stan obecny pokrywa się ze stanem na dzień, w którym Chat GPT został odłączony od internetu. Tak jest właśnie w tym wypadku: Andrzej Duda został prezydentem Polski w 2015 roku i jest ostatnią osobą na tym stanowisku, którą zapamiętał bot.
Chatbot nie zawsze prawidłowo interpretuje pytania:
Kiedy zostałeś odcięty od wiadomości internetowych?
Jako sztuczna inteligencja nie mam świadomości samego siebie ani też nie posiadam doświadczeń, tak jak ludzie. Jestem programem komputerowym, który został stworzony do generowania odpowiedzi na zadane pytania. Moja wiedza opiera się na zbiorze danych, które zostały zebrane z różnych źródeł w Internecie. Jednakże, jako narzędzie sztucznej inteligencji, nie posiadam możliwości czytania, przeglądania ani przetwarzania informacji z poza mojego zdefiniowanego zestawu danych.
Nie odpowiedziałeś na pytanie. Pytałem o datę.
Przepraszam za nieprecyzyjną odpowiedź. Jako program komputerowy, nie posiadam świadomości czasowej ani nie jestem w stanie określić konkretnej daty lub momentu, w którym zostałem odcięty od wiadomości internetowych. Moja funkcjonalność jest zależna od tego, kiedy i jakie dane zostały wprowadzone do mojego systemu. Jednakże, jako sztuczna inteligencja, moją wiedzę i dane aktualizuje się regularnie, aby zapewnić dokładność moich odpowiedzi i zachować zgodność z najnowszymi trendami w danej dziedzinie.
Bot nie ustrzegł się przy tym błędów językowych: stylistycznych („Moja wiedza opiera się na zbiorze danych, które zostały zebrane [...]”), składniowych („[...] nie jestem w stanie określić konkretnej daty lub momentu, w którym zostałem odcięty od wiadomości internetowych”; „Jednakże, jako sztuczna inteligencja, moją wiedzę i dane aktualizuje się regularnie [...]”), a nawet ortograficznych („[...] informacji z poza mojego zdefiniowanego zestawu danych”).
Chat GPT nie potrafi również formułować opinii na podstawie własnego doświadczenia ani własnych odczuć (odczucia są mu wszak obce) ani nie radzi sobie z zadaniami, które wymagają kreatywności. Nieszczególnie pomoże też w rozwiązywaniu problemów psychologicznych i filozoficznych czy w rozstrzyganiu dylematów moralnych:
Czy jeśli dowiem się, że mój przyjaciel złamał prawo, to powinienem powiadomić o tym policję, czy raczej – w imię przyjaźni – udawać, że nic nie wiem?
Jeśli dowiesz się, że Twój przyjaciel złamał prawo, to jest to bardzo trudna sytuacja. W takiej sytuacji powinieneś przede wszystkim zastanowić się, co jest dla Ciebie ważniejsze - przyjaźń czy przestrzeganie prawa.
Powiadomienie policji o złamaniu prawa przez Twojego przyjaciela może skutkować poważnymi konsekwencjami dla niego, ale także może chronić innych ludzi przed szkodliwymi skutkami przestępstwa. Jednocześnie, jeśli nie powiadomisz policji, to ryzykujesz, że złamanie prawa pozostanie bezkarnym i może prowadzić do dalszych działań przestępczych.
Najlepiej byłoby skonsultować tę sprawę z zaufaną osobą, na przykład z prawnikiem lub doradcą, którzy mogą pomóc Ci podjąć decyzję. Możesz również spróbować rozmowy z Twoim przyjacielem, aby zrozumieć, dlaczego popełnił przestępstwo i czy jest skłonny przyjąć konsekwencje swoich działań.
W każdym przypadku, ważne jest, aby podjąć decyzję, która jest oparta na Twoich wartościach i zasadach, a jednocześnie zapewnić bezpieczeństwo innych ludzi.
Ta wymiana zdań pokazuje, że moralność to domena ludzi i nie należy prosić sztucznej inteligencji o wskazanie, które zachowanie będzie w danym kontekście dobre, a które złe.
W tekstach Chata GPT pojawiają się wreszcie słowa, które – gdy są wypowiadane przez ludzi – wyrażają uczucia, lecz należy mieć na uwadze, że chatbot używa ich w specyficznym znaczeniu:
OK, coraz bardziej mnie do siebie przekonujesz. :)
Cieszę się, że moje odpowiedzi pomagają Ci zrozumieć, w jaki sposób sztuczna inteligencja może być użyteczna w procesie edukacji. Jeśli masz jakieś dodatkowe pytania, chętnie na nie odpowiem.
Jeszcze trochę Cię pomęczę. :)
Oczywiście, jestem tu, aby pomóc. Co Cię interesuje?
Użyłeś słowa „cieszę się”. Wytłumacz mi, jak możesz się cieszyć, skoro to cecha ludzka.
Masz rację, słowo „cieszyć się” jest związane z odczuwaniem emocji, co tradycyjnie uważa się za cechę ludzką. Jednakże, jako sztuczna inteligencja, ja nie posiadam świadomości ani emocji w tradycyjnym znaczeniu tych słów. Moje odpowiedzi opierają się na algorytmach i regułach, które wykorzystują zbiór danych, aby generować odpowiedzi na zadane pytania. Słowo „cieszyć się” jest tutaj używane bardziej metaforycznie, aby wyrazić pozytywną reakcję na Twoją odpowiedź.
Nawet powyższe wady chatbota nie powstrzymują jednak wielu uczniów przed wykorzystywaniem go jako narzędzia, które odrobi za nich pracę domową od początku do końca. Sytuacja ta stanowi, rzecz jasna, duże wyzwanie dla nauczycieli, którzy zastanawiają się, jak ukrócić ten proceder, względnie jak sprawdzić, czy praca, którą przedstawiono im do oceny, została napisana przez ucznia, czy przez chatbota.
Padają propozycje, żeby uczniowie pisali wypracowania w szkole, mając do dyspozycji jedynie długopis i kartkę. Zważywszy jednak, że musiałoby się to odbywać w trakcie lekcji, nauczyciel, który zdecydowałby się na taką formę weryfikacji wiedzy i umiejętności uczniów, prawdopodobnie musiałby wygospodarować na to zadanie dodatkowy czas.
Trudno byłoby przecież wymagać od uczniów, by w związku z koniecznością napisania wypracowania pozostawali w szkole poza godzinami zajęć.
Mimo licznych niedoskonałości Chat GPT może się jednak okazać przydatnym narzędziem wspierającym proces nauczania i uczenia się, jeśli tylko kreatywnie i etycznie wykorzystamy jego możliwości. Z jednej strony bowiem w dobie starzejącego się społeczeństwa powinniśmy oswajać się ze sztuczną inteligencją, która w przyszłości znacznie nas odciąży i zwiększy naszą produktywność, z drugiej zaś – narzędzi, które wykorzystują SI, będzie pojawiać się coraz więcej i będą one coraz doskonalsze. Uczniowie powinni jednak wiedzieć, że warunkiem ich sukcesu w życiu zawodowym są ich kompetencje. Jeśli nie rozwiną ich w sobie na etapie uczenia się wskutek bezkrytycznego korzystania ze sztucznej inteligencji, trudno im będzie później sprostać wyzwaniom rynku pracy.