W kontekście naszych rozważań o etyce i AI dochodzimy do pytania: czy zdolności maszyn są w stanie przekroczyć zdolności ludzkie?

Jeżeli zapytasz model językowy o zasady etyki czy moralności, uzyskasz bardzo szczegółową odpowiedź, która prawdopodobnie doprowadzi Cię do wniosku, że model posiada znaczną wiedzę w tej dziedzinie. Jednakże po głębszej dyskusji zdecydowanie stwierdzisz, że pomimo znaczącej wiedzy AI nie potrafi stosować tych zasad w konkretnej sytuacji.

Mając na względzie wcześniejsze spostrzeżenie, że jest to dla maszyny wyłącznie ciąg znaków wygenerowany na podstawie modeli, według których te znaki powiązała, nie jest zasadne pytać LLM o kwestie dotyczące etyki, moralności czy religii. Należy mieć bowiem świadomość, że maszyna nie posiada żadnej moralności, żadnego światopoglądu ani żadnego doświadczenia w stosowaniu zasad etycznych.

AI posiada wiedzę o etyce i moralności, ale czy potrafi ją zastosować?

Posiadanie wiedzy (AI posiada jakąś część wyuczonej wiedzy) do jej stosowania ma się tak, jak religioznawstwo do religijności, relacje służbowe do przyjaźni, wiedza o świecie do ciekawości poznawczej, oczekiwanie na konkretną godzinę do tęsknoty czy w końcu zdjęcie osoby do miłości do drugiego człowieka. Przenosząc tę analogię na grunt szkolny, to tak, jakby wystawić nauczycielowi ocenę pracy na papierze a zachwycać się jego osiągnięciami przed zgromadzonym audytorium pedagogicznym.

Ludzie często podejmują decyzje intuicyjnie, na podstawie swoich upodobań, które nie muszą być ani racjonalne, ani pragmatyczne, i w oparciu o pamięć sensoryczną.

Znamy takie przykłady z własnego życia. Coraz częściej więc w kontekście projektowania narzędzi czy modeli AI mówi się o tzw. teorii ucieleśnionego poznaniaIndeks górny Indeks górny [22] Indeks górny koniec. Przykładem może być nasze emocjonalne nastawienie do melodii, którą śpiewał nam rodzic, gdy w pokoju unosił się zapach lawendy. Gdy po kilkudziesięciu latach słyszymy podobną melodię, intuicyjnie ją lubimy, choć do końca nie wiemy, dlaczego i nie potrafimy tego racjonalnie wytłumaczyć. Tymczasem modele sztucznej inteligencji nie są w stanie analizować danych związanych ze źródłem uczuciowości ani intuicyjnie i empatycznie odnieść się do wrażliwości drugiego człowieka tak samo jak inny człowiek, który potrafi współczuć przez wzgląd na swoje własne ucieleśnione wspomnienia.

Jeżeli AI nie posiada wiedzy, to ją „wymyśli”

Inną kwestią jest to, że model sztucznej inteligencji, jeżeli nie zna odpowiedzi na zadane pytanie, zaczyna wymyślać rzeczywistość. Zjawisko to nazywane jest „halucynowaniem”. Na domiar złego, gdy złapiemy go na tym „kłamstwie”, uprzejmie przeprosi, po czym… uraczy nas kolejnym „kłamstwem”. Przykład takiego postępowania zaprezentowano w broszurze Chat GPT w szkole. Szanse i zagrożenia.

A skoro już wspomnieliśmy o poprzedniej publikacji, to pora wskazać, co zmieniło się w dziedzinie sztucznej inteligencji od czasu publikacji Chat GPT w szkole. Szanse i zagrożenia. Powiemy o tym w następnym rozdziale.