1.9. Wybrane sytuacje, w których nie należy korzystać z modeli językowych (LLM)
Poniżej przedstawiamy kilka sytuacji, w których zdecydowanie nie należy korzystać z modeli językowych lub podobnych narzędzi opartych na sztucznej inteligencji:
Leczenie i diagnoza. LLM nigdy nie powinien być wykorzystywany do uzyskiwania informacji na temat chorób i leczenia. Nie powinien być używany do diagnozowania lub zastępowania profesjonalnej opinii medycznej. Łatwo jest wyobrazić sobie niefortunną sytuację, w której model językowy, zapytany o dawkowanie leku, popełnia błąd, który może skończyć się dla człowieka uszczerbkiem na zdrowiu lub nawet śmiercią.
Badania naukowe. Chociaż LLM może być użytecznym narzędziem do uzyskiwania informacji ogólnych, to badacze powinni polegać na źródłach pierwotnych i dokładnych metodach badawczych. LLM jest dobrym generatorem tekstu, ale tekst ten nie musi być prawdziwy.
Porady prawne. Chociaż LLM może dostarczać ogólnych informacji na temat prawa, to nie zastępuje prawnika i nie weźmie na siebie odpowiedzialności za wydane opinie prawne.
Tłumaczenia, w których duże znaczenie ma dokładność. Chociaż LLM jest zdolny do przekładania tekstu na różne języki, nie zastąpi profesjonalnych tłumaczy, zwłaszcza w przypadku tekstów skomplikowanych lub specjalistycznych. Błędne tłumaczenia, na przykład w polityce, mogłyby doprowadzić do skandali dyplomatycznych.
Informacje poufne. Nigdy nie należy udostępniać sztucznej inteligencji danych poufnych, takich jak numery kart kredytowych, hasła itp. Wprawdzie OpenAI deklaruje, że w przypadku dostępu do ChatGPT poprzez interfejs programistyczny API, nie przechowuje ani nie analizuje wpisów użytkowników, ale lepiej być ostrożnym.
Decyzje życiowe. Chociaż LLM może dostarczyć ogólnych informacji na różne tematy, to nie powinno się polegać na nim, podejmując ważne decyzje życiowe: medyczne, finansowe czy prawne.
Autentyczność emocji. W sytuacjach wymagających empatii, zrozumienia emocji
i budowania głębokich relacji AI nie jest w stanie zastąpić człowieka i jego reakcji.
Kwestie etyczne i moralne. W ważnych kwestiach etycznych i moralnych lepiej polegać na ludzkiej intuicji bądź na opiniach ekspertów lub doradców niż na odpowiedziach generowanych przez AI.
Sytuacje awaryjne. W sytuacjach awaryjnych, takich jak katastrofy naturalne czy zagrożenia medyczne, lepiej polegać na oświadczeniach ekspertów lub służb ratunkowych.
Dane personalne. Nie powinno się zadawać pytań związanych z konkretnymi osobami. Choć LLM może dysponować informacjami na temat ważnych postaci historycznych, to jest wielce prawdopodobne, że jego odpowiedź okaże się nieprawdziwa.
Dane osobowe w szkole. W szkołach przechowywane są różnorodne dane osobowe,
w tym tzw. dane osobowe szczególnych kategorii (dokumenty z poradni psychologiczno‑pedagogicznych, np. orzeczenia o potrzebie kształcenia specjalnego czy nauczania indywidualnego). W szkole gromadzi się też protokoły rad pedagogicznych, zawierające informacje, które jeśli zostaną ujawnione, mogą negatywnie wpłynąć zarówno na życie uczniów, jak i nauczycieli. Dlatego w przypadku korzystania z rozwiązań ogólnodostępnych, takich jak ChatGPT czy Bard, nie powinno się w rozmowie z AI przekazywać żadnych danych osobowych ani informacji objętych tajemnicą rady pedagogicznej. Pod żadnym pozorem nie wolno prosić otwartego modelu językowego (mowa o LLM w wersji ogólnodostępnej) o wygenerowanie na przykład indywidualnego programu edukacyjno‑terapeutycznego na podstawie udostępnianych mu dokumentówIndeks górny Indeks górny [16][16] Indeks górny koniecIndeks górny [16][16].
Historia. LLM, zapytany o wydarzenia historyczne, może przekazać nam informacje nieprawdziwe, niezweryfikowane, a nawet stworzyć całkowicie zmyśloną opowieść, którą przedstawi jako prawdę historyczną.
Podsumowując, generatywna sztuczna inteligencja jest w stanie symulować ludzkie procesy kreatywne dzięki uczeniu się na dużej liczbie przykładów. Nie powinna być jednak wykorzystywana w sytuacjach, w których duże znaczenie ma prawdziwość uzyskanych informacji. We współczesnym świecie, zdominowanym przez technologię, sztuczna inteligencja odgrywa coraz większą rolę, a co za tym idzie – kuszące jest korzystanie z narzędzi AI w każdej możliwej sytuacji. Jednak trzeba pamiętać, że mają one swoje ograniczenia. Choć ChatGPT, Bard i podobne systemy okazały się rewolucyjne
i oferują szeroką gamę zastosowań, to nie są pozbawione wad. Warto, by użytkownicy AI mieli tego świadomość.