1.3. Dla AI nasze pytania to tylko zestaw znaków i wzorów
Ważne jest, aby pamiętać, że chociaż model językowy potrafi tworzyć prawdopodobne kontynuacje tekstów i nawet odpowiedzi na pytania, to nie rozumie ich tak jak ludzie. Dla algorytmu to tylko zestaw znaków i wzorów. Nie jest świadomy. Korzysta z informacji, które wcześniej przyswoił. Chociaż może się wydawać, że rozmawiamy z czymś świadomym, to tak nie jest. Maszyny mają zdolność uczenia się i dostosowywania do nowych informacji, ale nie rozumieją ich znaczenia w taki sam sposób jak my. W rzeczywistości sam wytrenowany model językowy podczas rozmowy z nami nie ma nawet w pamięci tej rozmowy jako takiej. Pamięć krótkotrwała modelu jest symulowana w aplikacji, poprzez którą komunikujemy się z nim. Z każdym kolejnym zapytaniem użytkownika aplikacja tworzy podsumowanie całej dotychczasowej rozmowy. Następnie to podsumowanie w całości jest wysyłane do modelu, a ten ponownie wylicza prawdopodobieństwo wystąpienia znaków, które mogłyby stanowić kontynuację tej rozmowy.
Nowa wersja ChatGPT może posiadać dostęp do informacji nowszych niż te z czasu jego wytrenowania. W momencie wydania tej broszury model ChatGPT 4 posiada wiedzę na temat wydarzeń do kwietnia 2023 roku. Doszkalanie modeli AI może być jednak przeprowadzane przez specjalistów w ramach tzw. dotrenowania (ang. fine‑tuning), na dodatkowej porcji danych/przykładów. Ponadto ChatGPT‑4 posiada dostęp do informacji nowszych niż te z czasu jego wytrenowania dzięki dodatkowym narzędziom zapewniającym dostęp do internetu i innych baz danych, takich jak na przykład zbiory prac naukowych (korzysta z trybu wyszukiwania w internecie oraz z tzw. pluginów). Proces pozyskiwania danych do interakcji z modelami językowymi ze źródeł zewnętrznych jest obecnie przedmiotem wielu badań w nowej dziedzinie nauki nazwanej inżynierią podpowiedzi, która zajmuje się tworzeniem metod efektywnej komunikacji z modelami językowymi.