Choć chatboty często określa się mianem „sztucznej inteligencji”, termin ten może być mylący, ponieważ sugeruje, że maszyna rozumie i myśli jak człowiek. W rzeczywistości modele językowe (takie jak ChatGPT) nie posiadają świadomości ani zdolności rozumowania. Są to zaawansowane programy przetwarzające gigantyczne ilości danych. ChatGPT najpierw „czyta” miliardy zdań z internetu, książek i artykułów, a następnie koduje je w formie wewnętrznych wzorców. Nie rozumie języka tak jak człowiek, ale potrafi go naśladować, rozpoznając i dopasowując charakterystyczne ciągi słów.
Kiedy użytkownik zadaje pytanie, model generuje odpowiedź, obliczając prawdopodobieństwo wystąpienia kolejnych słów. Można to porównać do bardzo zaawansowanego autouzupełniania. Model nie „wie”, czy dane zdanie jest prawdziwe — po prostu ocenia, czy jest prawdopodobne na podstawie danych treningowych.
Czym jest halucynacja AI?
Halucynacja AI to sytuacja, w której model generuje odpowiedź niezgodną z faktami lub całkowicie zmyśloną — na przykład przypisuje cytat, który nigdy nie padł, albo wymyśla nieistniejącą książkę czy osobę.
Skąd biorą się halucynacje AI?
Wbudowana losowość (tzw. „temperatura”)
Jednym z głównych powodów halucynacji jest wbudowana w model losowość. To dlatego, zadając to samo pytanie kilka razy, możemy otrzymać różne odpowiedzi. Parametr „temperatura” wpływa na to, jak bardzo model skłonny jest wybierać mniej oczywiste odpowiedzi. Na przykład jeśli prawdopodobieństwo użycia słowa „kot” wynosi 81%, a „pies” 68%, model może wybrać jedno z nich — w zależności od ustawień. Większa temperatura to większa kreatywność, ale też większe ryzyko błędu.
Jakość danych treningowych
Model ChatGPT-3 był trenowany na około 370 miliardach słów — to odpowiednik zawartości ponad 100 bibliotek miejskich. Oczywiste jest, że nie wszystkie dane zostały zweryfikowane przez ludzi. Wśród nich są informacje błędne, sprzeczne lub przestarzałe, co przekłada się na jakość generowanych odpowiedzi.
Stronniczość danych
Zbiory treningowe mogą być nieobiektywne, zależnie od źródeł, z których pochodzą. Przykładowo, informacje o komunizmie zebrane wyłącznie z publikacji sprzed 1989 roku będą różnić się od współczesnych ocen. Postrzeganie wydarzeń historycznych również różni się w zależności od kraju i kultury — działania armii sowieckiej w 1945 roku będą opisywane inaczej w rosyjskich, a inaczej w amerykańskich podręcznikach.
Overfitting (Nadmierne dopasowanie / przeuczenie)
Jeżeli model zbyt dokładnie dopasuje się do danych treningowych, traci zdolność uogólniania – „pamięta” konkretne przykłady zamiast rządzących nimi reguł. To trochę jak uczeń, który uczy się odpowiedzi z zeszłorocznego testu — na tym jednym pójdzie mu świetnie, ale przy nowym zestawie pytań już sobie nie poradzi. AI może mieć podobny problem — działa dobrze w znanym kontekście, ale popełnia błędy przy nowym.
Przestarzała wiedza
Modele AI nie są aktualizowane w czasie rzeczywistym. Trenowanie ich trwa długo, więc ich wiedza zawsze będzie opóźniona w stosunku do najnowszych wydarzeń. Aktualniejsze informacje bywają dostępne tylko w nowszych, często płatnych wersjach modeli, które korzystają z dostępu do internetu. Niestety w tym także kryją się problemy. Źle sformułowana fraza wyszukiwania prowadzi do nieadekwatnych wyników. W wynikach wyszukiwania model możne trafić na farmy treści, SEO‑spam, paywalle, czy nieoznaczone treści sponsorowane. Przy sprzecznych doniesieniach model bywa zmuszony „wybrać” jedną wersję lub wygenerować uśrednienie.
Nieprecyzyjne pytanie
Zbyt ogólne pytania zwiększają ryzyko halucynacji. Gdy zapytamy: „Kto urodził się w 1643 roku?”, model wybierze najpopularniejszą odpowiedź (np. Izaak Newton), mimo że w tym samym roku urodziło się wiele innych znanych postaci. Prośba o esej „w stylu Stanisława Lema” również jest zbyt szeroka – Lem pisał zarówno poważnie („Solaris”), humorystycznie („Dzienniki gwiazdowe”) jak i baśniowo („Bajki robotów”). Im bardziej precyzyjne zapytanie, tym większa szansa na trafną odpowiedź.
Jak ograniczyć ryzyko halucynacji?
Aby zminimalizować ryzyko uzyskania nieprawidłowej odpowiedzi nalezy zadawać precyzyjne i szczegółowe pytania, prosić o źródła lub cytaty użyte w odpowiedzi, o wyjaśnienie procesu myślowego krok po kroku. Na końcu warto także porównać odpowiedzi z zewnętrznymi, renomowanymi źródłami.
Modele językowe są potężnymi narzędziami, lecz ich „wiedza” to wynik statystycznego przewidywania, a nie logicznego rozumowania. Halucynacje AI są naturalnym efektem tej mechaniki. AI należy traktować jako pomocnika, a nie jako źródło niepodważalnej prawdy.
Źródła:
https://www.nytimes.com/2025/05/05/technology/ai-hallucinations-chatgpt-google.html
https://www.techradar.com/computing/artificial-intelligence/chatgpt-is-getting-smarter-but-its-hallucinations-are-spiraling
https://ask.library.arizona.edu/faq/407990
https://www.ibm.com/think/topics/ai-hallucinations