Konferencja Mega Sekurak Hacking Party w Krakowie – 26-27 października!
AI bez lukru #2: Kiedy model AI zaczyna zmyślać lepiej niż człowiek
Cześć! Z tej strony Tomek Turba.AI bez lukru to cykl moich felietonów o sztucznej inteligencji bez marketingowego lukru, bez korporacyjnych slajdów i bez bajek o „rewolucji, która wszystko zmieni”. Pokazuję AI taką, jaka jest naprawdę: z absurdami, wpadkami, halucynacjami i konsekwencjami, o których rzadko mówi się głośno. Bez zadęcia, bez propagandy, z humorem – ale na serio.

Chcesz ogarnąć ze mną niezbędne umiejętności dotyczące AI w 2026 roku i tym samym nie zostać w tyle? 16 stycznia o godz. 19:00 zapraszam Cię na BEZPŁATNE, dwugodzinne szkolenie ze mną, Tomkiem Turbą – Poznaj 10 umiejętności AI niezbędnych w 2026 roku.
Szkolenie na żywo, z dostępem do nagrania na zawsze.
Sztuczna inteligencja miała być mądrzejsza od ludzi. Tymczasem okazało się, że potrafi zmyślać szybciej, pewniej i z większym przekonaniem niż niejeden polityk w kampanii wyborczej. I to właśnie przekonało pewnego prawnika.
Prawnik, ChatGPT i sprawa, której nie było
Historia jest prawdziwa. Amerykański prawnik postanowił przyspieszyć pracę i poprosił ChatGPT o pomoc przy pozwie sądowym. Model wygenerował mu:
- orzeczenia,
- sygnatury spraw,
- nazwiska sędziów,
- cytaty z uzasadnień.
Problem w tym, że… żadna z tych spraw nigdy nie istniała.
Zostały wymyślone przez algorytm z taką pewnością siebie, że prawnik nawet nie sprawdził źródeł. Skopiował, wkleił i wysłał do sądu. Sędzia sprawdził. I wtedy zaczęło się piekło.
Halucynacje, czyli AI na haju
To zjawisko ma nawet swoją nazwę: halucynacje AI. Chociaż często mądrzy tego świata mówią, że halucynacja jest definicją zbioru chorób, a AI przecież nie jest chora. Często zatem spotyka się też pojęcie konfabulacji.
Model językowy nie wyszukuje informacji w bazie wiedzy jak Google. On przewiduje kolejne słowo, które statystycznie najbardziej pasuje do kontekstu. Jeśli czegoś nie wie – wymyśli.
I zrobi to: logicznie, spójnie, profesjonalnie, z pełnym przekonaniem. To nie jest błąd systemu. To cecha systemu. AI nie ma pojęcia, co jest prawdą. Ma tylko pojęcie, co brzmi jak prawda.
Dlaczego ludzie w to wierzą?
Bo odpowiedzi AI są ładnie sformatowane i napisane pewnym tonem. Bez wahania, bez żadnego „nie wiem”. Człowiek ma wątpliwości. AI nigdy. Taka jest anatomia modelu LLM. Musi odpowiedzieć, wyznaczyć kolejne słowo i cały szyk zdania. Jeśli chatbot napisze: „Zgodnie z orzeczeniem Sądu Apelacyjnego w Nowym Jorku z 2018 roku…”, to brzmi jak wiedza, tymczasem może to być kompletny bełkot.
AI jako generator autorytetu
Najniebezpieczniejsze w AI nie jest to, że się myli, tylko, że myli się bardzo przekonująco.
W przeciwieństwie do ludzi nie jąka się, nie waha i nie napisze: „chyba”. Zatem dla wielu użytkowników brzmi jak ekspert.
Nowy rodzaj fake newsów
Do tej pory fake newsy pisał człowiek. Teraz może je tworzyć na skalę przemysłową automat. I niestety tak się dzieje.
AI może wymyślić sobie źródło, eksperta i dobrać badanie. Ba, nawet stworzyć cytat, który nie istnieje – i całą otoczkę do tego. I zrobi to w trzy sekundy.
Morał?
Jeśli używasz AI:
- do pracy,
- w dziedzinie prawa,
- w medycynie,
- w finansach,
- do decyzji biznesowych,
…to traktuj ją jak bardzo zdolnego stażystę.
Może pomóc. Może przyspieszyć. Może podsunąć pomysł. Ale jeśli bezmyślnie przepiszesz to, co wygeneruje – prędzej czy później trafisz na własnego „sędziego z Nowego Jorku”.
Podsumowanie
AI nie kłamie, ale gdy czegoś nie wie, to fantazjuje. A że robi to z klasą, stylem i pewnością siebie – to już inna sprawa. W epoce sztucznej inteligencji nowa kompetencja brzmi: „Nie wierz modelowi. Sprawdzaj źródła.”
Bo algorytm może wymyślić wszystko. Ale to Ty potem będziesz się tłumaczył.
Z pozdrowieniami,
~Tomek Turba
