Konferencja Mega Sekurak Hacking Party w Krakowie – 26-27 października!

AI bez lukru #2: Kiedy model AI zaczyna zmyślać lepiej niż człowiek

13 stycznia 2026, 06:21 | Aktualności, Teksty | 0 komentarzy

Cześć! Z tej strony Tomek Turba.AI bez lukru to cykl moich felietonów o sztucznej inteligencji bez marketingowego lukru, bez korporacyjnych slajdów i bez bajek o „rewolucji, która wszystko zmieni”. Pokazuję AI taką, jaka jest naprawdę: z absurdami, wpadkami, halucynacjami i konsekwencjami, o których rzadko mówi się głośno. Bez zadęcia, bez propagandy, z humorem – ale na serio.



Chcesz ogarnąć ze mną niezbędne umiejętności dotyczące AI w 2026 roku i tym samym nie zostać w tyle? 16 stycznia o godz. 19:00 zapraszam Cię na BEZPŁATNE, dwugodzinne szkolenie ze mną, Tomkiem Turbą – Poznaj 10 umiejętności AI niezbędnych w 2026 roku

Szkolenie na żywo, z dostępem do nagrania na zawsze.

Zapisuję się

Sztuczna inteligencja miała być mądrzejsza od ludzi. Tymczasem okazało się, że potrafi zmyślać szybciej, pewniej i z większym przekonaniem niż niejeden polityk w kampanii wyborczej. I to właśnie przekonało pewnego prawnika.

Prawnik, ChatGPT i sprawa, której nie było

Historia jest prawdziwa. Amerykański prawnik postanowił przyspieszyć pracę i poprosił ChatGPT o pomoc przy pozwie sądowym. Model wygenerował mu:

  • orzeczenia,
  • sygnatury spraw,
  • nazwiska sędziów,
  • cytaty z uzasadnień.

Problem w tym, że… żadna z tych spraw nigdy nie istniała.

Zostały wymyślone przez algorytm z taką pewnością siebie, że prawnik nawet nie sprawdził źródeł. Skopiował, wkleił i wysłał do sądu. Sędzia sprawdził. I wtedy zaczęło się piekło.

Halucynacje, czyli AI na haju

To zjawisko ma nawet swoją nazwę: halucynacje AI. Chociaż często mądrzy tego świata mówią, że halucynacja jest definicją zbioru chorób, a AI przecież nie jest chora. Często zatem spotyka się też pojęcie konfabulacji. 

Model językowy nie wyszukuje informacji w bazie wiedzy jak Google. On przewiduje kolejne słowo, które statystycznie najbardziej pasuje do kontekstu. Jeśli czegoś nie wie – wymyśli.

I zrobi to: logicznie, spójnie, profesjonalnie, z pełnym przekonaniem. To nie jest błąd systemu. To cecha systemu. AI nie ma pojęcia, co jest prawdą. Ma tylko pojęcie, co brzmi jak prawda.

Dlaczego ludzie w to wierzą?

Bo odpowiedzi AI są ładnie sformatowane i napisane pewnym tonem. Bez wahania, bez żadnego „nie wiem”. Człowiek ma wątpliwości. AI nigdy. Taka jest anatomia modelu LLM. Musi odpowiedzieć, wyznaczyć kolejne słowo i cały szyk zdania. Jeśli chatbot napisze: „Zgodnie z orzeczeniem Sądu Apelacyjnego w Nowym Jorku z 2018 roku…”, to brzmi jak wiedza, tymczasem może to być kompletny bełkot.

AI jako generator autorytetu

Najniebezpieczniejsze w AI nie jest to, że się myli, tylko, że myli się bardzo przekonująco.

W przeciwieństwie do ludzi nie jąka się, nie waha i nie napisze: „chyba”. Zatem dla wielu użytkowników brzmi jak ekspert.

Nowy rodzaj fake newsów

Do tej pory fake newsy pisał człowiek. Teraz może je tworzyć na skalę przemysłową automat. I niestety tak się dzieje.

AI może wymyślić sobie źródło, eksperta i dobrać badanie. Ba, nawet stworzyć cytat, który nie istnieje – i całą otoczkę do tego. I zrobi to w trzy sekundy.

Morał?

Jeśli używasz AI:

  • do pracy,
  • w dziedzinie prawa,
  • w medycynie,
  • w finansach,
  • do decyzji biznesowych,

…to traktuj ją jak bardzo zdolnego stażystę.

Może pomóc. Może przyspieszyć. Może podsunąć pomysł. Ale jeśli bezmyślnie przepiszesz to, co wygeneruje – prędzej czy później trafisz na własnego „sędziego z Nowego Jorku”.

Podsumowanie

AI nie kłamie, ale gdy czegoś nie wie, to fantazjuje. A że robi to z klasą, stylem i pewnością siebie – to już inna sprawa. W epoce sztucznej inteligencji nowa kompetencja brzmi: „Nie wierz modelowi. Sprawdzaj źródła.”

Bo algorytm może wymyślić wszystko. Ale to Ty potem będziesz się tłumaczył.

Z pozdrowieniami,

~Tomek Turba

Spodobał Ci się wpis? Podziel się nim ze znajomymi:



Komentarze

Odpowiedz