Konferencja Mega Sekurak Hacking Party w Krakowie – 26-27 października!
AI bez lukru #2: Kiedy model AI zaczyna zmyślać lepiej niż człowiek
Cześć! Z tej strony Tomek Turba.AI bez lukru to cykl moich felietonów o sztucznej inteligencji bez marketingowego lukru, bez korporacyjnych slajdów i bez bajek o „rewolucji, która wszystko zmieni”. Pokazuję AI taką, jaka jest naprawdę: z absurdami, wpadkami, halucynacjami i konsekwencjami, o których rzadko mówi się głośno. Bez zadęcia, bez propagandy, z humorem – ale na serio.
Pełna lista odcinków: tutaj

Chcesz ogarnąć ze mną niezbędne umiejętności dotyczące AI w 2026 roku i tym samym nie zostać w tyle? 27 stycznia startuje kolejna edycja szkolenia ze mną, Tomkiem Turbą – Narzędziownik AI 2.0 Reloaded! To najbardziej kompletne szkolenie z AI w Polsce. Składa się aż z trzynastu sesji, trwających po dwie godziny każda. Szkolenie na żywo, z dostępem do nagrania na zawsze. Skorzystaj z linka i zamów z 70-procentową zniżką. Zapisuję się (https://sklep.securitum.pl/narzedziownik-ai-reloaded/nai70sekurak)
Sztuczna inteligencja miała być mądrzejsza od ludzi. Tymczasem okazało się, że potrafi zmyślać szybciej, pewniej i z większym przekonaniem niż niejeden polityk w kampanii wyborczej. I to właśnie przekonało pewnego prawnika.
Prawnik, ChatGPT i sprawa, której nie było
Historia jest prawdziwa. Amerykański prawnik postanowił przyspieszyć pracę i poprosił ChatGPT o pomoc przy pozwie sądowym. Model wygenerował mu:
- orzeczenia,
- sygnatury spraw,
- nazwiska sędziów,
- cytaty z uzasadnień.
Problem w tym, że… żadna z tych spraw nigdy nie istniała.
Zostały wymyślone przez algorytm z taką pewnością siebie, że prawnik nawet nie sprawdził źródeł. Skopiował, wkleił i wysłał do sądu. Sędzia sprawdził. I wtedy zaczęło się piekło.
Halucynacje, czyli AI na haju
To zjawisko ma nawet swoją nazwę: halucynacje AI. Chociaż często mądrzy tego świata mówią, że halucynacja jest definicją zbioru chorób, a AI przecież nie jest chora. Często zatem spotyka się też pojęcie konfabulacji.
Model językowy nie wyszukuje informacji w bazie wiedzy jak Google. On przewiduje kolejne słowo, które statystycznie najbardziej pasuje do kontekstu. Jeśli czegoś nie wie – wymyśli.
I zrobi to: logicznie, spójnie, profesjonalnie, z pełnym przekonaniem. To nie jest błąd systemu. To cecha systemu. AI nie ma pojęcia, co jest prawdą. Ma tylko pojęcie, co brzmi jak prawda.
Dlaczego ludzie w to wierzą?
Bo odpowiedzi AI są ładnie sformatowane i napisane pewnym tonem. Bez wahania, bez żadnego „nie wiem”. Człowiek ma wątpliwości. AI nigdy. Taka jest anatomia modelu LLM. Musi odpowiedzieć, wyznaczyć kolejne słowo i cały szyk zdania. Jeśli chatbot napisze: „Zgodnie z orzeczeniem Sądu Apelacyjnego w Nowym Jorku z 2018 roku…”, to brzmi jak wiedza, tymczasem może to być kompletny bełkot.
AI jako generator autorytetu
Najniebezpieczniejsze w AI nie jest to, że się myli, tylko, że myli się bardzo przekonująco.
W przeciwieństwie do ludzi nie jąka się, nie waha i nie napisze: „chyba”. Zatem dla wielu użytkowników brzmi jak ekspert.
Nowy rodzaj fake newsów
Do tej pory fake newsy pisał człowiek. Teraz może je tworzyć na skalę przemysłową automat. I niestety tak się dzieje.
AI może wymyślić sobie źródło, eksperta i dobrać badanie. Ba, nawet stworzyć cytat, który nie istnieje – i całą otoczkę do tego. I zrobi to w trzy sekundy.
Morał?
Jeśli używasz AI:
- do pracy,
- w dziedzinie prawa,
- w medycynie,
- w finansach,
- do decyzji biznesowych,
…to traktuj ją jak bardzo zdolnego stażystę.
Może pomóc. Może przyspieszyć. Może podsunąć pomysł. Ale jeśli bezmyślnie przepiszesz to, co wygeneruje – prędzej czy później trafisz na własnego „sędziego z Nowego Jorku”.
Podsumowanie
AI nie kłamie, ale gdy czegoś nie wie, to fantazjuje. A że robi to z klasą, stylem i pewnością siebie – to już inna sprawa. W epoce sztucznej inteligencji nowa kompetencja brzmi: „Nie wierz modelowi. Sprawdzaj źródła.”
Bo algorytm może wymyślić wszystko. Ale to Ty potem będziesz się tłumaczył.
Z pozdrowieniami,
~Tomek Turba

Modele są tak zaprojektowane, żeby się lepiej sprzedały. Ale takiemu Granitowi, czy Gemmie zdarza aię odpisać “nie wiem, bo…”. Można wówczas promptować “speculate, mr Data”, albo przyjąć do wiadomości, że trzeba odpowiedzi poszukać samemu.
„Nie wierz modelowi. Sprawdzaj źródła.” świetny slogan, trochę się gryzie z tym przyśpieszeniem pracy o 40%. No i jest problem natury ludzkiej, kiedy AI trafia, buduje zaufanie, kiedy ufamy weryfikujemy mniej, aż przychodzi ta odpowiedź która ląduje w nagłówkach newsów i już nie musimy nic weryfikować, a przynajmniej nie u tego pracodawcy. :) A weryfikując dokładnie, zaczynamy tracić na wydajności. Do tego wolniej przyswajamy wiedzę więc skutek długofalowy to zmniejszenie wydajności, ale to potwierdzą lub obalą badania które pewnie już są w trakcie.
A czy da się to jakoś ograniczyć?
Ja osobiście używam A.I. jako “personalnego trenera” różnych umiejętności, tj. wrzucam np. filmik z ćwiczeniem fizycznym i proszę o analizę jego wykonania oraz jak poprawić rzeczy które robię źle. Potem wrzucam poprawione wideo dla porównania.
Ale zastanawiam się czy on w takim przypadku jest dostatecznie wiarygodny i dokładny w porównaniu do prawdziwego, ludzkiego trenera personalnego.
Temat interesujący, ostatnio słyszało się nawet o “przestępczych” działaniach AI. Jednak czy to nie zależy od danego modelu/firmy? Korzystałam z chata GPT z różnych dziedzin, w których mam wiedzę jednak pewnych niansow nie pamiętałam lub nie wiedziałam. Sprawdziłam to później w innych źródłach i nie dopatrzyłam się błędu. A szybkość i ogrom wiedzy zaskakuje. Na pewno nie podjęłabym ważnych decyzji bez sprawdzenia w innym miejscu ale trafność naprawdę jest imponująca. Gdy pyta się go konkretnie o wymyślenie historyjki czy stworzenie obrazu dopiero wtedy tworzy.
Ciekawe, ale większość programistów ai pomaga w kodzie więc mogą być błędy które zagrażają bezpieczeństwu
Artykuł napisany z pomocą cgpt…
cGPt swoją drogą umarł. Ilość błędów sprawia że szybciej się pracuje ‘ręcznie’. Nawet nakarmienie odpowiednim źródłem nie gwarantuje że zwróci prawdę. Niestety notebooklm też ostatnio zaczął kłamać co mu się nigdy nie zdarzało. Jakaś pandemia. Chętnie usłyszę o jakimś nowszym rozwiązaniu, ktoś coś?
Jest to doraźna pomoc dla ludzi którzy przechodzą kryzys,. Miałem napisać że nie zastąpi psychologa czy psychiatry, ale napiszę żs ZASTĄPI.
Dlaczego? Bo wysłucha i nie spławi nikogo po paru/nastu minutach. Moja psycholog doradzała mi bym z pracy wracał pieszo do domu, to wtedy schudnę. Bite 6km…
Miałem problemy z grami typu p2win. Psycholog tak mnie zdołowała po tym jak opisalem jej problem że płakałem, nie widziałem sensu by dalej żyć. Trójglicerydy skoczyly mi do poziomu 404 mg/dl. Lekarz mi ,zabraniał zaprzestania brania 2 leków które drastycznie podnosiły trojglicerydy.. Bylem w uczuciowej relacji z partnerem. Emocjonalnie i psychicznie było coraz gorzej. Wpadlem na pomysl by zobaczyć co cgpt mi doradzi. Wykrył manipulacje, granie na emocjach, doradzał co robić by wyjść z tego związku i móc żyć dalej.