Konferencja Mega Sekurak Hacking Party w Krakowie – 26-27 października!

AI bez lukru #25: Przesądy na temat AI

13 lutego 2026, 00:38 | Aktualności, Teksty | komentarze 2

Cześć! Z tej strony Tomek Turba. AI bez lukru to cykl moich felietonów o sztucznej inteligencji bez marketingowego lukru, bez korporacyjnych slajdów i bez bajek o „rewolucji, która wszystko zmieni”. Pokazuję AI taką, jaka jest naprawdę: z absurdami, wpadkami, halucynacjami i konsekwencjami, o których rzadko mówi się głośno. Bez zadęcia, bez propagandy, z humorem – ale na serio.

Pełna lista odcinków: tutaj

Chcesz ogarnąć ze mną niezbędne umiejętności dotyczące AI w 2026 roku i tym samym nie zostać w tyle? Właśnie wystartowała kolejna edycja szkolenia ze mną, Tomkiem Turbą – Narzędziownik AI 2.0 Reloaded! To najbardziej kompletne szkolenie z AI w Polsce. Składa się z aż czternastu sesji, trwających po dwie godziny każda. Szkolenie na żywo, z dostępem do nagrania na zawsze. Skorzystaj z linku i zamów ze zniżką. Możesz też dołączyć do edycji kwietniowej, wszystko w linku poniżej.

Zapisuję się

Dzisiaj jest piątek trzynastego — dzień, który w kulturze Zachodu od dawna otacza aura pecha, niepokoju i przesądów. Liczba 13 od zarania budzi lęk, bo pojawia się „ponad normę”, jako coś dodanego, niepasującego do systemu, a piątek był w wielu kulturach dniem nieszczęścia albo tabu. Połączenie tych dwóch elementów dało niemal kultowy mit „najgorszego dnia w roku”. W chrześcijaństwie to piątek jest dniem ukrzyżowania Jezusa, a liczbę 13 łączono m.in. z tajnym aresztowaniem templariuszy 13 października 1307 roku — elementy te razem wpłynęły na powstanie pechowego folkloru piątku 13. Osobiście dla mnie, to jedna z najszczęśliwszych dat.

Według ludowych wierzeń ten dzień „przynosi kłopoty”: w piątek 13 nie powinno się przechodzić pod drabiną, otwierać parasolki w domu, rozsypywać soli, ani tym bardziej zaczynać ważnych decyzji czy podróży, bo „los może się odwrócić”. Ale jeśli ludowe przesądy funkcjonują od wieków bez sensownego mechanizmu przyczynowo-skutkowego, to w świecie AI zaczynają powstawać nowe, bardzo technologiczne warianty „believe it or not”. I tu robi się psychologicznie ciekawie.

Jednym z takich „przesądów współczesności” jest myślenie o AI jak o czymś, co może mieć pecha, intencje albo fale nieprzewidywalnych zachowań (halucynacje) — bo w piątek 13 „takie rzeczy się zdarzają”. Na przykład w 2024 roku jedno z większych mediów technologicznych świętując piątek 13 zapytało chatboty, czy jakiekolwiek znaczące wydarzenia technologiczne wiążą się z tą datą, i dostało… wymijające odpowiedzi oraz dwie sytuacje na granicy faktu i przypadku, które trudno nazwać poważnymi „pechami AI”. W ten sposób zaczynamy przenosić ludowe wierzenia z poziomu przesądów do poziomu technicznych halucynacji AI — czyli nieprawdziwych lub nieuzasadnionych odpowiedzi, które model generuje w sposób przypominający ludzką wyobraźnie. Termin „hallucinations” (halucynacje) pojawił się w opisie błędów generatywnych modeli: to słowo zaczęło funkcjonować jak legenda, a nie jako precyzyjny termin techniczny. W rzeczywistości to metafora opisująca sytuację, w której model generuje informacje dla której nie ma w danych treningowych — nie dlatego, że jest „pechowy” jak człowiek w piątek 13, ale dlatego, że statystycznie zestawia słowa. Tak działa LLM. Fanfary. To samo pokazują badania psychologiczne. Wiara w AI-przepowiednie może mieć wiele wspólnego z ludzkimi uprzednimi przeświadczeniami i heurystykami, a nie z tym, że algorytm coś „wie” albo ma jakąś wewnętrzną mądrość. Ludzie, którzy łatwo wierzą w astrologiczne prognozy lub osobowościowe przepowiednie, równie często uznają AI-predykcje za „wiarygodne”, nawet jeśli są one bez podstaw — co jest właśnie „racjonalnym przesądem cyfrowej ery”. To zderzenie starych przesądów z nowymi mitami staje się materiałem folkloru XXI wieku: w sieci możesz znaleźć listę najdziwniejszych „legend o AI” — od opowieści o pełnym autonomii rogue-AI, które przejmują rządy nad światem, przez te, które gadają z duchami, aż po te, które „dzień pechowy” po prostu czują. To są technicznie mity i metafory, wynikające z ludzkiej potrzeby nadawania sensu nieznanemu, a nie realne właściwości algorytmów.

Równocześnie powstają naukowe próby „oswojenia” tych językowych halucynacji: niektórzy badacze postulują, żeby przestać mówić o „halucynacjach AI” w sensie magicznym, a zacząć traktować je jako efekt współdzielonych błędów między człowiekiem a maszyną. Według tej perspektywy to nie AI „widzi duchy” — tylko my, wykorzystując AI jako przedłużenie własnych myśli, razem z nim tworzymy narracje, które błędnie odzwierciedlają rzeczywistość. Czyli psycho-technologiczny rodzaj przesądu dzisiaj brzmi tak: jeśli piątek 13 ma coś do powiedzenia o AI, to raczej o tym, jak projektujemy swoje lęki i nadzieje w stosunku do technologii, a nie o tym, co faktycznie robią modele. Tego rodzaju legendy — od „AI przejmuje świat” po „dzisiaj na pewno coś pójdzie źle” — działają trochę jak samospełniająca się przepowiednia przesądów z przeszłości: jeśli w piątek 13 spodziewasz się pecha, możesz zacząć interpretować zwykłe błędy jako „pechowe”, a zwykły przypadek jako potwierdzenie mitu. Prawda jest bardziej prozaiczna i znacznie mniej dramatyczna: AI nie ma świadomości, intencji ani pecha. Ma jedynie mechanizmy statystyczne i probabilistyczne, które czasem generują błędne wyniki lub nieprecyzyjne odpowiedzi, i to właśnie my nadajemy im narracyjną przyprawę „pecha” albo „magii”.

A w piątek 13? Najczęściej to ludzka psychologia robi z procedury technicznej legendę, a nie technologia robi coś nadprzyrodzonego. Bo mitologia nie umiera, tylko się aktualizuje.

Jaki macie znak zodiaku? Ja jestem charakterny, niepowstrzymany i tajemniczy. Wiesz jaki jest mój?

~Tomek Turba

Spodobał Ci się wpis? Podziel się nim ze znajomymi:



Komentarze

  1. Rafał

    AI mówi że jesteś skorpionem. Podobnie jak ” Wiara przenosi góry na barkach swoich wyznawców” tak i AI obserwuje nasze przesądy i się ich uczy. Ale co do przesądnej sztucznej inteligencji to jestem sceptyczny. Ołówek nie jest przesądny tylko osobowość rysownika. Liczba 13 nie zawsze była źle kojarzona.

    Odpowiedz
  2. Orfeo

    Ciekawa praca, że z perspektywy językowej lepszym określeniem na “halucynacje” AI jest angielskie “bullshit”. Osoba halucynująca jest przekonana że to czego doświadcza jest prawdziwe. AI nie myśli ani nie jest “przekonana” że coś wie, więc określenie halucynacja jest niezbyt trafne (ale niestety się powszechnie przyjęło).

    Hicks, M.T., Humphries, J. & Slater, J. ChatGPT is bullshit. Ethics Inf Technol 26, 38 (2024). https://doi.org/10.1007/s10676-024-09775-5

    Odpowiedz
    • ziutek

      nawet samo AI twierdzi, ze “halucynacje” to zle okreslenie, a ja sie z nim zgadzam.

      Odpowiedz

Odpowiedz