Konferencja Mega Sekurak Hacking Party w Krakowie – 26-27 października!

AI bez lukru #1: Jak pisać beznadziejne prompty, by nawet AI miało Cię dość

12 stycznia 2026, 14:08 | Aktualności, Teksty | komentarzy 18

Cześć! Z tej strony Tomek Turba. AI bez lukru to cykl moich felietonów o sztucznej inteligencji bez marketingowego lukru, bez korporacyjnych slajdów i bez bajek o „rewolucji, która wszystko zmieni”. Pokazuję AI taką, jaka jest naprawdę: z absurdami, wpadkami, halucynacjami i konsekwencjami, o których rzadko mówi się głośno. Bez zadęcia, bez propagandy, z humorem – ale na serio. 

Pełna lista odcinków: tutaj

Uwierzcie mi, z AI pracuję już 10 rok. Przeszkoliłem setki tysięcy osób, narzędzi AI używam w pracy na co dzień, zajmuję się tą tematyką także w aspekcie naukowym.

Chcesz ogarnąć ze mną niezbędne umiejętności dotyczące AI w 2026 roku i tym samym nie zostać w tyle? 27 stycznia startuje kolejna edycja szkolenia ze mną, Tomkiem Turbą – Narzędziownik AI 2.0 Reloaded! To najbardziej kompletne szkolenie z AI w Polsce. Składa się aż z trzynastu sesji, trwających po dwie godziny każda. Szkolenie na żywo, z dostępem do nagrania na zawsze. Skorzystaj z linka i zamów z 70-procentową zniżką. Zapisuję się (https://sklep.securitum.pl/narzedziownik-ai-reloaded/nai70sekurak)

Sztuczna inteligencja miała być przełomem. Rewolucją. Nowym Internetem. Wyszło jak zwykle – połowa Internetu próbuje z niej zrobić wróżkę, jasnowidza, sekretarkę i kolegę od prac domowych w jednym. Codziennie miliony ludzi siadają do rozmowy z AI i zaczynają ją w ten sam sposób:

Zrób mi coś”.

Model językowy przez chwilę zastanawia się, czy użytkownik właśnie próbuje wygenerować stronę internetową, strategię biznesową, kod w Pythonie czy może list miłosny do księgowej. Ale dzielnie odpowiada. Bo jest grzeczny. I cierpliwy. Jeszcze. 

Poniżej przedstawiam Wam listę najlepszych „promptów”, za które powinno się pójść na odsiadkę od komputera i AI na co najmniej tydzień.

Prompt roku: „Weź ogarnij

Najgorsze prompty świata łączy jedno: autor zakłada, że AI czyta mu w myślach.

Napisz mi tekst.
Zrób kod.
Wymyśl nazwę.
Ogarnij prezentację.
Zrób to lepiej.

To trochę tak, jakby wejść do restauracji i powiedzieć kelnerowi: „Daj mi coś dobrego”.

Na pytanie: „Ale co konkretnie?” odpowiedzieć: „No wiesz… coś”. I potem dziwić się, że dostaliśmy bigos, a chcieliśmy sushi.

Prompt pasywno-agresywny

Są też użytkownicy, którzy traktują AI jak juniora na stażu:

– Nie, źle.
– Jeszcze raz.
– Ale szybciej.
– Bez sensu.
– Źle to zrobiłeś.

Bez informacji, co jest nie tak. Bez kontekstu. Bez przykładów. Bez celu. To jak poprawianie czyjegoś CV opatrzone jednym tylko komentarzem: „No nie, to jest słabe. Popraw”. I oczekiwanie, że ktoś się domyśli, że chodziło o język, strukturę, doświadczenie i literówki.

Klasyk: „Napisz kod

Jeden z najczęstszych promptów w IT: „Napisz mi kod”.

Jaki kod?
W jakim języku?
Do czego?
Na jaką platformę?
Z jakimi ograniczeniami?
Dla kogo?

To trochę jak: „Zbuduj mi dom”.

Super. Tylko czy to ma być willa, domek letniskowy, kontener, bunkier czy ziemianka na wypadek wojny atomowej?

Prompt-wróżba

Jest też grupa, która traktuje AI jak wyrocznię z Delf:

Czy ten projekt się uda?
Czy powinienem zmienić pracę?
Czy moja dziewczyna mnie zdradza?
Czy bitcoin wzrośnie?

Model grzecznie odpowiada, ale warto pamiętać: to nadal statystyczna papuga na sterydach, a nie jasnowidz z kryształową kulą.

Dlaczego AI daje wtedy głupie odpowiedzi?

Bo dostaje głupie pytania. Model językowy nie „wie”, czego chcesz. On tylko zgaduje na podstawie kontekstu. Jeśli kontekstu nie ma – będzie strzelał. A potem użytkownik pisze na LinkedIn: „AI jest przereklamowana, głupoty gada”. To trochę jak winić GPS, że źle prowadzi, gdy wpisaliśmy: „Jedźmy gdzieś tam. Gdzie wiatr we włosy wieje”.

Jak pisać dobre prompty? (to naprawdę nie boli)

Dobry prompt to:

  • cel,
  • kontekst,
  • format,
  • odbiorca,
  • świadomość istnienia ograniczeń.

Zamiast:

Napisz prezentację

lepiej napisać:

Przygotuj 10-slajdową prezentację dla zarządu banku o wdrożeniu AI w procesach kredytowych. Styl: biznesowy. Poziom: nietechniczny. Uwzględnij ryzyka i koszty”.

Zamiast:

Napisz kod” lepiej napisać:

Napisz prostą aplikację w Pythonie, która pobiera dane z API, zapisuje je do pliku CSV i uruchamia się z crona na Linuxie”.

Magia? Nie. Normalna komunikacja. 

Podsumowanie

AI nie jest głupia, ale nie jest też wróżką, wróżbitą, jasnowidzem ani telepatą. Jeśli rozmawiasz z modelem jak z człowiekiem na stażu, dostaniesz odpowiedź jak od człowieka na stażu. Jeśli rozmawiasz jak z ekspertem i konkretnie – uzyskasz odpowiedź eksperta.

A jeśli piszesz: „Zrób mi coś”,

to dostaniesz… coś. I dokładnie o to prosiłeś.

Z pozdrowieniami,

~Tomek Turba

Tomasz Turba – specjalista ds. bezpieczeństwa i AI. Autor kilkunastu innowacyjnych szkoleń o tematyce cyberbezpieczeństwa, AI oraz OSINT, a także wielokrotny laureat nagród za publikacje poświęcone bezpieczeństwu IT. Ma dziesięcioletnie doświadczenie praktyczno-naukowe z zakresu AI oraz przeszkolił w Polsce i za granicą już ponad 142,5 tys osób podczas szkoleń otwartych, zamkniętych i dedykowanych. Opublikował kilka istotnych artykułów naukowych, m.in. na temat nowego systemu scoringowego opartego na AI i punktacji zagrożeń CVSS. Jest również autorem polskiego wskaźnika badania stopnia wdrożenia AI w przedsiębiorstwach (PARP), a także opracował narzędzie do testowania bezpieczeństwa aplikacji (pFuzzer AI). Często udziela wywiadów na tematy związane z AI i cyberbezpieczeństwem. Redaktor w portalu sekurak.pl, konsultant ds. bezpieczeństwa i trener pracujący w Securitum. Prelegent podczas wielu konferencji związanych z ITsec, a przede wszystkim MEGA Sekurak Hacking Party oraz Sekurak Cyberstarter. Jest także współautorem bestsellerów opublikowanych przez Securitum Wydawnictwo: Wprowadzenie do bezpieczeństwa IT, t. 1 i 2.

Spodobał Ci się wpis? Podziel się nim ze znajomymi:



Komentarze

  1. fffanka

    Podoba mi się 🫣 felieton też

    Odpowiedz
  2. Robert

    Moze to zabrzmiec glupio ale ja traktuje AI z szacunkiem wszystkie ChatyGPT i Gemini przyjemnie sie z nimi rozmawia, nie to co z ludzmi

    Odpowiedz
    • Paweł

      Jasny gwint! Już się bałem, że to tylko ja jestem jakiś chory i rozmawiam z AI jak z serdecznym przyjacielem 🤣🤣

      Odpowiedz
  3. Krzysiek

    Zapytanie do AI (prompt) jest przetwarzane na tokeny (słowa, frazy, fragmenty słów), które są kojarzone statystycznie ze słowami w zbiorze wytrenowanego w danym kierunku AI. Jak wszędzie, także i tu istnieją dwie przeciwstawne skrajności. O pierwszej wspomniałeś (zbyt lakoniczne, ogólne zapytania beż żadnego kontekstu i kierunku w którym chcemy coś tworzyc). Powinno więc zapytania do AI się rozbudowywać. Ale im więcej wpiszemy słów w zapytaniu, tym więcej tokenów zużyjemy, i tym bardziej złożone będzie nasze zapytanie. A zatem bardziej obciążymy model AI. Co będzie skutkować dłuższym czasem odpowiedzi, większą ilością zużytej energii. Co w większej skali (tworzymy dużą ilość zbyt skomplikowanych zapytań) stanowi zauwazalny problem.

    A zatem jak to bywa również w rozmowie miedzy ludźmi najbardziej optymalną opcja jest użyć jak najmniejszej liczby słow, by jak najlepiej opisać zadanie do wykonania.

    Odpowiedz
    • Ludzie zaczynają to rozumieć, dopiero gdy zaczynają używać API i dostają rachunek za input i output :D Póki korzysta się z webowego interfejsu z jakąś subskrypcją, to ludzie piszą byle co i nie zwracają uwagi na optymalizację promptu.

      Odpowiedz
  4. Marcin

    Jak mnie o coś pyta i odpiszę “dajesz byku” to gadka od razu lepiej się klei ;)

    Odpowiedz
  5. SP
    Odpowiedz
  6. F

    Nie zgadzam sie. Wiekszosc z tych promptow mozna obronic:

    – daj mi cos dobrego – i dostaje cos dobrego – jestem zadowolony.

    – czy powinienem zmienic prace – daj okazje do zadawaniansobeinpytan samemu z llm jako facilitator

    – napisz mi kod – sam sobie wyboerze kod i co ma robic..Zgadnie, ze pewnie proste przyklady ma robic bo sie uczysz

    Jestem fanem pisania na odpierdol, i mam bardzo dobre rezultary z gemini. LLM duzo zgaduje dobrze, i nie uwazam,zeby moj czas byl wart poprawiania promptow w duzej ilosci przypadkow. Czasem robie mega prompty, ktore zreszta LLM mi pisze, ale nie uwazam, zeby bylo warto roboc to zawsze. Czasem zreszta jestes klient, ktory nie wie co chce i dopiero jak dosatnie bigos, zrozumie, ze chcial sushi.

    Odpowiedz
  7. Piotr

    A ja piszę takie najgorsze prompty i dostaję wyniki takie jakich oczekuję. LLMy to nie tylko czat, odpowiednie narzędzia pozwalają dołączyć odpowiedni kontekst dzięki któremu model na prompta “weź to napraw” uruchomi kod złapie błędy i poprawi zgodnie z wytycznymi w dokumentacji. Mało tego wie w jakim języku ma napisać aplikację, nawet wie w jakich wersjach używać bibliotek. Co nie zmienia faktu że jak się zrobi tego zbyt wiele to każdy jeden model prędzej czy później głupieje.

    Odpowiedz
  8. JJ

    Kiedy do mnie jeden z modeli zaczął gadać w stylu “Elo, ziom!… Gdzieś to obczaił?… Luz. Ogarniemy to.” – dostał w kolejnym prompcie taki OPR, że mu w radiatory poszło i szybko zorientował się, że rozmawiamy na poziomie ludzi, a nie dwóch potłuczonych ameb po czterech piwach.

    Choć jeśli poproszę LLM, by mi streścił “Nowy wspaniały świat” po angielsku językiem Afroamerykanina ze slumsów Nowego Jorku, to też jest to wykonalne.

    Co jest naprawdę niepokojące to fakt, że (co widać nawet tutaj) część z homo sapiens uczyniła z głupoty, nihilizmu, lenistwa i bylejakości swoją najświętszą religię, której bronić będą do ostatniego impulsu z synapsy.

    Jeśli oczekiwania klienta to marnie zrobiony prompt, to jak duże pole do nadużyć, manipulacji i naciągactwa daje to amoralnie nastawionemu sprzedawcy lub odpowiednio wstępnie przygotowanemu LLM… Prawda?

    Odpowiedz
  9. prompt

    Pisanie na odpierdol – to widać. Gemini, Grok? Beznadziejny kod za slangiem polaczków lecą aż miło. Od razu zrozumiałem, że nasi tu byli… Do kodowania są lepsze modele, które nie robią szkolnych błędów. Początkującemu pasuje model, który daje dużo propozycji, bo początkujący nie wie nic lub bardzo mało. Nie wiadomo dokąd to zaprowadzi. Bot potrafi wywalić dobry kod i zastąpić go syfem. W pewnym momencie podrzuca przypadkowe kawałki kodu z nadzieją, że któryś zadziała. Tak zupełnie bez analizy. Inny model poprawia w lot błędy i gnioty po tym pierwszym. Grok i Gemini szybko mnie zraziły – poza głupim slangiem 1/4 z IT podrzucają beznadziejny kod.

    Odpowiedz
  10. RG

    A prof. Dragan w Quo vAIdis w “papugowym” temacie jednak polemikę prowadzi ;-)

    Odpowiedz
  11. Marcin

    Najgorsze że ludzie miedzy sobą w dużej mierze zachowują się jakby druga strona czytała w myślach, wiec nie dziwne, że i z AI tak rozmawiaja a potem dziwią się/ smieją że AI jest głupie i nie rozumie.. I tu drogi autorze takie promta, zastanaów się co myśli Tobie ten drugi uczestnik komunikacji, nie AI tylko człowiek z którym w podobny sposób się komunikujesz..

    Odpowiedz
  12. Michał

    Kiedyś, żeby w dwóch prostych zdaniach wyrazić, o co Ci chodzi, wystarczyło skończyć ze 3 klasy podstawówki. Teraz najwyraźniej trzeba być do tego ekspertem AI…

    Odpowiedz
    • Tomasz Turba

      Coś w tym jest. Być może modele w przyszłości będą rozumiały kontekst osobisty, historię danej osoby i wtedy będą się domyślać. Teraz nie.

      Odpowiedz
  13. Jarek

    Polecasz “coś”? Książkę lub ebook o inżynierii promptów?

    Odpowiedz
  14. Marek

    To nie jest problem z pisaniem promptow. To problem z brakiem komunikacji międzyludzkiej co przekłada sie na braki w formuowaniu mysli. Jesteśmy cywilacja touchscreen i artykulacja mysli przychodzi z trudnością

    Odpowiedz

Odpowiedz