Konferencja Mega Sekurak Hacking Party w Krakowie – 26-27 października!
AI bez lukru #1: Jak pisać beznadziejne prompty, by nawet AI miało Cię dość
Cześć! Z tej strony Tomek Turba. AI bez lukru to cykl moich felietonów o sztucznej inteligencji bez marketingowego lukru, bez korporacyjnych slajdów i bez bajek o „rewolucji, która wszystko zmieni”. Pokazuję AI taką, jaka jest naprawdę: z absurdami, wpadkami, halucynacjami i konsekwencjami, o których rzadko mówi się głośno. Bez zadęcia, bez propagandy, z humorem – ale na serio.
Pełna lista odcinków: tutaj

Uwierzcie mi, z AI pracuję już 10 rok. Przeszkoliłem setki tysięcy osób, narzędzi AI używam w pracy na co dzień, zajmuję się tą tematyką także w aspekcie naukowym.
Chcesz ogarnąć ze mną niezbędne umiejętności dotyczące AI w 2026 roku i tym samym nie zostać w tyle? 27 stycznia startuje kolejna edycja szkolenia ze mną, Tomkiem Turbą – Narzędziownik AI 2.0 Reloaded! To najbardziej kompletne szkolenie z AI w Polsce. Składa się aż z trzynastu sesji, trwających po dwie godziny każda. Szkolenie na żywo, z dostępem do nagrania na zawsze. Skorzystaj z linka i zamów z 70-procentową zniżką. Zapisuję się (https://sklep.securitum.pl/narzedziownik-ai-reloaded/nai70sekurak)
Sztuczna inteligencja miała być przełomem. Rewolucją. Nowym Internetem. Wyszło jak zwykle – połowa Internetu próbuje z niej zrobić wróżkę, jasnowidza, sekretarkę i kolegę od prac domowych w jednym. Codziennie miliony ludzi siadają do rozmowy z AI i zaczynają ją w ten sam sposób:
„Zrób mi coś”.
Model językowy przez chwilę zastanawia się, czy użytkownik właśnie próbuje wygenerować stronę internetową, strategię biznesową, kod w Pythonie czy może list miłosny do księgowej. Ale dzielnie odpowiada. Bo jest grzeczny. I cierpliwy. Jeszcze.
Poniżej przedstawiam Wam listę najlepszych „promptów”, za które powinno się pójść na odsiadkę od komputera i AI na co najmniej tydzień.
Prompt roku: „Weź ogarnij”
Najgorsze prompty świata łączy jedno: autor zakłada, że AI czyta mu w myślach.
– Napisz mi tekst.
– Zrób kod.
– Wymyśl nazwę.
– Ogarnij prezentację.
– Zrób to lepiej.
To trochę tak, jakby wejść do restauracji i powiedzieć kelnerowi: „Daj mi coś dobrego”.
Na pytanie: „Ale co konkretnie?” odpowiedzieć: „No wiesz… coś”. I potem dziwić się, że dostaliśmy bigos, a chcieliśmy sushi.
Prompt pasywno-agresywny
Są też użytkownicy, którzy traktują AI jak juniora na stażu:
– Nie, źle.
– Jeszcze raz.
– Ale szybciej.
– Bez sensu.
– Źle to zrobiłeś.
Bez informacji, co jest nie tak. Bez kontekstu. Bez przykładów. Bez celu. To jak poprawianie czyjegoś CV opatrzone jednym tylko komentarzem: „No nie, to jest słabe. Popraw”. I oczekiwanie, że ktoś się domyśli, że chodziło o język, strukturę, doświadczenie i literówki.
Klasyk: „Napisz kod”
Jeden z najczęstszych promptów w IT: „Napisz mi kod”.
Jaki kod?
W jakim języku?
Do czego?
Na jaką platformę?
Z jakimi ograniczeniami?
Dla kogo?
To trochę jak: „Zbuduj mi dom”.
Super. Tylko czy to ma być willa, domek letniskowy, kontener, bunkier czy ziemianka na wypadek wojny atomowej?
Prompt-wróżba
Jest też grupa, która traktuje AI jak wyrocznię z Delf:
– Czy ten projekt się uda?
– Czy powinienem zmienić pracę?
– Czy moja dziewczyna mnie zdradza?
– Czy bitcoin wzrośnie?
Model grzecznie odpowiada, ale warto pamiętać: to nadal statystyczna papuga na sterydach, a nie jasnowidz z kryształową kulą.
Dlaczego AI daje wtedy głupie odpowiedzi?
Bo dostaje głupie pytania. Model językowy nie „wie”, czego chcesz. On tylko zgaduje na podstawie kontekstu. Jeśli kontekstu nie ma – będzie strzelał. A potem użytkownik pisze na LinkedIn: „AI jest przereklamowana, głupoty gada”. To trochę jak winić GPS, że źle prowadzi, gdy wpisaliśmy: „Jedźmy gdzieś tam. Gdzie wiatr we włosy wieje”.
Jak pisać dobre prompty? (to naprawdę nie boli)
Dobry prompt to:
- cel,
- kontekst,
- format,
- odbiorca,
- świadomość istnienia ograniczeń.
Zamiast:
„Napisz prezentację”
lepiej napisać:
„Przygotuj 10-slajdową prezentację dla zarządu banku o wdrożeniu AI w procesach kredytowych. Styl: biznesowy. Poziom: nietechniczny. Uwzględnij ryzyka i koszty”.
Zamiast:
„Napisz kod” lepiej napisać:
„Napisz prostą aplikację w Pythonie, która pobiera dane z API, zapisuje je do pliku CSV i uruchamia się z crona na Linuxie”.
Magia? Nie. Normalna komunikacja.
Podsumowanie
AI nie jest głupia, ale nie jest też wróżką, wróżbitą, jasnowidzem ani telepatą. Jeśli rozmawiasz z modelem jak z człowiekiem na stażu, dostaniesz odpowiedź jak od człowieka na stażu. Jeśli rozmawiasz jak z ekspertem i konkretnie – uzyskasz odpowiedź eksperta.
A jeśli piszesz: „Zrób mi coś”,
to dostaniesz… coś. I dokładnie o to prosiłeś.
Z pozdrowieniami,
~Tomek Turba

Tomasz Turba – specjalista ds. bezpieczeństwa i AI. Autor kilkunastu innowacyjnych szkoleń o tematyce cyberbezpieczeństwa, AI oraz OSINT, a także wielokrotny laureat nagród za publikacje poświęcone bezpieczeństwu IT. Ma dziesięcioletnie doświadczenie praktyczno-naukowe z zakresu AI oraz przeszkolił w Polsce i za granicą już ponad 142,5 tys osób podczas szkoleń otwartych, zamkniętych i dedykowanych. Opublikował kilka istotnych artykułów naukowych, m.in. na temat nowego systemu scoringowego opartego na AI i punktacji zagrożeń CVSS. Jest również autorem polskiego wskaźnika badania stopnia wdrożenia AI w przedsiębiorstwach (PARP), a także opracował narzędzie do testowania bezpieczeństwa aplikacji (pFuzzer AI). Często udziela wywiadów na tematy związane z AI i cyberbezpieczeństwem. Redaktor w portalu sekurak.pl, konsultant ds. bezpieczeństwa i trener pracujący w Securitum. Prelegent podczas wielu konferencji związanych z ITsec, a przede wszystkim MEGA Sekurak Hacking Party oraz Sekurak Cyberstarter. Jest także współautorem bestsellerów opublikowanych przez Securitum Wydawnictwo: Wprowadzenie do bezpieczeństwa IT, t. 1 i 2.

Podoba mi się 🫣 felieton też
Moze to zabrzmiec glupio ale ja traktuje AI z szacunkiem wszystkie ChatyGPT i Gemini przyjemnie sie z nimi rozmawia, nie to co z ludzmi
Jasny gwint! Już się bałem, że to tylko ja jestem jakiś chory i rozmawiam z AI jak z serdecznym przyjacielem 🤣🤣
Zapytanie do AI (prompt) jest przetwarzane na tokeny (słowa, frazy, fragmenty słów), które są kojarzone statystycznie ze słowami w zbiorze wytrenowanego w danym kierunku AI. Jak wszędzie, także i tu istnieją dwie przeciwstawne skrajności. O pierwszej wspomniałeś (zbyt lakoniczne, ogólne zapytania beż żadnego kontekstu i kierunku w którym chcemy coś tworzyc). Powinno więc zapytania do AI się rozbudowywać. Ale im więcej wpiszemy słów w zapytaniu, tym więcej tokenów zużyjemy, i tym bardziej złożone będzie nasze zapytanie. A zatem bardziej obciążymy model AI. Co będzie skutkować dłuższym czasem odpowiedzi, większą ilością zużytej energii. Co w większej skali (tworzymy dużą ilość zbyt skomplikowanych zapytań) stanowi zauwazalny problem.
A zatem jak to bywa również w rozmowie miedzy ludźmi najbardziej optymalną opcja jest użyć jak najmniejszej liczby słow, by jak najlepiej opisać zadanie do wykonania.
Ludzie zaczynają to rozumieć, dopiero gdy zaczynają używać API i dostają rachunek za input i output :D Póki korzysta się z webowego interfejsu z jakąś subskrypcją, to ludzie piszą byle co i nie zwracają uwagi na optymalizację promptu.
Jak mnie o coś pyta i odpiszę “dajesz byku” to gadka od razu lepiej się klei ;)
Przykład z kelnerem nietrafiony, naprawdę dobry wybrnie z takiej sytuacji zawodowo i zarówno klient jak i restaurator będą zadowoleni :). To jest kwestia ‘widoczności kontekstu’. Ai go nabywa, ale wymaga to szeregu wcześniejszych interakcji podobnie jak obchodzenie wewnętrznych blokad opisane tu:
https://assets.anthropic.com/m/ec212e6566a0d47/original/Disrupting-the-first-reported-AI-orchestrated-cyber-espionage-campaign.pdf
Nie zgadzam sie. Wiekszosc z tych promptow mozna obronic:
– daj mi cos dobrego – i dostaje cos dobrego – jestem zadowolony.
– czy powinienem zmienic prace – daj okazje do zadawaniansobeinpytan samemu z llm jako facilitator
– napisz mi kod – sam sobie wyboerze kod i co ma robic..Zgadnie, ze pewnie proste przyklady ma robic bo sie uczysz
Jestem fanem pisania na odpierdol, i mam bardzo dobre rezultary z gemini. LLM duzo zgaduje dobrze, i nie uwazam,zeby moj czas byl wart poprawiania promptow w duzej ilosci przypadkow. Czasem robie mega prompty, ktore zreszta LLM mi pisze, ale nie uwazam, zeby bylo warto roboc to zawsze. Czasem zreszta jestes klient, ktory nie wie co chce i dopiero jak dosatnie bigos, zrozumie, ze chcial sushi.
A ja piszę takie najgorsze prompty i dostaję wyniki takie jakich oczekuję. LLMy to nie tylko czat, odpowiednie narzędzia pozwalają dołączyć odpowiedni kontekst dzięki któremu model na prompta “weź to napraw” uruchomi kod złapie błędy i poprawi zgodnie z wytycznymi w dokumentacji. Mało tego wie w jakim języku ma napisać aplikację, nawet wie w jakich wersjach używać bibliotek. Co nie zmienia faktu że jak się zrobi tego zbyt wiele to każdy jeden model prędzej czy później głupieje.
Kiedy do mnie jeden z modeli zaczął gadać w stylu “Elo, ziom!… Gdzieś to obczaił?… Luz. Ogarniemy to.” – dostał w kolejnym prompcie taki OPR, że mu w radiatory poszło i szybko zorientował się, że rozmawiamy na poziomie ludzi, a nie dwóch potłuczonych ameb po czterech piwach.
Choć jeśli poproszę LLM, by mi streścił “Nowy wspaniały świat” po angielsku językiem Afroamerykanina ze slumsów Nowego Jorku, to też jest to wykonalne.
Co jest naprawdę niepokojące to fakt, że (co widać nawet tutaj) część z homo sapiens uczyniła z głupoty, nihilizmu, lenistwa i bylejakości swoją najświętszą religię, której bronić będą do ostatniego impulsu z synapsy.
Jeśli oczekiwania klienta to marnie zrobiony prompt, to jak duże pole do nadużyć, manipulacji i naciągactwa daje to amoralnie nastawionemu sprzedawcy lub odpowiednio wstępnie przygotowanemu LLM… Prawda?
Pisanie na odpierdol – to widać. Gemini, Grok? Beznadziejny kod za slangiem polaczków lecą aż miło. Od razu zrozumiałem, że nasi tu byli… Do kodowania są lepsze modele, które nie robią szkolnych błędów. Początkującemu pasuje model, który daje dużo propozycji, bo początkujący nie wie nic lub bardzo mało. Nie wiadomo dokąd to zaprowadzi. Bot potrafi wywalić dobry kod i zastąpić go syfem. W pewnym momencie podrzuca przypadkowe kawałki kodu z nadzieją, że któryś zadziała. Tak zupełnie bez analizy. Inny model poprawia w lot błędy i gnioty po tym pierwszym. Grok i Gemini szybko mnie zraziły – poza głupim slangiem 1/4 z IT podrzucają beznadziejny kod.
A prof. Dragan w Quo vAIdis w “papugowym” temacie jednak polemikę prowadzi ;-)
Najgorsze że ludzie miedzy sobą w dużej mierze zachowują się jakby druga strona czytała w myślach, wiec nie dziwne, że i z AI tak rozmawiaja a potem dziwią się/ smieją że AI jest głupie i nie rozumie.. I tu drogi autorze takie promta, zastanaów się co myśli Tobie ten drugi uczestnik komunikacji, nie AI tylko człowiek z którym w podobny sposób się komunikujesz..
Kiedyś, żeby w dwóch prostych zdaniach wyrazić, o co Ci chodzi, wystarczyło skończyć ze 3 klasy podstawówki. Teraz najwyraźniej trzeba być do tego ekspertem AI…
Coś w tym jest. Być może modele w przyszłości będą rozumiały kontekst osobisty, historię danej osoby i wtedy będą się domyślać. Teraz nie.
Polecasz “coś”? Książkę lub ebook o inżynierii promptów?
To nie jest problem z pisaniem promptow. To problem z brakiem komunikacji międzyludzkiej co przekłada sie na braki w formuowaniu mysli. Jesteśmy cywilacja touchscreen i artykulacja mysli przychodzi z trudnością
Niestety prawda :-/