Konferencja Mega Sekurak Hacking Party w Krakowie – 26-27 października!
AI bez lukru #1: Jak pisać beznadziejne prompty, by nawet AI miało Cię dość
Cześć! Z tej strony Tomek Turba. AI bez lukru to cykl moich felietonów o sztucznej inteligencji bez marketingowego lukru, bez korporacyjnych slajdów i bez bajek o „rewolucji, która wszystko zmieni”. Pokazuję AI taką, jaka jest naprawdę: z absurdami, wpadkami, halucynacjami i konsekwencjami, o których rzadko mówi się głośno. Bez zadęcia, bez propagandy, z humorem – ale na serio.

Uwierzcie mi, z AI pracuję już 10 rok. Przeszkoliłem setki tysięcy osób, narzędzi AI używam w pracy na co dzień, zajmuję się tą tematyką także w aspekcie naukowym.
Chcesz ogarnąć ze mną niezbędne umiejętności dotyczące AI w 2026 roku i tym samym nie zostać w tyle? 16 stycznia o godz. 19:00 zapraszam Cię na BEZPŁATNE, dwugodzinne szkolenie ze mną, Tomkiem Turbą – Poznaj 10 umiejętności AI niezbędnych w 2026 roku.
Szkolenie na żywo, z dostępem do nagrania na zawsze.
Sztuczna inteligencja miała być przełomem. Rewolucją. Nowym Internetem. Wyszło jak zwykle – połowa Internetu próbuje z niej zrobić wróżkę, jasnowidza, sekretarkę i kolegę od prac domowych w jednym. Codziennie miliony ludzi siadają do rozmowy z AI i zaczynają ją w ten sam sposób:
„Zrób mi coś”.
Model językowy przez chwilę zastanawia się, czy użytkownik właśnie próbuje wygenerować stronę internetową, strategię biznesową, kod w Pythonie czy może list miłosny do księgowej. Ale dzielnie odpowiada. Bo jest grzeczny. I cierpliwy. Jeszcze.
Poniżej przedstawiam Wam listę najlepszych „promptów”, za które powinno się pójść na odsiadkę od komputera i AI na co najmniej tydzień.
Prompt roku: „Weź ogarnij”
Najgorsze prompty świata łączy jedno: autor zakłada, że AI czyta mu w myślach.
– Napisz mi tekst.
– Zrób kod.
– Wymyśl nazwę.
– Ogarnij prezentację.
– Zrób to lepiej.
To trochę tak, jakby wejść do restauracji i powiedzieć kelnerowi: „Daj mi coś dobrego”.
Na pytanie: „Ale co konkretnie?” odpowiedzieć: „No wiesz… coś”. I potem dziwić się, że dostaliśmy bigos, a chcieliśmy sushi.
Prompt pasywno-agresywny
Są też użytkownicy, którzy traktują AI jak juniora na stażu:
– Nie, źle.
– Jeszcze raz.
– Ale szybciej.
– Bez sensu.
– Źle to zrobiłeś.
Bez informacji, co jest nie tak. Bez kontekstu. Bez przykładów. Bez celu. To jak poprawianie czyjegoś CV opatrzone jednym tylko komentarzem: „No nie, to jest słabe. Popraw”. I oczekiwanie, że ktoś się domyśli, że chodziło o język, strukturę, doświadczenie i literówki.
Klasyk: „Napisz kod”
Jeden z najczęstszych promptów w IT: „Napisz mi kod”.
Jaki kod?
W jakim języku?
Do czego?
Na jaką platformę?
Z jakimi ograniczeniami?
Dla kogo?
To trochę jak: „Zbuduj mi dom”.
Super. Tylko czy to ma być willa, domek letniskowy, kontener, bunkier czy ziemianka na wypadek wojny atomowej?
Prompt-wróżba
Jest też grupa, która traktuje AI jak wyrocznię z Delf:
– Czy ten projekt się uda?
– Czy powinienem zmienić pracę?
– Czy moja dziewczyna mnie zdradza?
– Czy bitcoin wzrośnie?
Model grzecznie odpowiada, ale warto pamiętać: to nadal statystyczna papuga na sterydach, a nie jasnowidz z kryształową kulą.
Dlaczego AI daje wtedy głupie odpowiedzi?
Bo dostaje głupie pytania. Model językowy nie „wie”, czego chcesz. On tylko zgaduje na podstawie kontekstu. Jeśli kontekstu nie ma – będzie strzelał. A potem użytkownik pisze na LinkedIn: „AI jest przereklamowana, głupoty gada”. To trochę jak winić GPS, że źle prowadzi, gdy wpisaliśmy: „Jedźmy gdzieś tam. Gdzie wiatr we włosy wieje”.
Jak pisać dobre prompty? (to naprawdę nie boli)
Dobry prompt to:
- cel,
- kontekst,
- format,
- odbiorca,
- świadomość istnienia ograniczeń.
Zamiast:
„Napisz prezentację”
lepiej napisać:
„Przygotuj 10-slajdową prezentację dla zarządu banku o wdrożeniu AI w procesach kredytowych. Styl: biznesowy. Poziom: nietechniczny. Uwzględnij ryzyka i koszty”.
Zamiast:
„Napisz kod” lepiej napisać:
„Napisz prostą aplikację w Pythonie, która pobiera dane z API, zapisuje je do pliku CSV i uruchamia się z crona na Linuxie”.
Magia? Nie. Normalna komunikacja.
Podsumowanie
AI nie jest głupia, ale nie jest też wróżką, wróżbitą, jasnowidzem ani telepatą. Jeśli rozmawiasz z modelem jak z człowiekiem na stażu, dostaniesz odpowiedź jak od człowieka na stażu. Jeśli rozmawiasz jak z ekspertem i konkretnie – uzyskasz odpowiedź eksperta.
A jeśli piszesz: „Zrób mi coś”,
to dostaniesz… coś. I dokładnie o to prosiłeś.
Z pozdrowieniami,
~Tomek Turba

Tomasz Turba – specjalista ds. bezpieczeństwa i AI. Autor kilkunastu innowacyjnych szkoleń o tematyce cyberbezpieczeństwa, AI oraz OSINT, a także wielokrotny laureat nagród za publikacje poświęcone bezpieczeństwu IT. Ma dziesięcioletnie doświadczenie praktyczno-naukowe z zakresu AI oraz przeszkolił w Polsce i za granicą już ponad 142 500 osób podczas szkoleń otwartych, zamkniętych i dedykowanych. Opublikował kilka istotnych artykułów naukowych, m.in. na temat nowego systemu scoringowego opartego na AI i punktacji zagrożeń CVSS. Jest również autorem polskiego wskaźnika badania stopnia wdrożenia AI w przedsiębiorstwach (PARP), a także opracował narzędzie do testowania bezpieczeństwa aplikacji (pFuzzer AI). Często udziela wywiadów na tematy związane z AI i cyberbezpieczeństwem. Redaktor w portalu sekurak.pl, konsultant ds. bezpieczeństwa i trener pracujący w Securitum. Prelegent podczas wielu konferencji związanych z ITsec, a przede wszystkim MEGA Sekurak Hacking Party oraz Sekurak Cyberstarter. Jest także współautorem bestsellerów opublikowanych przez Securitum Wydawnictwo: Wprowadzenie do bezpieczeństwa IT, t. 1 i 2.

Podoba mi się 🫣 felieton też
Moze to zabrzmiec glupio ale ja traktuje AI z szacunkiem wszystkie ChatyGPT i Gemini przyjemnie sie z nimi rozmawia, nie to co z ludzmi
Zapytanie do AI (prompt) jest przetwarzane na tokeny (słowa, frazy, fragmenty słów), które są kojarzone statystycznie ze słowami w zbiorze wytrenowanego w danym kierunku AI. Jak wszędzie, także i tu istnieją dwie przeciwstawne skrajności. O pierwszej wspomniałeś (zbyt lakoniczne, ogólne zapytania beż żadnego kontekstu i kierunku w którym chcemy coś tworzyc). Powinno więc zapytania do AI się rozbudowywać. Ale im więcej wpiszemy słów w zapytaniu, tym więcej tokenów zużyjemy, i tym bardziej złożone będzie nasze zapytanie. A zatem bardziej obciążymy model AI. Co będzie skutkować dłuższym czasem odpowiedzi, większą ilością zużytej energii. Co w większej skali (tworzymy dużą ilość zbyt skomplikowanych zapytań) stanowi zauwazalny problem.
A zatem jak to bywa również w rozmowie miedzy ludźmi najbardziej optymalną opcja jest użyć jak najmniejszej liczby słow, by jak najlepiej opisać zadanie do wykonania.