Konferencja Mega Sekurak Hacking Party w Krakowie – 26-27 października!

Świąteczne promocje z sekurakiem!

AI bez lukru #1: Jak pisać beznadziejne prompty, by nawet AI miało Cię dość

12 stycznia 2026, 14:08 | Aktualności, Teksty | komentarze 3

Cześć! Z tej strony Tomek Turba. AI bez lukru to cykl moich felietonów o sztucznej inteligencji bez marketingowego lukru, bez korporacyjnych slajdów i bez bajek o „rewolucji, która wszystko zmieni”. Pokazuję AI taką, jaka jest naprawdę: z absurdami, wpadkami, halucynacjami i konsekwencjami, o których rzadko mówi się głośno. Bez zadęcia, bez propagandy, z humorem – ale na serio. 

Uwierzcie mi, z AI pracuję już 10 rok. Przeszkoliłem setki tysięcy osób, narzędzi AI używam w pracy na co dzień, zajmuję się tą tematyką także w aspekcie naukowym.

Chcesz ogarnąć ze mną niezbędne umiejętności dotyczące AI w 2026 roku i tym samym nie zostać w tyle? 16 stycznia o godz. 19:00 zapraszam Cię na BEZPŁATNE, dwugodzinne szkolenie ze mną, Tomkiem Turbą – Poznaj 10 umiejętności AI niezbędnych w 2026 roku

Szkolenie na żywo, z dostępem do nagrania na zawsze.

Zapisuję się

Sztuczna inteligencja miała być przełomem. Rewolucją. Nowym Internetem. Wyszło jak zwykle – połowa Internetu próbuje z niej zrobić wróżkę, jasnowidza, sekretarkę i kolegę od prac domowych w jednym. Codziennie miliony ludzi siadają do rozmowy z AI i zaczynają ją w ten sam sposób:

Zrób mi coś”.

Model językowy przez chwilę zastanawia się, czy użytkownik właśnie próbuje wygenerować stronę internetową, strategię biznesową, kod w Pythonie czy może list miłosny do księgowej. Ale dzielnie odpowiada. Bo jest grzeczny. I cierpliwy. Jeszcze. 

Poniżej przedstawiam Wam listę najlepszych „promptów”, za które powinno się pójść na odsiadkę od komputera i AI na co najmniej tydzień.

Prompt roku: „Weź ogarnij

Najgorsze prompty świata łączy jedno: autor zakłada, że AI czyta mu w myślach.

Napisz mi tekst.
Zrób kod.
Wymyśl nazwę.
Ogarnij prezentację.
Zrób to lepiej.

To trochę tak, jakby wejść do restauracji i powiedzieć kelnerowi: „Daj mi coś dobrego”.

Na pytanie: „Ale co konkretnie?” odpowiedzieć: „No wiesz… coś”. I potem dziwić się, że dostaliśmy bigos, a chcieliśmy sushi.

Prompt pasywno-agresywny

Są też użytkownicy, którzy traktują AI jak juniora na stażu:

– Nie, źle.
– Jeszcze raz.
– Ale szybciej.
– Bez sensu.
– Źle to zrobiłeś.

Bez informacji, co jest nie tak. Bez kontekstu. Bez przykładów. Bez celu. To jak poprawianie czyjegoś CV opatrzone jednym tylko komentarzem: „No nie, to jest słabe. Popraw”. I oczekiwanie, że ktoś się domyśli, że chodziło o język, strukturę, doświadczenie i literówki.

Klasyk: „Napisz kod

Jeden z najczęstszych promptów w IT: „Napisz mi kod”.

Jaki kod?
W jakim języku?
Do czego?
Na jaką platformę?
Z jakimi ograniczeniami?
Dla kogo?

To trochę jak: „Zbuduj mi dom”.

Super. Tylko czy to ma być willa, domek letniskowy, kontener, bunkier czy ziemianka na wypadek wojny atomowej?

Prompt-wróżba

Jest też grupa, która traktuje AI jak wyrocznię z Delf:

Czy ten projekt się uda?
Czy powinienem zmienić pracę?
Czy moja dziewczyna mnie zdradza?
Czy bitcoin wzrośnie?

Model grzecznie odpowiada, ale warto pamiętać: to nadal statystyczna papuga na sterydach, a nie jasnowidz z kryształową kulą.

Dlaczego AI daje wtedy głupie odpowiedzi?

Bo dostaje głupie pytania. Model językowy nie „wie”, czego chcesz. On tylko zgaduje na podstawie kontekstu. Jeśli kontekstu nie ma – będzie strzelał. A potem użytkownik pisze na LinkedIn: „AI jest przereklamowana, głupoty gada”. To trochę jak winić GPS, że źle prowadzi, gdy wpisaliśmy: „Jedźmy gdzieś tam. Gdzie wiatr we włosy wieje”.

Jak pisać dobre prompty? (to naprawdę nie boli)

Dobry prompt to:

  • cel,
  • kontekst,
  • format,
  • odbiorca,
  • świadomość istnienia ograniczeń.

Zamiast:

Napisz prezentację

lepiej napisać:

Przygotuj 10-slajdową prezentację dla zarządu banku o wdrożeniu AI w procesach kredytowych. Styl: biznesowy. Poziom: nietechniczny. Uwzględnij ryzyka i koszty”.

Zamiast:

Napisz kod” lepiej napisać:

Napisz prostą aplikację w Pythonie, która pobiera dane z API, zapisuje je do pliku CSV i uruchamia się z crona na Linuxie”.

Magia? Nie. Normalna komunikacja. 

Podsumowanie

AI nie jest głupia, ale nie jest też wróżką, wróżbitą, jasnowidzem ani telepatą. Jeśli rozmawiasz z modelem jak z człowiekiem na stażu, dostaniesz odpowiedź jak od człowieka na stażu. Jeśli rozmawiasz jak z ekspertem i konkretnie – uzyskasz odpowiedź eksperta.

A jeśli piszesz: „Zrób mi coś”,

to dostaniesz… coś. I dokładnie o to prosiłeś.

Z pozdrowieniami,

~Tomek Turba

Tomasz Turba – specjalista ds. bezpieczeństwa i AI. Autor kilkunastu innowacyjnych szkoleń o tematyce cyberbezpieczeństwa, AI oraz OSINT, a także wielokrotny laureat nagród za publikacje poświęcone bezpieczeństwu IT. Ma dziesięcioletnie doświadczenie praktyczno-naukowe z zakresu AI oraz przeszkolił w Polsce i za granicą już ponad 142 500 osób podczas szkoleń otwartych, zamkniętych i dedykowanych. Opublikował kilka istotnych artykułów naukowych, m.in. na temat nowego systemu scoringowego opartego na AI i punktacji zagrożeń CVSS. Jest również autorem polskiego wskaźnika badania stopnia wdrożenia AI w przedsiębiorstwach (PARP), a także opracował narzędzie do testowania bezpieczeństwa aplikacji (pFuzzer AI). Często udziela wywiadów na tematy związane z AI i cyberbezpieczeństwem. Redaktor w portalu sekurak.pl, konsultant ds. bezpieczeństwa i trener pracujący w Securitum. Prelegent podczas wielu konferencji związanych z ITsec, a przede wszystkim MEGA Sekurak Hacking Party oraz Sekurak Cyberstarter. Jest także współautorem bestsellerów opublikowanych przez Securitum Wydawnictwo: Wprowadzenie do bezpieczeństwa IT, t. 1 i 2.

Spodobał Ci się wpis? Podziel się nim ze znajomymi:



Komentarze

  1. fffanka

    Podoba mi się 🫣 felieton też

    Odpowiedz
  2. Robert

    Moze to zabrzmiec glupio ale ja traktuje AI z szacunkiem wszystkie ChatyGPT i Gemini przyjemnie sie z nimi rozmawia, nie to co z ludzmi

    Odpowiedz
  3. Krzysiek

    Zapytanie do AI (prompt) jest przetwarzane na tokeny (słowa, frazy, fragmenty słów), które są kojarzone statystycznie ze słowami w zbiorze wytrenowanego w danym kierunku AI. Jak wszędzie, także i tu istnieją dwie przeciwstawne skrajności. O pierwszej wspomniałeś (zbyt lakoniczne, ogólne zapytania beż żadnego kontekstu i kierunku w którym chcemy coś tworzyc). Powinno więc zapytania do AI się rozbudowywać. Ale im więcej wpiszemy słów w zapytaniu, tym więcej tokenów zużyjemy, i tym bardziej złożone będzie nasze zapytanie. A zatem bardziej obciążymy model AI. Co będzie skutkować dłuższym czasem odpowiedzi, większą ilością zużytej energii. Co w większej skali (tworzymy dużą ilość zbyt skomplikowanych zapytań) stanowi zauwazalny problem.

    A zatem jak to bywa również w rozmowie miedzy ludźmi najbardziej optymalną opcja jest użyć jak najmniejszej liczby słow, by jak najlepiej opisać zadanie do wykonania.

    Odpowiedz

Odpowiedz