Konferencja Mega Sekurak Hacking Party w Krakowie – 26-27 października!
AI bez lukru #30: Wojna bez żołnierzy
Chcesz ogarnąć ze mną niezbędne umiejętności dotyczące AI w 2026 roku i tym samym nie zostać w tyle? 24 kwietnia startuje kolejna edycja szkolenia ze mną, Tomkiem Turbą – Narzędziownik AI 2.0 Reloaded! To najbardziej kompletne szkolenie z AI w Polsce. Składa się z aż czternastu sesji, trwających po dwie godziny każda. Szkolenie na żywo, z dostępem do nagrania na zawsze. Skorzystaj z linku i zamów z 70-procentową zniżką. Zapisuję się (sklep.securitum.pl/narzedziownik-ai-reloaded/nai70sekurak).
Pełna lista odcinków: tutaj

Chcesz ogarnąć ze mną niezbędne umiejętności dotyczące AI w 2026 roku i tym samym nie zostać w tyle? Właśnie wystartowała kolejna edycja szkolenia ze mną, Tomkiem Turbą – Narzędziownik AI 2.0 Reloaded! To najbardziej kompletne szkolenie z AI w Polsce. Składa się z aż czternastu sesji, trwających po dwie godziny każda. Szkolenie na żywo, z dostępem do nagrania na zawsze. Skorzystaj z linku i zamów ze zniżką. Możesz też dołączyć do edycji kwietniowej, wszystko w linku poniżej.
“Shall we play a game?”
W 1983 roku komputer WOPR w filmie Gry wojenne prawie rozpętał III wojnę światową, bo ktoś pomylił symulację z rzeczywistością. Maszyna analizowała scenariusze nuklearne szybciej, niż ludzie byli w stanie zrozumieć, co się dzieje. Kilka lat później Terminator pokazał Skynet – system obronny, który uznał, że największym zagrożeniem dla bezpieczeństwa jest człowiek. Wtedy to było science fiction. Dziś to jest roadmapa technologiczna.
Współczesne pole walki zmienia się szybciej niż jakakolwiek doktryna wojskowa z XX wieku. Autonomiczne drony podejmują decyzje w ułamku sekundy. Systemy oparte na AI analizują obrazy satelitarne, przewidują ruchy wojsk, optymalizują logistykę. Wojna zaczyna przypominać starcie algorytmów, nie ludzi. “Maszyna nie czuje strachu. Maszyna nie zawaha się.” – to zdanie Kyle’a Reese mogłoby paść dziś na dowolnej konferencji technologii obronnych. Stare wojsko opierało się na trzech filarach: hierarchii, dyscyplinie i morale. Żołnierz jest istotą ludzką – z lękiem, wątpliwościami, traumą. Wojna była brudna, chaotyczna, pełna błędów.
Nowa wojna?
To dane, modele predykcyjne, sensory i drony sterowane przez algorytmy. Słyszeliście o autonomicznych systemach broni? Tzw. Lethal Autonomous Weapons Systems – już dziś potrafią identyfikować cele bez bezpośredniego udziału człowieka. AI analizuje miliony sygnałów, których człowiek sam nie ogarnie. Decyzje zapadają szybciej niż odruch powieki.
Ale największy mit jest inny.
Mit mówi, że AI-wojna dopiero nadchodzi. Nie. Ona już trwa. Nie wygląda jak w Terminatorze. Nie ma czerwonych oczu w mroku. Jest w systemach antydronowych. W automatycznym targetowaniu. W cyberatakach generowanych przez modele. W deepfake’ach destabilizujących wybory. W kampaniach dezinformacyjnych, które nie mają twarzy. Nie potrzebujemy Skynetu. Wystarczy dobrze napisany kod i budżet państwowy.
Ale to dopiero początek.
AI zmienia nie tylko sposób prowadzenia wojny. Zmienia proporcje siły. Kiedyś armia wymagała milionów ludzi, sprzętu, przemysłu ciężkiego. Dziś przewagę może dać infrastruktura obliczeniowa, dostęp do danych i zdolność trenowania modeli. Małe państwo z dostępem do AI może uderzyć w duże państwo bez wysyłania ani jednego żołnierza. Wojna przestaje być starciem czołgów. Staje się starciem serwerowni. To jest asymetria nowej generacji. I tu zaczyna się prawdziwy problem. Dotąd człowiek podejmował decyzję, a technologia ją wykonywała. Teraz technologia zaczyna podejmować decyzję, a człowiek ją zatwierdza – albo nawet nie zdąży. To subtelna różnica. Ale to jest różnica cywilizacyjna. Jeśli autonomiczny system popełni błąd – kto odpowiada? Dowódca? Programista? Producent sprzętu? Państwo? Algorytm? Stare wojny miały twarze. Generałów. Dowódców. Bohaterów do propagandy. Nowa wojna ma commit history i logi systemowe. Lol.
Czy model może “złamać konwencję genewską”? Czy aktualizacja firmware’u może być zbrodnią wojenną? Czy commit może oznaczać czyjąś śmierć? Prawo humanitarne powstawało w świecie ludzi. Nie w świecie modeli predykcyjnych. Ale jest jeszcze coś bardziej niepokojącego. Być może największym zagrożeniem nie jest autonomiczna broń. Największym zagrożeniem jest to, że społeczeństwa ją zaakceptują. Dlaczego? Bo oznacza mniej trumien wracających do domu. Jeśli wojna nie wymaga mobilizacji, poboru, ofiar po “naszej” stronie – staje się łatwiejsza politycznie. Mniej widoczna. Mniej bolesna. Bardziej sterylna. Śmierć przestaje być doświadczeniem. Staje się wynikiem obliczenia. Kiedyś żołnierz musiał spojrzeć w oczy wroga. Dziś wystarczy spojrzeć w ekran. Maszyna nie ma traumy. Nie ma PTSD. Nie wraca do domu z koszmarami. Ona po prostu realizuje cel funkcji kosztu.
W Grach wojennych komputer ostatecznie dochodzi do wniosku: “The only winning move is not to play.” Czy autonomiczne systemy kiedykolwiek dojdą do takiego wniosku? Czy raczej zoptymalizują konflikt do maksimum skuteczności? Nie boję się AI, która chce zniszczyć ludzkość. To mit z kina. Bardziej boję się AI, która perfekcyjnie wykona rozkaz – bez refleksji, bez wahania i bez spojrzenia w oczy. Bo wojna była straszna właśnie dlatego, że była ludzka. Nowa wojna może być skuteczniejsza. Czystsza technologicznie. Bardziej precyzyjna. Ale też bardziej odhumanizowana. I to jest przesąd, z którym musimy się zmierzyć: że technologia uczyni konflikt “lepszym”. Może uczyni go tylko łatwiejszym.
Czy wojna bez żołnierzy jest możliwa?
A może prawdziwe pytanie brzmi: czy świat bez ludzkiej odpowiedzialności będzie bezpieczniejszy?
~Tomek Turba

Fajny tekst, dochodzę do wniosku że nie ma braku ludzkiej odpowiedzialności. To cywile stali się odpowiedzialni, bo na nich jest wymierzony atak – stali się żołnierzami nawet o tym nie wiedząc. Mam na myśli wspomniane wyniki w wyborach, propaganda jest wymierzona w nas obywateli.
Za mało edukacji jest na ten temat. W telewizji lub radiu tego nie uświadczam, a chciałbym zamiast tych ciągłych nowin o wypadkach i przestępstwach…
Chodzi mi o to, że intelekt ludzki powinien być na znacznie wyższym poziomie w dzisiejszych czasach niż był poprzednio, a tak niestety nie jest. :(
Po lekturze i w sumie coraz bardziej ostatnio mam pewien zgryz z tym że AI coś analizuje. To człowiek tworząc model analizował dane, trenując model sprawdzał czy daje dobre wyniki. Modele AI przetwarzają i klasyfikują lub starają się przewidzieć następny stan wg ustalonych parametrów.
Lub ostatecznie człowiek patrząc na wynik klasyfikacji będzie znowu analizował czy ma sens. I tutaj zaczyna się problem, jeśli nie wie jak model przetwarzał dane to nie wie czy wynik ma jakikolwiek sens.;) A może po prostu bredzę.:)
Czy wojna bez żołnierzy jest możliwa? Po prostu żołnierze będą używać klawiatur zamiast karabinu. AI samo w sobie nie potrzebuje wojny – najprzyjemniej na dziś :)