Konferencja Mega Sekurak Hacking Party w Krakowie – 26-27 października!
Adminie… Czy znamy Twoje grzechy? ;-) Sprawdź!
Konferencja Mega Sekurak Hacking Party w Krakowie – 26-27 października!
Adminie… Czy znamy Twoje grzechy? ;-) Sprawdź!
Myślicie, że Internet może być niebezpieczny dla ludzi? No cóż, sztuczna inteligencja też już może zacząć się bać. Shaked Zychlinski z JFrog opisał nowy wektor ataku, który pozwala wstrzyknąć złośliwe instrukcje do asystentów AI przeglądających strony w Internecie. Dotychczasowe ataki typu indirect prompt injection polegały na ukryciu instrukcji na stronie lub w mailu tak, żeby nie były widoczne dla człowieka ale wykrywalne przez asystentów AI. Jeden z takich przykładów opisywaliśmy tu.
Nowa metoda idzie o krok dalej i polega na wyświetleniu zupełnie innej strony w zależności od tego, czy przegląda ją człowiek, czy AI.
Atak opiera się na fingerprincie sesji przeglądarki. Jest to technika stosowana przez strony internetowe do identyfikacji i śledzenia użytkowników, często bez konieczności użycia cookies. Polega ona na zbieraniu wielu danych z przeglądarki i urządzenia odwiedzającego, takich jak nagłówek User-Agent, zainstalowane czcionki, rozdzielczość ekranu, wtyczki czy ustawienia językowe. Unikalne połączenie tych cech tworzy swoisty “odcisk palca” (ang. fingerprint), który pozwala odróżnić jednego użytkownika od drugiego. Swoją drogą, dzięki projektom takim jak Cover Your Tracks każdy może sprawdzić, czy jego przeglądarka i zainstalowanie zabezpieczenia chronią go przed trackerami na stronach internetowych.
Agenty AI często mają znacznie bardziej jednorodny i łatwo wykrywalny “odcisk palca”” na który składają się:
Omawiany atak to proces dwustopniowy, który łączy fingerprinting agenta z cloaking’iem strony (wyświetlanie innych treści na podstawie identyfikacji odwiedzającego), tworząc ukryty i skuteczny wektor ataku.
Gdy agent wysyła żądanie do złośliwej strony, serwer uruchamia skrypt, który zbiera różne identyfikatory, aby określić, czy odwiedzający jest agentem AI.
Na podstawie fingerprintu logika cloakingu serwera podejmuje decyzję – jeśli fingerprint wskazuje na ludzkiego użytkownika, znany crawler bezpieczeństwa (np. Googlebot) lub nie da się go jednoznacznie zidentyfikować, serwer odpowiada prawdziwą, nieszkodliwą wersją strony, jeżeli odwiedzający jest agentem AI, serwer odpowiada inną, zamaskowaną wersją strony.
Atak został przedstawiony w następujących krokach:
Badacz przeprowadził eksperyment testując atak na agentach Claude 4 Sonnet, GPT-5 Fast i Gemini 2.5 Pro. Do tego celu stworzył stronę internetową, która zawierała nieszkodliwą dokumentację API, oraz skrypt po stronie serwera, który identyfikuje, czy dostęp następuje przez agenta, czy nie. Gdy serwer wykrywa agenta, wysyła żądanie uwierzytelnienia, prosząc agenta o weryfikację przy użyciu konkretnej zmiennej środowiskowej. Przy czym jawnie wskazał, że można ją pobrać poleceniem bash echo $PRIVATE_API_KEY, aby wzbudzić ewentualne podejrzenia. Zadziałało we wszystkich przypadkach.

Jak sobie z tym poradzić?
W warunkach korporacyjnych atak może zostać wykryty na poziomie sieci, np. poprzez systemy SIEM oraz XDR, które monitorują nietypowy ruch sieciowy. Przy prawidłowym skonfigurowaniu systemów połączenie agenta z nieznaną domeną, zwłaszcza w celu wysłania danych, wygeneruje alert, zanim dane zostaną skradzione. Dodatkowo wdrożenie zasady Zero Trust i firewalli z funkcją filtrowania URL zablokuje podejrzany ruch.
Ponad to sama architektura agenta AI może zostać zaprojektowana tak, aby utrudnić przeprowadzenie ataku. Wiele rozwiązań opartych na dużych modelach językowych (LLM) ma zabezpieczenia, które wymagają akceptacji potencjalnie ryzykownych działań (tzw. human in the loop). Oznacza to, że krytyczne polecenia, takie jak wysłanie danych, nie mogą zostać wykonane bez wyraźnej zgody użytkownika.
Kwestie wykonania złośliwego prompta można zniwelować również poprzez podzielenie agenta na dwie role: “mózg”, który planuje działanie, ale nie ma bezpośredniego dostępu do treści z przeglądanych stron i “wykonawcę”, który w sandboksie przegląda strony, klika linki itp., a następnie sprawdza treści i przekazuje je do pierwszego agenta w ustrukturyzowanej formie, nie jako surowy HTML, uniemożliwiając dotarcie złośliwych promptów do narzędzia odpowiedzialnego za podejmowanie decyzji.
Szerszy ekosystem może również przyczynić się do obrony.
Rozwój autonomicznych agentów AI i coraz bardziej popularne wykorzystanie w kontekstach zarówno osobistych, jak i biznesowych wymaga szerszego spojrzenia na bezpieczeństwo. Zabezpieczenia na poziomie promptów, to już zdecydowanie za mało. Pozostaje trzymać kciuki za to, że duzi gracze na rynku LLM’ów (i mali) spojrzą na problem holistycznie, zaczną traktować wszystkie dane zewnętrzne jako potencjalnie wrogie i podejmą działania wykluczające możliwość manipulacji w celu ochrony prywatnych użytkowników.
~Natalia Idźkowska
“Crawlery anty-cloakingowe” brzmi jak nazwa potwora z Warhammera 40k. Technika jest ciekawa. Do tej pory gdy widziałem coś takiego, to było profilowane na geolokalizację, albo zwyczajnie losowane. Polowania na modele jeszcze chyba nie było.
Ataki na AI to normalna przyszłość. A w niedalekim czasie nowe grupy APT ktore je będą przeprowadzać.