Mega Sekurak Hacking Party w Krakowie! 20.10.2025 r. Bilety -30%

Tag: ai

Pozyskanie danych osobowych z e-maila przez agenta ChatGPT? Podatność ShadowLeak

10 października 2025, 01:42 | W biegu | 0 komentarzy
Pozyskanie danych osobowych z e-maila przez agenta ChatGPT? Podatność ShadowLeak

Narzędzia oparte na dużych modelach językowych (LLM) potrafią często ułatwiać życie. Są w stanie sprawnie poruszać się po dużych zbiorach danych i szybko znajdować potrzebne informacje. Jest to więc dobry sposób na oszczędność czasu. Ale czy takie systemy mają same zalety? TLDR: – ShadowLeak to podatność zero-click w ChatGPT DeepResearch,…

Czytaj dalej »

Villager – framework wspomagany AI w służbie pentesterom (i cyberprzestępcom)

06 października 2025, 00:27 | W biegu | 1 komentarz
Villager – framework wspomagany AI w służbie pentesterom (i cyberprzestępcom)

Przyzwyczailiśmy się już do tego, że mechanizmy sztucznej inteligencji sukcesywnie zdobywają kolejne obszary naszego życia. Nie od dziś wiele kontrowersji budzi temat używania sztucznej inteligencji w szeroko rozumianym bezpieczeństwie ofensywnym. Wiele wskazuje na to, że debata na ten temat wkrótce może wkroczyć na wyższy poziom. TLDR: – Badacze z firmy…

Czytaj dalej »

Podszycie pod pakiet npm i backdoor w serwerze MCP

01 października 2025, 08:59 | Aktualności | 0 komentarzy
Podszycie pod pakiet npm i backdoor w serwerze MCP

Systemy agentowe, duże modele językowe oraz już-nie-taka-nowość (chociaż wciąż zyskujące popularność) serwery MCP gościły na łamach sekurak.pl wielokrotnie. Pod jednym z artykułów, gdzie opisywaliśmy możliwe wektory ataków na serwery MCP, można było spotkać głosy sceptycznie podchodzące do tematu niebezpiecznych serwerów. Dlatego tym razem chcielibyśmy przedstawić atak, którego wystąpienie było tylko…

Czytaj dalej »

Agent AI źródłem problemów w Salesforce – jak można było doprowadzić do wycieku danych klientów? ForcedLeak

30 września 2025, 16:30 | W biegu | komentarzy 10
Agent AI źródłem problemów w Salesforce – jak można było doprowadzić do wycieku danych klientów? ForcedLeak

Integracja LLMów z narzędziami codziennego użytku nie zwalnia. Cóż, nie ma się co dziwić. Odpowiednio zaprojektowany agent upraszcza bardzo pracę operatora. Jednak jak mieliśmy okazję przekonać się niedawno, niesie za sobą również poważne zagrożenia. Badacze z firmy NOMA przeczytali chyba te same źródła, ponieważ zaprezentowali bardzo podobny atak, który pozwala…

Czytaj dalej »

Nowy wektor ataku łączący indirect prompt injection z cloakingiem wymierzony w autonomicznych agentów AI

21 września 2025, 23:20 | W biegu | komentarze 2
Nowy wektor ataku łączący indirect prompt injection z cloakingiem wymierzony w autonomicznych agentów AI

Myślicie, że Internet może być niebezpieczny dla ludzi? No cóż, sztuczna inteligencja też już może zacząć się bać. Shaked Zychlinski z JFrog opisał nowy wektor ataku, który pozwala wstrzyknąć złośliwe instrukcje do asystentów AI przeglądających strony w Internecie. Dotychczasowe ataki typu indirect prompt injection polegały na ukryciu instrukcji na stronie…

Czytaj dalej »

Jak ułatwić sobie życie i mądrze korzystać z dobrodziejstw AI? Tym razem bierzemy na warsztat AI w edukacji (super hinty rodzica i ucznia!)

18 września 2025, 17:07 | Aktualności | 1 komentarz
Jak ułatwić sobie życie i mądrze korzystać z dobrodziejstw AI? Tym razem bierzemy na warsztat AI w edukacji (super hinty rodzica i ucznia!)

Bycie rodzicem nie jest łatwe, a w czasach rewolucji AI i zmian w edukacji niesie za sobą dodatkowe wyzwania 🙂. AI to rzeczywistość, która otwiera drzwi do nowych możliwości, ale niesie też ze sobą poważne ryzyka. Jak wykorzystać atuty AI, by wspierać rozwój dziecka, nie zabijając przy tym naturalnej ciekawości…

Czytaj dalej »

PromptLock – pierwszy znany na świecie Ransomware stworzony przez AI. Czy jest się czego bać?

01 września 2025, 00:30 | W biegu | 0 komentarzy
PromptLock – pierwszy znany na świecie Ransomware stworzony przez AI. Czy jest się czego bać?

Anton Cherepanov, badacz bezpieczeństwa z firmy ESET podczas rutynowej analizy próbek wrzucanych na portal VirusTotal, odkrył nowy wariant malware. Jego uwagę zwrócił plik (kod napisany w Golang), zawierający odwołanie do modelu gpt-oss-20b oraz instrukcje sterujące (prompty), umożliwiające generowanie potencjalnie złośliwych skryptów bezpośrednio w systemie ofiary. Nowo wykryty malware został rozpoznany…

Czytaj dalej »

Krytyczna podatność w Chrome. Znalazł ją agent AI

29 sierpnia 2025, 13:35 | W biegu | 0 komentarzy
Krytyczna podatność w Chrome. Znalazł ją agent AI

Google wydało 26 sierpnia wydało aktualizację Chrome (wersja 139.0.7258.154/.155 dla Windowsa, macOS i Linuxa oraz 139.0.7258.158 dla Androida), w której załatano krytyczną podatność typu Use-After-Free w silniku graficznym ANGLE (CVE-2025-9478). TLDR: Use-After-Free (UAF) to podatność związana z nieprawidłowym wykorzystaniem pamięci dynamicznej podczas działania programu. Występuje wtedy, gdy po zwolnieniu miejsca…

Czytaj dalej »

OpenAI we współpracy z Ollamą udostępnia pierwsze modele lokalne dostępne dla każdego – przetestowaliśmy je

21 sierpnia 2025, 01:02 | W biegu | 1 komentarz
OpenAI we współpracy z Ollamą udostępnia pierwsze modele lokalne dostępne dla każdego – przetestowaliśmy je

OpenAI w końcu udostępniło dwa modele do wykorzystania lokalnie: gpt-oss-120b i gpt-oss20b. Najnowsze modele językowe z otwartymi wagami (pierwsze od czasu GPT-2) zapewniają wysoką wydajność podczas rzeczywistego wykorzystania przy niskich kosztach mocy obliczeniowych. Architektura ww. modeli składa się z wielu tzw. ekspertów (ang. mixture of experts, MoE), czyli mniejszych sieci neuronowych,…

Czytaj dalej »

Wyszukiwarki indeksowały prywatne rozmowy użytkowników ChataGPT

06 sierpnia 2025, 09:47 | W biegu | komentarzy 6
Wyszukiwarki indeksowały prywatne rozmowy użytkowników ChataGPT

OpenAI poinformowało, że usunęło funkcję z ChataGPT, która umożliwiała użytkownikom zezwolenie na indeksowanie ich publicznych rozmów w wyszukiwarkach. Firma twierdzi, że był to krótkotrwały „eksperyment’” i wycofali się z niego po zauważeniu przypadków niezamierzonego dzielenia się, czasem mocno prywatną, korespondencją. Firma poinformowała również, że pracują nad usunięciem rozmów zaindeksowanych do…

Czytaj dalej »

Jak dodatkowa funkcja Microsoft Copilota otworzyła furtkę dla hakerów

30 lipca 2025, 05:52 | W biegu | 1 komentarz
Jak dodatkowa funkcja Microsoft Copilota otworzyła furtkę dla hakerów

Niedawno pisaliśmy o różnych aspektach bezpieczeństwa rozwiązania MCP. Jednak to nie wszystkie zagrożenia, z którymi muszą mierzyć się inżynierowie wdrażający rozwiązania oparte o AI. W przypadku dużych dostawców oczekiwania rozbudowy funkcjonalności są spore. Brak odpowiedniego modelowania zagrożeń, może okazać się krytyczny z punktu widzenia bezpieczeństwa. Badacze z Eye Research opisali…

Czytaj dalej »

Najbezpieczniejsze AI na rynku? Proton wypuszcza swojego asystenta Lumo

30 lipca 2025, 05:42 | W biegu | komentarzy 9
Najbezpieczniejsze AI na rynku? Proton wypuszcza swojego asystenta Lumo

Proton, znany z takich usług jak Proton Mail czy Proton VPN, zaprezentował nowy produkt: Lumo, narzędzie AI zaprojektowane z myślą o pełnej ochronie danych. Firma podkreśla, że Lumo nie przechowuje żadnych logów konwersacji po stronie serwera, nie wykorzystuje promptów użytkowników do trenowania modeli AI, stosuje szyfrowanie typu zero‑access, dzięki czemu nawet Proton…

Czytaj dalej »

Chatbot od Meta AI pozwalał na dostęp do prywatnych wiadomości i odpowiedzi wygenerowanych dla innych użytkowników

25 lipca 2025, 15:46 | W biegu | 0 komentarzy
Chatbot od Meta AI pozwalał na dostęp do prywatnych wiadomości i odpowiedzi wygenerowanych dla innych użytkowników

Incydent opisuje serwis TechCrunch, któremu Sandeep Hodkasia, założyciel firmy AppSecure zajmującej się testami bezpieczeństwa, przekazał informację o otrzymaniu 10 000 dolarów za zgłoszenie błędu 26 grudnia 2024 roku w ramach programu bug bounty. Meta wdrożyła poprawkę 24 stycznia 2025 r. i podobno nie wykryła dowodów na to, że luka została…

Czytaj dalej »

Luka w zabezpieczeniach Gemini pozwala ukryć złośliwe instrukcje w wiadomości e-mail

18 lipca 2025, 11:36 | W biegu | 1 komentarz
Luka w zabezpieczeniach Gemini pozwala ukryć złośliwe instrukcje w wiadomości e-mail

Jeżeli byliście na szkoleniu Narzędziownik AI od Tomka Turby, to wiecie jak relatywnie łatwo jest przeprowadzić atak wstrzyknięcia złośliwego promptu (ang. prompt injection), np. na model LLM – ChatGPT. Jeżeli mamy taką możliwość podczas interakcji z LLM’em 1:1, to czy możemy zrobić to samo, jeżeli AI jest wykorzystywane jako usprawnienie…

Czytaj dalej »