Konferencja Mega Sekurak Hacking Party w Krakowie – 26-27 października!

Tag: llm

AI bez lukru #31: Osobisty propagandysta LLM

23 lutego 2026, 01:10 | Aktualności, Teksty | komentarze 2
AI bez lukru #31: Osobisty propagandysta LLM

Cześć! Z tej strony Tomek Turba. AI bez lukru to cykl moich felietonów o sztucznej inteligencji bez marketingowego lukru, bez korporacyjnych slajdów i bez bajek o “rewolucji, która wszystko zmieni”. Pokazuję AI taką, jaka jest naprawdę: z absurdami, wpadkami, halucynacjami i konsekwencjami, o których rzadko mówi się głośno. Bez zadęcia,…

Czytaj dalej »

Jak zewnętrzne API mogło przejąć konto, a nawet serwer – XSS oraz RCE w Open WebUI

19 lutego 2026, 04:18 | Aktualności, W biegu | 0 komentarzy
Jak zewnętrzne API mogło przejąć konto, a nawet serwer – XSS oraz RCE w Open WebUI

Gdy zestawi się (mało powiązane ze sobą) słowa “AI” oraz “bezpieczeństwo”, zazwyczaj w pierwszej kolejności myślimy o stawianiu lokalnych modeli, a w przypadku gotowych usług – sprawdzamy, jak nasze dane wykorzystywane są do trenowania modelu. To oczywiście ważne kwestie, ale trzeba również pamiętać, że “narzędzia AI” mają problemy niezwiązane wcale…

Czytaj dalej »

Poważne luki bezpieczeństwa w serwerze MCP od Anthropic prowadzą do RCE

28 stycznia 2026, 09:56 | W biegu | 0 komentarzy
Poważne luki bezpieczeństwa w serwerze MCP od Anthropic prowadzą do RCE

Na łamach sekuraka już nie raz pisaliśmy czym jest Model Context Protocol (MCP) i co umożliwia. Dla tych, którzy po raz pierwszy spotykają się z tym pojęciem wyjaśniamy. MCP to uniwersalny standard dla ekosystemu AI, pozwalający na rozszerzenie możliwości dużych modeli językowych (LLM). Opiera się na komunikacji klient-serwer, gdzie klient,…

Czytaj dalej »

Modele LLM bez ograniczeń, czyli rozwój Cybercrime as a Service

16 grudnia 2025, 05:38 | Aktualności | komentarze 4
Modele LLM bez ograniczeń, czyli rozwój Cybercrime as a Service

Generatywne modele językowe przebojem wdarły się do naszej codzienności. Dziś już wielu nie wyobraża sobie codziennej pracy czy nauki bez ich udziału. Rozwój dużych modeli językowych wpłynął także na obraz zagrożeń w cyberprzestrzeni. Z jednej strony LLM-y mogą pomagać w obronie, z drugiej strony stwarzają zupełnie nowe możliwości dla podmiotów…

Czytaj dalej »

PromptPwnd – nie zgadniecie co się okazało po integracji LLM z GitHub Actions

10 grudnia 2025, 04:18 | Aktualności | komentarze 4
PromptPwnd – nie zgadniecie co się okazało po integracji LLM z GitHub Actions

Gdybyśmy otrzymywali dolara (no dobra – starczy 1 Polski Nowy Złoty) za każde nieudane połączenie AI z czymkolwiek, to właśnie pisalibyśmy ten tekst z pokładu jachtu. Tym razem “nowa” odsłona ataku została nazwana PromptPwnd (standardowo brakuje tylko logo i dżingla), a dotyka ona potoków CI/CD (ang. Continuous Integration/Continuous Development pipelines)….

Czytaj dalej »

Generatywna sztuczna inteligencja pomaga przeprowadzać kampanie cyberprzestępcze

01 grudnia 2025, 04:35 | W biegu | 1 komentarz
Generatywna sztuczna inteligencja pomaga przeprowadzać kampanie cyberprzestępcze

Od pewnego czasu na łamach sekuraka pojawia się coraz więcej informacji łączących bezpieczeństwo IT oraz sztuczną inteligencję (najczęściej mowa o generatywnej SI, a dokładniej dużych modelach językowych). Boom, a właściwie bańka AI zdaje się rosnąć w zatrważającym tempie. Jednak patrząc na rzeczywiste zdolności modeli w działaniach ofensywnych – jak na…

Czytaj dalej »

Od niewinnego snippetu do RCE – podatność XSS w Open WebUI

25 listopada 2025, 05:01 | W biegu | 0 komentarzy
Od niewinnego snippetu do RCE – podatność XSS w Open WebUI

Open WebUI to otwartoźródłowa, samodzielnie hostowana platforma AI. Można korzystać z niej na własnym serwerze, ale również lokalnie na urządzeniu. Obsługuje różne interfejsy LLM, takie jak Ollama i API kompatybilne z OpenAI.  TLDR: W październiku 2025 badacz zgłosił podatność XSS występującą w aplikacji. 21 października została załatana, a 7 listopada…

Czytaj dalej »

ShadowMQ – niebezpieczny wzorzec deserializacji pickle wykryty w wielu silnikach wnioskowania AI

20 listopada 2025, 14:27 | Aktualności | 0 komentarzy
ShadowMQ – niebezpieczny wzorzec deserializacji pickle wykryty w wielu silnikach wnioskowania AI

Badacze bezpieczeństwa z Oligo Security wykryli szereg podatności pozwalających na zdalne wykonanie kodu w głównych frameworkach do wnioskowania sztucznej inteligencji. Luki bezpieczeństwa występują w produktach oferowanych przez Meta, NVIDIA, Microsoft, vLLM oraz SGLang. Problem tkwi w niebezpiecznej kombinacji ZeroMQ i deserializacji pickle w Pythonie. Co ciekawe, szczególną uwagę badaczy zwrócił…

Czytaj dalej »

Podszycie pod pakiet npm i backdoor w serwerze MCP

01 października 2025, 08:59 | Aktualności | 0 komentarzy
Podszycie pod pakiet npm i backdoor w serwerze MCP

Systemy agentowe, duże modele językowe oraz już-nie-taka-nowość (chociaż wciąż zyskujące popularność) serwery MCP gościły na łamach sekurak.pl wielokrotnie. Pod jednym z artykułów, gdzie opisywaliśmy możliwe wektory ataków na serwery MCP, można było spotkać głosy sceptycznie podchodzące do tematu niebezpiecznych serwerów. Dlatego tym razem chcielibyśmy przedstawić atak, którego wystąpienie było tylko…

Czytaj dalej »

PromptLock – pierwszy znany na świecie Ransomware stworzony przez AI. Czy jest się czego bać?

01 września 2025, 00:30 | W biegu | 1 komentarz
PromptLock – pierwszy znany na świecie Ransomware stworzony przez AI. Czy jest się czego bać?

Anton Cherepanov, badacz bezpieczeństwa z firmy ESET podczas rutynowej analizy próbek wrzucanych na portal VirusTotal, odkrył nowy wariant malware. Jego uwagę zwrócił plik (kod napisany w Golang), zawierający odwołanie do modelu gpt-oss-20b oraz instrukcje sterujące (prompty), umożliwiające generowanie potencjalnie złośliwych skryptów bezpośrednio w systemie ofiary. Nowo wykryty malware został rozpoznany…

Czytaj dalej »

Jak środowisko Cursor pozwalało na uruchomienie złośliwego kodu – CVE-2025-54136

13 sierpnia 2025, 00:20 | Aktualności | komentarze 2
Jak środowisko Cursor pozwalało na uruchomienie złośliwego kodu – CVE-2025-54136

Nie da się ukryć, że LLMy na stałe wpisały się w krajobraz naszej rzeczywistości. Dodatkowo, szczególną rolę, odgrywają w świecie IT, gdzie stają się nieodzownym elementem narzędzi, np. środowisk programistycznych. Generowanie kodu, podpowiadanie składni, przygotowanie dokumentacji czy także także dodatkowe funkcjonalności dostępne dzięki rozwiązaniu Model Context Protocol, o którym już…

Czytaj dalej »

Jak dodatkowa funkcja Microsoft Copilota otworzyła furtkę dla hakerów

30 lipca 2025, 05:52 | W biegu | 1 komentarz
Jak dodatkowa funkcja Microsoft Copilota otworzyła furtkę dla hakerów

Niedawno pisaliśmy o różnych aspektach bezpieczeństwa rozwiązania MCP. Jednak to nie wszystkie zagrożenia, z którymi muszą mierzyć się inżynierowie wdrażający rozwiązania oparte o AI. W przypadku dużych dostawców oczekiwania rozbudowy funkcjonalności są spore. Brak odpowiedniego modelowania zagrożeń, może okazać się krytyczny z punktu widzenia bezpieczeństwa. Badacze z Eye Research opisali…

Czytaj dalej »

Najbezpieczniejsze AI na rynku? Proton wypuszcza swojego asystenta Lumo

30 lipca 2025, 05:42 | W biegu | komentarzy 9
Najbezpieczniejsze AI na rynku? Proton wypuszcza swojego asystenta Lumo

Proton, znany z takich usług jak Proton Mail czy Proton VPN, zaprezentował nowy produkt: Lumo, narzędzie AI zaprojektowane z myślą o pełnej ochronie danych. Firma podkreśla, że Lumo nie przechowuje żadnych logów konwersacji po stronie serwera, nie wykorzystuje promptów użytkowników do trenowania modeli AI, stosuje szyfrowanie typu zero‑access, dzięki czemu nawet Proton…

Czytaj dalej »

Podatności w Filesystem MCP Server od Anthropica

28 lipca 2025, 12:11 | W biegu | 1 komentarz
Podatności w Filesystem MCP Server od Anthropica

Tematy związane z agentami LLM jeszcze przez długi czas będą na czele gorących zagadnień. Głównie za sprawą usprawnień i automatyzacji. Jednak wprowadzany na prędce standard MCP oraz wiele rozwiązań na nim bazujących to wciąż świetne miejsce do nadużyć. Ostatnio opisywaliśmy moduł mcp-remote i zagrożenia z nim związane. W skrócie jest…

Czytaj dalej »

Krytyczna podatność w aplikacji pozwalającej na podpięcie serwerów MCP do modelu LLM

21 lipca 2025, 02:48 | W biegu | 1 komentarz
Krytyczna podatność w aplikacji pozwalającej na podpięcie serwerów MCP do modelu LLM

O tym, czym jest Model Context Protocol pisaliśmy na łamach sekuraka już nie raz. W skrócie, jest to ustandaryzowany protokół pozwalający na rozszerzenie możliwości dużych modeli językowych (LLM, Large Language Models). Dzięki niemu LLMy mogą korzystać z zewnętrznych narzędzi udostępnianych przez serwery MCP w sposób ujednolicony, bez konieczności implementowania tzw….

Czytaj dalej »