Konferencja Mega Sekurak Hacking Party w Krakowie – 26-27 października!

Tag: ai

AI bez lukru #2: Kiedy model AI zaczyna zmyślać lepiej niż człowiek

13 stycznia 2026, 06:21 | Aktualności, Teksty | 0 komentarzy
AI bez lukru #2: Kiedy model AI zaczyna zmyślać lepiej niż człowiek

Cześć! Z tej strony Tomek Turba.AI bez lukru to cykl moich felietonów o sztucznej inteligencji bez marketingowego lukru, bez korporacyjnych slajdów i bez bajek o „rewolucji, która wszystko zmieni”. Pokazuję AI taką, jaka jest naprawdę: z absurdami, wpadkami, halucynacjami i konsekwencjami, o których rzadko mówi się głośno. Bez zadęcia, bez…

Czytaj dalej »

AI bez lukru #1: Jak pisać beznadziejne prompty, by nawet AI miało Cię dość

12 stycznia 2026, 14:08 | Aktualności, Teksty | komentarzy 6
AI bez lukru #1: Jak pisać beznadziejne prompty, by nawet AI miało Cię dość

Cześć! Z tej strony Tomek Turba. AI bez lukru to cykl moich felietonów o sztucznej inteligencji bez marketingowego lukru, bez korporacyjnych slajdów i bez bajek o „rewolucji, która wszystko zmieni”. Pokazuję AI taką, jaka jest naprawdę: z absurdami, wpadkami, halucynacjami i konsekwencjami, o których rzadko mówi się głośno. Bez zadęcia,…

Czytaj dalej »

Złośliwe rozszerzenia Chrome (900 tys. pobrań) wykradają rozmowy z ChatGPT i DeepSeek. Jedno z nich posiada odznakę Featured wydawaną przez Google

12 stycznia 2026, 09:33 | Aktualności | 0 komentarzy
Złośliwe rozszerzenia Chrome (900 tys. pobrań) wykradają rozmowy z ChatGPT i DeepSeek. Jedno z nich posiada odznakę Featured wydawaną przez Google

Badacze bezpieczeństwa z OX Security wykryli nową kampanię cyberprzestępczą skierowaną przeciowko użytkownikom przeglądarki Chrome, a konkretnie w osoby korzystające z rozszerzeń integrujących asystentów AI. Malware, ukryty w rozszerzeniach wzorowanych na dodatkach oferowanych przez firmę AITOPIA, pozwala atakującym na wykradanie historii rozmów z ChatGPT i DeepSeek oraz dane z przeglądarki (ciasteczka,…

Czytaj dalej »

10 umiejętności AI niezbędnych w 2026 roku – zapisz się na bezpłatne szkolenie!

07 stycznia 2026, 14:24 | Aktualności | 0 komentarzy
10 umiejętności AI niezbędnych w 2026 roku – zapisz się na bezpłatne szkolenie!

Hype na sztuczną inteligencję na przemian rośnie i maleje. Nie da się jednak ukryć, że świat nie „jara” się już byle wygenerowanym promptem czy automatyzacją i szuka realnych zastosowań. Tym bardziej, że wykorzystanie mocy obliczeniowych do działania AI nie jest tanie.  2026 rok będzie upływał pod hasłem poszukiwania konkretnych zastosowań,…

Czytaj dalej »

GeminiJack: atak typu prompt injection i 0-click w rozwiązaniu AI Gemini Enterprise

22 grudnia 2025, 05:19 | W biegu | 1 komentarz
GeminiJack: atak typu prompt injection i 0-click w rozwiązaniu AI Gemini Enterprise

Badacze z laboratorium Noma Labs wykryli poważną lukę bezpieczeństwa w środowisku Google Gemini Enterprise AI. Wcześniej analogiczna sytuacja występowała w Vertex AI Search. Podatność – znana pod nazwą GeminiJack pozwala atakującemu na uzyskanie nieuprawnionego dostępu do poufnych danych firmy.  TLDR: Wystarczył współdzielony dokument Google, zaproszenie z kalendarza, czy też odpowiednio…

Czytaj dalej »

PromptPwnd – nie zgadniecie co się okazało po integracji LLM z GitHub Actions

10 grudnia 2025, 04:18 | Aktualności | komentarze 4
PromptPwnd – nie zgadniecie co się okazało po integracji LLM z GitHub Actions

Gdybyśmy otrzymywali dolara (no dobra – starczy 1 Polski Nowy Złoty) za każde nieudane połączenie AI z czymkolwiek, to właśnie pisalibyśmy ten tekst z pokładu jachtu. Tym razem “nowa” odsłona ataku została nazwana PromptPwnd (standardowo brakuje tylko logo i dżingla), a dotyka ona potoków CI/CD (ang. Continuous Integration/Continuous Development pipelines)….

Czytaj dalej »

HashJack, czyli nowy wektor ataku na przeglądarki AI

08 grudnia 2025, 00:20 | Aktualności | 1 komentarz
HashJack, czyli nowy wektor ataku na przeglądarki AI

HashJack to odkryta przez badaczy z Cato CTRL technika wstrzykiwania promptów (indirect prompt injection), która ukrywa złośliwe instrukcje po znaku # w adresach URL. Gdy przeglądarki AI przesyłają pełny link (wraz ze złośliwym fragmentem) do swoich asystentów AI, wykonują oni prompty atakujących. Umożliwia to atakującym np. wyświetlenie użytkownikowi fałszywych informacji…

Czytaj dalej »

asystent.ai – publicznie dostępne API (użytkownicy / hashowane hasła / konwersacje z AI / pliki / …). Możliwe było pobranie danych zwykłą przeglądarką.

06 grudnia 2025, 09:29 | Aktualności | 1 komentarz
asystent.ai – publicznie dostępne API (użytkownicy / hashowane hasła / konwersacje z AI / pliki / …). Możliwe było pobranie danych zwykłą przeglądarką.

TLDR: Dostępne bez żadnego logowania API aplikacji asystent[.]ai / Minerva. Listowanie użytkowników, szczegóły użytkowników (w tym hashe haseł), pliki wysyłane przez użytkowników, konwersacje z AI. Aby zobaczyć te dane, wystarczyła zwykła przeglądarka. Przykład wyniku zwracanego przez https://api.asystent[.]ai/users/ Ale po kolei. 23.11.2025 czytelnik zgłosił nam niepokojącą serię podatności w rozwiązaniu asystent[.]ai…

Czytaj dalej »

Absurdalna dziura w AI-owym narzędziu dla prawników (Filevine). W prosty sposób można było pobrać bez uwierzytelnienia ~100000 projektów/dokumentów

05 grudnia 2025, 09:50 | Aktualności | 0 komentarzy
Absurdalna dziura w AI-owym narzędziu dla prawników (Filevine). W prosty sposób można było pobrać bez uwierzytelnienia ~100000 projektów/dokumentów

Chodzi o appkę Filevine – “AI Legal Assistant”. Badacz bezpieczeństwa (aka hacker) popatrzył trochę w źródła javascript na pewnej domenie Filevine, znalazł tam pewien endpoint API. Endpoint dostępny był bez uwierzytelnienia i umożliwiał wyszukiwanie dowolnych “projektów prawnych” stworzonych w appce przez innych użytkowników. Wystarczyło podać nazwę projektu. No OK, ale…

Czytaj dalej »

SOS AI. Sekurak o Sekretach AI, czyli mega praktyczna wiedza o sztucznej inteligencji w pigułce! + bonusowe odcinki na Black Week

25 listopada 2025, 14:44 | Aktualności | 0 komentarzy
SOS AI. Sekurak o Sekretach AI, czyli mega praktyczna wiedza o sztucznej inteligencji w pigułce! + bonusowe odcinki na Black Week

Jeśli czujesz, że technologia AI zmienia świat, a Ty nie chcesz zostać w tyle – ale jednocześnie jesteś osobą zabieganą i nie masz czasu na długie, skomplikowane szkolenia – mamy dla Ciebie idealne rozwiązanie! Ruszamy z cyklem krótkich szkoleń SOS AI – Sekurak o Sekretach AI, w formule dla zabieganych,…

Czytaj dalej »

ShadowMQ – niebezpieczny wzorzec deserializacji pickle wykryty w wielu silnikach wnioskowania AI

20 listopada 2025, 14:27 | Aktualności | 0 komentarzy
ShadowMQ – niebezpieczny wzorzec deserializacji pickle wykryty w wielu silnikach wnioskowania AI

Badacze bezpieczeństwa z Oligo Security wykryli szereg podatności pozwalających na zdalne wykonanie kodu w głównych frameworkach do wnioskowania sztucznej inteligencji. Luki bezpieczeństwa występują w produktach oferowanych przez Meta, NVIDIA, Microsoft, vLLM oraz SGLang. Problem tkwi w niebezpiecznej kombinacji ZeroMQ i deserializacji pickle w Pythonie. Co ciekawe, szczególną uwagę badaczy zwrócił…

Czytaj dalej »

Wtyczki MCP równie problematyczne co przeglądarki ze zintegrowanym AI – podatność PromptJacking

17 listopada 2025, 05:24 | Aktualności | 0 komentarzy
Wtyczki MCP równie problematyczne co przeglądarki ze zintegrowanym AI – podatność PromptJacking

Najczęstsze, najgłośniejsze i najpopularniejsze podatności związane z generatywnym AI (a w szczególności z dużymi modelami językowymi) można podzielić ogólnie na dwie podgrupy (co oczywiście stanowi tylko wycinek powierzchni ataku). Pierwsze dotyczą tzw. bezpieczeństwa “miękkiego” i w skrócie polegają na atakowaniu modeli w taki sposób, aby “skłonić” je do pominięcia założonych…

Czytaj dalej »

Luki bezpieczeństwa w Safari WebKit od Apple. Wykrył je agent AI od Googla

13 listopada 2025, 12:06 | W biegu | komentarzy 5
Luki bezpieczeństwa w Safari WebKit od Apple. Wykrył je agent AI od Googla

Google DeepMind we współpracy z Project Zero zaprojektował zaawansowanego agenta AI – Big Sleep wcielającego się w rolę badacza bezpieczeństwa. Jego głównym zadaniem jest aktywne poszukiwanie podatności zanim zostaną wykorzystane przez atakujących. Zasłynął w listopadzie 2024 r., kiedy to udało mu się wykryć podatność klasy 0-day w silniku bazodanowym SQLite. …

Czytaj dalej »

Fałszywe URL jako nowy wektor ataku w przeglądarce Atlas od OpenAI

05 listopada 2025, 01:53 | W biegu | 0 komentarzy
Fałszywe URL jako nowy wektor ataku w przeglądarce Atlas od OpenAI

Badacze z NeuralTrust odkryli nowy wektor ataku na przeglądarkę internetową OpenAI o nazwie Atlas. Wykorzystana podatność dotyczy „omniboxa” czyli pola, w które wpisuje się adresy URL lub hasła wyszukiwania.  Jak wygląda atak? Atakujący tworzy ciąg znaków, który wygląda jak adres URL (np. zaczyna się od „https:” i zawiera tekst przypominający…

Czytaj dalej »

CamoLeak – jak tworząc własny alfabet zdobyć dane z repozytoriów GitHub przez Copilot Chat?

23 października 2025, 03:17 | W biegu | 0 komentarzy
CamoLeak – jak tworząc własny alfabet zdobyć dane z repozytoriów GitHub przez Copilot Chat?

Nie tak dawno temu pisaliśmy o podatności w Microsoft 365 Copilot, zgrabnie nazwanej EchoLeak. Umożliwiała ona – przez wysyłkę spreparowanego maila – wyciek danych z organizacji bez ingerencji użytkownika. Nowa podatność o równie wdzięcznej nazwie – CamoLeak – choć wykryta w podobnym czasie, dopiero niedawno została upubliczniona. TLDR: Badacz z…

Czytaj dalej »