Konferencja Mega Sekurak Hacking Party w Krakowie – 26-27 października!

Tag: ai

AI bez lukru #5: Moja dziewczyna jest chatbotem. Romans w epoce AI

16 stycznia 2026, 00:23 | Aktualności, Teksty | 0 komentarzy
AI bez lukru #5: Moja dziewczyna jest chatbotem. Romans w epoce AI

Cześć! Z tej strony Tomek Turba. AI bez lukru to cykl moich felietonów o sztucznej inteligencji bez marketingowego lukru, bez korporacyjnych slajdów i bez bajek o „rewolucji, która wszystko zmieni”. Pokazuję AI taką, jaka jest naprawdę: z absurdami, wpadkami, halucynacjami i konsekwencjami, o których rzadko mówi się głośno. Bez zadęcia,…

Czytaj dalej »

AI bez lukru #4: AI odrabia lekcje, nauczyciele łapią się za głowę

15 stycznia 2026, 05:40 | Aktualności, Teksty | komentarzy 19
AI bez lukru #4: AI odrabia lekcje, nauczyciele łapią się za głowę

Cześć! Z tej strony Tomek Turba. AI bez lukru to cykl moich felietonów o sztucznej inteligencji bez marketingowego lukru, bez korporacyjnych slajdów i bez bajek o „rewolucji, która wszystko zmieni”. Pokazuję AI taką, jaka jest naprawdę: z absurdami, wpadkami, halucynacjami i konsekwencjami, o których rzadko mówi się głośno. Bez zadęcia,…

Czytaj dalej »

AI bez lukru #3: Zaklinacz LLM – nowy zawód XXI wieku czy korporacyjny mem?

14 stycznia 2026, 09:16 | Aktualności, Teksty | komentarze 2
AI bez lukru #3: Zaklinacz LLM – nowy zawód XXI wieku czy korporacyjny mem?

Cześć! Z tej strony Tomek Turba. AI bez lukru to cykl moich felietonów o sztucznej inteligencji bez marketingowego lukru, bez korporacyjnych slajdów i bez bajek o „rewolucji, która wszystko zmieni”. Pokazuję AI taką, jaka jest naprawdę: z absurdami, wpadkami, halucynacjami i konsekwencjami, o których rzadko mówi się głośno. Bez zadęcia,…

Czytaj dalej »

AI bez lukru #2: Kiedy model AI zaczyna zmyślać lepiej niż człowiek

13 stycznia 2026, 06:21 | Aktualności, Teksty | komentarzy 8
AI bez lukru #2: Kiedy model AI zaczyna zmyślać lepiej niż człowiek

Cześć! Z tej strony Tomek Turba.AI bez lukru to cykl moich felietonów o sztucznej inteligencji bez marketingowego lukru, bez korporacyjnych slajdów i bez bajek o „rewolucji, która wszystko zmieni”. Pokazuję AI taką, jaka jest naprawdę: z absurdami, wpadkami, halucynacjami i konsekwencjami, o których rzadko mówi się głośno. Bez zadęcia, bez…

Czytaj dalej »

AI bez lukru #1: Jak pisać beznadziejne prompty, by nawet AI miało Cię dość

12 stycznia 2026, 14:08 | Aktualności, Teksty | komentarzy 11
AI bez lukru #1: Jak pisać beznadziejne prompty, by nawet AI miało Cię dość

Cześć! Z tej strony Tomek Turba. AI bez lukru to cykl moich felietonów o sztucznej inteligencji bez marketingowego lukru, bez korporacyjnych slajdów i bez bajek o „rewolucji, która wszystko zmieni”. Pokazuję AI taką, jaka jest naprawdę: z absurdami, wpadkami, halucynacjami i konsekwencjami, o których rzadko mówi się głośno. Bez zadęcia,…

Czytaj dalej »

Złośliwe rozszerzenia Chrome (900 tys. pobrań) wykradają rozmowy z ChatGPT i DeepSeek. Jedno z nich posiada odznakę Featured wydawaną przez Google

12 stycznia 2026, 09:33 | Aktualności | 1 komentarz
Złośliwe rozszerzenia Chrome (900 tys. pobrań) wykradają rozmowy z ChatGPT i DeepSeek. Jedno z nich posiada odznakę Featured wydawaną przez Google

Badacze bezpieczeństwa z OX Security wykryli nową kampanię cyberprzestępczą skierowaną przeciowko użytkownikom przeglądarki Chrome, a konkretnie w osoby korzystające z rozszerzeń integrujących asystentów AI. Malware, ukryty w rozszerzeniach wzorowanych na dodatkach oferowanych przez firmę AITOPIA, pozwala atakującym na wykradanie historii rozmów z ChatGPT i DeepSeek oraz dane z przeglądarki (ciasteczka,…

Czytaj dalej »

10 umiejętności AI niezbędnych w 2026 roku – zapisz się na bezpłatne szkolenie!

07 stycznia 2026, 14:24 | Aktualności | 1 komentarz
10 umiejętności AI niezbędnych w 2026 roku – zapisz się na bezpłatne szkolenie!

Hype na sztuczną inteligencję na przemian rośnie i maleje. Nie da się jednak ukryć, że świat nie „jara” się już byle wygenerowanym promptem czy automatyzacją i szuka realnych zastosowań. Tym bardziej, że wykorzystanie mocy obliczeniowych do działania AI nie jest tanie.  2026 rok będzie upływał pod hasłem poszukiwania konkretnych zastosowań,…

Czytaj dalej »

GeminiJack: atak typu prompt injection i 0-click w rozwiązaniu AI Gemini Enterprise

22 grudnia 2025, 05:19 | W biegu | 1 komentarz
GeminiJack: atak typu prompt injection i 0-click w rozwiązaniu AI Gemini Enterprise

Badacze z laboratorium Noma Labs wykryli poważną lukę bezpieczeństwa w środowisku Google Gemini Enterprise AI. Wcześniej analogiczna sytuacja występowała w Vertex AI Search. Podatność – znana pod nazwą GeminiJack pozwala atakującemu na uzyskanie nieuprawnionego dostępu do poufnych danych firmy.  TLDR: Wystarczył współdzielony dokument Google, zaproszenie z kalendarza, czy też odpowiednio…

Czytaj dalej »

PromptPwnd – nie zgadniecie co się okazało po integracji LLM z GitHub Actions

10 grudnia 2025, 04:18 | Aktualności | komentarze 4
PromptPwnd – nie zgadniecie co się okazało po integracji LLM z GitHub Actions

Gdybyśmy otrzymywali dolara (no dobra – starczy 1 Polski Nowy Złoty) za każde nieudane połączenie AI z czymkolwiek, to właśnie pisalibyśmy ten tekst z pokładu jachtu. Tym razem “nowa” odsłona ataku została nazwana PromptPwnd (standardowo brakuje tylko logo i dżingla), a dotyka ona potoków CI/CD (ang. Continuous Integration/Continuous Development pipelines)….

Czytaj dalej »

HashJack, czyli nowy wektor ataku na przeglądarki AI

08 grudnia 2025, 00:20 | Aktualności | 1 komentarz
HashJack, czyli nowy wektor ataku na przeglądarki AI

HashJack to odkryta przez badaczy z Cato CTRL technika wstrzykiwania promptów (indirect prompt injection), która ukrywa złośliwe instrukcje po znaku # w adresach URL. Gdy przeglądarki AI przesyłają pełny link (wraz ze złośliwym fragmentem) do swoich asystentów AI, wykonują oni prompty atakujących. Umożliwia to atakującym np. wyświetlenie użytkownikowi fałszywych informacji…

Czytaj dalej »

asystent.ai – publicznie dostępne API (użytkownicy / hashowane hasła / konwersacje z AI / pliki / …). Możliwe było pobranie danych zwykłą przeglądarką.

06 grudnia 2025, 09:29 | Aktualności | 1 komentarz
asystent.ai – publicznie dostępne API (użytkownicy / hashowane hasła / konwersacje z AI / pliki / …). Możliwe było pobranie danych zwykłą przeglądarką.

TLDR: Dostępne bez żadnego logowania API aplikacji asystent[.]ai / Minerva. Listowanie użytkowników, szczegóły użytkowników (w tym hashe haseł), pliki wysyłane przez użytkowników, konwersacje z AI. Aby zobaczyć te dane, wystarczyła zwykła przeglądarka. Przykład wyniku zwracanego przez https://api.asystent[.]ai/users/ Ale po kolei. 23.11.2025 czytelnik zgłosił nam niepokojącą serię podatności w rozwiązaniu asystent[.]ai…

Czytaj dalej »

Absurdalna dziura w AI-owym narzędziu dla prawników (Filevine). W prosty sposób można było pobrać bez uwierzytelnienia ~100000 projektów/dokumentów

05 grudnia 2025, 09:50 | Aktualności | 0 komentarzy
Absurdalna dziura w AI-owym narzędziu dla prawników (Filevine). W prosty sposób można było pobrać bez uwierzytelnienia ~100000 projektów/dokumentów

Chodzi o appkę Filevine – “AI Legal Assistant”. Badacz bezpieczeństwa (aka hacker) popatrzył trochę w źródła javascript na pewnej domenie Filevine, znalazł tam pewien endpoint API. Endpoint dostępny był bez uwierzytelnienia i umożliwiał wyszukiwanie dowolnych “projektów prawnych” stworzonych w appce przez innych użytkowników. Wystarczyło podać nazwę projektu. No OK, ale…

Czytaj dalej »

SOS AI. Sekurak o Sekretach AI, czyli mega praktyczna wiedza o sztucznej inteligencji w pigułce! + bonusowe odcinki na Black Week

25 listopada 2025, 14:44 | Aktualności | 0 komentarzy
SOS AI. Sekurak o Sekretach AI, czyli mega praktyczna wiedza o sztucznej inteligencji w pigułce! + bonusowe odcinki na Black Week

Jeśli czujesz, że technologia AI zmienia świat, a Ty nie chcesz zostać w tyle – ale jednocześnie jesteś osobą zabieganą i nie masz czasu na długie, skomplikowane szkolenia – mamy dla Ciebie idealne rozwiązanie! Ruszamy z cyklem krótkich szkoleń SOS AI – Sekurak o Sekretach AI, w formule dla zabieganych,…

Czytaj dalej »

ShadowMQ – niebezpieczny wzorzec deserializacji pickle wykryty w wielu silnikach wnioskowania AI

20 listopada 2025, 14:27 | Aktualności | 0 komentarzy
ShadowMQ – niebezpieczny wzorzec deserializacji pickle wykryty w wielu silnikach wnioskowania AI

Badacze bezpieczeństwa z Oligo Security wykryli szereg podatności pozwalających na zdalne wykonanie kodu w głównych frameworkach do wnioskowania sztucznej inteligencji. Luki bezpieczeństwa występują w produktach oferowanych przez Meta, NVIDIA, Microsoft, vLLM oraz SGLang. Problem tkwi w niebezpiecznej kombinacji ZeroMQ i deserializacji pickle w Pythonie. Co ciekawe, szczególną uwagę badaczy zwrócił…

Czytaj dalej »

Wtyczki MCP równie problematyczne co przeglądarki ze zintegrowanym AI – podatność PromptJacking

17 listopada 2025, 05:24 | Aktualności | 0 komentarzy
Wtyczki MCP równie problematyczne co przeglądarki ze zintegrowanym AI – podatność PromptJacking

Najczęstsze, najgłośniejsze i najpopularniejsze podatności związane z generatywnym AI (a w szczególności z dużymi modelami językowymi) można podzielić ogólnie na dwie podgrupy (co oczywiście stanowi tylko wycinek powierzchni ataku). Pierwsze dotyczą tzw. bezpieczeństwa “miękkiego” i w skrócie polegają na atakowaniu modeli w taki sposób, aby “skłonić” je do pominięcia założonych…

Czytaj dalej »