Bezpłatne Dni Otwarte Sekurak Academy! Hackowanie na żywo, szkolenia, ebooki, …

Tag: ai

Cellebrite używa AI do podsumowywania zebranych danych

12 marca 2025, 03:44 | W biegu | 0 komentarzy
Cellebrite używa AI do podsumowywania zebranych danych

Cellebrite to znana firma, która produkuje narzędzia do “analizy kryminalistycznej” smartfonów. Z jej usług korzystają służby na całym świecie. O Cellebrite jest znowu głośno w związku z raportem Amensty International dotyczącym szpiegowaniu studenta w Serbii (ma to związek z licznymi protestami w tym kraju). Niedawno wprowadzili do swoich produktów funkcje…

Czytaj dalej »

Prawdopodobnie DeepSeek zna Wasze sekrety oraz klucze API ;)

10 marca 2025, 12:09 | W biegu | komentarzy 5
Prawdopodobnie DeepSeek zna Wasze sekrety oraz klucze API ;)

Przeszukiwanie zasobów w poszukiwaniu kluczy API nie jest nowatorską praktyką i bywa bardzo często wykorzystywane przez atakujących na etapie rekonesansu. Powstały liczne narzędzia, które potrafią przeszukiwać np. repozytoria kodu (np. na GitHubie). Sytuacje, w których produkcyjne poświadczenia trafiają do publicznych baz danych nie są wyjątkiem, dlatego nic dziwnego, że badacze…

Czytaj dalej »

Zachwyt nad LLMami, a zderzenie z górą lodową – czyli o powielaniu błędnych praktyk

07 marca 2025, 07:59 | W biegu | komentarzy 10
Zachwyt nad LLMami, a zderzenie z górą lodową – czyli o powielaniu błędnych praktyk

Wprowadzenie integracji dużych modeli językowych (Large Language Model, LLM) ze środowiskami programistycznymi może okazać się zbawienne w przypadku pisania tzw. boiler plate code (czyli szablonów). Nudne i powtarzalne zajęcie, to idealne zadanie dla sztucznej inteligencji. Jednak zachłyśnięcie się technologią oraz poszukiwanie na siłę oszczędności może prowadzić do katastrofalnych skutków. Dlaczego?…

Czytaj dalej »

Poznaj AI z sekurakiem. Zapraszamy na darmowe, praktyczne szkolenie jeszcze w lutym!

20 lutego 2025, 09:04 | Aktualności | 1 komentarz
Poznaj AI z sekurakiem. Zapraszamy na darmowe, praktyczne szkolenie jeszcze w lutym!

W dzisiejszych czasach znajomość narzędzi AI staje się kluczowa. Dlaczego? Ponieważ AI może znacząco zwiększyć efektywność pracy, automatyzując powtarzalne zadania, pozwalając skupić się na bardziej kreatywnych i strategicznych działaniach „ludzkich”. Narzędzia AI są coraz bardziej zintegrowane z różnymi branżami, od IT po finanse, co oznacza, że umiejętność ich wykorzystania może…

Czytaj dalej »

Time Bandit czyli jak zmusić ChatGPT-4o do złamania zasad, nowa technika jailbreakingu modeli LLM

06 lutego 2025, 07:13 | W biegu | komentarzy 28
Time Bandit czyli jak zmusić ChatGPT-4o do złamania zasad, nowa technika jailbreakingu modeli LLM

Na stronie CERT/CC pojawiła się szczegółowa notatka dotycząca nowej metody obejścia zabezpieczeń produktu firmy OpenAI – ChatGPT-4o. Jak większość produkcyjnie dostępnych dużych modeli językowych (LLM), tak i ChatGPT posiada zabezpieczenia, które mają na celu uniemożliwić lub ograniczyć odpowiedzi na niektóre tematy.  Metoda “przekonania” modelu do odpowiedzi na zakazane pytania nosi…

Czytaj dalej »

Baza danych chińskiego LLM DeepSeek wystawiona do sieci, a w niej historia chatów

30 stycznia 2025, 04:41 | W biegu | komentarzy 6
Baza danych chińskiego LLM DeepSeek wystawiona do sieci, a w niej historia chatów

DeepSeek – to nazwa chińskiego startupu, który podniósł i odrzucił rękawicę rzuconą między innymi przez OpenAI w zakresie użyteczności modeli LLM. W ostatnich dniach, jest odmieniana w mediach przez wszystkie przypadki. Jednak w tym wyścigu technologicznym, pośpiech nigdy nie będzie dobrym doradcą. Firma Wiz opublikowała niepokojący wpis informujący o znalezieniu…

Czytaj dalej »

Walka z oszustami internetowymi za pomocą AI. Brytyjska sieć komórkowa O2 opracowała bota głosowego rozmawiającego ze scammerami.

15 listopada 2024, 18:06 | W biegu | komentarze 4

Daisy, bo tak nazywa się ten eksperymentalny bot, zamienia głos rozmówcy na tekst. Tekst jest następnie wprowadzany do dedykowanego LLMa, który generuje odpowiedź tekstową. Odpowiedź jest czytana rozmówcy (scammerowi) głosem starszej osoby. Wszystko dzieje się w czasie rzeczywistym. Sieć O2 ma dwa cele: 1) Zajęcie jak największej ilości czasu scammerom2)…

Czytaj dalej »

Jak zepsuć uczenie maszynowe? Wprowadzenie do ataków adwersarialnych.

20 września 2024, 18:53 | Narzędzia, Teksty | komentarzy 10
Jak zepsuć uczenie maszynowe? Wprowadzenie do ataków adwersarialnych.

Poniższe obrazki wydają się jednakowe; czy jesteś w stanie określić, czym się różnią? Przykład adwersarialny z wykorzystaniem FGSM, Źródło: TensorFlow, https://www.tensorflow.org/tutorials/generative/adversarial_fgsm?hl=pl Mam mocne przeczucie, że nie widzisz różnicy. Natomiast dla AI (sieci neuronowej) mogą to być dwa absolutnie różne obrazki; ten po lewej przedstawia pandę, a drugi – rzecz jasna –…

Czytaj dalej »

Rodzina wylądowała w szpitalu. Zakupili książkę o grzybach, która była najpewniej napisana przez AI.

12 września 2024, 10:03 | W biegu | komentarzy 18
Rodzina wylądowała w szpitalu. Zakupili książkę o grzybach, która była najpewniej napisana przez AI.

Wg tej relacji również zdjęcia w książce były wygenerowane przez sztuczną inteligencję. Książka została użyta do identyfikacji grzybów na przechadzce, a po spożyciu rodzina wylądowała w szpitalu z zatruciem. W szczególności w książce można znaleźć takie „kwiatki”: In conclusion, morels are delicious mushrooms which can be consumed from August to…

Czytaj dalej »

Ciekawe potknięcia bezpieczeństwa przy popularnym startupie Rabbit R1

31 lipca 2024, 03:25 | W biegu | komentarze 3
Ciekawe potknięcia bezpieczeństwa przy popularnym startupie Rabbit R1

Firmy technologiczne nie przestają przedstawiać AI jako rozwiązania większości problemów ludzkości. Do czatów bazujących na dużych modelach językowych (LLM), użytkownicy Internetu zdążyli już przywyknąć. Asystenci głosowi stali się kolejną funkcją smartfona. Nic więc dziwnego, że aby jeszcze bardziej ułatwić codzienne życie, powstały startupy rozwijające projekty takie jak Rabbit R1. Czym…

Czytaj dalej »

Probllama – RCE w znanym projekcie do uruchamiania modeli LLM

25 czerwca 2024, 20:21 | W biegu | komentarze 3
Probllama – RCE w znanym projekcie do uruchamiania modeli LLM

Boom na LLM spowodował olbrzymią popularność nie tylko chatów online, udostępnionych przez firmy trzecie, ale także rozwiązań pozwalających na korzystanie z modeli obsługiwanych lokalnie. Jednym ze sposobów dystrybucji i uruchamiania popularnych modeli takich jak np. LLama od firmy Meta jest projekt Ollama, który pokazywaliśmy na szkoleniu z Narzędziownika AI w…

Czytaj dalej »

Deserializacja atakuje modele ML po raz kolejny, tym razem jeszcze skuteczniej

20 czerwca 2024, 23:37 | Aktualności | 1 komentarz
Deserializacja atakuje modele ML po raz kolejny, tym razem jeszcze skuteczniej

Zachłyśnięcie się rozwojem technologii powszechnie określanej jako AI (sztuczna inteligencja), powoduje lawinowy wzrost projektów, również tych otwartych. Ponieważ procesy uczenia, nakładania ograniczeń na model oraz fine-tuningu (dostrajania) są raczej kosztowne, to możliwe jest zapisanie stanu poprzez wyeksportowanie zserializowanych modeli w celu ich późniejszego załadowania i użycia lub udostępniania w sieci….

Czytaj dalej »

Halucynacje AI jako dobra inspiracja do ataku na łańcuch dostaw

21 kwietnia 2024, 22:26 | W biegu | 1 komentarz
Halucynacje AI jako dobra inspiracja do ataku na łańcuch dostaw

AI na dobre zagościło w zestawie narzędzi wspierających współczesnych pracowników. Boom na tę technologię nie ominął też samego IT, gdzie co rusz słychać głosy i reklamy nowych produktów opartych o duże modele językowe (ang. LLM). Są takie, które pozwalają pisać kod na podstawie opisu funkcjonalności, dokonywać transkrypcji tekstu mówionego czy…

Czytaj dalej »

Manager haseł LastPass – do naszego pracownika zadzwonił deepfake naszego CEO. Próba celowanego ataku socjotechnicznego.

12 kwietnia 2024, 09:18 | W biegu | komentarze 3

Komunikacja odbywała się na WhatsAppie; poza sklonowanym głosem prezesa, atakujący wysyłał również wiadomości tekstowe. Obecnie głos można sklonować bardzo prosto – wystarczy kilkuminutowa próbka wypowiedzi ofiary i można sfałszowanym głosem wypowiadać wszystko. OpenAI chwali się nawet, że wystarczy 15 sekund próbki: Swoją drogą klonowanie głosu na żywo pokażemy na najbliższym…

Czytaj dalej »