Żądny wiedzy? Wbijaj na Mega Sekurak Hacking Party w maju! -30% z kodem: majearly

Tag: ai

Halucynacje AI jako dobra inspiracja do ataku na łańcuch dostaw

21 kwietnia 2024, 22:26 | W biegu | 1 komentarz
Halucynacje AI jako dobra inspiracja do ataku na łańcuch dostaw

AI na dobre zagościło w zestawie narzędzi wspierających współczesnych pracowników. Boom na tę technologię nie ominął też samego IT, gdzie co rusz słychać głosy i reklamy nowych produktów opartych o duże modele językowe (ang. LLM). Są takie, które pozwalają pisać kod na podstawie opisu funkcjonalności, dokonywać transkrypcji tekstu mówionego czy…

Czytaj dalej »

Manager haseł LastPass – do naszego pracownika zadzwonił deepfake naszego CEO. Próba celowanego ataku socjotechnicznego.

12 kwietnia 2024, 09:18 | W biegu | komentarze 3

Komunikacja odbywała się na WhatsAppie; poza sklonowanym głosem prezesa, atakujący wysyłał również wiadomości tekstowe. Obecnie głos można sklonować bardzo prosto – wystarczy kilkuminutowa próbka wypowiedzi ofiary i można sfałszowanym głosem wypowiadać wszystko. OpenAI chwali się nawet, że wystarczy 15 sekund próbki: Swoją drogą klonowanie głosu na żywo pokażemy na najbliższym…

Czytaj dalej »

Modele AI wektorem ataku na infrastrukturę AaaS

09 kwietnia 2024, 07:57 | W biegu | 0 komentarzy
Modele AI wektorem ataku na infrastrukturę AaaS

Niedawno pisaliśmy o tym, jak wykorzystanie niebezpiecznych mechanizmów serializacji może być metodą ataku na developerów. Tym razem przedstawiamy research przeprowadzony przez WIZ, który korzystając z podobnych mechanizmów umożliwia atak na infrastrukturę usługi AI-as-a-Service.  AaaS jest kuszącym rozwiązaniem w dobie AI ze względu na spore wymagania sprzętowe. Skorzystanie z rozwiązań chmurowych…

Czytaj dalej »

Wykradanie fragmentów modeli LLM – Google wydało publikację z nowym atakiem

26 marca 2024, 13:33 | W biegu | komentarze 3
Wykradanie fragmentów modeli LLM – Google wydało publikację z nowym atakiem

W świecie dużych modeli językowych (LLM) dynamika zmian jest całkiem spora. Boom na rozwój AI nakręca też wyścig w kierunku coraz ciekawszych ataków skierowanych w akurat tę gałąź technologii. Ostatnio pisaliśmy o tym, jak popularny portal może być wykorzystany do ataków na developerów AI. Jednak infrastruktura oraz same modele mogą…

Czytaj dalej »

Modele językowe LLM podpowiadają, jak zbudować bombę – atak typu ArtPrompt

21 marca 2024, 09:50 | W biegu | komentarze 2
Modele językowe LLM podpowiadają, jak zbudować bombę – atak typu ArtPrompt

Niektórzy nie mogą już sobie wyobrazić życia bez “inteligentnych” pomocników. Duże modele językowe (LLM – Large Language Models) zyskały bardzo dużo zastosowań w ostatnich latach. Wykorzystywane są do obsługi klientów, generowania niewielkich snippetów kodu, w charakterze osobistych asystentów i nie tylko. Wciąż poprawiane, uczone na coraz większej ilości danych, modele…

Czytaj dalej »

NextChat – popularny czatbot AI z niezałatanymi podatnościami

13 marca 2024, 21:42 | W biegu | 1 komentarz
NextChat – popularny czatbot AI z niezałatanymi podatnościami

Przeglądając Internet w poszukiwaniu ciekawych podatności, można się natknąć na niezałatane błędy, które stanowią idealny przykład dydaktyczny. Takie przykłady mało skomplikowane, a do tego podkreślają istotę problemu. CVE-2023-49785 może stać się jednym z lepszych przykładów do demonstracji wpływu SSRF (Server Side Request Forgery) na aplikację. O SSRF pisaliśmy już nie…

Czytaj dalej »

Wykorzystanie modeli AI do atakowania deweloperów

04 marca 2024, 18:05 | W biegu | 1 komentarz
Wykorzystanie modeli AI do atakowania deweloperów

Nie wygląda na to, aby popularność na to, co powszechnie określane jest skrótem AI, w nadchodzących miesiącach miały ulec zmianie. Od początku przyglądamy się oraz prowadzimy własne badania w zakresie modeli i ich wpływu na bezpieczeństwo użytkowników końcowych, systemów, na których są uruchamiane oraz środowisk deweloperskich. Możliwości i zagrożenia, wynikające…

Czytaj dalej »

Pierwsza część „Narzędziownika AI” za nami! Jak było i co Was czeka w części drugiej? Mamy też niespodzianki!

01 marca 2024, 12:29 | Aktualności | komentarze 4
Pierwsza część „Narzędziownika AI” za nami! Jak było i co Was czeka w części drugiej? Mamy też niespodzianki!

W środę 28 lutego odbyła się pierwsza część naszego nowego szkolenia Narzędziownik AI, która przed ekrany przyciągnęła na żywo ponad 1300 osób na żywo przy łącznej liczbie zapisanych 2700 (tak, nagranie jest dostępne przez 90 dni). Nasz trener Tomek rozpoczął o czasie, jednak sesja Q&A była tak rozbudowana, że szkolenie…

Czytaj dalej »

Chciałbyś poznać aktualne narzędzia AI, które mogą usprawnić Twoją pracę / zadania w życiu prywatnym? Mamy dla Ciebie praktyczny, 4h przegląd po narzędziach AI :-)

23 lutego 2024, 10:40 | Aktualności | komentarze 4
Chciałbyś poznać aktualne narzędzia AI, które mogą usprawnić Twoją pracę / zadania w życiu prywatnym? Mamy dla Ciebie praktyczny, 4h przegląd po narzędziach AI :-)

Witaj w nowym świecie, gdzie narzędzia sztucznej inteligencji (AI) stają się nieodłącznymi elementami Twojej codzienności. Aby pomóc Ci zrozumieć tę niezwykłą dynamikę i wykorzystać jej potencjał, zapraszamy na nasze najnowsze, wnikliwe i ultra praktyczne szkolenie prowadzone przez Tomka Turbę. Wprowadzimy Cię w świat AI, opowiemy czym w ogóle jest sztuczna…

Czytaj dalej »

Odpalili stronę generującą fałszywe dokumenty za pomocą AI. Prawa jazdy, paszporty, … Takim fejkiem udało się ominąć system weryfikujący tożsamość na podstawie zuploadownego dokumentu.

06 lutego 2024, 19:21 | W biegu | komentarzy 10
Odpalili stronę generującą fałszywe dokumenty za pomocą AI. Prawa jazdy, paszporty, … Takim fejkiem udało się ominąć system weryfikujący tożsamość na podstawie zuploadownego dokumentu.

Przykłady wykorzystania narzędzia oraz udane próby ominięcia systemu weryfikacji tożsamości możecie prześledzić w tym wątku-śledztwie na Twitterze. Od strony użytkownika całość jest (*) bajecznie prosta – podajemy konkretne dane, które mają znaleźć się na dokumencie (np. Imię/Nazwisko/zdjęcie/nr dokumentu) – i ognia – wygenerowanie zdjęć stosownych fejków zajmuje dosłownie moment. Można…

Czytaj dalej »

Oszustwo przez telefon – objaśniamy jak działają przestępcy na podstawie prawdziwego incydentu

05 lutego 2024, 17:12 | W biegu | komentarze 3
Oszustwo przez telefon – objaśniamy jak działają przestępcy na podstawie prawdziwego incydentu

Ataki socjotechniczne wykorzystujące ludzkie odruchy jak chęć niesienia pomocy, to niestety w naszej branży smutna codzienność. Niedawno informowaliśmy o ataku na Framework Inc, w którym przestępcy podszyli się pod CEO aby wymóc pewne działanie. Jednak przekręty wykorzystujące autorytet to nie jedyne zagrożenie, z którym spotkać się może właściwie każdy. Cyberprzestępcy…

Czytaj dalej »

LeftoverLocals – ciekawy wyciek danych w kartach graficznych Apple, AMD i Qualcomma (CVE-2023-4969). W pewnych warunkach można odczytać co LLM (Large Language Model) odpowiada innemu użytkownikowi…

19 stycznia 2024, 10:55 | W biegu | 0 komentarzy
LeftoverLocals – ciekawy wyciek danych w kartach graficznych Apple, AMD i Qualcomma (CVE-2023-4969). W pewnych warunkach można odczytać co LLM (Large Language Model) odpowiada innemu użytkownikowi…

Czytanie w myślach to ciekawy koncept, na razie trudny do zrealizowania w przypadku ludzi, ale już teraz można przeczytać co LLM (Large Language Model) odpowiada innemu użytkownikowi. Za wszystko odpowiedzialna jest pamięć GPU.  Trail Of Bits opublikowało na swoim blogu obszerne wyjaśnienie dla odkrytej podatności identyfikowanej jako CVE-2023-4969. Pozwala ona…

Czytaj dalej »

GeoSpy AI – świetne narzędzie online wykrywające, gdzie zostało zrobione wskazane zdjęcie. Rewelacja do badań OSINTowych.

05 stycznia 2024, 22:03 | W biegu | komentarzy 37
GeoSpy AI – świetne narzędzie online wykrywające, gdzie zostało zrobione wskazane zdjęcie. Rewelacja do badań OSINTowych.

Od razu możecie przejść do swoich testów: https://geospy.ai/ pamiętając żeby nie uploadować niczego poufnego… Testy na czterech niepublikowanych wcześniej zdjęciach wypadły w zasadzie w 100% pozytywnie: Zaciekawił Cię temat? Spojrzyj na coś bardziej złożonego – czyli case wyszukiwania zdjęcia poniżej (Warszawa), gdzie GeoSpy nie był taki pewny… Tzn. źle wskazał…

Czytaj dalej »

Literka I w LLM oznacza Inteligencję :-) Zobaczcie na zgłoszenie bug bounty do curla wygenerowane w AI. Oraz reakcję autora narzędzia.

03 stycznia 2024, 10:45 | W biegu | komentarzy 13
Literka I w LLM oznacza Inteligencję :-) Zobaczcie na zgłoszenie bug bounty do curla wygenerowane w AI. Oraz reakcję autora narzędzia.

Daniel Stenberg, twórca narzędzia curl właśnie pochwalił się swoimi „przygodami” z AI. Jaki tu mamy problem, ano taki, że w międzynarodowym środowisku często zgłoszenia błędów bezpieczeństwa są niejasne, skrótowe, często niestety mają też postać tzw. beg bounty („zgłoszę coś, co nie jest podatnością, a nuż wypłacą mi parę dolarów”). Wszystko…

Czytaj dalej »

Deepfake głosu Aleksandra Kwaśniewskiego. Przestępcy używają go do uwiarygodnienia scamu na „super inwestycję”. Posłuchajcie

03 listopada 2023, 11:03 | W biegu | komentarze 3
Deepfake głosu Aleksandra Kwaśniewskiego. Przestępcy używają go do uwiarygodnienia scamu na „super inwestycję”. Posłuchajcie

Samo nagranie dostępne jest tutaj: Głos momentami się tnie, jest do bólu uszu monotonny, a także niezsynchronizowany z obrazem. Niemniej jednak taki dość toporny przekaz dla wielu osób będzie zapewne wystarczający. Wystarczający aby kliknąć, podać swoje podstawowe dane, a później odebrać telefon od rzekomych konsultantów inwestycyjnych. Ci ostatni skłonią ofiarę…

Czytaj dalej »