Mega Sekurak Hacking Party w Krakowie! 20.10.2025 r. Bilety -30%

Tag: promptinjection

Luka w zabezpieczeniach Gemini pozwala ukryć złośliwe instrukcje w wiadomości e-mail

18 lipca 2025, 11:36 | W biegu | 0 komentarzy
Luka w zabezpieczeniach Gemini pozwala ukryć złośliwe instrukcje w wiadomości e-mail

Jeżeli byliście na szkoleniu Narzędziownik AI od Tomka Turby, to wiecie jak relatywnie łatwo jest przeprowadzić atak wstrzyknięcia złośliwego promptu (ang. prompt injection), np. na model LLM – ChatGPT. Jeżeli mamy taką możliwość podczas interakcji z LLM’em 1:1, to czy możemy zrobić to samo, jeżeli AI jest wykorzystywane jako usprawnienie…

Czytaj dalej »