Mega Sekurak Hacking Party w Krakowie! 20.10.2025 r. Bilety -30%
Chatbot od Meta AI pozwalał na dostęp do prywatnych wiadomości i odpowiedzi wygenerowanych dla innych użytkowników
Incydent opisuje serwis TechCrunch, któremu Sandeep Hodkasia, założyciel firmy AppSecure zajmującej się testami bezpieczeństwa, przekazał informację o otrzymaniu 10 000 dolarów za zgłoszenie błędu 26 grudnia 2024 roku w ramach programu bug bounty.
Meta wdrożyła poprawkę 24 stycznia 2025 r. i podobno nie wykryła dowodów na to, że luka została złośliwie wykorzystana.
Błąd został znaleziony podczas analizy funkcji edycji promptów w Meta AI. Gdy użytkownik edytował prompt, serwery Meta przypisywały mu unikalny numer ID. Hodkasia, śledząc ruch sieciowy w przeglądarce, zauważył, że zmieniając ten numer, mógł otrzymać prompt i odpowiedź należące do innego użytkownika. Serwery nie weryfikowały, czy żądający ma prawo do wglądu w dane. Same numeracje ID promptów były „łatwe do zgadnięcia”, co mogło umożliwić masowe pozyskiwanie cudzych danych za pomocą automatycznych narzędzi. Typowa podatność klasy IDOR (insecure direct object reference) czyli odwołanie się do obiektu przy pomocy bezpośredniego odwołania (identyfikatora). Mechanizm autoryzacji po stronie serwera nie działa prawidłowo i zezwala na dostęp do informacji nie przeznaczonych dla tego konkretnego użytkownika.
Meta potwierdziła naprawę błędu i brak śladów nadużyć. – „Zidentyfikowaliśmy i naprawiliśmy problem, nie znaleźliśmy dowodów na jego wykorzystanie i nagrodziliśmy badacza” – powiedział rzecznik Meta, Ryan Daniels.
Rosnąca presja, jakiej poddawani są technologiczni giganci – chcąc nadążyć za tempem rozwoju AI, powoduje wprowadzanie kolejnych funkcji w pośpiechu, często kosztem bezpieczeństwa i prywatności użytkowników. Meta AI już wcześniej była krytykowana za przypadki, gdy użytkownicy nieświadomie udostępniali publicznie prywatne rozmowy z chatbotem. Ten najnowszy incydent potwierdza, że nadal jest w tym temacie dużo do zrobienia.
~Natalia Idźkowska