Konferencja Mega Sekurak Hacking Party w Krakowie – 26-27 października!

Refund fraud już w Polsce. Rzekomo uszkodzona przesyłka, a tak naprawdę to przeróbka AI

26 stycznia 2026, 21:26 | Aktualności, Teksty | komentarze 4

Cyberzbóje wspierani AI właśnie uderzają w jeden z najbardziej wrażliwych punktów e-commerce: zaufanie do zdjęć jako dowodu przy zakupie. Czasami jest to wręcz czynnik decydujący. W mediach i na forach sprzedażowych np. marki Allegro pojawiły się pierwsze dobrze udokumentowane przypadki, w których generatywna AI służy do fałszowania zdjęć rzekomo uszkodzonych towarów i generowania “potwierdzeń dostawy” paczek, których kurier w ogóle nie przywiózł.

TLDR:

  • Rośnie fala ataków związanych z przestępstwem “refund fraud”
  • Oszuści otrzymują towar zakupiony przez Internet, ale reklamują go z fałszywym wygenerowanym zdjęciem uszkodzonego produktu

Duże marketplace’y i sklepy wciąż polegają na prostym modelu: “wyślij zdjęcie potwierdzające, dostaniesz zwrot”. W połączeniu z tanimi, łatwo dostępnymi narzędziami AI tworzy to idealne środowisko dla nowej generacji fraudów. Zobaczmy kilka zebranych przez naszą redakcję przykładów.

Plecak z gąbką, której nigdy nie miał

Znowu, jak możemy przeczytać za paywallem na stronie Gazety Wyborczej, historia rozpoczyna się bardzo prozaicznie. Polski sprzedawca prowadzący sklepy na platformach zakupowych sprzedał tani plecak turystyczny za około 100 złotych. Kupujący zamówienie otrzymał, towar był sprawny. Kilka dni później pojawił się jednak problem: klient zgłosił reklamację ze zdjęciami, na których plecak wyglądał na rozpruty, a pod materiałem widniała rzekoma warstwa gąbki amortyzującej.​ Dla sprzedawcy było to zastanawiające, bo model tego plecaka nigdy takiej warstwy nie miał 🙂. Spojrzał na zdjęcie uważniej i zorientował się, że warstwy “amortyzacyjne” na fotografii nie odpowiadają realnej konstrukcji produktu. Coś tu było fundamentalnie nie tak. Decyzja była naturalna: skorzystał z aplikacji wykrywającej użycie AI (https://hivemoderation.com/) i przesłał wynik do platformy – analiza wskazała na około 98% prawdopodobieństwa, że zdjęcie zostało wygenerowane lub istotnie zmodyfikowane przez AI. Do weryfikacji posłużył się zerogpt.com.

Reklamacja została odrzucona, ale sprzedawca mówił wprost o “bezczelności oszustów”: Zdawali sobie sprawę, że celują w niskie kwoty, bo wiedzą, że nikt nie pójdzie do sądu o plecak za 100 złotych. To był świadomy wybór – ilość nad jakością, niemniejsze straty, ale bardzo łatwe w skalowaniu. Procedury były proste, ryzyko minimalne.

Kosmetyki z Czeskiej Republiki i chatbot Allegro

Na forum społeczności Allegro pojawił się jeszcze bardziej wyrazisty przypadek. Sprzedawca opisał reklamację od kupującego z Czech, który zamówił zestaw kosmetyków. Po około miesiącu od zakupu klient zgłosił się z pretensjami: przesyłka dotarła w nienaruszonym stanie, ale same produkty miały być uszkodzone. W narracji pojawił się emocjonalny element – miał to być prezent urodzinowy dla dziadka, który całkowicie się zepsuł przez rzekomo uszkodzony towar.​ Załączone zdjęcia zniszczeń wyglądały jednak na tyle nienaturalnie, że sprzedawca przepuścił je przez detektor AI i uzyskał równie wysoki wynik prawdopodobieństwa wygenerowania przez sztuczną inteligencję. Reklamacja została odrzucona, ale w dyskusję włączył się już algorytmiczny chatbot platformy. Autor wątku czekał na dalszy rozwój sprawy – dopytując innych sprzedawców, czy spotkali się z podobnym schematem.​ Wątek ma wiele komentarzy.

Rys. 1. Rzekomo uszkodzone perfumy znanej marki, źródło

Te przypadki z Polski mają jedno znaczenie: schemat oszustwa nie jest już wyłącznie zagrożeniem “za oceanem”. Testy już trwają na lokalnych platformach, a oszuści doskonalą wykorzystanie technologii.

Kurier, który “oddał robotę AI”

Historia z DoorDasha, opisana na platformie X, pokazuje wariant tego problemu w kontekście usług dostawy. Kierowca zaakceptował zamówienie w aplikacji, a następnie niemal natychmiast oznaczył je jako dostarczone. Przesłał zdjęcie rzekomej paczki pod drzwiami klienta jako dowód doręczenia.​

Problem: fotografia nie odpowiadała rzeczywistemu wejściu do domu poszkodowanego. Klient zestawił przesłany obraz ze zdjęciami własnych drzwi i szybko zorientował się, że to się nie zgadza. Wszystko wskazywało na to, że zdjęcie zostało wygenerowane przez AI – ani perspektywa, ani oświetlenie, ani otoczenie nie odpowiadały rzeczywistości.

Rys. 2. Porównanie zdjęć, źródło + opracowanie własne

Jeszcze bardziej zaniepokoiło go to, że w komentarzach do jego posta pojawiła się druga osoba z Austin, opisująca niemal identyczną sytuację… z kierowcą o tym samym pseudonimie w aplikacji. To nie był wypadek, to był powtarzalny schemat. Klient spekulował, że kierowca używa przejętego konta, ma zmodyfikowany telefon i być może wykorzystuje funkcję DoorDasha pokazującą zdjęcia z wcześniejszych dostaw, aby zdobyć obraz drzwi wejściowych i wygenerować fałszywe potwierdzenie dostawy.​

DoorDash zareagował zdecydowanie. Usunął konto kierowcy, zrekompensował stratę klientowi, a w oświadczeniu podkreślił “zero tolerancji” dla oszustw oraz wykorzystanie zarówno narzędzi technologicznych, jak i weryfikacji przez ludzi. Problem w tym, że model funkcjonowania platformy się nie zmienił – zdjęcie pozostało kluczowym, prawie jedynym dowodem doręczenia.​ Sądzę, że w 2026 powinna to już być tylko “sugestia”.

Gdy atak przychodzi z wewnątrz: 190 fikcyjnych reklamacji w firmie kurierskiej

Do tego obrazu dochodzi jeszcze jeden element, który w kontekście bezpieczeństwa i reklamacji jest kluczowy. Tym razem nie chodzi o klienta kombinującego na zewnątrz, ale o pracownika w środku systemu. Onet opisał sprawę 44‑letniej pracownicy jednej z firm kurierskich, zatrudnionej w dziale reklamacji. Miała dostęp do systemu, w którym obsługiwano zgłoszenia od firm współpracujących z operatorem. Według ustaleń policji, przez blisko trzy lata wykorzystała ten dostęp do zbudowania sobie całkiem wygodnego, choć nielegalnego źródła dochodu. Mechanizm był prosty i zarazem podręcznikowy z punktu widzenia fraudów “od wewnątrz”. Pracownica, podszywając się pod rzeczywiste podmioty gospodarcze, zakładała fikcyjne reklamacje w systemie. Tam, gdzie w procedurze powinny być dane konta klienta, wpisywała swoje rachunki bankowe. Jako osoba z uprawnieniami sama zatwierdzała zgłoszenia i wydawała dyspozycje przelewu do działu finansowego.

Rys. 3. Zatrzymanie pracownicy firmy kurierskiej, źródło

Według śledczych, od lutego 2023 r. do stycznia bieżącego roku mogła w ten sposób utworzyć około 190 fikcyjnych reklamacji, wyciągając z kasy firmy blisko 150 tysięcy złotych. Zarzut, który usłyszała, to już nie “zwykłe” oszustwo z art. 286 kodeksu karnego, ale oszustwo komputerowe z art. 287 – bezprawny wpływ na automatyczne przetwarzanie danych, zmiana zapisów w systemie informatycznym w celu osiągnięcia korzyści majątkowej, zagrożone karą od trzech miesięcy do pięciu lat więzienia. Dlaczego ten przypadek jest istotny w kontekście AI i fałszywych zdjęć? Bo wskazuje ten sam wrażliwy punkt: system reklamacyjny. W jednym scenariuszu oszust siedzi po stronie klienta i podrzuca systemowi fałszywe dowody w postaci obrazów generowanych przez AI. W drugim – siedzi w dziale reklamacji i sam “produkuje” zgłoszenia, korzystając z zaufania do danych wprowadzanych z wewnątrz. W obu przypadkach wektor ataku celuje dokładnie w ten sam moduł biznesowy: proces reklamacji i zwrotów.

Jeżeli firma jednocześnie nie kontroluje jakości dowodów z zewnątrz (zdjęcia, wideo) i nie audytuje uprawnień oraz działań swoich pracowników w systemach reklamacji, to tworzy idealne środowisko dla podwójnego uderzenia. Z jednej strony klienci, którzy wiedzą, że “system wierzy obrazom”. Z drugiej – wewnętrzny użytkownik (ang. insider threat), który wie, jak te obrazy i zgłoszenia przekuć na realne wypłaty.

Dlaczego to działa: proklienckie regulaminy i legendarne 50 złotych

Wyborcza w ww. artykule opisała mechanizm nowego typu oszustwa bardzo wyraźnie. Oszust kupuje towar i normalnie go otrzymuje (nie ma mowy o błędzie). Wykonuje zdjęcie produktu. Edytuje je narzędziami AI tak, by wyglądał na uszkodzony. Składa reklamację ze sfabrykowanymi zdjęciami. Platforma – działając zgodnie z prokonsumenckim regulaminem – zwraca pieniądze, często jednocześnie pozwalając na zatrzymanie “uszkodzonego” towaru.​

To zachęcające rozwiązanie dla oszustów z kilku powodów. Po pierwsze, regulaminy większości platform rzeczywiście stają z automatu po stronie klienta. Allegro i Vinted od lat opierają ocenę zasadności reklamacji głównie na zdjęciach i narracji kupującego. Sprzedawca ma ograniczone możliwości obrony. Po drugie, kwoty są celowo niewielkie – dziesięć, pięćdziesiąt, czasem sto złotych. Przestępcy wiedzą, że nikt nie będzie biegać po sądach o plecak czy tani kosmetyk. Poniżej wygenerowane zaledwie w 10 sekund z prostego prompta rzekome uszkodzenie:

Rys. 4. Proof of Concept, wygenerowanego zdjęcia “uszkodzonego” laptopa, opracowanie własne

Po trzecie, a to jest dla e‑commerce najpoważniejsze. AI zdejmuje całą barierę kompetencyjną. Kiedyś trzeba było umieć zmodyfikować obrazek w Photoshopie. Wiedzieć, jak naturalnie osadzić uszkodzenie, jak pracować z oświetleniem i cieniami. Dziś wystarczy wgrać zdjęcie i napisać prompt typu “dodaj realistyczne pęknięcie butelki” albo “rozpruj ten materiał i pokaż co jest w środku”. Dostępne narzędzia zrobią resztę. 

Rys. 5. Rzekomo uszkodzone perfumy z Chin, źródło

Przestępstwo oparte o refund fraud wcale nie jest nowe. To osobny, dobrze rozwinięty segment przestępczości e‑commerce. Generatywne AI nie tworzy go od zera, ale turbo doładowuje istniejący problem skalą, precyzją i uproszczeniem wykonania. Dzisiaj AI manipuluje zdjęcia paragonów, etykiet i uszkodzeń i są coraz powszechniejszym elementem zwrotów i reklamacji – od kosmetyków po elektronikę. Podobne trendy widać już w Chinach, gdzie martwe kraby są “udokumentowane” filmami generowanymi przez AI, a w innych krajach AI‑uszkodzenia stają się rosnącym procentem wszystkich roszczeń.

Prawo wie, co robić. Tylko jest problem: narzędzia nie są idealne

Pani Adwokat Dominika Królik z kancelarii Królik Legal, cytowana w artykule Wyborczej, nie pozostawia wątpliwości: takie działania mogą wypełniać znamiona oszustwa z artykułu 286 kodeksu karnego, zagrożonego karą do 8 lat pozbawienia wolności. 

W tym momencie bardzo ciężko, z perspektywy technologicznej, stwierdzić czy obraz jest autentyczny, czy nie. Obecnie nie dysponujemy wiarygodnymi narzędziami” – mówi Królik. I to jest sedno problemu. Nawet jeśli w sprawie powoła się biegłego, brakuje “pewnej i dostępnej finansowo metody” pozwalającej jednoznacznie stwierdzić, że dana grafika została wygenerowana przy użyciu AI. Zdjęcie przestaje być oczywistym, wiarygodnym nośnikiem prawdy.​ Prawniczka rekomenduje sprzedawcom, by podejrzenia oszustwa zgłaszali od razu organom ścigania. Wtedy policja ma możliwość wezwania kupującego z “uszkodzonym” przedmiotem, zabezpieczenia urządzenia, z którego wykonywano zdjęcia, sprawdzenia historii kont w serwisach AI. Im szybciej to nastąpi, tym większa szansa na odzyskanie śladu dowodowego. Oczywiście – praktyka pokazuje, że policja ma zajęcia ważniejsze niż sto złotych…

Królik mówi wprost: polski system prawny nie jest przygotowany na rozstrzyganie spraw, w których głównym bohaterem jest sztuczna inteligencja. Problem leży nie tylko w braku przepisów, ale w “braku spójnych rozwiązań technologicznych umożliwiających weryfikację autentyczności treści”. Z perspektywy praktyki sądowej oznacza to coś poważnego: sądy będą miały “istotnie ograniczoną możliwość oceny materiału dowodowego” w sprawach opartych o obrazy, nagrania i teksty generowane przez AI. Wiele spraw może nigdy nie wyjść poza etap zgłoszenia albo zakończyć się umorzeniem z braku dostatecznych dowodów, nawet przy silnym podejrzeniu oszustwa.​

Co mogą zrobić sprzedawcy: procedury zamiast wiary

Dla pojedynczego sprzedawcy lub mniejszego sklepu internetowego, najbardziej praktyczne jest podejście polegające na uporządkowaniu procedur i gromadzeniu dowodów po swojej stronie. Nie da się tego zrobić perfekcyjnie, ale dużo można poprawić. Przede wszystkim warto zdefiniować progi wartości i scenariusze reklamacji. Do 50 złotych można akceptować zdjęcie jako jedyny dowód. Powyżej tej kwoty albo przy nietypowych uszkodzeniach – wymagać od klienta odesłania towaru lub przynajmniej krótkiego wideo, na którym widać towar, wadę oraz kartkę z unikalnym kodem lub numerem zamówienia. W regulaminie jasno zastrzec, że użycie zmanipulowanych treści (w tym generowanych przez AI) jako “dowodu” będzie traktowane jako próba oszustwa i może skutkować zgłoszeniem na policję.​ Druga rzecz to lepsza dokumentacja wysyłki. Rób zdjęcia lub krótkie nagrania sposobu pakowania, szczególnie przy towarach podatnych na uszkodzenia. Fotografuj numery seryjne, partie produkcji, stan towaru przed wysyłką. Przechowuj te materiały przez okres możliwych reklamacji. W sporach stają się kontr‑dowodem: “to jest ten egzemplarz, w takim stanie wyszedł z magazynu“. 

Jeśli zdjęcie reklamacyjne wygląda “zbyt filmowo” – idealnie oświetlone zniszczenia, niezgodnie z konstrukcją produktu, zawierające nienaturalne szczegóły – zażądaj dodatkowych zdjęć z różnych kątów. Jako sprzedawca, poproś o krótkie wideo, najlepiej z dynamicznym ruchem – obracanie przedmiotu, zbliżenia, ruch ręki, karta z datą i numerem zamówienia. Rozważ użycie detektora AI jako pomocy, ale nigdy jako jedynego kryterium. Jeśli wartość towaru jest wyższa, historia klienta budzi wątpliwości (np. wiele podobnych reklamacji), a obraz wydaje się oczywiście zmanipulowany, zgłoś sprawę na policję jako podejrzenie oszustwa i poinformuj o tym kupującego wraz z kopią korespondencji dla organów ścigania.

Czego nie robić: limity detektorów AI

Detektory AI są, ale w praktyce trzeba mieć świadomość ograniczeń tych narzędzi.​ Po pierwsze, to klasyfikatory probabilistyczne, a nie “test DNA”. Wynik 98% oznacza wysokie prawdopodobieństwo, ale nadal jest to model statystyczny, podatny na fałszywe alarmy i błędy. Szczególnie jeśli zdjęcie przeszło re‑kompresję JPEG, zmianę rozdzielczości czy dodatkowe filtry. Po drugie, wyścig zbrojeń trwa w obie strony. Modele generatywne są stale poprawiane – mniej artefaktów, bardziej naturalne szumy, lepsze tekstury. Detektory próbują na bieżąco doganiać nowe generatory. Po trzecie, w wielu przypadkach oszuści nie generują całego obrazu od zera. Doklejają “uszkodzenie” do autentycznego zdjęcia produktu. Dla detektorów skupionych na pełnych generacjach to szczególnie ciężki przypadek. Lepiej myśleć w kategoriach wielowarstwowej analizy. Klasyczne techniki analizy śledzczej obrazu – spójność metadanych, JPEG blocking, brak ciągłości oświetlenia, powtarzające się tekstury. Porównanie z innymi zdjęciami tego samego produktu. Korelacja z danymi behawioralnymi – historia konta, częstość reklamacji, powtarzające się schematy. Nic z tego nie jest pewne w stu procentach, ale razem tworzą wystarczająco przekonywujący obraz.

Co powinny zmienić platformy?

Dla Allegro, Vinted i DoorDash i im podobnych problem jest bardziej systemowy. Aktualny model wielu platform można streścić prosto: wyślij zdjęcie, my je obejrzymy i zdecydujemy. W erze generatywnej AI to droga do skalowalnych fraudów, do zmęczenia sprzedawców i do erozji zaufania do systemu. Vinted deklaruje, że używanie sztucznej inteligencji do wizualnego eksponowania przedmiotów nie jest zabronione, pod warunkiem że wiernie odzwierciedla sprzedawany przedmiot. Niektóre narzędzia mogą być wykorzystywane do zilustrowania, jak ubranie leży, do usunięcia tła lub ochrony danych osobowych, o ile nie zniekształcają rzeczywistego wyglądu rzeczy. Jednak wszelkie wprowadzające w błąd wykorzystanie AI, zarówno w ogłoszeniach, jak i w kontekście sporów, jest zabronione i traktowane poważnie. Allegro twierdzi, że ma procedury blokowania kont nieuczciwych kupujących, jednak skali zjawiska nie ujawnia, określając ją jako “znikomą”.​ To deklaracje. Praktyka pokazuje, że cały system zmaga się z podstawowym problemem: pojedyncze zdjęcie nie może już oznaczać rozwiązania sprawy. Platformy powinny wdrożyć wielowarstwowy model dowodowy. Wymagać większej liczby sygnałów: kilka zdjęć z różnych ujęć, krótkie wideo z widocznym ruchem, powiązanie z danymi telemetrii. W przypadku kurierów – geolokalizacja i logi aplikacji w momencie wykonania zdjęcia. Automatyczny scoring ryzyka: wysoka wartość towaru + nowy użytkownik + nietypowy wzorzec zgłoszeń = pełna weryfikacja, możliwość żądania odesłania towaru. Niska wartość + długoletni klient bez historii nadużyć = szybka ścieżka pro‑kliencka.

Jednak znowu w modelu DoorDasha czy Uber Eats zdjęcie pod drzwiami to kluczowy element dowodu doręczenia. Platformy tego typu powinny rozważyć powiązanie zdjęcia z GPS i czasem, certyfikacją urządzenia, podpisem aplikacji, który utrudniłby generowanie zdjęć offline i ich późniejsze wstrzykiwanie. Dodatkowe mechanizmy „żywotności” – klip wideo zamiast pojedynczej fotografii. Scoring ryzyka względem konkretnego kuriera: ten sam kierowca, wiele spornych dostaw w krótkim okresie.

AI kontra AI: czy detektory wystarczą?

Branża antyfraud zaczyna używać dokładnie tej samej broni, co oszuści. Detektory obrazów generowanych lub modyfikowanych przez AI, modele anty‑deepfake’owe do weryfikacji wideo. Brzmi dobrze, ale są haki. To tylko systemowy element układanki, a nie magiczna kula. Żadna pojedyncza metoda – ani ludzka ocena obrazu, ani automat – nie jest wystarczająco pewna. Detekcję trzeba składać z wielu słabszych sygnałów. Także sama świadomość, że platforma stosuje automatyczną analizę zdjęć, ma prawo zażądać odesłania towaru i może zgłosić sprawę na policję, już istotnie podnosi “koszt psychiczny” fraudu i redukuje liczbę prób. Być może wiele oszustów po prostu zrezygnuje, bo nie warto ryzykować.​ Jednakże… zaostrzanie polityki zwrotów w reakcji na AI‑fraudy szybko odbija się na uczciwych klientach. Czas pokaże czy to będzie istotny problem.

Czego brakuje Polsce: narzędzia, prawo, świadomość…?

Na koniec – kilka moich obserwacji, które powinny pobudzić do myśli zarówno branżę e‑commerce, jak i legislatorów.

Zdjęcie przestaje być dowodem, jeśli traktujemy je jak dogmat. Generatywne AI zamienia fotografię w łatwo fałszowany artefakt. To, co kiedyś było względnie wiarygodnym dowodem w reklamacji, dziś wymaga wsparcia innymi sygnałami: historią zachowań, wideo, danymi technicznymi, dowodami po stronie sprzedawcy.​ Refund fraud z AI to nie “kombinatorstwo”. To realne oszustwo z artykułu 286 kk, które ma wszystkie przesłanki klasycznego oszustwa: świadomego wprowadzenia w błąd poprzez sfabrykowane dowody w celu osiągnięcia korzyści majątkowej. I tak powinien być traktowany.​ Prawo i narzędzia techniczne są spóźnione i niewystarczające. Brak tanich, powszechnie dostępnych metod jednoznacznej detekcji obrazów AI sprawia, że wymiar sprawiedliwości będzie działał głównie na poziomie “całokształtu okoliczności”, a nie twardej ekspertyzy. To przesuwa ciężar obrony na poziom procedur antyfraudowych po stronie platform i sprzedawców.​

Dla małych sklepów internetowych dobrze zaprojektowane procedury to w sumie must‑have. Sensowna polityka zwrotów, dokumentowanie wysyłek, podstawowa świadomość, jak wyglądają typowe artefakty AI na zdjęciach, gotowość do zgłaszania podejrzanych przypadków na policję. To nie wymaga wielkiego budżetu, tylko dyscypliny.​ Dla środowiska security to ciekawy, ale niewdzięczny wektor: oszustwo jest tanie, detekcja i potwierdzenie – drogie. Wykonanie jednego promptu w modelu AI nic nie kosztuje lub bardzo mało. Zbudowanie procesu antyfraudowego łączącego dane techniczne, behawioralne i prawne – już tak. Różnica ta będzie w praktyce zachęcać do kolejnych testów granic systemu.

Jeśli w przyszłych latach pojawi się coś na kształt powszechnego “podpisu cyfrowego zdjęć” – obowiązkowe watermarki AI, sprzętowe poświadczenia w kamerach, standardy dowodowe w sądach – możliwe, że wrócimy do stanu, w którym fotografia będzie czymś więcej niż tylko pikselową sugestią. Na dziś jednak, niezależnie od tego, czy obsługujemy mały sklep na Allegro czy globalną platformę dostaw, musimy założyć jedno: każde zdjęcie w sporze finansowym jest podejrzane, dopóki nie wesprze go cała reszta kontekstu.

Jeżeli chciałbyś poznać techniki detekcji takich obrazów to zapraszamy Cię na szkolenie Narzędziownik OSINT w specjalnej promocyjnej cenie. Startujemy już 25 lutego 2026 r.”

Zapisuję się do Tomka!

PS: Za niedługo specjalne, dedykowane szkolenie z deepfake… ! :-)

~Tomek Turba

Spodobał Ci się wpis? Podziel się nim ze znajomymi:



Komentarze

  1. Pioter

    Czasy biblijne: Błogosławieni którzy nie widzieli, a uwierzyli.
    Czasy AI: Błogosławieni którzy widzieli, a nie uwierzyli.

    Odpowiedz
  2. Agata

    Historia dosłownie sprzed chwili. Towar kupiony na Allegro. Przychodzi niezgodny z ofertą (kolor sie nie zgadza). Kontakt ze sprzedawcą (SuperSprzedaca, więc zweryfikowany). Ustalono zwrot i wymianę na odpowiedni. Towar odesłany w oryginalnym ofoliowaniu, stan idealny, gotowy do dalszej sprzedaży. Sprzedawca odmawia przyjęcia zwrotu, posługując się zdjęciem rozpakowanej paczki ze śmieciem w środku. Ja nie filmowałam procedury pakowania i wrzucania do paczkomatu zwrotu. Allegro odmawia rekompensaty, twierdząc, że “słowo przeciwko słowu” i nie będzie w sprawie sądem.
    Zdjęcie przeciwko zdjęciu to słabe dowody nawet bez żadnych przeróbek AI

    Odpowiedz
    • Piotr

      kupowanie na allegro to teraz loteria – często zdjęci aproduktów w ofertach nie przedstawiają rzeczywistego produktum ale na TEMU jest jeszcze gorzej – tam to dopiero są manipilacje obrazami opisami itp

      Odpowiedz
    • Pawel

      Ti by mogło sugerować, że sprzedający nagminnie wysyła przedmioty w innym kolorze (a może też rozmiarze) niż zamówiony, aby później pozostać i z towarem, i z pieniędzmi za niego.
      Ja bym się w tej sytuacji przyjrzał komentarzom od kupujących – jeśli podobnych przypadków jak Twój jest więcej, to jest szansa że się uwidoczniły w ocenach negatywnych.

      Odpowiedz

Odpowiedz