Konferencja Mega Sekurak Hacking Party w Krakowie – 26-27 października!

AI bez lukru #22: Zakupy, pierwszy krok do oddania kontroli

10 lutego 2026, 03:16 | Aktualności, Teksty | komentarze 4

Cześć! Z tej strony Tomek Turba. AI bez lukru to cykl moich felietonów o sztucznej inteligencji bez marketingowego lukru, bez korporacyjnych slajdów i bez bajek o “rewolucji, która wszystko zmieni”. Pokazuję AI taką, jaka jest naprawdę: z absurdami, wpadkami, halucynacjami i konsekwencjami, o których rzadko mówi się głośno. Bez zadęcia, bez propagandy, z humorem – ale na serio.

Pełna lista odcinków: tutaj

Chcesz ogarnąć ze mną niezbędne umiejętności dotyczące AI w 2026 roku i tym samym nie zostać w tyle? Właśnie wystartowała kolejna edycja szkolenia ze mną, Tomkiem Turbą – Narzędziownik AI 2.0 Reloaded! To najbardziej kompletne szkolenie z AI w Polsce. Składa się z aż czternastu sesji, trwających po dwie godziny każda. Szkolenie na żywo, z dostępem do nagrania na zawsze. Skorzystaj z linku i zamów ze zniżką. Możesz też dołączyć do edycji kwietniowej, wszystko w linku poniżej.

Zapisuję się

Wyobraź sobie prostą scenę. Promptujesz do swojego asystenta:

Zorganizuj mi trzytygodniową podróż do Peru. Loty, hotele, restauracje, plan zwiedzania, fszystko.” AI przytakuje, analizuje ceny, dostępność, opinie, mapy, a potem po prostu… robi to za Ciebie. Rezerwuje bilety, blokuje środki na karcie, ustala kolacje, wysyła potwierdzenia. Ty tylko dostajesz powiadomienie: „gotowe, mój Panie”. Brzmi jak luksus. I dokładnie w tym kierunku idzie dziś branża.

Coraz więcej firm pracuje nad tzw. “agentic commerce” — zakupami wykonywanymi przez autonomiczne asystenty AI. Systemy płatnicze rozwijają tokeny, które działają jak cyfrowe odpowiedniki kart, pozwalając agentowi dokonywać transakcji w imieniu użytkownika.

W praktyce oznacza to, że AI nie tylko doradza, ale też płaci, rezerwuje i finalizuje decyzje. Duże firmy już to testują. Modele potrafią rezerwować podróże, zamawiać produkty i umawiać wizyty w restauracjach, a cała branża przygotowuje infrastrukturę, w której agent staje się pośrednikiem między człowiekiem a sklepem. Według badań nawet dwie trzecie konsumentów deklaruje, że użyłoby takiego asystenta, żeby oszczędzić czas i znaleźć lepsze oferty. A prognozy mówią, że do 2030 roku niemal połowa zakupów online może być obsługiwana przez agentów AI. Na papierze wygląda to jak spełnienie marzeń. Zakupy bez klikania, bez porównywarek, bez frustracji. AI wie, co lubisz, ile chcesz wydać i kiedy masz wolny termin. Tylko że gdzieś w tej wizji zaczyna pojawiać się mała, ale bardzo ważna rysa.

Bo kiedy AI robi zakupy za Ciebie, to nie delegujesz kliknięcia. Delegujesz decyzję.

I to w sytuacji, w której sama branża przyznaje, że pojawiają się nowe ryzyka. Pojawiają się pytania o odpowiedzialność, nadużycia i fraudy, kiedy agent kupuje coś w imieniu użytkownika. Eksperci (a może Eksperty?) ostrzegają, że złośliwy agent albo manipulacja systemu może prowadzić do zakupów z niechcianych źródeł lub zupełnie błędnych decyzji.

Niemal połowa konsumentów już teraz boi się utraty kontroli nad tym, co AI kupuje w ich imieniu. I to jest dopiero pierwszy poziom problemu. Bo nawet jeśli system jest uczciwy, bezpieczny i działa zgodnie z zasadami, to pozostaje kwestia… jakości decyzji. W testach badawczych współczesne modele zakupowe osiągały bardzo niską skuteczność w realistycznych scenariuszach — nawet poniżej 12% poprawnych decyzji w trudniejszych zadaniach. Zdarzało się, że rekomendowały niebezpieczne produkty albo dawały się nabrać na marketingowe sztuczki.

Czyli mamy system, który może:

  • wydać pieniądze z Twojej karty,
  • podejmować decyzje w Twoim imieniu,
  • i jednocześnie popełniać błędy, których Ty byś nie zrobił.

Wracamy więc do tej romantycznej podróży do Peru. AI znajduje świetną ofertę lotu z przesiadką, tylko że przesiadka trwa dziewięć godzin w nocy, na lotnisku bez strefy tranzytowej. Hotel jest tani, ale w dzielnicy, o której nie czytałeś opinii, bo AI uznało, że cena jest ważniejsza niż klimat. Restauracje są wysoko oceniane… przez boty albo turystów z zupełnie innymi oczekiwaniami niż Twoje. Lubisz jeść świnki morskie? Plan wygląda perfekcyjnie w arkuszu. W rzeczywistości czujesz, że coś nie gra. To nie jest błąd technologii. To jest błąd delegowania kontekstu. AI widzi dane. Nie czuje miejsca.

Nie ma intuicji. Nie ma przeczucia, że coś “wydaje się nie w Twoim stylu”.

Największy problem z zakupami przez AI nie polega na tym, że agent coś źle kliknie. Problem polega na tym, że zaczynamy oddawać mu odpowiedzialność za nasze preferencje, zanim sami je do końca rozumiemy. Zakupy to nie tylko logistyka. To emocje, styl życia, czasem kaprys, czasem intuicja. AI jest świetna w optymalizacji. Ale życie nie zawsze jest optymalne, albo wręcz nie musi takie być.

Psychologicznie to bardzo ciekawy moment. Kiedyś zakupy były czynnością. Dziś zaczynają być procesem, który odbywa się w tle. AI porównuje ceny, analizuje opinie, zamawia, płaci. Ty dostajesz tylko rezultat. A jeśli dostajesz tylko rezultat, to z czasem przestajesz pamiętać, dlaczego coś wybrałeś. I wtedy pojawia się pytanie: czy to jeszcze Twoje decyzje, czy tylko Twoje rachunki?

Puenta jest prosta, ale niepokojąca. AI może zorganizować Ci idealną podróż, idealny koszyk i idealne życie w wersji “pod statystykę”. Tylko że gdzieś po drodze może zgubić to, co nie mieści się w danych: Twoje kaprysy, Twoje intuicje, Twoje dziwne, nieopłacalne wybory wynikające z humoru, a nie racjonalności… a właśnie z nich najczęściej biorą się najlepsze historie.

~Tomek Turba

Spodobał Ci się wpis? Podziel się nim ze znajomymi:



Komentarze

  1. Alex

    A dlaczego nie “przygotuj mi plan” > “popraw plan, bo nie podoba mi się X, Y, Z” > “no teraz to wygląda dobrze, kupuj”?

    Odpowiedz
    • Tak z założenia jest, ale ludzka psychika bywa znużona, generalizując. Omija plan klikając “wykonaj”

      Odpowiedz
  2. Kuba

    Tu bym się nie zgodził, bo pomimo oddania decyzji o wyborze miejsca, przezycie nadal będzie nasze.

    Problemem będzie gdy model będzi nas znał zbyt dobrze i zbytnio dopasowywał się do naszych potrzeb (patrz artykuł z muzyką). Będzie to prowadziło do wakacji bez emocji.
    Gdy model się pomyli (względem naszych upodobań), to bedzie wyprowadzać nas ze strefy komfortu i będzie budził emocje, bedziemy analizować/zmieniać upodobania pod wpływem tych emocji i to jeszcze będzie życie. Z drugiej strony oddanie części zmartwień agentom to nic złego. Pod warunkiem, że czas oszczędzony na tym poświęcimy na coś co nas rozwija.

    Kolejna kwestia to “jeśli model się myli, to znaczy, że źle napisałeś prompta” ;)

    Odpowiedz
  3. Rafał

    Wychodzę z założenia że delegowanie zadań nie deleguje odpowiedzialności. Lenistwo zazwyczaj nie popłaca, ale prowadzi do postępu. Więc albo nauczeni doświadczeniem wyćwiczymy model do naszych preferencji za ci zapłacimy tzw. frycowe albo jesteśmy zwolennikami kontroli nad naszym życiem.

    Odpowiedz

Odpowiedz