Konferencja Mega Sekurak Hacking Party w Krakowie – 26-27 października!

AI bez lukru #23: Unijne pozwolenie na innowacje

11 lutego 2026, 01:45 | Aktualności, Teksty | komentarzy 6

Cześć! Z tej strony Tomek Turba. AI bez lukru to cykl moich felietonów o sztucznej inteligencji bez marketingowego lukru, bez korporacyjnych slajdów i bez bajek o „rewolucji, która wszystko zmieni”. Pokazuję AI taką, jaka jest naprawdę: z absurdami, wpadkami, halucynacjami i konsekwencjami, o których rzadko mówi się głośno. Bez zadęcia, bez propagandy, z humorem – ale na serio.

Pełna lista odcinków: tutaj

Chcesz ogarnąć ze mną niezbędne umiejętności dotyczące AI w 2026 roku i tym samym nie zostać w tyle? Właśnie wystartowała kolejna edycja szkolenia ze mną, Tomkiem Turbą – Narzędziownik AI 2.0 Reloaded! To najbardziej kompletne szkolenie z AI w Polsce. Składa się z aż czternastu sesji, trwających po dwie godziny każda. Szkolenie na żywo, z dostępem do nagrania na zawsze. Skorzystaj z linku i zamów ze zniżką. Możesz też dołączyć do edycji kwietniowej, wszystko w linku poniżej.

Zapisuję się

W teorii to miało być prosto. Legislacja, kosmos, mistyfikacja. Lecz, sztuczna inteligencja rozwija się szybciej niż prawo, więc trzeba ją uregulować, zanim zrobi komuś krzywdę. Powstaje więc AI Act – pierwsza na świecie tak duża regulacja dotycząca sztucznej inteligencji (w tle gdy to czytasz, słychać epickie fanfary dookoła). Brzmi poważnie, odpowiedzialnie, europejsko! Bezpieczna technologia dla obywateli. Prawa człowieka, przejrzystość i kontrola. Wszystko wygląda dobrze w folderze. Tylko że im głębiej wchodzi się w szczegóły, tym częściej pojawia się pytanie: czy to jeszcze regulacja technologii, czy już licencjonowanie przyszłości?

AI Act opiera się na klasycznym, europejskim pomyśle: podzielmy systemy na poziomy ryzyka i nałóżmy obowiązki proporcjonalne do zagrożenia. Są systemy zakazane, systemy wysokiego ryzyka, systemy ograniczonego ryzyka i te praktycznie wolne od regulacji. Na papierze wygląda to rozsądnie. Problem zaczyna się w praktyce. Po pierwsze, sam system jest potężnie skomplikowany. AI Act nie działa w próżni. Nakłada się na GDPR, Data Act, Cyber Resilience Act i inne regulacje cyfrowe, co tworzy znaczną złożoność prawną i operacyjną dla firm.

Z perspektywy przedsiębiorcy to nie jest jeden akt prawny. To jest stos dokumentów, które trzeba ze sobą pogodzić. Po drugie, odpowiedzialność nie spada tylko na twórców AI. AI Act obejmuje także użytkowników systemów. Firma, która wdraża narzędzie AI, musi wiedzieć, jak działa, jakie dane przetwarza i jakie może mieć skutki, a potem jeszcze monitorować jego działanie i reagować na problemy.

W praktyce oznacza to, że nawet jeśli kupujesz gotowe narzędzie, to i tak ponosisz część odpowiedzialności za jego zachowanie. To zaczyna przypominać sytuację, w której kupujesz samochód, ale prawo mówi: “ok, możesz nim jeździć, ale najpierw udowodnij, że rozumiesz, jak działa silnik i skrzynia biegów”.

Kolejny problem to koszty i innowacyjność. Firmy technologiczne, zarówno amerykańskie, jak i europejskie, ostrzegają, że regulacje mogą spowolnić rozwój AI w Europie. Niektóre organizacje branżowe wprost apelowały o wstrzymanie wdrożenia przepisów, twierdząc, że są zbyt skomplikowane i mogą zaszkodzić konkurencyjności regionu. Część dużych firm określała je nawet jako “toksyczne dla innowacji”. Całe szczęście, że nadmiar zabezpieczeń w nakrętkach nie jest toksyczny i zaledwie w dwa lata przyczynił się do ochłodzenia klimatu!  To nie jest przypadek. Każda regulacja ma koszt. A w AI koszt zgodności bywa ogromny. Firmy zaczynają traktować prawo jako główną ramę projektowania systemów, bo cena niezgodności jest wysoka. Efekt uboczny jest taki, że innowacja przestaje być pierwszym celem. Pierwszym celem staje się compliance ☹️

Do tego dochodzi temat praw autorskich. AI Act miał chronić twórców, ale w praktyce wiele organizacji artystycznych twierdzi, że regulacja nie daje im realnych narzędzi kontroli nad tym, czy ich dzieła są używane do trenowania modeli. Z jednej strony firmy technologiczne mówią, że regulacje są zbyt surowe. Z drugiej strony twórcy mówią, że są zbyt słabe. To rzadki przypadek, gdy obie strony konfliktu są niezadowolone z tego samego prawa.

Pojawia się też problem techniczny. Niektóre analizy wskazują, że wymagania dotyczące niedyskryminacji i sprawiedliwości są niespójne i trudne do spełnienia w praktyce obliczeniowej działania modelu. Inne zwracają uwagę, że przepisy dla modeli ogólnego przeznaczenia (ang. GPAI, General Purpose Artificial Intelligence) są mniej precyzyjne niż dla systemów wysokiego ryzyka, co tworzy niepewność regulacyjną. Czyli najbardziej uniwersalne modele, które napędzają całą rewolucję AI, trafiają w obszar prawnej szarości. AI Shadow.

Jest też problem filozoficzny. AI Act ma chronić prawa obywateli i zwiększać bezpieczeństwo, ale niektórzy badacze wskazują, że sama regulacja nie gwarantuje sprawiedliwości ani równości. To tylko minimalny poziom wymagań, a etyczne projektowanie AI musi wykraczać poza samą zgodność z przepisami. Czyli można być w pełni zgodnym z prawem… i nadal tworzyć systemy, które są społecznie problematyczne.

A teraz dochodzimy do sedna problemu: AI Act to nie tylko regulacja technologii. To regulacja dostępu do możliwości. Bo jeśli wdrożenie AI wymaga zespołu prawników, audytorów, procedur, dokumentacji i kosztownej certyfikacji, to kto sobie na to pozwoli? Duże korporacje. Banki. Giganci technologiczni. No i ja, bo umiem.

Małe startupy i zespoły badawcze zaczynają grać w zupełnie innej lidze. Nie technologicznej. Prawnej. I tu pojawia się pytanie z tytułu: “Prawo licencyjne, AI Act? Serio?”. Bo jeśli w praktyce tylko podmioty z odpowiednim zapleczem prawnym i finansowym mogą legalnie rozwijać zaawansowane systemy AI, to przestajemy regulować technologię. Zaczynamy licencjonować innowację.

Nie mówimy: “to jest niebezpieczne, więc tego nie rób”.

Mówimy: “możesz to robić, ale tylko jeśli stać cię na wejście do systemu”.

Z perspektywy psychologicznej i cywilizacyjnej to ogromna zmiana. Europa przez dekady była miejscem, gdzie technologia była regulowana po to, by chronić obywateli (prawda?). Teraz zaczyna być regulowana w taki sposób, że coraz trudniej ją tworzyć bez zaplecza korporacyjnego. AI Act miał być tarczą. Dla niektórych może się okazać bramą z czytnikiem kart (perforowanych).

Puenta nie jest jednoznaczna, bo sam AI Act nie jest jednoznaczny. To jednocześnie próba ochrony ludzi i potencjalny hamulec dla innowacji. Próba kontroli technologii, która rozwija się szybciej niż jakiekolwiek prawo w historii.

Osobiście myślę, że chodzi Równowagę. Czy pojawi się ktoś kto przywróci Równowagę? Może Ty? Może wtedy innowacja też dostanie pozwolenie na istnienie.

~Tomek Turba

Spodobał Ci się wpis? Podziel się nim ze znajomymi:



Komentarze

  1. Tomek

    Troszkę irytuje mnie ten dzisiejszy wpis (może właśnie chodziło o potarganie emocjami odbiorców, co za bardzo mi podjeżdża praktykami prowokatorów z fejsa czy tłajtera), ale! Skoro jest tak słabo, tyle kajdanów i hamulców. to co w ramach alternatywy proponujesz? Pełną samowolkę i anarchię? Z dwojga złego wolę pierwsze, bo zapłacić za szybki rozwój narzędzi, które niekoniecznie będą działać z poszanowaniem istniejących praw, które rozwiązań opartych o technologie AI nie uwzględniają to nie nie bardzo wolę, nie bardzo chcę. Wystarczy, że nietanie LLMy wytrenowano na danych objętych prawem autorskim (Nvidia właśnie się z tego wymigała) i jakoś o rekompensatach dla twórców nie słyszymy. Moim zdaniem przymykanie oczu na przynajmniej nieetyczne praktyki w imię rozwoju technologii to nie jest dobry kierunek, a prawo jest jakimś sposobem na opanowanie sytuacji. Ale może ktoś zna lepszy?

    Odpowiedz
    • Pełna zgoda Tomku. Prawo jest potrzebne, ale tworzone powinno być przez kompetentne osoby :-)

      Odpowiedz
      • Tomek

        Też bym chętnie widział taką inicjatywę ustawodawczą ze strony specjalistów z branż AI i ITsec :) Aczkolwiek nie bardzo wierzę w te ich tłumy śpieszące (nawet wirtualnie) na konsultacje z prawnikami i europosłami, kompletnie odporne na długotrwałe mielenie słów w każdą stronę, tłumaczące zawiłości społeczeństwu po pińcet razy (btw. szacun za wywiad w Radiu Opole) i wcale nie narzekające na finalny produkt…
        Ale przynajmniej można sobie pomarzyć.

        Odpowiedz
  2. kamil

    Ta analogia do samochodu bardziej w kierunku, “Chcesz tym jeździć, to się lepiej Read The F***ing Manual”
    Wdrażasz narzędzie AI to kto ma za to wziąć odpowiedzialność Twoim zdaniem? Przecież użytkownik wpakuje tam w moment dane firmowe lub osobowe, więc trzeba ocenić ryzyko już na wczesnym etapie: Gdzie dane są przetwarzane, jakie dane są przetwarzane, czy model jest trenowany na tych danych, czy ma być zainstalowany agent I do czego może mieć dostęp taki agent. To leży w interesie zespołu bezpieczeństwa w firmie, a nie dostawcy technologii, dostawca może się tylko wyspowiadać w dokumentach na temat zabezpieczeń, aby obie strony spełniły wymagania dotyczące bezpieczeństwa. Jak przyjdzie kara za wyciek, to kwity są jedyną deską ratunku.

    Odpowiedz
  3. Bartek

    Poza Europą, gdzie nie ma tak dużych regulacji, technologią Ai i tak trzęsie kilka dużych korpo na krzyż. Więc to chyba jednak nie akty prawne są hamulcem dla małych firm. Ciekawe co.

    Odpowiedz

Odpowiedz