Czym jest system AI w rozumieniu AI Act ?

Czym jest system AI w rozumieniu AI Act?

Czym jest system AI w rozumieniu AI Act? Definicja, 7 elementów, test kwalifikacyjny — artykuł r. pr. Adama Piotrowskiego, Kancelaria KTZR

W tym artykule dowiesz się:

  • jak AI Act definiuje system AI (art. 3 pkt 1),
  • jakie 7 elementów wyróżnia Komisja Europejska w definicji systemu AI,
  • czym jest autonomia, adaptacja, cele, wnioskowanie i wpływ na środowisko,
  • dlaczego wnioskowanie (inferencja) jest warunkiem sine qua non kwalifikacji jako AI,
  • jak w praktyce przeprowadzić kwalifikację — z autorskim testem i konkretnymi przykładami.

Spis treści:

  1. Definicja systemu AI w AI Act (art. 3 pkt 1)
  2. Element 1: System maszynowy
  3. Element 2: Działanie z różnym poziomem autonomii
  4. Element 3: Zdolność adaptacji po wdrożeniu
  5. Element 4: Wyraźne lub dorozumiane cele
  6. Element 5: Wnioskowanie — kluczowy warunek kwalifikacji
  7. Element 6: Rodzaje wyników
  8. Element 7: Wpływ na środowisko fizyczne lub wirtualne
  9. Co nie jest systemem AI — katalog wyłączeń
  10. Test kwalifikacyjny — czy Twoje rozwiązanie to system AI?
  11. FAQ
Definicja systemu AI to punkt wyjścia dla każdej analizy compliance z AI Act. Zanim firma zacznie klasyfikować swoje rozwiązania według kategorii ryzyka, zanim zajmie się dokumentacją techniczną czy rejestracją w bazie EU AI — musi najpierw odpowiedzieć na jedno pytanie: czy to, co budujemy lub stosujemy, w ogóle jest systemem AI w rozumieniu rozporządzenia?

Pytanie brzmi prosto, ale odpowiedź bywa trudna. Granica między „zwykłym oprogramowaniem” a „systemem AI” nie jest ostra. Pomylisz się w jedną stronę — obciążysz firmę niepotrzebnym compliance. Pomylisz się w drugą — naruszysz AI Act z karami do 35 mln EUR.

Dnia 6 lutego 2025 r. Komisja Europejska opublikowała wytyczne dotyczące definicji systemu AI (dwa dni po wytycznych dotyczących zakazanych praktyk z art. 5, opublikowanych 4 lutego 2025 r.). Poniżej omawiam każdy element definicji w oparciu o te wytyczne, orzecznictwo TSUE i literaturę.

Status wytycznych KE: Wytyczne Komisji Europejskiej z 6 lutego 2025 r. (sygnatura C(2025) 924 final) zostały formalnie przyjęte, ale nie są prawnie wiążące — nie stanowią autorytatywnej wykładni AI Act. Tę może dostarczyć jedynie Trybunał Sprawiedliwości Unii Europejskiej (TSUE). Mimo to stanowią na dziś najpełniejsze źródło interpretacyjne i punkt odniesienia dla praktyki compliance.

Ogólne wprowadzenie do AI Act — co to jest, harmonogram wdrożenia, kategorie ryzyka, kary — znajdziesz w artykule AI Act — co musisz wiedzieć o regulacji sztucznej inteligencji w UE. Pamiętaj, że część przepisów AI Act już obowiązuje: zakazy praktyk AI i obowiązki z zakresu AI literacy od 2 lutego 2025 r., a przepisy dotyczące zarządzania i obowiązki dostawców modeli GPAI od 2 sierpnia 2025 r.

Potrzebujesz pomocy przy kwalifikacji systemu AI?

Kancelaria KTZR specjalizuje się w prawie nowych technologii i AI. Pomagamy firmom IT ustalić, czy ich rozwiązania podlegają AI Act — i jakie obowiązki z tego wynikają.

Umów konsultację →

Definicja systemu AI w AI Act (art. 3 pkt 1) — 7 elementów

System AI został w art. 3 pkt 1 AI Act zdefiniowany jako system maszynowy:

„który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu, a także który — na potrzeby wyraźnych lub dorozumianych celów — wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne”

Definicja jest celowo szeroka. Ustawodawca zrezygnował z zamkniętego katalogu technik AI i postawił na elementy ogólne — tak, żeby rozporządzenie nie zdezaktualizowało się z każdą nową generacją modeli. Zgodnie z motywem 97 preambuły AI Act, modele AI ogólnego przeznaczenia mogą być wprowadzane do obrotu na różne sposoby — przez biblioteki, API, bezpośrednie pobieranie lub w wersji fizycznej.

Wytyczne Komisji Europejskiej wyróżniają w definicji siedem elementów, opierając analizę na perspektywie cyklu życia obejmującej fazę przedwdrożeniową (budowania) oraz fazę po wdrożeniu (użytkowania):

NrElement definicjiOpisWymagany?
1System maszynowyFundament techniczny — hardware + softwareTak
2Różny poziom autonomiiZdolność do działania bez ciągłej interwencji człowieka (po wdrożeniu)Tak
3Zdolność adaptacjiSamouczenie się i zmiana zachowania po wdrożeniuNie — brak adaptacji nie wyklucza kwalifikacji jako AI
4Wyraźne lub dorozumiane celeZadania, do których system jest przeznaczonyTak
5Wnioskowanie (inferencja)Samodzielne wyciąganie wniosków z danychTak — conditio sine qua non
6Rodzaje wynikówPredykcje, treści, zalecenia, decyzjeTak
7Wpływ na środowiskoZmiana stanu fizycznego lub wirtualnego otoczeniaTak
Hierarchia elementów: Nie wszystkie elementy definicji mają równą wagę. Komisja Europejska wyraźnie wskazuje, że zdolność do wnioskowania (inferencji) jest kluczowym, niezbędnym warunkiem, który odróżnia systemy AI od innych rodzajów systemów. Z kolei zdolność adaptacji nie jest warunkiem koniecznym — jej brak nie wyklucza kwalifikacji jako system AI.
7 elementów definicji systemu AI wg wytycznych Komisji Europejskiej — infografika

Element 1: System maszynowy — co to właściwie znaczy?

AI Act nie definiuje wprost, czym jest „system maszynowy”. W literaturze wskazuje się, że powinien być rozumiany przynajmniej jako układ modeli — pojęcie ogólniejsze od pojęcia komputera. W obecnej definicji system sztucznej inteligencji nie jest już „oprogramowaniem” — i słusznie, bo współczesne systemy AI to nie tylko software.

Pojęcie maszyny zostało zdefiniowane w Rozporządzeniu (UE) 2023/1230 (art. 3 ust. 1 lit. a) jako:

„zespół wyposażony lub przeznaczony do wyposażenia w mechanizm napędowy inny niż bezpośrednio wykorzystujący siłę mięśni ludzkich lub zwierzęcych, składający się ze sprzężonych części lub elementów, z których przynajmniej jedna część lub jeden element porusza się, wspólnie połączonych do określonego zastosowania”

Ta definicja odnosi się raczej do maszyn w rozumieniu przemysłowym i nie oddaje istoty maszyny w rozumieniu AI Act.

Komisja Europejska w wytycznych precyzuje, że pod pojęciem „systemu maszynowego” można rozumieć:

  • komponenty sprzętowe — procesory, pamięć, urządzenia sieciowe, interfejsy wejścia/wyjścia,
  • składniki oprogramowania — kod, instrukcje, systemy operacyjne, aplikacje.

Wytyczne KE wskazują też, że „systemem maszynowym” może być system biologiczny lub organiczny — o ile zapewnia moc obliczeniową. W praktyce ma to marginalne znaczenie, ale pokazuje, jak szeroko KE interpretuje to pojęcie.

W mojej ocenie pojęcie systemu maszynowego zawiera dwa elementy:

Aspekt fizyczny — komponenty sprzętowe, bez których sztuczna inteligencja nie może funkcjonować (serwery, GPU, infrastruktura sieciowa — a teoretycznie także systemy biologiczne zapewniające moc obliczeniową).

Aspekt techniczny/funkcjonalny — warstwa informatyczna: języki programowania, instrukcje systemowe, frameworki, modele.

W praktyce najbezpieczniej jest przyjmować, że każde rozwiązanie powiązane z AI ma charakter systemu maszynowego. Przy dzisiejszych rozwiązaniach trudno wyobrazić sobie sytuację, w której system AI nie zostałby za taki uznany — dotyczy to w szczególności wszystkich dużych modeli językowych (LLM).

Element 2: Działanie z różnym poziomem autonomii

W literaturze proponuje się, aby pojęcie „działania z różnym poziomem autonomii” rozumieć jako możliwość wykonywania zadań o różnym stopniu skomplikowania bez bezpośredniej interwencji człowieka.

Potwierdza to motyw 12 preambuły AI Act: systemy AI „są w pewnym stopniu niezależne od zaangażowania ze strony człowieka i zdolne do działania bez interwencji człowieka”.

Słownikowo autonomię rozumie się jako: „niezależność przejawiającą się w decydowaniu o sobie i rządzeniu się własnymi prawami”.

W kontekście „autonomii programu” warto zwrócić uwagę na orzeczenie TSUE w sprawie C-634/21 (profilowanie danych klienta przy scoringu kredytowym). TSUE uznał, że również gdy ostateczną decyzję programu zatwierdza człowiek, ale większość pracy wykonuje program — można mówić o znacznej autonomii.

Komisja Europejska podkreśla, że autonomia systemów AI idzie w parze z umiejętnością wnioskowania — bez pewnego poziomu autonomii ten proces nie byłby możliwy.

Przy ocenie autonomii liczy się zaangażowanie człowieka: o pełnej autonomii nie można mówić, gdy finalny efekt zależy od działania ludzkiego.

Definicja systemu AI nie wymaga jednak pełnej autonomii — odnosi się do „różnego stopnia autonomii”. Momentem granicznym jest ustalenie, czy system może działać w ogóle bez udziału człowieka. Jeśli tak — spełnia ten element.

Praktyczne przykłady

System o pewnym stopniu autonomii (AI): System oceny kandydatów, który działa na podstawie danych wprowadzonych przez człowieka, ale daje wynik w oparciu o wyuczone kryteria.

System o dużym stopniu autonomii (AI): Narzędzia do „vibe codingu”, które na podstawie instrukcji użytkownika samodzielnie tworzą aplikacje. Popularne IDE z AI (np. Codex) — użytkownik działa jako „reżyser”.

Brak autonomii (nie AI): Prosty skrypt w Pythonie zmieniający rozszerzenie pliku z .xls na .csv. System alertów w banku flagujący przelewy powyżej 15 000 EUR na podstawie sztywnego progu.

W praktyce: jeżeli występują wątpliwości co do tego, czy system ma jakikolwiek poziom autonomii, bezpieczniej jest przyjąć, że go posiada.

Element 3: Zdolność adaptacji po wdrożeniu

Zgodnie z motywem 12 preambuły AI Act:

„Zdolność adaptacji, jaką system AI może wykazać po jego wdrożeniu, odnosi się do zdolności do samouczenia się, która umożliwia zmianę systemu w czasie jego wykorzystywania.”

Adaptacja sprowadza się do umiejętności uczenia się — wyciągania wniosków i dostosowywania się do zmiennych warunków. W literaturze wskazuje się, że zdolności adaptacyjnych nie posiadają „klasyczne” deterministyczne modele działające w oparciu o z góry założone, niezmienne instrukcje.

W wytycznych KE podkreślono, że autonomia i zdolność adaptacji to dwa odrębne, ale ściśle powiązane pojęcia. Pytanie brzmi: czy nowe zachowania systemu po adaptacji mogą przynieść inne wyniki niż poprzednie na bazie tych samych danych wejściowych?

Kiedy dochodzi do adaptacji?

Aktualizacja parametrów (Online/Continuous Learning): system w trakcie działania na rynku zmienia swoje wewnętrzne wagi lub architekturę na podstawie nowych danych.

Ewolucja zachowania: to samo zapytanie zadane w styczniu może dać inny wynik w grudniu — nie dlatego, że zmienił się kontekst, ale dlatego, że model przebudował wiedzę na podstawie interakcji.

Co nie jest adaptacją?

Jeśli chatbot pamięta historię konwersacji w ramach jednej sesji (okno kontekstowe) i na tej podstawie dopasowuje odpowiedzi — to nie jest adaptacja.

Adaptacja następuje dopiero wtedy, gdy konwersacja zostanie użyta do dotrenowania modelu „w locie”, tak aby trwale zmienił sposób odpowiadania innym użytkownikom.

Przykłady

System bez adaptacji („model zamrożony” — wciąż AI): System medyczny analizujący zdjęcia RTG. Wytrenowany na milionach zdjęć, certyfikowany i wdrożony w szpitalu. Wagi są stałe — nie uczy się na nowych zdjęciach.

System z adaptacją: Algorytm antyfraudowy w banku, który na bieżąco analizuje nowe wzorce oszustw i aktualizuje swój model w czasie rzeczywistym.

Uwaga: AI Act posługuje się pojęciem „może wykazywać zdolność do adaptacji po wdrożeniu”. Zdolność adaptacji nie jest warunkiem koniecznym kwalifikacji jako system AI. Nawet model całkowicie „zamrożony” (statyczny), spełniający pozostałe elementy (autonomia, wnioskowanie, wpływ na środowisko), podlega AI Act. To odróżnia adaptację od wnioskowania, które jest warunkiem niezbędnym.

Element 4: Wyraźne lub dorozumiane cele

Ten element bywa pomijany, ale wytyczne KE wyodrębniają go jako samodzielny składnik definicji. Art. 3 pkt 1 stanowi, że system AI wnioskuje „na potrzeby wyraźnych lub dorozumianych celów„.

Cele to zadania, do których wykonania przeznaczony jest system AI. Wytyczne KE rozróżniają przy tym dwa pojęcia:

Cele systemu (wewnętrzne) — wynikają z konstrukcji i treningu modelu. Np. model językowy „ma na celu” generowanie tekstu spójnego z promptem; system rekomendacyjny „ma na celu” dopasowanie treści do profilu użytkownika.

Zamierzone przeznaczenie (external intended purpose) — wynika z kontekstu wdrożenia i dokumentacji dostawcy. To przeznaczenie jest istotne przy klasyfikacji ryzyka (art. 6 AI Act).

Cele mogą być:

  • wyraźne — zdefiniowane wprost w specyfikacji systemu, np. „klasyfikuj zdjęcia RTG pod kątem obecności zmian nowotworowych”,
  • dorozumiane — model GPAI nie ma jednego z góry określonego celu, ale jest zdolny do realizacji różnorodnych zadań. Cel wynika z kontekstu użycia przez deployer’a.

AI Act obejmuje oba rodzaje celów. System może realizować cele, o których jego twórca wprost nie wspomniał, ale które wynikają z architektury i możliwości systemu.

Element 5: Wnioskowanie — kluczowy, niezbędny warunek kwalifikacji

Motyw 12 preambuły AI Act wskazuje zdolność do wnioskowania jako jedną z cech wyróżniających systemy AI.

Komisja Europejska wyraźnie wskazuje, że zdolność do wnioskowania (inferencji) jest „kluczowym, niezbędnym warunkiem, który odróżnia systemy AI od innych rodzajów systemów” (key, indispensable condition). To element, bez którego system nie może zostać zakwalifikowany jako AI — w odróżnieniu od adaptacji, której brak nie wyklucza takiej kwalifikacji.

Wnioskowanie to — w dużym uproszczeniu — zdolność systemu do generowania wyników (predykcji, treści, zaleceń, decyzji) na podstawie danych wejściowych. Wyniki nie mogą powstawać „z niczego” — muszą wynikać z przetworzenia danych.

Wytyczne KE precyzują, że wyrażenie „wnioskuje, jak” ma szerszy zakres niż wąskie rozumienie inferencji. Sformułowanie „wnioskuje, jak generować wyniki” odnosi się do etapu tworzenia, na którym system uzyskuje wyniki za pomocą technik AI umożliwiających wnioskowanie.

Techniki uczenia maszynowego

W wytycznych Komisja wymienia kilka technik:

Uczenie nadzorowane — system uczy się na oznakowanych danych, gdzie dane wejściowe są sparowane z prawidłowym wynikiem. Przykład: system wykrywania spamu uczący się na zbiorze wiadomości oznaczonych jako „spam” i „nie-spam”.

Uczenie nienadzorowane — system uczy się na danych bez etykiet. Przykład: system wykorzystywany przez firmy farmaceutyczne do odkrywania leków, grupujący związki chemiczne.

Uczenie samonadzorowane — podkategoria uczenia nienadzorowanego, system tworzy własne etykiety z danych. Przykład: system rozpoznawania obrazów uczący się przez przewidywanie brakujących pikseli.

Uczenie przez wzmacnianie — system uczy się w drodze prób i błędów. Przykład: ramię robota chwytające przedmioty.

Uczenie głębokie — podkategoria uczenia maszynowego wykorzystująca sieci neuronowe.

Druga kategoria to podejście oparte na logice i wiedzy — wnioskowanie na podstawie zakodowanej wiedzy lub symbolicznego przedstawienia zadania. Systemy uczą się na faktach przekazanych przez ekspertów i za pomocą silników dedukcyjnych dokonują „rozumowania” nowych informacji. Przykład: system AI oparty o wiedzę prawniczą z zebranych orzeczeń, wskazujący możliwy wynik sprawy sądowej.

Zwykłe oprogramowanie vs system AI — na czym polega różnica?

Tradycyjne oprogramowanieSystem AI
FormułaDane + Reguły (człowiek) = WynikDane + Pożądany Wynik = Model sam tworzy reguły
Etap działaniaZawsze te same reguły → przewidywalny wynikNowe Dane + Wyuczony Model = System generuje wynik
RegułyStworzone i zakodowane przez programistęWyuczone przez model na podstawie danych
Przykład„Jeśli zarobki > 5000 PLN → przyznaj kredyt”System wykrywa ukryte korelacje w tysiącach historycznych spłat
Jak działa AI vs tradycyjne oprogramowanie — schemat formuły wnioskowania

Różnice na przykładach

Filtr antyspamowy w poczcie e-mail

Zwykłe przetwarzanie (brak AI): Program ma wpisaną regułę: „Jeśli tytuł zawiera słowo 'promocja’ LUB 'książę z Nigerii’ → przenieś do SPAM.” To zwykła logika if-then.

Wnioskowanie (system AI): System przeanalizował miliony wiadomości oznaczonych jako spam. Dostaje nową wiadomość bez zakazanych słów z czarnej listy. Analizuje nietypową strukturę zdań, porę wysyłki, ścieżkę serwerów — i wnioskuje, że na 98% to spam. Programista nigdy nie zaprogramował reguły na tę kombinację cech.

Scoring kredytowy

Zwykłe przetwarzanie (brak AI): Bank ma algorytm: „Zarobki > 5000 PLN ORAZ brak długów → przyznaj kredyt.”

Wnioskowanie (system AI): System przeanalizował tysiące historycznych spłat. Wnioskuje, że klient ma wysokie ryzyko niespłacenia, ponieważ jego profil zachowań pasuje do ukrytego wzorca prowadzącego do niewypłacalności. Odrzuca wniosek na podstawie odnalezionych korelacji, nie twardych progów. Tego typu system to w rozumieniu AI Act system high-risk (Załącznik III — scoring kredytowy).

Element 6: Rodzaje wyników

Art. 3 pkt 1 wymienia cztery kategorie wyników, które może generować system AI:

  • Predykcje — np. prognoza pogody, scoring kredytowy, przewidywanie awarii maszyn.
  • Treści — np. teksty generowane przez modele językowe, obrazy z generatorów grafik, kod źródłowy.
  • Zalecenia — np. rekomendacje filmów, sugestie diagnostyczne w medycynie, propozycje tras w nawigacji.
  • Decyzje — np. automatyczne zablokowanie transakcji, odrzucenie wniosku kredytowego, preselekcja CV.

Katalog nie jest zamknięty — ustawodawca użył sformułowania „takie jak”.

Element 7: Wpływ na środowisko fizyczne lub wirtualne

To najszersza z przesłanek. Wytyczne KE wskazują, że ma ona podkreślać fakt, iż systemy AI nie są pasywne — wchodzą w interakcję z otoczeniem, pobierają dane (input) i generują wyniki (output), które aktywnie zmieniają stan otoczenia.

Zgodnie z motywem 12 preambuły AI Act, pojęcie „środowiska” oznacza po prostu „konteksty, w których działają systemy AI”. Wyniki mogą modyfikować te konteksty na dwa sposoby:

Wpływ na sferę fizyczną — wynik działania systemu przekłada się na realną zmianę w świecie materialnym:

  • autonomiczny pojazd zmieniający tor jazdy,
  • robot przemysłowy sortujący paczki,
  • inteligentny termostat zmieniający temperaturę,
  • system irygacyjny optymalizujący zużycie wody.

Wpływ na sferę wirtualną — wygenerowany wynik zmienia cyfrowy stan rzeczywistości:

  • model językowy generujący tekst na ekranie użytkownika,
  • system antyfraudowy blokujący transakcję,
  • spersonalizowana rekomendacja filmu,
  • dynamic pricing w sklepie internetowym.

Wpływ na środowisko nie musi być bezpośredni. System AI generujący jedynie „zalecenie” (np. sugestia diagnostyczna dla lekarza) wciąż wpływa na środowisko, ponieważ kształtuje działanie podjęte przez człowieka.

Co nie jest systemem AI — katalog wyłączeń z wytycznych KE

Wytyczne Komisji Europejskiej explicite wyłączają spod definicji systemu AI następujące kategorie:

  • Narzędzia optymalizacji matematycznej — regresja liniowa, tradycyjne modele fizyczne, programowanie liniowe.
  • Podstawowe narzędzia do przetwarzania danych — arkusze kalkulacyjne (Excel), zapytania SQL, klasyczne bazy danych.
  • Klasyczne heurystyki — np. algorytm minimax w szachach, algorytmy sortowania, proste systemy reguł.
  • Proste systemy predykcji — oparte na podstawowych regułach statystycznych, niewyciągające wniosków z danych.
  • Podstawowe operacje przetwarzania — pattern matching (Ctrl+F), filtrowanie i sortowanie bazy danych, tradycyjne operacje matematyczne (np. wyliczenie średniej).

Łączy je jedno: brak zdolności do wnioskowania (inferencji) w rozumieniu AI Act. Działają wyłącznie na zasadzie „Dane + Reguły stworzone przez człowieka = Wynik”, bez samodzielnego wyciągania wniosków.

Porównanie: system AI vs zwykłe oprogramowanie

RozwiązanieSystem AI?Dlaczego?
ChatGPT, Claude, GeminiTakLLM — wnioskowanie, autonomia, wpływ na środowisko wirtualne
System preselekcji CV oparty na MLTakWnioskowanie z danych, autonomia, wpływ na decyzje HR (high-risk, Załącznik III)
Algorytm antyfraudowy w banku (ML)TakWnioskowanie z wzorców transakcji, adaptacja w czasie rzeczywistym
System rekomendacji filmówTakWnioskowanie z preferencji użytkownika, wpływ na środowisko wirtualne
Autonomiczny pojazdTakPełna autonomia, wnioskowanie, wpływ fizyczny
Codex / Cursor / IDE z AITakDuża autonomia, generowanie kodu (wnioskowanie), wpływ na pliki lokalne
Arkusz Excel z formułamiNieBrak wnioskowania — deterministyczne reguły stworzone przez człowieka
Zapytanie SQL do bazy danychNieFiltrowanie i sortowanie — brak inferencji
Skrypt Python zmieniający format plikuNieBrak autonomii i wnioskowania — sztywne instrukcje
Alert bankowy: przelew > 15 000 EURNieProsty próg if-then — brak wnioskowania
Algorytm minimax w szachachNieKlasyczna heurystyka — explicite wyłączony przez wytyczne KE
Regresja liniowaNieTradycyjna optymalizacja matematyczna — wyłączona przez wytyczne KE
System AI vs zwykłe oprogramowanie — porównanie przykładów kwalifikacji wg AI Act

Szczegółowe omówienie obowiązków dla systemów AI (w tym kategorii ryzyka i harmonogramu wdrożenia) oraz kwestii kontraktowych (umowa wdrożeniowa IT a AI Act) znajdziesz w pozostałych artykułach z tej serii.

Test kwalifikacyjny — czy Twoje rozwiązanie to system AI?

Jak widać, definicja systemu AI w AI Act jest szeroka. Ocena, czy dane rozwiązanie mieści się w tym pojęciu, wymaga analizy konkretnego przypadku. Poniższy schemat pozwala jednak na wstępną kwalifikację.

KrokPytanieNIE →TAK →
1. AutonomiaCzy system działa z jakimkolwiek poziomem autonomii po wyznaczeniu mu celu?Zwykłe oprogramowanie — koniec testu→ Krok 2
2. Inferencja ⚠️Czy system samodzielnie wyciąga wnioski z danych (uogólnia, dedukuje, generuje)?Tradycyjny system informatyczny — koniec testu→ Krok 3
3. WpływCzy wynik oddziałuje na środowisko fizyczne lub wirtualne?Pasywny model badawczy — co do zasady poza AI Act→ System AI w rozumieniu AI Act
4. AdaptacjaCzy system zmienia się (uczy) po wdrożeniu?Zamrożony system AI — parametry stałeAdaptacyjny system AI — wymaga szczególnego monitorowania

Krok 2 (inferencja) jest najważniejszy. Wytyczne KE uznają zdolność do wnioskowania za niezbędny warunek kwalifikacji jako system AI. Odpowiedź „NIE” na którymkolwiek z kroków 1–3 oznacza, że rozwiązanie z dużym prawdopodobieństwem nie podlega AI Act.

Test kwalifikacyjny — czy Twoje rozwiązanie to system AI? Schemat decyzyjny wg art. 3 AI Act

Jeżeli test wskazuje, że Twoje rozwiązanie to system AI — kolejny krok to klasyfikacja ryzyka (zakazane praktyki / high-risk / ograniczone ryzyko / minimalne ryzyko). Jeśli budujesz system AI na zlecenie klienta — sprawdź, jak umowa wdrożeniowa IT powinna rozdzielać obowiązki compliance.

FAQ — definicja systemu AI w AI Act

Czym jest system AI w rozumieniu AI Act?

Zgodnie z art. 3 pkt 1 AI Act, system AI to system maszynowy spełniający 7 elementów wyróżnionych przez Komisję Europejską: system oparty na maszynie, autonomia, zdolność adaptacji, cele (wyraźne lub dorozumiane), wnioskowanie, generowanie wyników i wpływ na środowisko. Kluczowym elementem odróżniającym AI od zwykłego oprogramowania jest wnioskowanie (inferencja).

Czy prosty skrypt lub makro w Excelu to system AI?

Co do zasady nie. Wytyczne KE explicite wyłączają podstawowe narzędzia do przetwarzania danych, arkusze kalkulacyjne i tradycyjne operacje matematyczne spod definicji systemu AI. Brakuje im zdolności do wnioskowania.

Czy chatbot oparty na drzewie decyzyjnym to system AI?

Jeśli chatbot działa wyłącznie na z góry zaprogramowanych regułach if-then — nie spełnia kluczowej przesłanki wnioskowania. Chatbot oparty na modelu językowym (np. GPT, Claude) — tak, to system AI.

Czy „zamrożony” model (bez adaptacji po wdrożeniu) podlega AI Act?

Tak. Zdolność adaptacji nie jest warunkiem koniecznym. Nawet model ze stałymi wagami podlega regulacji, jeśli spełnia pozostałe elementy — w szczególności wnioskowanie i wpływ na środowisko.

Czy wytyczne Komisji Europejskiej są prawnie wiążące?

Nie. Wytyczne KE z 6 lutego 2025 r. (sygnatura C(2025) 924 final) zostały formalnie przyjęte przez Komisję, ale nie są prawnie wiążące — autorytatywną wykładnię AI Act może dostarczyć jedynie TSUE. Mimo to stanowią na dziś najpełniejsze źródło interpretacyjne, na którym opiera się praktyka compliance.

Jak wygląda status Digital Omnibus on AI (kwiecień 2026)?

Digital Omnibus (Omnibus VII), zaproponowany przez Komisję Europejską 19 listopada 2025 r., nie został jeszcze formalnie przyjęty. 18 marca 2026 r. komisje IMCO-LIBE PE przyjęły wspólne stanowisko, potwierdzone 26 marca w głosowaniu plenarnym (569 głosów za, 45 przeciw). Rada UE przyjęła mandat negocjacyjny 13 marca 2026 r. Trilog rozpoczął się 26 marca, a kolejna runda zaplanowana jest na 28 kwietnia 2026 r. — ambicją prezydencji cypryjskiej jest porozumienie polityczne do maja 2026 r. Do czasu formalnego przyjęcia 2 sierpnia 2026 r. pozostaje prawnie wiążącą datą.

Nie masz pewności, czy Twoje rozwiązanie to system AI?

Kwalifikacja wymaga analizy specyfiki konkretnego przypadku. Kancelaria KTZR pomaga firmom IT przeprowadzić tę analizę — od wstępnej klasyfikacji po pełny audyt umów wdrożeniowych i compliance z AI Act.

Skontaktuj się z r. pr. Adamem Piotrowskim →
Ai act definicja systemu ai

Ai act definicja systemu ai

System AI w rozumieniu AI Act (art. 3 pkt 1) – definicja, 7 elementów wg wytycznych Komisji Europejskiej, test kwalifikacyjny. Praktyczne przykłady: co jest, a co nie jest systemem AI.

Zabezpieczenie o zwolnieniu z płatności rat ws. kredytu WIBOR — Postanowienie SO w Gdańsku

Zabezpieczenie o zwolnieniu z płatności rat ws. kredytu WIBOR — Postanowienie SO w Gdańsku

Blog Zabezpieczenie o zwolnieniu z płatności rat ws. kredytu WIBOR — Postanowienie SO w Gdańsku Marzec 2026 Zdjęcie: Freepik Sąd Okręgowy w Gdańsku wydał postanowienie o wstrzymaniu spłaty rat kredytu opartego na WIBOR na czas procesu (sygn. XV C 3674/25 z 29.12.2025 r.). To jedno z nielicznych korzystnych rozstrzygnięć dla kredytobiorców w sprawach WIBOR — dlatego warto przeanalizować, czym jest zabezpieczenie roszczenia, jakie daje […]

AI Act – Co Musisz Wiedzieć o Regulacji Sztucznej Inteligencji w UE

AI Act – Co Musisz Wiedzieć o Regulacji Sztucznej Inteligencji w UE

Blog AI Act – Co Musisz Wiedzieć o Regulacji Sztucznej Inteligencji w UE W tym artykule dowiesz się: czym jest AI Act i dlaczego obowiązuje bezpośrednio w Polsce, jaki jest harmonogram wdrożenia – kluczowe daty do 2027 r., jakie kategorie ryzyka wprowadza rozporządzenie i co z tego wynika dla Twojej firmy, kto jest dostawcą a […]

    Dodaj komentarz

    Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

    Zapytaj prawnika

    Masz pytanie prawne?

    Odpowiemy w ciągu 24h.