Radca prawny Szczecin
ROZPORZĄDZENIE PARLAMENTU EUROPEJSKIEGO I RADY (UE) 2024/1689 (AI Act) wprowadza wspólne ramy prawne dotyczące tworzenia i używania systemów sztucznej inteligencji w krajach UE. Osoby fizyczne korzystające z AI w celach prywatnych nie podlegają obowiązkom Aktu. W Polsce trwają prace nad ustawą wdrażającą rozporządzenie, projekt jest wciąż na etapie konsultacji. Nowa ustawa ma określić zasady nadzoru nad rynkiem AI, procedury w razie naruszeń oraz powołać nowy organ: Komisję Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. 🏛️🔍
Harmonogram wejścia w życie przepisów
→ 2 lutego 2025 r. ⟶ zaczął obowiązywać przepis dotyczący zakazanych systemów AI oraz wymogów w zakresie edukacji i świadomości AI (AI literacy).
→ 2 sierpnia 2025 r. ⟶ weszło w życie część regulacji odnoszących się do ogólnych modeli AI i nowego ramowego systemu zarządzania.
→ 2 sierpnia 2026 r. ⟶ większość zasad AI Act zacznie obowiązywać w pełnym zakresie.
→ 2 sierpnia 2027 r. ⟶ dodatkowy termin dla systemów wysokiego ryzyka zintegrowanych z produktami regulowanymi sektorowo (np. wyroby medyczne).
Dla firm oznacza to konieczność rozpoczęcia przygotowań już teraz, zwłaszcza w obszarze klasyfikacji systemów AI oraz dostosowania procesów compliance.
AI LITERACY
Inaczej kompetencje w zakresie sztucznej inteligencji.
Zgodnie z art. 4 rozporządzenia AI Act, na pracodawcach spoczywa obowiązek podejmowania działań zapewniających odpowiedni poziom kompetencji AI wśród pracowników. Oznacza to m.in. konieczność organizowania szkoleń, uświadamiania o potencjalnych ryzykach i właściwym nadzorowaniu działania systemów.
W praktyce AI literacy obejmuje:
🧠 rozumienie zasad działania systemów AI,
⚠️ świadomość ich ograniczeń i potencjalnych zagrożeń,
📊 umiejętność interpretacji wyników generowanych przez AI,
⚖️ odpowiedzialne, zgodne z przepisami korzystanie z narzędzi opartych na AI.
Czym jest system AI?
Autonomiczny lub półautonomiczny system maszynowy, który potrafi uczyć się i dostosowywać, wykonując zadania wpływające na otoczenie cyfrowe lub fizyczne.
AI Act wyłącza z definicji systemy, które działają wyłącznie pod pełną kontrolą manualną człowieka bez autonomii.
💬 Korzystanie z chatów AI (np. ChatGPT) jako narzędzia pracy traktowane jest zazwyczaj jako wykorzystywanie systemów AI o ograniczonym lub minimalnym ryzyku, pod warunkiem przestrzegania wymogów w zakresie transparentności, nadzoru oraz odpowiedzialności za dane i wyniki generowane przez chat.
Korzystanie z chatbotów w celach decyzyjnych lub znacząco wpływających na prawa i wolności jednostek, np. podejmując decyzje zatrudnieniowe, podlegać będzie wymogom dotyczącym systemów wysokiego ryzyka.
Podział systemów AI
1️⃣ Systemy zakazane
To systemy AI, których użycie jest całkowicie zakazane, ponieważ zbyt mocno ingerują w chronione wartości, takie jak prawa podstawowe czy bezpieczeństwo obywateli.
💼 Przykład: menedżerowie HR stosujący narzędzia do oceny pracowników w celu wyciągania wniosków na temat stanu emocjonalnego swoich pracowników.
2️⃣ Systemy wysokiego ryzyka
Są one dopuszczalne pod rygorem spełnienia licznych warunków. Przeznaczone są ,,do wykorzystania jako związany z bezpieczeństwem, element produktu” , który objęty jest unijnym prawodawstwem harmonizacyjnym, wskazanym w załączniku I tego aktu, lub produkt związany z takim elementem, m.in. wokół zdrowia, bezpieczeństwa, praw podstawowych czy środowiska.
⚖️ Przykład: sędziowie, prawnicy, kuratorzy (np. w ocenie ryzyka recydywy).
3️⃣ Systemy o ograniczonym ryzyku
W ramach takich systemów nakłada się pewne minimalne obowiązki, związane z zachowaniem przejrzystości. Celem takiego postępowania jest ochrona przed wprowadzeniem w błąd człowieka.
💻 Przykład: Konsultanci e-commerce (AI w rekomendacjach, personalizacji ofert).
4️⃣ Systemy minimalnego lub zerowego ryzyka
To systemy w ramach których nie wprowadza się żadnych specjalnych obowiązków oraz wymogów prawnych. Zaliczają się do nich wszystkie te systemy, które definicyjnie nie dotyczą żadnej z kategorii powyżej.
📄 Przykład: Pracownicy biurowi korzystający z autokorekty tekstu, prostych narzędzi AI.
Obowiązki dla firm
Firmy powinny ustalić, do jakiej kategorii należą ich systemy AI oraz prowadzić dokumentację techniczną (szczególnie przy systemach wysokiego ryzyka). Poważne incydenty trzeba zgłaszać do organu nadzorczego. Systemy wysokiego ryzyka wymagają oceny zgodności i oznakowania CE, zanim trafią na rynek. Naruszenia przepisów mogą skutkować wysokimi karami – podobnymi do tych z RODO.
💬 Jeśli firma korzysta z AI (np. chatbotów), musi zapewnić:
- jasną informację, że użytkownik rozmawia z AI,
- możliwość kontroli i korekty wygenerowanych treści,
- bezpieczeństwo danych oraz etyczne działanie.
Nawet jeśli firma nie jest w grupie wysokiego ryzyka, to powinna mieć regulamin lub przynajmniej krótką politykę AI, bo:
🔐 chroni przed ujawnieniem danych firmowych do narzędzi AI,
🤖 określa, co wolno, a czego nie wolno wprowadzać do chatbotów,
✅ wyznacza zasady odpowiedzialności i weryfikacji treści,
💬 zmniejsza ryzyko błędów generowanych przez AI,
⚖️ pomaga pracownikom korzystać z AI bezpiecznie i zgodnie z prawem,
Coraz więcej organizacji (małych i dużych) wprowadza takie dokumenty, nawet jeśli nie są do tego prawnie zobligowane.
Bądź na bieżąco




biuro rachunkowe, usługi księgowe, doradztwo podatkowe, rozliczenia podatkowe, obsługa księgowa firm, PIT rozliczenia, CIT rozliczenia, VAT usługi, pomoc podatkowa, biuro podatkowe, optymalizacja podatkowa, księgowość online, audyt finansowy, kadry i płace, pełna księgowość, prowadzenie ksiąg rachunkowych, obsługa podatkowa, deklaracje podatkowe, rozliczenia firm, doradztwo finansowe



