Zakazane praktyki w zakresie sztucznej inteligencji
Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji) , zwany skrótowo AI Act, ustanawia ramy prawne dla sztucznej inteligencji.
O AI Act więcej tutaj.
W artykule 5 AI Act określone zostały zakazane praktyki w zakresie AI, w tym w pierwszej kolejności następująca praktyka: wprowadzanie do obrotu, oddawania do użytku lub wykorzystywania systemu AI, który stosuje techniki podprogowe będące poza świadomością danej osoby lub celowe techniki manipulacyjne lub wprowadzające w błąd, czego celem lub skutkiem jest dokonanie znaczącej zmiany zachowania danej osoby lub grupy osób poprzez znaczące ograniczenie ich zdolności do podejmowania świadomych decyzji, powodując tym samym podjęcie przez nie decyzji, której inaczej by nie podjęły, w sposób, który wyrządza lub może wyrządzić u niej, u innej osoby lub u grupy osób poważną szkodę.
Wytyczne Komisji w sprawie zakazanych praktyk w zakresie sztucznej inteligencji
AI Act nałożył w art. 96 ust. 1 lit. b) na Komisję Europejską obowiązek opracowania wytycznych dotyczących praktycznego wdrażania tego rozporządzenia w zakresie zakazanych praktyk, o których mowa w art. 5 AI Act.
Komisja wykonała powyższy obowiązek, a opracowane wytyczne zostały opublikowane 4 lutego 2025 roku.
Cel wytycznych
Komisja wyjaśniła w wytycznych, że mają one na celu zwiększenie jasności prawa i zapewnienie informacji na temat tego, jak Komisja interpretuje zakazy zawarte w art. 5 aktu w sprawie sztucznej inteligencji, z myślą o zapewnieniu ich spójnego, skutecznego i jednolitego stosowania. Wytyczne te powinny pełnić rolę praktycznych wskazówek pomagających właściwym organom określonym w akcie w sprawie sztucznej inteligencji w działaniach w zakresie egzekwowania przepisów, a także dostawcom systemów AI i podmiotom je stosującym w wypełnianiu obowiązków wynikających z tego aktu. Zgodnie z założeniem interpretacja zakazów przedstawiona w wytycznych ma być proporcjonalna, co umożliwi osiągnięcie celów aktu w sprawie sztucznej inteligencji w zakresie ochrony praw podstawowych i bezpieczeństwa, zarazem promując innowacje i zapewniając pewność prawa.
Charakter wytycznych
W wytycznych wyjaśniono, że nie mają one charakteru wiążącego, a wszelkiej autorytatywnej wykładni aktu w sprawie sztucznej inteligencji może ostatecznie dokonywać wyłącznie Trybunał Sprawiedliwości Unii Europejskiej („TSUE”)
Zakazane praktyki w zakresie sztucznej inteligencji – przykłady
Zakazane praktyki w zakresie sztucznej inteligencji oraz pojęcia stosowane w AI Act w tym kontekście zostały w wytycznych określone na podstawie podanych w nich przykładów, przy czym wytyczne zastrzegają, że stosowanie art. 5 aktu w sprawie sztucznej inteligencji będzie wymagać indywidualnej oceny, z należytym uwzględnieniem konkretnej sytuacji w danym przypadku. W związku z tym przykłady podane w niniejszych wytycznych mają jedynie charakter orientacyjny i pozostają bez uszczerbku dla konieczności przeprowadzenia takiej oceny w każdym przypadku
Autor: radca prawny Michał Kowalski
Okręgowa Izba Radców Prawnych w Lublinie Lb-1484
Kontakt