Zaznacz stronę

Nowe zasady odpowiedzialności za sztuczną inteligencję w Unii Europejskiej

2 listopada 2022 | Aktualności, Wiedza

W UE sporo się dzieje wokół Sztucznej Inteligencji

Sztuczna inteligencja (AI) zajmuje centralne miejsce w unijnej strategii tworzenia jednolitego rynku cyfrowego. W związku z tym od kilku lat pojawia się wiele unijnych dokumentów prawnych, jak Biała Księga AI z lutego 2020 r. czy rezolucje Parlamentu UE dotyczące etyki, odpowiedzialności i praw własności intelektualnej z października 2020 r.

W kwietniu 2021 r. Komisja Europejska przedstawiła rewolucyjny projekt rozporządzenia o AI (Artificial Intelligence Act), kładący podwaliny pod ramy prawne korzystania z AI na terytorium Unii Europejskiej. Prace legislacyjne dotyczące AI Act są już w zaawansowanym stadium i dokument lada moment powinien wejść w życie.

Odpowiedzialność cywilna a działania Sztucznej Inteligencji

Od dłuższego czasu Unia pracuje także nad kwestią uregulowania odpowiedzialności cywilnej w kontekście AI. Kilka lat temu Parlament UE przygotował wniosek rozporządzenia w tej sprawie, jednak projekt się „nie przyjął”.

Rozporządzenie obowiązuje wprost, w ten sam sposób, w każdym państwie członkowskim. A systemy odpowiedzialności cywilnej bardzo istotnie różnią się w poszczególnych krajach Unii. Do części z nich (w tym polskiego) proponowana treść rozporządzenia kompletnie nie pasowała. Dużo lepszą formą regulowania przez Unię obszaru odpowiedzialności jest więc dyrektywa (która wyznacza pewne standardy i mechanizmy, które każdy kraj musi zaimplementować w stosowny dla swojego prawa sposób). Właśnie po ten mechanizm sięgnięto tym razem.

28 września 2022 roku Komisja Europejska przyjęła dwa wnioski prowadzące do uregulowania odpowiedzialności za działalność AI. Pierwszy dotyczy unowocześnienia obowiązujących przepisów w zakresie odpowiedzialności producentów za produkty niebezpieczne na zasadzie ryzyka. W drugim Komisja proponuje nową, odrębną dyrektywę dotyczącą odpowiedzialności za sztuczną inteligencję.

Dyrektywa odpowiedzialności za Sztuczną Inteligencję AILD

Dyrektywa o odpowiedzialności za AI (z angielskiego: AILD) już w swojej nazwie wskazuje, że dotyczy odpowiedzialności pozakontraktowej (non-contractual liability).

Mówiąc po prawniczo-polsku, reguluje przede wszystkim odpowiedzialność deliktową. Czyli, jeszcze bardziej upraszczając, odpowiedzialność za szkody powstałe w wyniku losowych zdarzeń czy incydentów między podmiotami, których nie wiązała umowa. Jest to potrzebne w sytuacji, w której, realnie, jesteśmy otaczani przez AI.

Jakie więc delikty może nam wyrządzić AI? Autonomiczny samochód uderza pieszego na pasach. Dron sterowany AI niszczy wiezioną paczkę zrzucając ją ze zbyt wysoka. System AI obsługujący windykację firmy błędnie identyfikuje zadłużonego i blokuje mu dostęp do usług. System AI do generowania indywidualnie dobranych leków każe nam zaaplikować lek, który powoduje uszczerbek na zdrowiu. Przykłady można mnożyć. W każdym razie AILD reguluje odpowiedzialność właśnie w tego typu przypadkach.

Nie reguluje natomiast odpowiedzialności kontraktowej. Czyli, przykładowo, jeśli organizacja kupuje od dostawcy IT system AI i ten system zawodzi, to (co do zasady) nie ma czego szukać w AILD. Musi wtedy sięgnąć do dobrze napisanej umowy, przygotowanej przez prawnika rozumiejącego materię AI.

Domniemanie związku przyczynowego rdzeniem AILD

Fundamentalnym elementem AILD jest jej artykuł 4. Zgodnie z jego treścią (oczywiście przy zajściu kilku szczegółowych przesłanek), w razie wniesienia przez poszkodowanego pozwu do sądu o odszkodowanie w przypadku wyrządzenia mu szkody przez AI, sąd ma domniemywać związek przyczynowy między winą pozwanego korzystającego z AI a działaniem lub brakiem działania AI powodującym szkodę. Zatem, nieco upraszczając, to podmiot korzystający z AI ma wykazać, że nie powinien ponosić odpowiedzialności za szkodę wyrządzoną przez jego AI, a nie odwrotnie (gdyż dla osoby poszkodowanej jest to zbyt skomplikowane lub zbyt kosztowne).

AILD wprowadza ułatwienie dowodzenia dla poszkodowanych

Sądy rozpoznające sprawy odszkodowawcze dotyczące AI będą uprawnione do nakazania pozwanemu ujawnienia odpowiednich dowodów, nawet jeśli poszkodowany (powód) nie wnioskował o ich ujawnienie, czy w ogóle nie zdawał sobie sprawy z ich istnienia.

Naczelnym celem AILD jest maksymalne ułatwienie dochodzenia odszkodowań przez „zwykłych ludzi” dotkniętych nieprawidłowym działaniem AI wykorzystywanej przez przedsiębiorców, w tym duże korporacje. To beneficjenci działania sztucznej inteligencji mają wykazywać, że to nie błędy ich rozwiązań doprowadziły do powstania szkody.

Co godne uwagi, AILD wprowadza regulacje bezpośrednio w nawiązaniu do AI Act. Opiera się na tej samej siatce pojęć. Różnicuje kwestie związane z odpowiedzialnością w zależności od tego, z jakim rodzajem ryzyka korzystania z systemu mamy do czynienia (systemy AI wysokiego ryzyka vs ryzyka innego niż wysokie).

I tak w stosunku do systemów sztucznej inteligencji, które nie są systemami wysokiego ryzyka, domniemanie ma zastosowanie tylko wtedy, gdy sąd uzna, że udowodnienie przez powoda związku przyczynowego jest nadmiernie trudne. Natomiast w systemach sztucznej inteligencji wysokiego ryzyka pojawia się pięć wymogów; tylko jeżeli którykolwiek nie został spełniony, można uznać, że przesłanka wykazania winy jest spełniona.

Co dalej?

Wnioski Komisji muszą teraz zostać przyjęte przez Parlament Europejski i Radę. Opublikowanie projektów aktów prawnych przez Komisję otworzy dyskusje na płaszczyźnie unijnej i krajowej, które powinny doprowadzić do jak najlepszego dopasowania rozwiązań legislacyjnych do „życia”.

Masz pytania? Skontaktuj się z autorami

Piotr Kaniewski

Paulina Perkowska

Najnowsza Wiedza

Można już wydawać WZ na terenie planu generalnego lotniska

8 stycznia prezydent podpisał nowelizację prawa lotniczego, która znosi obowiązek uchwalania miejscowych planów zagospodarowania przestrzennego dla terenów objętych planem generalnym lotniska oraz umożliwia wydawanie decyzji o warunkach zabudowy na tych obszarach.

Prawo Nowych Technologii w 2025 – co przyniesie nowy rok

W nowym, 2025 r. czeka nas szereg ważnych zmian w prawie nowych technologii. Począwszy od regulacji w zakresie AI i danych, poprzez cyberbezpieczeństwo, aż po sektor finansowy i usługi cyfrowe. Listujemy więc najważniejsze daty i przyglądamy się nadchodzącym przepisom, które zmienią technologiczny krajobraz prawny.

Prawo pracy w 2025 r.

Możliwość pracy na L4, wolna wigilia oraz uporządkowanie sytuacji rodziców wcześniaków, czyli uzupełniający urlop macierzyński. Sprawdzamy, jakie zmiany czekają nas w prawie pracy po Nowym Roku.

2024 zza Ukrainian Desku

Trzeci rok wojny, to jednocześnie trzeci rok odkąd nasz Ukranian Desk pracuje nad wsparciem ukraińskiej gospodarki oraz wzmocnieniem polsko-ukraińskich relacji. Podstawą tych działań są równowaga i dynamika. Tworzymy rozwiązania, które budują nie tylko biznes naszych klientów, ale też trwałe mosty porozumienia i fundamenty przyszłej, powojennej odbudowy.

Podatek u źródła – interpretacja Ministra Finansów i wątpliwości spółek

W listopadzie ukazały się dwie ważne ogólne interpretacje dotyczące podatku u źródła. Pierwsza dotyczy niektórych warunków zwolnienia dywidendowego, druga – warunków w zakresie odsetek i należności licencyjnych. Dodatkowo, do końca roku mają pojawić się objaśnienia podatkowe. Sprawdzamy, jak wyglądają interpretacje Ministerstwa i jakie mogą być ich konsekwencje.

Zapraszamy do kontaktu: