Zaznacz stronę

Nowe zasady odpowiedzialności za sztuczną inteligencję w Unii Europejskiej

2 listopada 2022 | Aktualności, Wiedza

W UE sporo się dzieje wokół Sztucznej Inteligencji

Sztuczna inteligencja (AI) zajmuje centralne miejsce w unijnej strategii tworzenia jednolitego rynku cyfrowego. W związku z tym od kilku lat pojawia się wiele unijnych dokumentów prawnych, jak Biała Księga AI z lutego 2020 r. czy rezolucje Parlamentu UE dotyczące etyki, odpowiedzialności i praw własności intelektualnej z października 2020 r.

W kwietniu 2021 r. Komisja Europejska przedstawiła rewolucyjny projekt rozporządzenia o AI (Artificial Intelligence Act), kładący podwaliny pod ramy prawne korzystania z AI na terytorium Unii Europejskiej. Prace legislacyjne dotyczące AI Act są już w zaawansowanym stadium i dokument lada moment powinien wejść w życie.

Odpowiedzialność cywilna a działania Sztucznej Inteligencji

Od dłuższego czasu Unia pracuje także nad kwestią uregulowania odpowiedzialności cywilnej w kontekście AI. Kilka lat temu Parlament UE przygotował wniosek rozporządzenia w tej sprawie, jednak projekt się „nie przyjął”.

Rozporządzenie obowiązuje wprost, w ten sam sposób, w każdym państwie członkowskim. A systemy odpowiedzialności cywilnej bardzo istotnie różnią się w poszczególnych krajach Unii. Do części z nich (w tym polskiego) proponowana treść rozporządzenia kompletnie nie pasowała. Dużo lepszą formą regulowania przez Unię obszaru odpowiedzialności jest więc dyrektywa (która wyznacza pewne standardy i mechanizmy, które każdy kraj musi zaimplementować w stosowny dla swojego prawa sposób). Właśnie po ten mechanizm sięgnięto tym razem.

28 września 2022 roku Komisja Europejska przyjęła dwa wnioski prowadzące do uregulowania odpowiedzialności za działalność AI. Pierwszy dotyczy unowocześnienia obowiązujących przepisów w zakresie odpowiedzialności producentów za produkty niebezpieczne na zasadzie ryzyka. W drugim Komisja proponuje nową, odrębną dyrektywę dotyczącą odpowiedzialności za sztuczną inteligencję.

Dyrektywa odpowiedzialności za Sztuczną Inteligencję AILD

Dyrektywa o odpowiedzialności za AI (z angielskiego: AILD) już w swojej nazwie wskazuje, że dotyczy odpowiedzialności pozakontraktowej (non-contractual liability).

Mówiąc po prawniczo-polsku, reguluje przede wszystkim odpowiedzialność deliktową. Czyli, jeszcze bardziej upraszczając, odpowiedzialność za szkody powstałe w wyniku losowych zdarzeń czy incydentów między podmiotami, których nie wiązała umowa. Jest to potrzebne w sytuacji, w której, realnie, jesteśmy otaczani przez AI.

Jakie więc delikty może nam wyrządzić AI? Autonomiczny samochód uderza pieszego na pasach. Dron sterowany AI niszczy wiezioną paczkę zrzucając ją ze zbyt wysoka. System AI obsługujący windykację firmy błędnie identyfikuje zadłużonego i blokuje mu dostęp do usług. System AI do generowania indywidualnie dobranych leków każe nam zaaplikować lek, który powoduje uszczerbek na zdrowiu. Przykłady można mnożyć. W każdym razie AILD reguluje odpowiedzialność właśnie w tego typu przypadkach.

Nie reguluje natomiast odpowiedzialności kontraktowej. Czyli, przykładowo, jeśli organizacja kupuje od dostawcy IT system AI i ten system zawodzi, to (co do zasady) nie ma czego szukać w AILD. Musi wtedy sięgnąć do dobrze napisanej umowy, przygotowanej przez prawnika rozumiejącego materię AI.

Domniemanie związku przyczynowego rdzeniem AILD

Fundamentalnym elementem AILD jest jej artykuł 4. Zgodnie z jego treścią (oczywiście przy zajściu kilku szczegółowych przesłanek), w razie wniesienia przez poszkodowanego pozwu do sądu o odszkodowanie w przypadku wyrządzenia mu szkody przez AI, sąd ma domniemywać związek przyczynowy między winą pozwanego korzystającego z AI a działaniem lub brakiem działania AI powodującym szkodę. Zatem, nieco upraszczając, to podmiot korzystający z AI ma wykazać, że nie powinien ponosić odpowiedzialności za szkodę wyrządzoną przez jego AI, a nie odwrotnie (gdyż dla osoby poszkodowanej jest to zbyt skomplikowane lub zbyt kosztowne).

AILD wprowadza ułatwienie dowodzenia dla poszkodowanych

Sądy rozpoznające sprawy odszkodowawcze dotyczące AI będą uprawnione do nakazania pozwanemu ujawnienia odpowiednich dowodów, nawet jeśli poszkodowany (powód) nie wnioskował o ich ujawnienie, czy w ogóle nie zdawał sobie sprawy z ich istnienia.

Naczelnym celem AILD jest maksymalne ułatwienie dochodzenia odszkodowań przez „zwykłych ludzi” dotkniętych nieprawidłowym działaniem AI wykorzystywanej przez przedsiębiorców, w tym duże korporacje. To beneficjenci działania sztucznej inteligencji mają wykazywać, że to nie błędy ich rozwiązań doprowadziły do powstania szkody.

Co godne uwagi, AILD wprowadza regulacje bezpośrednio w nawiązaniu do AI Act. Opiera się na tej samej siatce pojęć. Różnicuje kwestie związane z odpowiedzialnością w zależności od tego, z jakim rodzajem ryzyka korzystania z systemu mamy do czynienia (systemy AI wysokiego ryzyka vs ryzyka innego niż wysokie).

I tak w stosunku do systemów sztucznej inteligencji, które nie są systemami wysokiego ryzyka, domniemanie ma zastosowanie tylko wtedy, gdy sąd uzna, że udowodnienie przez powoda związku przyczynowego jest nadmiernie trudne. Natomiast w systemach sztucznej inteligencji wysokiego ryzyka pojawia się pięć wymogów; tylko jeżeli którykolwiek nie został spełniony, można uznać, że przesłanka wykazania winy jest spełniona.

Co dalej?

Wnioski Komisji muszą teraz zostać przyjęte przez Parlament Europejski i Radę. Opublikowanie projektów aktów prawnych przez Komisję otworzy dyskusje na płaszczyźnie unijnej i krajowej, które powinny doprowadzić do jak najlepszego dopasowania rozwiązań legislacyjnych do „życia”.

Masz pytania? Skontaktuj się z autorami

Piotr Kaniewski

Paulina Perkowska

Najnowsza Wiedza

Zapraszamy do kontaktu: