Zaznacz stronę

Stany Zjednoczone z pierwszą regulacją dotyczącą AI

16 listopada 2023 | Aktualności, Wiedza

USA wykonały istotny krok w kierunku uregulowania sztucznej inteligencji. Prezydent Joe Biden podpisał bowiem rozporządzenie wykonawcze (ang. executive order) w sprawie bezpiecznej i godnej zaufania sztucznej inteligencji, tym samym nakładając na sektor technologiczny z obszaru AI szereg obowiązków opartych na fundamencie przejrzystego i odpowiedzialnego rozwoju maszyn.

To podwaliny pod przyszłość, w której ludzie będą mogli bezpiecznie korzystać z ogromnego potencjału sztucznej inteligencji przy jednoczesnym ograniczeniu związanego z nią ryzyka.

Jak czytamy w komunikacie Białego Domu, rozporządzenie jest elementem długoterminowej strategii na rzecz odpowiedzialnych innowacji i opiera się na wcześniejszych działaniach podjętych przez prezydenta (który m.in. doprowadził do podjęcia przez czołowe spółki technologiczne dobrowolnych zobowiązań wspierania bezpiecznego i godnego zaufania rozwoju sztucznej inteligencji), a także licznych inicjatywach i regulacjach planowanych na najbliższą przyszłość.

Rozporządzenie wykonawcze w sprawie bezpiecznej i godnej zaufania sztucznej inteligencji

Jakie obowiązki zostaną nałożone na dostawców rozwiązań opartych na AI? Rozporządzenie, odnosząc się głównie do działań podejmowanych przez administrację rządową, reguluje stosunkowo wąski zakres zastosowań, wprowadzając m.in. nowe, rygorystyczne standardy bezpieczeństwa i ochrony AI oraz nakazując podjęcie konkretnych działań. Ich lista przedstawia się następująco:

  • Zobowiązanie deweloperów zaawansowanych systemów AI do dzielenia się wynikami testów bezpieczeństwa oraz innymi krytycznymi informacjami z rządem USA
  • Opracowanie standardów, narzędzi i testów, które pomogą zapewnić, że systemy sztucznej inteligencji będą bezpieczne i godne zaufania. Warto przy tym podkreślić, że określenie standardów dotyczących infrastruktury krytycznej, cyberbezpieczeństwa czy bezpieczeństwa radiologicznego i biologicznego to jak dotąd najbardziej znaczące działania podjęte w celu zwiększania bezpieczeństwa AI
  • Zapewnienie ochrony obywateli przed zagrożeniami oraz oszustwami związanymi ze sztuczną inteligencją poprzez ustanowienie standardów i najlepszych praktyk w zakresie treści generowanych przez AI i ich uwierzytelniania. Działania organów publicznych mają ułatwić Amerykanom upewnienie się, że informacje, które otrzymują od rządu są autentyczne – a jednocześnie stanowić przykład dla sektora prywatnego i rządów na całym świecie
  • Opracowanie nowych, rygorystycznych standardów badań przesiewowych w zakresie syntezy biologicznej w celu ochrony przed ryzykiem związanym z wykorzystaniem sztucznej inteligencji do tworzenia niebezpiecznych materiałów biologicznych. Ich spełnienie będzie warunkiem uzyskania finansowania federalnego projektów z zakresu nauk przyrodniczych
  • Wykorzystanie przełomowych możliwości cybernetycznych sztucznej inteligencji w celu zwiększenia bezpieczeństwa oprogramowania i sieci. W tym celu powstanie zaawansowany program cyberbezpieczeństwa służący opracowaniu narzędzi AI do znajdowania i naprawiania luk w oprogramowaniu krytycznym

Rozporządzenie nakazuje także opracowanie Memorandum Bezpieczeństwa Narodowego, które ukierunkuje dalsze działania w tym zakresie. Chodzi tu m. in. o zapewnienie bezpiecznego, etycznego i skutecznego wykorzystywania AI przez wojsko i wywiad USA oraz przeciwdziałanie wykorzystaniu sztucznej inteligencji przez obce służby.

Agencja ds. Zarządzania Ryzykiem Sektorowym

Istotną rolę w jednoczesnej analizie i minimalizowaniu ryzyka związanego z bezpieczeństwem wdrażania i stosowania rozwiązań opartych na sztucznej inteligencji ma odgrywać Agencja ds. Zarządzania Ryzykiem Sektorowym (w skrócie SRMA), oparta na 16 sektorach infrastruktury krytycznej.

Agencja będzie wspierać poszczególnych wchodzących w jej skład sekretarzy w tworzeniu narzędzi do oceny możliwości maszyn. Zadaniem urzędników będzie ujawnianie tych obszarów, które mogłyby stanowić zagrożenie m. in. dla sektora energii jądrowej, jak również zagrożenie biologiczne, chemiczne, infrastruktury krytycznej oraz bezpieczeństwa energetycznego.

Unia Europejska o ryzyku związanym ze sztuczną inteligencją

Takie podejście, podkreślające wagę analizy ryzyka oraz zarządzania ryzykiem dla egzekwowalności przepisów z zakresu AI,  jest obecne także chociażby w projekcie AI Act. Przypomnijmy, że unijna regulacja ma stworzyć cztery kategorie poziomów ryzyka w sztucznej inteligencji: niedopuszczalne, wysokie, ograniczone i minimalne.

Systemy, których wykorzystywanie zostanie skategoryzowane jako niedopuszczalne, będą całkowicie zakazane. Unijny prawodawca chce w ten sposób chronić szczególnie wrażliwe dane, np. biometryczne. Wykorzystywanie sztucznej inteligencji do skanowania ludzi w przestrzeni publicznej (czyli identyfikacji biometrycznej w czasie rzeczywistym) czy klasyfikowanie osób na podstawie ich indywidualnych cech będzie niedopuszczalne (poza wyjątkami przewidzianymi dla organów ścigania).

Społeczna odpowiedzialność AI

Co istotne, dokument administracji amerykańskiej kładzie nacisk na społeczną odpowiedzialność sztucznej inteligencji oraz jej rolę w działaniach antydyskryminacyjnych. Jak czytamy w komunikacie Białego Domu:

„Nieodpowiedzialne wykorzystanie sztucznej inteligencji może powodować i pogłębiać dyskryminację, uprzedzenia i inne nadużycia w wymiarze sprawiedliwości, opiece zdrowotnej i mieszkalnictwie”.

Dlatego ważne jest, aby sztuczna inteligencja zmniejszała nierówności społeczne i nie przyczyniała się do dyskryminacji. Rozporządzenie zawiera więc wytyczne dla systemów AI między innymi w obszarach mieszkalnictwa, pomocy społecznej, sądownictwa, edukacji czy rynku pracy.

Jeśli chodzi o ten ostatni, Biały Dom podkreśla nie tylko obietnicę poprawy produktywności, którą składają twórcy narzędzi opartych na sztucznej inteligencji, ale też przewiduje pojawienie się nowych problemów związanych np. ze zwiększonym nadzorem, przenoszeniem stanowisk czy zbieraniem i przetwarzaniem danych pracowników. Aby zawczasu zaradzić tym zagrożeniom, akt wykonawczy zawiera wytyczne dla federalnych agencji, które mają zapewnić pracownikom ochronę przed zaniżaniem wynagrodzeń, nierzetelnymi ocenami podań o pracę, jak również nieuprawnioną ingerencją w pracowniczą wolność do zrzeszania się. Na podstawie prezydenckiego rozporządzenia ma też powstać raport na temat potencjalnego wpływu AI na rynek pracy oraz studium o możliwościach wzmocnienia federalnego wsparcia dla pracowników borykających się z problemami spowodowanymi przez działania sztucznej inteligencji.

Konsekwencją nowych regulacji jest także szereg inicjatyw dotyczących działań rządowych i federalnych, w tym między innymi:

  • Opracowanie wytycznych dotyczących korzystania przez agencje rządowe ze sztucznej inteligencji, w tym jasnych standardów ochrony praw i bezpieczeństwa
  • Pomoc agencjom w szybszym, tańszym i skuteczniejszym nabywaniu określonych produktów i usług AI poprzez zwiększenie tempa zawierania umów czy zatrudniania specjalistów
  • Zapewnienie odpowiednich szkoleń dla pracowników wszystkich szczebli

USA chce być liderem rozwiązań technologicznych i przyciągać najlepszych

Z perspektywy europejskiego otoczenia legislacyjnego bardzo pozytywne wydaje się poświęcenie tak dużej uwagi wczesnemu uregulowaniu sposobów wykorzystywania generatywnej sztucznej inteligencji w sektorze publicznym, a docelowo także w prywatnym.

Jeśli chodzi o rozwój sztucznej inteligencji USA stawiają się w roli lidera zarówno w obszarze rozwiązań technologicznych, jak i w sferze regulacyjnej. Jest to podejście z pewnością odmienne od tego, jakie Stany Zjednoczone prezentowały do tej pory chociażby w odniesieniu do regulacji z obszaru ochrony danych osobowych czy szeroko pojętej prywatności.

Gwarantem zapewnienia obecnej pozycji lidera mają być przewidziane w rozporządzeniu rozwiązania pobudzające badania nad sztuczną inteligencją, takie jak:

  • Pilotażowy projekt National AI Research Resource, który udostępni kluczowe zasoby i dane naukowcom i studentom zajmującym się tym obszarem
  • Rozszerzone granty na badania nad AI w najbardziej wrażliwych sektorach, takich jak opieka zdrowotna czy klimat

Rozporządzenie ma za zadanie promować uczciwą konkurencję w rozrastającym się ekosystemie AI przez zapewnienie mniejszym przedsiębiorcom i programistom dostępu do odpowiedniej pomocy technicznej i zasobów – tak, aby mieli równe szanse w komercjalizacji przełomowych rozwiązań związanych ze sztuczną inteligencją. Wreszcie, akt wykonawczy przewiduje ułatwienia wizowe dla wysoko wyspecjalizowanych imigrantów. Procedura wizowa ma zostać odpowiednio unowocześniona, aby przyciągnąć do USA nowe rzesze pracowników i studentów związanych z AI.

Ochrona prywatności obywateli

Rozporządzenie zwraca uwagę na konieczność ochrony danych osobowych. Wykorzystanie możliwości sztucznej inteligencji powinno odbywać się przy jednoczesnym zastosowaniu rozwiniętych technik ochrony danych takich jak m.in. narzędzia kryptograficzne. Dokument podkreśla też potrzebę wzmocnienia i finansowania badań w celu przyspieszenia rozwoju technologii chroniącej prywatność.

Prezydent Biden zaapelował do Kongresu o przyspieszenie prac nad przepisami dotyczącymi ochrony prywatności wszystkich Amerykanów, w tym zwłaszcza dzieci. Niezbędne jest przy tym opracowanie odpowiednich wytycznych dla agencji federalnych w celu oceny skuteczności technik ochrony, sposobów gromadzenia i celów wykorzystywania danych osobowych. Jednocześnie prezydencka administracja podkreśla wagę współpracy międzynarodowej w tym zakresie.

Niezwykle istotne jest także wdrażanie sztucznej inteligencji w pracę nad globalnymi wyzwaniami, jak wspieranie zrównoważonego rozwoju i łagodzenie zagrożeń dla infrastruktury krytycznej.

Rewolucja Bidena w obszarze AI

Informacja o podpisaniu rozporządzenia odbiła się głośnym echem w mediach.

Nie brakuje głosów o tzw. rewolucji Bidena, wskazujących na przełomowy i pionierski charakter przyjętych rozwiązań. Eksperci w dziedzinie sztucznej inteligencji wskazują na słuszność i potrzebę przyjętych uregulowań, niekiedy wyrażając jednocześnie obawę o to, czy w wystarczający sposób uchronią one obywateli przed potencjalnie szkodliwymi działaniami AI.

Z drugiej strony nie brakuje głosów wskazujących na rygoryzm przyjętego podejścia. Nie powinien dziwić fakt, że niektórzy przedstawiciele branży upatrują w nowych regulacjach prób zahamowania technologicznych innowacji. W ubiegłym tygodniu w Bletchley Park odbył się globalny szczyt zorganizowany przez brytyjskiego premiera Rishiego Sunaka, na którym najważniejsze osoby ze świata władzy i nowych technologii debatowały nad koniecznością kontroli nad rozwojem sztucznej inteligencji. Dyskutanci, pomimo reprezentowania różnych grup interesów, zgodzili się co do samej istoty, tj. tego, że pozostawienie materii związanej z AI poza kontrolą publiczną stanowiłoby poważne ryzyko cywilizacyjne dla ludzkości, potencjalnie nawet o charakterze egzystencjalnym.

Dlatego uważnie śledzimy wszelkie zmiany regulacyjne na rynku AI i na bieżąco o nich informujemy.

Masz pytania? Skontaktuj się z nami

Natalia Kotłowska-Wochna

Monika Maćkowska-Morytz

Jan Ziomek

Najnowsza Wiedza

Odpowiedzialność członków zarządu

Odpowiedzialność członka zarządu jest zagadnieniem skomplikowanym i wieloaspektowym. Warto więc przyjrzeć się bliżej tym kwestiom, zwłaszcza w świetle ostatnich zmian.

SME Fund – Tomasz Szambelan akredytowanym wykonawcą usługi IP Scan

Tomasz Szambelan został wpisany na listę akredytowanych wykonawców IP Scan prowadzoną przez Urząd Patentowy RP. Usługa IP Scan jest częścią programu dotacji na zgłaszanie znaków towarowych, wzorów przemysłowych i wynalazków z europejskiego funduszu dla małych i średnich przedsiębiorstw SME Fund.

Zapraszamy do kontaktu:

Natalia Kotłowska-Wochna

Natalia Kotłowska-Wochna

Radca prawny / Head of New Tech M&A / NewTech / Szefowa biura w Poznaniu

+48 606 689 185

n.kotlowska@kochanski.pl

Jan Ziomek

Jan Ziomek

Adwokat / Partner, FinTech / Praktyka Sektorowa NewTech

+48 736 429 981

j.ziomek@kochanski.pl