Sztuczna inteligencja (AI) przenika każdy aspekt naszego życia – od codziennej komunikacji po globalne systemy bezpieczeństwa. Zainteresowanie największych państw zagadnieniami sztucznej inteligencji w dobie transformacji cyfrowej nie jest przypadkowe – odzwierciedla rosnącą świadomość, że AI jest nie tylko przełomem technologicznym, ale i katalizatorem zmian w wielu obszarach życia społecznego i gospodarczego. Pokazują to ostatnie wydarzenia, takie jak AI Safety Summit czy rezolucje dotyczące zaawansowanych systemów AI przyjęte przez Grupę G7 w Hiroszimie. Potwierdzeniem tego trendu są także intensywne prace nad regulacjami, m.in. nad procedowanym od dłuższego czasu AI ACT.
Światowi liderzy mówią jednym głosem o ryzyku związanym ze sztuczną inteligencją
W ostatnim czasie, Grupa G7 opublikowała dwa dokumenty mające na celu zharmonizowanie podejścia do zaawansowanych systemów AI: „Guiding Principles for Organizations Developing Advanced AI Systems” oraz „Code of Conduct for Organizations Developing Advanced AI Systems”.
Stanowisko wypracowane w ramach grupy opiera się na jedenastu fundamentalnych zasadach, które podkreślają:
- Potrzebę identyfikacji i ograniczenia ryzyka związanego z AI
- Transparentności słabych punktów sztucznej inteligencji
- Raportowania incydentów
- Inwestycji w cyberbezpieczeństwo oraz
- Ochrony danych osobowych i praw własności intelektualnej
Z kolei na początku listopada, w Wielkiej Brytanii odbył się AI Safety Summit 2023, który zgromadził polityków, przedstawicieli wiodących firm AI, organizacji społecznych oraz badaczy z prawie 30 krajów Europy i świata.
Eksperci dyskutowali na temat zagrożeń związanych ze sztuczną inteligencją i sposobów, które dzięki skoordynowaniu działań na szczeblu międzynarodowym skutecznie łagodziłyby ich skutki.
Uczestnicy szczytu przyjęli również tzw. Bletchley Declaration, w której podkreśli pilną potrzebę identyfikacji oraz zarządzania zagrożeniami związanymi z AI. W dokumencie zwrócono uwagę na znaczenie bezpieczeństwa, przejrzystości, odpowiedzialności oraz ochrony prywatności w kontekście sztucznej inteligencji. Deklaracja podkreśla również konieczność międzynarodowej współpracy w celu zminimalizowania ryzyka oraz wykorzystania potencjału AI dla dobra publicznego, zgodnie z celami zrównoważonego rozwoju ONZ.
Organizatorzy, którym szczególnie zależy na dalszym rozwoju globalnego dialogu i prowadzenia konkretnych prac nad bezpieczeństwem sztucznej inteligencji zapowiadają kolejne spotkania i wydarzenia poświęcone tej tematyce.
Unia Europejska zapowiada uregulowanie sztucznej inteligencji
Tymczasem w Unii Europejskiej prace nad regulacją dotyczącą AI, znaną jako AI Act, zbliżają się do krytycznego momentu.
Po ostatnich negocjacjach, które skupiły się na kwestii klasyfikacji systemów wysokiego ryzyka w AI, w grudniu planowane jest kolejne spotkanie, na którym może zapaść ostateczna decyzja dotycząca kształtu rozporządzenia.
Dyskusja ma dotyczyć m.in. wykorzystania AI przez organy ścigania, zakazanych praktyk wykorzystania sztucznej inteligencji, a także potencjalnego wpływu na podstawowe prawa człowieka i środowisko.
Kontrowersje wzbudza temat zdalnej identyfikacji biometrycznej a stanowiska poszczególnych stron negocjacji wciąż pozostają rozbieżne.
Jakie aspekty AI wymagają szczególnej uwagi
Analiza dotychczasowych prac nad AI ACT wskazuje na kilka kluczowych obszarów takich jak:
- Odpowiedzialność za decyzje podejmowane przez systemy AI
- Przejrzystość i wyjaśnialność algorytmów
- Ochrona danych i prywatności
W ostatnim czasie na pierwszy plan wysuwa się jednak kwestia bezpieczeństwa, co znajduje odzwierciedlenie w rozporządzeniu wykonawczym (executive order) wydanym przez Prezydenta USA Joe Bidena.
Rozporządzenie to zakłada m.in. stworzenie nowych standardów bezpieczeństwa, które nakładają na firmy tworzące systemy AI bezwarunkowy obowiązek dzielenia się z amerykańskim rządem wynikami testów bezpieczeństwa.
Decyzje, które zapadną w najbliższych tygodniach, będą miały znaczący wpływ na globalne podejście do technologii oraz na przyszłe kierunki rozwoju AI.
Deklaracja z Bletchley, ustalenia Grupy G7 oraz rozporządzenie rządu amerykańskiego pokazują, że bezpieczeństwo jest integralną częścią procesu innowacji, a najistotniejszym aspektem, który wyłania się w toku prac i dyskusji nad sztuczną inteligencją jest potrzeba zrównoważonego podejścia do nowych technologii. Z jednej strony promującego rozwój i wdrażanie nowości, a z drugiej dbającego o bezpieczeństwo oraz jej etyczne, społeczne i prawne aspekty.
Masz pytania? Skontaktuj się z nami