ONZ ostrzega, że sztuczna inteligencja może nieść ze sobą „negatywne, a nawet katastrofalne” konsekwencje dla praw człowieka

iPal, inteligentne AI dla robotów służących do edukowania dzieci, prezentowane na stoisku AvatarMind na targach elektroniki użytkowej CES 2019 w Las Vegas Convention Center, Nevada, 8.01.2019 r. (Robyn Beck/AFP via Getty Images)

iPal, inteligentne AI dla robotów służących do edukowania dzieci, prezentowane na stoisku AvatarMind na targach elektroniki użytkowej CES 2019 w Las Vegas Convention Center, Nevada, 8.01.2019 r. (Robyn Beck/AFP via Getty Images)

Organizacja Narodów Zjednoczonych ostrzegła, że systemy sztucznej inteligencji (AI) mogą nieść ze sobą „negatywne, a nawet katastrofalne” konsekwencje dla praw człowieka i wezwała do zakazania aplikacji AI, które są używane niezgodnie z prawami człowieka.

15 września Wysoka Komisarz Narodów Zjednoczonych ds. Praw Człowieka Michelle Bachelet wezwała państwa członkowskie do wprowadzenia tymczasowego zakazu sprzedaży i stosowania AI, do czasu uwzględnienia stwarzanych przez nią potencjalnych zagrożeń i wprowadzenia odpowiednich zabezpieczeń zapewniających, że technologia ta nie będzie nadużywana.

„Nie możemy pozwolić sobie na kontynuowanie zabawy w kotka i myszkę odnośnie do AI – dopuszczając używanie jej z niewielkimi lub żadnymi granicami czy nadzorem, zaś niemal nieuniknionymi konsekwencjami dla praw człowieka zajmować się dopiero po fakcie” – powiedziała Bachelet w oświadczeniu.

„Możliwości AI do służenia ludziom są niezaprzeczalne, ale takie same są zdolności AI do wspomagania naruszeń praw człowieka na ogromną skalę, praktycznie bez żadnego rozgłosu. Już teraz należy podjąć działania, aby dla dobra nas wszystkich nałożyć na używanie AI ograniczenia w kontekście praw człowieka” – dodała Bachelet.

Uwagi Wysokiej Komisarz ds. Praw Człowieka pojawiły się wkrótce po opublikowaniu przez jej biuro raportu, w którym przeanalizowano, jak AI wpływa na prawo ludzi do prywatności, a także na szereg innych praw dotyczących m.in. zdrowia, edukacji, swobody poruszania się i wolności słowa.

W dokumencie tym zawarto analizę profilowania, zautomatyzowanego podejmowania decyzji i innych technologii uczenia maszynowego.

W raporcie zauważono, że AI może być wykorzystywana do dobrych celów i może pomóc „społeczeństwom przezwyciężyć niektóre z wielkich wyzwań naszych czasów”, jednak jej użycie jako narzędzia do prognozowania i profilowania może drastycznie wpłynąć na „prawo do prywatności, do sprawiedliwego procesu, do ochrony przed bezpodstawnym aresztowaniem i zatrzymaniem oraz na prawo do życia”.

Według autorów raportu, liczne państwa i firmy często nie wykazują się należytą starannością podczas pospiesznego wprowadzania aplikacji AI i w niektórych przypadkach doprowadziło to do niebezpiecznych pomyłek, kiedy to pewne osoby zostały potraktowane w sposób niewłaściwy, a nawet zostały aresztowane z powodu wadliwego oprogramowania do rozpoznawania twarzy.

Tymczasem rozpoznawanie twarzy może potencjalnie pozwolić na nieograniczone śledzenie osób, co z kolei może prowadzić do szeregu problemów związanych z dyskryminacją i ochroną danych.

Robot AI firmy CloudMinds prezentowany podczas Mobile World Conference w Szanghaju, 27.06.2018 r. (-/AFP/Getty Images)

Robot AI firmy CloudMinds prezentowany podczas Mobile World Conference w Szanghaju, 27.06.2018 r. (-/AFP/Getty Images)

Zwiedzający oglądają system AI inteligentnego miasta firmy iFLY podczas targów 2018 International Intelligent Transportation Industry Expo w Hangzhou, prowincja Zhejiang na wschodzie Chin, grudzień 2018 r. (STR/AFP/Getty Images)

Zwiedzający oglądają system AI inteligentnego miasta firmy iFLY podczas targów 2018 International Intelligent Transportation Industry Expo w Hangzhou, prowincja Zhejiang na wschodzie Chin, grudzień 2018 r. (STR/AFP/Getty Images)

Wiele systemów AI opiera się na dużych zbiorach danych, dlatego kwestie związane z przechowywaniem tych danych w długim okresie również stwarzają ryzyko i istnieje prawdopodobieństwo, że w przyszłości takie dane zostaną wykorzystane w sposób stwarzający znaczące zagrożenia dla bezpieczeństwa narodowego.

„Złożoność środowiska danych, algorytmów i modeli leżących u podstaw rozwoju i działania systemów AI, a także celowe utajnianie danych przez podmioty rządowe i prywatne, to czynniki, które utrudniają ludziom w zrozumiały sposób pojąć, jak systemy AI oddziałują na prawa człowieka i społeczeństwo” – czytamy w raporcie.

Tim Engelhardt, urzędnik z Sekcji Praworządności i Demokracji (ang. Rule of Law and Democracy Section; sekcja biura Wysokiej Komisarz Narodów Zjednoczonych ds. Praw Człowieka – przyp. redakcji), ostrzegł, że sytuacja jest „tragiczna” i że z biegiem lat tylko się pogarsza, ponieważ niektóre kraje i firmy stosują aplikacje AI, przy czym nie badają wielu potencjalnych zagrożeń związanych z tą technologią.

Choć z zadowoleniem przyjął porozumienie UE w sprawie „wzmocnienia zasad kontroli”, to zauważył, że rozwiązanie niezliczonych kwestii związanych z AI nie nadejdzie w ciągu najbliższego roku i że pierwsze kroki w tej sprawie muszą zostać podjęte już teraz albo „wielu ludzi na świecie zapłaci wysoką cenę”.

„Im większe ryzyko dla praw człowieka, tym surowsze powinny być wymogi prawne dotyczące wykorzystania technologii AI” – dodała Bachelet.

Raport i komentarze Bachelet pojawiły się po lipcowych doniesieniach na temat oprogramowania szpiegowskiego, znanego pod nazwą Pegasus, które zostało wykorzystane do zhakowania smartfonów tysięcy osób na całym świecie, w tym dziennikarzy, urzędników państwowych i działaczy ds. praw człowieka.

Telefon francuskiego ministra finansów Brunona Le Maire’a był jednym z wielu, które przebadano w związku z włamaniem za pomocą tego oprogramowania szpiegującego, opracowanego przez izraelską firmę NSO Group.

NSO Group wydała oświadczenie, w którym nie odniosła się do zarzutów, ale stwierdziła, że będzie „nadal dostarczać agencjom wywiadowczym i organom ścigania na całym świecie technologie ratujące życie, by walczyć z terroryzmem i przestępczością”.

Bachelet, przemawiając na posiedzeniu Rady Europy w sprawie implikacji dotyczących kontrowersyjnego oprogramowania szpiegowskiego Pegasus, powiedziała, że te informacje nie są zaskoczeniem, biorąc pod uwagę „bezprecedensowy poziom inwigilacji na całym świecie przez podmioty państwowe i prywatne”.

Katabella Roberts jest reporterką mieszkającą obecnie w Turcji. Dla „The Epoch Times” relacjonuje najnowsze wiadomości i zagadnienia z dziedziny biznesu, skupiając się głównie na Stanach Zjednoczonych.

Tekst oryginalny ukazał się w anglojęzycznej edycji „The Epoch Times” dnia 2021-09-17, link do artykułu: https://www.theepochtimes.com/un-warns-artificial-intelligence-may-pose-negative-even-catastrophic-threat-to-human-rights_4002207.html

Tagi:

Wykorzystujemy pliki cookies, by dowiedzieć się, w jaki sposób użytkownicy korzystają z naszej strony internetowej i móc usprawnić korzystanie z niej. Dalsze korzystanie z tej strony internetowej jest jednoznaczne z zaakceptowaniem polityki cookies, aktualnej polityki prywatności i aktualnych warunków użytkowania. Więcej informacji Akceptuję