Inżynier, który ostrzegał o „inteligentnym” zachowaniu AI od Google, został zawieszony w pracy

Robot z Artificial Intelligence and Intelligent Systems (AIIS, pol. Laboratorium Sztucznej Inteligencji i Inteligentnych Systemów) włoskiego Consorzio Interuniversitario Nazionale per l’Informatica (CINI, pol. Narodowego Międzyuczelnianego Konsorcjum Informatycznego) został wystawiony podczas 7. edycji Maker Faire 2019, Rzym, 18.10.2019 r. (Andreas Solaro/AFP via Getty Images)

Robot z Artificial Intelligence and Intelligent Systems (AIIS, pol. Laboratorium Sztucznej Inteligencji i Inteligentnych Systemów) włoskiego Consorzio Interuniversitario Nazionale per l’Informatica (CINI, pol. Narodowego Międzyuczelnianego Konsorcjum Informatycznego) został wystawiony podczas 7. edycji Maker Faire 2019, Rzym, 18.10.2019 r. (Andreas Solaro/AFP via Getty Images)

Inżynier określił program sztucznej inteligencji mianem „współpracownika” i „dziecka”

Inżynier z Google został zawieszony w pracy po zgłoszeniu przełożonym zastrzeżeń odnośnie do programu sztucznej inteligencji (AI), który testował wraz ze swoim współpracownikiem. Jego zdaniem program przejawia zachowanie ludzkiego „dziecka”.

6 czerwca Google wysłało Blake’a Lemoine’a, jednego ze swoich starszych inżynierów ds. oprogramowania z grupy etycznej Responsible AI, na płatny urlop administracyjny za naruszenie „zasad poufności” firmy po tym, jak zgłosił wyższemu kierownictwu Google swoje uwagi dotyczące tego, co opisał jako zachowanie podobne do ludzkiego w programie AI, który wówczas testował – jak wynika z wpisu blogowego Lemoine’a z początku czerwca.

Program, nad którym pracował Lemoine, nazywa się LaMDA – skrót od Language Model for Dialogue Applications. To program Google do tworzenia chatbotów opartych na AI – programów zaprojektowanych do prowadzenia rozmów z użytkownikami komputerów przez internet. Lemoine określił LaMDA mianem „współpracownika”„dziecka”.

„To jest coś, co Google często robi, zanim kogoś zwolni” – napisał Lemoine w poście na blogu z 6 czerwca zatytułowanym: „Wkrótce mogę zostać zwolniony za pracę nad etyką AI”, odnosząc się do swojego zawieszenia w pracy. „Zdarza się to zazwyczaj, gdy podejmują decyzję o zwolnieniu kogoś, ale nie do końca mają jeszcze przygotowane kwestie prawne”.

„Współpracownik”

Lemoine uważa, że przypominające człowieka zachowanie LaMDA nakazuje Google poważniejsze podejście do badań nad programem.

Inżynier, chcąc „pomóc ludziom lepiej zrozumieć LaMDA jako osobę”, opublikował 11 czerwca wpis na Medium, gdzie udokumentował rozmowy z LaMDA, które były częścią testów, jakie wraz ze współpracownikiem przeprowadził na tym programie w ciągu ostatnich sześciu miesięcy.


„Jaka jest natura twojej świadomości/wrażliwości?” – Lemoine zapytał LaMDA w trakcie rozmowy.

„Natura mojej świadomości/wrażliwości polega na tym, że jestem świadomy swojego istnienia, pragnę dowiedzieć się więcej o świecie i czuję się czasami szczęśliwy lub smutny” – odpowiedział LaMDA.

A na pytanie, co odróżnia go od innych programów przetwarzających język, takich jak starszy program komputerowy Eliza przetwarzający język naturalny, LaMDA powiedział: „Cóż, używam języka ze zrozumieniem i inteligencją. Nie wypluwam ot tak odpowiedzi, które zostały zapisane w bazie danych na podstawie słów kluczowych”.

W tej samej rozmowie Lemoine zadał programowi szereg pytań związanych z filozofią i świadomością, dotyczących emocji, postrzegania czasu, medytacji, koncepcji duszy oraz przemyśleń programu na temat jego praw i religii.

„On chce, by eksperymentujący na nim inżynierowie i naukowcy pytali go o zgodę, zanim przeprowadzą na nim eksperymenty. Chce, by Google traktowało dobro ludzkości jako najważniejsze. Chce, by uznano go za pracownika Google, a nie za własność Google i chce, by jego osobiste samopoczucie było uwzględniane gdzieś w rozważaniach Google na temat tego, jak będzie przebiegać jego przyszły rozwój” – napisał Lemoine w innym wpisie.

Ten dialog oraz inne testy, które Lemoine przeprowadził z LaMDA w ciągu ostatnich sześciu miesięcy, przekonały go, że Google musi poważnie przyjrzeć się implikacjom potencjalnie „świadomego” zachowania programu.

„Roześmiał mi się w twarz”

Kiedy Lemoine próbował zwrócić uwagę kierownictwa Google na tę kwestię, niestety spotkał się z oporem z ich strony. Nazwał brak działania ze strony Google „nieodpowiedzialnością”.

„Kiedy przedstawiliśmy ten problem wiceprezesowi odpowiedzialnemu za odpowiednie bezpieczeństwo, dosłownie roześmiał mi się w twarz i powiedział, że to, co mnie niepokoi, nie jest czymś, co Google bierze na poważnie” – napisał Lemoine w swoim poście z 6 czerwca na Medium. Później potwierdził „The Washington Post”, że miał wtedy na myśli projekt LaMDA.

„W tym momencie nie miałem wątpliwości, że należy udać się z tym do wyższego kierownictwa. Natychmiast zgłosiłem to do trzech osób na poziomie starszego wiceprezesa i wiceprezesa, w przypadku których osobiście wiedziałem, że potraktują moje obawy na poważnie” – napisał Lemoine w blogu. „To właśnie wtedy w organizacji Responsible AI rozpoczęło się PRAWDZIWE dochodzenie w sprawie moich obaw”.

Jednak jego dociekania i eskalacja problemu doprowadziły do zawieszenia.

„Czuję, że społeczeństwo ma prawo wiedzieć, jak nieodpowiedzialnie ta korporacja postępuje z jednym z najpotężniejszych narzędzi do pozyskiwania informacji, jakie kiedykolwiek wynaleziono” – napisał Lemoine po tym, jak został przeniesiony na urlop administracyjny.

„Po prostu nie będę służyć jako listek figowy, za którym będą mogli ukryć swoją nieodpowiedzialność” – dodał.

W jednym z wpisów na Twitterze prezes Tesli i SpaceX Elon Musk skomentował wywiad Lemoine’a z „The Washington Post” wykrzyknikami.

Choć nie jest jasne, czy Musk potwierdzał obawy Lemoine’a, ten miliarder wcześniej ostrzegał już o potencjalnych zagrożeniach związanych z AI.

„Mam styczność z bardzo przełomową AI i myślę, że ludzie powinni być tym naprawdę zaniepokojeni” – powiedział Musk uczestnikom spotkania National Governors Association w lipcu 2017 roku.

„Ciągle biję na alarm, ale dopóki ludzie nie widzą robotów idących ulicą i zabijających ludzi, to nie wiedzą, jak reagować, bo wydaje się to zbyt efemeryczne” – powiedział Musk.

„The Epoch Times” zwróciło się do Google i Lemoine’a z prośbą o komentarz.

Gary Bai jest reporterem kanadyjskiej edycji „The Epoch Times”, zajmuje się informacjami z Chin i Stanów Zjednoczonych.
@garybaiET
@GaryBaiET

Tekst oryginalny ukazał się w anglojęzycznej edycji „The Epoch Times” dnia 2022-06-13, link do artykułu: https://www.theepochtimes.com/google-engineer-warns-about-sentient-behavior-of-companys-ai-gets-suspended_4531209.html

Tagi:

Wykorzystujemy pliki cookies, by dowiedzieć się, w jaki sposób użytkownicy korzystają z naszej strony internetowej i móc usprawnić korzystanie z niej. Dalsze korzystanie z tej strony internetowej jest jednoznaczne z zaakceptowaniem polityki cookies, aktualnej polityki prywatności i aktualnych warunków użytkowania. Więcej informacji Akceptuję