Głosy znanych kanadyjskich dziennikarzy zostały wykorzystane bez ich wiedzy w reklamie gier hazardowych, stworzonej z wykorzystaniem sztucznej inteligencji. To pierwszy taki przypadek opisany w Kanadzie.
Na Facebooku pojawiła się kilka dni temu reklama, w której manipulowany przez AI wizerunek i głos znanej dziennikarki publicznego nadawcy Radio-Canada Anne-Marie Dussault informuje o aplikacji na telefony, umożliwiającej gry hazardowe zapewniające wygrane. Reklama przekierowywała na stronę nielicencjonowanego kasyna.
O sprawie napisał serwis informujący o nowościach technologicznych, prowadzony przez François Charrona, który zwrócił uwagę, że początek jest oszustwem, w które łatwo uwierzyć, jednak w dalszej części reklamy deepfake staje się mało wiarygodny. Istotnie, głos Dussault brzmi coraz bardziej mechanicznie.
„Mimo to ważną rzeczą jest rozumieć ten sposób działania ponieważ, niestety, to coś, co będziemy widzieli coraz częściej” – ostrzegł Charron. To samo internetowe kasyno w reklamach na Instagramie również wykorzystuje nielegalnie głos i wizerunek Dussault oraz głos Sébastiena Boveta, innego dziennikarza Radio-Canada, który jest m.in. szefem biura Radio-Canada przy parlamencie prowincji Quebec.
Dussault napisała na Twitterze, iż „pojawia się reklama, która przywłaszcza sobie moją tożsamość, dziękuję za powiadomienie, jeśli ją zobaczycie”.
Radio-Canada zwróciło uwagę w swoim materiale, że z początkiem br. dostępne stały się tanie narzędzia wykorzystujące AI, umożliwiające tworzenie fałszywych wypowiedzi, klonujących głos dowolnej osoby na podstawie zaledwie 1 minuty rzeczywistej wypowiedzi. Narzędzia te będą coraz doskonalsze, a osoby bez doświadczenia w ocenianiu nagrań będą miały coraz mniejsze szanse na odróżnienie deepfake’a od prawdziwych wypowiedzi. Meta, spółka matka Facebooka i Instagrama, nie odpowiedziała na pytania Radio-Canada.
W minionych tygodniach pojawiły się też doniesienia o klonowaniu głosów kanadyjskich aktorów bez ich zgody. Telewizja CTV cytowała aktora Billa Newtona, którego głos został bez jego wiedzy wykorzystany prawie 500 razy. „Nagle mogę zostać wykorzystany jako rzecznik sprawy, której moralnie się sprzeciwiam” – powiedział Newton. CTV przytoczyła wypowiedź profesora Patricka Parry Pennefathera z Uniwersytetu Kolumbii Brytyjskiej, który zwrócił uwagę na znaczenie prawa do wizerunku i głosu i konieczność istnienia odpowiednich rozwiązań prawnych.
Z Toronto Anna Lach, PAP.