Ekspert: Boty mają coraz większy wpływ na politykę i gospodarkę

Dynamiczny rozwój sztucznej inteligencji (AI) sprawia, że coraz częściej boty pozorują ludzi, próbują narzucić treści, sposób rozumowania i wpływać na decyzje podejmowane przez ludzi w świecie rzeczywistym (Free-Photos / <a href="https://pixabay.com/pl/pracy-wpisuj%C4%85c-komputer-notatnik-731198/">Pixabay</a>)

Dynamiczny rozwój sztucznej inteligencji (AI) sprawia, że coraz częściej boty pozorują ludzi, próbują narzucić treści, sposób rozumowania i wpływać na decyzje podejmowane przez ludzi w świecie rzeczywistym (Free-Photos / Pixabay)

Boty, które miały służyć firmom m.in. do utrzymania stałego połączenia z otoczeniem i rozwiązywania problemów klientów, coraz częściej służą do tworzenia fałszywej treści w sieci, m.in. fake newsów czy astroturfingu, czyli kreowania sztucznego zainteresowania – mówi PAP dr Artur Modliński z UŁ.

Zdaniem dra Artura Modlińskiego z Katedry Zarządzania Uniwersytetu Łódzkiego można zaobserwować coraz większą aktywność botów zarówno w polityce, jak i w przestrzeni organizacji i współczesnej gospodarki.

Chatboty to programy komputerowe, które mają na celu prowadzenie rozmowy i np. rozwiązywanie problemów klientów, przyjmowanie ich skarg. Ma to ograniczać koszty firm oraz wyeliminować błędy spowodowane czynnikami emocjonalnymi.

Jednak dynamiczny rozwój sztucznej inteligencji (AI) sprawia, że coraz częściej boty pozorują ludzi, próbują narzucić treści, sposób rozumowania i wpływać na decyzje podejmowane przez ludzi w świecie rzeczywistym. Są aktywnie wykorzystywane w mediach społecznościowych, w polityce czy w biznesie.

– Sztuczna inteligencja np. zbiera informacje, a boty próbują wpływać na naszą rzeczywistość, zarówno jeżeli chodzi np. o oddawanie głosów w trakcie wyborów, ocenę firm czy kampanii marketingowych, poprzez chociażby komunikowanie się z innymi użytkownikami internetu – zaznaczył dr Modliński.

Jego zdaniem w tym przypadku obserwowane są trzy główne trendy. Przede wszystkim są to fake newsy, czyli nieprawdziwe informacje rozprzestrzeniające się w sieci, które mogą wpływać na to, w jaki sposób rozumujemy i podejmujemy decyzje.

– Mamy do czynienia także z astroturfingiem, czyli sytuacją, w której zakłada się sztuczne konta np. w mediach społecznościowych i przekonuje się konsumentów bądź wyborców do tego, aby podjęli odpowiednie decyzje, skrytykowali bądź poparli pomysł, który pojawił się w organizacji czy wśród polityków – dodał ekspert. To sprawia zaś, że niektóre idee zyskują w sieci znacznie wyższe poparcie społeczne niż w realnym świecie.

Równie szybko rozwija się trend deepfake’ów, czyli sfałszowanych filmów, w których podkładany jest głos lub wizerunek np. polityków czy manadżerów firm. Tak spreparowany i udostępniony w sieci film, zawierający sfałszowany przekaz, może wywołać u użytkowników sieci wrażenie, że informacja jest prawdziwa, a to z kolei prowadzić może do kryzysu organizacyjnego.

Każdy taki kryzys może mieć wpływ na to, w jaki sposób podejmujemy decyzje np. na giełdach czy chociażby jakie produkty kupujemy – ocenił dr Modliński.

AI i boty mogą mieć duży wpływ także na gospodarkę. Przede wszystkim w obszarze giełdowym. Zdaniem eksperta, inwestorzy mogą bowiem kierować się tzw. informacjami spekulacyjnymi pochodzącymi wprost od botów i w związku z tym podejmować na tyle nietrafione decyzje, że mogą narazić zarówno ich przedsiębiorstwa, jaki i gospodarkę całych krajów na poważne, negatywne konsekwencje.

– W związku z tym sama działalność botów i sztucznej inteligencji może też wpływać na częstotliwość kryzysów gospodarczych, kryzysów samych organizacji i na jeszcze większą dynamikę pewnych negatywnych procesów w gospodarce, m.in. plajtowania, tracenia na wartości, a nawet problemów w zakresie poszukiwania wartościowych pracowników – zaznaczył dr Modliński.

Boty mogą być przyczyną kryzysów firm przede wszystkim w mediach społecznościowych, ponieważ sztucznie generowane informacje mogą wpływać na decyzje konsumentów, skłaniając ich np. do bojkotu i zaniechania konsumpcji pewnych produktów i skutecznie zniechęcać ich w dłuższym okresie do korzystania z usług danej firmy.

Jak chronić się przed botami? Już w tej chwili – zdaniem eksperta – jest wiele programów, które mogą służyć odbiorcom do weryfikacji różnego rodzaju informacji. Są to np. strony bazujące na tzw. Knowledge-Based Trust. Dzięki nim poprzez specjalne algorytmy można sprawdzić, czy link do danej strony jest wiarygodny, czy są to sztuczne, czy prawdziwe informacje.

– Z drugiej strony same media społecznościowe wygenerowały specjalne algorytmy tzw. honeypoty mające udaremniać boty, które bardzo często udostępniają informacje znajdowane w sieci, np. tweety bądź posty. W sytuacji, kiedy wrzuca się tzw. nierozpoznawalne tweety czy posty i są one udostępniane przez innych użytkowników, istnieje bardzo duża szansa, że są to tzw. sztuczne konta i media społecznościowe starają się je likwidować – wyjaśnił.

Zdaniem dra Modlińskiego, w związku z coraz dynamiczniejszym rozwojem sztucznej inteligencji rozpoznanie botów i efektów ich działalności staje się coraz większym wyzwaniem zarówno dla samych organizacji czy polityków, jak i dla ich otoczenia.

– W przypadku części światowych mocarstw mamy do czynienia już z tzw. armiami botów, które próbują w jedną lub drugą stronę walczyć z różnego rodzaju zjawiskami, zarówno pozytywnie, jak i negatywnie ocenianymi – dodał.

Jak podkreślił, trzeba sobie uświadomić, że skoro szacuje się, że na Twitterze już 20 proc. kont, to konta botowe, czyli nieprawdziwe, to mamy do czynienia z „polem walki”.

– Ludzie nie wiedzą, w jakie informacje wierzyć, co jest wiarygodne, a co nie. To zdecydowanie ma negatywny wpływ na to, jak żyjemy w naszym rzeczywistym świecie. W przyszłości prawdopodobnie ta walka, to negatywne zjawisko, będzie dalej rozwijało się w tę stronę, że każdy będzie próbował znaleźć rozwiązanie dla siebie. Jedni będą chronić swoją organizację, a niektórzy także napędzać negatywne kampanie, starając się dyskredytować przeciwnika – podsumował dr Artur Modliński z UŁ.

Autor: Kamil Szubański, PAP.

Tagi:

Wykorzystujemy pliki cookies, by dowiedzieć się, w jaki sposób użytkownicy korzystają z naszej strony internetowej i móc usprawnić korzystanie z niej. Dalsze korzystanie z tej strony internetowej jest jednoznaczne z zaakceptowaniem polityki cookies, aktualnej polityki prywatności i aktualnych warunków użytkowania. Więcej informacji Akceptuję