Zbliżające się wybory w ponad 50 krajach, w tym w USA i w Polsce, zachęcą twórców szkodliwych treści do wzmożonego działania z wykorzystaniem sztucznej inteligencji. Najwięcej deepfake’ów prawdopodobnie powstanie latem tego roku. Analitycy sprawdzili, jakie miejsca w cyfrowym świecie są swoistymi inkubatorami dla działań „złych aktorów”, i sporządzili ich mapę. To małe platformy są głównym źródłem powstawania i rozpowszechniania szkodliwych treści. W tym kontekście unijny Akt o usługach cyfrowych można ocenić jako nietrafiony, bo takie małe platformy będą praktycznie poza kontrolą przepisów. Naukowcy sugerują podejmowanie w walce z tym zjawiskiem działań opartych na realistycznych scenariuszach, a całkowite jego wyeliminowanie do takich nie należy. Dlatego lepiej ograniczać skutki dezinformacji.
– Wszyscy mówią o tym, co może osiągnąć sztuczna inteligencja działająca bez kontroli w mediach społecznościowych. Biorąc pod uwagę zagrożenia i tzw. bad actors, czyli „złych aktorów”, oraz wybory, które mają się odbyć w tym roku w wielu krajach, również w Polsce, prawdopodobnie także w Wielkiej Brytanii, a z pewnością w USA i Indiach – głosować będą łącznie 3 mld ludzi – mamy do czynienia z problemem fake newsów i dezinformacji w internecie. Można się zastanawiać, co może pójść nie tak przy wykorzystaniu sztucznej inteligencji i jej możliwości działania przez całą dobę bez ograniczeń co do prędkości, potencjału i zdolności do tworzenia nowych rzeczy w sposób przypominający działania człowieka. Oczywiście wiele może pójść nie tak – mówi w wywiadzie dla agencji Newseria Innowacje prof. Neil Johnson, fizyk z Uniwersytetu Jerzego Waszyngtona, prowadzący Dynamic Online Networks Laboratory, zajmujące się mapowaniem internetu.
Problem zagrożeń, jakie niesie niekontrolowane wykorzystywanie sztucznej inteligencji, został już zauważony przez Unię Europejską. Jednym z narzędzi, które ma służyć kontroli tego zjawiska, jest Akt o usługach cyfrowych (DSA) wchodzący w życie 17 lutego. To tzw. konstytucja internetu, czyli zbiór ogólnounijnych przepisów dotyczących usług cyfrowych, podmiotów działających jako pośrednicy dla konsumentów oraz towarów, usług i treści. Celem wprowadzenia DSA ma być zbudowanie bezpieczniejszego i bardziej sprawiedliwego świata online. W stosunku do największych platform internetowych przepisy zaczęły obowiązywać już w sierpniu ub.r.
To właśnie na różnego typu platformy nowe przepisy nakładają najwięcej obowiązków. Dotyczy to m.in. ich roli w ułatwianiu użytkownikom rozpowszechniania fałszywych, nielegalnych i szkodliwych treści czy dokonywania oszustw w zakresie handlu elektronicznego. W ostatnich latach platformy stały się bowiem najważniejszym miejscem wymiany informacji i poglądów, z którego czerpią setki milionów, a nawet miliardów użytkowników na całym świecie.
Problem polega jednak na tym, że brakuje chociażby jednoznacznych kryteriów, które oznaczałyby to, kiedy zaczynamy mieć do czynienia ze szkodliwą treścią.
– Wszystkie dyskusje nad kierunkami polityki, często prowadzone przez same platformy, które dysponują wiedzą jedynie o sobie, zawsze są oparte na niejednoznacznych kryteriach opisowych odnoszących się do „złych” podmiotów w sieci – zauważa prof. Neil Johnson. – Nasze badanie miało na celu zidentyfikowanie, gdzie kryją się te zagrożenia, gdzie działają szkodliwe podmioty i gdzie są ich społeczności. Wyobraźmy sobie, że chcemy rozwiązać problem związany z ruchem drogowym w Londynie, Nowym Jorku, Warszawie – jak to zrobimy, jeśli nie mamy mapy miasta?
Badacze postanowili więc przeprowadzić ilościową analizę naukową, która miała przewidzieć, w jaki sposób te podmioty będą nadużywać sztucznej inteligencji na całym świecie.
– Jest to pierwsze badanie, w którym przyjrzeliśmy się liczbom i lokalizacji aktywności sztucznej inteligencji na większą skalę. Jeśli obejrzymy nagranie dowolnej dyskusji z udziałem polityków w USA, Europie, Wielkiej Brytanii na temat internetu i sztucznej inteligencji, te dyskusje są mało konkretne i wydaje się, że politycy nie do końca rozumieją, co się dzieje, i nie winię ich za to – próby zgłębienia tej kwestii zajęły mi całe życie, a oni mają dwie godziny, żeby zapoznać się z tematem. Problem jednak polega na tym, że to oni podejmują decyzje – mówi fizyk z Uniwersytetu Jerzego Waszyngtona. – Sztuczna inteligencja w połączeniu z internetem wszystko zmieni, ponieważ jest to nowa technologia stale dostępna od ręki dla wszystkich na całym świecie. Pierwsze badanie na ten temat jest ważne. Byliśmy zaskoczeni, że nikt wcześniej nie zajął się tym zagadnieniem.
Na początek badacze wytypowali kilka podmiotów, które można było sklasyfikować jako „złych aktorów”. Sprawdzili ich powiązania, odbiorców i ich przyjaciół, a następnie stworzyli ich mapę.
– Oczekiwaliśmy, że przez analogię do miasta wszyscy dobrzy ludzie mieszkają w centrum, pośrodku mamy liczną populację, a wszystko, co podejrzane, dzieje się na obrzeżach. Uzyskaliśmy jednak wyniki przeciwne do tego założenia. Obok istnienia dużych platform, takich jak Facebook, X (poprzednio Twitter) czy TikTok, czyli głównych platform zrzeszających ogromne liczby ludzi należących do społeczności skupionych wokół na przykład rodzicielstwa lub ulubionych potraw, są społeczności najczęściej istniejące na mniejszych platformach, połączonych z tymi dużymi. Razem z pozostałymi tworzą one cały ekosystem, w którym sztuczna inteligencja na usługach szkodliwych podmiotów może działać swobodnie – wyjaśnia badacz Dynamic Online Networks Laboratory. – Dwa–trzy miliardy osób na świecie należy do społeczności, na przykład wielbicieli pizzy czy rodziców.
Okazało się, że największe platformy co prawda mają największe znaczenie pod względem potencjalnych szkód, ale już nie pod względem tego, gdzie taka sztuczna inteligencja powstanie oraz gdzie będą działać społeczności „złych aktorów”, szerzących rasizm, nienawiść, skierowanych przeciwko kobietom, rządom czy wyznawcom określonych religii. Badacze odkryli, że takie społeczności będą działać jako rezerwuar szkodliwych treści na mniejszych platformach, takich jak np. Telegram czy Gab. Te natomiast mają nie być objęte przepisami wynikającymi z DSA. W ocenie badaczy jest to więc rozwiązanie nie do końca trafione, które w dodatku teraz mogą powielić także Stany Zjednoczone.
– Ponieważ nie dysponowano mapą przy opracowywaniu przepisów, poczyniono założenie, że większe platformy mają większy wpływ. Jest to jedynie założenie i podobnie jak w każdym innym przypadku w nauce nie można po prostu tworzyć założeń bez ich weryfikacji. Nasze badanie polegało na przetestowaniu tych założeń i wnioski okazały się do niego przeciwne – podkreśla prof. Neil Johnson. – Wszyscy skupiają się na tym, jakie nieprawdziwe treści mogą być rozpowszechniane. Ale nieważne, co to za informacje, najważniejsza jest ich lokalizacja. Ustaliliśmy, gdzie kryją się zagrożenia. Na tej samej zasadzie lokalizacja pojazdów w mieście jest ważniejsza dla zrozumienia ruchu drogowego niż wiedza o tym, że są to dwa samochody BMW i jedna Toyota.
Jak podkreśla ekspert, w dyskusji na temat dezinformacji dominują dwie strategie: całkowite wyeliminowanie lub opanowanie problemu. Jego zdaniem pierwsza jest z góry skazana na porażkę. Takie działanie wymagałoby ogromnej skali szczegółowych i kosztownych działań, bez gwarancji, że to cokolwiek da.
– Przejdźmy więc do drugiej strategii, która polega na opanowaniu problemu. Jest to bardziej kontrowersyjna strategia, ponieważ według większości ludzi trzeba te problemy usunąć, zamiast je opanowywać. Ale jako przykład można podać tu COVID-19 – nie wyeliminowaliśmy go całkowicie, ale można powiedzieć, że go opanowaliśmy. Sedno sprawy polega na tym, że dla rządów, podmiotów czy platform jest to strategia, której powinni unikać. Sprawa jednak została upolityczniona – ale mogę to powiedzieć jako naukowiec na podstawie wyników badań – w sferze politycznej argument, że fałszywe informacje należy usuwać, zawsze będzie brzmiał bardziej szlachetnie, zawsze będzie się wydawać lepszym wyjściem. Problem polega na tym, że bez mapy, a o ile wiem, tylko my taką mapą dysponujemy, poznawszy ten problem od realnej strony, jego usunięcie jest niemożliwe – podkreśla badacz Dynamic Online Networks Laboratory.
Zgodnie z szacunkami poczynionymi w trakcie badania latem tego roku napędzane sztuczną inteligencją działania „złych aktorów” staną się codziennością. Badacze ocenili to na podstawie analogii z podobnymi technologicznie incydentami z 2008 i 2013 roku. Pierwszy dotyczył ataków algorytmicznych na amerykańskie rynki finansowe, a drugi chińskich cyberataków na infrastrukturę USA. To prognoza szczególnie niebezpieczna, zwłaszcza w kontekście zbliżających się wyborów.
– To będą naprawdę interesujące wybory, ponieważ poprzednio mieliśmy do czynienia z kilkoma botami na Twitterze i paroma dziwnymi stronami internetowymi. Nie wiadomo, jaki był ich faktyczny wpływ w wyborach prezydenckich w USA z 2016 i 2020 roku. Teraz sytuacja ze sztuczną inteligencją przedstawia się całkowicie inaczej – można ją wykorzystać na większą skalę, dysponując większą szybkością. Większość populacji USA korzysta z internetu i jeśli sami nie mają kont w mediach społecznościowych, to ma je ich rodzeństwo, rodzice czy dzieci, więc są pod ich pośrednim wpływem. Ten wpływ dotyczy całej populacji, chyba że ktoś mieszka w chacie w samym sercu Montany. Mamy do czynienia z nową technologią i – pomijając ocenę, kto jest tutaj po dobrej, a kto po złej stronie – ci, którzy lepiej się nią posługują, wygrają – ostrzega prof. Neil Johnson. – W krajach, w których w tym roku są wybory, będziemy otrzymywać wiadomości głosowe będące deepfake’ami. Będzie to prawdziwa bitwa w sieci i wyścig zbrojeń, który będzie polegał na tym, kto użyje tej technologii w większym stopniu. Czy takie narzędzia powinny być stosowane? Oczywiście, że nie, ale to nie zmienia faktu, że tak będzie.
Komentarze