Nadejście generatywnej sztucznej inteligencji otworzyło zupełnie nowe możliwości reali­zacji operacji wpły­wu. Sprawę wzięło sobie najwyraźniej do serca OpenAI, twórca ChatGPT. 30 maja spółka opubli­ko­wała raport na temat najnowszych trendów w wykorzystaniu sztucznej inteligencji w różnorodnych operacjach wpływu i szkodliwego używania ChatGPT. Na warsztat wzięto przykłady grup z Rosji, Chin, Iranu i Izraela.

W świecie cyberbezpie­czeń­stwa zda­nia są podzielone. Rozwój sztucznej inteligencji (używamy tego terminu w imię prostoty, ale trzeba pamiętać, że istniejące współcześnie rozwiązania są określane w ten sposób mocno na wyrost) ma wspomóc zwalczanie fake newsów i dezin­for­macji lub wręcz przeciwnie – pomoże tworzyć jeszcze trudniejsze do zidentyfikowania deepfake’i. Na razie wydaje się, że przewagę ma strona atakująca.

W swoim raporcie (do przeczytania tutaj w formacie PDF) OpenAI opisuje pięć podmiotów, które używały sztucznej inteligencji do tworzenia treści, często w formie postów w mediach społecznoś­ciowych, i rozpo­wszech­nia­nia ich przez fałszywe konta, również sterowanych za pomo­cą algorytmów SI. We wszystkich przypadkach firma zablokował konta do swoich usług zidentyfikowane jako związane z wymienionymi grupami.

Pierwszy z opisanych przypadków dotyczy nieznanej wcześniej rosyj­skiej grupy nazwanej Bad Grammar. OpenAI zgryźliwie zwraca uwagę, że dzięki ChatGPT angielski postów umieszczanych przez grupę stawał się z czasem coraz lepszy. Bad Grammar działała na Telegramie, publikując komentarze po angielsku i rosyjsku. Głównym celem byli użytkownicy w Rosji, Mołdawii, państwach bałtyckich i Stanach Zjednoczonych. Modus operandi grupy był nietypowy, nie tyle publikowano treści prorosyjskie, ile zalewano negatyw­nymi komenta­rzami posty krytykujące politykę Moskwy.

Prezydent Joe Biden i wice­prezy­dentka Kamala Harris podczas spotkania z wiodącymi posta­ciami branży SI w maju ubiegłego roku. Siedzą od lewej: wiceprezeska OpenAI Anna Makanju, CEO Microsoftu Satya Nadella, CEO OpenAI Sam Altman i CEO Alpha­bet Inc. (Google) Sundar Pichai.
(Official White House Photo, Adam Schultz)

Bardziej klasyczny profil działania ma znana już od dawna grupa Doppel­ganger. Związane z nią konta w mediach społecznoś­ciowych, adreso­wane do użytkowników z Europy i Ameryki Północnej, zamieszczały treści antyukraiń­skie w językach: angielskim, francuskim, niemiec­kim, włoskim i polskim. Posty związane z operacjami wpływu były umieszczane w gąszczu innych, sięgających od zwierząt i sportu przez dowcipy po portale randkowe.

Bardzo konkretne zadania miała grupa Spamouflage, znany już wcześ­niej podmiot wiązany z chińskimi organami ścigania. Zasadniczym celem Spamouflage są ataki na krytyków Pekinu, zwłaszcza jeśli wywodzą się z chińskiej emigracji. Latem ubiegłego roku grupa opubli­ko­wała jednak szereg treści po chińsku, angielsku, koreańsku i japońsku, atakując Tokio za spuszczenie do oceanu wody z elektrowni atomowej w Fukushimie, uszkodzonej przez trzęsienie ziemi i tsunami w roku 2011. Japońskie działania przed­sta­wiano jako śmiertelne zagrożenie dla ludzi i życia morskiego, chociaż Międzynarodowa Agencja Energii Atomowej i ONZ stwierdziły, że woda z Fukushimy ma mniejszą zawartość pierwiastków promie­nio­twórczych niż woda spuszczana z elektrowni atomowych w Chinach.

Dwie ostatnie grupy – irańska Inter­national Union of Virtual Media (Między­narodowa Unia Mediów Wir­tu­alnych) i izraelska Zero Zeno – są ze sobą w pewien sposób powiązane. Obie rozpowszechniają treści związane z wojną w Strefie Gazy, przy czym jedni atakują Izrael i Stany Zjednoczone, a drudzy prezentują izraelskie działania w korzystnym świetle.

Zdaniem OpenAI działania wszystkich opisanych podmiotów miały ograni­czony zasięg. Większość reakcji na zamieszczane posty pochodziła z fałszywych kont, chociaż zdarzały się też przypadki wykorzystania zhako­wa­nych kont. Natomiast przyrost obserwujących wśród realnych osób był marginalny. Głównymi polami walki są oczywiście Twitter, Facebook, Instagram i Telegram. Jak zwykle administratorzy mediów społecz­noś­cio­wych reagują z opóź­nie­niem i można odnieść wrażenie, że naj­chęt­niej ignorowaliby całą sprawę. Meta, właściciel Facebooka i Instagrama, zareagowała na działania proizraelskich aktorów dopiero po nagłośnieniu sprawy przez think tank Atlantic Council.

Tymczasem w obliczu zbliżających się wyborów do Parlamentu Europej­skiego, wyborów prezydenckich w USA czy dopiero co zakończonych wyborów parlamentarnych w Indiach walka z dezinformacją staje się coraz bardziej istotna. Podczas konferencji prasowej towarzyszącej publikacji raportu Ben Nimmo, główny badacz w zespole wywiadowczym i śledczym OpenAI, ostrzegał, aby nie dać się uśpić ograniczonym efektom oma­wia­nych przypadków. Operacje wpływu są obliczone na lata i nie wiadomo, czy w jakimś momencie w przyszłości nie przyniosą przełomu. Tym bardziej, że nowe technologie, ze sztuczną inteligencją na czele, dają nowe możliwości.

W grudniu ubiegłego roku austra­lijski think tank ASPI opub­li­ko­wał raport Shadow Play (w wolnym tłumaczeniu: Teatrzyk cieni), poświęcony pro­chińs­kim kontom działa­jącym na YouTubie. Autorzy raportu ziden­ty­fi­ko­wali łącznie trzy­dzieści kont propa­gu­ją­cych korzystną dla Pekinu narrację, koncen­trującą się na fak­tycz­nych i wydumanych chińskich osiąg­nię­ciach w wojnie techno­lo­gicznej z USA.

Konta zaczęły powstawać około połowy roku 2022 i opubli­kowały ponad 4,5 tysiąca filmów, które zyskały blisko 120 milionów odsłon i 730 tysięcy subskry­bentów. Zdaniem ASPI nie udało się jedno­znacz­nie wska­zać bezpoś­red­niego zaanga­żo­wania organów i agencji ChRL, bardziej prawdo­podobne wydaje się zaanga­żowanie podmiotów nieza­leż­nych działa­ją­cych z inspi­racji Pekinu, a zapewne i z jego wsparciem finansowym.

W tym miejscu należy się pochwała YouTube’owi. ASPI przedsta­wiło spra­wę serwisowi 7 grudnia. Następ­nego dnia zawie­szonych było już dziewiętnaście kont, dziesięć za skoor­dy­nowane nieauten­tyczne zacho­wa­nia, pozostałe za upowszech­nianie spamu, zwodnicze praktyki i wprowa­dzające w błąd treści lub inne naru­szenia regu­laminu. Sprawa miała jednak większy zasięg. Chińczycy korzystali bowiem na szeroką skalę z awatarów tworzonych przez sztuczną inteli­gencję. Pikan­terii sprawie dodaje fakt, że zamiast rodzimych rozwiązań wybrali brytyjską firmę Synthesia. Po uzyskaniu informacji zawartych w raporcie firma zaczęła od 14 grudnia wyłączać wskazane konta za naru­sze­nie zasad dotyczących roz­po­wszech­nia­nia informacji w mediach.

Podobną kampanię nazwaną Paper­wall (papierowy mur) zidenty­fi­ko­wał kana­dyjski think tank The Citizen Lab. Tym razem głównym narzędziem są lokalne serwisy informa­cyjne. Paper­wall obejmuje sieć co najmniej 123 serwisów informa­cyjnych działa­ją­cych w trzydziestu państwach Europy, Azji i Ameryki Łaciń­skiej. Sprawa jest dla nas o tyle ciekawa, że ma wątek polski. Chodzi o dwa serwisy: Wawel Express i Bydgoszcz Daily.

Paperwall wśród informacji lokalnych roz­pow­szech­niał anty­ame­ry­kańskie teorie spiskowe, materiały z chińskich mediów państwowych, a także osobiste ataki na krytyków Pekinu. Te ostatnie jednak po jakimś czasie usuwano. Papierowy Mur wykazuje podo­bień­stwa z kampanią HaiEnergy, opisaną w połowie 2022 roku przez zajmującą się cyber­­bez­pie­­czeń­stwem firmę Mandiant. Paperwall czerpie zresztą wiele treści z wiązanym z HiEnergy serwisem Times Newswire.

Na tym nie koniec kreatywnego wykorzystania narzędzi sztucznej inteligencji. Wiosną tego roku Olha Łojek, ukraińska youtuberka, z nie­do­wie­rzaniem odkryła, że w chińskim internecie działa jej stworzona przez SI cyfrowa bliźniaczka, a tak napraw­­dę cztery kopie. Wychwalały one w mandaryńskim przyjaźń chińsko-rosyjską i reklamowały produkty z Rosji.

Również wiosną tego roku, naj­praw­do­po­dob­niej w ramach operacji Majdan 3, rosyjska grupa CopyCop rozpoczęła interesującą kampanię wymierzoną w anglo- i francusko­­języcz­­nych użytkowników sieci. W ramach akcji publikowano artykuły jątrzące kwestie rasowe w USA czy udowadniające obecność polskich najemników w Ukrainie.

Ciekawostka pojawiła się jednak gdzie indziej. Jak wykazało śledztwo zajmującej się cyberbezpieczeństwem firmy Recorded Future, ponad 90 artykułów w języku francuskim zostało przeredagowanych przez SI w myśl polecenia: „Proszę przepisać ten artykuł, przyjmując konserwatywne stanowisko przeciwko liberalnej polityce administracji Macrona na rzecz francuskich obywateli z klasy robotniczej”.

Nimmo na razie zbywa bardziej katastroficzne scenariusze, w których myśl sztuczną inteligencję można będzie wykorzystać nie tylko do tworzenia ogólnych treści, ale też do przy­go­to­wy­wa­nia zindy­wi­du­ali­zo­wa­nych wiadomości dla konkretnych osób czy prowadzenia długich dyskusji nakierowujących rozmówce na konkretne wnioski. Zastrzega jednak, iż nie można czegoś takiego wykluczyć w przyszłości.

© Angga Budhiyanto / ZUMA Press Wire / Alamy Stock Photo