Nadejście generatywnej sztucznej inteligencji otworzyło zupełnie nowe możliwości realizacji operacji wpływu. Sprawę wzięło sobie najwyraźniej do serca OpenAI, twórca ChatGPT. 30 maja spółka opublikowała raport na temat najnowszych trendów w wykorzystaniu sztucznej inteligencji w różnorodnych operacjach wpływu i szkodliwego używania ChatGPT. Na warsztat wzięto przykłady grup z Rosji, Chin, Iranu i Izraela.
W świecie cyberbezpieczeństwa zdania są podzielone. Rozwój sztucznej inteligencji (używamy tego terminu w imię prostoty, ale trzeba pamiętać, że istniejące współcześnie rozwiązania są określane w ten sposób mocno na wyrost) ma wspomóc zwalczanie fake newsów i dezinformacji lub wręcz przeciwnie – pomoże tworzyć jeszcze trudniejsze do zidentyfikowania deepfake’i. Na razie wydaje się, że przewagę ma strona atakująca.
W swoim raporcie (do przeczytania tutaj w formacie PDF) OpenAI opisuje pięć podmiotów, które używały sztucznej inteligencji do tworzenia treści, często w formie postów w mediach społecznościowych, i rozpowszechniania ich przez fałszywe konta, również sterowanych za pomocą algorytmów SI. We wszystkich przypadkach firma zablokował konta do swoich usług zidentyfikowane jako związane z wymienionymi grupami.
Pierwszy z opisanych przypadków dotyczy nieznanej wcześniej rosyjskiej grupy nazwanej Bad Grammar. OpenAI zgryźliwie zwraca uwagę, że dzięki ChatGPT angielski postów umieszczanych przez grupę stawał się z czasem coraz lepszy. Bad Grammar działała na Telegramie, publikując komentarze po angielsku i rosyjsku. Głównym celem byli użytkownicy w Rosji, Mołdawii, państwach bałtyckich i Stanach Zjednoczonych. Modus operandi grupy był nietypowy, nie tyle publikowano treści prorosyjskie, ile zalewano negatywnymi komentarzami posty krytykujące politykę Moskwy.
Bardziej klasyczny profil działania ma znana już od dawna grupa Doppelganger. Związane z nią konta w mediach społecznościowych, adresowane do użytkowników z Europy i Ameryki Północnej, zamieszczały treści antyukraińskie w językach: angielskim, francuskim, niemieckim, włoskim i polskim. Posty związane z operacjami wpływu były umieszczane w gąszczu innych, sięgających od zwierząt i sportu przez dowcipy po portale randkowe.
Bardzo konkretne zadania miała grupa Spamouflage, znany już wcześniej podmiot wiązany z chińskimi organami ścigania. Zasadniczym celem Spamouflage są ataki na krytyków Pekinu, zwłaszcza jeśli wywodzą się z chińskiej emigracji. Latem ubiegłego roku grupa opublikowała jednak szereg treści po chińsku, angielsku, koreańsku i japońsku, atakując Tokio za spuszczenie do oceanu wody z elektrowni atomowej w Fukushimie, uszkodzonej przez trzęsienie ziemi i tsunami w roku 2011. Japońskie działania przedstawiano jako śmiertelne zagrożenie dla ludzi i życia morskiego, chociaż Międzynarodowa Agencja Energii Atomowej i ONZ stwierdziły, że woda z Fukushimy ma mniejszą zawartość pierwiastków promieniotwórczych niż woda spuszczana z elektrowni atomowych w Chinach.
4) #Japan's TEPCO plans to cap the annual level of tritium released from the Fukushima plant at 22 trillion becquerels.
Tritium levels in the sea after the release will be far lower than standards set by the World Health Organization and other organizations. pic.twitter.com/sjQB7XW9uD
— Indo-Pacific News – Geo-Politics & Defense (@IndoPac_Info) June 27, 2023
Dwie ostatnie grupy – irańska International Union of Virtual Media (Międzynarodowa Unia Mediów Wirtualnych) i izraelska Zero Zeno – są ze sobą w pewien sposób powiązane. Obie rozpowszechniają treści związane z wojną w Strefie Gazy, przy czym jedni atakują Izrael i Stany Zjednoczone, a drudzy prezentują izraelskie działania w korzystnym świetle.
Zdaniem OpenAI działania wszystkich opisanych podmiotów miały ograniczony zasięg. Większość reakcji na zamieszczane posty pochodziła z fałszywych kont, chociaż zdarzały się też przypadki wykorzystania zhakowanych kont. Natomiast przyrost obserwujących wśród realnych osób był marginalny. Głównymi polami walki są oczywiście Twitter, Facebook, Instagram i Telegram. Jak zwykle administratorzy mediów społecznościowych reagują z opóźnieniem i można odnieść wrażenie, że najchętniej ignorowaliby całą sprawę. Meta, właściciel Facebooka i Instagrama, zareagowała na działania proizraelskich aktorów dopiero po nagłośnieniu sprawy przez think tank Atlantic Council.
A więc Meta tylko udaje, że walczy z dezinformacją celowaną w Polskę i Włochy w kampanii wyborczej. Szok i niedowierzenie.
AI Forensics i CheckFirst wyliczają, że ponad 65% reklam politycznych nie zostało oznaczonych na FB w 16 krajach UE. Meta usunęła mniej niż 5 % takich reklam— Sylwia Czubkowska (@sylvcz) May 31, 2024
Tymczasem w obliczu zbliżających się wyborów do Parlamentu Europejskiego, wyborów prezydenckich w USA czy dopiero co zakończonych wyborów parlamentarnych w Indiach walka z dezinformacją staje się coraz bardziej istotna. Podczas konferencji prasowej towarzyszącej publikacji raportu Ben Nimmo, główny badacz w zespole wywiadowczym i śledczym OpenAI, ostrzegał, aby nie dać się uśpić ograniczonym efektom omawianych przypadków. Operacje wpływu są obliczone na lata i nie wiadomo, czy w jakimś momencie w przyszłości nie przyniosą przełomu. Tym bardziej, że nowe technologie, ze sztuczną inteligencją na czele, dają nowe możliwości.
W grudniu ubiegłego roku australijski think tank ASPI opublikował raport Shadow Play (w wolnym tłumaczeniu: Teatrzyk cieni), poświęcony prochińskim kontom działającym na YouTubie. Autorzy raportu zidentyfikowali łącznie trzydzieści kont propagujących korzystną dla Pekinu narrację, koncentrującą się na faktycznych i wydumanych chińskich osiągnięciach w wojnie technologicznej z USA.
Konta zaczęły powstawać około połowy roku 2022 i opublikowały ponad 4,5 tysiąca filmów, które zyskały blisko 120 milionów odsłon i 730 tysięcy subskrybentów. Zdaniem ASPI nie udało się jednoznacznie wskazać bezpośredniego zaangażowania organów i agencji ChRL, bardziej prawdopodobne wydaje się zaangażowanie podmiotów niezależnych działających z inspiracji Pekinu, a zapewne i z jego wsparciem finansowym.
W tym miejscu należy się pochwała YouTube’owi. ASPI przedstawiło sprawę serwisowi 7 grudnia. Następnego dnia zawieszonych było już dziewiętnaście kont, dziesięć za skoordynowane nieautentyczne zachowania, pozostałe za upowszechnianie spamu, zwodnicze praktyki i wprowadzające w błąd treści lub inne naruszenia regulaminu. Sprawa miała jednak większy zasięg. Chińczycy korzystali bowiem na szeroką skalę z awatarów tworzonych przez sztuczną inteligencję. Pikanterii sprawie dodaje fakt, że zamiast rodzimych rozwiązań wybrali brytyjską firmę Synthesia. Po uzyskaniu informacji zawartych w raporcie firma zaczęła od 14 grudnia wyłączać wskazane konta za naruszenie zasad dotyczących rozpowszechniania informacji w mediach.
Podobną kampanię nazwaną Paperwall (papierowy mur) zidentyfikował kanadyjski think tank The Citizen Lab. Tym razem głównym narzędziem są lokalne serwisy informacyjne. Paperwall obejmuje sieć co najmniej 123 serwisów informacyjnych działających w trzydziestu państwach Europy, Azji i Ameryki Łacińskiej. Sprawa jest dla nas o tyle ciekawa, że ma wątek polski. Chodzi o dwa serwisy: Wawel Express i Bydgoszcz Daily.
Paperwall wśród informacji lokalnych rozpowszechniał antyamerykańskie teorie spiskowe, materiały z chińskich mediów państwowych, a także osobiste ataki na krytyków Pekinu. Te ostatnie jednak po jakimś czasie usuwano. Papierowy Mur wykazuje podobieństwa z kampanią HaiEnergy, opisaną w połowie 2022 roku przez zajmującą się cyberbezpieczeństwem firmę Mandiant. Paperwall czerpie zresztą wiele treści z wiązanym z HiEnergy serwisem Times Newswire.
Na tym nie koniec kreatywnego wykorzystania narzędzi sztucznej inteligencji. Wiosną tego roku Olha Łojek, ukraińska youtuberka, z niedowierzaniem odkryła, że w chińskim internecie działa jej stworzona przez SI cyfrowa bliźniaczka, a tak naprawdę cztery kopie. Wychwalały one w mandaryńskim przyjaźń chińsko-rosyjską i reklamowały produkty z Rosji.
Również wiosną tego roku, najprawdopodobniej w ramach operacji Majdan 3, rosyjska grupa CopyCop rozpoczęła interesującą kampanię wymierzoną w anglo- i francuskojęzycznych użytkowników sieci. W ramach akcji publikowano artykuły jątrzące kwestie rasowe w USA czy udowadniające obecność polskich najemników w Ukrainie.
Ciekawostka pojawiła się jednak gdzie indziej. Jak wykazało śledztwo zajmującej się cyberbezpieczeństwem firmy Recorded Future, ponad 90 artykułów w języku francuskim zostało przeredagowanych przez SI w myśl polecenia: „Proszę przepisać ten artykuł, przyjmując konserwatywne stanowisko przeciwko liberalnej polityce administracji Macrona na rzecz francuskich obywateli z klasy robotniczej”.
Nimmo na razie zbywa bardziej katastroficzne scenariusze, w których myśl sztuczną inteligencję można będzie wykorzystać nie tylko do tworzenia ogólnych treści, ale też do przygotowywania zindywidualizowanych wiadomości dla konkretnych osób czy prowadzenia długich dyskusji nakierowujących rozmówce na konkretne wnioski. Zastrzega jednak, iż nie można czegoś takiego wykluczyć w przyszłości.