Rosja wykorzystuje sztuczną inteligencję OpenAI do dezinformacji przeciwko Ukrainie – FT
Podczas operacji Doppelganger i Bad Grammar Rosjanie próbowali pozbawić Ukrainę wsparcia partnerów, tworząc treści przy użyciu sieci neuronowych.
Podmioty powiązane z Rosją, Chinami, Iranem i Izraelem wykorzystują narzędzia sztucznej inteligencji OpenAI do tworzenia i rozpowszechniania dezinformacji, w szczególności na temat wojny na Ukrainie, pisze Financial Times.
Raport OpenAI stwierdza, że ich modele sztucznej inteligencji zostały wykorzystane w pięciu tajnych operacjach. Treści dotyczyły wojny na Ukrainie, konfliktu w Strefie Gazy, wyborów w Indiach, a także polityki w Europie, USA i Chinach. Sztuczna inteligencja została również wykorzystana do poprawy produktywności, w tym debugowania kodu i badania aktywności w mediach społecznościowych.
Rosyjska operacja Doppelganger miała na celu podważenie poparcia dla Ukrainy, podczas gdy operacja Bad Grammar wykorzystywała modele OpenAI do debugowania kodu w celu uruchomienia bota Telegram i tworzenia krótkich komentarzy na tematy polityczne, które miały być udostępniane w Telegramie.
Chińska sieć Spamflag wykorzystywała narzędzia OpenAI do tworzenia tekstów i komentarzy w sieci społecznościowej X, promując interesy Pekinu za granicą. Izraelska firma STOIC wykorzystała sztuczną inteligencję do tworzenia artykułów i komentarzy na Instagramie, Facebooku i X.
Polityka OpenAI zabrania wykorzystywania jej modeli do oszukiwania lub wprowadzania w błąd. Firma oświadczyła, że pracuje nad identyfikacją kampanii dezinformacyjnych i tworzeniem narzędzi do ich zwalczania. Przedstawiciele OpenAI zauważyli, że skomplikowali już pracę atakujących, a ich modele wielokrotnie odmawiały generowania żądanych treści.
Ben Nimmo, główny badacz OpenAI w dziale Intelligence and Investigations, powiedział, że wykorzystanie modeli OpenAI w kampaniach dezinformacyjnych wzrosło “nieznacznie”, ale historia pokazuje, że operacje wywierania wpływu mogą nagle się nasilić, jeśli nikt ich nie szuka.