OpenAI usunął konta powiązane ze znaną działalnością propagandową w Rosji, Chinach i Iranie; Izraelska Agencja ds. Kampanii Politycznych; Nieznana wcześniej grupa, która pojawiła się w Rosji, badacze z instytutu nazwali „złą gramatyką”. Zespoły korzystają z technologii OpenAI do pisania postów, tłumaczenia ich na różne języki i opracowywania oprogramowania do automatycznego publikowania postów w mediach społecznościowych.
Żadnej z tych grup nie udało się zyskać większego rozgłosu; Powiązane z nimi konta w mediach społecznościowych dotarły do niektórych użytkowników Tylko garstka naśladowców, powiedział Ben Nimmo, główny analityk w grupie Intelligence and Investigations Group OpenAI. Jednak raport OpenAI pokazuje, że działacze, którzy od lat są aktywni w mediach społecznościowych, wykorzystują technologię AI do wzmocnienia swoich kampanii.
„Widzieliśmy, jak generowali tekst o większej objętości i z mniejszą liczbą błędów niż w przypadku tradycyjnych operacji” – powiedział podczas odprawy z reporterami Nimmo, który wcześniej pracował nad operacjami z udziałem osób wpływających na metaśledzenie. Nimmo powiedział, że inne grupy mogą korzystać z narzędzi OpenAI bez wiedzy firmy.
„To nie czas na samozadowolenie. Historia pokazała, że działania influencerów, które przez lata prowadziły donikąd, mogą nagle eksplodować, jeśli nikt ich nie szuka” – stwierdził.
Rządy, partie polityczne i grupy aktywistów od lat wykorzystują media społecznościowe do wywierania wpływu na politykę. Po obawach dotyczących wpływów Rosji na wybory prezydenckie w 2016 r. platformy mediów społecznościowych zaczęły bliżej przyglądać się sposobom, w jaki ich platformy są wykorzystywane do wpływania na wyborców. Firmy na ogół uniemożliwiają rządom i grupom politycznym ukrywanie wspólnych wysiłków mających na celu wywarcie wpływu na użytkowników i wymagają, aby reklamy polityczne ujawniały, kto za nie zapłacił.
Badacze zajmujący się dezinformacją wyrazili obawy, że w miarę upowszechniania się narzędzi sztucznej inteligencji, które mogą generować realistyczny tekst, obrazy i wideo, wykrywanie dezinformacji i reagowanie na nią lub wywieranie pośredniego wpływu w Internecie stanie się jeszcze trudniejsze. W tym roku miliony ludzi głosują w wyborach na całym świecie, a deepfake sztucznej inteligencji już się rozprzestrzeniły.
OpenAI, Google i inne firmy zajmujące się sztuczną inteligencją pracują nad technologią identyfikującą deepfakes za pomocą własnych narzędzi, ale taka technologia nie została jeszcze sprawdzona. Niektórzy eksperci AI uważają, że wykrywacze deepfake nie są całkowicie skuteczne.
Na początku tego roku grupa powiązana z Komunistyczną Partią Chin rzekomo poparła dźwięk generowany przez sztuczną inteligencję przedstawiający jednego kandydata startującego w tajwańskich wyborach zamiast innego. Jednak polityk, właściciel Foxconna Terry Coe, nie poparł drugiego polityka.
W styczniu wyborcy w prawyborach w New Hampshire otrzymali automatyczne połączenie telefoniczne, które rzekomo pochodziło od prezydenta Bidena, ale szybko zostało zidentyfikowane jako sztuczna inteligencja. W zeszłym tygodniu Demokrata, który twierdził, że obsługiwał automatyczne połączenie telefoniczne, został oskarżony o tłumienie głosów wyborców i podszywanie się pod kandydatów.
Raport OpenAI szczegółowo opisuje, w jaki sposób pięć grup wykorzystało technologię firmy, próbując wpłynąć na jej działalność. Spamouflage, znana wcześniej grupa z Chin, wykorzystała technologię OpenAI do badania aktywności w mediach społecznościowych i pisania postów w języku chińskim, koreańskim, japońskim i angielskim – podała firma. Irańska grupa o nazwie International Union of Virtual Media również wykorzystała technologię OpenAI do tworzenia artykułów publikowanych na swojej stronie.
Nieznana wcześniej grupa Bad Grammar wykorzystała technologię OpenAI do stworzenia programu, który może automatycznie wysyłać posty do aplikacji do przesyłania wiadomości Telegram. Następnie Bad Grammar wykorzystał technologię OpenAI do wygenerowania postów i Według raportu w języku rosyjskim i angielskim argumentuje się, że Stany Zjednoczone nie powinny wspierać Ukrainy.
Z raportu wynika, że izraelska firma zajmująca się propagandą polityczną o nazwie Stoic wykorzystała OpenAI do tworzenia proizraelskich postów na temat wojny w Gazie i była skierowana do osób w Kanadzie, Stanach Zjednoczonych i Izraelu – twierdzi OpenAI. W środę właścicielka Facebooka, Meta, również zachwalała pracę Stoicka, twierdząc, że usunęła 510 kont na Facebooku i 32 konta na Instagramie, z których korzystała grupa. Firma powiedziała reporterom, że niektóre konta zostały zhakowane, a inne były kontami fikcyjnych osób.
Relacje, o których mowa, często komentują strony znanych osób lub mediów, które pokazują proizraelskich amerykańskich studentów, Afroamerykanów i nie tylko. W komentarzach wspierano izraelskie wojsko i ostrzegano Kanadyjczyków, że „radykalny islam” zagraża tamtejszym wartościom liberalnym, stwierdziła Meta.
Sztuczna inteligencja zareagowała na treść niektórych komentarzy, które dla prawdziwych użytkowników Facebooka były dziwne i wyrwane z kontekstu. Firma stwierdziła, że wyniki były słabe i przyciągnęły jedynie około 2600 legalnych obserwujących.
META działa po laboratorium badawczym Digital Forensics Research Lab należącym do Rady Atlantyckiej został odkryty Sieć w X
W zeszłym roku badacze dezinformacji zasugerowali, że chatboty AI mogą prowadzić długie, szczegółowe rozmowy w Internecie z konkretnymi osobami, próbując nakłonić je w określonym kierunku. Narzędzia AI mogą przetwarzać duże ilości danych o poszczególnych osobach i wysyłać do nich wiadomości bezpośrednio.
Nimmo powiedział, że OpenAI nie zidentyfikowało żadnych nowatorskich zastosowań sztucznej inteligencji. „To raczej ewolucja niż rewolucja” – stwierdził. „Nie ma mowy o tym, że nie zobaczymy tego w przyszłości”.
Joseph Menn przyczynił się do powstania tego raportu.
„Zły introwertyk. Fan mediów społecznościowych. Irytująco skromny myśliciel. Miłośnik kawy. Ekspert od alkoholu. Internetowy geek”.