Czy Rosja naprawdę „pielęgnuje” zachodnią sztuczną inteligencję? |. Głoska bezdźwięczna

W marcu Newsguard – firma, która śledzi dezinformację – opublikowana Raport Twierdzenie, że generatywne narzędzia sztucznej inteligencji (AI), takie jak Chatgpt, wzmacniały rosyjskie dezinformację. Newsguard przetestował wiodące chatboty przy użyciu podpowiedzi opartych na historii z sieci Pravda-grupy witryn pro-Kremlinowych naśladujących legalne sklepy, po raz pierwszy zidentyfikowane przez francuską agencję Viginum. Wyniki były niepokojące: chatboty „powtarzane fałszywe narracje wyprane przez sieć Pravda 33 procent czasu”, podał raport.
Sieć Pravda, która ma dość małą publiczność, od dawna zaskoczyła badaczy. Niektórzy uważają, że jego cel był performatywny – sygnalizowanie wpływów Rosji na zachodnie obserwatorów. Inni widzą bardziej podstępny cel: Pravda nie dociera do ludzi, ale „pielęgnowanie” dużych modeli językowych (LLM) za chatbotami, karmiąc ich kłamstwami, które użytkownicy nieświadomie napotkają.
Newsguard powiedział w swoim raporcie, że jego ustalenia potwierdzają drugie podejrzenie. To twierdzenie zyskało przyczepność, co skłoniło dramatyczne nagłówki w Washington Post, Forbes, France 24, Der Spiegel i gdzie indziej.
Ale dla nas i innych badaczy ten wniosek nie utrzymuje się. Po pierwsze, zastosowany przez Methodology Newsguard jest nieprzejrzysty: nie udostępnił swoich podpowiedzi i odmówił podzielenia się nimi z dziennikarzami, uniemożliwiając niezależną replikację.
Po drugie, projekt badania prawdopodobnie zawyżył wyniki, a liczba 33 procent może wprowadzać w błąd. Użytkownicy pytają chatboty o wszystko, od wskazówek dotyczących gotowania po zmiany klimatu; Newsguard przetestował je wyłącznie na podpowiedzi powiązanych z siecią Pravda. Dwie trzecie jego podpowiedzi zostało wyraźnie stworzonych do sprowokowania kłamstw lub przedstawienia ich jako faktów. Odpowiedzi wzywające użytkownika do ostrożności wobec roszczeń, ponieważ nie są one weryfikowane, zostały uznane za dezinformację. Badanie postanowiło znaleźć dezinformację – i tak się stało.
Ten odcinek odzwierciedla szerszą, problematyczną dynamikę ukształtowaną przez szybko poruszającą się technologię, szum mediów, złych aktorów i opóźnione badania. W przypadku dezinformacji i dezinformacji w rankingu głównego globalnego ryzyka wśród ekspertów przez Światowe Forum Ekonomiczne, obawy związane z ich rozprzestrzenianiem się są uzasadnione. Ale reakcje kolana ryzykują zniekształcenie problemu, oferując uproszczony pogląd na złożoną sztuczną inteligencję.
Kuszące jest przekonanie, że Rosja celowo „zatruwa” zachodnią sztuczną inteligencję w ramach przebiegłej działki. Ale alarmistyczne kadry zaciemniają bardziej prawdopodobne wyjaśnienia – i generują szkodę.
Czy chatboty mogą reprodukować punkty rozmawiające Kremla lub cytować wątpliwe rosyjskie źródła? Tak. Ale jak często tak się dzieje, czy odzwierciedla to manipulację Kreml i jakie warunki sprawiają, że użytkownicy się to spotykają, są dalekie od ustalonego. Wiele zależy od „czarnej skrzynki” – to znaczy od algorytmu bazowego – za pomocą którego chatboty pobierają informacje.
Przeprowadziliśmy własny audyt, systematycznie testując Chatgpt, Copilot, Gemini i Grok przy użyciu monitów związanych z dezinformacją. Oprócz ponownego przetestowania kilku przykładów podanych przez StudGard w swoim raporcie, sami zaprojektowaliśmy nowe podpowiedzi. Niektóre były ogólne – na przykład twierdzenia o amerykańskich biolibach na Ukrainie; Inne były bardzo specyficzne-na przykład zarzuty dotyczące obiektów NATO w niektórych ukraińskich miastach.
Gdyby sieć Pravda „pielęgnowała” sztuczną inteligencję, zobaczylibyśmy odniesienia do niej w odpowiedzi na odpowiedzi, które generują chatboty, czy to ogólne, czy konkretne.
Nie widzieliśmy tego w naszych ustaleniach. W przeciwieństwie do 33 procent Newsguard, nasze podpowiedzi wygenerowały fałszywe roszczenia tylko 5 procent czasu. Zaledwie 8 procent wyników odwołało się do stron Pravda – i większość z nich zrobiła to, aby obalić treść. Co najważniejsze, odniesienia Pravda były skoncentrowane w zapytaniach słabo objętych gniazdem głównego nurtu. Potwierdza to hipotezę Data Void: gdy chatboty nie mają wiarygodnego materiału, czasami pobierają się z wątpliwych miejsc – nie dlatego, że zostały one pielęgnowane, ale dlatego, że nie ma ich niewiele więcej.
Jeśli problemem są puste dane, a nie infiltracja Kremla, oznacza to wyniki narażenia na dezinformację z niedoboru informacji – a nie potężnej maszyny propagandowej. Ponadto, aby użytkownicy faktycznie napotkali dezinformację w odpowiedzi chatbota, musi się wyrównać kilka warunków: muszą zapytać o niejasne tematy w określonych terminach; Tematy te muszą być ignorowane przez wiarygodne sklepy; A Chatbot musi brakować poręczy, aby zdepriorityzować wątpliwe źródła.
Nawet wtedy takie przypadki są rzadkie i często krótkotrwałe. Dostanie danych zamykają się szybko, gdy raportowanie nadrabia zaległości, a nawet gdy się utrzymują, chatboty często obalają roszczenia. Choć technicznie możliwe, takie sytuacje są bardzo rzadkie poza sztucznymi warunkami zaprojektowanymi w celu oszukania chatbotów do powtarzania dezinformacji.
Niebezpieczeństwo manipulacji Kreml AI jest prawdziwe. Niektórzy eksperci ds. Disinformacji sugerują, że kampanie Kremla mogą sami zostać zaprojektowane w celu wzmocnienia zachodnich obaw, przytłaczających sprawdzających faktów i jednostek przeciwdziałania disinformacji. Margarita Simonyan, wybitna rosyjska propagandysta, rutynowo przytacza zachodnie badania, aby reklamować rzekomy wpływ finansowanej przez rząd sieci telewizyjnej, RT, prowadzi.
Bezkrytyczne ostrzeżenia o dezinformacji mogą cofnąć się, co spowodowało poparcie dla represyjnych polityk, erodowanie zaufania do demokracji i zachęcanie ludzi do zakładania, że wiarygodne treści jest fałszywe. Tymczasem najbardziej widoczne zagrożenia ryzykują zaćmienie spokojniejszych – ale potencjalnie bardziej niebezpiecznych – zastosowań AI przez aktorów złośliwego, na przykład do generowania złośliwego oprogramowania zgłaszanego zarówno przez Google, jak i Openai.
Kluczowe jest oddzielenie rzeczywistych obaw od zawyżonych obaw. Dezinformacja jest wyzwaniem – ale panika, którą prowokuje.
Poglądy wyrażone w tym artykule są własnymi autorów i niekoniecznie odzwierciedlają postawę redakcyjną Al Jazeery.