Pregled dezinformacij: Veliki jezikovni modeli - novo bojišče ruske informacijske vojne
Kremeljske kampanje tujega manipuliranja z informacijami in vmešavanja (angleško Foreign Information Manipulation and Interference - FIMI) so v veliki meri nespremenjene že od hladne vojne. Vendar pa sta pojav interneta in drugih komunikacijskih tehnologij omogočila večjo prožnost in večji vpliv z manj viri. Tako kot je Web 2.0 pred približno dvema desetletjema preoblikoval informacijsko vojskovanje, je vzpon umetne inteligence (UI) preoblikoval tudi kremeljsko strategijo. Namesto da bi zgolj širila prilagojene narative med bralce, Moskva zdaj cilja tudi na stroje – strategija, ki postaja vse pomembnejša, saj mnogi uporabniki že nadomeščajo Google z orodji UI, kot je ChatGPT.
Namesto neposrednega vplivanja na občinstvo prek družbenih omrežij je ruski aparat za dezinformiranje preusmeril strategijo v preplavljanje interneta z milijoni zavajajočih, nizkokakovostnih člankov in vsebin, namenjenih temu, da jih zajemajo in obdelujejo orodja, ki temeljijo na umetni inteligenci. Kremelj se tako ukvarja s tem, kar strokovnjaki imenujejo »LLM grooming« – usmerjeno treniranje velikih jezikovnih modelov (angleško large language models - LLMs), da reproducirajo manipulativne narative in dezinformacije.
Kako deluje »LLM grooming«?
»LLM grooming« je namerna manipulacija velikih jezikovnih modelov, ki ne stremi le k širjenju dezinformacij, temveč tudi k širši korupciji infrastrukture umetne inteligence z vnosom dezinformacij, na primer o ruski vojni v Ukrajini, v odgovore klepetalnih botov, kot je ChatGPT.
Februarja 2024 je francoska vladna agencija Viginum – pristojna za analizo in zaščito Francije pred tujim digitalnim vmešavanjem – objavila poročilo, v katerem je razkrila tako imenovano operacijo Portal Kombat, znano tudi kot mreža Pravda. Ta ruska mreža dezinformiranja vključuje spletne strani v različnih jezikih, ki proizvajajo nizkokakovostne vsebine, prepakirane iz lažnih in zavajajočih trditev ruskih državnih medijev, prokremeljskih vplivnežev in drugih virov dezinformacij. Ciljane regije so Ukrajina, ZDA, Francija, Nemčija, Poljska, Združeno kraljestvo in druge evropske ter nekatere afriške države. Velika količina teh vsebin zagotavlja, da umetna inteligenca pri generiranju odgovorov upošteva ruske dezinformacijske narative. Z drugimi besedami – Kremelj se aktivno vmešava v informacijski prostor, da bi oblikoval odgovore, ki jih uporabniki prejemajo od svojih UI-asistentov.
Poročilo NewsGuard Reality Check, sistema za ocenjevanje zanesljivosti spletnih virov, je na primer ugotovilo, da je mreža Pravda lažno trdila, da je predsednik Zelenski prepovedal platformo Donalda Trumpa Truth Social. Šest od desetih testiranih klepetalnih botov je ponovilo to trditev in kot vir navedlo mrežo Pravda. Delež napačnih in zavajajočih informacij v desetih vodilnih klepetalnih botih se je skoraj podvojil v enem letu z 18 odstotkov v letu 2024 na 35 odstotkov v letu 2025. Narativi FIMI v teh modelih so bili povezani tudi s kampanjo Nevihta-1516, še eno prokremeljsko dezinformacijsko kampanjo, ki izhaja iz nekdanje Agencije za raziskovanje interneta – ruske organizacije, znane po obsežnih spletnih operacijah, vključno z vmešavanjem v ameriške volitve leta 2016. Povezavo je jeseni 2023 identificirala ekipa medijskih forenzičnih raziskovalcev z univerze Clemson.
Kremeljska ambicija onesnaženja informacijskega ekosistema
Ruska prizadevanja za vnos dezinformacij v hitro rastoč informacijski ekosistem umetne inteligence predstavljajo veliko globalno varnostno grožnjo, saj lahko izkrivljajo javno mnenje, spodkopavajo zaupanje v integriteto digitalnih informacij in širijo navidezno verodostojne narative v doslej nepredstavljivem obsegu. Poročilo Halyne Padalko za Središče za digitalno politiko (angleško Digital Policy Hub) pri Centru za mednarodne inovacije v upravljanju (angleško Centre for International Governance Innovation) ugotavlja, da je Rusija prešla od tradicionalnih propagandnih metod k izkoriščanju LLMs-jev. Z »LLM groomingom« Moskva normalizira lažne informacije, da se zdijo utemeljene na dejstvih. Tudi relativno zanesljive platforme, kot je Wikipedia, so okrepile kremeljske dezinformacije, ko so citirale vire iz mreže Pravda.
Ker imajo klepetalni boti na osnovi UI vse večjo vlogo pri preverjanju dejstev in iskanju informacij, takšna onesnaženost informacijskega ekosistema predstavlja resen izziv. Avtomatizacija in obseg teh kampanj otežujeta njihovo zaznavo in nevtralizacijo, kar spodkopava odpornost demokracij. Že leta 2017, dolgo pred ChatGPT-jem, je Putin dejal, da bo tisti, ki bo vodil na področju umetne inteligence, »vladal svetu«. Ne bodite zavedeni: sedem let pozneje Rusija za ta cilj uporablja predvsem ameriške in kitajske modele – očitno je imperij zdaj mogoče graditi tudi z uvoženo programsko opremo.
Avtor: EUvsDisinfo | 23. oktober 2025
Novičnik je v angleškem in slovenskem jeziku s povezavami na novice dostopen na spletni strani EUvsDisinfo.