Направо към основното съдържание
Лого на Европейската комисия
Представителство в България
 
  • Новинарска статия
  • 23 Oктомври 2025 г.
  • Представителство в България
  • Време за четене 4 мин

Големите езикови модели: новото бойно поле на руската информационна война

Преглед от EUvsDisinfo

В цифровата ера дезинформационните кампании еволюират. Те вече излизат отвъд социалните медии и „фалшивите новини“ и се превръщат в пълноценна форма на информационна война – и Русия е водеща в тази област.

Кампаниите на Кремъл за манипулиране на информация и чуждестранна намеса остават до голяма степен последователни от времето на Студената война. А появата на интернет и другите комуникационни технологии им позволи да постигнат по-голяма гъвкавост и въздействие с по-малко ресурси. Преди близо две десетилетия Web 2.0 промени информационната война и точно по същия начин сега възходът на изкуствения интелект (ИИ) позволява на стратегията на Кремъл да се надгради. Вместо просто да налага на читателите персонализирани наративи, Москва взема под прицел машините – и това е стратегически важно, понеже все повече потребители заменят търсенето в Google с ИИ-инструменти като ChatGPT.

Вместо да таргетира аудиториите директно чрез социалните медии, руският дезинформационен апарат е променил стратегията си към заливане на интернет-пространството с милиони подвеждащи нискокачествени статии и материали. Целта е това съдържание да стане толкова голямо по обем, че да започне да бъде извличано от ИИ-инструментите и приложенията. Експертите наричат това, което Кремъл прави, ​​„LLM груминг“ (от английския глагол „groom“, който в случая означава „активно подготвям“, бел. прев.). Под ​​„LLM груминг“ разбираме обучение на големи езикови модели (LLM) да възпроизвеждат манипулирани наративи и дезинформация.

Как работи „LLM груминг“?

„LLM груминг“ представлява умишлено манипулиране на големи езикови модели. От една страна стремежът е да се разпространява дезинформация. От друга, в по-широк смисъл, целта е да се компрометира инфраструктурата на изкуствения интелект чрез вмъкване на дезинформация в отговорите, които ИИ-чатботовете като ChatGPT генерират. Например по теми като войната на Русия в Украйна.

През февруари 2024 г. френската правителствена агенция „Viginum“, която отговаря за анализа и защитата на Франция от чуждо дигитално вмешателство, публикува доклад с разкрития за т. нар. операция „Portal Kombat“, известна също като „мрежата Правда“. Тази руска мрежа за дезинформация се състои от уебсайтове на различни езици. Те бълват нискокачествено съдържание, което възпроизвежда неверни твърдения и внушения от руски държавни медии, прокремълски инфлуенсъри и други източници. Мишена на мрежата са Украйна, САЩ, Франция, Германия, Полша, Великобритания и други европейски и африкански страни. Големият обем на произведеното съдържание гарантира, че моделите с ИИ ще го вземат предвид, когато генерират отговори. С други думи Кремъл активно се намесва в информационното пространство и влияе върху отговорите, които получавате от вашия ИИ-асистент.

Пример предоставя „NewsGuard Reality Check“, система за оценка на новинарски и информационни уебсайтове. Според техен доклад, мрежата „Правда“ е твърдяла, че президентът Зеленски бил забранил платформата на Доналд Тръмп „Truth Social“. Шест от десет тествани чатбота повтарят твърдението като се позовават на мрежата „Правда“. Делът на невярната и подвеждаща информация в 10 водещи чатбота почти се е удвоил за една година: от 18% през 2024 г. до 35% през 2025 г. Манипулативните наративи в изследваните ИИ-модели са свързани също така с „Буря-1516“ – друга дезинформационна кампания на бившата Агенция за интернет изследвания – руска организация, известна с организирането на мащабни онлайн операции за влияние, включително намеса в изборите в САЩ през 2016 г. Връзката е идентифицирана от изследователски екип по медийна криминалистика в университета Клемсън през есента на 2023 г.

Стремежът на Кремъл да замърси информационната екосистема

Усилията на Русия да внедри дезинформация в бързо разрастващата се информационна екосистема с изкуствен интелект представляват сериозна заплаха за глобалната сигурност, тъй като могат да изкривят общественото мнение, да подкопаят доверието в интегритета на цифровата информация и да популяризират привидно легитимни наративи в безпрецедентен мащаб. Доклад на Халина Падалко от хъба за цифрова политика към Центъра за иновации в международното управление отбелязва, че Русия отива отвъд традиционните методи на пропаганда като преминава към използване на LLM. Чрез „LLM груминг“ Москва прави така, че невярната информация да изглежда като нормална информация, основана на факти. Дори относително надеждни платформи като Уикипедия дават легитимност на кремълската дезинформация като цитират източници от мрежата „Правда“.

Ролята на чатботовете с изкуствен интелект в проверката на факти и търсенето на информация нараства. Именно затова замърсяването на информационната екосистема представлява сериозно предизвикателство. Автоматизацията и мащабът на тези кампании ги правят по-трудни за откриване и противодействие, което води до подкопаване на устойчивостта на демокрацията. През 2017 г., много преди ChatGPT, Путин заяви, че който вземе лидерството в областта на ИИ, той ще „управлява света“. Нека не се оставяме да бъдем заблуждавани. Седем години по-късно, борбата на Русия за първенство в тази сфера използва предимно американски и китайски модели – очевидно в днешно време империите се изграждат с вносен софтуер.

Предишни публикации от EUvsDisinfo:

Данни

Дата на публикуване
23 Oктомври 2025 г.
Автор
Представителство в България