• Осим ширења дипфејкова, НАТО се све више ослања на „аутоматизовану пропаганду“, генеришући уз помоћ ВИ веродостојне приче и новинске наслове у огромним количинама. Системи подржани вештачком интелигенцијом затим шире ту пропаганду и друге дезинформације циљној публици.
  • Ако у Пентагону и НАТО-у лаж, па још фабрикована уз помоћ ВИ, постане системска пракса, ускоро ниједна разумна особа у свету више неће веровати ничему што стиже из америчких „информационих гвоздених“ канала.

АУТОР: Олег РОЗАНОВ

Команда за специјалне операције САД планира да користи вештачку интелигенцију (ВИ) за пропаганду и ширење утицаја земље у иностранству. Ово се наводи у документу команде до ког је дошао портал The Intercept.

Пентагон креира профиле на друштвеним мрежама користећи вештачку интелигенцију, намењене војној употреби. Команда за специјалне операције САД (SOCOM) жели да створи ликове генерисане ВИ, који не могу да се разликују од стварних људи, у сврху прикупљања обавештајних података.

SOCOM истражује технологије дипфејкова, планирајући креирање лажних интернет личности које је практично немогуће разликовати од стварних људи. Овај развој је детаљно описан у 76-страничном документу о јавним набавкама који је припремило Јединствено командовање специјалних операција (JSOC), у коме се наглашава интересовање за употребу ИИ генерисаних идентитета у друштвеним мрежама и другим онлајн садржајима.

Циљ ових истраживања је употреба медија генерисаних ВИ — фотографија, видеа, па чак и звука — који могу да створе уверљиву илузију људских профила за потребе обавештајног рада, укључујући учешће у дискусијама на јавним форумима и друштвеним мрежама. Ови SOCOM-ови планови, детаљно описани у документу о набавкама, представљају део ширих напора за унапређење дигиталних операција обмане и утицаја, тј. информационих ратова.

Према документацији о набавци, америчка војска планира да креира дигиталне идентитете користећи „фотографије идентификационог квалитета (као за личне карте)“, различите изразе лица и видео садржај који подсећа на селфи снимке.

Профили би требало да „одражавају јединствену личност, препознатљиву као човек, али која не постоји у стварном свету“.

Свака „особа“ би укључивала не само статичне слике, већ и видео и аудио компоненте, направљене тако да их алгоритми које користе велике друштвене мреже не могу открити.

У техничким захтевима SOCOM-а помиње се и употреба дипфејк технологије за креирање виртуелних окружења са вештачки створеним природним позадинама, које су толико уверљиве да се органски уклапају у онлајн екосистем. Ово „виртуелно окружење“ треба да буде дизајнирано тако да га аутоматизовани системи за праћење сумњивог понашања на интернету не могу открити.

Истраживање ове технологије од стране Пентагона оштро је у супротности са његовим претходним упозорењима о ризицима дипфејкова. У заједничком саопштењу из 2023. године, ФБИ, НСА и Агенција за сајбер-безбедност (CISA) назвали су синтетички медијски садржај „највећим ризиком“ по интегритет информација, наглашавајући ширење дипфејкова као озбиљну претњу националној безбедности.

Употреба ИИ-створених ликова у тајним операцијама навела је неке стручњаке да упозоре на могућност „појачавања злонамерног утицаја“. Представници Пентагона су више пута изражавали забринутост да би ривали попут Русије, Кине и Ирана могли користити садржај генерисан ВИ за ширење дезинформација. Међутим, америчко Министарство одбране сада прихвата ту сумњиву праксу коју је раније критиковало.

Многи независни стручњаци, попут Хајди Клааф, водећег ИИ специјалисте у AI Now Institute, тврде да усвајање оваквих, по дефиницији опасних технологија од стране америчке војске може довести до нове трке у дигиталном наоружању. Клааф је упозорила да „не постоје легитимне могућности за њихову употребу осим у обмањивачке сврхе“, те да би овакве акције Пентагона могле подстаћи друге државе да покрену сопствене иницијативе у области дипфејкова.

Употреба дипфејкова од стране америчке војске ствара преседан који потенцијално нормализује употребу обмањивачких технологија широм света.

Жеља SOCOM-а за дигиталном обманом путем ВИ показује да се САД припремају за будућност у којој доминирају дигитални утицај и обавештајне активности. Иако ВИ-генерисани ликови могу представљати моћно оружје у информационом рату, такође постоји ризик да ће подрићи поверење у америчке информационе кампање.

Професор са Џорџтаун универзитета, Даниел Бајман, истиче да владине структуре које се баве обманом могу угрозити поверење сопствених грађана у званичне информације, учинивши их скептичнијим.

Важно је напоменути да америчка војска већ дуже време користи дипфејкове. Још 2022. године, такозвано цурење докумената Twitter Files открило је да је ова (у Русији забрањена) друштвена мрежа свесно дозвољавала америчкој војсци да спроводи операције утицаја преко сајта, користећи лажне изворе вести и измишљене аватаре.

На америчкој војној бази Форт Либерти (Северна Каролина), инструктори психолошких операција SOCOM-а обучавају оператере дронова да користе технологију Ghost Machine за дезинформисање непријатеља.

„Користећи узорак вашег гласа и гејмерски лаптоп, инструктор психолошких операција може да натера ваш глас да каже било шта — наруџбину пице, заказивање прегледа код лекара или обично ‘здраво’.
У време мира, то је само трик. У рату, то је средство које може бити коришћено за обману, намамљивање непријатеља у замке или охрабривање на дезертирање, имитирајући гласове непријатељских војника.
Ова технологија може да копира глас непријатељског команданта користећи пресретнуте поруке или јавно доступне податке, а затим га користити да се непријатељ превари, на пример да поверује да је његов командант заробљен“, пише Defense One.

Тако је, на пример, у једној симулацији у оквиру Ghost Machine, програм имитирао фиктивног кинеског команданта који својим трупама наређује да се предају.

Осим ширења дипфејкова, НАТО се све више ослања на „аутоматизовану пропаганду“, генеришући уз помоћ ВИ веродостојне приче и новинске наслове у огромним количинама. Системи подржани вештачком интелигенцијом затим шире ту пропаганду и друге дезинформације циљној публици.

Све ове технологије део су нове НАТО стратегије под називом Weaponization of AI („Милитаризација вештачке интелигенције“).

Како каже стара руска пословица: „Једном кад слажеш, ко ће ти веровати?“

Ако у Пентагону и НАТО-у лаж, па још фабрикована уз помоћ ВИ, постане системска пракса, ускоро ниједна разумна особа у свету више неће веровати ничему што стиже из америчких „информационих гвоздених“ канала.

https://www.fondsk.ru/news/2025/09/02/v-pentagone-stavyat-na-potok-fabrikaciyu-dipfeykov.html

Оставите одговор

Ваша адреса е-поште неће бити објављена. Неопходна поља су означена *