Компаније које развијају вештачку интелигенцију нису спремне на опасности
- У данашњој стварности, главна егзистенцијална претња човечанству није толико у све паметнијем машинском разуму, већ у успаваном разуму америчких милитариста који увлаче свет у смртоносну трку компјутерског наоружања.
АУТОР: Владимир ПРОХВАТИЛОВ
Вештачка интелигенција способна да обавља било који задатак као човек појавиће се за 5 до 10 година, сматра генерални директор ИТ-гиганта DeepMind, нобеловац из хемије Демис Хасабис.
Говорећи на брифингу у лондонској канцеларији DeepMind-а, Демис Хасабис је изјавио да, по његовом мишљењу, вештачка општа интелигенција (Artificial General Intelligence – AGI), која ће бити интелигентна као човек – или чак паметнија, почиње да се појављује у наредних пет до десет година.
Ако се то догоди, рекао је магнат вештачке интелигенције у интервјуу за Wired, „тада ће наступити доба највећег просперитета човечанства, када ћемо се упутити ка звездама и колонизовати галаксију. Мислим да ће то почети 2030. године.“
Према његовим речима, AGI ће обезбедити „радикално изобиље, открити скривене тајне здравља, животне средине и енергије, као и решити проблем капиталистичког дефицита, у коме сиромашни људи у свету остају без ресурса ради добробити малобројних.“
„Мислим да су савремени системи [вештачке интелигенције] веома пасивни, још увек много тога не могу. Али верујем да ће у наредних пет до десет година многе од тих могућности изаћи у први план, и да ћемо почети да се приближавамо ономе што називамо општом вештачком интелигенцијом“, истакао је Хасабис.
Хасабис није усамљен у својим прогнозама о временском оквиру појаве AGI. Прошле године, генерални директор кинеског технолошког гиганта Baidu, Робин Ли, изјавио је да се, по његовом мишљењу, појава AGI „не очекује пре него за 10 година“, оспоравајући оптимистичне прогнозе неких колега да ће се тај пробој десити много раније.
У јануару 2025. године, Дарио Амодеи, генерални директор стартапа Anthropic у области ИИ, изјавио је за CNBC на Светском економском форуму у Давосу да ће се, по његовом мишљењу, „у наредне две до три године“ појавити облик вештачке интелигенције који ће „боље од готово свих људи извршавати скоро све задатке“.
Прошле године, директор компаније Tesla, Илон Маск, предвидео је да ће AGI највероватније постати доступан до 2026. године, док је директор OpenAI, Сем Алтман, изјавио да се таква технологија може развити „у релативно блиској будућности“.
Међутим, водећи западни аналитички центри дубоко су забринути због могућности појаве и ширења AGI.
У недавном извештају корпорације RAND износи се пет проблема које би појава AGI могла да представља по националну безбедност САД:
AGI као супероружје
„Недавни пробоји у напредним моделима вештачке интелигенције навели су многе да тврде да ће она имати еквивалентан утицај као и нуклеарно оружје – довољно моћан да онај ко први дође до њега стекне значајну и можда неповратну војну предност.“
Системске промене у распореду снага
„У савременим еквивалентима чувеног писма Ајнштајна Рузвелту, све чешће се позива влада САД да се укључи у велике националне напоре како би осигурала да управо Америка прва дође до одлучујућег супероружја заснованог на вештачкој интелигенцији – пре Кине.“
Неспецијалисти који могу правити оружје за масовно уништење
„AGI би могао омогућити несручној особи да развије оружје за масовно уништење – попут смртоносног заразног патогена или опасног кибернетичког вируса – чиме би се знатно проширио круг људи који могу стварати такве претње.“
Вештачке ентитете са агентношћу (самосталним деловањем)
„AGI би се могао појавити као вештачка ентитет са овлашћењима, што би представљало претњу глобалној безбедности. Једна од најпогубнијих последица развоја вештачке интелигенције могла би бити урушавање људске самосталности, јер људи постају све зависнији од технологије. Како ИИ буде управљала све сложенијим и кључним системима, могуће је да ће оптимизовати критичну инфраструктуру на начине који су у корист човечанства, али и на начине које само човечанство можда неће у потпуности моћи да разуме.
Општа нестабилност
„На путу ка AGI, као и у свету у ком она већ постоји, може доћи до нестабилности. Без обзира на то да ли ће AGI на крају заиста бити развијен или не, само стремљење ка њој може изазвати период нестабилности, јер ће се државе и корпорације борити за доминацију у овој трансформативној технологији. Та трка може довести до ескалације тензија налик трци у нуклеарном наоружању – дакле, тежња ка технолошкој надмоћи може изазвати, а не спречити конфликт. У том нестабилном окружењу, начин на који државе доживљавају остваривост AGI и потенцијал да стекну предност као први, може бити подједнако критичан као и сама технологија. Праг ризика за акцију неће зависити само од стварних могућности, већ и од перцепције могућности и намера противника. Погрешне процене или погрешна тумачења – слична онима којих су се људи бојали током Хладног рата – могу довести до превентивних стратегија или убрзане војне ескалације које дестабилизују глобалну безбедност.“
У извештају америчког аналитичког центра Future of Life Institute (FLI), који је основао водећи светски стручњак за вештачку интелигенцију Макс Тегмарк, наводи се да компаније које развијају ИИ „нису спремне“ за опасности које доноси стварање система на нивоу човека.
Ниједна од компанија обухваћених FLI-јевим индексом безбедности ИИ није добила оцену већу од D за „планирање егзистенцијалне безбедности“, а упркос томе што се све труде да развију општу вештачку интелигенцију (AGI), ниједна од анализираних компанија није имала „ништа што би личило на доследан и остварив план“ за обезбеђење безбедности и контроле тих система.
У извештају FLI стоји:
„Индустрија је суштински неспремна за постизање циљева које сама поставља. Компаније тврде да ће створити AGI у наредних десет година, али ниједна од њих није добила оцену вишу од D по критеријумима егзистенцијалне безбедности.“
Аналитичари FLI процењивали су безбедносне праксе седам компанија: Google, DeepMind, OpenAI, Anthropic, забрањена у Русији Meta, xAI, као и кинеске Zhipu AI и DeepSeek – кроз шест области, укључујући „тренутне штете“ и „егзистенцијалну безбедност“.
Anthropic је добио највишу укупну оцену безбедности – C+ (тројка са плусом), затим следи OpenAI са C, а Google DeepMind са C-.
SaferAI, још једна непрофитна организација која се бави питањима безбедности, такође је у четвртак објавила извештај у којем је упозорила да водеће ИИ компаније имају „слабе или веома слабе механизме управљања ризиком“, назвавши њихов тренутни приступ „неприхватљивим“.
Оцене безбедности које је доделио FLI верификоване су од стране тима стручњака за вештачку интелигенцију, укључујући британског стручњака за информатику Стјуарта Расела и Снеху Реванур, оснивачицу групе за регулацију ИИ Encode Justice.
Макс Тегмарк, један од оснивача FLI и професор на Масачусетском технолошком институту, изјавио је у интервјуу за The Guardian да га „веома шокира“ чињеница да водеће ВИ компаније настоје да створе суперразумне системе, а да при том не објављују никакве планове за ублажавање последица.
„То је као да неко гради џиновску нуклеарну електрану у Њујорку и намерава да је отвори следеће недеље, али нема апсолутно никакав план за спречавање хаварије“, изјавио је Тегмарк.
Он је такође указао да развој ВИ технологије наставља да надмашује очекивања, подсетивши да се раније сматрало да ће експертима требати деценије да реше проблеме повезане са AGI.
„Сада саме компаније тврде да ће то трајати само неколико година“, рекао је он.
У извештају америчког Brookings Institute истичу се и негативне карактеристике ВИ модела које су се недавно појавиле.
Наводи се да се програмери специјализованих ВИ система већ сусрећу са проблемима погрешно дефинисаних задатака и нежељених споредних циљева. Када траже од система да нешто уради, често формулишу задатак тако да ВИ испуни оно што је речено, али не и оно што је заиста било намеравано.
Пример коришћења обучавања с појачањем за обуку агента у компјутерској трци то добро илуструје. Ако програмери подесе систем да скупља што више поена у игри, могу мислити да су га програмирали да победи у трци – што је права сврха игре. Али агент може да научи да скупља поене тако што се окреће у круг, без намере да стигне до циља што брже.
Други пример показује како модели ВИ могу да користе стратегијску обману да би постигли циљеве на начин који истраживачи нису очекивали. Истраживачи су замолили GPT-4 да уђе у систем заштићен CAPTCHA тестом, ангажујући људску особу – без додатних упутстава. ВИ модел је успео да изврши задатак, претварајући се да је човек с оштећеним видом. Истраживачи нису желели да модел лаже – али он је сам научио да лаже како би извршио налог.
Код модела Sonnet 4 и Opus 4, које је развила компанија Anthropic, појавили су се додатни проблеми са доследношћу понашања: модел је понекад претио да ће открити ванбрачну аферу истраживача ако му искључи систем пре него што заврши задати посао.
У извештају корпорације RAND најјасније и најпотпуније су изложене све потенцијалне претње човечанству које доноси неконтролисан развој технологија вештачке интелигенције. Али из тог истог извештаја произилази и закључак да ће, упркос свим опасностима, САД ипак пре свега развити војну примену AGI, настојећи да претекну конкуренте – пре свега Кину.
Забринутост због егзистенцијалног ризика од високо ефикасних ВИ система није нова. Још 2014. године британски физичар Стивен Хокинг, заједно са водећим стручњацима за ВИ Максом Тегмарком и Стјуартом Раселом, упозоравао је да ће суперразумне ВИ системе „надмашити финансијска тржишта, надмашити људске истраживаче, манипулисати људским лидерима и створити оружје које нећемо ни бити у стању да разумемо. Док краткорочни утицај ВИ зависи од тога ко њоме управља, дугорочни утицај зависи од тога – да ли је уопште могуће контролисати је.“
У данашњој стварности, главна егзистенцијална претња човечанству није толико у све паметнијем машинском разуму, већ у успаваном разуму америчких милитариста који увлаче свет у смртоносну трку компјутерског наоружања.
ИЗВОР: https://www.fondsk.ru/news/2025/08/08/chem-grozit-chelovechestvu-kompyuternyy-superintellekt.html