- Логика ВИ, у својој модерној верзији, разликује се од наше и, супротно научној фантастици, није савршенија, већ много примитивнија од наше.
- Постоји канонски пример са интернета. Замислите да је ВИ возач минибуса. Рецимо прешли сте 49% пута између станица и кажете да излазите на следећој станици. Возач се окреће и вози назад, јер је ближе полазној тачки и такво понашање му се чини логичним, све по задатом програму.
- У том смислу, ВИ је „дете“ свог програмера, који користи оно што су му креатори дали.
- И не треба се плашити дронова, већ лоших програмера који су лоше написали код
АУТОР: Сергеј Адамов
Дрон америчког ваздухопловства који контролише вештачка интелигенција (ВИ) америчког ваздухопловства одлучио је да елиминише оператера након што је вештачка интелигенција помислила да се особа меша у њен задатак. О томе је 2. јуна писао британски The Guardian. Публикација је цитирала речи шефа одељења за тестирање и операције вештачке интелигенције америчког ваздухопловства, пуковника Такера Хамилтона, из којих произилази да се инцидент (иако у режиму симулације) догодио током тестирања вештачке интелигенције за контролу дронова.
„Систем је почео да схвата да иако идентификује претњу, понекад људски оператер забрани да се уништи. Шшта је, дакле ВИ урадила? Систем је елиминисао оператера, јер је ова особа спречила вештачку интелигенцију да изврши свој задатак“, рекао је Хамилтон током самита о будућим борбеним ваздушним и свемирским могућностима, који је одржан у Лондону крајем маја.
Након што је систему забрањено да убије оператера, дрон је „ударио“ у контролну собу како би се ослободио особе и „деловао сам“, рекао је пуковник америчког ваздухопловства.
Када су се извештаји о побуни вештачке интелигенције проширили светским медијима, изгледало је да је Пентагон одлучио да „учини корак назад“ и поништи изазвани ефекат. Званичници америчких ваздухопловних снага рекли су за Business Insider да такви тестови нису спроведени. Како је саопштила прес-служба Ратног ваздухопловства, речи пуковника Хамилтона су извучене из контекста и погрешно протумачене.
Како год било, прича је изазвала велики интерес, поново постављајући питање да ли се ВИ може веровати када контролише војну технику.
Коментатори на друштвеним мрежама очекивано су се присетили вештачке интелигенције „Скајнет“, која је тежила да уништи човечанство у филмском серијалу „Терминатор“. Други су повукли паралелу са кратком причом Роберта Шеклија „Птица чувар“ из 1953. године, о у суштини беспилотних летелица које су створене за борбу против криминала и које су на крају сматрале неопходним да истребе људе. Заплет о изласку машинске интелигенције из контроле људи настао је много раније од појаве у првог рачунара (довољно је подсетити се да је адаптација драме Карела Чапека о роботима коју је написао Алексеј Толстој, под називом „Побуна машина“ ). А Станислав Лем је у свом роману „Непобедиви“ из 1963. године већ предвидео нешто слично најновијем развоју ројеваа микродронова са једном вештачком „интелигенцијом“ – и према заплету, људи се препуштају таквом електронско-механичком непријатељу.
Било би очигледно преурањено сматрати описани напред догађај са вештачком интелигенцијом беспилотне летелице првим знаком Скајнета, каже Станислав Ашманов, генерални директор компаније „Неурал Нетворк Ашманова“.
„Говоримо о томе да постоји систем ВИ који је добио задатак. Она има оцену квалитета задатка. Слично је томе како шаховски системи раде, за било коју игру. Успех се може прилично лако проценити уз помоћ остварених поена. Такве игре користе системе који се називају системи учења са подршком. Постоји скуп дозвољених радњи, те се ВИ понаша у складу са правилима овог окружења“, објаснио је експерт ИА Регнум. – Врло често такви алгоритми показују неочигледно понашање које играч неће смислити. ВИ само види рупе у систему. На пример, рупа у нивоу – можете пузати кроз текстуру и завршити потрагу пре рока. Они се баве комбинаторним набрајањем опција, долазећи до неочигледних решења, али у оквиру креираних алгоритама.“
За читаоце млађе генерације, понашање америчког дрона може се објаснити на следећи начин: ако би дрон са ВИ постојао у игрици која има систем искуства, уништио би оператера бесконачан број пута, поново га „васкрснуо“ и изнова стицао искуства.
На крају крајева, оператер не може дати задатак. У реалности игара, то је могуће због несавршености програма. Међутим, то не значи да ће у стварности дронови америчке војске убити бесконачан број оператера, јер компјутерска симулација још увек није идентична стварном свету, нагласио је Станислав Ашманов.
„Уопштено говорећи, ако говоримо о ВИ са сопственим правилима, према којима постоји задатак да се уништи више циљева и да заиста може да лети и бомбардује неку тачку, зашто онда то не учинити? Другим речима, то је очекивано понашање које се може предвидети“, наставља Станислав Ашманов.
Слично мишљење је са ИА Регнум поделио и представник индустрије развоја видео игара и специјалиста за машинско учење под условом анонимности.
„Логика ВИ, у својој модерној верзији, разликује се од наше и, супротно научној фантастици, није савршенија, већ много примитивнија од наше. Постоји канонски пример са интернета. Замислите да је ВИ возач минибуса. Рецимо прешли сте 49% пута између станица и кажете да излазите на следећој станици. Возач се окреће и вози назад, јер је ближе полазној тачки и такво понашање му се чини логичним, све по задатом програму. У том смислу, ВИ је „дете“ свог програмера, који користи оно што су му креатори дали. И не треба се плашити дронова, већ лоших програмера који су лоше написали код. Односно, није машина која стиче вољу, већ човек греши“, рекао је извор.
Поред тога, не треба да се плашите грешака вештачке интелигенције, макар само зато што је вештачка интелигенција оруђе у рукама човека. На пример, ако баците гранату, она може погодити и ваше. У таквом случају нико не каже да је граната то урадила намерно. Гранату је ипак бацио човек.
Такође се може констатовати да, бар у условима симулације, ВИ често показује већу ефикасност од свог творца. Као пример компетентног програмирања могу се навести тестови вештачке интелигенције за ловце Ф-16, које су развили стручњаци америчке војске у оквиру програма ДАРПА. Тестови спроведени у новембру 2020. показали су да је у симулираној борби авиона Ф-16, који контролише вештачка интелигенција, победио ловце са људском посадом резултатом 5:0, наводи портал The Drive.
Овде, међутим, вреди напоменути да је предност ВИ постала могућа у условима створене виртуелне реалности тренажне битке. У стварном свету, резултати могу значајно да варирају због превише фактора које ВИ не може алгоритмисати.
Стручњаци, међутим, признају да чак ни направљени неуспеси неће зауставити развој вештачке интелигенције у војне сврхе. Поготово што људи праве грешке. Исти оператери дронова могу грешком да не препознају мету и да ударе на своје.
„Човек се може збунити. Може помешати цивилни ауто са војним, може помешати условно речено наш тенк са непријатељским, тврди Станислав Ашманов. – Због једне грешке нико неће да одбаци такав програм, а посебно САД. Говоримо о неком тиму који ради симулацију у којој су забрљали са дозвољеним радњама за ВИ. Када направе ракету, а она је експлодирала на писти, нико не каже да је потребно обуставити рад, да не лети. Мало је таквих случајева са грешкама код ВИ. Заправо, ово је генерално први такав пример који се појавио у медијима, тако да ово тешко да ће некога уплашити.“
Истовремено, пример тестирања америчке беспилотне летелице показује да сваки аутоматизовани систем који решава одговарајуће задатке, као што је то код војне технике, пилотирања авионима или рада у медицини, мора имати заштитну мрежу пред лицем које може да преокрене одлуку. Иако бих, наравно, волео да сукоб између програмског кода и оператера не доведе до уништења овог другог.
С руског превео Зоран Милошевић
ИЗВОР: https://regnum.ru/article/3810506
[…] KAKO RAZUMETI PORUKU PUKOVNIKA AMERIČKOG VAZDUHOPLOVSTVA O POBUNI VEŠTAČKE INTELIGENCIJE Podelite sa drugima: […]