| Macedonian
Мислење
БИЗНИС И ТЕХНОЛОГИЈА
8 мин читање
Во сенката на дигиталното оружје: ВИ не цели само кон вашата работа, туку и кон вашето постоење
Сое продлабочување на тензиите меѓу технолошките фирми и владите, вештачката интелигенција ја открива својата вистинска траекторија, не како неутрална алатка за напредок, туку како стратешко оружје што го преобликува војувањето, моќта и одговорноста
Во сенката на дигиталното оружје: ВИ не цели само кон вашата работа, туку и кон вашето постоење
Тензиите помеѓу Пентагон и Антропик откриваат колку може да биде кревка реториката на технолошкиот сектор околу безбедната и етичка ВИ / Reuters
29 март 2026

Јавната дебата за вештачката интелигенција сè повеќе се обликува од два главни наративи.

Од една страна, постои загриженост дека вештачката интелигенција ќе го замени човечкиот труд, што ќе доведе до масовна невработеност. Од друга страна, постои техно-утописки поглед што ја претставува вештачката интелигенција како решение за сè, од економска стагнација до климатските промени.

Сепак, во оваа дебата, може да превидиме потивка промена. Случајот Пентагон- Антропик дава витална шанса да се преиспита како се гледа на оваа технологија. Вештачката интелигенција не е само цивилна алатка, туку воен и стратешки инструмент на моќ.

За да се разбере воениот фокус на вештачката интелигенција, корисно е да се испита потеклото на модерните комуникациски технологии.

Спротивно на популарното верување, многу од овие технологии првично не започнале како цивилни проекти.

Претходникот на интернетот, АРПАНЕТ, беше развиен од Пентагон како одбранбена мрежа дизајнирана да одржува комуникација за време на нуклеарен напад.

Денешните системи за вештачка интелигенција носат траги од истата технолошка лоза.

Од оваа перспектива, интересот на Пентагон за вештачка интелигенција не е нов. Тој ги одразува историските корени на технологијата.

Историјата на истражувањето на вештачката интелигенција ја зајакнува оваа поента. За време на таканаречените „ВИ зими“, кога приватните инвестиции се забавија, а многу академици ја доведоа во прашање иднината на полето, военото финансирање продолжи да го поддржува истражувањето.

На пример, во 1980., Иницијативата за стратешко пресметување, лансирана од ДАРПА под Министерството за одбрана на САД, одигра клучна улога во унапредувањето на компјутерската моќ на вештачката интелигенција и можностите за целење.

Тензиите меѓу Пентагон и Антропик

Оваа долгогодишна врска помеѓу вештачката интелигенција и одбранбените институции неодамна повторно се појави.

Тензиите помеѓу Пентагон и Антропик откриваат колку може да биде кревка реториката на технолошкиот сектор околу „безбедната и етичка вештачка интелигенција“.

Острите критики од администрацијата на Трамп и секретарот за војна Пит Хегсет повторно ја отворија дебатата за тоа дали технологијата е навистина неутрална.

Описот на компанијата од страна на Трамп како „радикална левица“, проследен со понатамошни напади, не треба да се отфрла како едноставна политичка реторика.

Изјавите може да се протолкуваат и како сигнал од Вашингтон дека државата останува врвен авторитет над стратешките технологии.

Означувањето на Антропик како „ризик за синџирот на снабдување“ и нејзиниот правен одговор ја разоткрија деликатната рамнотежа на моќ помеѓу Силиконската долина и Вашингтон.

Поддршката од големите технолошки компании како што се Гугл, Aмазон, Mајкрософт и Епл одразуваше не само корпоративна солидарност, туку и загриженост дека сличен политички притисок на крајот би можел да ги погоди и нив.

Во овој критичен момент, OпенАИ на Сем Алтман брзо дејствуваше за да го пополни стратешкиот вакуум создаден од кризата.

Додека Aнтропик се дистанцираше од владините институции поради несогласувања околу етичките „црвени линии“, OпенAИ влезе во ново партнерство со Пентагон.

Основана во 2015 година со непрофитна, идеалистичка визија, OпенАИ сега се наоѓа во срцето на националната безбедносна архитектура со пазарна вредност што надминува 700 милијарди долари.

Сепак, најзначајната реакција на овој потег се појави кај самите корисници на платформите за вештачка интелигенција. По објавувањето на договорот, кампањата “батали го ГПТ“ (#QuitGPT) се прошири низ социјалните медиуми, наводно предизвикувајќи рекордно зголемување до 300 проценти во стапката на бришење на апликацијата ЧетГПТ.

Како одговор на реакцијата, OпенAИ беше принуден да нагласи дека договорот вклучува дополнителни заштитни мерки, како што се ограничувања што го спречуваат надзорот на американските граѓани и барања за човечка одговорност во автономните системи за оружје.

И покрај ова, моделот Клауд (Claude) на Anthropic брзо се искачи на ранг-листата во продавниците за апликации. Многу корисници почнаа да го гледаат Клауд како етичка алтернатива на перцепираната поврзаност на OпенAИ со војската.

Етиката како штит за углед

Сепак, оваа слика не е толку едноставна како што изгледа. Иако Антропик силно го нагласува својот етички дискурс, таа е една од првите компании за вештачка интелигенција што доби дозвола да работи во рамките на класифицираните мрежи на Пентагон.

Активната употреба на Клауд во анализите на целите што доведоа до апсењето на поранешниот претседател Мадуро за време на операцијата во Венецуела во јануари, како и во нападите извршени во Иран, сосема јасно ги повлекува границите на оваа реторика за „безбедна вештачка интелигенција“.

Фактот дека основачот и извршен директор на Антропик, Дарио Амодеи, се спротивставува на надзорот врз американските граѓани, а воедно ја остава вратата отворена за масовно набљудување и оперативна анализа во странство, покажува како етичките граници можат да се поместуваат по географските граници и пасошите.

Оваа ситуација открива дека етичките и човечко-центричните идентитети на брендовите на компаниите за ВИ се претворија во алатки за управување со репутацијата.

Гигантите за вештачка интелигенција внимателно се обидуваат да управуваат со негативната глобална реакција што би произлегла од директното поврзување со области како автономно оружје.

Овој напор може да се објасни не со морален став, туку со желбата да се создаде „штит за репутација“ за да се заштити брендот и пазарниот удел.

За гигантите за вештачка интелигенција, етиката честопати не е ништо повеќе од „етичко перење“ што го краси корпоративниот излог, а не длабоката одговорност. Како што тврдењето на Антропик за насочување кон човекот е смачкано под комерцијалната тежина на неговата пазарна вредност од 380 милијарди долари, јазот помеѓу дискурсот и реалноста се продлабочува.

Архитектурата на масовните атентати

Интеграцијата на вештачката интелигенција во воените системи прави повеќе од тоа да обезбеди стратешка предност. Таа ја преобликува природата на војувањето и создава она што правните научници го нарекуваат „јаз во одговорноста“.

Денес, конфликтните зони станаа огромни лаборатории за технолошки гиганти и војски.

Некои од најстрашните примери може да се видат во системи управувани од вештачка интелигенција, како што се Хабсора и Лавандер, за кои се вели дека се користеле во израелските напади врз Газа. 

Овие системи ги третираат цивилните жртви како статистичка маргина на грешка. Како што тврди новинарот Јувал Абрахам, ваквите технологии ризикуваат да се претворат во „фабрики за масовни убиства“.

Надзорот од човек во јамката често се претставува како етичка заштита. Меѓутоа, во пракса, тој често се сведува на малку повеќе од симболично одобрување.

Кога алгоритмите генерираат илјадници цели во рок од неколку минути, станува физички невозможно операторот на терен детално да ги испита добиените податоци.

Соочени со ограничено време и огромни информации, војниците сè повеќе се потпираат на препораките од вештачката интелигенција. Човечкиот надзор потоа се префрла од вистинско донесување одлуки во процес што само ги легитимира автоматизираните резултати.

Испарување на одговорноста

Оваа ситуација ја претвора вештачката интелигенција во алатка за напад каде што одговорноста испарува. Системите што ги користи Израел ги таргетираат домовите на осомничените, директно загрозувајќи ги цивилите, децата и старите лица во тие домови.

Вештачката интелигенција повеќе не обработува само податоци; таа ги сведува луѓето на статистички отстапувања во „банката на цели“.

Овој проблем не е единствен за една зона на конфликт, што е евидентно и во други неодамнешни настани. Првичните извештаи сугерираат дека нападот на Соединетите Американски Држави врз училиштето во Иран на 28 февруари, во кој загинаа 168 луѓе, вклучувајќи над 100 деца, произлегол од погрешни разузнавачки информации.

Како што продолжуваат истрагите, можно е застарените разузнавачки информации или алатката со вештачка интелигенција што пријавил погрешна цел да бидат одговорни за смртта на овие цивили.

Кога погрешните податоци или алгоритамската пристрасност доведуваат до губење на животи, се поставува вознемирувачко прашање: кој е одговорен? Дали е тоа инженерот што го дизајнирал алгоритмот, компанијата што го распоредила системот или војникот што го притиснал копчето за одобрување?

Оваа неизвесност стана еден од најмрачните аспекти на модерното војување.

Истражувањето на професорот Кенет Пејн од Кингс колеџот во Лондон истакнува друга димензија на опасноста. Неговата работа сугерира дека моделите со вештачка интелигенција имаат 95 проценти поголема веројатност од луѓето да користат нуклеарно оружје во моменти на криза.

Човештвото досега се воздржуваше од притискање на нуклеарното чкрапало, учејќи од болните сеќавања на Хирошима и Нагасаки. Сепак, не можеме да кажеме дека алгоритмите поседуваат или оваа историска меморија или морална совест.

Во оваа фаза, кошмарот на Скајнет од филмовите „Терминатор“ повеќе не е само научно-фантастична дистопија; тоа е нова реалполитика создадена од неконтролиран технолошки детерминизам.

Алгоритамска опсада

Вештачката интелигенција еволуира од алатка за ефикасност во централен елемент на глобалната безбедносна архитектура. Ограничениот број компании што ја контролираат оваа инфраструктура не е едноставно пишување код.

Тие исто така градат дигитални граници што ја дефинираат сферата на движење за поединците и општеството.

За јазиците и културите на кои им недостасува застапеност во множествата податоци за обука, опасноста оди подалеку од технолошката зависност.

Тоа ризикува подлабока форма на културен империјализам. Моделите на вештачката интелигенција ги носат културните кодови, вредносните проценки и идеолошките пристрасности на множествата податоци на кои се обучени, презентирајќи ги како универзални вистини.

Без разновидни множества податоци, општествата ризикуваат да ја жртвуваат својата колективна меморија и уникатни културни идентитети на хомогенизираната логика на глобалните технолошки гиганти.

Во овој контекст, проблемот не е само технолошка трка; Станува збор за заштита на општеството и поединецот од тоа да бидат кодирани како анонимни координати на алгоритамски листи на терор или како „статистички маржи на грешка“ во банката на цели на софтверот.

За корисниците, највознемирувачката реалност може да биде колку се ограничени нивните избори всушност. Префрлањето од еден модел на друг честопати е сведено на избор помеѓу различни гранки на масивно дрво вкоренето во истата почва.

Имињата на гранките се менуваат, но корените остануваат исти: стратешка контрола, воени мрежи и глобална инфраструктура за надзор.

На крајот на краиштата, вештачката интелигенција повеќе не е канцелариски асистент што ветува ефикасност; таа се претвора во дигитално оружје што ги опкружува човечкото постоење и општествените граници од сите правци.

Емре Јиланџик

Емре Јиланџик е медиумски професионалец со седиште во Туркије, а неговото истражување се фокусира на дигиталните медиуми, општеството на надзор и социолошките импликации на вештачката интелигенција.

Извор: ТРТ Ворлд

Напомена: Ставовите изразени во овој напис му припаѓаат на авторот и не ја одразуваат нужно уредувачката политика на ТРТ Балкан

Повеќе
Кина бара што е можно поскоро разговори меѓу САД и Иран, го пофали посредништвото на Пакистан
Иран извршил над 5.400 напади од почетокот на војната со САД и Израел
Предводен од првата дама на Туркије, светот го одбележува Меѓународниот ден на нула отпад
Трамп навестува заземање на островот Харг и заплена на иранската нафта
ЕУ: Забраната на патријархот да влезе во црквата во Ерусалим е „кршење на верската слобода“
САД дозволија руски танкер за нафта да ја пробие блокадата и да отплови кон Куба
Германската крајно десничарска AфД бара повлекување на американските трупи
Вучиќ прогласи победа на локалните избори: Благодарност до Србија за довербата
Гутереш: ОН остро го осудува убиството на мировникот во Либан
Туркије развива сопствена „Челична купола“ за противвоздушна одбрана
Мировник на ОН убиен во ракетен напад во Либан
Иран: Четири експлозии во Ком по нападите на САД и Израел
Трамп: Голем ден во Иран, уништивме многу цели
Фидан ја смета војната на САД и Израел против Иран за нелегална и повикува на притисок врз Тел Авив
Паузата на Трамп со Иран: Дипломатски прозорец или одбројување до ескалација?