Компанията за изкуствен интелект Anthropic заяви, че няма да изпълни искане от Министерството на отбраната на САЩ да отслаби мерките за защита на своите системи за изкуствен интелект, като се позова на опасения от масово наблюдение и за разработване на оръжия.
В изявление в четвъртък изпълнителният директорс на Anthropic Дарио Амодей каза, че компанията е против позволяването нейният модел Claude да бъде използван за „масово вътрешно наблюдение“ или за „или за разработване на оръжия, които стрелят без човешка намеса“.
Той каза, че усъвършенстваните системи с изкуствен интелект не са достатъчно надеждни, за да управляват такива оръжия и това е "извън границите на това което днешните технологии могат да правят“, допълва Амодей.
Той отбеляза, че изкуственият интелект може да подпомогне националната сигурност, но предупреди, че в определени случаи изкуственият интелект може да представлява риск за гражданските свободи.
Аnthropic и Пентагонът водят преговори вече от седмици.
Администрацията на Тръмп е заплашила да приложи Закона за отбранителното производство, който позволява на правителството да принуди компаниите да приоритизират нуждите на националната отбрана и е обмисляла да определи Anthropic като рискова за веригата за доставки, което би изисквало от всеки, който иска да сътрудничи с компанията, да прекрати връзките си.
Аксиос съобщи, че Пентагонът е предприел стъпки към тази насока и е поискал от Боинг и Локхийд Мартин да уточнят, до каква степен разчитат на Claude.
Представителят на Пентагона Шон Пърнел отрече, че ведомството възнамерява да използва AI за незаконно наблюдение или за разработване на оръжия, които стрелят без човешка намеса.
В публикация в X той заяви, че Пентагонът се стреми да използва моделите на Claude „във всички законни случаи“ и няма да позволи на частна компания да диктува оперативни решения.








