Compania Anthropic respinge cererea Pentagonului de a slăbi măsurile de siguranță
Compania refuză să elimine măsurile de protecție de pe modelul său de inteligență artificială din cauza îngrijorărilor legate de supraveghere și arme autonome.
Compania de inteligență artificială (IA) Anthropic a anunțat că nu va respecta o solicitare a Departamentului Apărării al SUA de a relaxa măsurile de protecție pentru sistemele sale de IA, invocând îngrijorări legate de supravegherea în masă și armele autonome.
Într-o declarație joi, directorul general Dario Amodei a spus că firma se opune utilizării modelului său de IA, Claude, pentru „supraveghere internă în masă” sau „arme complet autonome.”
El a afirmat că sistemele avansate de IA nu sunt suficient de fiabile pentru a opera astfel de arme fără supraveghere umană și necesită măsuri de protecție care „nu există astăzi”.
De asemenea, a spus că IA poate sprijini securitatea națională, dar a avertizat că supravegherea extinsă, condusă de IA, ar putea pune în pericol libertățile civile.
Anthropic și Pentagonul au negociat timp de săptămâni.
Administrația Trump a amenințat că va invoca Legea privind Producția pentru Apărare (Defense Production Act), care permite guvernului să oblige companiile să prioritizeze nevoile apărării naționale, și a luat în considerare etichetarea Anthropic drept „risc pentru lanțul de aprovizionare”. O astfel de desemnare ar împiedica contractanții Departamentului Apărării să folosească software-ul său.
Publicația Axios a relatat că Pentagonul a început demersuri în direcția acelei desemnări și le-a cerut companiilor Boeing și Lockheed Martin să detalieze dependența lor de Claude.
Purtătorul de cuvânt al Pentagonului, Sean Parnell a negat că departamentul intenționează să utilizeze IA pentru supraveghere ilegală sau arme complet autonome fără implicarea umană.
Într-o postare pe X, el a spus că Pentagonul caută să folosească modelul Anthropic pentru „toate scopurile legale” și că nu va permite unei companii private să dicteze deciziile operaționale.