Η εταιρεία τεχνητής νοημοσύνης Anthropic ανακοίνωσε ότι δεν θα συμμορφωθεί με αίτημα του αμερικανικού Υπουργείου Άμυνας να χαλαρώσει τα μέτρα προστασίας στα συστήματα τεχνητής νοημοσύνης της, επικαλούμενη ανησυχίες για μαζική επιτήρηση και αυτόνομα όπλα.
Σε ανακοίνωση την Πέμπτη, ο διευθύνων σύμβουλος Ντάριο Αμοντέι δήλωσε ότι η εταιρεία αντιτίθεται στη χρήση του μοντέλου της, Claude, για «μαζική εγχώρια επιτήρηση» ή «πλήρως αυτόνομα όπλα».
Πρόσθεσε ότι τα προηγμένα συστήματα τεχνητής νοημοσύνης δεν είναι αρκετά αξιόπιστα για να λειτουργήσουν τέτοια όπλα χωρίς ανθρώπινη επίβλεψη και ότι απαιτούνται μέτρα προστασίας που «δεν υπάρχουν σήμερα».
Επίσης ανέφερε ότι η τεχνητή νοημοσύνη μπορεί να υποστηρίξει την εθνική ασφάλεια, αλλά προειδοποίησε ότι η εκτεταμένη επιτήρηση με βάση την ΤΝ θα μπορούσε να δημιουργήσει κινδύνους για τα ατομικά δικαιώματα.
Η Anthropic και το Πεντάγωνο διαπραγματεύονται εδώ και εβδομάδες
Η κυβέρνηση Τραμπ έχει απειλήσει ότι θα επικαλεστεί τον Νόμο Περί Αμυντικής Παραγωγής, ο οποίος επιτρέπει στην κυβέρνηση να υποχρεώνει εταιρείες να δίνουν προτεραιότητα στις ανάγκες εθνικής άμυνας, και έχει εξετάσει το ενδεχόμενο να χαρακτηρίσει την Anthropic «κίνδυνο στην αλυσίδα εφοδιασμού». Ένας τέτοιος χαρακτηρισμός θα εμπόδιζε τους εξωτερικούς συνεργάτες του Πενταγώνου να χρησιμοποιούν το λογισμικό της.
Το Axios ανέφερε ότι το Πεντάγωνο έχει ξεκινήσει βήματα σε σχέση με αυτόν τον χαρακτηρισμό και ζήτησε από τη Boeing και τη Lockheed Martin να εξηγήσουν την εξάρτησή τους από το Claude.
Ο εκπρόσωπος του Πενταγώνου, Σον Πάρνελ, διέψευσε ότι το τμήμα σκοπεύει να χρησιμοποιήσει την ΤΝ για παράνομη επιτήρηση ή για πλήρως αυτόνομα όπλα χωρίς ανθρώπινη εμπλοκή.
Σε ανάρτηση στο X, είπε ότι το Πεντάγωνο επιδιώκει να χρησιμοποιήσει το μοντέλο της Anthropic για «όλους τους νόμιμους σκοπούς» και ότι δεν θα επιτρέψει σε μια ιδιωτική εταιρεία να υπαγορεύει επιχειρησιακές αποφάσεις.














