Offcanvas
Offcanvas
Tech
Anthropic: Μηνύει την αμερικανική κυβέρνηση για τον χαρακτηρισμό «supply chain risk» και το μπλόκο από κρατικές συμβάσεις
10-03-2026
Η εταιρεία AI προσέφυγε στη Δικαιοσύνη κατά του Πενταγώνου μετά τον χαρακτηρισμό της ως κινδύνου για την αλυσίδα εφοδιασμού, σε μια σύγκρουση για τη χρήση της τεχνητής νοημοσύνης σε στρατιωτικές εφαρμογές και οπλικά συστήματα
Στη Δικαιοσύνη προσφεύγει η Anthropic κατά του αμερικανικού Πενταγώνου, κλιμακώνοντας μια έντονη σύγκρουση με την κυβέρνηση του Ντόναλντ Τραμπ σχετικά με τη χρήση της τεχνολογίας της σε στρατιωτικά συστήματα και ζητήματα εθνικής ασφάλειας.
Η εταιρεία υποστηρίζει ότι η κυβέρνηση την αποκλείει από κρατικές συμβάσεις επειδή αρνήθηκε να επιτρέψει την απεριόριστη χρήση της τεχνητής νοημοσύνης της σε εφαρμογές όπως η μαζική επιτήρηση και τα αυτόνομα οπλικά συστήματα.
Η Anthropic ζητά από το δικαστήριο να ακυρώσει τον χαρακτηρισμό της ως «κινδύνου για την αλυσίδα εφοδιασμού» των ΗΠΑ και να υποχρεώσει τις ομοσπονδιακές υπηρεσίες να αποσύρουν σχετικές οδηγίες που την αποκλείουν από συνεργασίες με την κυβέρνηση.
Η εταιρεία, με έδρα το Σαν Φρανσίσκο, αμφισβητεί απόφαση του Υπουργείου Άμυνας και άλλων ομοσπονδιακών υπηρεσιών να μεταφέρουν τα έργα τεχνητής νοημοσύνης σε άλλους παρόχους. Ο χαρακτηρισμός αυτός χρησιμοποιείται συνήθως για εταιρείες από χώρες που οι ΗΠΑ θεωρούν αντίπαλες.
Σύμφωνα με την αγωγή που κατατέθηκε τη Δευτέρα σε ομοσπονδιακό δικαστήριο του Σαν Φρανσίσκο, οι ενέργειες της κυβέρνησης είναι «πρωτοφανείς και παράνομες» και απειλούν άμεσα τη δραστηριότητα της εταιρείας.
«Το Σύνταγμα δεν επιτρέπει στην κυβέρνηση να χρησιμοποιεί την τεράστια ισχύ της για να τιμωρεί μια εταιρεία επειδή εξέφρασε προστατευόμενη άποψη», αναφέρεται χαρακτηριστικά στο δικόγραφο.
Η εταιρεία υποστηρίζει ότι η απόφαση της κυβέρνησης θέτει σε κίνδυνο συμβάσεις με ιδιωτικές επιχειρήσεις και έσοδα εκατομμυρίων στο άμεσο μέλλον.
Οι συνέπειες, σύμφωνα με την Anthropic, ενδέχεται να είναι ευρύτερες. Η εταιρεία προειδοποιεί ότι η υπόθεση μπορεί να επηρεάσει την ελευθερία έκφρασης των εταιρειών που συνεργάζονται με το κράτος, αλλά και τον δημόσιο διάλογο για τον ρόλο της τεχνητής νοημοσύνης στον πόλεμο και στην επιτήρηση.
Το ιστορικό της σύγκρουσης
Η σύγκρουση ξεκίνησε τον προηγούμενο μήνα, όταν το Πεντάγωνο επιδίωξε να χρησιμοποιήσει το μοντέλο τεχνητής νοημοσύνης Claude χωρίς περιορισμούς και για κάθε νόμιμο σκοπό.
Η Anthropic αρνήθηκε, επιμένοντας ότι το chatbot δεν πρέπει να χρησιμοποιείται για μαζική παρακολούθηση Αμερικανών πολιτών ούτε σε πλήρως αυτόνομα οπλικά συστήματα.
Η αντίδραση της κυβέρνησης ήταν άμεση. Στις 27 Φεβρουαρίου, ο υπουργός Άμυνας Πιτ Χέγκσεθ διέταξε το Πεντάγωνο την απαγόρευση κάθε εμπορικής δραστηριότητας με την Anthropic.
Σε ανάρτησή του στην πλατφόρμα X, έδωσε προθεσμία έξι μηνών στην εταιρεία για να μεταφέρει τις υπηρεσίες τεχνητής νοημοσύνης σε άλλον πάροχο.
Την ίδια ημέρα, ο Πρόεδρος των Ηνωμένων Πολιτειών επιτέθηκε στην εταιρεία μέσω της πλατφόρμας Truth Social, υποστηρίζοντας ότι έκανε «καταστροφικό λάθος προσπαθώντας να εκβιάσει το Υπουργείο Πολέμου».
Ο Τραμπ ζήτησε επίσης από τις ομοσπονδιακές υπηρεσίες να σταματήσουν να χρησιμοποιούν το σύστημα Claude.
Η αγωγή της εταιρείας στρέφεται κατά του «Υπουργείου Πολέμου» — όρος που χρησιμοποιεί η κυβέρνηση Τραμπ για το Υπουργείο Άμυνας — καθώς και κατά περισσότερων από δώδεκα ομοσπονδιακών υπηρεσιών.
Ο Λευκός Οίκος υπερασπίστηκε τις αποφάσεις της κυβέρνησης.
Σε δήλωσή της, η εκπρόσωπος Λιζ Χιούστον τόνισε ότι «ο Πρόεδρος Τραμπ δεν θα επιτρέψει ποτέ σε μια ριζοσπαστική, woke εταιρεία να θέσει σε κίνδυνο την εθνική ασφάλεια των Ηνωμένων Πολιτειών υπαγορεύοντας στον ισχυρότερο στρατό του κόσμου πώς θα λειτουργεί».
Παράλληλα, η Anthropic υποστηρίζει ότι οι περιορισμοί που επέβαλε στη χρήση της τεχνολογίας της βασίζονται στη δική της κατανόηση των κινδύνων της τεχνητής νοημοσύνης.
Σύμφωνα με την εταιρεία, το σύστημα Claude μπορεί να κάνει λάθη και διαθέτει πρωτοφανή δυνατότητα να επιταχύνει και να αυτοματοποιεί την ανάλυση τεράστιων όγκων δεδομένων, συμπεριλαμβανομένων δεδομένων για Αμερικανούς πολίτες.
Δεκάδες επιστήμονες τεχνητής νοημοσύνης στηρίζουν την άποψη της Anthropic, μεταξύ των οποίων ερευνητές από την OpenAI και τη Google.
Σε κοινή επιστολή προς το δικαστήριο υποστήριξαν ότι τα σημερινά συστήματα τεχνητής νοημοσύνης δεν μπορούν να διαχειριστούν με ασφάλεια πλήρως αυτόνομα συστήματα θανατηφόρας στόχευσης και δεν πρέπει να χρησιμοποιούνται για μαζική επιτήρηση στο εσωτερικό των Ηνωμένων Πολιτειών.
Μεταξύ των υπογραφόντων ήταν και ο επικεφαλής επιστήμονας της Google, Τζεφ Ντιν.
Οι ερευνητές προειδοποίησαν ότι οι ενέργειες της κυβέρνησης μπορεί να επηρεάσουν την επιστημονική και βιομηχανική ανταγωνιστικότητα των Ηνωμένων Πολιτειών στον τομέα της τεχνητής νοημοσύνης.
Παράλληλα με την κύρια αγωγή, η Anthropic κατέθεσε και προσφυγή σε εφετείο της Ουάσινγκτον, αμφισβητώντας τη νομική βάση του χαρακτηρισμού «κινδύνου για την αλυσίδα εφοδιασμού».
Σύμφωνα με την εταιρεία, το Υπουργείο Άμυνας υπερέβη τις αρμοδιότητές του με αποφάσεις που χαρακτηρίζονται «αυθαίρετες, παράλογες και κατάχρηση εξουσίας».
Η αντιπαράθεση προκάλεσε έντονες αντιδράσεις και στην αγορά.
Τις ημέρες μετά τον χαρακτηρισμό της εταιρείας ως κινδύνου, η Anthropic ανέφερε ότι καταγράφηκε «πρωτοφανής ζήτηση» για το chatbot Claude από χρήστες που θέλησαν να στηρίξουν τη στάση της απέναντι στην κυβέρνηση.
Την ίδια στιγμή, η ανταγωνίστρια OpenAI ανακοίνωσε ότι υπέγραψε συμφωνία με το Πεντάγωνο για την ανάπτυξη των μοντέλων τεχνητής νοημοσύνης της στο διαβαθμισμένο δίκτυο του αμερικανικού στρατού.
Ο διευθύνων σύμβουλος της OpenAI, Σαμ Άλτμαν, δήλωσε αργότερα ότι συνεργάζεται με το Υπουργείο Άμυνας για να δημιουργηθούν πρόσθετοι μηχανισμοί ασφαλείας γύρω από εφαρμογές επιτήρησης.
Η Anthropic ιδρύθηκε το 2021 από πρώην στελέχη της OpenAI και εξελίχθηκε γρήγορα σε έναν από τους βασικούς ανταγωνιστές της δημιουργού του ChatGPT.
Το βασικό της προϊόν είναι το Claude, ένα σύστημα τεχνητής νοημοσύνης που παρουσιάστηκε ως πιο ασφαλές και περισσότερο προσανατολισμένο στις επιχειρήσεις.
Σήμερα η εταιρεία διαθέτει περισσότερους από 300.000 εταιρικούς πελάτες που χρησιμοποιούν τα μοντέλα της για την αυτοματοποίηση εργασιών, ιδιαίτερα στον τομέα του προγραμματισμού, όπου το εργαλείο Claude Code έχει αποκτήσει ισχυρή θέση στην αγορά.
Η Anthropic ξεκίνησε τη χρονιά με έντονη ανάπτυξη, υψηλές πωλήσεις, νέα προϊόντα που έγιναν viral και έναν μεγάλο γύρο χρηματοδότησης που της έδωσε πλεονέκτημα στην παγκόσμια κούρσα της τεχνητής νοημοσύνης.
Αβέβαιο το μέλλον
Ωστόσο, το μέλλον της παραμένει αβέβαιο μετά τη ρήξη με το Πεντάγωνο στα τέλη Φεβρουαρίου, λίγο πριν οι Ηνωμένες Πολιτείες εξαπολύσουν μεγάλης κλίμακας στρατιωτική επίθεση κατά του Ιράν στη Μέση Ανατολή.
Ορισμένοι ειδικοί σε θέματα πολιτικής και τεχνολογίας προειδοποιούν ότι οι συνέπειες μπορεί να είναι σοβαρές.
Η Τζένιφερ Χάντλστον, ερευνήτρια στο Cato Institute, δήλωσε ότι η υπόθεση ξεπερνά μια απλή διαφωνία για κρατικές συμβάσεις και αγγίζει θεμελιώδη ζητήματα ελευθερίας λόγου.
Όπως υποστήριξε, η απόφαση της κυβέρνησης να αποκλείσει την εταιρεία από ευρύτερες κρατικές συνεργασίες υπερβαίνει κατά πολύ τα μέτρα που θα θεωρούνταν αναγκαία ακόμη και αν υπήρχαν πραγματικές ανησυχίες για την ασφάλεια.
Πηγή: newmoney.gr
Διαβάστε επίσης: Οι δηλώσεις Τραμπ καλμάρουν την αγορά ενέργειας της Ευρώπης – Στο -16% τα futures φυσικού αερίου