Offcanvas
Offcanvas
Γάζα, Βενεζουέλα, Ιράν - Οι τρεις περιπτώσεις που απέδειξαν ότι η τεχνητή νοημοσύνη μπαίνει στον Πόλεμο
Στις 28 Φεβρουαρίου 2026, αμερικανικά και ισραηλινά μαχητικά χτύπησαν πάνω από 1.000 στόχους στο Ιράν μέσα σε 24 ώρες. Η ταχύτητα ήταν σαρωτική. Η ακρίβεια, σύμφωνα με το Πεντάγωνο, εντυπωσιακή.
Αλλά πίσω από τα πυραυλικά πλήγματα, τις δορυφορικές εικόνες και τις εντολές που μεταδίδονταν σε διαβαθμισμένα δίκτυα, υπήρχε κάτι περισσότερο: Τεχνητή νοημοσύνη που ανέλυε τεράστιες ποσότητες δεδομένων, αναγνώριζε στόχους και βοηθούσε να μειωθεί δραματικά η αποκαλούμενη “kill chain”, ο χρόνος μεταξύ του εντοπισμού ενός στόχου και της εξουδετέρωσης του.
Η Washington Post ανέφερε ότι συστήματα AI αναγνώριζαν στόχους και τους ιεραρχούσαν ακαριαία, ενώ ειδικοί εκτιμούν ότι χωρίς τεχνητή νοημοσύνη, μια τέτοιας κλίμακας επιχείρηση θα ήταν αδύνατη. Το Ιράν, όμως, δεν είναι η πρώτη περίπτωση. Από τη Γάζα μέχρι τη Βενεζουέλα, η τεχνητή νοημοσύνη έχει μπει ήδη στο πεδίο της μάχης και αλλάζει για πάντα τους κανόνες του πολέμου.
Γάζα: Λίστες Θανάτου με Μηχανική Μάθηση
Την άνοιξη του 2024, έξι Ισραηλινοί αξιωματούχοι πληροφοριών μίλησαν ανώνυμα στο +972 Magazine και το Local Call για ένα σύστημα τεχνητής νοημοσύνης που ονομάστηκε Lavender. Η αποκάλυψη ήταν σοκαριστική. Το Lavender είχε αναλύσει 2,3 εκατομμύρια Παλαιστίνιους της Γάζας, κατηγοριοποίησε καθέναν σε επίπεδα απειλής με βάση αλγόριθμους μηχανικής μάθησης, και στο τέλος επέλεξε 37.000 ανθρώπους ως στόχους για δολοφονία.
Σύμφωνα με την έρευνα, το σύστημα εκπαιδεύτηκε να αναγνωρίζει μαχητές της Χαμάς αλλά η ορολογία χρησιμοποιήθηκε με τρόπο τόσο ευρύ που περιελάμβανε ακόμη και εργαζόμενους στην πολιτική προστασία. Το AI ανέλυε δεδομένα κοινωνικών δικτύων, μεταδεδομένα τηλεφώνων, οικογενειακές συνδέσεις και πρότυπα κίνησης. Το σύστημα βαθμολογούσε κάθε άτομο με βάση την ομοιότητά του με γνωστούς μαχητές της Χαμάς. “Αφιερώναμε μόνο 20 δευτερόλεπτα σε κάθε στόχο πριν εγκρίνουμε έναν βομβαρδισμό, μόνο για να βεβαιωθούμε ότι ο στόχος που σημάδεψε το Lavender είναι άντρας,” εξομολογήθηκε ένας αξιωματούχος. Αυτό, παρά το γεγονός ότι το σύστημα έκανε λάθη σε περίπου 10% των περιπτώσεων.
Το Lavender δεν ήταν το μόνο σύστημα. Το “Where’s Daddy?” (Πού Είναι ο Μπαμπάς;) παρακολουθούσε τα κινητά τηλέφωνα των στόχων και ειδοποιούσε όταν έμπαιναν στο σπίτι τους. Ο στρατός τότε τους χτυπούσε εκεί συχνά μαζί με ολόκληρη την οικογένειά τους. Το “Gospel” (Ευαγγέλιο) ανέλυε δορυφορικές εικόνες και σήματα κινητών για να εντοπίσει κτίρια που πιθανώς στεγάζουν υποδομές της Χαμάς.
Οι πολιτικές παράπλευρων ζημιών που καθόρισαν άνθρωποι, όχι η τεχνητή νοημοσύνη, ήταν τρομακτικές. Για κάθε κατώτερο μαχητή της Χαμάς που πρότεινε το Lavender, επιτρέπονταν 15-20 νεκροί πολίτες. Για ανώτερους διοικητές, ο αριθμός ήταν αρκετές δεκάδες. Πάνω από 15.000 άμαχοι έχουν σκοτωθεί στη Γάζα, σύμφωνα με το Human Rights Watch με τα παιδιά να αποτελούν περίπου το 40% των θυμάτων.
Βενεζουέλα: Το Πρώτο LLM σε Μυστική Αποστολή
Στις 3 Ιανουαρίου 2026, αμερικανικές δυνάμεις ειδικών επιχειρήσεων εισέβαλαν στο Καράκας. Στόχος, η σύλληψη του Νικολάς Μαδούρο και της συζύγου του. Η επιχείρηση περιελάμβανε βομβαρδισμούς σε πολλαπλές τοποθεσίες, συμπεριλαμβανομένου του τεράστιου στρατιωτικού συγκροτήματος Fuerte Tiuna. Σύμφωνα με Βενεζουελάνους αξιωματούχους, περίπου 100 άνθρωποι σκοτώθηκαν.
Πίσω όμως από την επιχείρηση υπήρχε κάτι που δεν αποκαλύφθηκε αμέσως. Tο Claude της Anthropic, το πρώτο δημοσίως γνωστό Large Language Model (LLM) που χρησιμοποιήθηκε σε ενεργό πολεμική επιχείρηση. Η Wall Street Journal, επικαλούμενη πηγές με γνώση του θέματος, ανέφερε ότι το Claude αξιοποιήθηκε μέσω της συνεργασίας της Anthropic με την Palantir Technologies, την εταιρεία data analytics που είναι βασικός προμηθευτής του Πενταγώνου.
Η ακριβής λειτουργία του Claude παραμένει διαβαθμισμένη, αλλά το σύστημα είναι γνωστό ότι χρησιμοποιείται για την ανάλυση δορυφορικών εικόνων, την επεξεργασία τεράστιων όγκων πληροφοριών και την αναγνώριση προτύπων σε κινήσεις στόχων. Το Axios ανέφερε ότι το Claude χρησιμοποιήθηκε κατά τη διάρκεια της ενεργού επιχείρησης, όχι μόνο στις προετοιμασίες της. Κανένας Αμερικανός στρατιώτης δεν σκοτώθηκε. Η αποστολή θεωρήθηκε επιτυχία.
Ωστόσο, η αποκάλυψη δημιούργησε πρόβλημα. Οι κανόνες χρήσης της Anthropic απαγορεύουν ρητά τη χρήση του Claude για να διευκολύνει τη βία, να αναπτύξει όπλα ή να διεξάγει επιτήρηση. Σύμφωνα με τη Wall Street Journal, ένας εργαζόμενος της Anthropic επικοινώνησε με έναν ομόλογό του στην Palantir μετά την επιδρομή για να ρωτήσει πώς είχε χρησιμοποιηθεί το Claude στην επιχείρηση. Η εταιρεία δήλωσε ότι “δεν μπορεί να σχολιάσει αν το Claude, ή οποιοδήποτε άλλο μοντέλο AI, χρησιμοποιήθηκε σε οποιαδήποτε συγκεκριμένη επιχείρηση” και ότι είναι σίγουρη ότι όλη η χρήση ήταν σύμφωνη με την υφιστάμενη πολιτική χρήσης της.
Ήταν η πρώτη φορά που ένα εμπορικό AI σύστημα χρησιμοποιήθηκε σε διαβαθμισμένη στρατιωτική αποστολή και η πρώτη φορά που το κοινό έμαθε ότι τα μεγάλα γλωσσικά μοντέλα δεν χρησιμοποιούνται μόνο για να γράφουν emails ή να συνοψίζουν έγγραφα, αλλά και για να σχεδιάζουν επιχειρήσεις που κοστίζουν ανθρώπινες ζωές.
Ιράν: AI-Κυβερνοπόλεμος σε Πλήρη Κλίμακα
Στις 28 Φεβρουαρίου 2026, οι ΗΠΑ και το Ισραήλ πραγματοποίησαν τη μεγαλύτερη χρήση τεχνητής νοημοσύνης σε πολεμική επιχείρηση στην ιστορία. Μέχρι τις 5 Μαρτίου, οι ΗΠΑ είχαν χτυπήσει πάνω από 2.000 στόχους, με 1.000 πλήγματα να πέφτουν στις πρώτες 24 ώρες, σύμφωνα με το Bloomberg.
Η Washington Post επιβεβαίωσε ότι προηγμένη τεχνολογία AI εντοπίζει στόχους και τους ιεραρχεί σε πραγματικό χρόνο. Οι αμερικανικές δυνάμεις χρησιμοποιούν το Maven Smart System της Palantir, που επιτρέπει, σε έναν χειριστή να εγκρίνει έως 80 στόχους την ώρα, αντί 30 χωρίς AI.
Το CBS News επιβεβαίωσε ότι το Claude χρησιμοποιήθηκε κατά τη διάρκεια των πληγμάτων, λίγες ώρες αφότου η κυβέρνηση Trump χαρακτήρισε την Anthropic “κίνδυνο για την εθνική ασφάλεια”, επειδή η εταιρεία αρνήθηκε να επιτρέψει απεριόριστη στρατιωτική χρήση του συστήματος. Η ίδια τεχνολογία που βοήθησε στη σύλληψη του Μαδούρο στη Βενεζουέλα, χρησιμοποιείται τώρα σε πλήρη κλίμακα πολέμου.
Αλλά το AI δεν χρησιμοποιήθηκε μόνο για στόχευση. Σύμφωνα με το Lawfare, κυβερνοεπιχειρήσεις που ενισχύθηκαν από AI συντόνισαν την αιφνιδιαστική επίθεση που σκότωσε τον Αγιατολάχ Αλί Χαμενεΐ στις 28 Φεβρουαρίου. Πληροφορίες σε πραγματικό χρόνο από χακαρισμένες κάμερες κυκλοφορίας και δίκτυα κινητής τηλεφωνίας επιβεβαίωσαν ότι η συνάντηση θα γινόταν όπως είχε προγραμματιστεί.
Η Κατάσταση Εξαίρεσης ως Κανονικότητα
Ο Ιταλός φιλόσοφος Giorgio Agamben, μελετώντας τα ναζιστικά στρατόπεδα συγκέντρωσης, διατύπωσε τη θεωρία της “κατάστασης εξαίρεσης”, όπου ο νόμος αναστέλλεται για το “κοινό καλό”. Το πρόβλημα προκύπτει όταν η εξαίρεση γίνεται κανόνας, γιατί τότε παράγεται η “γυμνή ζωή”, χωρίς πολιτικά δικαιώματα, χωρίς νομική προστασία, ζωή που μπορεί να εξουδετερωθεί χωρίς συνέπειες.
Γάζα, Βενεζουέλα, Ιράν. Τρεις πολεμικές επιχειρήσεις όπου το AI επέλεξε στόχους, ανέλυσε δεδομένα, επιτάχυνε αποφάσεις και οι άνθρωποι έδωσαν την τελική εντολή. Αλλά είναι κάτι πολύ περισσότερο από απλές στρατιωτικές επιχειρήσεις. Μοιάζουν με πειράματα για τα ηθικά όρια της τεχνολογίας σε καταστάσεις εξαίρεσης, όπου οι κανόνες του διεθνούς δικαίου και της ανθρώπινης αξιοπρέπειας αναστέλλονται για το “κοινό καλό”.
Η Τεχνητή Νοημοσύνη μπορεί να μην πατάει ακόμη τη σκανδάλη, αλλά κάνει τη ζωή τόσο κατηγοριοποιήσιμη, τόσο μετρήσιμη, που ο θάνατος παύει να είναι τραγωδία και γίνεται ζήτημα στατιστικής. Το ερώτημα, λοιπόν, δεν είναι αν το AI θα χρησιμοποιηθεί στον πόλεμο. Είναι πόσο αυτόνομο θα του επιτρέψουμε να γίνει και ποιος είναι υπεύθυνος όταν κάνει λάθος. Ο προγραμματιστής; Ο χειριστής; Ο διοικητής; Το μηχάνημα; Όλοι μαζί; Κανένας;
Πηγή: naftemporiki.gr
Διαβάστε επίσης: Πετρέλαιο: Ηνωμένα Αραβικά Εμιράτα και Κουβέιτ ξεκίνησαν μειώσεις στην παραγωγή