AI: Αλλάζει ριζικά τη φύση του πολέμου - Τι φοβούνται οι ειδικοί

Τα όπλα με τεχνολογία AI εισβάλλουν στα πεδία των μαχών και εκτοπίζουν τον παράγοντα ανθρώπινη κρίση στον εντοπισμό στόχου και στην επίθεση

Παρότι τα αυτόνομα οπλικά συστήματα χρησιμοποιούνται για περισσότερα από 80 χρόνια, η ραγδαία ανάπτυξή τους μέσω της AI την τελευταία δεκαετία προκαλεί προβληματισμό και ανησυχία στους ειδικούς. Αυτό γιατί όσο μειώνεται η ανάγκη για ανθρώπινη κρίση στα πεδία των μαχών, τόσο αυξάνεται ο κίνδυνος τα «έξυπνα» όπλα να παρακάμπτουν το Διεθνές Δίκαιο προκειμένου να επιτευχθεί ο στρατιωτικός στόχος που έχει τεθεί.

Τέτοια προηγμένα συστήματα τα οποία αξιοποιούν τεχνητή νοημοσύνη για να πλοηγούνται, να αναγνωρίζουν και να καταστρέφουν στόχους με ελάχιστη ή και καμία ανθρώπινη παρέμβαση, έχει οδηγήσει σε αυξανόμενες εκκλήσεις από οργανώσεις ανθρωπίνων δικαιωμάτων για απαγόρευση ή αυστηρή ρύθμιση των τεχνολογιών αυτών. Πάντως, ήδη σε συγκρούσεις από την Ουκρανία έως τη Γάζα διαδραματίζουν σημαντικό ρόλο ενώ η αύξηση των αμυντικών δαπανών παγκοσμίως υπόσχεται να δώσει νέα ώθηση στη ραγδαίως αναπτυσσόμενη στρατιωτική τεχνολογία AI.

Είναι πολύ πιθανό στο μέλλον, αναφέρει ο καθηγητής Διεθνούς Δικαίου στο Πανεπιστήμιο του Εδιμβούργου, Nehal Bhuta, μιλώντας στο Nature, «ορισμένα κυρίαρχα κράτη να αναπτύξουν όπλα ικανά να λαμβάνουν αυτόνομα αποφάσεις για να σκοτώσουν. Το ερώτημα είναι αν θα θελήσουν να ρυθμίσουν τη χρήση τέτοιων συστημάτων».

Όπως εξηγεί, ένα αποτελεσματικό νομικό πλαίσιο απαιτεί μηχανισμούς απόδοσης ευθύνης για παραβιάσεις. Όταν ένα σύστημα αποδεικνύεται προκατειλημμένο ως προς τον τρόπο που εντοπίζει στόχους, η ευθύνη βαραίνει τόσο τον προγραμματιστή όσο και τους στρατιωτικούς αξιωματούχους που εγκρίνουν τη χρήση του.

Ωστόσο, στα πολύπλοκα αυτόνομα οπλικά συστήματα μπορεί να γίνει εξαιρετικά δύσκολος ο εντοπισμός των υπευθύνων. Η λύση, τονίζει ο ίδιος, βρίσκεται στην υιοθέτηση κανονιστικού πλαισίου για την ανάπτυξη και χρήση αυτών των συστημάτων.

Automation bias και λοιποί κίνδυνοι

Ο Bhuta επισημαίνει στη συνέχεια έναν άλλο κίνδυνο. Όπως λέει, οι χειριστές τέτοιων συστημάτων ενδέχεται να μην είναι επαρκώς εκπαιδευμένοι ώστε να γνωρίζουν πότε πρέπει να αγνοήσουν τις συστάσεις του συστήματος. «Μπορεί επίσης να αναπτύξουν ένα φαινόμενο γνωστό ως automation bias, δηλαδή την τάση να εμπιστεύονται υπερβολικά την προηγμένη μηχανή και να αποφεύγουν να την αμφισβητήσουν» συμπληρώνει.

Ένα χαρακτηριστικό παράδειγμα της σημασίας της ανθρώπινης κρίσης ως δικλείδα ασφαλείας σε τέτοιες περιπτώσεις αποτελεί η απόφαση του ανθρώπου «που έσωσε τον κόσμο», όπως είναι πλέον γνωστός ο 44χρονος αντισυνταγματάρχης του Κόκκινου Στρατού, Στανισλάβ Γιεβγκράφοβιτς Πετρόφ.

Το 1983, στον Ψυχρό Πόλεμο, ο Πετρόφ είχε υπηρεσία στον σοβιετικό σταθμό κοντά στη Μόσχα όταν είδε στην οθόνη του να αναβοσβήνει η κόκκινη ένδειξη επερχόμενης επίθεσης με πέντε διηπειρωτικούς βαλλιστικούς πυραύλους. Αν ακολουθούσε το πρωτόκολλο πιθανόν αυτό να οδηγούσε σε αντίποινα κατά των ΗΠΑ και εν συνεχεία σε ολοκληρωτικό πυρηνικό πόλεμο.

Αλλά ο Πετρόφ δεν εμπιστευόταν τον υπολογιστή και έτσι ανέφερε απλώς δυσλειτουργία του συστήματος. Και είχε δίκιο, καθώς το σύστημα έγκαιρης προειδοποίησης είχε στην ουσία ερμηνεύσει ως «πυραύλους» τις αντανακλάσεις του ήλιου στα σύννεφα. «Η ένδειξη άλλαξε σε ‘πύραυλοι’. Έπρεπε απλώς να απλώσω το χέρι και να πάρω τηλέφωνο. Αλλά δεν μπορούσα να κουνηθώ» έχει πει ο ίδιος.

Ο βρετανός καθηγητής πιστεύει ότι η ανεπαρκής προσοχή στην ανάπτυξη και την επιχειρησιακή χρήση αυτών των συστημάτων μπορεί να θέσει σε κίνδυνο την τήρηση των αρχών της διάκρισης και της αναλογικότητας.

Το αν το αυτόνομο οπλικό σύστημα θα μπορούσε να αναγνωρίζει εσφαλμένα στόχους ή να «υπολογίσει» ότι ο θάνατος μεγάλου αριθμού αμάχων είναι αποδεκτό τίμημα για την εξουδετέρωση ενός ύποπτου εχθρού, «δεν το γνωρίζουμε ακόμα, αλλά οι κίνδυνοι είναι τεράστιοι», σημειώνει και προσθέτει: «Το σύστημα μπορεί να αποτύχει να επεξεργαστεί σωστά τα δεδομένα σε ένα ταχέως μεταβαλλόμενο περιβάλλον και να πλήξει λάθος δυνάμεις ή αμάχους».

Επιπλέον, για να είναι αποτελεσματικά αυτά τα συστήματα, απαιτείται η συλλογή τεράστιων ποσοτήτων δεδομένων, όπως βιομετρικών στοιχείων, φωνητικών δεδομένων, e-mail και πληροφοριών για τις φυσικές κινήσεις. Και όσο περισσότερες δυνατότητες αποκτούν, τόσο περισσότερα δεδομένα απαιτούν, γεγονός που δημιουργεί κίνητρο για πιο παρεμβατικές μορφές παρακολούθησης.

Τον περασμένο Απρίλιο, το Παρατηρητήριο Ανθρωπίνων Δικαιωμάτων υποστήριξε σε έκθεσή του ότι τα κρίσιμα ζητήματα λογοδοσίας στο πλαίσιο του Διεθνούς Δικαίου παραμένουν άλυτα και προειδοποίησε ότι τα ανεξέλεγκτα αυτόνομα όπλα συνιστούν σοβαρή απειλή για τα ανθρώπινα δικαιώματα, πέραν της νέας εξοπλιστικής κούρσας που θα μπορούσαν να πυροδοτήσουν.

Ανάγκη για δικλείδες ασφαλείας

Στην προσπάθειά τους να υιοθετήσουν αυτόνομα συστήματα, οι χώρες κινδυνεύουν να παραβλέψουν κρίσιμες δικλείδες ασφαλείας, προειδοποιεί ο Bhuta – εκ των συντακτών έκθεσης για την υπεύθυνη χρήση της AI, που παρουσιάστηκε πρόσφατα στο Συμβούλιο Ασφαλείας του ΟΗΕ.

Τα «πρώτης γενιάς» αυτόνομα συστήματα – όπως η τορπίλη Mark 24 Fido που χρησιμοποιήθηκε για πρώτη φορά εναντίον γερμανικών υποβρυχίων το 1943 – είχαν σχεδιαστεί για χρήση σε προκαθορισμένα σενάρια και προγραμματίζονταν να ενεργούν σε απόκριση συγκεκριμένων σημάτων από εχθρικούς στόχους.

Όπως εξηγεί ο Bhuta, τα σύγχρονα αυτόνομα όπλα – ιδίως εκείνα που βασίζονται στην τεχνητή νοημοσύνη – εγείρουν πολλαπλά ηθικά και νομικά ζητήματα, όπως ποιος φέρει την ευθύνη σε περίπτωση αστοχίας ή πώς μπορεί να αποφευχθεί η παράνομη και παρεμβατική συλλογή δεδομένων πολιτών.

Προς το παρόν ειδικό νομικό πλαίσιο που να ρυθμίζει τη χρήση της αυτονομίας ή της τεχνητής νοημοσύνης στα οπλικά συστήματα δεν υπάρχει. «Αυτό που καθορίζει το Διεθνές Ανθρωπιστικό Δίκαιο είναι ότι τα όπλα – συμπεριλαμβανομένων των προηγμένων αυτόνομων συστημάτων, όπως τα drones που χρησιμοποίησε προσφάτως η Ουκρανία για να πλήξει στόχους βαθιά μέσα στη Ρωσία – πρέπει να χρησιμοποιούνται με τέτοιο τρόπο ώστε να γίνεται διάκριση μεταξύ στρατιωτικών και πολιτικών στόχων» λέει ο ίδιος.

Οι επιθέσεις δεν πρέπει να προκαλούν δυσανάλογη ζημιά σε αμάχους, ενώ οι εμπόλεμοι οφείλουν να λαμβάνουν προληπτικά μέτρα ώστε να επαληθεύουν ότι πλήττουν τον σωστό στόχο και να μειώνουν τον κίνδυνο απωλειών αμάχων.

Υπενθυμίζεται ότι ο Γενικός Γραμματέας του ΟΗΕ, Αντόνιο Γκουτέρες, έχει θέσει προθεσμία έως το 2026 για να συμφωνήσουν τα κράτη σε σαφείς κανόνες για τη χρήση όπλων με τεχνητή νοημοσύνη. Όμως, οργανώσεις ανθρωπίνων δικαιωμάτων προειδοποιούν ότι λείπει η απαιτούμενη πολιτική συναίνεση μεταξύ των κυβερνήσεων.

«Δεν υπάρχει χώρος για θανατηφόρα αυτόνομα οπλικά συστήματα στον κόσμο μας. Οι μηχανές που έχουν τη δύναμη και τη διακριτική ευχέρεια να αφαιρούν ανθρώπινες ζωές χωρίς ανθρώπινο έλεγχο, θα πρέπει να απαγορεύονται από το Διεθνές Δίκαιο», δήλωσε ο Γκουτέρες νωρίτερα αυτή τη χρονιά κατά τη διάρκεια άτυπης συνάντησης του ΟΗΕ για το θέμα.

Είναι η απαγόρευση των «έξυπνων» όπλων η λύση;

Μια γενική απαγόρευση μπορεί να ακούγεται ελκυστική, αλλά θα ήταν αναποτελεσματική σύμφωνα με τον καθηγητή: «Το Διεθνές Δίκαιο βασίζεται στη συναίνεση και ορισμένα κράτη απλώς θα αρνηθούν την απαγόρευση. Αλλά ακόμα κι αν την αποδέχονταν η ταχεία εξέλιξη της τεχνολογίας θα καθιστούσε πιθανό η απαγόρευση να καταστεί σύντομα παρωχημένη».

Αυτό που χρειαζόμαστε, σύμφωνα με τον καθηγητή, είναι τα κράτη να συγκλίνουν σε αποτελεσματικές δομές ρύθμισης, που θα διασφαλίζουν τη συμμόρφωση με το Διεθνές Δίκαιο και θα μπορούν να προσαρμόζονται στις τεχνολογικές εξελίξεις.

«Ζούμε σε μια δύσκολη εποχή, όσον αφορά τη διάθεση ορισμένων χωρών να αναλαμβάνουν ευθύνη για τις πράξεις τους σε καιρό πολέμου. Οι Ηνωμένες Πολιτείες στο παρελθόν είχαν ένα πλαίσιο για τα αυτόνομα όπλα αρκετά συντηρητικό, αλλά η σημερινή κυβέρνηση έχει υιοθετήσει μια προσέγγιση που απορρίπτει τους ‘περιττούς περιορισμούς’ στην ικανότητα της χώρας να αναπτύσσει προηγμένα, φονικά οπλικά συστήματα» συμπληρώνει.

Ο ίδιος πιστεύει ότι τα κράτη τελικά θα αναγνωρίσουν ότι έχουν κοινό συμφέρον στη ρύθμιση των αυτόνομων οπλικών συστημάτων με τεχνητή νοημοσύνη, και ότι μπορεί να υπάρξει διεθνές πλαίσιο συμφωνίας που θα διασφαλίζει τη συμμόρφωση με το διεθνές ανθρωπιστικό δίκαιο και τη λογοδοσία. Διαφορετικά, εκφράζει φόβους ότι θα οδηγηθούμε σε εξοπλιστική κούρσα με όπλα τεχνητής νοημοσύνης.

«Αν τα κράτη επιλέξουν ανεύθυνες πρακτικές, χωρίς να εξασφαλίζουν ανθρώπινη κρίση και νομιμότητα, οι κίνδυνοι κλιμάκωσης και απρόβλεπτης σύγκρουσης θα είναι πολύ υψηλοί» προειδοποιεί καταληκτικά ο Bhuta.

Όπως παραστατικά το είχε θέσει ο Τζέφρι Χίντον, επιστήμονας υπολογιστών και γνωστός ως «νονός της ΑΙ», «τα θανατηφόρα αυτόνομα όπλα, που αποφασίζουν μόνα τους ποιον θα σκοτώσουν ή θα ακρωτηριάσουν, αποτελούν μεγάλο πλεονέκτημα για μια πλούσια χώρα που θέλει να εισβάλει σε μια φτωχή. Και αν μπορείς να έχεις Τεχνητή Νοημοσύνη μέσα σε μαχητικά αεροσκάφη, οι επιταχύνσεις μπορούν να είναι πολύ μεγαλύτερες και δεν χρειάζεται να ανησυχείς τόσο πολύ για την απώλεια ανθρώπινης ζωής».

Πηγή: in.gr

Διαβάστε επίσης: Η εισβολή της τεχνητής νοημοσύνης στα μέσα κοινωνικής δικτύωσης

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΑ