Πεμ, Μάι 9, 2024

ΕΝΑ ΔΗΜΟΣΙΕΥΜΑ ΤΗΣ DAILY NEWS EGYPT. ΓΙΑ ΤΙΣ ΝΕΕΣ ΠΡΑΚΤΙΚΕΣ ΠΟΛΕΜΟΥ ΤΟΥ ΙΣΡΑΗΛ.

ΕΝΑ ΔΗΜΟΣΙΕΥΜΑ ΤΗΣ DAILY NEWS EGYPT. ΓΙΑ ΤΙΣ ΝΕΕΣ ΠΡΑΚΤΙΚΕΣ ΠΟΛΕΜΟΥ ΤΟΥ ΙΣΡΑΗΛ.

ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΣΤΟΝ ΠΟΛΕΜΟ ΙΣΡΑΗΛ ΧΑΜΑΣ

Το Ισραήλ κατηγορείται ότι χρησιμοποίησε τεχνητή νοημοσύνη για να στοχεύσει χιλιάδες στη Γάζα, καθώς οι αλγόριθμοι δολοφόνων ξεπερνούν το διεθνές δίκαιο

Ο ισραηλινός στρατός χρησιμοποίησε ένα νέο σύστημα τεχνητής νοημοσύνης (AI) για να δημιουργήσει λίστες με δεκάδες χιλιάδες ανθρώπινους στόχους για πιθανές αεροπορικές επιδρομές στη Γάζα, σύμφωνα με έκθεση που δημοσιεύθηκε την περασμένη εβδομάδα. Η αναφορά προέρχεται από το μη κερδοσκοπικό περιοδικό +972 Magazine, το οποίο διευθύνεται από Ισραηλινούς και Παλαιστίνιους δημοσιογράφους.

Η στρατιωτική τεχνητή νοημοσύνη στη Γάζα δεν είναι καινούργιαΘάνατος από αλγόριθμοΚανόνες για στρατιωτική τεχνητή νοημοσύνη;Αντιμέτωπος με το «άγνωστο»Δημιουργία προηγούμενου

Η έκθεση επικαλείται συνεντεύξεις με έξι ανώνυμες πηγές των ισραηλινών μυστικών υπηρεσιών. Οι πηγές υποστηρίζουν ότι το σύστημα, γνωστό ως Lavender, χρησιμοποιήθηκε με άλλα συστήματα AI για να στοχεύσει και να δολοφονήσει ύποπτους μαχητές -πολλούς στα σπίτια τους- προκαλώντας μεγάλους αριθμούς απωλειών αμάχων.

Σύμφωνα με μια άλλη αναφορά στον Guardian, βασισμένη στις ίδιες πηγές με την αναφορά +972, ένας αξιωματικός πληροφοριών είπε ότι το σύστημα «διευκόλυνε» την πραγματοποίηση μεγάλου αριθμού χτυπημάτων, επειδή «η μηχανή το έκανε ψυχρά».

Καθώς οι στρατοί σε όλο τον κόσμο αγωνίζονται να χρησιμοποιήσουν την τεχνητή νοημοσύνη, αυτές οι αναφορές μας δείχνουν πώς μπορεί να μοιάζει: πόλεμος ταχύτητας μηχανής με περιορισμένη ακρίβεια και μικρή ανθρώπινη επίβλεψη, με υψηλό κόστος για τους αμάχους.

Η στρατιωτική τεχνητή νοημοσύνη στη Γάζα δεν είναι καινούργια

Η Ισραηλινή Αμυντική Δύναμη αρνείται πολλούς από τους ισχυρισμούς σε αυτές τις αναφορές. Σε δήλωσή του στον Guardian , είπε ότι «δεν χρησιμοποιεί σύστημα τεχνητής νοημοσύνης που εντοπίζει τρομοκράτες». Είπε ότι το Lavender δεν είναι ένα σύστημα τεχνητής νοημοσύνης, αλλά «απλώς μια βάση δεδομένων, σκοπός της οποίας είναι η διασταύρωση πηγών πληροφοριών».

Αλλά το 2021, η Jerusalem Post ανέφερε έναν αξιωματούχο των μυστικών υπηρεσιών ότι το Ισραήλ μόλις κέρδισε τον πρώτο του « πόλεμο τεχνητής νοημοσύνης » - μια προηγούμενη σύγκρουση με τη Χαμάς - χρησιμοποιώντας διάφορα συστήματα μηχανικής μάθησης για να κοσκινίσει δεδομένα και να παράγει στόχους. Την ίδια χρονιά, ένα βιβλίο με το όνομα The Human–Machine Team , το οποίο περιέγραφε ένα όραμα για τον πόλεμο με τεχνητή νοημοσύνη, δημοσιεύτηκε με ψευδώνυμο από έναν συγγραφέα που πρόσφατα αποκαλύφθηκε ότι ήταν επικεφαλής μιας βασικής ισραηλινής μυστικής μονάδας πληροφοριών.

Πέρυσι, μια άλλη έκθεση +972 ανέφερε ότι το Ισραήλ χρησιμοποιεί επίσης ένα σύστημα τεχνητής νοημοσύνης που ονομάζεται Habsora για να εντοπίσει πιθανά κτίρια και εγκαταστάσεις μαχητών για βομβαρδισμό. Σύμφωνα με την έκθεση, η Habsora δημιουργεί στόχους «σχεδόν αυτόματα», και ένας πρώην αξιωματικός των πληροφοριών το περιέγραψε ως «εργοστάσιο μαζικών δολοφονιών».

Η πρόσφατη αναφορά +972 ισχυρίζεται επίσης ότι ένα τρίτο σύστημα, που ονομάζεται Where's Daddy?, παρακολουθεί στόχους που εντοπίζονται από τη Lavender και ειδοποιεί τον στρατό όταν επιστρέφουν στο σπίτι, συχνά στην οικογένειά τους.

Θάνατος από αλγόριθμο

Αρκετές χώρες στρέφονται σε αλγόριθμους αναζητώντας ένα στρατιωτικό πλεονέκτημα. Το Project Maven του αμερικανικού στρατού παρέχει στόχευση τεχνητής νοημοσύνης που έχει χρησιμοποιηθεί στη Μέση Ανατολή και την Ουκρανία. Η Κίνα επίσης βιάζεται να αναπτύξει συστήματα τεχνητής νοημοσύνης για την ανάλυση δεδομένων, την επιλογή στόχων και τη βοήθεια στη λήψη αποφάσεων.

Οι υποστηρικτές της στρατιωτικής τεχνητής νοημοσύνης υποστηρίζουν ότι θα επιτρέψει ταχύτερη λήψη αποφάσεων, μεγαλύτερη ακρίβεια και μειωμένες απώλειες στον πόλεμο.

Ωστόσο, πέρυσι, η Middle East Eye ανέφερε ότι ένα ισραηλινό γραφείο πληροφοριών είπε ότι η εξέταση από τον άνθρωπο κάθε στόχου που δημιουργήθηκε από την τεχνητή νοημοσύνη στη Γάζα «δεν ήταν καθόλου εφικτό». Μια άλλη πηγή είπε στο +972 ότι προσωπικά «θα επένδυαν 20 δευτερόλεπτα για κάθε στόχο» που είναι απλώς μια «λαστιχένια σφραγίδα» έγκρισης.

Η απάντηση της Ισραηλινής Αμυντικής Δύναμης στην πιο πρόσφατη έκθεση λέει ότι «οι αναλυτές πρέπει να διεξάγουν ανεξάρτητες εξετάσεις, στις οποίες επαληθεύουν ότι οι προσδιορισμένοι στόχοι πληρούν τους σχετικούς ορισμούς σύμφωνα με το διεθνές δίκαιο».

Όσον αφορά την ακρίβεια, η τελευταία έκθεση +972 ισχυρίζεται ότι το Lavender αυτοματοποιεί τη διαδικασία αναγνώρισης και διασταύρωσης για να διασφαλίσει ότι ένας πιθανός στόχος είναι μια ανώτερη στρατιωτική προσωπικότητα της Χαμάς. Σύμφωνα με την έκθεση, η Lavender χαλάρωσε τα κριτήρια στόχευσης για να συμπεριλάβει προσωπικό χαμηλότερης βαθμίδας και ασθενέστερα πρότυπα αποδεικτικών στοιχείων και έκανε λάθη «περίπου στο 10% των περιπτώσεων».

Η έκθεση ισχυρίζεται επίσης ότι ένας ισραηλινός αξιωματικός των πληροφοριών είπε ότι λόγω του Πού είναι ο μπαμπάς; σύστημα, στόχοι θα βομβαρδίζονταν στα σπίτια τους «χωρίς δισταγμό, ως πρώτη επιλογή», ​​οδηγώντας σε απώλειες αμάχων. Ο ισραηλινός στρατός λέει ότι «απορρίπτει κατηγορηματικά τον ισχυρισμό σχετικά με οποιαδήποτε πολιτική δολοφονίας δεκάδων χιλιάδων ανθρώπων στα σπίτια τους».

Κανόνες για στρατιωτική τεχνητή νοημοσύνη;

Καθώς η στρατιωτική χρήση της τεχνητής νοημοσύνης γίνεται πιο συνηθισμένη, οι ηθικές, ηθικές και νομικές ανησυχίες ήταν σε μεγάλο βαθμό μια μεταγενέστερη σκέψη. Μέχρι στιγμής δεν υπάρχουν σαφείς, παγκοσμίως αποδεκτοί ή νομικά δεσμευτικοί κανόνες σχετικά με τη στρατιωτική τεχνητή νοημοσύνη.

Τα Ηνωμένα Έθνη συζητούν για «φονικά αυτόνομα οπλικά συστήματα» για περισσότερα από δέκα χρόνια. Πρόκειται για συσκευές που μπορούν να λάβουν αποφάσεις στόχευσης και πυροδότησης χωρίς ανθρώπινη συνδρομή, μερικές φορές γνωστές ως «ρομπότ δολοφόνοι». Πέρυσι σημειώθηκε κάποια πρόοδος.

Η Γενική Συνέλευση των Ηνωμένων Εθνών ψήφισε υπέρ ενός νέου σχεδίου ψηφίσματος για να διασφαλίσει ότι οι αλγόριθμοι «δεν πρέπει να ελέγχουν πλήρως τις αποφάσεις που αφορούν φόνο». Τον περασμένο Οκτώβριο, οι ΗΠΑ εξέδωσαν επίσης μια δήλωση σχετικά με την υπεύθυνη στρατιωτική χρήση της τεχνητής νοημοσύνης και την αυτονομία, η οποία έκτοτε έχει εγκριθεί από 50 άλλες πολιτείες. Η πρώτη σύνοδος κορυφής για την υπεύθυνη χρήση της στρατιωτικής τεχνητής νοημοσύνης πραγματοποιήθηκε επίσης πέρυσι, με τη συνδιοργάνωση της Ολλανδίας και της Δημοκρατίας της Κορέας.

Συνολικά, οι διεθνείς κανόνες σχετικά με τη χρήση στρατιωτικής τεχνητής νοημοσύνης αγωνίζονται να συμβαδίσουν με τη ζέση των κρατών και των εταιρειών όπλων για πόλεμο υψηλής τεχνολογίας, με δυνατότητα τεχνητής νοημοσύνης.

Αντιμέτωπος με το «άγνωστο»

Ορισμένες ισραηλινές νεοσύστατες εταιρείες που κατασκευάζουν προϊόντα με δυνατότητα τεχνητής νοημοσύνης φέρεται να κάνουν ένα σημείο πώλησης στη χρήση τους στη Γάζα. Ωστόσο, οι αναφορές σχετικά με τη χρήση συστημάτων τεχνητής νοημοσύνης στη Γάζα υποδηλώνουν πόσο η τεχνητή νοημοσύνη απέχει από το όνειρο του πολέμου ακριβείας, δημιουργώντας αντ 'αυτού σοβαρές ανθρωπιστικές βλάβες.

Η βιομηχανική κλίμακα στην οποία συστήματα τεχνητής νοημοσύνης όπως το Lavender μπορούν να δημιουργήσουν στόχους επίσης « εκτοπίζει αποτελεσματικά τους ανθρώπους από προεπιλογή » στη λήψη αποφάσεων.

Η προθυμία αποδοχής προτάσεων τεχνητής νοημοσύνης με σχεδόν καθόλου ανθρώπινο έλεγχο διευρύνει επίσης το εύρος των πιθανών στόχων, προκαλώντας μεγαλύτερη ζημιά.

Δημιουργία προηγούμενου

Οι αναφορές για το Lavender και το Habsora μας δείχνουν τι είναι ήδη ικανό να κάνει η τρέχουσα στρατιωτική τεχνητή νοημοσύνη. Οι μελλοντικοί κίνδυνοι της στρατιωτικής τεχνητής νοημοσύνης μπορεί να αυξηθούν ακόμη περισσότερο.

Ο Κινέζος στρατιωτικός αναλυτής Chen Hanghui έχει οραματιστεί μια μελλοντική « ιδιαιτερότητα πεδίου μάχης », για παράδειγμα, στην οποία οι μηχανές παίρνουν αποφάσεις και αναλαμβάνουν ενέργειες με πολύ γρήγορο ρυθμό για να την ακολουθήσει ο άνθρωπος. Σε αυτό το σενάριο, απομένουμε κάτι περισσότερο από θεατές ή θύματα.

Μια μελέτη που δημοσιεύτηκε νωρίτερα αυτό το έτος ακούγεται μια άλλη προειδοποιητική σημείωση. Αμερικανοί ερευνητές πραγματοποίησαν ένα πείραμα στο οποίο μεγάλα γλωσσικά μοντέλα όπως το GPT-4 έπαιξαν το ρόλο των εθνών σε μια άσκηση πολεμικού παιχνιδιού. Τα μοντέλα σχεδόν αναπόφευκτα παγιδεύτηκαν σε αγώνες εξοπλισμών και κλιμάκωσαν τις συγκρούσεις με απρόβλεπτους τρόπους, συμπεριλαμβανομένης της χρήσης πυρηνικών όπλων.

Ο τρόπος με τον οποίο ο κόσμος αντιδρά στις τρέχουσες χρήσεις της στρατιωτικής τεχνητής νοημοσύνης –όπως βλέπουμε στη Γάζα– είναι πιθανό να αποτελέσει προηγούμενο για τη μελλοντική ανάπτυξη και χρήση της τεχνολογίας.

Natasha Karner , Υποψήφια διδάκτωρ, Διεθνείς Σπουδές, Πανεπιστήμιο RMIT

Listen Live