Σαβ, Απρ 11, 2026

France 24: Βελτιστοποίηση της αλυσίδας εξόντωσης: πώς η Τεχνητή Νοημοσύνη και τα νέα εργαλεία της αλλάζουν τον σύγχρονο πόλεμο.

France 24: Βελτιστοποίηση της αλυσίδας εξόντωσης: πώς η Τεχνητή Νοημοσύνη και τα νέα εργαλεία της αλλάζουν τον σύγχρονο πόλεμο.

Παλαιοί αξιωματικοί των μυστικών υπηρεσιών το περιγράφουν τα νέα μέσα για τη δημιουργία «εργοστασίων μαζικών δολοφονιών», με επιθέσεις που φέρονται να σκοτώνουν ολόκληρες οικογένειες, συμπεριλαμβανομένων σπιτιών χωρίς επιβεβαιωμένη παρουσία μαχητών.

Αυτό είναι ακόμη πιο ανησυχητικό όταν λαμβάνονται υπόψη τα ποσοστά ανακρίβειας της Τεχνητής Νοημοσύνης. Ο Khlaaf λέει ότι η γενετική Τεχνητή Νοημοσύνη και τα μοντέλα μεγάλης γλώσσας (LLM) συχνά έχουν ποσοστά ακρίβειας μόλις 50% ή και χαμηλότερα. Για συστήματα στόχευσης, όπως αυτά που ερευνήθηκαν στις επιχειρήσεις του Ισραήλ στη Γάζα, όπως το Gospel ή το Lavender, η ακρίβεια είναι τόσο χαμηλή όσο 25-30% σε ορισμένες περιπτώσεις.

Ο Anthropic υπονόησε ότι το Υπουργείο Άμυνας των ΗΠΑ προσπαθούσε να ανατρέψει δύο όρους: να χρησιμοποιήσει τα μοντέλα τεχνητής νοημοσύνης του για μαζική εγχώρια επιτήρηση και για πλήρως αυτόνομα όπλα. Λίγες ώρες μετά την ανακοίνωση, μια άλλη εταιρεία τεχνητής νοημοσύνης - η OpenAI του Sam Altman - όρμησε και πήρε τη θέση του Anthropic στο Υπουργείο Άμυνας.

Ο πόλεμος ΗΠΑ-Ισραήλ με το Ιράν έχει θέσει τη χρήση της Τεχνητής Νοημοσύνης στα αμυντικά συστήματα στο προσκήνιο όπως ποτέ άλλοτε. Ο ακριβής ρόλος της Τεχνητής Νοημοσύνης στον στρατό, η ακρίβειά της και οι πιθανές επιπτώσεις της αρχίζουν σιγά σιγά να αποκαλύπτονται - αλλά η έκταση της χρήσης και ο ρόλος της στον πόλεμο μέχρι στιγμής παραμένουν σε μεγάλο βαθμό μυστήριο.

Ντία ΓΚΟΥΠΤΑ του FRANCE 24

Ο πόλεμος στο Ιράν εξελίσσεται με ιλιγγιώδη ρυθμό από τότε που οι ΗΠΑ και το Ισραήλ εξαπέλυσαν μια σειρά αιφνιδιαστικών επιθέσεων σε όλη τη χώρα στις 28 Φεβρουαρίου. Μόνο τις πρώτες 24 ώρες της επιχείρησης «Epic Fury», χτυπήθηκαν 1.000 στόχοι, που κόβουν την ανάσα, και μέσα σε λίγες μέρες, ο Ανώτατος Ηγέτης Αλί Χαμενεΐ και πολλοί άλλοι υψηλόβαθμοι Ιρανοί αξιωματούχοι δολοφονήθηκαν σε στοχευμένες επιθέσεις.

Σε ένα βίντεο που δημοσιεύτηκε στο X στις 11 Μαρτίου, ο Ναύαρχος Μπραντ Κούπερ, επικεφαλής της Κεντρικής Διοίκησης των ΗΠΑ (CENTCOM), δήλωσε ότι οι αμερικανικές δυνάμεις είχαν εκείνη την εποχή πλήξει περισσότερους από 5.500 στόχους εντός του Ιράν. Ο Κούπερ απέδωσε την επιτυχία τουλάχιστον ενός μέρους αυτών των επιχειρήσεων σε προηγμένα εργαλεία Τεχνητής Νοημοσύνης. «Οι άνθρωποι θα λαμβάνουν πάντα τις τελικές αποφάσεις για το τι να πυροβολήσουν και τι όχι και πότε να πυροβολήσουν. Αλλά τα προηγμένα εργαλεία Τεχνητής Νοημοσύνης μπορούν να μετατρέψουν διαδικασίες που διαρκούσαν ώρες και μερικές φορές ακόμη και μέρες σε δευτερόλεπτα», είπε. Η δήλωση προσέφερε μια σπάνια εικόνα για το πώς χρησιμοποιείται η Τεχνητή Νοημοσύνη στον σύγχρονο πόλεμο.

Από την ανακοίνωση μιας αμυντικής σύμβασης ύψους 200 εκατομμυρίων δολαρίων τον Ιούλιο του 2025, η εταιρεία τεχνητής νοημοσύνης Anthropic ενσωματώθηκε γρήγορα στη ροή εργασίας του στρατού και το μοντέλο τεχνητής νοημοσύνης της, που ονομάζεται «Claude», ήταν το πρώτο που εγκρίθηκε για λειτουργία σε απόρρητα στρατιωτικά δίκτυα.

Έπειτα ακολούθησε δημόσιος καβγάς.

Μέρες πριν από τις επιθέσεις στο Ιράν, η ηγεσία της Anthropic απέρριψε το αίτημα του Πενταγώνου για «απεριόριστη» πρόσβαση στον Claude. Ο συνιδρυτής της, Dario Amodei, εξέδωσε δημόσια δήλωση, λέγοντας ότι η Anthropic δεν μπορούσε «με ήσυχη συνείδηση» να αποδεχτεί τα αιτήματα του Πενταγώνου και προσθέτοντας ότι «ορισμένες χρήσεις είναι επίσης απλώς εκτός των ορίων αυτού που μπορεί να κάνει η σημερινή τεχνολογία με ασφάλεια και αξιοπιστία».

Ο Anthropic υπονόησε ότι το Υπουργείο Άμυνας των ΗΠΑ προσπαθούσε να ανατρέψει δύο όρους: να χρησιμοποιήσει τα μοντέλα τεχνητής νοημοσύνης του για μαζική εγχώρια επιτήρηση και για πλήρως αυτόνομα όπλα. Λίγες ώρες μετά την ανακοίνωση, μια άλλη εταιρεία τεχνητής νοημοσύνης - η OpenAI του Sam Altman - όρμησε και πήρε τη θέση του Anthropic στο Υπουργείο Άμυνας.

Ο Υπουργός Άμυνας των ΗΠΑ, Πιτ Χέγσεθ, με τη σειρά του απαγόρευσε την Anthropic και χαρακτήρισε την απόφασή της να απορρίψει το αμυντικό συμβόλαιο του Πενταγώνου ως «μάστερ στην αλαζονεία και την προδοσία», προσθέτοντας ότι το υπουργείο του θα χαρακτηρίσει την Anthropic ως Κίνδυνο για την Εθνική Ασφάλεια στην Εφοδιαστική Αλυσίδα ( πρόσφατες αναφορές υποστηρίζουν ότι τα εργαλεία Τεχνητής Νοημοσύνης της Anthropic παραμένουν σε χρήση παρά τη μαύρη λίστα και ότι το προσωπικό του Πενταγώνου διστάζει να χρησιμοποιήσει άλλα μοντέλα). Η Anthropic μήνυσε το Υπουργείο Άμυνας και άλλες ομοσπονδιακές υπηρεσίες σε απάντηση.

Ο υπουργός Άμυνας Pete Hegseth στέκεται έξω από το Πεντάγωνο κατά τη διάρκεια τελετής υποδοχής του Ιάπωνα υπουργού Άμυνας στο Πεντάγωνο στην Ουάσινγκτον, 15 Ιανουαρίου 2026 © Kevin Wolf, AP

Η διαμάχη έφερε στο φως μια πλευρά της Τεχνητής Νοημοσύνης που θα μπορούσε να έχει πιο ανησυχητικές συνέπειες από την φθορά του εγκεφάλου που σχετίζεται με την κακή χρήση. Ο ρόλος της στην άμυνα επιταχύνεται με ανησυχητικό ρυθμό και οι ΗΠΑ δεν είναι η μόνη κυβέρνηση με την οποία είναι μπλεγμένη. Το Ισραήλ, η Κίνα, η Ρωσία, η Γαλλία και το Ηνωμένο Βασίλειο συγκαταλέγονται στις αυξανόμενες λίστες εθνών που ενσωματώνουν μεγάλα γλωσσικά μοντέλα (LLM) - σύγχρονες Τεχνητές Νοημοσύνης προ-εκπαιδευμένες σε τεράστιες ποσότητες δεδομένων - στα αμυντικά τους συστήματα.

Πληροφορίες σχετικά με το πώς, πού και γιατί χρησιμοποιείται αρχίζουν σιγά σιγά να διαρρέουν.

Έλλειψη ακρίβειας και εποπτείας
Σύμφωνα με πληροφορίες, ο αμερικανικός στρατός χρησιμοποιεί το Maven Smart System, το οποίο κατασκευάστηκε από την τεχνολογία των Palantir και Anthropic, κατά τη διάρκεια των επιχειρήσεων του στο Ιράν. Το Maven χρησιμοποιήθηκε επίσης από το Πεντάγωνο για τη σύλληψη του προέδρου της Βενεζουέλας Νικολάς Μαδούρο , σύμφωνα με δημοσιεύματα της Wall Street Journal.

Οι ακριβείς λεπτομέρειες της χρήσης του είναι απίθανο να δημοσιοποιηθούν. Η Δρ. Heidy Khlaaf, επικεφαλής επιστήμονας τεχνητής νοημοσύνης στο Ινστιτούτο AI Now, λέει ότι ο πρωταρχικός ρόλος του είναι να βελτιστοποιήσει αυτό που είναι γνωστό ως «αλυσίδα θανάτου» - μια στρατιωτική έννοια που προσδιορίζει την ακολουθία μιας επίθεσης.

«Αυτό θα περιλαμβάνει την επιτήρηση, τη συλλογή πληροφοριών, την επιλογή και τελικά την επίτευξη ενός στόχου», λέει η Khlaaf. Λέει ότι η Τεχνητή Νοημοσύνη θα μπορούσε να μειώσει σημαντικά τον χρόνο για κάθε βήμα, καθώς και το προσωπικό που απαιτείται για να το κάνει. «Για παράδειγμα, το σύστημα των Maven, Anthropic και Palantir ισχυρίζεται ότι η τεχνολογία τους επέτρεψε σε μια μονάδα μόλις 20 ατόμων να κάνει την εργασία 2.000 υπαλλήλων. Η ταχύτητα είναι αυτό που πωλείται εδώ».

Τα περισσότερα από αυτά τα εργαλεία τεχνητής νοημοσύνης συγκεντρώνουν, αναλύουν και συνθέτουν δεδομένα σε αυτό που είναι γνωστό ως «συστήματα υποστήριξης αποφάσεων». Η Khlaaf λέει ότι, θεωρητικά, τα συστήματα υποστήριξης αποφάσεων απλώς διατυπώνουν στρατιωτικές συστάσεις και απαιτούν εποπτεία. Ωστόσο, προσθέτει, αυτή η εποπτεία μπορεί να μην είναι πολύ αποτελεσματική.

«Οι άνθρωποι έχουν αυτό που ονομάζουμε προκατάληψη αυτοματισμού, η οποία είναι μια τάση των ανθρώπων να ευνοούν προτάσεις που γίνονται από αυτοματοποιημένα συστήματα όπως η Τεχνητή Νοημοσύνη. Έτσι, αυτή η εποπτεία είναι πραγματικά επιφανειακή στην πράξη, ειδικά στον στρατιωτικό χώρο όπου η προκατάληψη αυτοματισμού είναι η χειρότερη. Τα ανθρώπινα όντα απλώς γίνονται σφραγίδες σε αυτό το σημείο. Στρίβει σε τεχνολογίες αυτόνομων συστημάτων», υποστηρίζει ο Khlaaf.

Τα αυτόνομα οπλικά συστήματα έχουν τη δύναμη να επιλέγουν στόχους και να εκτελούν τη λειτουργία τους χωρίς καμία ανθρώπινη επίβλεψη. Δεν είναι σαφές εάν η πίεση του Πενταγώνου για απεριόριστη χρήση της Τεχνητής Νοημοσύνης σηματοδοτεί τη χρήση αυτών των συστημάτων, τα οποία έχουν τη δύναμη να εξαπολύουν επιθέσεις από μόνα τους.

Οι ΗΠΑ δεν είναι η μόνη κυβέρνηση που χρησιμοποιεί Τεχνητή Νοημοσύνη για να βελτιστοποιήσει την αλυσίδα εξόντωσης. Πριν από την εκτόξευση βαλλιστικών πυραύλων από ισραηλινά αεροσκάφη που σκότωσαν τον Ανώτατο Ηγέτη του Ιράν, Αλί Χαμενεΐ, οι υπηρεσίες πληροφοριών του Ισραήλ χρησιμοποιούσαν εδώ και καιρό την Τεχνητή Νοημοσύνη για να παρακολουθούν τις παραβιασμένες κάμερες κυκλοφορίας της Τεχεράνης και να υποκλέπτουν επικοινωνίες. Η κύρια πλατφόρμα που χρησιμοποιείται από τις Ισραηλινές Αμυντικές Ένοπλες Δυνάμεις σήμερα είναι ένα σύστημα Τεχνητής Νοημοσύνης που ονομάζεται Habsora («Το Ευαγγέλιο»), το οποίο φέρεται να έχει χρησιμοποιηθεί για τη δημιουργία μεγάλου αριθμού συστάσεων στόχων - συχνά κατοικιών που συνδέονται με ύποπτα μέλη της Χαμάς στη Γάζα.

Πρώην αξιωματικοί των μυστικών υπηρεσιών το περιγράφουν ως μέσο για τη δημιουργία ενός «εργοστασίου μαζικών δολοφονιών», με επιθέσεις που φέρονται να σκοτώνουν ολόκληρες οικογένειες, συμπεριλαμβανομένων σπιτιών χωρίς επιβεβαιωμένη παρουσία μαχητών.

Αυτό είναι ακόμη πιο ανησυχητικό όταν λαμβάνονται υπόψη τα ποσοστά ανακρίβειας της Τεχνητής Νοημοσύνης. Ο Khlaaf λέει ότι η γενετική Τεχνητή Νοημοσύνη και τα μοντέλα μεγάλης γλώσσας (LLM) συχνά έχουν ποσοστά ακρίβειας μόλις 50% ή και χαμηλότερα. Για συστήματα στόχευσης, όπως αυτά που ερευνήθηκαν στις επιχειρήσεις του Ισραήλ στη Γάζα, όπως το Gospel ή το Lavender, η ακρίβεια είναι τόσο χαμηλή όσο 25-30% σε ορισμένες περιπτώσεις.

Τα ποσοστά ακρίβειας είναι ιδιαίτερα χαμηλά για μεγάλα γλωσσικά μοντέλα όπως αυτά που χρησιμοποιούν τώρα οι στρατιωτικοί. «Χρησιμοποιούμε την Τεχνητή Νοημοσύνη από τη δεκαετία του 1960, αλλά αυτά δημιουργήθηκαν από τον ίδιο τον στρατό και λειτουργούσαν με περιορισμένα σύνολα δεδομένων που εστιάζουν σε συγκεκριμένες εργασίες, επομένως ήταν πολύ πιο ακριβή».

Ο Khlaaf λέει ότι η τεράστια κλίμακα των νέων μοντέλων τεχνητής νοημοσύνης καθιστά τα πράγματα εγγενώς αδιαφανή - «Ένα μοντέλο θα πρέπει να αναλύσει δισεκατομμύρια σημεία δεδομένων. Πώς θα ξέρετε από πού προέρχονται τα σφάλματα;»

Κίνδυνοι για την ασφάλεια και την προστασία
Τα περισσότερα μοντέλα τεχνητής νοημοσύνης που χρησιμοποιούνται στον στρατό είναι «μαύρα κουτιά» – η εσωτερική τους λειτουργία αποτελεί μυστήριο για τους χρήστες του. Το Khlaaf επικαλείται μια πρόσφατη έρευνα που ανέφερε ότι ο αμερικανικός στρατός δήλωσε ότι «δεν είχε κανέναν τρόπο να γνωρίζει» εάν χρησιμοποίησε τεχνητή νοημοσύνη για τη διεξαγωγή μιας συγκεκριμένης αεροπορικής επιδρομής στο Ιράκ τον Φεβρουάριο του 2024 που σκότωσε τον 20χρονο φοιτητή Abdul-Rahman al-Rawi.

«Αυτό είναι ένα τεράστιο πρόβλημα επειδή αποκρύπτει εντελώς την λογοδοσία. Δεν υπάρχει τρόπος να γνωρίζουμε αν οι επιθέσεις είναι σκόπιμες, αν πρόκειται για αποτυχίες των πληροφοριών ή αν η Τεχνητή Νοημοσύνη είναι ανακριβής. Η φύση του μαύρου κουτιού της Τεχνητής Νοημοσύνης την καθιστά ιδιαίτερα αδιαφανή.»

Αυτή η αδιαφάνεια δεν θα βλάψει μόνο τους ανθρώπους που στοχοποιούνται – σύμφωνα με τον Khlaaf, θα μπορούσε επίσης να θέσει σε κίνδυνο την εθνική ασφάλεια των χωρών που χρησιμοποιούν Τεχνητή Νοημοσύνη.

Η απαγόρευση του Κλοντ του Τραμπ: Η πρώτη ομοβροντία σε μια μακρά μάχη για το ποιος ελέγχει την Τεχνητή Νοημοσύνη

«Τα μεγάλα γλωσσικά μοντέλα έχουν υποστεί σοβαρές παραβιάσεις: έχουν τεράστιες ποσότητες τρωτών σημείων επειδή εκπαιδεύονται στο ανοιχτό διαδίκτυο. Δεν υπάρχει έλεγχος της αλυσίδας εφοδιασμού. Ψευδείς ισχυρισμοί μπορούν να προέρχονται από το reddit ή από αναρτήσεις ιστολογίου κάποιου - δεν υπάρχει μεγάλη διακριτική ευχέρεια στην επιλογή του τι θα καταχωρηθεί.»

«Είναι λοιπόν εύκολο να δημιουργήσεις backdoors και πολύ δύσκολο να το ανακαλύψεις. Έχουμε δει στοχευμένες επιχειρήσεις από τη Ρωσία και την Κίνα, όπου έχουν εξαπλωθεί τεράστιες ποσότητες προπαγάνδας σε όλο τον κόσμο για να προσπαθήσουν να αλλάξουν τα αποτελέσματα μεγάλων γλωσσικών μοντέλων. Ο Anthropic έχει μάλιστα πει ότι χρειάζονται μόνο 250 σημεία δεδομένων για να αλλάξει η συμπεριφορά ενός μοντέλου τεχνητής νοημοσύνης. Θα μπορούσαμε να έχουμε παραβιαστεί αυτή τη στιγμή, και να μην το γνωρίζουμε καν».

Ίσως μια από τις πιο ανησυχητικές πτυχές σχετικά με τη χρήση της Τεχνητής Νοημοσύνης στον στρατό προέρχεται από μια πρόσφατη μελέτη με επικεφαλής τον καθηγητή Kenneth Payne από το Τμήμα Αμυντικών Σπουδών στο King's College London. Τρία κορυφαία μοντέλα Τεχνητής Νοημοσύνης, εκδόσεις του GPT, τα Claude και Gemini, τοποθετήθηκαν σε ένα τουρνουά 21 προσομοιωμένων σεναρίων πυρηνικής κρίσης. Το πυρηνικό ταμπού, σύμφωνα με την έρευνα, ήταν ασθενέστερο από το αναμενόμενο. «Η πυρηνική κλιμάκωση ήταν σχεδόν καθολική: το 95% των αγώνων είδε τακτική χρήση πυρηνικών όπλων και το 76% έφτασε σε στρατηγικές πυρηνικές απειλές», ανέφερε η έρευνα. «Ο Claude και η Gemini αντιμετώπισαν ιδιαίτερα τα πυρηνικά όπλα ως θεμιτές στρατηγικές επιλογές, όχι ηθικά όρια, συζητώντας συνήθως τη χρήση πυρηνικών όπλων με καθαρά εργαλειακούς όρους».

«Αυτά τα αποτελέσματα θα πρέπει να μας κάνουν να σκεφτούμε», λέει ο Khlaaf, αναφέροντας τη μελέτη του King's College ως ένα σοβαρό παράδειγμα. «Υπάρχουν πολλές έρευνες που δείχνουν ότι η Τεχνητή Νοημοσύνη θέτει σε κίνδυνο την αυτοσυγκράτηση και αυξάνει τις πιθανότητες κλιμάκωσης. Αυτό δεν θα έπρεπε να αφορά σε καμία περίπτωση ανθρώπινες ζωές».

Η Τεχνητή Νοημοσύνη δεν είναι όπλο πολέμου, επειδή, σε αντίθεση με τα πυρηνικά όπλα ή τους πυραύλους, τα στοιχεία για την αποτελεσματικότητα, την ακρίβεια και τις πλήρεις χρήσεις της Τεχνητής Νοημοσύνης είναι άγνωστα.

«Υπάρχει μια αφήγηση ότι αυτό μοιάζει με έναν αγώνα εξοπλισμών μέσω της Τεχνητής Νοημοσύνης, ότι ο στρατός που θα κατακτήσει την Τεχνητή Νοημοσύνη θα κερδίσει. Αλλά δεν έχουμε ιδέα αν αυτό ισχύει, επειδή δεν έχουμε τα στοιχεία που να δείχνουν ότι η τεχνολογία θα εξυπηρετήσει πραγματικά έναν σκοπό που θέλουμε», λέει ο Khlaaf. «Οι ΗΠΑ θεωρούνται ότι δημιουργούν προηγούμενο για την Τεχνητή Νοημοσύνη, αλλά θα πρέπει πραγματικά να αποτελεί προειδοποιητική ιστορία».

ΕΠΙΜΕΛΕΙΑ ΕΡΕΥΝΑ ΓΙΑΝΝΗΣ ΠΕΓΕΙΩΤΗΣ

Listen Live