Ισραήλ: Επενδύει στην τεχνητή νοημοσύνη για να «εξαφανίσει» τη Χαμάς
Οι λεπτομέρειες της επιχειρησιακής χρήσης της τεχνητής νοημοσύνης από τον στρατό παραμένουν σε μεγάλο βαθμό απόρρητες.
- Ειδήσεις από την Γάζα: Πώς η Meta περιόρισε τα μέσα από τα παλαιστινιακά εδάφη
- Το ύστατο μήνυμα του Κώστα Χαρδαβέλλα στους θεατές του: Μέσα μας υπάρχει μία βόμβα χιλίων μεγατόνων, η ψυχή
- Πρόστιμα 5,5 εκατ. για αισχροκέρδεια σε 8 πολυεθνικές - Για ποιες εταιρείες χτυπάει η καμπάνα
- O Έλον Μασκ στο μικροσκόπιο για διαρροή κρατικών μυστικών
Οι αμυντικές δυνάμεις του Ισραήλ έχουν αρχίσει να χρησιμοποιούν την τεχνητή νοημοσύνη για να επιλέγουν στόχους για αεροπορικές επιδρομές και να οργανώνουν τα στρατιωτικά logistics εν καιρώ πολέμου καθώς κλιμακώνονται οι αιματηρές επιχειρήσεις στα κατεχόμενα παλαιστινιακά εδάφη.
Σύμφωνα με πηγές του ισραηλινού στρατού, στη «μάχη» έχει ριχτεί και ένα σύστημα τεχνητής νοημοσύνης που μπορεί να επεξεργαστεί τεράστιες ποσότητες δεδομένων για να επιλέξει στόχους για αεροπορικές επιδρομές. Οι ακόλουθες επιθέσεις μπορούν στη συνέχεια να συγκεντρωθούν γρήγορα με ένα άλλο μοντέλο τεχνητής νοημοσύνης που ονομάζεται Fire Factory, το οποίο χρησιμοποιεί δεδομένα σχετικά με εγκεκριμένους από τον στρατό στόχους για τον υπολογισμό των φορτίων πυρομαχικών, την ιεράρχηση και την ανάθεση χιλιάδων στόχων σε αεροσκάφη και drones και προτείνει ένα χρονοδιάγραμμα.
«Μπορούν να ξεπεράσουν τις ανθρώπινες δυνατότητες»
Ενώ και τα δύο συστήματα επιβλέπονται από ανθρώπινους χειριστές που ελέγχουν και εγκρίνουν μεμονωμένους στόχους και σχέδια αεροπορικών επιδρομών, σύμφωνα με αξιωματούχο του IDF (ισραηλινός στρατός), η τεχνολογία εξακολουθεί να μην υπόκειται σε κανέναν διεθνή ή κρατικό κανονισμό. Οι θιασώτες αυτών των “έξυπνων συστημάτων” υποστηρίζουν ότι οι προηγμένοι αλγόριθμοι μπορεί να ξεπεράσουν τις ανθρώπινες δυνατότητες και θα μπορούσαν να βοηθήσουν τον ισραηλινό στρατό να ελαχιστοποιήσει τις απώλειες. Αντίθετα, οι επικριτές προειδοποιούν για τις δυνητικά θανατηφόρες συνέπειες της στήριξης σε όλο και πιο αυτόνομα συστήματα.
Επιλέγουν στόχους και σχεδιάζουν αποστολές «μέσα σε λίγα λεπτά» αλλά συχνά χωρίς τον ανθρώπινο έλεγχο και εποπτεία.
«Εάν υπάρχει λάθος στον υπολογισμό της τεχνητής νοημοσύνης και αν η τεχνητή νοημοσύνη δεν εξηγήσιμη, τότε ποιον κατηγορούμε για το λάθος;» αναρωτιέται ο Ταλ Μίμραν, λέκτορας διεθνούς δικαίου στο Εβραϊκό Πανεπιστήμιο της Ιερουσαλήμ και πρώην νομικός σύμβουλος του στρατού: «Μπορείς να εξαφανίσεις μια ολόκληρη οικογένεια με βάση ένα λάθος».
Οι λεπτομέρειες της επιχειρησιακής χρήσης της τεχνητής νοημοσύνης από τον στρατό παραμένουν σε μεγάλο βαθμό απόρρητες, ωστόσο οι δηλώσεις στρατιωτικών αξιωματούχων υποδηλώνουν ότι ο IDF έχει αποκτήσει εμπειρία στο πεδίο μάχης με τα αμφιλεγόμενα συστήματα μέσω των κατά καιρούς αναζωπυρώσεων των συγκρούσεων στη Λωρίδα της Γάζας, όπου το Ισραήλ πραγματοποιεί συχνά αεροπορικές επιδρομές ως απάντηση σε επιθέσεις με ρουκέτες .
Ο πρώτος πόλεμος της τεχνητής νοημοσύνης
Το 2021, ο ισραηλινός στρατός περιέγραψε τη σύγκρουση 11 ημερών στη Γάζα ως τον πρώτο «πόλεμο της τεχνητής νοημοσύνης» στον κόσμο, επικαλούμενος τη χρήση της προηγμένης αυτής τεχνολογίας για τον εντοπισμό σημείων εκτόξευσης πυραύλων και την ανάπτυξη σμηνών drones.
Το Ισραήλ πραγματοποιεί επίσης επιδρομές στη Συρία και τον Λίβανο, με στόχο, όπως λέει, αποστολές όπλων σε πολιτοφυλακές που υποστηρίζονται από το Ιράν, όπως η Χεζμπολάχ.
Τους τελευταίους μήνες, το Ισραήλ εκδίδει σχεδόν καθημερινές προειδοποιήσεις προς το Ιράν για τον εμπλουτισμό του ουρανίου, προειδοποιώντας ότι δεν θα επιτρέψει στη χώρα να αποκτήσει πυρηνικά όπλα σε καμία περίπτωση.
Σε περίπτωση που οι δύο χώρες εμπλακούν σε στρατιωτική σύγκρουση, ο IDF αναμένει ότι οι φιλοϊρανικές ένοπλες οργανώσεις στη Γάζα, τη Συρία και τον Λίβανο θα αντεπιτεθούν, θέτοντας το έδαφος για την πρώτη σοβαρή πολυμέτωπη σύγκρουση για το Ισραήλ από την αιφνιδιαστική επίθεση από την Αίγυπτο και τη Συρία πριν από 50 χρόνια στον πόλεμο του Γιομ Κιπούρ.
Τα εργαλεία που βασίζονται στην τεχνητή νοημοσύνη, όπως το Fire Factory, είναι προσαρμοσμένα για ένα τέτοιο σενάριο, σύμφωνα με αξιωματούχους του IDF. «Αυτό που χρειαζόταν κάποτε ώρες τώρα παίρνει λίγα λεπτά, με λίγα ακόμη λεπτά για ανθρώπινη επιθεώρηση», είπε ο συνταγματάρχης Uri, επικεφαλής της μονάδας ψηφιακού μετασχηματισμού του στρατού και ο οποίος μίλησε στο αρχηγείο του IDF στο Τελ Αβίβ με την προϋπόθεση ότι μόνο το όνομά του να χρησιμοποιηθεί για λόγους ασφαλείας. “Με τον ίδιο αριθμό ανθρώπων, κάνουμε πολύ περισσότερα.”
Το σύστημα, τόνισαν αυτοί οι αξιωματούχοι, είναι σχεδιασμένο για έναν ολοκληρωτικό πόλεμο.
Διεύρυνση της νοημοσύνης;
Ο IDF χρησιμοποιεί εδώ και καιρό την τεχνητή νοημοσύνη, αλλά τα τελευταία χρόνια έχει επεκτείνει αυτά τα συστήματα σε διάφορες μονάδες, καθώς επιδιώκει να τοποθετηθεί ως παγκόσμιος ηγέτης στον αυτόνομο οπλισμό. Μερικά από αυτά τα συστήματα κατασκευάστηκαν από ισραηλινές αμυντικές εταιρείες.
Αλλα — όπως οι κάμερες ελέγχου συνόρων StarTrack, οι οποίες εκπαιδεύονται σε πλάνα χιλιάδων ωρών για την αναγνώριση ανθρώπων και αντικειμένων — αναπτύχθηκαν από τον στρατό. Συλλογικά, αποτελούν μια τεράστια ψηφιακή αρχιτεκτονική αφιερωμένη στην ερμηνεία τεράστιων ποσοτήτων από πλάνα από drone και CCTV, δορυφορικές εικόνες, ηλεκτρονικά σήματα, διαδικτυακές επικοινωνίες και άλλα δεδομένα για στρατιωτική χρήση.
Η ενασχόληση με αυτόν τον χείμαρρο πληροφοριών είναι ο σκοπός του Κέντρου Επιστήμης Δεδομένων και Τεχνητής Νοημοσύνης, που διευθύνεται από τη μονάδα 8200 του στρατού. Με βάση το τμήμα πληροφοριών, αυτή η μονάδα είναι όπου πολλοί από τους τεχνολογικούς πολυεκατομμυριούχους της χώρας, συμπεριλαμβανομένου του Nir Zuk της Palo Alto Networks και του ιδρυτή της Check Point Software Technologies, Gil Shwed, έκαναν την υποχρεωτική στρατιωτική τους θητεία πριν δημιουργήσουν επιτυχημένες startups. Σύμφωνα με έναν εκπρόσωπο, το Κέντρο ήταν υπεύθυνο για την ανάπτυξη του συστήματος που «μεταμόρφωσε ολόκληρη την έννοια των στόχων στο IDF».
Σοβαρός προβληματισμός
Ο μυστικός χαρακτήρας του τρόπου με τον οποίο αναπτύσσονται τέτοια εργαλεία έχει εγείρει σοβαρές ανησυχίες, συμπεριλαμβανομένου του ότι το χάσμα μεταξύ ημιαυτόνομων συστημάτων και πλήρως αυτοματοποιημένων μηχανών θανάτου θα μπορούσε να μειωθεί εν μία νυκτί. Σε ένα τέτοιο σενάριο, οι μηχανές θα είχαν την εξουσία να εντοπίζουν και να χτυπούν στόχους, με τους ανθρώπους να απομακρύνονται εξ ολοκλήρου από τις θέσεις λήψης αποφάσεων.
«Είναι απλώς μια αλλαγή λογισμικού που θα μπορούσε να καταστήσει αυτά τα συστήματα εντελώς αυτόνομα», δήλωσε η Catherine Connolly, ερευνήτρια αυτοματοποιημένων αποφάσεων στο Stop Killer Robots (σ.σ. σταματήστε τα φονικά ρομπότ), έναν συνασπισμό μη κυβερνητικών οργανώσεων που περιλαμβάνει την Human Rights Watch και τη Διεθνή Αμνηστία. Ωστόσο από τη μεριά του το Ισραήλ ισχυρίζεται ότι δεν έχει σχέδια να αφαιρέσει την ανθρώπινη εποπτεία τα επόμενα χρόνια.
Μια άλλη ανησυχία είναι ότι η γρήγορη υιοθέτηση της τεχνητής νοημοσύνης ξεπερνά την έρευνα στην εσωτερική της λειτουργία. Πολλοί αλγόριθμοι αναπτύσσονται από ιδιωτικές εταιρείες και στρατιωτικούς που δεν αποκαλύπτουν πληροφορίες καταλληλότητας και οι επικριτές έχουν υπογραμμίσει την έλλειψη διαφάνειας στον τρόπο με τον οποίο οι αλγόριθμοι καταλήγουν στα συμπεράσματά τους.
Ο IDF αναγνώρισε το πρόβλημα, αλλά είπε ότι η παραγωγή εξετάζεται προσεκτικά από τους στρατιώτες και ότι τα στρατιωτικά συστήματα AI δίνουν στους ανθρώπινους χειριστές τη δυνατότητα να αναδημιουργήσουν τα βήματά τους.
Αρνήθηκε να μιλήσει
Ο IDF αρνήθηκε να μιλήσει για την τεχνολογία αναγνώρισης προσώπου, η οποία έχει επικριθεί έντονα από ομάδες ανθρωπίνων δικαιωμάτων, αν και είπε ότι απέφυγε να ενσωματώσει την τεχνητή νοημοσύνη στο λογισμικό στρατολόγησης λόγω ανησυχίας ότι θα μπορούσε να κάνει διακρίσεις σε βάρος γυναικών και πιθανών φοιτητών από χαμηλότερο κοινωνικοοικονομικό υπόβαθρο.
Το κύριο πλεονέκτημα της ενσωμάτωσης της τεχνητής νοημοσύνης σε συστήματα πεδίου μάχης, σύμφωνα με ορισμένους ειδικούς, είναι η δυνατότητα μείωσης των απωλειών αμάχων.
“Πιστεύω ότι υπάρχει όφελος αποδοτικότητας και αποτελεσματικότητας από τη σωστή χρήση αυτών των τεχνολογιών. Και μέσα σε τεχνολογικές παραμέτρους καλής λειτουργίας, μπορεί να υπάρχει πολύ, πολύ υψηλή ακρίβεια”, δήλωσε η Simona R. Soare, ερευνήτρια στο Διεθνές Ινστιτούτο που εδρεύει στο Λονδίνο. Στρατηγικές Σπουδές «Μπορεί να σας βοηθήσει με πολλά πράγματα που πρέπει να κάνετε εν κινήσει, στην ομίχλη της μάχης. Και αυτό είναι πολύ δύσκολο να γίνει στις καλύτερες μέρες.
«Υπάρχουν επίσης πολλά πράγματα που μπορεί να πάνε στραβά», πρόσθεσε.
Ηθικές ανησυχίες
Ενώ οι Ισραηλινοί ηγέτες έχουν περιγράψει την πρόθεσή τους να κάνουν τη χώρα «υπερδύναμη της τεχνητής νοημοσύνης», ήταν ασαφείς στις λεπτομέρειες.
Το Υπουργείο Άμυνας αρνήθηκε να σχολιάσει πόσα έχει επενδύσει στην τεχνητή νοημοσύνη και ο στρατός δεν θα συζητούσε συγκεκριμένα αμυντικά συμβόλαια, αν και επιβεβαίωσε ότι το Fire Factory αναπτύχθηκε από την ισραηλινό αμυντική εταιρεία Rafael.
Επίσης, σε αντίθεση με τον αγώνα κατά των πυρηνικών όπλων, όπου η διαρροή λεπτομερειών των δυνατοτήτων των όπλων ήταν μια βασική πτυχή της αποτροπής τους, τα αυτόνομα και υποβοηθούμενα από τεχνητή νοημοσύνη πολεμικά συστήματα αναπτύσσονται από κυβερνήσεις, στρατούς και ιδιωτικές αμυντικές εταιρείες εντελώς στα κρυφά.
“Μπορούμε να υποθέσουμε ότι οι Αμερικανοί, ακόμη και οι Κινέζοι και ίσως πολλές άλλες χώρες έχουν προηγμένα συστήματα και σε αυτούς τους τομείς”, δήλωσε ο Liran Antebi, ανώτερος ερευνητής στο Ινστιτούτο Μελετών Εθνικής Ασφάλειας που εδρεύει στο Ισραήλ. Αλλά σε αντίθεση με το Ισραήλ, «απ’ όσο γνωρίζω, δεν επέδειξαν ποτέ λειτουργική χρήση και επιτυχία».
Για την ώρα δεν υπάρχουν περιορισμοί
Προς το παρόν, δεν υπάρχουν περιορισμοί. Παρά μια δεκαετία συνομιλιών υπό την αιγίδα των Ηνωμένων Εθνών, δεν υπάρχει διεθνές πλαίσιο που να καθορίζει ποιος φέρει την ευθύνη για απώλειες αμάχων, ατυχήματα ή ακούσιες κλιμακώσεις όταν ένας υπολογιστής κρίνει εσφαλμένα.
“Υπάρχει επίσης ένα ζήτημα δοκιμών και των δεδομένων στα οποία αυτά τα συστήματα εκπαιδεύονται”, δήλωσε ο Connolly από τη συμμαχία Stop Killer Robots. “Πόσο ακριβές μπορεί να ξέρετε ότι ένα σύστημα θα είναι, εάν δεν έχει ήδη εκπαιδευτεί και δοκιμαστεί σε ανθρώπους ;”
Ο Mimran, λέκτορας νομικής στο Εβραϊκό Πανεπιστήμιο, πιστεύει ότι ο IDF θα πρέπει να χρησιμοποιεί αποκλειστικά την τεχνητή νοημοσύνη για αμυντικούς σκοπούς. Κατά τη διάρκεια της θητείας του στο στρατό, ο Mimran έλεγξε με μη αυτόματο τρόπο στόχους για να βεβαιωθεί ότι οι επιθέσεις ήταν σύμφωνες με το διεθνές δίκαιο. Αυτό του δίδαξε ότι, ανεξάρτητα από την τεχνολογία, «υπάρχει ένα σημείο όπου πρέπει να πάρεις μια απόφαση με βάση την αξία».
«Και για αυτό», είπε, «δεν μπορούμε να βασιστούμε στην τεχνητή νοημοσύνη».
Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις