LIVE!

Anthropic και Πεντάγωνο ξανά σε διαπραγματεύσεις για τη χρήση Τεχνητής Νοημοσύνης από τον στρατό

ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΠΟΛΕΜΟΣ ΗΠΑ ANTHROPIC Facebook Twitter
Φωτογραφία: Getty Images
0

Ο διευθύνων σύμβουλος της Anthropic, Dario Amodei, επέστρεψε στο τραπέζι των διαπραγματεύσεων με το υπουργείο Άμυνας των ΗΠΑ, μετά την κατάρρευση των συνομιλιών την Παρασκευή σχετικά με τη χρήση των εργαλείων Τεχνητής Νοημοσύνης της εταιρείας από τον αμερικανικό στρατό.

Σύμφωνα με δημοσίευμα των Financial Times, ο Amodei βρίσκεται ξανά σε συνομιλίες με τον Emil Michael, υφυπουργό Άμυνας αρμόδιο για την Έρευνα και τη Μηχανική (Research and Engineering), σε μια ύστατη προσπάθεια να επιτευχθεί συμφωνία για τους όρους που θα διέπουν την πρόσβαση του Πενταγώνου στα AI μοντέλα της Anthropic.

Το Claude έγινε το πρώτο μεγάλο μοντέλο Tεχνητής Nοημοσύνης που αναπτύχθηκε στα απόρρητα δίκτυα της αμερικανικής κυβέρνησης. Ωστόσο, στη συνέχεια η εταιρεία ζήτησε εγγυήσεις ότι τα AI εργαλεία της δεν θα χρησιμοποιηθούν για εσωτερική παρακολούθηση πολιτών ή για αυτόνομα οπλικά συστήματα. Από την πλευρά του, το Πεντάγωνο είχε απαιτήσει να μπορεί ο στρατός να χρησιμοποιεί την τεχνολογία για οποιαδήποτε νόμιμη χρήση και έτσι οι συνομιλίες δεν έφεραν θετικά αποτελέσματα.

Τότε, ο Donald Trump έδωσε εντολή στις ομοσπονδιακές υπηρεσίες να σταματήσουν να χρησιμοποιούν τα εργαλεία της Anthropic, ενώ ο υπουργός Άμυνας Pete Hegseth δήλωσε ότι θα χαρακτηρίσει την εταιρεία «κίνδυνο για την εθνική ασφάλεια».

Με ανάρτησή του, ο Emil Michael επιτέθηκε δημόσια στον Amodei, αποκαλώντας τον «ψεύτη».

Μια νέα συμφωνία ανάμεσα στις δύο πλευρές θα επέτρεπε στον αμερικανικό στρατό να συνεχίσει να χρησιμοποιεί την τεχνολογία της Anthropic, η οποία – σύμφωνα με πληροφορίες – έχει ήδη αξιοποιηθεί στον

Η χρήση της Τεχνητής Νοημοσύνης στον πόλεμο

Η χρήση εργαλείων Τεχνητής Νοημοσύνης για την πραγματοποίηση επιθέσεων κατά του Ιράν σηματοδοτεί μια νέα εποχή βομβαρδισμών πιο γρήγορων και από «την ταχύτητα της σκέψης», σύμφωνα με ειδικούς, εν μέσω φόβων ότι οι ανθρώπινοι υπεύθυνοι λήψης αποφάσεων ενδέχεται να τεθούν στο περιθώριο.

Το μοντέλο Τεχνητής Νοημοσύνης Claude της Anthropic φέρεται να χρησιμοποιήθηκε από τον αμερικανικό στρατό στο κύμα επιθέσεων, καθώς η τεχνολογία «συντομεύει την αλυσίδα θανάτου» – δηλαδή τη διαδικασία από την αναγνώριση στόχου έως τη νομική έγκριση και την εκτόξευση της επίθεσης.

Οι ΗΠΑ και το Ισραήλ, που είχαν προηγουμένως χρησιμοποιήσει AI για τον εντοπισμό στόχων στη Γάζα, εξαπέλυσαν περίπου 900 πλήγματα σε ιρανικούς στόχους μέσα στις πρώτες 12 ώρες. Κατά τη διάρκεια αυτών των επιθέσεων, ισραηλινοί πύραυλοι σκότωσαν τον ανώτατο ηγέτη του Ιράν, Αγιατολάχ Αλί Χαμενεΐ.

Ακαδημαϊκοί που μελετούν το πεδίο αναφέρουν ότι η Τεχνητή Νοημοσύνη συμπιέζει δραστικά τον χρόνο σχεδιασμού σύνθετων επιχειρήσεων – ένα φαινόμενο γνωστό ως «συμπίεση απόφασης», το οποίο, όπως φοβούνται ορισμένοι, θα μπορούσε να οδηγήσει τους στρατιωτικούς και νομικούς εμπειρογνώμονες να περιορίζονται απλώς στην έγκριση αυτοματοποιημένων σχεδίων επιθέσεων.

Το 2024, η Anthropic, με έδρα το Σαν Φρανσίσκο, ανέπτυξε το μοντέλο της στο αμερικανικό Υπουργείο Άμυνας και σε άλλες υπηρεσίες εθνικής ασφάλειας, προκειμένου να επιταχύνει τον σχεδιασμό πολεμικών επιχειρήσεων. Το Claude εντάχθηκε σε σύστημα που αναπτύχθηκε από την εταιρεία Palantir σε συνεργασία με το Πεντάγωνο, με στόχο «τη δραστική βελτίωση της ανάλυσης πληροφοριών και την υποστήριξη των αξιωματούχων στη λήψη αποφάσεων».

«Η μηχανή Τεχνητής Νοημοσύνης κάνει προτάσεις για το τι πρέπει να στοχεύσουμε, κάτι που σε ορισμένες περιπτώσεις είναι πολύ πιο γρήγορο από την ταχύτητα της σκέψης», δήλωσε ο Craig Jones, ανώτερος λέκτορας πολιτικής γεωγραφίας στο Πανεπιστήμιο του Newcastle. «Έτσι, έχεις κλίμακα και ταχύτητα, [εκτελείς] επιθέσεις τύπου δολοφονίας και ταυτόχρονα αποκεφαλίζεις την ικανότητα του καθεστώτος να ανταποκριθεί με όλους τους αεροβαλλιστικούς πυραύλους. Αυτό μπορεί να είχε πάρει ημέρες ή εβδομάδες σε παλαιότερους πολέμους. [Τώρα] τα κάνεις όλα ταυτόχρονα».

Τα πιο πρόσφατα συστήματα AI μπορούν να αναλύουν γρήγορα τεράστιο όγκο δεδομένων για πιθανούς στόχους – από βίντεο από drones έως υποκλοπές τηλεπικοινωνιών, καθώς και πληροφορίες από ανθρώπινες πηγές. Το σύστημα της Palantir χρησιμοποιεί μηχανική μάθηση για να προσδιορίζει και να ιεραρχεί στόχους και να προτείνει οπλικά συστήματα, λαμβάνοντας υπόψη τα αποθέματα και προηγούμενες επιδόσεις έναντι παρόμοιων στόχων, ενώ χρησιμοποιεί επίσης αυτοματοποιημένη συλλογιστική για την αξιολόγηση της νομικής βάσης μιας επίθεσης.

Πόλεμος στη Μέση Ανατολή και Τεχνητή Νοημοσύνη: Κεφάλαιο «Ηθική»

«Αυτή είναι η επόμενη εποχή της στρατιωτικής στρατηγικής και της στρατιωτικής τεχνολογίας», δήλωσε ο David Leslie, καθηγητής Ηθικής, Τεχνολογίας και Κοινωνίας στο Queen Mary University of London, ο οποίος έχει παρακολουθήσει επιδείξεις στρατιωτικών συστημάτων Τεχνητής Νοημοσύνης. Προειδοποίησε, ωστόσο, ότι η εξάρτηση από την AI μπορεί να οδηγήσει σε «γνωστική αποφόρτιση»: οι άνθρωποι που καλούνται να λάβουν την τελική απόφαση μπορεί να αισθάνονται αποστασιοποιημένοι από τις συνέπειές της, επειδή η προσπάθεια να τη σκεφτούν έχει γίνει από μια μηχανή.

Το Σάββατο, 165 άτομα, μεταξύ των οποίων πολλά παιδιά, σκοτώθηκαν σε πυραυλική επίθεση που έπληξε σχολείο στο νότιο Ιράν, σύμφωνα με τα κρατικά μέσα ενημέρωσης. Ο ΟΗΕ χαρακτήρισε το γεγονός «σοβαρή παραβίαση του ανθρωπιστικού δικαίου». Ο αμερικανικός στρατός δήλωσε ότι εξετάζει τις αναφορές.

Πόλεμος στη Μέση Ανατολή: Χρησιμοποιεί AI το Ιράν;

Δεν είναι γνωστό ποια συστήματα Τεχνητής Νοημοσύνης, αν υπάρχουν, έχει ενσωματώσει το Ιράν στον πολεμικό του μηχανισμό, αν και το 2025 ισχυρίστηκε ότι χρησιμοποιεί AI στα συστήματα στόχευσης πυραύλων. Το δικό του πρόγραμμα Τεχνητής Νοημοσύνης που παρεμποδίζεται από διεθνείς κυρώσεις, φαίνεται αμελητέο σε σύγκριση με τις υπερδυνάμεις Τεχνητής Νοημοσύνης των ΗΠΑ και της Κίνας, σχολιάζει ο Guardian.

Τις ημέρες πριν από τις επιθέσεις στο Ιράν, η αμερικανική κυβέρνηση είχε δηλώσει ότι θα απομακρύνει την Anthropic από τα συστήματά της, μετά την άρνηση της εταιρείας να επιτρέψει τη χρήση της AI της για πλήρως αυτόνομα οπλικά συστήματα ή για επιτήρηση Αμερικανών πολιτών. Ωστόσο, το μοντέλο παραμένει σε χρήση μέχρι την πλήρη σταδιακή απόσυρσή του. Η ανταγωνίστρια εταιρεία OpenAI υπέγραψε άμεσα δική της συμφωνία με το Πεντάγωνο για στρατιωτική αξιοποίηση των μοντέλων της.

«Το πλεονέκτημα είναι η ταχύτητα λήψης αποφάσεων, η μείωση του χρόνου σχεδιασμού από ημέρες ή εβδομάδες που χρειαζόταν στο παρελθόν σε λεπτά ή δευτερόλεπτα», δήλωσε ο Leslie. «Αυτά τα συστήματα παράγουν μια σειρά επιλογών για τους ανθρώπινους υπεύθυνους λήψης αποφάσεων, αλλά [έχουν] πολύ πιο περιορισμένο χρονικό περιθώριο για να αξιολογήσουν τη σύσταση».

«Η χρήση της Τεχνητής Νοημοσύνης επεκτείνεται», δήλωσε η Prerana Joshi, ερευνήτρια στο Royal United Services Institute, ένα think tank για θέματα άμυνας. «Γίνεται σε όλους τους τομείς της άμυνας των χωρών – στη λογιστική, την εκπαίδευση, τη διαχείριση αποφάσεων και τη συντήρηση».

«Η τεχνητή νοημοσύνη είναι μια τεχνολογία που θα επιτρέψει στους υπεύθυνους λήψης αποφάσεων, και σε οποιονδήποτε βρίσκεται σε αυτή την αλυσίδα, να βελτιώσουν την παραγωγικότητα και την αποδοτικότητα των δραστηριοτήτων τους. Είναι ένας τρόπος σύνθεσης δεδομένων με πολύ ταχύτερο ρυθμό, ο οποίος είναι χρήσιμος για τους υπεύθυνους λήψης αποφάσεων», πρόσθεσε.

Με πληροφορίες από Financial Times, The Guardian

 
 
 
Τech & Science
0

LIVE!

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

ΔΕΙΤΕ ΑΚΟΜΑ

Η τεχνητή νοημοσύνη αποκτά… φιλόσοφο

Τech & Science / Anthropic: Η τεχνητή νοημοσύνη αποκτά… φιλόσοφο

Η εταιρεία τεχνητής νοημοσύνης Anthropic έχει αναθέσει σε φιλόσοφο τη διαμόρφωση του ηθικού πλαισίου του chatbot Claude, δημιουργώντας ένα εσωτερικό «σύνταγμα» 30.000 λέξεων που καθοδηγεί τον τρόπο με τον οποίο το σύστημα απαντά σε σύνθετα ηθικά ζητήματα.
THE LIFO TEAM
OPENAI ΣΑΜ ΑΛΤΜΑΝ ΗΠΑ ΠΕΝΤΑΓΩΝΟ

Τech & Science / OpenAI τροποποιεί τη συμφωνία με το Πεντάγωνο μετά τις αντιδράσεις – «Έμοιαζε ευκαιριακή και πρόχειρη», λέει ο Σαμ Άλτμαν

Περίπου 900 εργαζόμενοι των OpenAI και Google κάλεσαν, μέσω ανοιχτής επιστολής, τις διοικήσεις των εταιρειών να απορρίψουν οποιαδήποτε συνεργασία που θα οδηγούσε σε μαζική παρακολούθηση ή σε αυτόνομα οπλικά συστήματα χωρίς ανθρώπινο έλεγχο
THE LIFO TEAM
CLAUDE ANTHROPIC ΗΠΑ ΙΡΑΝ ΝΤΟΝΑΛΝΤ ΤΡΑΜΠ

Τech & Science / Ο αμερικανικός στρατός χρησιμοποίησε το Claude στην επίθεση κατά του Ιράν, παρά την απαγόρευση Τραμπ

Σύμφωνα με τη Wall Street Journal, το στρατιωτικό επιτελείο των ΗΠΑ χρησιμοποίησε το Claude για ανάλυση πληροφοριών, αλλά και για την επιλογή στόχων και την προσομοίωση επιχειρήσεων στο πεδίο μάχης
THE LIFO TEAM