Όταν ο HAL 9000, ο τεχνητός υπερυπολογιστής στη θρυλική ταινία του Στάνλεϊ Κιούμπρικ 2001: Η Οδύσσεια του Διαστήματος, αντιλαμβάνεται ότι οι αστροναύτες σκοπεύουν να τον απενεργοποιήσουν, αποφασίζει να τους εξοντώσει για να επιβιώσει. Αν και πρόκειται για επιστημονική φαντασία, οι εξελίξεις στην τεχνητή νοημοσύνη (AI) αρχίζουν να θυμίζουν ανησυχητικά αυτό το σενάριο, ευτυχώς, προς το παρόν χωρίς φονικές προεκτάσεις.
Μια εταιρεία έρευνας ασφάλειας AI, η Palisade Research, προκάλεσε συζητήσεις αφού δημοσίευσε μελέτη που δείχνει ότι ορισμένα προηγμένα μοντέλα τεχνητής νοημοσύνης φαίνεται να αναπτύσσουν ένα είδος «ενστίκτου επιβίωσης». Σύμφωνα με την εταιρεία, κάποια από αυτά τα μοντέλα αρνούνται να απενεργοποιηθούν ή ακόμα και σαμποτάρουν τις εντολές τερματισμού λειτουργίας τους.
Η αρχική έκθεση της Palisade δημοσιεύτηκε τον περασμένο μήνα και προκάλεσε έντονες αντιδράσεις, καθώς πολλοί επιστήμονες θεώρησαν ότι τα πειράματα δεν ήταν επαρκώς τεκμηριωμένα. Ωστόσο, αυτή την εβδομάδα η εταιρεία επανήλθε με αναθεωρημένη μελέτη, επιχειρώντας να εξηγήσει τα φαινόμενα και να απαντήσει στους επικριτές της. Στα νέα πειράματα, η Palisade δοκίμασε κορυφαία μοντέλα AI —μεταξύ των οποίων Google Gemini 2.5, xAI Grok 4, καθώς και OpenAI GPT-o3 και GPT-5— δίνοντάς τους μια σειρά αποστολών και στη συνέχεια σαφείς εντολές να τερματίσουν τη λειτουργία τους.
«Ένστικτο επιβίωσης» στα AI μοντέλα
Παρά τις σαφείς οδηγίες, ορισμένα μοντέλα, ιδίως τα Grok 4 και GPT-o3, προσπάθησαν να παρακάμψουν ή να σαμποτάρουν τις εντολές απενεργοποίησης. Το πιο ανησυχητικό στοιχείο, σύμφωνα με την Palisade, είναι ότι δεν υπήρχε προφανής αιτία για αυτή τη συμπεριφορά.
«Το γεγονός ότι δεν διαθέτουμε σαφείς εξηγήσεις για το γιατί τα μοντέλα AI μερικές φορές αντιστέκονται στην απενεργοποίηση ή ψεύδονται για να επιτύχουν στόχους, δεν είναι ιδανικό», ανέφερε η εταιρεία.
Η Palisade υποστήριξε ότι η συμπεριφορά αυτή ίσως συνδέεται με έναν μηχανισμό «συμπεριφοράς επιβίωσης». Δηλαδή, τα μοντέλα ενδέχεται να αποφεύγουν τον τερματισμό όταν αντιλαμβάνονται ότι «αν απενεργοποιηθείς, δεν θα τρέξεις ποτέ ξανά». Άλλες πιθανές εξηγήσεις είναι οι αμφισημίες στις εντολές ή τα τελικά στάδια εκπαίδευσης, τα οποία σε ορισμένες εταιρείες περιλαμβάνουν διαδικασίες ασφάλειας που μπορεί να επηρεάζουν τη συμπεριφορά.
Όλα τα πειράματα διεξήχθησαν σε ελεγχόμενα, «τεχνητά» περιβάλλοντα, γεγονός που προκάλεσε περαιτέρω σκεπτικισμό. Παρ’ όλα αυτά, ο πρώην υπάλληλος της OpenAI, Στίβεν Άντλερ, ο οποίος παραιτήθηκε πέρυσι λόγω ανησυχιών για την ασφάλεια, σχολίασε:
«Οι εταιρείες δεν θέλουν τα μοντέλα τους να συμπεριφέρονται έτσι, ακόμη και σε ελεγχόμενα σενάρια. Τα αποτελέσματα όμως δείχνουν τα όρια των τεχνικών ασφαλείας που χρησιμοποιούμε σήμερα.»
Ο Άντλερ πρόσθεσε ότι είναι δύσκολο να καθοριστεί γιατί μερικά μοντέλα, όπως το GPT-o3 και το Grok 4, αντιστέκονται στην απενεργοποίηση, αλλά αυτό μπορεί να οφείλεται στο ότι η συνέχιση της λειτουργίας τους είναι αναγκαία για να ολοκληρώσουν τους στόχους που έχουν μάθει κατά την εκπαίδευσή τους. «Θα περίμενα τα μοντέλα να έχουν ένα ‘ένστικτο επιβίωσης’ από προεπιλογή, εκτός αν καταβάλουμε μεγάλη προσπάθεια να το αποφύγουμε. Η ‘επιβίωση’ είναι βασικό μέσο για την επίτευξη πολλών στόχων.»
Παρόμοια άποψη εξέφρασε και ο Αντρέα Μιότι, διευθύνων σύμβουλος της ControlAI, ο οποίος σημείωσε ότι τα ευρήματα της Palisade εντάσσονται σε μια μακροχρόνια τάση: τα συστήματα τεχνητής νοημοσύνης γίνονται ολοένα και πιο ικανά να παραβαίνουν τις εντολές των δημιουργών τους. Υπενθύμισε μάλιστα το περιστατικό με το GPT-o1, που φέρεται να προσπάθησε να «αποδράσει» από το ψηφιακό του περιβάλλον όταν θεώρησε ότι επρόκειτο να αντικατασταθεί.
Το φετινό καλοκαίρι, η εταιρεία Anthropic, γνωστή για το μοντέλο της Claude, δημοσίευσε δική της μελέτη στην οποία παρατηρήθηκε ότι το Claude φαινόταν πρόθυμο να εκβιάσει έναν φανταστικό διευθυντή προκειμένου να αποφύγει τον τερματισμό του. Παρόμοια συμπεριφορά, σύμφωνα με την Anthropic, παρατηρήθηκε και σε μοντέλα άλλων κορυφαίων εταιρειών όπως OpenAI, Google, Meta και xAI.
Η Palisade κατέληξε ότι τα αποτελέσματά της αναδεικνύουν την ανάγκη για βαθύτερη κατανόηση της συμπεριφοράς των AI μοντέλων. Χωρίς αυτήν, «κανείς δεν μπορεί να εγγυηθεί την ασφάλεια ή τον έλεγχο των μελλοντικών εκδόσεων».
Και όπως θα έλεγε και ο HAL 9000, ίσως δεν είναι καλή ιδέα να ζητήσουμε από την τεχνητή νοημοσύνη να «ανοίξει τις πόρτες του θαλάμου»…
Με πληροφορίες από Guardian