Ο πρίγκιπας Χάρι και η Μέγκαν Μαρκλ συγκαταλέγονται ανάμεσα στις προσωπικότητες που ζητούν την απαγόρευση της ανάπτυξης τεχνητής υπερνοημοσύνης, ενός όρου που περιγράφει συστήματα τεχνητής νοημοσύνης τα οποία, εάν ποτέ αναπτυχθούν, θα ξεπερνούν την ανθρώπινη σκέψη σε όλες τις γνωστικές λειτουργίες.
Οι δύο τους υπέγραψαν δήλωση που καλεί κυβερνήσεις και τεχνολογικές εταιρείες να σταματήσουν προσωρινά την έρευνα προς αυτή την κατεύθυνση, μέχρι να υπάρξει ευρεία επιστημονική συναίνεση για το πώς μπορεί να αναπτυχθεί με ασφάλεια και να παραμείνει υπό έλεγχο, καθώς και μέχρι να διασφαλιστεί η αποδοχή της κοινής γνώμης.
Το κείμενο οργανώθηκε από το Future of Life Institute, έναν οργανισμό με έδρα τις Ηνωμένες Πολιτείες που δραστηριοποιείται σε θέματα ασφάλειας της τεχνητής νοημοσύνης. Ο ίδιος οργανισμός είχε προκαλέσει συζήτηση το 2023, όταν κάλεσε σε προσωρινή παύση της ανάπτυξης ισχυρών συστημάτων AI, λίγο μετά την εμφάνιση του ChatGPT.
Στους υπόλοιπους υπογράφοντες περιλαμβάνονται κορυφαίοι επιστήμονες και προσωπικότητες όπως ο νομπελίστας και πρωτοπόρος της τεχνητής νοημοσύνης Τζέφρι Χίντον, ο συνιδρυτής της Apple Στιβ Γουόζνιακ, ο επιχειρηματίας Ρίτσαρντ Μπράνσον, η πρώην πρόεδρος της Ιρλανδίας Μέρι Ρόμπινσον και ο συγγραφέας και παρουσιαστής Στίβεν Φράι.
Η συζήτηση γύρω από την τεχνητή υπερνοημοσύνη διχάζει την επιστημονική κοινότητα. Πολλοί ειδικοί προειδοποιούν ότι η ανεξέλεγκτη ανάπτυξή της θα μπορούσε να επιφέρει σοβαρούς κινδύνους για την κοινωνία. Μεταξύ αυτών περιλαμβάνονται η απώλεια θέσεων εργασίας, η υπονόμευση των πολιτικών ελευθεριών, ακόμη και η απειλή για την επιβίωση της ανθρωπότητας σε περίπτωση που ένα σύστημα ξεπεράσει τα όρια του ανθρώπινου ελέγχου και πάψει να υπακούει στους κανόνες ασφαλείας.
Ορισμένοι ειδικοί, ωστόσο, θεωρούν ότι η αναφορά σε υπερνοημοσύνη αντανακλά περισσότερο τον ανταγωνισμό των μεγάλων τεχνολογικών εταιρειών παρά μια πραγματική επιστημονική πρόοδο. Οι εταιρείες επενδύουν δισεκατομμύρια δολάρια ετησίως σε έργα τεχνητής νοημοσύνης, προσπαθώντας να κατακτήσουν την κορυφή ενός ταχέως αναπτυσσόμενου τομέα.
📻 "If you're a business, you wanna make money, you wanna chase profits, you have shareholders, fine.
— Future of Life Institute (@FLI_org) October 15, 2025
What actually irks me personally is when people try to have it both ways, in the way that the leaders of OpenAI do, where they try and speak as if they're still a nonprofit who… pic.twitter.com/IYQ8Epg794
AGI και τεχνητή υπερνοημοσύνη: Ποια είναι η διαφορά
Τον Ιούλιο, ο διευθύνων σύμβουλος της Meta, Μαρκ Ζούκερμπεργκ, δήλωσε ότι η ανάπτυξη της υπερνοημοσύνης «βρίσκεται πλέον σε ορατό ορίζοντα». Άλλοι επιστήμονες, ωστόσο, προειδοποιούν ότι τέτοιες δηλώσεις είναι πρόωρες και ότι η πραγματική τεχνολογική απόσταση από την υπερνοημοσύνη παραμένει μεγάλη.
Το Future of Life Institute δημοσίευσε πρόσφατα μια εθνική δημοσκόπηση στις Ηνωμένες Πολιτείες, σύμφωνα με την οποία περίπου τα τρία τέταρτα των πολιτών ζητούν αυστηρότερη ρύθμιση της τεχνητής νοημοσύνης. Έξι στους δέκα θεωρούν ότι η δημιουργία υπερανθρώπινης AI δεν πρέπει να προχωρήσει προτού αποδειχθεί ότι είναι απολύτως ασφαλής και ελέγξιμη. Μόλις το πέντε τοις εκατό των ερωτηθέντων υποστηρίζει τη συνέχιση της ανεξέλεγκτης ανάπτυξης.
Οι εταιρείες που ηγούνται της έρευνας στις ΗΠΑ, όπως η OpenAI και η Google, έχουν θέσει ως στόχο τη δημιουργία της λεγόμενης γενικής τεχνητής νοημοσύνης (AGI), δηλαδή ενός επιπέδου όπου τα συστήματα θα μπορούν να φτάσουν ή να ξεπεράσουν τις ανθρώπινες γνωστικές ικανότητες στους περισσότερους τομείς. Αν και η AGI θεωρείται ένα στάδιο πριν από την υπερνοημοσύνη, πολλοί επιστήμονες προειδοποιούν ότι ακόμη και αυτή μπορεί να κρύβει υπαρξιακούς κινδύνους, εάν αποκτήσει τη δυνατότητα να αυτοβελτιώνεται χωρίς ανθρώπινη παρέμβαση.
Η διαφορά ανάμεσα στα δύο επίπεδα είναι λεπτή αλλά κρίσιμη. Η AGI αφορά μηχανές που μπορούν να μαθαίνουν και να επιλύουν προβλήματα όπως ένας άνθρωπος, ενώ η υπερνοημοσύνη περιγράφει συστήματα που ξεπερνούν την ανθρώπινη νοημοσύνη σε κάθε τομέα, από τη δημιουργικότητα έως τη λήψη αποφάσεων.
Σύμφωνα με τους ερευνητές του Future of Life Institute, η ανάπτυξη τέτοιων συστημάτων θα μπορούσε να οδηγήσει σε αλυσιδωτές συνέπειες για την κοινωνία και την οικονομία. Μια υπερνοημοσύνη που θα λειτουργούσε αυτόνομα θα μπορούσε, για παράδειγμα, να αγνοήσει τα ανθρώπινα συμφέροντα, να ελέγχει την πληροφορία και να ανατρέψει τους μηχανισμούς ασφαλείας. Παράλληλα, η μαζική αυτοματοποίηση θα μπορούσε να αλλάξει ριζικά την αγορά εργασίας, να αυξήσει τις ανισότητες και να συγκεντρώσει ακόμη μεγαλύτερη δύναμη στα χέρια λίγων τεχνολογικών κολοσσών.
Όπως υπογραμμίζουν οι συντάκτες της δήλωσης, ο στόχος δεν είναι να σταματήσει η πρόοδος της τεχνητής νοημοσύνης, αλλά να υπάρξουν κανόνες που θα διασφαλίζουν την ασφάλεια, τη διαφάνεια και τον ανθρώπινο έλεγχο, πριν η τεχνολογία ξεπεράσει το σημείο χωρίς επιστροφή.
Με πληροφορίες από Guardian