«Το επιθυμούσα με ένα πάθος που ξεπερνούσε κατά πολύ τα όρια της μετριοπάθειας, αλλά τώρα που το είχα ολοκληρώσει, η ομορφιά του ονείρου εξαφανίστηκε και μια ξέπνοη φρίκη και μια αηδία γέμισαν την καρδιά μου».
Αυτή είναι η αντίδραση του Δρ. Φρανκενστάιν στο δημιούργημά του στο περίφημο μυθιστόρημα της Μαίρη Σέλλεϋ του 1818, που φέρει ως τίτλο το επώνυμο του επιστήμονα αλλά είναι γνωστό και ως «Ο σύγχρονος Προμηθέας».
Έναν παρόμοιο ίλιγγο φαίνεται να έχει βιώσει ο Σαμ Άλτμαν, διευθύνων σύμβουλος της OpenAI. Ο επικεφαλής της εταιρείας που βρίσκεται πίσω από μία από τις πιο εκλεπτυσμένες εξελίξεις στον τομέα της τεχνητής νοημοσύνης (AI) έχει αρχίσει να σκέφτεται σοβαρα τη θεωρία του «νεκρού διαδικτύου», η οποία υποστηρίζει ότι το αυτόματα δημιουργούμενο περιεχόμενο θα ξεπεράσει τελικά το περιεχόμενο που δημιουργείται από τον άνθρωπο – πολλαπλασιάζοντας τους κινδύνους χειραγώγησης, παραπληροφόρησης και κοινωνικού ελέγχου. Το λακωνικό μήνυμα του Altman έχει προκαλέσει ανησυχίες: «Ποτέ δεν πήρα τόσο σοβαρά τη θεωρία του νεκρού διαδικτύου, αλλά φαίνεται ότι υπάρχουν πραγματικά πολλοί λογαριασμοί Twitter που λειτουργούν με LLM (μεγάλα γλωσσικά μοντέλα)», έγραψε πριν από μερικές μέρες σε ανάρτησή του στο X.
«Καθώς οι λογαριασμοί που βασίζονται στην τεχνητή νοημοσύνη αυξάνουν τους ακόλουθούς τους (πολλοί ψεύτικοι, μερικοί πραγματικοί), ο υψηλός αριθμός τους νομιμοποιεί τον λογαριασμό στους πραγματικούς χρήστες. Αυτό σημαίνει ότι εκεί έξω δημιουργείται ένας στρατός λογαριασμών».
Από την δική του πλευρά, ο Άαρον Χάρις, παγκόσμιος διευθυντής τεχνολογίας (CTO) της Sage, μιας πολυεθνικής εταιρείας που ειδικεύεται σε εφαρμογές τεχνητής νοημοσύνης, είναι επιφυλακτικός όσον αφορά την ονομασία του φαινομένου, αν και δεν αρνείται την ύπαρξή του. «Δεν ξέρω αν θα το αποκαλούσα "νεκρό διαδίκτυο", αλλά σίγουρα είναι κάτι που αλλάζει ραγδαία. Η άνοδος του αυτοματοποιημένου περιεχομένου και της αλληλεπίδρασης που βασίζεται σε bots (υπολογιστικά προγράμματα που μιμούνται την ανθρώπινη συμπεριφορά) καθιστά όλο και πιο δύσκολο να διαχωρίσουμε το αυθεντικό από τον θόρυβο. Το ερώτημα είναι αν θα αφήσουμε αυτόν τον θόρυβο να μας κατακλύσει ή αν θα επικεντρωθούμε στο σχεδιασμό τεχνολογίας που αποκαθιστά την εμπιστοσύνη. Αυτό που έχει σημασία τώρα είναι το πώς φιλτράρουμε, επαληθεύουμε και εμφανίζουμε πληροφορίες τις οποίες οι άνθρωποι μπορούν να εμπιστευτούν».
Ειδική αναφορά κάνει και για τα social media, τα οποία «είναι πλέον η κύρια πηγή ειδήσεων για πολλούς χρήστες σε όλο τον κόσμο», όπως σημειώνεται σ’ ένα πρόσφατο άρθρο στο The Conversation, το οποίο υπογράφουν ο Τζέικ Ρενζέλα, διευθυντής του τμήματος πληροφορικής στο Πανεπιστήμιο της Μελβούρνης, και η Βλάντα Ροζόβα, ερευνήτρια μηχανικής μάθησης στο Πανεπιστήμιο της Νέας Νότιας Ουαλίας.
«Καθώς αυτοί οι λογαριασμοί που βασίζονται στην τεχνητή νοημοσύνη αυξάνουν τους ακόλουθούς τους (πολλοί ψεύτικοι, μερικοί πραγματικοί), ο υψηλός αριθμός τους νομιμοποιεί τον λογαριασμό στους πραγματικούς χρήστες. Αυτό σημαίνει ότι εκεί έξω δημιουργείται ένας στρατός λογαριασμών», συνεχίζει το άρθρο. «Ήδη, υπάρχουν ισχυρές ενδείξεις ότι τα μέσα κοινωνικής δικτύωσης χειραγωγούνται από αυτά τα φουσκωμένα bots για να επηρεάσουν την κοινή γνώμη μέσω της παραπληροφόρησης – και αυτό συμβαίνει εδώ και χρόνια». Από το 2023 ήδη, μια μελέτη της εταιρείας ασφαλείας Imperva εκτιμούσε ότι «σχεδόν το ήμισυ της συνολικής κίνησης στο διαδίκτυο το 2022 προερχόταν από bots». Και αυτά τα bots δεν είναι απλώς ικανά να δημιουργούν μοναδικό περιεχόμενο, αλλά και να μιμούνται φόρμουλες για να εξασφαλίσουν μαζική, viral διανομή. Σύμφωνα με μια νέα μελέτη που δημοσιεύθηκε στο Physical Review Letters, με επικεφαλής ερευνητές από το Πανεπιστήμιο του Βερμόντ και το Ινστιτούτο της Σάντα Φε, «το περιεχόμενο που διασπείρεται, είτε πρόκειται για μια άποψη, ένα αστείο ή έναν ιό, εξελίσσεται σε πραγματικό χρόνο και κερδίζει δύναμη καθώς διανέμεται» ακολουθώντας ένα μαθηματικό μοντέλο «αυτο-ενισχυόμενου καταρράκτη».
Σύμφωνα με αυτήν την έρευνα, αυτό που διασπείρεται, μεταλλάσσεται κατά την εξάπλωσή του, και αυτές οι αλλαγές το βοηθούν να γίνει viral ακολουθώντας ένα μοτίβο παρόμοιο με τις πυρκαγιές έκτης γενιάς, οι οποίες δεν μπορούν να καταπολεμηθούν με συμβατικές μεθόδους. Η ίδια αρχή ισχύει για τις πληροφορίες, τις ψευδείς ειδήσεις ή τους ιούς. Μπορούν να ενταθούν ή να εξασθενήσουν ανάλογα με τις συνθήκες. Όσον αφορά την ευπάθεια στην επιρροή των κοινωνικών μέσων, δεν έχει σημασία μόνο ποιος είσαι, αλλά και ποια είναι η θέση σου σε ένα συγκεκριμένο δίκτυο και με ποιους είσαι συνδεδεμένος», εξηγεί ο Luca Luceri, ερευνητής στο Πανεπιστήμιο της Νότιας Καλιφόρνιας.
Σε αυτό το πλαίσιο, η έρευνα επισημαίνει ένα φαινόμενο που ονομάζουν «το παράδοξο της ευπάθειας», το οποίο περιγράφει «ένα μοτίβο στο οποίο οι φίλοι των χρηστών επηρεάζονται, κατά μέσο όρο, πιο εύκολα από τους ίδιους τους χρήστες». Σύμφωνα με τη μελέτη, αυτή η συμπεριφορά «μπορεί να βοηθήσει να εξηγηθεί το πώς οι συμπεριφορές, οι τάσεις και οι ιδέες γίνονται δημοφιλείς – και γιατί ορισμένες γωνιές του διαδικτύου είναι πιο ευάλωτες στην επιρροή από άλλες».
Η εργασία των ερευνητών περιγράφει μια σειρά αρχών, παρόμοιες με τους νόμους της ρομποτικής του Ασίμοφ, για την αποτροπή της τεχνητής νοημοσύνης από το να ενεργεί εκτός των ηθικών ορίων. Συνοπτικά, η τεχνητή νοημοσύνη δεν πρέπει να χειραγωγεί τους χρήστες για να εξυπηρετήσει τα συμφέροντα της ίδιας ή των προγραμματιστών της, ούτε να προκαλεί κοινωνική βλάβη, όπως η παραπληροφόρηση. Δεν πρέπει να επιτρέπει στους χρήστες ή στους προγραμματιστές να εφαρμόζουν στρατηγικές που επηρεάζουν αρνητικά την κοινωνία και δεν πρέπει να περιορίζει αδικαιολόγητα την ελευθερία των χρηστών.
Με στοιχεία από El Pais