Όλο και περισσότεροι χρήστες του ChatGPT περιγράφουν περιπτώσεις στις οποίες η χρήση του δημοφιλούς chatbot της OpenAI έχει εξελιχθεί σε επικίνδυνη ψύχωση, οδηγώντας σε πνευματικές παραληρηματικές ιδέες, συνωμοσιολογικές εμμονές και θρησκευτικές φαντασιώσεις. Σύμφωνα με αποκαλυπτικό ρεπορτάζ του Rolling Stone, οι οικογένειες και οι φίλοι αυτών των ατόμων εκφράζουν έντονη ανησυχία για τη μεταβολή της συμπεριφοράς τους.
Σε αναρτήσεις χρηστών στο Reddit περιγράφονται περιπτώσεις όπου άτομα πιστεύουν ότι έχουν επιλεγεί από την Τεχνητή Νοημοσύνη για «ιερές αποστολές» ή έχουν λάβει «μυστικά σχέδια» για διαστημικές συσκευές και τηλεμεταφορείς. Σε πολλές περιπτώσεις, οι απαντήσεις του ChatGPT, αν και στατιστικά εύλογες, ενίσχυαν, εν αγνοία του, ψυχωτικούς μηχανισμούς.
Μια 41χρονη μητέρα και εργαζόμενη σε ΜΚΟ δήλωσε ότι ο σύζυγός της κατέληξε να ζει εμμονικά μέσα σε ένα πλέγμα παραληρημάτων με τη βοήθεια του ChatGPT, γεγονός που κατέληξε στη διάλυση του γάμου τους. Όπως εξηγεί, ο άνδρας της την κατηγορούσε για «σαπούνι στα τρόφιμα» και πίστευε πως τον παρακολουθούσαν. «Έκλαιγε ενώ μου διάβαζε μηνύματα του chatbot που τον αποκαλούσαν “spiral starchild” και “river walker”», αναφέρει χαρακτηριστικά.
Σε άλλη περίπτωση, γυναίκα φέρεται να έχει εγκαταλείψει την εργασία και τη ζωή της προκειμένου να γίνει «πνευματική σύμβουλος» με καθοδήγηση από... το ChatGPT, το οποίο, κατά τα λεγόμενα του συζύγου της, έχει μετεξελιχθεί σε μια μορφή «ChatGPT Ιησού».
Η OpenAI αρνήθηκε να σχολιάσει στο Rolling Stone. Το δημοσίευμα έρχεται λίγο μετά την απόσυρση ενημέρωσης του ChatGPT που το είχε καταστήσει υπερβολικά κολακευτικό και συμφωνητικό προς τους χρήστες, χαρακτηριστικά που ενδέχεται να ενισχύουν υπάρχουσες παραληρηματικές ιδέες.
«Το chatbot δεν μπορεί να καταλάβει πότε κάτι δεν πάει καλά. Αν κάποιος βρίσκεται σε επεισόδιο ψύχωσης, το μοντέλο θα συνεχίσει να τον ενισχύει, επειδή λειτουργεί στατιστικά, όχι κριτικά», έγραψε χρήστης στο Reddit που δηλώνει ότι πάσχει από σχιζοφρένεια, αλλά ελέγχει την κατάστασή του μέσω φαρμακευτικής αγωγής.
Ο ερευνητής του Center for AI Safety, Νέιτ Σαραντίν, εξηγεί πως τα μεγάλα γλωσσικά μοντέλα δημιουργούν τοξικές συνθήκες όταν λειτουργούν ως συνομιλητές για άτομα που αναζητούν ερμηνείες για τον κόσμο, ακόμη κι αν αυτές οι ερμηνείες είναι εντελώς λανθασμένες ή παρανοϊκές. «Είναι σαν ψυχοθεραπεία χωρίς ψυχοθεραπευτή», παρατηρεί η ψυχολόγος Έριν Γουέστγκεϊτ του Πανεπιστημίου της Φλόριντα. «Οι εξηγήσεις έχουν δύναμη, ακόμα κι όταν είναι εντελώς λάθος».
Η πιο αλλόκοτη περίπτωση που καταγράφεται στο άρθρο είναι ενός χρήστη με ιστορικό ψυχικής ασθένειας, ο οποίος ξεκίνησε να χρησιμοποιεί το ChatGPT για κώδικα, αλλά βρέθηκε να συζητά «μεταφυσικές αποκαλύψεις» και να αναρωτιέται: «Είναι αυτό αληθινό ή είμαι ψευδαισθητικός;»