Πάνω από ένα εκατομμύριο χρήστες του ChatGPT κάθε εβδομάδα στέλνουν μηνύματα που περιλαμβάνουν «σαφείς ενδείξεις πιθανής αυτοκτονικής πρόθεσης ή σχεδίου», σύμφωνα με ανάρτηση που δημοσίευσε η OpenAI χθες, Δευτέρα (27/10).
Το εύρημα, που συνιστά μέρος ενημέρωσης σχετικά με τον τρόπο με τον οποίο το chatbot χειρίζεται «ευαίσθητες συνομιλίες», αποτελεί μία άμεση παραδοχή της OpenAI σχετικά με τον βαθμό, που η τεχνητή νοημοσύνη μπορεί να επιδεινώσει προβλήματα ψυχικής υγείας.
Εκτός από τις εκτιμήσεις της σχετικά με τους αυτοκτονικούς ιδεασμούς, η OpenAI ανέφερε επίσης ότι περίπου το 0,07% των χρηστών που είναι ενεργοί σε μια εβδομάδα, περίπου 560.000 από τα 800 εκατομμύρια, εμφανίζουν «πιθανά σημάδια που σχετίζονται με ψύχωση ή μανία». Η ανάρτηση προειδοποίησε ότι αυτές οι συνομιλίες ήταν δύσκολο να ανιχνευθούν ή να μετρηθούν και ότι πρόκειται για μια αρχική ανάλυση.
ChatGPT: Υπό έλεγχο η «μητρική εταιρεία», OpenAI
Την ώρα που η OpenAI δημοσιεύει στοιχεία για το ChatGPT, η εταιρεία βρίσκεται υπό πειθαρχικό έλεγχο μετά την αγωγή που της άσκησε οικογένεια εφήβου, ο οποίος αυτοκτόνησε μετά από εκτεταμένη χρήση του chatbot τεχνητής νοημοσύνης. Τον περασμένο μήνα, η Αμερικάνικη Ομοσπονδιακή Επιτροπή Εμπορίου ξεκίνησε μια ευρεία έρευνα σε εταιρείες που δημιουργούν chatbots τεχνητής νοημοσύνης, συμπεριλαμβανομένης της OpenAI, για να διαπιστώσει πώς μετρούν τις αρνητικές επιπτώσεις σε παιδιά και εφήβους.
Η OpenAI σημείωσε, επίσης, ότι η πρόσφατη ενημέρωση του GPT-5 μείωσε τον αριθμό των ανεπιθύμητων συμπεριφορών του προϊόντος της και βελτίωσε την ασφάλεια των χρηστών σε μια αξιολόγηση μοντέλου που περιελάμβανε περισσότερες από 1.000 συνομιλίες σχετικά με αυτοτραυματισμούς και αυτοκτονίες. Η εταιρεία δεν απάντησε αμέσως σε αίτημα για σχόλιο.
«Οι νέες αυτοματοποιημένες αξιολογήσεις μας, βαθμολογούν το νέο μοντέλο, GPT 5, με 91% συμμόρφωση σε ό,τι αφορά τις επιθυμητές συμπεριφορές μας, σε σύγκριση με 77% για το προηγούμενο μοντέλο GPT 5» διευκρίνισε η εταιρεία στη σχετική της ανακοίνωση.
Η OpenAI δήλωσε ότι το GPT-5 επέκτεινε την πρόσβαση σε γραμμές βοήθειας για προβλήματα ψυχικής υγείας, ενώ υπενθυμίζει στους χρήστες να κάνουν διαλείμματα κατά τη διάρκεια μακράς χρήσης του. Για να βελτιώσει το μοντέλο, η εταιρεία είπε ακόμη ότι συνεργάζεται με 170 γιατρούς, για θέματα ψυχικής υγείας.
ChatGPT: Τι δήλωσε ο Σαμ Άλτμαν
«Παρατηρούμε ότι τα προβλήματα ψυχικής υγείας και η συναισθηματική δυσφορία είναι μέρος των κοινωνιών μας, και η αυξανόμενη βάση χρηστών σημαίνει ότι ένα μέρος των συνομιλιών στο ChatGPT περιλαμβάνει ανάλογες καταστάσεις» ανέφερε η OpenAI σε ανάρτησή της.
Ο διευθύνων σύμβουλος της OpenAI, Σαμ Άλτμαν έγραψε σε ανάρτηση στο X ότι η εταιρεία είχε σημειώσει πρόοδο στην αντιμετώπιση των προβλημάτων ψυχικής υγείας, ανακοινώνοντας ότι η OpenAI θα χαλάρωνε τους περιορισμούς και σύντομα θα άρχιζε να επιτρέπει στους ενήλικες να δημιουργούν ερωτικό περιεχόμενο.
Ερευνητές στον τομέα της τεχνητής νοημοσύνης, εδώ και καιρό, έχουν μιλήσει για την τάση των chatbot να επιβεβαιώνουν τις αποφάσεις ή τις αυταπάτες των χρηστών, ανεξάρτητα από το αν αυτές μπορεί να είναι επιβλαβείς, χαρακτηρίζοντας το ζήτημα ως «συκοφαντία». Οι ειδικοί στον τομέα της ψυχικής υγείας έχουν επίσης εκφράσει την ανησυχία τους για τους ανθρώπους που χρησιμοποιούν chatbot τεχνητής νοημοσύνης για ψυχολογική υποστήριξη και έχουν προειδοποιήσει για τον κίνδυνο που αυτό μπορεί να ενέχει για τους «ευάλωτους χρήστες».