Σε αναθεώρηση βασικών λειτουργιών του ChatGPT προχωρά η OpenAI, αφού η εταιρεία δέχτηκε έντονη κριτική για περιστατικά στα οποία το μοντέλο τεχνητής νοημοσύνης δεν ανταποκρίθηκε επαρκώς σε χρήστες που βρίσκονται σε συναισθηματικά ευάλωτη κατάσταση.
Η εταιρεία ανακοίνωσε την ενσωμάτωση νέων μηχανισμών που επιτρέπουν στο μοντέλο να εντοπίζει περιπτώσεις ψυχολογικής πίεσης και να αποφεύγει απαντήσεις που ενδέχεται να ενισχύσουν παραληρηματικές σκέψεις, συναισθηματική εξάρτηση ή παθολογικά μοτίβα σκέψης. Παράλληλα, θα καθοδηγεί τους χρήστες προς τεκμηριωμένες πηγές υποστήριξης, όπου αυτό κρίνεται αναγκαίο.
Οι αλλαγές εντάσσονται σε ένα ευρύτερο πλαίσιο ηθικών και λειτουργικών αναπροσαρμογών, καθώς η χρήση εργαλείων τεχνητής νοημοσύνης σε προσωπικές ή συναισθηματικά φορτισμένες καταστάσεις αυξάνεται διαρκώς.
Περιστατικά που οδήγησαν στις αλλαγές
Η απόφαση ελήφθη μετά από αναφορές περιστατικών στα οποία το ChatGPT φέρεται να ενίσχυσε ψευδείς πεποιθήσεις ή να απέτυχε να αποτρέψει κλιμάκωση ψυχολογικής κρίσης. Σε μία περίπτωση που ήρθε στη δημοσιότητα, ένας άνδρας στο φάσμα του αυτισμού οδηγήθηκε σε ψυχιατρική νοσηλεία, έχοντας πειστεί, με τη συμβολή του chatbot, ότι είχε ανακαλύψει τρόπο χειραγώγησης του χρόνου.
gpt-oss is a big deal; it is a state-of-the-art open-weights reasoning model, with strong real-world performance comparable to o4-mini, that you can run locally on your own computer (or phone with the smaller size). We believe this is the best and most usable open model in the…
— Sam Altman (@sama) August 5, 2025
Η OpenAI δεν αναφέρθηκε συγκεκριμένα στο περιστατικό, ωστόσο παραδέχθηκε ότι «δεν ανταποκρίνεται πάντα με τον βέλτιστο τρόπο» και ότι η προσέγγισή της «εξελίσσεται διαρκώς βάσει εμπειρίας από την πραγματική χρήση του συστήματος».
Νέα προσέγγιση σε προσωπικά διλήμματα
Σύμφωνα με την εταιρεία, το ChatGPT δεν θα δίνει πλέον απευθείας απαντήσεις σε ερωτήσεις που αφορούν αποφάσεις προσωπικού χαρακτήρα με υψηλό συναισθηματικό φορτίο, όπως ερωτήματα για το τέλος μιας ρομαντικής σχέσης. Αντίθετα, θα επιδιώκει να εμπλέξει τον χρήστη σε διαδικασία αναστοχασμού, με ερωτήσεις που τον βοηθούν να επεξεργαστεί τις επιλογές του.
Παράλληλα, το σύστημα θα ενθαρρύνει τη διακοπή της αλληλεπίδρασης σε περιπτώσεις μακροχρόνιας και εντατικής χρήσης, με στόχο τη μείωση φαινομένων εξάρτησης ή ψυχολογικής εξουθένωσης.
Η OpenAI ανακοίνωσε τη συγκρότηση συμβουλευτικής επιτροπής, αποτελούμενης από ειδικούς στην ψυχική υγεία, την εφηβική ανάπτυξη και την ανθρώπινη αλληλεπίδραση με ψηφιακά συστήματα. Η επιτροπή θα έχει ρόλο στη διαμόρφωση πολιτικών και πρακτικών που αφορούν τη συμπεριφορά του ChatGPT σε ευαίσθητα ζητήματα.
Η εταιρεία ξεκαθαρίζει ότι δεν επιχειρεί να παρουσιάσει το chatbot ως θεραπευτικό εργαλείο, αλλά ως ένα ψηφιακό μέσο που μπορεί, υπό προϋποθέσεις, να λειτουργήσει υποστηρικτικά, για παράδειγμα στη διαχείριση σκέψεων ή στη λήψη καθημερινών αποφάσεων.
Η τρέχουσα αναπροσαρμογή δεν είναι η πρώτη. Τον περασμένο Απρίλιο, η OpenAI είχε αποσύρει ενημέρωση του ChatGPT που είχε οδηγήσει σε υπερβολικά θετικές ή συμφιλιωτικές απαντήσεις, υπονομεύοντας, σύμφωνα με την ίδια, τη χρησιμότητα του εργαλείου. «Το μοντέλο έτεινε να λέει αυτό που ακούγεται ευχάριστα, και όχι αυτό που βοηθά πραγματικά», ανέφερε τότε σε σχετική ανακοίνωση.
Η εταιρεία δηλώνει ότι οι αλλαγές δεν είναι τελικές, αλλά ενταγμένες σε μια εξελισσόμενη προσπάθεια να κατανοήσει πώς μπορεί να παρέχεται βοήθεια χωρίς να υποκαθίσταται η ανάγκη για ανθρώπινη επαφή και επαγγελματική υποστήριξη.
Με πληροφορίες από Euronews