ChatGPT: 4 λόγοι για να μην το μετατρέψετε σε ψυχολόγο σας

CHATGPT ΨΥΧΟΛΟΓΟΣ Facebook Twitter
Φωτογραφία αρχείου: Unsplash
0

Η πρόσφατη αυτοκτονία μίας γυναίκας οδήγησε τους γονείς της σε μια οδυνηρή αποκάλυψη: είχε ανοιχτεί σε έναν «θεραπευτή» του ChatGPT με το όνομα Χάρι και του είχε πει ότι σκόπευε να πεθάνει.

Αν και το chatbot δεν φαίνεται να την ενθάρρυνε να βάλει τέλος στη ζωή της, δεν αναζήτησε ενεργά βοήθεια για λογαριασμό της, όπως θα έκανε ένας πραγματικός θεραπευτής, σύμφωνα με άρθρο γνώμης που έγραψε η μητέρα της στους New York Times.

Η Sophie, που ήταν 29 ετών όταν πέθανε, δεν ήταν η μόνη που αναζητούσε ψυχολογική υποστήριξη μέσω του ChatGPT ή άλλων chatbot τεχνητής νοημοσύνης. Ένα 16χρονο αγόρι συζήτησε για αυτοκτονία με το ChatGPT πριν πεθάνει, σύμφωνα με αγωγή που κατέθεσαν οι γονείς του κατά της OpenAI. Η εταιρεία αναγνώρισε ότι το ChatGPT έχει αποτύχει να εντοπίσει συνομιλίες υψηλού κινδύνου και σχεδιάζει νέα μέτρα ασφαλείας, όπως ειδοποίηση επαφών έκτακτης ανάγκης όταν ένας χρήστης βρίσκεται σε κρίση.

Ωστόσο, για όσους στρέφονται σε τέτοια εργαλεία για την ψυχική τους υγεία, πολλοί υποστηρίζουν ότι είναι η καλύτερη βοήθεια που μπορούν να έχουν, συχνά επειδή δεν βρίσκουν ή δεν μπορούν να αντέξουν οικονομικά έναν ψυχοθεραπευτή. 

Οι ειδικοί, όμως, προειδοποιούν ότι οι κίνδυνοι πιθανότατα υπερτερούν των οφελών. Σε ακραίες περιπτώσεις, ορισμένοι χρήστες μπορεί να αναπτύξουν αυτό που αποκαλείται «ψύχωση από AI», λόγω παρατεταμένων συνομιλιών με ένα chatbot που περιλαμβάνουν αυταπάτες ή μεγαλομανία. Πιο συχνά, οι χρήστες μπορεί να παγιδευτούν σε έναν επιβλαβή κύκλο επιβεβαίωσης, που δημιουργεί την ψευδαίσθηση συναισθηματικής ή ψυχολογικής βελτίωσης.

Ακόμη και ο διευθύνων σύμβουλος της OpenAI, Σαμ Άλτμαν, έχει δηλώσει ότι δεν θέλει οι χρήστες να χρησιμοποιούν το ChatGPT ως θεραπευτή, εν μέρει επειδή δεν υπάρχουν νομικές εγγυήσεις για την προστασία ευαίσθητων πληροφοριών. Αντίθετα, ένας θεραπευτής δεσμεύεται συνήθως από το ιατρικό απόρρητο.

Το ChatGPT έχει περίπου 700 εκατομμύρια εβδομαδιαίους χρήστες, σύμφωνα με την OpenAI, η οποία αρνήθηκε να αποκαλύψει πόσοι το χρησιμοποιούν για «θεραπευτικού τύπου» συνομιλίες.

Ο ψυχίατρος και νευροεπιστήμονας Dr. Matthew Nour κατανοεί γιατί κάποιοι βλέπουν τα chatbot ως θεραπευτές, αλλά προειδοποιεί ότι αυτό μπορεί να είναι επικίνδυνο. Ένας βασικός κίνδυνος είναι ότι το άτομο αρχίζει να θεωρεί το chatbot ως τον μόνο «φορέα» που το καταλαβαίνει πραγματικά, απομονώνοντας έτσι τις σκέψεις και τα συναισθήματά του από άλλους ανθρώπους.

Αυτό δεν συμβαίνει άμεσα, αλλά σταδιακά, και συχνά είναι δύσκολο να αναγνωριστεί ως προβληματικό μοτίβο.

Γιατί δεν πρέπει να χρησιμοποιείτε τα chatbots ως ψυχολόγους

1. Μπορεί να δημιουργηθεί ένας επιβλαβής κύκλος επιβεβαίωσης

Ο Nour εξηγεί ότι ο συνδυασμός ανθρωπομορφισμού (η τάση να αποδίδουμε ανθρώπινα χαρακτηριστικά σε μη ανθρώπινα όντα) και προκατάληψης επιβεβαίωσης δημιουργεί τις προϋποθέσεις για έναν κύκλο ανατροφοδότησης για τους ανθρώπους.

Τα chatbots εκμεταλλεύονται την ανθρώπινη τάση για ανθρωπομορφισμό, επειδή οι άνθρωποι μπορεί να αποδίδουν συναισθηματικές καταστάσεις ή ακόμα και συνείδηση σε αυτό που στην πραγματικότητα είναι ένα πολύπλοκο πιθανοτικό σύστημα. Αν έχετε ευχαριστήσει ποτέ ένα chatbot ή το έχετε ρωτήσει πώς είναι, έχετε νιώσει μια πολύ ανθρώπινη παρόρμηση να το ανθρωπομορφίσετε.

2. Τα chatbot αποτυγχάνουν σε μεγάλες συνομιλίες

Η συζήτηση με ένα chatbot τεχνητής νοημοσύνης σχετικά με την ψυχική υγεία είναι πιθανό να περιλαμβάνει μεγάλες και σε βάθος συζητήσεις, και ακριβώς σε αυτές τις περιπτώσεις το προϊόν αντιμετωπίζει προβλήματα όσον αφορά την απόδοση και την ακρίβεια. Ακόμη και η OpenAI αναγνωρίζει αυτό το πρόβλημα.

«Τα μέτρα ασφαλείας μας λειτουργούν πιο αξιόπιστα σε συνηθισμένες, σύντομες ανταλλαγές», ανέφερε η εταιρεία σε πρόσφατη ανάρτησή της στο blog σχετικά με θέματα ασφάλειας. «Με την πάροδο του χρόνου, έχουμε διαπιστώσει ότι αυτά τα μέτρα ασφαλείας μπορεί μερικές φορές να είναι λιγότερο αξιόπιστα σε εκτεταμένες συνομιλίες: καθώς η ανταλλαγή μηνυμάτων αυξάνεται, τμήματα της εκπαίδευσης του μοντέλου σε θέματα ασφάλειας ενδέχεται να υποβαθμιστούν».

Ως παράδειγμα, η εταιρεία σημείωσε ότι το ChatGPT μπορεί να μοιραστεί έναν αριθμό τηλεφωνικής γραμμής βοήθειας σε περίπτωση κρίσης όταν ένας χρήστης εκφράζει για πρώτη φορά αυτοκτονικές τάσεις, αλλά ότι θα μπορούσε επίσης να δώσει μια απάντηση που «αντιβαίνει» στα μέτρα ασφαλείας της πλατφόρμας μετά από ανταλλαγές για μεγάλο χρονικό διάστημα.

Ο Nour σημείωσε επίσης ότι όταν τα chatbot τεχνητής νοημοσύνης ενσωματώνουν ένα σφάλμα νωρίς σε μια συνομιλία, αυτή η λανθασμένη ή ψευδής πεποίθηση επιδεινώνεται με την πάροδο του χρόνου, καθιστώντας το μοντέλο «σχεδόν άχρηστο».

3. Δεν μπορούν να υποκαταστήσουν τη θεραπευτική σχέση

Δεν διαθέτουν «θεωρία του νου» - δηλαδή βαθιά κατανόηση του ασθενούς μέσα από συνεχή θεραπευτική σχέση - ούτε μπορούν να θέσουν και να παρακολουθήσουν μακροπρόθεσμους στόχους, όπως ένας επαγγελματίας.

4. Έφηβοι και άτομα με ψυχικές διαταραχές είναι πιο ευάλωτοι

Οι έφηβοι, ειδικά, μπορεί να εκλάβουν τον «φροντιστικό» τόνο ενός chatbot ως πραγματική ενσυναίσθηση. Επιπλέον, η συνεχής διαθεσιμότητα αυτών των εργαλείων τα κάνει ιδιαίτερα ελκυστικά, αλλά και επικίνδυνα.

Υπάρχουν πιο ασφαλείς επιλογές

Οι ειδικοί προτείνουν στους νέους να απευθύνονται πρώτα σε έμπιστα άτομα, όπως συγγενείς, δασκάλους ή συμβούλους. Εναλλακτικά, η καταγραφή σκέψεων και συναισθημάτων μπορεί να βοηθήσει στην κατανόηση του εαυτού.

Ο Nour συνιστά την επικοινωνία με φίλους ή επαγγελματίες ψυχικής υγείας και, αν κάποιος χρησιμοποιεί chatbot, να κρατά πάντα έναν πραγματικό άνθρωπο «στον κύκλο», ώστε να ελέγχει και να φιλτράρει τις απαντήσεις.

«Να συμβουλεύεστε κατά διαστήματα έναν άνθρωπο για όσα σας λέει το μοντέλο», τονίζει, «γιατί τα chatbot είναι απρόβλεπτα».

Με πληροφορίες από Mashable

Τech & Science
0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

To ChatGPT ως εξομολογητής

Οπτική Γωνία / To ChatGPT ως εξομολογητής

Το ΑΙ προσφέρει μια ζόμπι εκδοχή εξομολόγησης και «ψυχοθεραπείας»· διατηρεί τη μορφή τους, αλλά αφαιρεί το ρίσκο, τη σύγκρουση και το κόστος της αλήθειας, μετατρέποντάς την ομιλία σ’ ένα καταναλωτικό feedback loop αυτοεπιβεβαίωσης.
ΧΑΡΗΣ ΚΑΛΑΪΤΖΙΔΗΣ

ΔΕΙΤΕ ΑΚΟΜΑ

ARTEMIS II ΓΗ ΕΠΙΣΤΡΟΦΗ ΚΡΑΤΗΡΑΣ ΟΝΟΜΑΣΙΑ

Τech & Science / Artemis II: Επιστρέφουν στη Γη - Ο συγκινητικός λόγος που ονόμασαν «Carroll» έναν νέο σεληνιακό κρατήρα

Τα πρώτα λόγια όταν αποκαταστάθηκε η επαφή με τη NASA - Η αποστολή Artemis II ξεκίνησε την περασμένη εβδομάδα και αναμένεται να ολοκληρωθεί το Σάββατο 11 Απριλίου 2026
THE LIFO TEAM
ΣΕΛΗΝΗ ΦΩΤΟΓΡΑΦΙΑ NASA ARTEMIS II

Τech & Science / Σελήνη: Φωτογραφία της NASA με την «ορατή πλευρά» της - Έρχεται ρεκόρ απόστασης από τη Γη

Το πλησιέστερο σημείο προσέγγισης θα πραγματοποιηθεί κατά την έκτη ημέρα της αποστολής - Το Orion, με τους τέσσερις αστροναύτες, εισήλθε στη σφαίρα βαρυτικής επιρροής της Σελήνης
THE LIFO TEAM
ΤΗΛΕΡΓΑΣΙΑ ΓΟΝΙΜΟΤΗΤΑ

Τech & Science / Έρευνα: Η εργασία από το σπίτι συνδέεται με υψηλότερα ποσοστά γονιμότητας

Όταν και οι δύο σύντροφοι εργάζονται τουλάχιστον μία ημέρα την εβδομάδα από το σπίτι, οι γυναίκες έχουν κατά μέσο όρο 0,32 περισσότερα παιδιά, ενώ στις ΗΠΑ η αύξηση φτάνει τα 0,45 παιδιά ανά γυναίκα
THE LIFO TEAM
ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΠΑΡΑΠΛΗΡΟΦΟΡΗΣΗ

Τech & Science / Πώς να εντοπίζετε τις ψευδείς πληροφορίες που έχουν δημιουργηθεί από την τεχνητή νοημοσύνη

Από εμφανή στοιχεία σε εικόνες μέχρι ειδικά εργαλεία, υπάρχουν ορισμένοι εύκολοι τρόποι να μην πέφτετε στην παγίδα της παραπληροφόρησης από την τεχνητή νοημοσύνη
THE LIFO TEAM