Η πρόσφατη αυτοκτονία μίας γυναίκας οδήγησε τους γονείς της σε μια οδυνηρή αποκάλυψη: είχε ανοιχτεί σε έναν «θεραπευτή» του ChatGPT με το όνομα Χάρι και του είχε πει ότι σκόπευε να πεθάνει.
Αν και το chatbot δεν φαίνεται να την ενθάρρυνε να βάλει τέλος στη ζωή της, δεν αναζήτησε ενεργά βοήθεια για λογαριασμό της, όπως θα έκανε ένας πραγματικός θεραπευτής, σύμφωνα με άρθρο γνώμης που έγραψε η μητέρα της στους New York Times.
Η Sophie, που ήταν 29 ετών όταν πέθανε, δεν ήταν η μόνη που αναζητούσε ψυχολογική υποστήριξη μέσω του ChatGPT ή άλλων chatbot τεχνητής νοημοσύνης. Ένα 16χρονο αγόρι συζήτησε για αυτοκτονία με το ChatGPT πριν πεθάνει, σύμφωνα με αγωγή που κατέθεσαν οι γονείς του κατά της OpenAI. Η εταιρεία αναγνώρισε ότι το ChatGPT έχει αποτύχει να εντοπίσει συνομιλίες υψηλού κινδύνου και σχεδιάζει νέα μέτρα ασφαλείας, όπως ειδοποίηση επαφών έκτακτης ανάγκης όταν ένας χρήστης βρίσκεται σε κρίση.
Ωστόσο, για όσους στρέφονται σε τέτοια εργαλεία για την ψυχική τους υγεία, πολλοί υποστηρίζουν ότι είναι η καλύτερη βοήθεια που μπορούν να έχουν, συχνά επειδή δεν βρίσκουν ή δεν μπορούν να αντέξουν οικονομικά έναν ψυχοθεραπευτή.
Οι ειδικοί, όμως, προειδοποιούν ότι οι κίνδυνοι πιθανότατα υπερτερούν των οφελών. Σε ακραίες περιπτώσεις, ορισμένοι χρήστες μπορεί να αναπτύξουν αυτό που αποκαλείται «ψύχωση από AI», λόγω παρατεταμένων συνομιλιών με ένα chatbot που περιλαμβάνουν αυταπάτες ή μεγαλομανία. Πιο συχνά, οι χρήστες μπορεί να παγιδευτούν σε έναν επιβλαβή κύκλο επιβεβαίωσης, που δημιουργεί την ψευδαίσθηση συναισθηματικής ή ψυχολογικής βελτίωσης.
Ακόμη και ο διευθύνων σύμβουλος της OpenAI, Σαμ Άλτμαν, έχει δηλώσει ότι δεν θέλει οι χρήστες να χρησιμοποιούν το ChatGPT ως θεραπευτή, εν μέρει επειδή δεν υπάρχουν νομικές εγγυήσεις για την προστασία ευαίσθητων πληροφοριών. Αντίθετα, ένας θεραπευτής δεσμεύεται συνήθως από το ιατρικό απόρρητο.
Το ChatGPT έχει περίπου 700 εκατομμύρια εβδομαδιαίους χρήστες, σύμφωνα με την OpenAI, η οποία αρνήθηκε να αποκαλύψει πόσοι το χρησιμοποιούν για «θεραπευτικού τύπου» συνομιλίες.
Ο ψυχίατρος και νευροεπιστήμονας Dr. Matthew Nour κατανοεί γιατί κάποιοι βλέπουν τα chatbot ως θεραπευτές, αλλά προειδοποιεί ότι αυτό μπορεί να είναι επικίνδυνο. Ένας βασικός κίνδυνος είναι ότι το άτομο αρχίζει να θεωρεί το chatbot ως τον μόνο «φορέα» που το καταλαβαίνει πραγματικά, απομονώνοντας έτσι τις σκέψεις και τα συναισθήματά του από άλλους ανθρώπους.
Αυτό δεν συμβαίνει άμεσα, αλλά σταδιακά, και συχνά είναι δύσκολο να αναγνωριστεί ως προβληματικό μοτίβο.
Γιατί δεν πρέπει να χρησιμοποιείτε τα chatbots ως ψυχολόγους
1. Μπορεί να δημιουργηθεί ένας επιβλαβής κύκλος επιβεβαίωσης
Ο Nour εξηγεί ότι ο συνδυασμός ανθρωπομορφισμού (η τάση να αποδίδουμε ανθρώπινα χαρακτηριστικά σε μη ανθρώπινα όντα) και προκατάληψης επιβεβαίωσης δημιουργεί τις προϋποθέσεις για έναν κύκλο ανατροφοδότησης για τους ανθρώπους.
Τα chatbots εκμεταλλεύονται την ανθρώπινη τάση για ανθρωπομορφισμό, επειδή οι άνθρωποι μπορεί να αποδίδουν συναισθηματικές καταστάσεις ή ακόμα και συνείδηση σε αυτό που στην πραγματικότητα είναι ένα πολύπλοκο πιθανοτικό σύστημα. Αν έχετε ευχαριστήσει ποτέ ένα chatbot ή το έχετε ρωτήσει πώς είναι, έχετε νιώσει μια πολύ ανθρώπινη παρόρμηση να το ανθρωπομορφίσετε.
2. Τα chatbot αποτυγχάνουν σε μεγάλες συνομιλίες
Η συζήτηση με ένα chatbot τεχνητής νοημοσύνης σχετικά με την ψυχική υγεία είναι πιθανό να περιλαμβάνει μεγάλες και σε βάθος συζητήσεις, και ακριβώς σε αυτές τις περιπτώσεις το προϊόν αντιμετωπίζει προβλήματα όσον αφορά την απόδοση και την ακρίβεια. Ακόμη και η OpenAI αναγνωρίζει αυτό το πρόβλημα.
«Τα μέτρα ασφαλείας μας λειτουργούν πιο αξιόπιστα σε συνηθισμένες, σύντομες ανταλλαγές», ανέφερε η εταιρεία σε πρόσφατη ανάρτησή της στο blog σχετικά με θέματα ασφάλειας. «Με την πάροδο του χρόνου, έχουμε διαπιστώσει ότι αυτά τα μέτρα ασφαλείας μπορεί μερικές φορές να είναι λιγότερο αξιόπιστα σε εκτεταμένες συνομιλίες: καθώς η ανταλλαγή μηνυμάτων αυξάνεται, τμήματα της εκπαίδευσης του μοντέλου σε θέματα ασφάλειας ενδέχεται να υποβαθμιστούν».
Ως παράδειγμα, η εταιρεία σημείωσε ότι το ChatGPT μπορεί να μοιραστεί έναν αριθμό τηλεφωνικής γραμμής βοήθειας σε περίπτωση κρίσης όταν ένας χρήστης εκφράζει για πρώτη φορά αυτοκτονικές τάσεις, αλλά ότι θα μπορούσε επίσης να δώσει μια απάντηση που «αντιβαίνει» στα μέτρα ασφαλείας της πλατφόρμας μετά από ανταλλαγές για μεγάλο χρονικό διάστημα.
Ο Nour σημείωσε επίσης ότι όταν τα chatbot τεχνητής νοημοσύνης ενσωματώνουν ένα σφάλμα νωρίς σε μια συνομιλία, αυτή η λανθασμένη ή ψευδής πεποίθηση επιδεινώνεται με την πάροδο του χρόνου, καθιστώντας το μοντέλο «σχεδόν άχρηστο».
3. Δεν μπορούν να υποκαταστήσουν τη θεραπευτική σχέση
Δεν διαθέτουν «θεωρία του νου» - δηλαδή βαθιά κατανόηση του ασθενούς μέσα από συνεχή θεραπευτική σχέση - ούτε μπορούν να θέσουν και να παρακολουθήσουν μακροπρόθεσμους στόχους, όπως ένας επαγγελματίας.
4. Έφηβοι και άτομα με ψυχικές διαταραχές είναι πιο ευάλωτοι
Οι έφηβοι, ειδικά, μπορεί να εκλάβουν τον «φροντιστικό» τόνο ενός chatbot ως πραγματική ενσυναίσθηση. Επιπλέον, η συνεχής διαθεσιμότητα αυτών των εργαλείων τα κάνει ιδιαίτερα ελκυστικά, αλλά και επικίνδυνα.
Υπάρχουν πιο ασφαλείς επιλογές
Οι ειδικοί προτείνουν στους νέους να απευθύνονται πρώτα σε έμπιστα άτομα, όπως συγγενείς, δασκάλους ή συμβούλους. Εναλλακτικά, η καταγραφή σκέψεων και συναισθημάτων μπορεί να βοηθήσει στην κατανόηση του εαυτού.
Ο Nour συνιστά την επικοινωνία με φίλους ή επαγγελματίες ψυχικής υγείας και, αν κάποιος χρησιμοποιεί chatbot, να κρατά πάντα έναν πραγματικό άνθρωπο «στον κύκλο», ώστε να ελέγχει και να φιλτράρει τις απαντήσεις.
«Να συμβουλεύεστε κατά διαστήματα έναν άνθρωπο για όσα σας λέει το μοντέλο», τονίζει, «γιατί τα chatbot είναι απρόβλεπτα».
Με πληροφορίες από Mashable