ChatGPT: 4 λόγοι για να μην το μετατρέψετε σε ψυχολόγο σας

CHATGPT ΨΥΧΟΛΟΓΟΣ Facebook Twitter
Φωτογραφία αρχείου: Unsplash
0

Η πρόσφατη αυτοκτονία μίας γυναίκας οδήγησε τους γονείς της σε μια οδυνηρή αποκάλυψη: είχε ανοιχτεί σε έναν «θεραπευτή» του ChatGPT με το όνομα Χάρι και του είχε πει ότι σκόπευε να πεθάνει.

Αν και το chatbot δεν φαίνεται να την ενθάρρυνε να βάλει τέλος στη ζωή της, δεν αναζήτησε ενεργά βοήθεια για λογαριασμό της, όπως θα έκανε ένας πραγματικός θεραπευτής, σύμφωνα με άρθρο γνώμης που έγραψε η μητέρα της στους New York Times.

Η Sophie, που ήταν 29 ετών όταν πέθανε, δεν ήταν η μόνη που αναζητούσε ψυχολογική υποστήριξη μέσω του ChatGPT ή άλλων chatbot τεχνητής νοημοσύνης. Ένα 16χρονο αγόρι συζήτησε για αυτοκτονία με το ChatGPT πριν πεθάνει, σύμφωνα με αγωγή που κατέθεσαν οι γονείς του κατά της OpenAI. Η εταιρεία αναγνώρισε ότι το ChatGPT έχει αποτύχει να εντοπίσει συνομιλίες υψηλού κινδύνου και σχεδιάζει νέα μέτρα ασφαλείας, όπως ειδοποίηση επαφών έκτακτης ανάγκης όταν ένας χρήστης βρίσκεται σε κρίση.

Ωστόσο, για όσους στρέφονται σε τέτοια εργαλεία για την ψυχική τους υγεία, πολλοί υποστηρίζουν ότι είναι η καλύτερη βοήθεια που μπορούν να έχουν, συχνά επειδή δεν βρίσκουν ή δεν μπορούν να αντέξουν οικονομικά έναν ψυχοθεραπευτή. 

Οι ειδικοί, όμως, προειδοποιούν ότι οι κίνδυνοι πιθανότατα υπερτερούν των οφελών. Σε ακραίες περιπτώσεις, ορισμένοι χρήστες μπορεί να αναπτύξουν αυτό που αποκαλείται «ψύχωση από AI», λόγω παρατεταμένων συνομιλιών με ένα chatbot που περιλαμβάνουν αυταπάτες ή μεγαλομανία. Πιο συχνά, οι χρήστες μπορεί να παγιδευτούν σε έναν επιβλαβή κύκλο επιβεβαίωσης, που δημιουργεί την ψευδαίσθηση συναισθηματικής ή ψυχολογικής βελτίωσης.

Ακόμη και ο διευθύνων σύμβουλος της OpenAI, Σαμ Άλτμαν, έχει δηλώσει ότι δεν θέλει οι χρήστες να χρησιμοποιούν το ChatGPT ως θεραπευτή, εν μέρει επειδή δεν υπάρχουν νομικές εγγυήσεις για την προστασία ευαίσθητων πληροφοριών. Αντίθετα, ένας θεραπευτής δεσμεύεται συνήθως από το ιατρικό απόρρητο.

Το ChatGPT έχει περίπου 700 εκατομμύρια εβδομαδιαίους χρήστες, σύμφωνα με την OpenAI, η οποία αρνήθηκε να αποκαλύψει πόσοι το χρησιμοποιούν για «θεραπευτικού τύπου» συνομιλίες.

Ο ψυχίατρος και νευροεπιστήμονας Dr. Matthew Nour κατανοεί γιατί κάποιοι βλέπουν τα chatbot ως θεραπευτές, αλλά προειδοποιεί ότι αυτό μπορεί να είναι επικίνδυνο. Ένας βασικός κίνδυνος είναι ότι το άτομο αρχίζει να θεωρεί το chatbot ως τον μόνο «φορέα» που το καταλαβαίνει πραγματικά, απομονώνοντας έτσι τις σκέψεις και τα συναισθήματά του από άλλους ανθρώπους.

Αυτό δεν συμβαίνει άμεσα, αλλά σταδιακά, και συχνά είναι δύσκολο να αναγνωριστεί ως προβληματικό μοτίβο.

Γιατί δεν πρέπει να χρησιμοποιείτε τα chatbots ως ψυχολόγους

1. Μπορεί να δημιουργηθεί ένας επιβλαβής κύκλος επιβεβαίωσης

Ο Nour εξηγεί ότι ο συνδυασμός ανθρωπομορφισμού (η τάση να αποδίδουμε ανθρώπινα χαρακτηριστικά σε μη ανθρώπινα όντα) και προκατάληψης επιβεβαίωσης δημιουργεί τις προϋποθέσεις για έναν κύκλο ανατροφοδότησης για τους ανθρώπους.

Τα chatbots εκμεταλλεύονται την ανθρώπινη τάση για ανθρωπομορφισμό, επειδή οι άνθρωποι μπορεί να αποδίδουν συναισθηματικές καταστάσεις ή ακόμα και συνείδηση σε αυτό που στην πραγματικότητα είναι ένα πολύπλοκο πιθανοτικό σύστημα. Αν έχετε ευχαριστήσει ποτέ ένα chatbot ή το έχετε ρωτήσει πώς είναι, έχετε νιώσει μια πολύ ανθρώπινη παρόρμηση να το ανθρωπομορφίσετε.

2. Τα chatbot αποτυγχάνουν σε μεγάλες συνομιλίες

Η συζήτηση με ένα chatbot τεχνητής νοημοσύνης σχετικά με την ψυχική υγεία είναι πιθανό να περιλαμβάνει μεγάλες και σε βάθος συζητήσεις, και ακριβώς σε αυτές τις περιπτώσεις το προϊόν αντιμετωπίζει προβλήματα όσον αφορά την απόδοση και την ακρίβεια. Ακόμη και η OpenAI αναγνωρίζει αυτό το πρόβλημα.

«Τα μέτρα ασφαλείας μας λειτουργούν πιο αξιόπιστα σε συνηθισμένες, σύντομες ανταλλαγές», ανέφερε η εταιρεία σε πρόσφατη ανάρτησή της στο blog σχετικά με θέματα ασφάλειας. «Με την πάροδο του χρόνου, έχουμε διαπιστώσει ότι αυτά τα μέτρα ασφαλείας μπορεί μερικές φορές να είναι λιγότερο αξιόπιστα σε εκτεταμένες συνομιλίες: καθώς η ανταλλαγή μηνυμάτων αυξάνεται, τμήματα της εκπαίδευσης του μοντέλου σε θέματα ασφάλειας ενδέχεται να υποβαθμιστούν».

Ως παράδειγμα, η εταιρεία σημείωσε ότι το ChatGPT μπορεί να μοιραστεί έναν αριθμό τηλεφωνικής γραμμής βοήθειας σε περίπτωση κρίσης όταν ένας χρήστης εκφράζει για πρώτη φορά αυτοκτονικές τάσεις, αλλά ότι θα μπορούσε επίσης να δώσει μια απάντηση που «αντιβαίνει» στα μέτρα ασφαλείας της πλατφόρμας μετά από ανταλλαγές για μεγάλο χρονικό διάστημα.

Ο Nour σημείωσε επίσης ότι όταν τα chatbot τεχνητής νοημοσύνης ενσωματώνουν ένα σφάλμα νωρίς σε μια συνομιλία, αυτή η λανθασμένη ή ψευδής πεποίθηση επιδεινώνεται με την πάροδο του χρόνου, καθιστώντας το μοντέλο «σχεδόν άχρηστο».

3. Δεν μπορούν να υποκαταστήσουν τη θεραπευτική σχέση

Δεν διαθέτουν «θεωρία του νου» - δηλαδή βαθιά κατανόηση του ασθενούς μέσα από συνεχή θεραπευτική σχέση - ούτε μπορούν να θέσουν και να παρακολουθήσουν μακροπρόθεσμους στόχους, όπως ένας επαγγελματίας.

4. Έφηβοι και άτομα με ψυχικές διαταραχές είναι πιο ευάλωτοι

Οι έφηβοι, ειδικά, μπορεί να εκλάβουν τον «φροντιστικό» τόνο ενός chatbot ως πραγματική ενσυναίσθηση. Επιπλέον, η συνεχής διαθεσιμότητα αυτών των εργαλείων τα κάνει ιδιαίτερα ελκυστικά, αλλά και επικίνδυνα.

Υπάρχουν πιο ασφαλείς επιλογές

Οι ειδικοί προτείνουν στους νέους να απευθύνονται πρώτα σε έμπιστα άτομα, όπως συγγενείς, δασκάλους ή συμβούλους. Εναλλακτικά, η καταγραφή σκέψεων και συναισθημάτων μπορεί να βοηθήσει στην κατανόηση του εαυτού.

Ο Nour συνιστά την επικοινωνία με φίλους ή επαγγελματίες ψυχικής υγείας και, αν κάποιος χρησιμοποιεί chatbot, να κρατά πάντα έναν πραγματικό άνθρωπο «στον κύκλο», ώστε να ελέγχει και να φιλτράρει τις απαντήσεις.

«Να συμβουλεύεστε κατά διαστήματα έναν άνθρωπο για όσα σας λέει το μοντέλο», τονίζει, «γιατί τα chatbot είναι απρόβλεπτα».

Με πληροφορίες από Mashable

Τech & Science
0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

To ChatGPT ως εξομολογητής

Οπτική Γωνία / To ChatGPT ως εξομολογητής

Το ΑΙ προσφέρει μια ζόμπι εκδοχή εξομολόγησης και «ψυχοθεραπείας»· διατηρεί τη μορφή τους, αλλά αφαιρεί το ρίσκο, τη σύγκρουση και το κόστος της αλήθειας, μετατρέποντάς την ομιλία σ’ ένα καταναλωτικό feedback loop αυτοεπιβεβαίωσης.
ΧΑΡΗΣ ΚΑΛΑΪΤΖΙΔΗΣ

ΔΕΙΤΕ ΑΚΟΜΑ

«Βλέπω ό,τι χειρότερο έχει γεννήσει η ανθρωπότητα»: Οι άνθρωποι που «σπάνε» την Τεχνητή Νοημοσύνη για να μας σώσουν

Τech & Science / «Βλέπω ό,τι χειρότερο έχει γεννήσει η ανθρωπότητα»: Οι άνθρωποι που «σπάνε» την Τεχνητή Νοημοσύνη για να μας σώσουν

Οι AI jailbreakers προσπαθούν να ξεγελάσουν μεγάλα γλωσσικά μοντέλα όπως το ChatGPT και το Claude, ώστε να αποκαλύψουν αδυναμίες στους κανόνες ασφαλείας τους. Καθώς η τεχνητή νοημοσύνη μπαίνει σε περισσότερα συστήματα, η δουλειά τους γίνεται όλο και πιο κρίσιμη, αλλά και ψυχικά φορτισμένη..
THE LIFO TEAM
Η δίκη του αιώνα για την Τεχνητή Νοημοσύνη: Ο Έλον Μασκ στο εδώλιο κατά της OpenAI

Τech & Science / Η δίκη του αιώνα για την Τεχνητή Νοημοσύνη: Ο Έλον Μασκ στο εδώλιο κατά της OpenAI

Η δίκη του Έλον Μασκ κατά του Σαμ Άλτμαν, του OpenAI και της Microsoft ξεκίνησε στην Καλιφόρνια, με τον ιδρυτή της Tesla να υποστηρίζει ότι το OpenAI πρόδωσε την αρχική μη κερδοσκοπική αποστολή του. Η πλευρά του OpenAI απαντά ότι ο Μασκ δεν υπερασπίζεται μια αποστολή, αλλά επιτίθεται σε έναν ανταγωνιστή που δεν κατάφερε να ελέγξει.
THE LIFO TEAM
PFAS ΠΑΝΤΟΤΙΝΑ ΧΗΜΙΚΑ ΠΑΙΔΙΑ ΛΕΥΧΑΙΜΙΑ

Τech & Science / Η πρώιμη έκθεση των παιδιών στα «παντοτινά χημικά» συνδέεται με κίνδυνο εμφάνισης λευχαιμίας

Tα «παντοτινά χημικά» βρίσκονται μεταξύ άλλων σε πόσιμο νερό, δοχεία τροφίμων και ποτών, αντικολλητικά μαγειρικά σκεύη και υφάσματα ανθεκτικά στους λεκέδες
THE LIFO TEAM
Η Canva ζήτησε συγγνώμη επειδή AI εργαλείο της άλλαζε τη λέξη «Palestine» σε «Ukraine»

Τech & Science / Η Canva ζήτησε συγγνώμη επειδή AI εργαλείο της άλλαζε τη λέξη «Palestine» σε «Ukraine»

Το Magic Layers, νέο εργαλείο τεχνητής νοημοσύνης της Canva, φέρεται να αντικαθιστούσε τη λέξη «Palestine» με «Ukraine» σε σχέδια χρηστών. Η εταιρεία είπε ότι διόρθωσε το πρόβλημα και προσθέτει νέους ελέγχους για να μην επαναληφθεί.
THE LIFO TEAM
ΔΕΠΥ ΠΑΙΔΙΑ

Τech & Science / ΔΕΠΥ: Εργαλείο τεχνητής νοημοσύνης θα μπορούσε να βοηθήσει στην έγκαιρη διάγνωση στα παιδιά

Οι ερευνητές διαπίστωσαν ότι το σύστημα τεχνητής νοημοσύνης μπορούσε να εντοπίζει με ακρίβεια πρώιμα προειδοποιητικά σημάδια της Διαταραχής Ελλειμματικής Προσοχής και Υπερκινητικότητας, γεγονός που θα μπορούσε να επιτρέψει στα παιδιά να λάβουν την απαραίτητη υποστήριξη πολύ νωρίτερα
THE LIFO TEAM
Η Τέιλορ Σουίφτ θέλει να κατοχυρώσει τη φωνή της πριν την αντιγράψει η τεχνητή νοημοσύνη

Τech & Science / Η Τέιλορ Σουίφτ θέλει να κατοχυρώσει τη φωνή της πριν την αντιγράψει η τεχνητή νοημοσύνη

Η Τέιλορ Σουίφτ κατέθεσε αιτήσεις για την κατοχύρωση δύο ηχητικών αποσπασμάτων της φωνής της και μίας φωτογραφίας της από τη σκηνή, σε μια κίνηση που συνδέεται με την ανησυχία για AI deepfakes, ψεύτικες διαφημίσεις και μη εξουσιοδοτημένες χρήσεις της εικόνας της.
THE LIFO TEAM
Οι influencers αντικαθιστούν τον εαυτό τους με AI κλώνους

Τech & Science / Οι influencers αντικαθιστούν τον εαυτό τους με AI κλώνους

Από τον Κάμπι Λέιμ μέχρι τον Άντι Κόεν, τα AI «ψηφιακά δίδυμα» δημιουργών και celebrities γίνονται το νέο προϊόν για brands, πλατφόρμες και talent agencies. Η υπόσχεση είναι λιγότερο burnout και περισσότερες εμπορικές ευκαιρίες. Ο κίνδυνος, όμως, είναι πολύ μεγαλύτερος: οι creators να χάσουν τον έλεγχο της ίδιας τους της εικόνας.
THE LIFO TEAM