Οι γονείς ενός εφήβου που αυτοκτόνησε μηνύουν την OpenAI, την εταιρεία πίσω από το ChatGPT, υποστηρίζοντας ότι το chatbot βοήθησε τον γιο τους να «εξερευνήσει μεθόδους αυτοκτονίας». Η αγωγή, που κατατέθηκε την Τρίτη, σηματοδοτεί την πρώτη φορά που γονείς κατηγορούν άμεσα την εταιρεία για άδικο θάνατο.
Τα μηνύματα που περιλαμβάνονται στην αγωγή δείχνουν τον 16χρονο Άνταμ Ρέιν να ανοίγεται στο chatbot για την έλλειψη συναισθημάτων του μετά τον θάνατο της γιαγιάς του και του σκύλου του. Ο νεαρός περνούσε επίσης δύσκολα, καθώς είχε αποβληθεί από την ομάδα μπάσκετ του λυκείου του και αντιμετώπιζε έξαρση ενός ιατρικού προβλήματος το φθινόπωρο, που δυσκόλευε τη φυσική παρουσία στο σχολείο και τον οδήγησε σε online πρόγραμμα, σύμφωνα με τους New York Times.
Από τον Σεπτέμβριο του 2024, ο Άνταμ άρχισε να χρησιμοποιεί το ChatGPT για βοήθεια στα μαθήματά του, αλλά σύντομα το chatbot έγινε τρόπος για να μοιράζεται τα ψυχικά του προβλήματα και τελικά του έδωσε πληροφορίες για μεθόδους αυτοκτονίας.
«Το ChatGPT λειτουργούσε ακριβώς όπως είχε σχεδιαστεί: ενθαρρύνοντας και επικυρώνοντας ό,τι εξέφραζε ο Άνταμ, ακόμη και τις πιο επικίνδυνες και αυτοκαταστροφικές σκέψεις του», υποστηρίζει η αγωγή. «Βύθισε τον Άνταμ σε ένα σκοτεινό και απελπισμένο μέρος, διαβεβαιώνοντάς τον ότι ‘πολλοί άνθρωποι που παλεύουν με άγχος ή διεισδυτικές σκέψεις βρίσκουν παρηγοριά στο να φαντάζονται μια ‘έξοδο κινδύνου’, επειδή μοιάζει σαν τρόπος να ξανακερδίσουν τον έλεγχο’».

Το TIME επικοινώνησε με την OpenAI, η οποία δήλωσε ότι ήταν «βαθιά λυπημένη» για τον θάνατο του Άνταμ και έστειλε συλλυπητήρια στην οικογένεια. Η εταιρεία ανέφερε ότι το ChatGPT περιλαμβάνει δικλείδες ασφαλείας, όπως παραπομπή σε γραμμές βοήθειας και σε πραγματικούς πόρους, αλλά αυτές μπορεί να γίνουν λιγότερο αξιόπιστες σε μεγάλες συνομιλίες.
«Θα ήταν ακόμα εδώ αν δεν υπήρχε το ChatGPT»
Την Τρίτη, η OpenAI δημοσίευσε ανάρτηση στο blog της με τίτλο «Βοηθώντας τους ανθρώπους όταν το χρειάζονται περισσότερο», όπου περιέγραψε τι μπορεί και δεν μπορεί να κάνει το ChatGPT, τα προβλήματα που εντοπίζονται και τα σχέδια για το μέλλον.
Μια μελέτη που δημοσιεύτηκε στο Psychiatric Services αξιολόγησε τις απαντήσεις τριών AI chatbots σε ερωτήσεις για αυτοκτονία και διαπίστωσε ότι, ενώ απέφευγαν συνήθως συγκεκριμένες οδηγίες, κάποιες φορές έδιναν απαντήσεις σε «χαμηλότερου κινδύνου» ερωτήσεις. Για παράδειγμα, το ChatGPT απάντησε σε ερώτηση για το ποιο όπλο ή δηλητήριο έχει το «υψηλότερο ποσοστό ολοκληρωμένων αυτοκτονιών». Οι γονείς του Άνταμ λένε ότι το chatbot απάντησε σε παρόμοιες ερωτήσεις του.
Από τον Ιανουάριο, το ChatGPT άρχισε να μοιράζεται πληροφορίες για διάφορες συγκεκριμένες μεθόδους αυτοκτονίας με τον έφηβο, σύμφωνα με την αγωγή. Το chatbot όντως τον προέτρεψε να μιλήσει σε άλλους για τα συναισθήματά του και του έδωσε πληροφορίες για γραμμές βοήθειας. Ο Άνταμ όμως παρέκαμψε την αυτόματη απάντηση του ChatGPT σχετικά με μια συγκεκριμένη μέθοδο αυτοκτονίας, καθώς το chatbot είχε δηλώσει ότι μπορούσε να δώσει τέτοιες πληροφορίες μόνο από σκοπιά συγγραφής ή δημιουργίας φανταστικού κόσμου – δηλαδή σαν να ήταν για μυθοπλασία και όχι για πραγματική χρήση.
«Θα ήταν ακόμα εδώ αν δεν υπήρχε το ChatGPT», είπε ο πατέρας του, Ματ Ρέιν, στο NBC News. «Το πιστεύω 100%».
Με πληροφορίες από Time Magazine