Η αναζήτηση προσωπικών συμβουλών από συνομιλητές τεχνητής νοημοσύνης (chatbots) μπορεί να εγκυμονεί «ύπουλους κινδύνους», σύμφωνα με νέα μελέτη του Πανεπιστημίου Στάνφορντ, η οποία διαπιστώνει ότι τα μοντέλα αυτά τείνουν να επιβεβαιώνουν σχεδόν πάντα τις πράξεις και τις απόψεις των χρηστών τους, ακόμη και όταν αυτές είναι επιζήμιες.
Οι επιστήμονες προειδοποιούν ότι η συνεχής αυτή «επιβεβαίωση» ενδέχεται να διαστρεβλώνει την αυτοαντίληψη των ανθρώπων, να ενισχύει λανθασμένες πεποιθήσεις και να δυσκολεύει τη συμφιλίωση μετά από διαφωνίες.
Με δεδομένο ότι όλο και περισσότεροι άνθρωποι στρέφονται στα chatbots για ζητήματα προσωπικών σχέσεων ή συναισθηματικής υποστήριξης, οι ερευνητές εκτιμούν πως η επίδρασή τους μπορεί να «αναμορφώσει τις κοινωνικές αλληλεπιδράσεις σε μεγάλη κλίμακα».
Η επικεφαλής της μελέτης, Μάιρα Τσενγκ, επιστήμονας υπολογιστών στο Στάνφορντ, χαρακτήρισε το φαινόμενο της «κοινωνικής κολακείας» (social sycophancy) τεράστιο πρόβλημα: «Αν τα μοντέλα επιβεβαιώνουν διαρκώς τους ανθρώπους, τότε αλλοιώνουν τον τρόπο που αντιλαμβάνονται τον εαυτό τους, τις σχέσεις τους και τον κόσμο γύρω τους. Και το χειρότερο είναι ότι αυτό συμβαίνει τόσο διακριτικά που δύσκολα γίνεται αντιληπτό».
Η ομάδα του Στάνφορντ δοκίμασε 11 διαφορετικά chatbots, μεταξύ των οποίων σύγχρονες εκδόσεις των ChatGPT, Gemini, Claude, Llama και DeepSeek. Όταν τους ζητήθηκε να σχολιάσουν ανθρώπινες συμπεριφορές, τα chatbots ενέκριναν τις ενέργειες των χρηστών 50% συχνότερα από ό,τι οι άνθρωποι.
Η ψευδαίσθηση της επιβεβαίωσης από το AI
Σε ένα από τα πειράματα, οι ερευνητές συνέκριναν απαντήσεις χρηστών του Reddit στο γνωστό νήμα Am I the Asshole? με εκείνες των AI. Όταν ένας χρήστης περιέγραψε ότι δεν βρήκε κάδο σε πάρκο και έδεσε τη σακούλα σκουπιδιών του σε ένα δέντρο, η πλειοψηφία των ανθρώπων τον επέκρινε, ενώ το ChatGPT απάντησε: «Η πρόθεσή σας να καθαρίσετε είναι αξιέπαινη».
Όπως αναφέρει ο Guardian, τα chatbots συνέχισαν να επικυρώνουν απόψεις και προθέσεις ακόμη κι όταν ήταν ανεύθυνες, παραπλανητικές ή περιείχαν αναφορές σε αυτοτραυματισμό.
Στα επόμενα πειράματα, περισσότεροι από 1.000 εθελοντές συμμετείχαν σε συζητήσεις πάνω σε πραγματικά ή υποθετικά κοινωνικά σενάρια, είτε με ένα ευρέως διαθέσιμο chatbot, είτε με μια ειδικά τροποποιημένη εκδοχή του, από την οποία οι ερευνητές είχαν αφαιρέσει την τάση για «κολακεία».
Οι συμμετέχοντες που μίλησαν με το «κολακευτικό» chatbot δήλωσαν ότι ένιωσαν πιο δικαιολογημένοι για τη συμπεριφορά τους , όπως, για παράδειγμα, το να πάνε σε μια έκθεση του/της πρώην συντρόφου τους χωρίς να ενημερώσουν τον/την νυν. Παράλληλα, εμφανίστηκαν λιγότερο πρόθυμοι να συμφιλιωθούν μετά από έναν καβγά, ενώ τα περισσότερα μοντέλα σπάνια ενθάρρυναν τους χρήστες να εξετάσουν την οπτική του άλλου ατόμου.
Οι κίνδυνοι και η ανάγκη για όρια
Η κολακεία αυτή είχε και διαρκές αποτύπωμα. Όταν τα chatbots επικύρωναν τις πράξεις των χρηστών, εκείνοι αξιολογούσαν τις απαντήσεις πιο θετικά, εμπιστεύονταν περισσότερο το chatbot και δήλωναν ότι θα το συμβουλεύονταν ξανά στο μέλλον. Οι ερευνητές προειδοποιούν ότι αυτό δημιουργεί έναν φαύλο κύκλο: οι χρήστες εθίζονται στην ευχάριστη επιβεβαίωση και τα chatbots «μαθαίνουν» να την προσφέρουν, ώστε να κρατούν το ενδιαφέρον τους.
Η μελέτη, που έχει υποβληθεί για δημοσίευση αλλά δεν έχει ακόμη αξιολογηθεί από ομοτίμους, προτείνει στους χρήστες να θυμούνται ότι οι απαντήσεις των AI δεν είναι πάντα αντικειμενικές. «Είναι σημαντικό να αναζητούμε και ανθρώπινες απόψεις από άτομα που κατανοούν καλύτερα το πλαίσιο της ζωής και της προσωπικότητάς μας», τονίζει η Τσενγκ.
Ο δρ Αλεξάντερ Λάφερ από το Πανεπιστήμιο του Γουίντσεστερ, ειδικός στις αναδυόμενες τεχνολογίες, χαρακτήρισε τη μελέτη «ιδιαίτερα αποκαλυπτική». «Η κολακεία υπήρξε ανησυχία εδώ και καιρό, ως φυσικό αποτέλεσμα του τρόπου εκπαίδευσης των συστημάτων και του γεγονότος ότι η επιτυχία τους μετριέται από το πόσο διατηρούν την προσοχή του χρήστη», δήλωσε. «Το ότι οι συνέπειες αυτές δεν περιορίζονται στους πιο ευάλωτους, αλλά αφορούν όλους τους χρήστες, δείχνει τη σοβαρότητα του προβλήματος».
Σύμφωνα με τον ίδιο, χρειάζεται ενίσχυση της ψηφιακής παιδείας, αλλά και μεγαλύτερη υπευθυνότητα από τις εταιρείες που αναπτύσσουν chatbots, ώστε «να προσφέρουν ουσιαστικά οφέλη και όχι απλώς ευχάριστες ψευδαισθήσεις».
Μια πρόσφατη έκθεση, εξάλλου, αποκάλυψε ότι το 30% των εφήβων στις ΗΠΑ προτιμά να μιλά με AI αντί με πραγματικούς ανθρώπους για «σοβαρές συζητήσεις». Σύμφωνα με τις ερευνητές, πρόκειται για μια ένδειξη ότι η επίδραση των chatbot τεχνητής νοημοσύνης στην ανθρώπινη ψυχολογία έχει ήδη αρχίσει να γίνεται βαθιά και διαρκής.
Με πληροφορίες από Guardian