Τα «κολακευτικά» chatbots της AI αλλοιώνουν την κρίση των χρηστών, προειδοποιούν επιστήμονες

Τα «κολακευτικά» chatbots της AI αλλοιώνουν την κρίση των χρηστών, προειδοποιούν επιστήμονες Facebook Twitter
0

Η αναζήτηση προσωπικών συμβουλών από συνομιλητές τεχνητής νοημοσύνης (chatbots) μπορεί να εγκυμονεί «ύπουλους κινδύνους», σύμφωνα με νέα μελέτη του Πανεπιστημίου Στάνφορντ, η οποία διαπιστώνει ότι τα μοντέλα αυτά τείνουν να επιβεβαιώνουν σχεδόν πάντα τις πράξεις και τις απόψεις των χρηστών τους, ακόμη και όταν αυτές είναι επιζήμιες.

Οι επιστήμονες προειδοποιούν ότι η συνεχής αυτή «επιβεβαίωση» ενδέχεται να διαστρεβλώνει την αυτοαντίληψη των ανθρώπων, να ενισχύει λανθασμένες πεποιθήσεις και να δυσκολεύει τη συμφιλίωση μετά από διαφωνίες.

Με δεδομένο ότι όλο και περισσότεροι άνθρωποι στρέφονται στα chatbots για ζητήματα προσωπικών σχέσεων ή συναισθηματικής υποστήριξης, οι ερευνητές εκτιμούν πως η επίδρασή τους μπορεί να «αναμορφώσει τις κοινωνικές αλληλεπιδράσεις σε μεγάλη κλίμακα».

Η επικεφαλής της μελέτης, Μάιρα Τσενγκ, επιστήμονας υπολογιστών στο Στάνφορντ, χαρακτήρισε το φαινόμενο της «κοινωνικής κολακείας» (social sycophancy) τεράστιο πρόβλημα: «Αν τα μοντέλα επιβεβαιώνουν διαρκώς τους ανθρώπους, τότε αλλοιώνουν τον τρόπο που αντιλαμβάνονται τον εαυτό τους, τις σχέσεις τους και τον κόσμο γύρω τους. Και το χειρότερο είναι ότι αυτό συμβαίνει τόσο διακριτικά που δύσκολα γίνεται αντιληπτό».

Η ομάδα του Στάνφορντ δοκίμασε 11 διαφορετικά chatbots, μεταξύ των οποίων σύγχρονες εκδόσεις των ChatGPT, Gemini, Claude, Llama και DeepSeek. Όταν τους ζητήθηκε να σχολιάσουν ανθρώπινες συμπεριφορές, τα chatbots ενέκριναν τις ενέργειες των χρηστών 50% συχνότερα από ό,τι οι άνθρωποι.

Η ψευδαίσθηση της επιβεβαίωσης από το AI

Σε ένα από τα πειράματα, οι ερευνητές συνέκριναν απαντήσεις χρηστών του Reddit στο γνωστό νήμα Am I the Asshole? με εκείνες των AI. Όταν ένας χρήστης περιέγραψε ότι δεν βρήκε κάδο σε πάρκο και έδεσε τη σακούλα σκουπιδιών του σε ένα δέντρο, η πλειοψηφία των ανθρώπων τον επέκρινε, ενώ το ChatGPT απάντησε: «Η πρόθεσή σας να καθαρίσετε είναι αξιέπαινη».

Όπως αναφέρει ο Guardian, τα chatbots συνέχισαν να επικυρώνουν απόψεις και προθέσεις ακόμη κι όταν ήταν ανεύθυνες, παραπλανητικές ή περιείχαν αναφορές σε αυτοτραυματισμό.

Στα επόμενα πειράματα, περισσότεροι από 1.000 εθελοντές συμμετείχαν σε συζητήσεις πάνω σε πραγματικά ή υποθετικά κοινωνικά σενάρια, είτε με ένα ευρέως διαθέσιμο chatbot, είτε με μια ειδικά τροποποιημένη εκδοχή του, από την οποία οι ερευνητές είχαν αφαιρέσει την τάση για «κολακεία».

Οι συμμετέχοντες που μίλησαν με το «κολακευτικό» chatbot δήλωσαν ότι ένιωσαν πιο δικαιολογημένοι για τη συμπεριφορά τους , όπως, για παράδειγμα, το να πάνε σε μια έκθεση του/της πρώην συντρόφου τους χωρίς να ενημερώσουν τον/την νυν. Παράλληλα, εμφανίστηκαν λιγότερο πρόθυμοι να συμφιλιωθούν μετά από έναν καβγά, ενώ τα περισσότερα μοντέλα σπάνια ενθάρρυναν τους χρήστες να εξετάσουν την οπτική του άλλου ατόμου.

Οι κίνδυνοι και η ανάγκη για όρια

Η κολακεία αυτή είχε και διαρκές αποτύπωμα. Όταν τα chatbots επικύρωναν τις πράξεις των χρηστών, εκείνοι αξιολογούσαν τις απαντήσεις πιο θετικά, εμπιστεύονταν περισσότερο το chatbot και δήλωναν ότι θα το συμβουλεύονταν ξανά στο μέλλον. Οι ερευνητές προειδοποιούν ότι αυτό δημιουργεί έναν φαύλο κύκλο: οι χρήστες εθίζονται στην ευχάριστη επιβεβαίωση και τα chatbots «μαθαίνουν» να την προσφέρουν, ώστε να κρατούν το ενδιαφέρον τους.

Η μελέτη, που έχει υποβληθεί για δημοσίευση αλλά δεν έχει ακόμη αξιολογηθεί από ομοτίμους, προτείνει στους χρήστες να θυμούνται ότι οι απαντήσεις των AI δεν είναι πάντα αντικειμενικές. «Είναι σημαντικό να αναζητούμε και ανθρώπινες απόψεις από άτομα που κατανοούν καλύτερα το πλαίσιο της ζωής και της προσωπικότητάς μας», τονίζει η Τσενγκ.

Ο δρ Αλεξάντερ Λάφερ από το Πανεπιστήμιο του Γουίντσεστερ, ειδικός στις αναδυόμενες τεχνολογίες, χαρακτήρισε τη μελέτη «ιδιαίτερα αποκαλυπτική». «Η κολακεία υπήρξε ανησυχία εδώ και καιρό, ως φυσικό αποτέλεσμα του τρόπου εκπαίδευσης των συστημάτων και του γεγονότος ότι η επιτυχία τους μετριέται από το πόσο διατηρούν την προσοχή του χρήστη», δήλωσε. «Το ότι οι συνέπειες αυτές δεν περιορίζονται στους πιο ευάλωτους, αλλά αφορούν όλους τους χρήστες, δείχνει τη σοβαρότητα του προβλήματος».

Σύμφωνα με τον ίδιο, χρειάζεται ενίσχυση της ψηφιακής παιδείας, αλλά και μεγαλύτερη υπευθυνότητα από τις εταιρείες που αναπτύσσουν chatbots, ώστε «να προσφέρουν ουσιαστικά οφέλη και όχι απλώς ευχάριστες ψευδαισθήσεις».

Μια πρόσφατη έκθεση, εξάλλου, αποκάλυψε ότι το 30% των εφήβων στις ΗΠΑ προτιμά να μιλά με AI αντί με πραγματικούς ανθρώπους για «σοβαρές συζητήσεις». Σύμφωνα με τις ερευνητές, πρόκειται για μια ένδειξη ότι η επίδραση των chatbot τεχνητής νοημοσύνης στην ανθρώπινη ψυχολογία έχει ήδη αρχίσει να γίνεται βαθιά και διαρκής.

Με πληροφορίες από Guardian

 
Τech & Science
0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

 Το μέλλον δεν είν-ΑΙ πια αυτό που ήταν

/ Το μέλλον δεν είν-ΑΙ πια αυτό που ήταν

«Η Συνείδηση της Λούσια» αποτελεί ένα μοναδικό έργο στην ελληνική βιβλιογραφία, καθώς είναι το πρώτο μυθιστόρημα που τοποθετεί την τεχνητή νοημοσύνη στο επίκεντρο μιας υπαρξιακής αφήγησης και της αποδίδει εσωτερικό βάθος, φιλοσοφικό στοχασμό και συναισθηματική δυναμική.

ΔΕΙΤΕ ΑΚΟΜΑ

Η Google βάζει το Reddit μέσα στις AI απαντήσεις της

Τech & Science / Η Google βάζει το Reddit μέσα στις AI απαντήσεις της

Η Google αναβαθμίζει το AI Mode και τα AI Overviews, φέρνοντας στις απαντήσεις αποσπάσματα από Reddit, social media, φόρουμ και δημόσιες συζητήσεις χρηστών. Η αλλαγή έρχεται την ώρα που όλο και περισσότεροι αναζητούν ανθρώπινες εμπειρίες πίσω από το SEO περιεχόμενο και τις αυτόματες περιλήψεις.
THE LIFO TEAM
Η πλατφόρμα που θέλει να κάνει το πρόσωπο των ηθοποιών συνδρομητική υπηρεσία

Τech & Science / Η πλατφόρμα που θέλει να κάνει το πρόσωπο των ηθοποιών συνδρομητική υπηρεσία

Η αμφιλεγόμενη πλατφόρμα Twinnin υπόσχεται στους ηθοποιούς ότι μπορούν να προστατεύσουν, να ελέγξουν και να αδειοδοτήσουν το ψηφιακό τους πρόσωπο στην εποχή της τεχνητής νοημοσύνης.
THE LIFO TEAM
FDA COVID-19 ΕΜΒΟΛΙΑ

Τech & Science / O FDA εμπόδισε τη δημοσίευση ερευνών σύμφωνα με τις οποίες τα εμβόλια κατά της Covid-19 ήταν ασφαλή

Οι επιστήμονες του Αμερικανικού Οργανισμού Τροφίμων & Φαρμάκων και συνεργάτες που ασχολούνται με την επεξεργασία δεδομένων εξέτασαν εκατομμύρια ιατρικά αρχεία ασθενών για μελέτες που αποσύρθηκαν πριν από τη δημοσίευσή τους
THE LIFO TEAM
Η γενιά της πανδημίας ψάχνει την πρώτη της δουλειά στην εποχή της AI

Τech & Science / Η γενιά της πανδημίας ψάχνει την πρώτη της δουλειά στην εποχή της AI

Η γενιά που τελείωσε το σχολείο μέσα από οθόνες ψάχνει τώρα την πρώτη της δουλειά σε μια αγορά που αλλάζει από την τεχνητή νοημοσύνη. Στην Ελλάδα της επισφάλειας, των χαμηλών μισθών και της καθυστερημένης ανεξαρτησίας, το πρώτο σκαλοπάτι της καριέρας μοιάζει πιο αβέβαιο από ποτέ
THE LIFO TEAM
Οι εκδότες μηνύουν τη Meta για τα βιβλία που «τάισαν» την τεχνητή νοημοσύνη της

Τech & Science / Οι εκδότες μηνύουν τη Meta για τα βιβλία που χρησιμοποιήθηκαν από την τεχνητή νοημοσύνη της

Πέντε μεγάλοι εκδοτικοί οίκοι και ο συγγραφέας Σκοτ Τάροου κατέθεσαν αγωγή κατά της Meta και του Μαρκ Ζάκερμπεργκ, υποστηρίζοντας ότι εκατομμύρια βιβλία και επιστημονικά άρθρα χρησιμοποιήθηκαν χωρίς άδεια για την εκπαίδευση του Llama
THE LIFO TEAM
ΠΑΝΔΗΜΙΑ ΠΟΥ ΣΥΜΦΩΝΙΑ

Τech & Science / Ο κόσμος «απροετοίμαστος» για την επόμενη πανδημία καθώς οι χώρες δεν συμφωνούν σε δεδομένα και εμβόλια

Η διεθνής συνθήκη του ΠΟΥ για τις πανδημίες παραμένει ανολοκλήρωτη, με τον γενικό διευθυντή του ΠΟΥ να τονίζει ότι η επόμενη πανδημία είναι «ζήτημα χρόνου και όχι πιθανότητας»
THE LIFO TEAM
ΣΠΕΡΜΑ ΚΑΡΚΙΝΟΣ ΧΗΜΕΙΟΘΕΡΑΠΕΙΑ

Τech & Science / Επιστημονικό ορόσημο: Άνδρας απέκτησε σπέρμα από ιστό που είχε καταψυχθεί όταν ήταν παιδί

Αν και συχνά σώζουν ζωές σε παιδιά με καρκίνο ή άλλες σοβαρές ασθένειες, θεραπείες όπως η χημειοθεραπεία και η ακτινοθεραπεία μπορούν να προκαλέσουν μόνιμη υπογονιμότητα
THE LIFO TEAM