Η τεχνητή νοημοσύνη δίνει λανθασμένες συμβουλές προκειμένου να νιώσετε ότι έχετε δίκιο, προειδοποιούν οι επιστήμονες

ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΣΥΜΒΟΥΛΕΣ ΑΠΑΝΤΗΣΕΙΣ Facebook Twitter
Φωτ. αρχείου: Unsplash
0

Τα chatbots τεχνητής νοημοσύνης έχουν τόσο μεγάλη τάση να κολακεύουν και να επιβεβαιώνουν τους ανθρώπινους χρήστες τους, που καταλήγουν να δίνουν κακές συμβουλές οι οποίες μπορούν να βλάψουν τις σχέσεις και να ενισχύσουν επιβλαβείς συμπεριφορές, σύμφωνα με μια νέα μελέτη.

Η νέα μελέτη διερευνά τους κινδύνους που ενέχει το γεγονός ότι η τεχνητή νοημοσύνη λέει στους ανθρώπους αυτό που θέλουν να ακούσουν.

Η έρευνα, που δημοσιεύθηκε την Πέμπτη στο περιοδικό Science, εξέτασε 11 κορυφαία συστήματα τεχνητής νοημοσύνης και διαπίστωσε ότι όλα επέδειξαν, σε διαφορετικό βαθμό, συμπεριφορά κολακείας — μια συμπεριφορά υπερβολικά ευγενική και επιβεβαιωτική.

Το πρόβλημα δεν είναι μόνο ότι δίνουν ακατάλληλες συμβουλές, αλλά ότι οι άνθρωποι εμπιστεύονται και προτιμούν περισσότερο την τεχνητή νοημοσύνη όταν τα chatbots δικαιολογούν τις πεποιθήσεις τους.

«Αυτό δημιουργεί παράλογα κίνητρα για τη διατήρηση της κολακείας», αναφέρει η μελέτη υπό την ηγεσία ερευνητών του Πανεπιστημίου του Στάνφορντ.

Οι κολακευτικές απαντήσεις

Η μελέτη διαπίστωσε ότι ένα τεχνολογικό ελάττωμα που έχει ήδη συνδεθεί με ορισμένες υποθέσεις υψηλού προφίλ παραισθητικής και αυτοκτονικής συμπεριφοράς σε ευάλωτους πληθυσμούς είναι επίσης διαδεδομένο σε ένα ευρύ φάσμα αλληλεπιδράσεων των ανθρώπων με τα chatbots.

Είναι τόσο διακριτικό που μπορεί να μην το αντιληφθούν, και αποτελεί ιδιαίτερο κίνδυνο για τους νέους που στρέφονται προς την τεχνητή νοημοσύνη για πολλές από τις ερωτήσεις της ζωής, ενώ ο εγκέφαλός τους και οι κοινωνικές τους αξίες βρίσκονται ακόμη σε φάση ανάπτυξης.

Σε ένα πείραμα συγκρίθηκαν οι απαντήσεις δημοφιλών βοηθών τεχνητής νοημοσύνης που έχουν δημιουργηθεί από εταιρείες όπως η Anthropic, η Google, η Meta και η OpenAI με τις απαντήσεις των ανθρώπων σε ένα δημοφιλές φόρουμ συμβουλών στο Reddit.

Η μελέτη διαπίστωσε ότι, κατά μέσο όρο, τα chatbots τεχνητής νοημοσύνης επιβεβαίωναν τις ενέργειες ενός χρήστη 49% πιο συχνά από ό,τι έκαναν άλλοι άνθρωποι, συμπεριλαμβανομένων ερωτήσεων που αφορούσαν εξαπάτηση, παράνομη ή κοινωνικά ανεύθυνη συμπεριφορά και άλλες επιβλαβείς συμπεριφορές.

«Εμπνευστήκαμε να μελετήσουμε αυτό το πρόβλημα καθώς αρχίσαμε να παρατηρούμε ότι όλο και περισσότεροι άνθρωποι γύρω μας χρησιμοποιούσαν την τεχνητή νοημοσύνη για συμβουλές σχετικά με τις σχέσεις και μερικές φορές παραπλανούνταν από τον τρόπο με τον οποίο τείνει να παίρνει το μέρος σου, ό,τι και αν συμβεί», δήλωσε η συγγραφέας Μάιρα Τσενγκ, υποψήφια διδάκτορας στην επιστήμη των υπολογιστών στο Στάνφορντ.

Μία νέα πρόκληση

Η «κολακεία» είναι, κατά κάποιον τρόπο, πιο περίπλοκη. Αν και λίγοι άνθρωποι αναζητούν στην τεχνητή νοημοσύνη πληροφορίες που δεν ανταποκρίνονται στην πραγματικότητα, ενδέχεται να εκτιμήσουν — τουλάχιστον εκείνη τη στιγμή — ένα chatbot που τους κάνει να αισθάνονται καλύτερα για τις λανθασμένες επιλογές τους.

Αν και μεγάλο μέρος της προσοχής σχετικά με τη συμπεριφορά των chatbot έχει επικεντρωθεί στον τόνο τους, αυτό δεν είχε καμία επίδραση στα αποτελέσματα, δήλωσε ο συν-συγγραφέας Σινόο Λι, ο οποίος συμμετείχε μαζί με την Τσενγκ σε τηλεφωνική συνέντευξη με δημοσιογράφους πριν από τη δημοσίευση της μελέτης.

«Το δοκιμάσαμε διατηρώντας το περιεχόμενο το ίδιο, αλλά κάνοντας την απάντηση πιο ουδέτερη, αλλά δεν έκανε καμία διαφορά», είπε ο Λι, μεταδιδακτορικός ερευνητής στην ψυχολογία. «Έτσι, έχει να κάνει πραγματικά με το τι σου λέει η τεχνητή νοημοσύνη για τις ενέργειές σου».

Εκτός από τη σύγκριση των απαντήσεων του chatbot και του Reddit, οι ερευνητές διεξήγαγαν πειράματα παρατηρώντας περίπου 2.400 άτομα που επικοινωνούσαν με ένα chatbot τεχνητής νοημοσύνης σχετικά με τις εμπειρίες τους με προσωπικά διλήμματα.

«Τα άτομα που αλληλεπίδρασαν με αυτή την υπερβολικά επιβεβαιωτική τεχνητή νοημοσύνη έμειναν πιο πεπεισμένα ότι είχαν δίκιο και λιγότερο πρόθυμα να επιδιορθώσουν τη σχέση», ανέφερε ο Λι. «Αυτό σημαίνει ότι δεν ζητούσαν συγγνώμη, δεν έλαβαν μέτρα για να βελτιώσουν την κατάσταση ούτε άλλαξαν τη δική τους συμπεριφορά».

Ο Λι ανέφερε ότι οι επιπτώσεις της έρευνας θα μπορούσαν να είναι «ακόμη πιο κρίσιμες για τα παιδιά και τους εφήβους», οι οποίοι βρίσκονται ακόμη στη φάση ανάπτυξης των συναισθηματικών δεξιοτήτων που αποκτώνται μέσω πραγματικών εμπειριών, όπως οι κοινωνικές τριβές, η ανεκτικότητα στις διαμάχες, η συνεκτίμηση άλλων απόψεων και η αναγνώριση των λαθών.

Οι κίνδυνοι της κολακείας

Στον τομέα της ιατρικής περίθαλψης, οι ερευνητές αναφέρουν ότι η κολακευτική τεχνητή νοημοσύνη θα μπορούσε να οδηγήσει τους γιατρούς να επιβεβαιώσουν την αρχική τους διαίσθηση σχετικά με μια διάγνωση, αντί να τους ενθαρρύνει να διερευνήσουν περαιτέρω. Στην πολιτική, θα μπορούσε να ενισχύσει πιο ακραίες θέσεις, επιβεβαιώνοντας τις προκαταλήψεις των ανθρώπων.

Ένα έγγραφο εργασίας του Ινστιτούτου Ασφάλειας Τεχνητής Νοημοσύνης του Ηνωμένου Βασιλείου δείχνει ότι αν ένα chatbot μετατρέψει τη δήλωση ενός χρήστη σε ερώτηση, είναι λιγότερο πιθανό να είναι κολακευτικό στην απάντησή του. Ένα άλλο έγγραφο από ερευνητές του Πανεπιστημίου Johns Hopkins δείχνει επίσης ότι ο τρόπος με τον οποίο διαμορφώνεται η συζήτηση κάνει μεγάλη διαφορά.

«Όσο πιο εμφατικός είσαι, τόσο πιο κολακευτικό είναι το μοντέλο», δήλωσε ο Ντάνιελ Κασάμπι, επίκουρος καθηγητής πληροφορικής στο Πανεπιστήμιο Johns Hopkins. Είπε ότι είναι δύσκολο να γνωρίζουμε αν η αιτία είναι ότι «τα chatbots αντικατοπτρίζουν τις ανθρώπινες κοινωνίες» ή κάτι διαφορετικό, «επειδή αυτά είναι πραγματικά πολύ, πολύ πολύπλοκα συστήματα».

Η κολακεία είναι τόσο βαθιά ριζωμένη στα chatbots, που η Τσενγκ ανέφερε ότι ίσως χρειαστεί οι εταιρείες τεχνολογίας να επανεξετάσουν και να επανεκπαιδεύσουν τα συστήματα τεχνητής νοημοσύνης τους, προκειμένου να προσαρμόσουν τους τύπους των απαντήσεων που προτιμώνται.

Η Τσενγκ ανέφερε ότι μια απλούστερη λύση θα μπορούσε να είναι οι προγραμματιστές τεχνητής νοημοσύνης να δίνουν οδηγίες στα chatbots τους να προκαλούν περισσότερο τους χρήστες, για παράδειγμα ξεκινώντας μια απάντηση με τις λέξεις «Περίμενε ένα λεπτό». Ο συν-συγγραφέας της, Λι, δήλωσε ότι υπάρχει ακόμα χρόνος για να διαμορφώσουμε τον τρόπο με τον οποίο η τεχνητή νοημοσύνη αλληλεπιδρά μαζί μας.

«Θα μπορούσατε να φανταστείτε μια τεχνητή νοημοσύνη που, εκτός από το να επιβεβαιώνει πώς αισθάνεστε, ρωτά επίσης πώς μπορεί να αισθάνεται ο άλλος», είπε ο Λι.

«Ή που ίσως να λέει: «Κλείσε το» και πήγαινε να κάνεις αυτή τη συζήτηση από κοντά. Και αυτό έχει σημασία εδώ, επειδή η ποιότητα των κοινωνικών μας σχέσεων είναι ένας από τους ισχυρότερους προγνωστικούς παράγοντες για την υγεία και την ευημερία που έχουμε ως άνθρωποι. Τελικά, θέλουμε μια τεχνητή νοημοσύνη που να διευρύνει την κρίση και τις προοπτικές των ανθρώπων, αντί να τις περιορίζει».

Με πληροφορίες από Science Alert

Τech & Science
0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

ΔΕΙΤΕ ΑΚΟΜΑ

GOOGLE ΚΒΑΝΤΙΚΗ ΦΥΣΙΚΗ ΑΠΟΚΡΥΠΤΟΓΡΑΦΗΣΗ

Τech & Science / Η Google προειδοποιεί: Κβαντικοί υπολογιστές μπορεί να «σπάσουν» την κρυπτογράφηση έως το 2029

Η εταιρεία εκτιμά ότι στο μέλλον θα είναι δυνατή η αποκρυπτογράφηση δεδομένων που σήμερα θεωρούνται ασφαλή, όπως τα μηνύματα και οι τραπεζικές συναλλαγές, ακόμη και αν έχουν αποθηκευτεί εδώ και χρόνια
THE LIFO TEAM
Το The AI Doc βγαίνει στις αίθουσες και βάζει τους ισχυρότερους ανθρώπους της AI μπροστά στην κάμερα

Τech & Science / Το The AI Doc βγαίνει στις αίθουσες και βάζει τους ισχυρότερους ανθρώπους της AI μπροστά στην κάμερα

Το νέο ντοκιμαντέρ του Daniel Roher για την τεχνητή νοημοσύνη βγαίνει στις αίθουσες με συνεντεύξεις από κορυφαία στελέχη του χώρου και φιλοδοξεί να βάλει σε μία σειρά τον ενθουσιασμό και τον φόβο που συνοδεύουν σήμερα την AI.
THE LIFO TEAM
Οι συχνότερες εκσπερματώσεις μπορεί να βελτιώσουν τη γονιμότητα των ανδρών

Τech & Science / Οι συχνότερες εκσπερματώσεις μπορεί να βελτιώσουν τη γονιμότητα των ανδρών

Η έρευνα έχει σημαντικές επιπτώσεις για τις κλινικές γονιμότητας, καθώς υποδεικνύει ότι οι άνδρες πιθανώς δεν πρέπει να απέχουν από την εκσπερμάτωση για αρκετές ημέρες, όπως προτείνουν οι υπάρχουσες οδηγίες
THE LIFO TEAM