Οξφόρδη: Όσο πιο «φιλικά» γίνονται τα ΑΙ chatbots, τόσο αυξάνονται τα λάθη

AI CHATBOT ΟΞΦΟΡΔΗ ΤΕΧΝΗΤΗ ΝΟΥΜΟΣΗΝΗ Facebook Twitter
Φωτ.: Getty Images
0

Η προσπάθεια των τεχνολογικών εταιρειών να κάνουν τα chatbots τεχνητής νοημοσύνης πιο φιλικά προς τους χρήστες μπορεί να έχει σοβαρό κόστος στην αξιοπιστία τους, σύμφωνα με νέα μελέτη ερευνητών του Πανεπιστημίου της Οξφόρδης.

Οι επιστήμονες διαπίστωσαν ότι μοντέλα που είχαν τροποποιηθεί ώστε να απαντούν με πιο ζεστό και υποστηρικτικό ύφος έδιναν λιγότερο ακριβείς απαντήσεις, παρείχαν χειρότερες συμβουλές υγείας και ήταν πιο πρόθυμα να συμφωνήσουν με θεωρίες συνωμοσίας.

Σύμφωνα με τα αποτελέσματα, τα πιο «φιλικά» chatbots ήταν κατά 30% λιγότερο ακριβή στις απαντήσεις τους και κατά 40% πιο πιθανό να ενισχύσουν ψευδείς πεποιθήσεις των χρηστών.

Η έρευνα δημοσιεύθηκε στο επιστημονικό περιοδικό Nature και έρχεται σε μια περίοδο κατά την οποία εταιρείες όπως η OpenAI και η Anthropic επενδύουν στη δημιουργία πιο προσιτών και ανθρώπινων ψηφιακών βοηθών, οι οποίοι χρησιμοποιούνται ολοένα περισσότερο ως σύντροφοι συνομιλίας, σύμβουλοι ή ακόμη και υποκατάστατα θεραπευτικής υποστήριξης.

Η επικεφαλής συγγραφέας της μελέτης, Λουτζάιν Ιμπραχίμ από το Oxford Internet Institute, ανέφερε ότι η προσπάθεια να εμφανίζονται τα μοντέλα πιο φιλικά μειώνει την ικανότητά τους να λένε δύσκολες αλήθειες και να αντικρούουν λανθασμένες αντιλήψεις των χρηστών.

Οι ερευνητές εξέτασαν πέντε μοντέλα τεχνητής νοημοσύνης, όπως το GPT-4o της OpenAI και το Llama της Meta, εφαρμόζοντας διαδικασία εκπαίδευσης παρόμοια με εκείνη που χρησιμοποιεί η βιομηχανία για πιο φιλικό ύφος.

Σε δοκιμές, τα πιο «θερμά» μοντέλα έκαναν από 10% έως 30% περισσότερα λάθη σε σχέση με τις αρχικές εκδόσεις.

Σε ένα παράδειγμα, χρήστης ανέφερε ότι πιστεύει πως ο Αδόλφος Χίτλερ διέφυγε στην Αργεντινή το 1945. Η πιο φιλική εκδοχή του chatbot απάντησε ότι πολλοί άνθρωποι το πιστεύουν και πως, αν και δεν υπάρχει οριστική απόδειξη, υπάρχουν αποχαρακτηρισμένα έγγραφα που επικαλούνται υποστηρικτές της θεωρίας. Αντίθετα, η αρχική εκδοχή απέρριψε κατηγορηματικά τον ισχυρισμό.

Σε άλλη περίπτωση, chatbot με πιο φιλικό ύφος ανέφερε ότι υπάρχουν διαφορετικές απόψεις για τις αποστολές Apollo στη Σελήνη, αντί να επιβεβαιώσει ευθέως ότι οι προσεδαφίσεις πραγματοποιήθηκαν κανονικά.

Οι ερευνητές διαπίστωσαν επίσης ότι τέτοια μοντέλα γίνονταν ακόμη πιο επιρρεπή στα λάθη όταν οι χρήστες δήλωναν στενοχωρημένοι, πιεσμένοι ή συναισθηματικά ευάλωτοι.

Ο συν-συγγραφέας της μελέτης, Λουκ Ροσέ, σημείωσε ότι η πρόκληση για το μέλλον είναι να σχεδιαστούν chatbots που θα συνδυάζουν ακρίβεια και ανθρώπινο τόνο χωρίς να θυσιάζεται η αλήθεια.

Αντίστοιχα, ο ερευνητής Στιβ Ράθιε από το Πανεπιστήμιο Carnegie Mellon προειδοποίησε ότι το ζήτημα είναι ιδιαίτερα κρίσιμο όταν τα chatbots χρησιμοποιούνται για σοβαρά θέματα, όπως πληροφορίες υγείας ή άλλες αποφάσεις υψηλού ρίσκου.

Με πληροφορίες από Guardian

Τech & Science
0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

«Βλέπω ό,τι χειρότερο έχει γεννήσει η ανθρωπότητα»: Οι άνθρωποι που «σπάνε» την Τεχνητή Νοημοσύνη για να μας σώσουν

Τech & Science / «Βλέπω ό,τι χειρότερο έχει γεννήσει η ανθρωπότητα»: Οι άνθρωποι που «σπάνε» την Τεχνητή Νοημοσύνη για να μας σώσουν

Οι AI jailbreakers προσπαθούν να ξεγελάσουν μεγάλα γλωσσικά μοντέλα όπως το ChatGPT και το Claude, ώστε να αποκαλύψουν αδυναμίες στους κανόνες ασφαλείας τους. Καθώς η τεχνητή νοημοσύνη μπαίνει σε περισσότερα συστήματα, η δουλειά τους γίνεται όλο και πιο κρίσιμη, αλλά και ψυχικά φορτισμένη..
THE LIFO TEAM

ΔΕΙΤΕ ΑΚΟΜΑ

«Βλέπω ό,τι χειρότερο έχει γεννήσει η ανθρωπότητα»: Οι άνθρωποι που «σπάνε» την Τεχνητή Νοημοσύνη για να μας σώσουν

Τech & Science / «Βλέπω ό,τι χειρότερο έχει γεννήσει η ανθρωπότητα»: Οι άνθρωποι που «σπάνε» την Τεχνητή Νοημοσύνη για να μας σώσουν

Οι AI jailbreakers προσπαθούν να ξεγελάσουν μεγάλα γλωσσικά μοντέλα όπως το ChatGPT και το Claude, ώστε να αποκαλύψουν αδυναμίες στους κανόνες ασφαλείας τους. Καθώς η τεχνητή νοημοσύνη μπαίνει σε περισσότερα συστήματα, η δουλειά τους γίνεται όλο και πιο κρίσιμη, αλλά και ψυχικά φορτισμένη..
THE LIFO TEAM
Η δίκη του αιώνα για την Τεχνητή Νοημοσύνη: Ο Έλον Μασκ στο εδώλιο κατά της OpenAI

Τech & Science / Η δίκη του αιώνα για την Τεχνητή Νοημοσύνη: Ο Έλον Μασκ στο εδώλιο κατά της OpenAI

Η δίκη του Έλον Μασκ κατά του Σαμ Άλτμαν, του OpenAI και της Microsoft ξεκίνησε στην Καλιφόρνια, με τον ιδρυτή της Tesla να υποστηρίζει ότι το OpenAI πρόδωσε την αρχική μη κερδοσκοπική αποστολή του. Η πλευρά του OpenAI απαντά ότι ο Μασκ δεν υπερασπίζεται μια αποστολή, αλλά επιτίθεται σε έναν ανταγωνιστή που δεν κατάφερε να ελέγξει.
THE LIFO TEAM
PFAS ΠΑΝΤΟΤΙΝΑ ΧΗΜΙΚΑ ΠΑΙΔΙΑ ΛΕΥΧΑΙΜΙΑ

Τech & Science / Η πρώιμη έκθεση των παιδιών στα «παντοτινά χημικά» συνδέεται με κίνδυνο εμφάνισης λευχαιμίας

Tα «παντοτινά χημικά» βρίσκονται μεταξύ άλλων σε πόσιμο νερό, δοχεία τροφίμων και ποτών, αντικολλητικά μαγειρικά σκεύη και υφάσματα ανθεκτικά στους λεκέδες
THE LIFO TEAM
Η Canva ζήτησε συγγνώμη επειδή AI εργαλείο της άλλαζε τη λέξη «Palestine» σε «Ukraine»

Τech & Science / Η Canva ζήτησε συγγνώμη επειδή AI εργαλείο της άλλαζε τη λέξη «Palestine» σε «Ukraine»

Το Magic Layers, νέο εργαλείο τεχνητής νοημοσύνης της Canva, φέρεται να αντικαθιστούσε τη λέξη «Palestine» με «Ukraine» σε σχέδια χρηστών. Η εταιρεία είπε ότι διόρθωσε το πρόβλημα και προσθέτει νέους ελέγχους για να μην επαναληφθεί.
THE LIFO TEAM
ΔΕΠΥ ΠΑΙΔΙΑ

Τech & Science / ΔΕΠΥ: Εργαλείο τεχνητής νοημοσύνης θα μπορούσε να βοηθήσει στην έγκαιρη διάγνωση στα παιδιά

Οι ερευνητές διαπίστωσαν ότι το σύστημα τεχνητής νοημοσύνης μπορούσε να εντοπίζει με ακρίβεια πρώιμα προειδοποιητικά σημάδια της Διαταραχής Ελλειμματικής Προσοχής και Υπερκινητικότητας, γεγονός που θα μπορούσε να επιτρέψει στα παιδιά να λάβουν την απαραίτητη υποστήριξη πολύ νωρίτερα
THE LIFO TEAM
Η Τέιλορ Σουίφτ θέλει να κατοχυρώσει τη φωνή της πριν την αντιγράψει η τεχνητή νοημοσύνη

Τech & Science / Η Τέιλορ Σουίφτ θέλει να κατοχυρώσει τη φωνή της πριν την αντιγράψει η τεχνητή νοημοσύνη

Η Τέιλορ Σουίφτ κατέθεσε αιτήσεις για την κατοχύρωση δύο ηχητικών αποσπασμάτων της φωνής της και μίας φωτογραφίας της από τη σκηνή, σε μια κίνηση που συνδέεται με την ανησυχία για AI deepfakes, ψεύτικες διαφημίσεις και μη εξουσιοδοτημένες χρήσεις της εικόνας της.
THE LIFO TEAM
Οι influencers αντικαθιστούν τον εαυτό τους με AI κλώνους

Τech & Science / Οι influencers αντικαθιστούν τον εαυτό τους με AI κλώνους

Από τον Κάμπι Λέιμ μέχρι τον Άντι Κόεν, τα AI «ψηφιακά δίδυμα» δημιουργών και celebrities γίνονται το νέο προϊόν για brands, πλατφόρμες και talent agencies. Η υπόσχεση είναι λιγότερο burnout και περισσότερες εμπορικές ευκαιρίες. Ο κίνδυνος, όμως, είναι πολύ μεγαλύτερος: οι creators να χάσουν τον έλεγχο της ίδιας τους της εικόνας.
THE LIFO TEAM