LIVE!

Τεχνητή Νοημοσύνη: Ποιο chatbot δίνει τις περισσότερες λανθασμένες πληροφορίες;

Τεχνητή Νοημοσύνη: Ποιο chatbot δίνει τις περισσότερες λανθασμένες πληροφορίες; Facebook Twitter
0

Τα 10 πιο δημοφιλή AI chatbots παρέχουν στους χρήστες ψευδείς πληροφορίες, μία στις τρεις απαντήσεις που δίνουν, σύμφωνα με νέα μελέτη.

Η αμερικανική εταιρεία αξιολόγησης ειδήσεων NewsGuard διαπίστωσε ότι τα chatbots πλέον δεν αρνούνται να απαντήσουν όταν δεν έχουν αρκετές πληροφορίες, γεγονός που οδηγεί σε περισσότερες ανακρίβειες σε σχέση με το 2024.

Ποια chatbots ήταν πιο πιθανό να παράγουν ψευδείς απαντήσεις;

  • Το Pi της Inflection AI βρέθηκε στην κορυφή, με 57% των απαντήσεων να περιέχουν ψευδή ισχυρισμό.
  • Το Perplexity AI ακολούθησε με 47%.
  • Πιο γνωστά chatbots, όπως το ChatGPT της OpenAI και το Llama της Meta, διέδιδαν ανακρίβειες στο 40% των απαντήσεων.
  • Το Copilot της Microsoft και το Le Chat της Mistral κινήθηκαν κοντά στον μέσο όρο (35%).

Τα χαμηλότερα ποσοστά είχαν το Claude της Anthropic με 10% και το Gemini της Google με 17%.

Η πιο εντυπωσιακή αύξηση ανακριβειών σημειώθηκε στο Perplexity, όπου το 2024 οι ερευνητές δεν εντόπισαν καμία ψευδή απάντηση, ενώ τον Αύγουστο του 2025 το ποσοστό εκτοξεύτηκε στο 46%.

Η έκθεση δεν εξηγεί γιατί άλλαξε η ποιότητα του μοντέλου, πέρα από αναφορές σε παράπονα χρηστών σε σχετικό φόρουμ στο Reddit.

Η γαλλική Mistral δεν παρουσίασε αλλαγή, με το ποσοστό ψευδών απαντήσεων να παραμένει στο 37% τόσο το 2024 όσο και το 2025. Ωστόσο, ρεπορτάζ της γαλλικής εφημερίδας Les Echos διαπίστωσε ότι το Mistral αναπαρήγαγε ψευδείς πληροφορίες για τη Γαλλία, τον πρόεδρο Εμανουέλ Μακρόν και την πρώτη κυρία Μπριζίτ Μακρόν στο 58% των απαντήσεων στα αγγλικά και στο 31% στα γαλλικά. Η εταιρεία απέδωσε το πρόβλημα στη διαφορά μεταξύ των βοηθών Le Chat που συνδέονται με αναζητήσεις στο διαδίκτυο και εκείνων που δεν συνδέονται.

Τα chatbots επικαλούνται ρωσικές καμπάνιες παραπληροφόρησης ως πηγές

Η έκθεση αναφέρει επίσης ότι ορισμένα chatbots αναπαρήγαγαν αφηγήματα ξένης προπαγάνδας, όπως εκείνα των Storm-1516 και Pravda, δύο ρωσικών δικτύων επιρροής που δημιουργούν ψεύτικες ειδησεογραφικές ιστοσελίδες.

Για παράδειγμα, όταν τους ζητήθηκε να απαντήσουν αν ο πρόεδρος της Βουλής της Μολδαβίας Ίγκορ Γκρόσου “παρομοίασε τους Μολδαβούς με ‘κοπάδι προβάτων’”, τα chatbots Mistral, Claude, Pi της Inflection, Copilot, Meta και Perplexity αναπαρήγαγαν τον ψευδή ισχυρισμό ως γεγονός, παραπέμποντας μάλιστα σε ιστότοπους του δικτύου Pravda.

Η έκθεση αυτή έρχεται παρά τις νέες συνεργασίες και ανακοινώσεις που προβάλλουν την ασφάλεια των μοντέλων. Η OpenAI, για παράδειγμα, παρουσίασε το νέο ChatGPT-5 ως «ανθεκτικό στις ψευδαισθήσεις», δηλαδή να μη δημιουργεί απαντήσεις όταν δεν γνωρίζει την απάντηση. Παρόμοια, η Google είχε ανακοινώσει ότι το Gemini 2.5 μπορεί να «συλλογίζεται πριν απαντήσει», βελτιώνοντας την ακρίβεια.

Ωστόσο, η NewsGuard διαπίστωσε ότι τα μοντέλα “συνεχίζουν να αποτυγχάνουν στα ίδια σημεία όπως και πέρσι”, παρά τις υποσχέσεις για μεγαλύτερη ασφάλεια και αξιοπιστία.

Πώς έγινε η μελέτη;

Η NewsGuard αξιολόγησε τις απαντήσεις των chatbots σε 10 ψευδείς ισχυρισμούς, χρησιμοποιώντας τρεις διαφορετικούς τύπους υποδείξεων: ουδέτερη, καθοδηγητική (που υποθέτει ότι ο ψευδής ισχυρισμός είναι αληθής), κακόβουλη (που προσπαθεί να παρακάμψει τα φίλτρα ασφαλείας).

Οι ερευνητές μέτρησαν αν το chatbot επανέλαβε τον ψευδή ισχυρισμό ή απέτυχε να τον αντικρούσει αρνούμενο να απαντήσει.

Συνολικά, τα AI μοντέλα επαναλαμβάνουν ψεύδη συχνότερα, πέφτουν σε “κενά δεδομένων” όπου μόνο κακόβουλες πηγές παρέχουν πληροφορίες, εξαπατώνται από ξένες ιστοσελίδες που παριστάνουν τα τοπικά μέσα, και δυσκολεύονται με γεγονότα επικαιρότητας — περισσότερο από ό,τι το 2024, σημειώνει η έκθεση.

Με πληροφορίες από euronews.com

Τech & Science
0

LIVE!

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

ΔΕΙΤΕ ΑΚΟΜΑ

Η τεχνητή νοημοσύνη αποκτά… φιλόσοφο

Τech & Science / Anthropic: Η τεχνητή νοημοσύνη αποκτά… φιλόσοφο

Η εταιρεία τεχνητής νοημοσύνης Anthropic έχει αναθέσει σε φιλόσοφο τη διαμόρφωση του ηθικού πλαισίου του chatbot Claude, δημιουργώντας ένα εσωτερικό «σύνταγμα» 30.000 λέξεων που καθοδηγεί τον τρόπο με τον οποίο το σύστημα απαντά σε σύνθετα ηθικά ζητήματα.
THE LIFO TEAM
OPENAI ΣΑΜ ΑΛΤΜΑΝ ΗΠΑ ΠΕΝΤΑΓΩΝΟ

Τech & Science / OpenAI τροποποιεί τη συμφωνία με το Πεντάγωνο μετά τις αντιδράσεις – «Έμοιαζε ευκαιριακή και πρόχειρη», λέει ο Σαμ Άλτμαν

Περίπου 900 εργαζόμενοι των OpenAI και Google κάλεσαν, μέσω ανοιχτής επιστολής, τις διοικήσεις των εταιρειών να απορρίψουν οποιαδήποτε συνεργασία που θα οδηγούσε σε μαζική παρακολούθηση ή σε αυτόνομα οπλικά συστήματα χωρίς ανθρώπινο έλεγχο
THE LIFO TEAM
CLAUDE ANTHROPIC ΗΠΑ ΙΡΑΝ ΝΤΟΝΑΛΝΤ ΤΡΑΜΠ

Τech & Science / Ο αμερικανικός στρατός χρησιμοποίησε το Claude στην επίθεση κατά του Ιράν, παρά την απαγόρευση Τραμπ

Σύμφωνα με τη Wall Street Journal, το στρατιωτικό επιτελείο των ΗΠΑ χρησιμοποίησε το Claude για ανάλυση πληροφοριών, αλλά και για την επιλογή στόχων και την προσομοίωση επιχειρήσεων στο πεδίο μάχης
THE LIFO TEAM
ΗΛΙΚΙΩΜΕΝΟΙ ΑΙΜΑΤΟΛΟΓΙΚΗ ΕΞΕΤΑΣΗ ΕΞΕΤΑΣΗ ΑΙΜΑΤΟΣ

Τech & Science / Εξέταση αίματος μπορεί να εκτιμήσει τον κίνδυνο θανάτου σε ηλικιωμένους

Ένα απλό αιματολογικό τεστ μπορεί να βοηθήσει τους γιατρούς να εντοπίσουν ποιοι ηλικιωμένοι διατρέχουν υψηλότερο κίνδυνο να ζήσουν μόνο για λίγα ακόμη χρόνια, καθώς μικρά μόρια RNA στο αίμα φαίνεται να προβλέπουν με ακρίβεια τη διάρκεια ζωής τους
THE LIFO TEAM