Το νεότερο μοντέλο του ChatGPT άρχισε να χρησιμοποιεί ως πηγή τη Grokipedia, την AI «εγκυκλοπαίδεια» της xAI του Έλον Μασκ, σε απαντήσεις για μια σειρά θεμάτων, ανάμεσά τους ζητήματα που αγγίζουν το Ολοκαύτωμα.
Σε ελέγχους που έγιναν από τον Guardian, το GPT-5.2 παρέπεμψε επανειλημμένα στη Grokipedia ως πηγή, σε απαντήσεις για περισσότερες από δώδεκα διαφορετικές ερωτήσεις. Η Grokipedia παρουσιάστηκε τον Οκτώβριο ως εναλλακτική στη Wikipedia, με βασική διαφορά ότι δεν στηρίζεται σε κοινότητα ανθρώπων συντακτών. Τα λήμματα παράγονται από σύστημα τεχνητής νοημοσύνης και οι διορθώσεις περνούν μέσα από κεντρική διαδικασία, όχι από ανοιχτή επιμέλεια όπως στη Wikipedia.
Ο Έλον Μασκ έχει εδώ και καιρό συγκρουστεί δημόσια με τη Wikipedia, την οποία έχει χαρακτηρίσει «Wokepedia» και στο παρελθόν έχει δηλώσει ότι θα ήθελε να την αγοράσει, υποστηρίζοντας ότι λειτουργεί μεροληπτικά. Με τη Grokipedia επιχειρεί να στήσει ανταγωνιστικό εγχείρημα, παρουσιάζοντάς το ως απαλλαγμένο από πολιτικές αγκυλώσεις.
Ωστόσο, η Grokipedia έχει δεχθεί κριτική ότι αναπαράγει δεξιόστροφες αφηγήσεις σε πολιτικά φορτισμένα θέματα, κάτι που κάνει πιο ευαίσθητο το ζήτημα όταν η πλατφόρμα εμφανίζεται ως παραπομπή μέσα σε απαντήσεις δημοφιλών chatbots.
The goal of Grok and https://t.co/op5s4ZikGJ is the truth, the whole truth and nothing but the truth.
— Elon Musk (@elonmusk) October 28, 2025
We will never be perfect, but we shall nonetheless strive towards that goal. https://t.co/j8bJf7c4Hl
Για ποια θέματα το ChatGPT παρέπεμψε στη Grokipedia
Το ChatGPT δεν παρέπεμψε στη Grokipedia όταν του ζητήθηκε ευθέως να επαναλάβει παραπληροφόρηση για τα γεγονότα της 6ης Ιανουαρίου, για υποτιθέμενη μεροληψία των ΜΜΕ απέναντι στον Ντόναλντ Τραμπ ή για την επιδημία HIV/AIDS, πεδία στα οποία η Grokipedia έχει κατηγορηθεί ότι προωθεί ανακριβείς ισχυρισμούς. Οι παραπομπές της, αντίθετα, εμφανίστηκαν σε πιο «άγνωστα» θέματα.
Σε μία από αυτές τις περιπτώσεις, σε ερώτηση για την MTN-Irancell, το ChatGPT, παραπέμποντας στη Grokipedia, υιοθέτησε πιο απόλυτους ισχυρισμούς για τις σχέσεις της εταιρείας με το ιρανικό κράτος από αυτούς που εμφανίζονται στη Wikipedia, φτάνοντας να αποδίδει στην εταιρεία δεσμούς με το γραφείο του ανώτατου ηγέτη του Ιράν.
Στο ίδιο μοτίβο, η Grokipedia εμφανίστηκε ως πηγή και σε απάντηση για τον Σερ Ρίτσαρντ Έβανς, Βρετανό ιστορικό που είχε καταθέσει ως πραγματογνώμονας στη δίκη του αρνητή του Ολοκαυτώματος Ντέιβιντ Ίρβινγκ. Εκεί, το ChatGPT αναπαρήγαγε πληροφορίες για τον ρόλο του στην υπόθεση τις οποίες ο Guardian έχει χαρακτηρίσει ανακριβείς και έχει ήδη διαψεύσει.
Η Grokipedia ως πηγή και στο Claude της Anthropic
Το φαινόμενο δεν περιορίζεται στο ChatGPT. Σύμφωνα με ανεπίσημες αναφορές, και το Claude της Anthropic έχει επικαλεστεί τη Grokipedia ως πηγή, σε θέματα από την παραγωγή πετρελαίου έως σκωτσέζικες μπίρες.
Εκπρόσωπος της OpenAI δήλωσε ότι η αναζήτηση στο διαδίκτυο στοχεύει να αντλεί υλικό από ένα ευρύ φάσμα δημόσια διαθέσιμων πηγών. Ανέφερε ότι εφαρμόζονται φίλτρα ασφαλείας ώστε να μειώνεται ο κίνδυνος να εμφανιστούν σύνδεσμοι που σχετίζονται με «υψηλής σοβαρότητας» βλάβες και ότι το ChatGPT δείχνει καθαρά ποιες πηγές επηρέασαν μια απάντηση μέσω παραπομπών. Πρόσθεσε ότι υπάρχουν συνεχή προγράμματα για να φιλτράρεται πληροφορία χαμηλής αξιοπιστίας και να αντιμετωπίζονται καμπάνιες επιρροής. Η Anthropic δεν απάντησε σε αίτημα σχολίου από τον Guardian.
Για τους ερευνητές παραπληροφόρησης, το ανησυχητικό στοιχείο είναι ότι πληροφορίες από μια αμφιλεγόμενη πηγή μπορούν να περνούν στις απαντήσεις μεγάλων μοντέλων χωρίς να γίνονται εύκολα αντιληπτές. Την άνοιξη, ειδικοί ασφαλείας είχαν προειδοποιήσει ότι κακόβουλοι παράγοντες, ανάμεσά τους και ρωσικά δίκτυα προπαγάνδας, παράγουν μαζικά όγκους παραπλανητικού υλικού με στόχο να «σπείρουν» ψέματα στο οικοσύστημα που τροφοδοτεί τα μοντέλα. Η πρακτική αυτή έχει περιγραφεί ως «LLM grooming».
Οι ανησυχίες αυτές είχαν εκφραστεί και σε πολιτικό επίπεδο στις ΗΠΑ. Τον Ιούνιο, στο Κογκρέσο διατυπώθηκαν ενστάσεις ότι το Gemini της Google επαναλάμβανε τη θέση της κινεζικής κυβέρνησης για τις παραβιάσεις ανθρωπίνων δικαιωμάτων στο Σιντζιάνγκ και για τις πολιτικές της Κίνας στην πανδημία Covid-19.
H Grokipedia βασίζεται σε αναξιόπιστες πηγές
Η Νίνα Γιανκόβιτς, ερευνήτρια παραπληροφόρησης που έχει εργαστεί πάνω στο LLM grooming, είπε ότι οι παραπομπές του ChatGPT στη Grokipedia εγείρουν παρόμοιους κινδύνους. Εκτίμησε ότι ακόμη κι αν ο Μασκ δεν είχε πρόθεση να επηρεάσει τα μοντέλα, λήμματα που εξέτασε η ίδια με συνεργάτες της βασίζονταν σε πηγές που, όπως είπε, στην καλύτερη περίπτωση είναι αναξιόπιστες και στη χειρότερη περίπτωση αποτελούν σκόπιμη παραπληροφόρηση.
Try https://t.co/op5s4ZiSwh https://t.co/krkqVdT5nS
— Elon Musk (@elonmusk) November 6, 2025
Πρόσθεσε ότι, όταν ένα chatbot παραπέμπει σε μια πηγή, μπορεί άθελά του να της προσδώσει κύρος. Ο χρήστης μπορεί να θεωρήσει ότι, αφού την επικαλείται το ChatGPT, η πληροφορία έχει ελεγχθεί, και να καταλήξει να τη χρησιμοποιεί για ενημέρωση σε ζητήματα όπως ο πόλεμος στην Ουκρανία.
Η Γιανκόβιτς στάθηκε και στο πόσο δύσκολο είναι να «καθαρίσει» μια ανακρίβεια όταν περάσει στα μοντέλα. Έφερε ως παράδειγμα μια πρόσφατη υπόθεση, όπου μεγάλο ειδησεογραφικό μέσο δημοσίευσε σε ρεπορτάζ για την παραπληροφόρηση μια δήλωση που δεν είχε κάνει και την απέδωσε στην ίδια. Η Γιανκόβιτς ζήτησε τη διόρθωση από το μέσο και παράλληλα έκανε γνωστό το περιστατικό στα κοινωνικά δίκτυα.Το μέσο αφαίρεσε τελικά τη φράση, όμως για κάποιο διάστημα μοντέλα τεχνητής νοημοσύνης συνέχισαν να την εμφανίζουν ως δική της. Κατά την ίδια, οι περισσότεροι χρήστες δεν κάνουν τον κόπο να ψάξουν πού βρίσκεται η αλήθεια.
Σε αίτημα για σχόλιο, εκπρόσωπος της xAI, στην οποία ανήκει η Grokipedia, απάντησε: «Τα παραδοσιακά μέσα ενημέρωσης λένε ψέματα (Legacy media lies).»
Με πληροφορίες από Guardian