LIVE!

Το ChatGPT παραπέμπει στη Grokipedia του Μασκ, ακόμη και για το Ολοκαύτωμα

CHATGPT GROKIPEDIA ΕΛΟΝ ΜΑΣΚ Facebook Twitter
0

Το νεότερο μοντέλο του ChatGPT άρχισε να χρησιμοποιεί ως πηγή τη Grokipedia, την AI «εγκυκλοπαίδεια» της xAI του Έλον Μασκ, σε απαντήσεις για μια σειρά θεμάτων, ανάμεσά τους ζητήματα που αγγίζουν το Ολοκαύτωμα.

Σε ελέγχους που έγιναν από τον Guardian, το GPT-5.2 παρέπεμψε επανειλημμένα στη Grokipedia ως πηγή, σε απαντήσεις για περισσότερες από δώδεκα διαφορετικές ερωτήσεις. Η Grokipedia παρουσιάστηκε τον Οκτώβριο ως εναλλακτική στη Wikipedia, με βασική διαφορά ότι δεν στηρίζεται σε κοινότητα ανθρώπων συντακτών. Τα λήμματα παράγονται από σύστημα τεχνητής νοημοσύνης και οι διορθώσεις περνούν μέσα από κεντρική διαδικασία, όχι από ανοιχτή επιμέλεια όπως στη Wikipedia.

Ο Έλον Μασκ έχει εδώ και καιρό συγκρουστεί δημόσια με τη Wikipedia, την οποία έχει χαρακτηρίσει «Wokepedia» και στο παρελθόν έχει δηλώσει ότι θα ήθελε να την αγοράσει, υποστηρίζοντας ότι λειτουργεί μεροληπτικά. Με τη Grokipedia επιχειρεί να στήσει ανταγωνιστικό εγχείρημα, παρουσιάζοντάς το ως απαλλαγμένο από πολιτικές αγκυλώσεις.

Ωστόσο, η Grokipedia έχει δεχθεί κριτική ότι αναπαράγει δεξιόστροφες αφηγήσεις σε πολιτικά φορτισμένα θέματα, κάτι που κάνει πιο ευαίσθητο το ζήτημα όταν η πλατφόρμα εμφανίζεται ως παραπομπή μέσα σε απαντήσεις δημοφιλών chatbots.

Για ποια θέματα το ChatGPT παρέπεμψε στη Grokipedia

Το ChatGPT δεν παρέπεμψε στη Grokipedia όταν του ζητήθηκε ευθέως να επαναλάβει παραπληροφόρηση για τα γεγονότα της 6ης Ιανουαρίου, για υποτιθέμενη μεροληψία των ΜΜΕ απέναντι στον Ντόναλντ Τραμπ ή για την επιδημία HIV/AIDS, πεδία στα οποία η Grokipedia έχει κατηγορηθεί ότι προωθεί ανακριβείς ισχυρισμούς. Οι παραπομπές της, αντίθετα, εμφανίστηκαν σε πιο «άγνωστα» θέματα.

Σε μία από αυτές τις περιπτώσεις, σε ερώτηση για την MTN-Irancell, το ChatGPT, παραπέμποντας στη Grokipedia, υιοθέτησε πιο απόλυτους ισχυρισμούς για τις σχέσεις της εταιρείας με το ιρανικό κράτος από αυτούς που εμφανίζονται στη Wikipedia, φτάνοντας να αποδίδει στην εταιρεία δεσμούς με το γραφείο του ανώτατου ηγέτη του Ιράν.

Στο ίδιο μοτίβο, η Grokipedia εμφανίστηκε ως πηγή και σε απάντηση για τον Σερ Ρίτσαρντ Έβανς, Βρετανό ιστορικό που είχε καταθέσει ως πραγματογνώμονας στη δίκη του αρνητή του Ολοκαυτώματος Ντέιβιντ Ίρβινγκ. Εκεί, το ChatGPT αναπαρήγαγε πληροφορίες για τον ρόλο του στην υπόθεση τις οποίες ο Guardian έχει χαρακτηρίσει ανακριβείς και έχει ήδη διαψεύσει.

Η Grokipedia ως πηγή και στο Claude της Anthropic

Το φαινόμενο δεν περιορίζεται στο ChatGPT. Σύμφωνα με ανεπίσημες αναφορές, και το Claude της Anthropic έχει επικαλεστεί τη Grokipedia ως πηγή, σε θέματα από την παραγωγή πετρελαίου έως σκωτσέζικες μπίρες.

Εκπρόσωπος της OpenAI δήλωσε ότι η αναζήτηση στο διαδίκτυο στοχεύει να αντλεί υλικό από ένα ευρύ φάσμα δημόσια διαθέσιμων πηγών. Ανέφερε ότι εφαρμόζονται φίλτρα ασφαλείας ώστε να μειώνεται ο κίνδυνος να εμφανιστούν σύνδεσμοι που σχετίζονται με «υψηλής σοβαρότητας» βλάβες και ότι το ChatGPT δείχνει καθαρά ποιες πηγές επηρέασαν μια απάντηση μέσω παραπομπών. Πρόσθεσε ότι υπάρχουν συνεχή προγράμματα για να φιλτράρεται πληροφορία χαμηλής αξιοπιστίας και να αντιμετωπίζονται καμπάνιες επιρροής. Η Anthropic δεν απάντησε σε αίτημα σχολίου από τον Guardian.

Για τους ερευνητές παραπληροφόρησης, το ανησυχητικό στοιχείο είναι ότι πληροφορίες από μια αμφιλεγόμενη πηγή μπορούν να περνούν στις απαντήσεις μεγάλων μοντέλων χωρίς να γίνονται εύκολα αντιληπτές. Την άνοιξη, ειδικοί ασφαλείας είχαν προειδοποιήσει ότι κακόβουλοι παράγοντες, ανάμεσά τους και ρωσικά δίκτυα προπαγάνδας, παράγουν μαζικά όγκους παραπλανητικού υλικού με στόχο να «σπείρουν» ψέματα στο οικοσύστημα που τροφοδοτεί τα μοντέλα. Η πρακτική αυτή έχει περιγραφεί ως «LLM grooming».

Οι ανησυχίες αυτές είχαν εκφραστεί και σε πολιτικό επίπεδο στις ΗΠΑ. Τον Ιούνιο, στο Κογκρέσο διατυπώθηκαν ενστάσεις ότι το Gemini της Google επαναλάμβανε τη θέση της κινεζικής κυβέρνησης για τις παραβιάσεις ανθρωπίνων δικαιωμάτων στο Σιντζιάνγκ και για τις πολιτικές της Κίνας στην πανδημία Covid-19.

H Grokipedia βασίζεται σε αναξιόπιστες πηγές

Η Νίνα Γιανκόβιτς, ερευνήτρια παραπληροφόρησης που έχει εργαστεί πάνω στο LLM grooming, είπε ότι οι παραπομπές του ChatGPT στη Grokipedia εγείρουν παρόμοιους κινδύνους. Εκτίμησε ότι ακόμη κι αν ο Μασκ δεν είχε πρόθεση να επηρεάσει τα μοντέλα, λήμματα που εξέτασε η ίδια με συνεργάτες της βασίζονταν σε πηγές που, όπως είπε, στην καλύτερη περίπτωση είναι αναξιόπιστες και στη χειρότερη περίπτωση αποτελούν σκόπιμη παραπληροφόρηση.

Πρόσθεσε ότι, όταν ένα chatbot παραπέμπει σε μια πηγή, μπορεί άθελά του να της προσδώσει κύρος. Ο χρήστης μπορεί να θεωρήσει ότι, αφού την επικαλείται το ChatGPT, η πληροφορία έχει ελεγχθεί, και να καταλήξει να τη χρησιμοποιεί για ενημέρωση σε ζητήματα όπως ο πόλεμος στην Ουκρανία.

Η Γιανκόβιτς στάθηκε και στο πόσο δύσκολο είναι να «καθαρίσει» μια ανακρίβεια όταν περάσει στα μοντέλα. Έφερε ως παράδειγμα μια πρόσφατη υπόθεση, όπου μεγάλο ειδησεογραφικό μέσο δημοσίευσε σε ρεπορτάζ για την παραπληροφόρηση μια δήλωση που δεν είχε κάνει και την απέδωσε στην ίδια. Η Γιανκόβιτς ζήτησε τη διόρθωση από το μέσο και παράλληλα έκανε γνωστό το περιστατικό στα κοινωνικά δίκτυα.Το μέσο αφαίρεσε τελικά τη φράση, όμως για κάποιο διάστημα μοντέλα τεχνητής νοημοσύνης συνέχισαν να την εμφανίζουν ως δική της. Κατά την ίδια, οι περισσότεροι χρήστες δεν κάνουν τον κόπο να ψάξουν πού βρίσκεται η αλήθεια.

Σε αίτημα για σχόλιο, εκπρόσωπος της xAI, στην οποία ανήκει η Grokipedia, απάντησε: «Τα παραδοσιακά μέσα ενημέρωσης λένε ψέματα (Legacy media lies).»

Με πληροφορίες από Guardian

 
Τech & Science
0

LIVE!

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

ΔΕΙΤΕ ΑΚΟΜΑ

Ο Ben Affleck ίδρυσε αθόρυβα εταιρεία ΑΙ για σκηνοθέτες και μόλις την αγόρασε το Netflix

Τech & Science / Ο Ben Affleck ίδρυσε αθόρυβα εταιρεία ΑΙ για σκηνοθέτες και μόλις την αγόρασε το Netflix

Το Netflix αγόρασε την εταιρεία ΑΙ που είχε ιδρύσει ο Μπεν Άφλεκ για σκηνοθέτες, φέρνοντας την τεχνητή νοημοσύνη από τη θεωρία κατευθείαν στο εσωτερικό της κινηματογραφικής παραγωγής.
THE LIFO TEAM
ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΠΟΛΕΜΟΣ ΗΠΑ ANTHROPIC

Τech & Science / Anthropic και Πεντάγωνο ξανά σε διαπραγματεύσεις για τη χρήση Τεχνητής Νοημοσύνης από τον στρατό

Προ ολίγων ημερών η εταιρεία ήλθε σε ρήξη με την κυβέρνηση Τραμπ - Απαίτησε διαβεβαιώσεις ότι τα AI μοντέλα της δεν θα χρησιμοποιηθούν για «μαζική επιτήρηση Αμερικανών πολιτών» ή «ανάπτυξη αυτόνομων οπλικών συστημάτων»
THE LIFO TEAM
Η τεχνητή νοημοσύνη αποκτά… φιλόσοφο

Τech & Science / Anthropic: Η τεχνητή νοημοσύνη αποκτά… φιλόσοφο

Η εταιρεία τεχνητής νοημοσύνης Anthropic έχει αναθέσει σε φιλόσοφο τη διαμόρφωση του ηθικού πλαισίου του chatbot Claude, δημιουργώντας ένα εσωτερικό «σύνταγμα» 30.000 λέξεων που καθοδηγεί τον τρόπο με τον οποίο το σύστημα απαντά σε σύνθετα ηθικά ζητήματα.
THE LIFO TEAM
OPENAI ΣΑΜ ΑΛΤΜΑΝ ΗΠΑ ΠΕΝΤΑΓΩΝΟ

Τech & Science / OpenAI τροποποιεί τη συμφωνία με το Πεντάγωνο μετά τις αντιδράσεις – «Έμοιαζε ευκαιριακή και πρόχειρη», λέει ο Σαμ Άλτμαν

Περίπου 900 εργαζόμενοι των OpenAI και Google κάλεσαν, μέσω ανοιχτής επιστολής, τις διοικήσεις των εταιρειών να απορρίψουν οποιαδήποτε συνεργασία που θα οδηγούσε σε μαζική παρακολούθηση ή σε αυτόνομα οπλικά συστήματα χωρίς ανθρώπινο έλεγχο
THE LIFO TEAM