Το μυστήριο του «David Mayer»: Γιατί το ChatGPT δεν μπορούσε να πει το συγκεκριμένο όνομα

Το μυστήριο του «David Mayer»: Γιατί το ChatGPT δεν μπορούσε να πει το συγκεκριμένο όνομα Facebook Twitter
Φωτογραφία: Freepik.com
0

Το μυστήριο του «David Mayer» κατέκλυσε το Διαδίκτυο, καθώς το ChatGPT δεν μπορούσε να προφέρει το όνομα ή να παρέχει πληροφορίες για αυτό και όλοι αναρωτιόντουσαν γιατί.

Το απίθανο αίνιγμα προσέλκυσε μια στρατιά τεχνολόγων του Διαδικτύου - και εγείρει σημαντικά ερωτήματα σχετικά με το απόρρητο και το μέλλον της τεχνητής νοημοσύνης.

Το «David Mayer» δεν ήταν ένα ιδιαίτερα γνωστό όνομα μέχρι πρόσφατα, που βρέθηκε στο προσκήνιο του Διαδικτύου. Ο λόγος δεν ήταν κάτι που είπε ή έκανε ένα άτομο με το όνομα «David Mayer», αλλά ο τρόπος με τον οποίο το chatbot ChatGPT αντιμετώπιζε οποιαδήποτε αναφορά του συγκεκριμένου ονόματος, προκαλώντας τους πάντες να λύσουν το «μυστήριο».

Χρήστες που ρώτησαν το ChatGPT «Ποιος είναι ο David Mayer;», εξεπλάγησαν όταν διαπίστωσαν ότι το chatbot εγκατέλειψε την προσπάθεια απάντησης και ενώ προσπαθούσε να συνθέσει ένα κείμενο, τελικά το έσβηνε, εμφανίζοντας ένα μήνυμα σφάλματος: «Δεν μπορώ να παράξω απάντηση».

Το μυστήριο του «David Mayer»: Γιατί το ChatGPT δεν μπορούσε να πει το συγκεκριμένο όνομα Facebook Twitter
Φωτογραφία: Freepik.com

Καθώς η είδηση για το «μυστήριο με το ChatGPT» διαδόθηκε και οι χρήστες ανακάλυψαν ότι μια χούφτα άλλα ονόματα προκάλεσαν παρόμοια ανταπόκριση, οι τεχνικοί του Διαδικτύου άρχισαν να εργάζονται προς τη λύση. Η OpenAI, η εταιρεία πίσω από το ChatGPT , δημοσίευσε αρχικά μια δήλωση λέγοντας: «Μπορεί να υπάρχουν περιπτώσεις όπου το ChatGPT δεν παρέχει συγκεκριμένες πληροφορίες για άτομα για να προστατεύσει το απόρρητό τους». Αργότερα πρόσθεσε: «Ένα από τα εργαλεία μας επισήμανε κατά λάθος αυτό το όνομα και το εμπόδισε να εμφανίζεται στις απαντήσεις, κάτι που δεν θα έπρεπε να έχει κάνει». Εκπρόσωπος του OpenAI επιβεβαίωσε ότι το πρόβλημα διορθώθηκε.

Αλλά ήταν πια πολύ αργά για να σταματήσει η ευρέως διαδεδομένη διαδικτυακή εικασία ότι η OpenAI προσπαθούσε να εμποδίσει το chatbot να δώσει απαντήσεις που θα μπορούσαν να οδηγήσουν την εταιρεία σε νομικές περιπέτειες. Τα τελευταία χρόνια, αρκετοί άνθρωποι επέκριναν δημοσίως ή μήνυσαν την OpenAI ισχυριζόμενοι ότι το ChatGPT τους δυσφημούσε παράγοντας ψευδείς δηλώσεις για αυτούς. Μεταξύ αυτών, ο Jonathan Turley, καθηγητής νομικής στο Πανεπιστήμιο George Washington τον οποίο το ChatGPT κατηγόρησε για σεξουαλική παρενόχληση. Επίσης, ο Brian Hood, δήμαρχος στην Αυστραλία, τον οποίο το ChatGPT κατηγόρησε για δωροδοκία. Ακόμη, ο Μαρκ Γουόλτερς, ένας ραδιοφωνικός παρουσιαστής της Τζόρτζια για τον οποίο το ChatGPT ισχυρίστηκε ότι υπεξαίρεσε χρήματα. Δεν υπάρχουν στοιχεία που να υποστηρίζουν κανέναν από τους ισχυρισμούς αυτούς που έγιναν μέσω AI.

Η απαγόρευση του «David Mayer» είχε σκοπό να εμποδίσει το ChatGPT να εφεύρει πράγματα για ένα πραγματικό πρόσωπο με αυτό το όνομα; 

Το μυστήριο του «David Mayer»: Γιατί το ChatGPT δεν μπορούσε να πει το συγκεκριμένο όνομα Facebook Twitter
Φωτογραφία: Freepik.com

Οι εμπειρογνώμονες για την προστασία δεδομένων θεωρούν ότι αυτό θα μπορούσε να έχει συμβεί αφού εντοπίστηκε ότι και άλλα ονόματα θα μπορούσαν επίσης να προκαλέσουν το ίδιο πρόβλημα. Ένα από αυτά είναι ο Γκουίντο Σκόρτσα, ένας Ιταλός δικηγόρος που δοκιμάζει τακτικά τους κανόνες προστασίας δεδομένων χρησιμοποιώντας τον εαυτό του ως παράδειγμα. Ένα άλλο απαγορευμένο όνομα είναι ο Τζόναθαν Τέρλι, ο Αμερικανός καθηγητής Νομικής. Η OpenAI μπορεί κάλλιστα να αποφάσισε να αποφύγει να ξανασυμβεί το ζήτημα εισάγοντας μια απαγόρευση στο chatbot ώστε να μην τον αναφέρει καθόλου.

Με το όνομα «David Mayer», ωστόσο, δεν υπήρχε κάποιος προφανής υποψήφιος στον πραγματικό κόσμο. Πολλοί διαδικτυακοί σχολιαστές θεώρησαν πως ίσως πρόκειται για τον David Mayer de Rothschild, έναν Βρετανό παραγωγό ταινιών που είναι μέλος της διάσημης οικογένειας τραπεζιτών - αλλά είναι μάλλον απίθανο η απαγόρευση του ονόματος να σχετίζεται με αυτόν, καθώς το ChatGPT απάντησε με χαρά σε ερωτήσεις σχετικά με τον "David de Rothschild". Άλλοι πιστεύουν ότι ο εν λόγω «David Mayer» θα μπορούσε να είναι ένας ιστορικός που πέθανε το 2023 και που έγινε πρωτοσέλιδο το 2018 όταν οι επίσημες υπηρεσίες τον μπέρδεψαν με έναν Τσετσένο τρομοκράτη που χρησιμοποίησε το ίδιο όνομα ως ψευδώνυμο.

Από την άλλη, κάποιος «David Mayer» θα μπορούσε, θεωρητικά, να έχει εκμεταλλευτεί το «δικαίωμα στη λήθη» σύμφωνα με τη νομοθεσία της ΕΕ υποβάλλοντας αίτημα για την κατάργηση του ονόματός του από εργαλεία διαδικτύου, όπως μηχανές αναζήτησης και chatbots. Πάντως, ο Rothschild είπε στον Guardian ότι δεν ζήτησε να αφαιρεθεί το όνομά του από το ChatGPT, λέγοντας ότι η εικασία «οδηγείται από θεωρίες συνωμοσίας».

«Παρά τις θεωρίες, δεν νομίζω ότι υπάρχει καμία πρόθεση εδώ», δήλωσε η Σίλια Λαμ, καθηγήτρια ΜΜΕ και πολιτιστικών σπουδών, και ειδικός σε θέματα διασημοτήτων, στο Πανεπιστήμιο του Νότιγχαμ Ningbo της Κίνας. Σύμφωνα με την πολιτική της OpenAI, οποιοσδήποτε μπορεί να ζητήσει από την εταιρεία να καταργήσει ή να περιορίσει την πρόσβαση σε δεδομένα σχετικά με αυτόν. Αλλά «το απόρρητο δεν είναι τόσο απλό όσο η κατάργηση του ονόματός σας από το Διαδίκτυο ή ο αποκλεισμός της πρόσβασης», είπε η Λαμ. 

Το μυστήριο του «David Mayer»: Γιατί το ChatGPT δεν μπορούσε να πει το συγκεκριμένο όνομα Facebook Twitter
Φωτογραφία: Freepik.com

Ακόμα κι αν η απαγόρευση του «David Mayer» ήταν αποτέλεσμα ενός απλού σφάλματος, η υπόθεση υπογραμμίζει μια θεμελιώδη πρόκληση για την προστασία των δεδομένων στην εποχή της τεχνητής νοημοσύνης, εξηγεί ο Ρόμπεν Μπινς, καθηγητής ανθρωποκεντρικής πληροφορικής και τεχνητής νοημοσύνης στο Πανεπιστήμιο της Οξφόρδης: «Πρέπει να βρούμε τρόπους να κάνουμε μοναδικά τα κοινά ονόματα - γιατί προφανώς υπάρχουν πολλοί "David Mayers" εκεί έξω».

Ο Μπινς, κάποτε, αναφέρθηκε σε ένα διαδικτυακό άρθρο που έλεγε ότι εάν ο ηθοποιός Robbie Coltrane θα μπορούσε να αντικατασταθεί από ένα avatar AI σε ταινίες που έγιναν μετά τον θάνατό του. Μόνο που δεν το είπε ποτέ, στην πραγματικότητα, και ο ιστότοπος στον οποίο φιλοξενήθηκε το άρθρο ήταν γεμάτος περιεχόμενο που δημιουργήθηκε από AI.

Η υποκείμενη τεχνολογία για το ChatGPT και άλλα chatbots που βασίζονται σε μεγάλα γλωσσικά μοντέλα είναι το νευρωνικό δίκτυο, το οποίο προορίζεται να αναπαράγει σε πυρίτιο τις διαδικασίες του ανθρώπινου εγκεφάλου. Επειδή όμως οι εταιρείες πίσω από αυτά τα μοντέλα τεχνητής νοημοσύνης δεν κατανοούν πλήρως πώς λειτουργούν κάτω από την κουκούλα, αναγκάζονται να βασιστούν σε μια παλαιότερη μέθοδο για την εισαγωγή ελέγχων και ισορροπιών: ένα σύστημα, βασισμένο σε κανόνες.

Η συμπεριφορά του ChatGPT όταν αρνείται να εμφανίσει το όνομα «David Mayer» υποδηλώνει ότι του έχει δοθεί ένας αυστηρός κανόνας που μοιάζει περισσότερο με μια προηγούμενη εποχή υπολογιστών: ΑΝ αναφέρεται το "David Mayer", ΤΟΤΕ διαγράψτε μανιωδώς όσα έχετε γράψει και ΕΚΤΥΠΩΣΤΕ «Δεν μπορώ να δώσω απάντηση».

Το ChatGPT έχει αιχμαλωτίσει τη φαντασία του κόσμου τα τελευταία δύο χρόνια παράγοντας κείμενα σαν άνθρωπος. Αλλά σε αυτές τις περιπτώσεις, χτυπά τα σκληρά κωδικοποιημένα προστατευτικά κιγκλιδώματά του και επιστρέφει σε μια πολύ πιο βασική προσέγγιση: Ο υπολογιστής λέει "όχι". Είναι μια ταραχώδης, αποσυντονιστική εμπειρία.

Το μυστήριο του «David Mayer»: Γιατί το ChatGPT δεν μπορούσε να πει το συγκεκριμένο όνομα Facebook Twitter
Φωτογραφία: Freepik.com

Παρά τις εντυπωσιακές εκτιμήσεις των εταιρειών τεχνητής νοημοσύνης και τους τίτλους που προκαλούν δέος σχετικά με τη νοημοσύνη των μηχανών, η ιστορία του «David Mayer» υποδηλώνει ότι ολόκληρη η επιχείρηση βασίζεται σε μια κακώς ελεγχόμενη τεχνική. Καθώς περισσότεροι από εμάς συνειδητοποιούμε τους τρόπους με τους οποίους μπορούμε να καταλήξουμε ακούσια στην απάντηση ενός chatbot, θα μπορούσαμε να αντιμετωπίσουμε περισσότερα προβλήματα που μοιάζουν με τον David Mayer στο μέλλον. 

Με πληροφορίες από The Wall Street Journal

Τech & Science
0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

Τεχνητή νοημοσύνη με συνείδηση; Ναι, μέχρι το 2035 - Οι φόβοι για κοινωνική ρήξη

Τech & Science / Τεχνητή νοημοσύνη με συνείδηση; Ναι μέχρι το 2035 - Οι φόβοι για κοινωνική ρήξη

Η προοπτική για συστήματα τεχνητής νοημοσύνης με δικά τους συμφέροντα και ηθική αξία «δεν είναι πλέον ένα θέμα μόνο για την επιστημονική φαντασία ή το μακρινό μέλλον» λένε οι επιστήμονες
LIFO NEWSROOM

ΔΕΙΤΕ ΑΚΟΜΑ

Το YouTube λέει στους διαφημιστές: «Εμείς είμαστε η νέα τηλεόραση»

TV & Media / «Εμείς είμαστε η νέα τηλεόραση» λέει το YouTube

Στο φετινό Brandcast, το YouTube παρουσίασε νέες σειρές με τον Τρέβορ Νόα, την Άλεξ Κούπερ, τον Καρίμ Ράχμα, τον Ντουέιν Γουέιντ και μερικούς από τους πιο αναγνωρίσιμους δημιουργούς του διαδικτύου. Το μήνυμα ήταν σαφές: αυτό που κάποτε λέγαμε "βλέπω YouTube" αρχίζει να μοιάζει όλο και περισσότερο με κανονικό τηλεοπτικό πρόγραμμα, μόνο που δεν περνά πια από τα παραδοσιακά κανάλια.
THE LIFO TEAM
Ο Πίτερ Τζάκσον στις Κάννες: «Η τεχνητή νοημοσύνη είναι απλώς ένα ειδικό εφέ»

Τech & Science / Ο Πίτερ Τζάκσον στις Κάννες: «Η τεχνητή νοημοσύνη είναι απλώς ένα ειδικό εφέ»

Μετά τον τιμητικό Χρυσό Φοίνικα, ο σκηνοθέτης του Άρχοντα των Δαχτυλιδιών μίλησε για την AI, τα δικαιώματα των ηθοποιών, τον Γκόλουμ του Άντι Σέρκις και το νέο The Hunt for Gollum. ΚΕΙΜΕΝΟ
THE LIFO TEAM
ΕΓΚΕΦΑΛΟΣ ΓΗΡΑΝΣΗ

Τech & Science / Τρεις απολαυστικοί τρόποι να επιβραδύνετε τη γήρανση του εγκεφάλου σας

Ο ανθρώπινος εγκέφαλος «ακμάζει» μέσα από διάφορες προκλήσεις, αλλά δεν χρειάζεται να κάνετε πάντα σκληρή δουλειά για να αποκομίσετε τα οφέλη για την υγεία - Ακολουθούν τρεις απλοί και διασκεδαστικοί τρόποι για να προστατεύσετε τον εγκέφαλό σας καθώς μεγαλώνετε
THE LIFO TEAM
Cate Blanchett, George Clooney και Meryl Streep στηρίζουν νέο σύστημα συναίνεσης για την AI

Τech & Science / Η Κέιτ Μπλάνσετ, ο Τζορτζ Κλούνεϊ και η Μέριλ Στριπ στηρίζουν νέο σύστημα συναίνεσης για την AI

Η Κέιτ Μπλάνσετ συνιδρύει το RSL Media, έναν μη κερδοσκοπικό οργανισμό που θέλει να δώσει σε δημιουργούς και απλούς χρήστες έναν τρόπο να δηλώνουν αν επιτρέπουν ή απαγορεύουν τη χρήση της εικόνας, της φωνής και των έργων τους από συστήματα τεχνητής νοημοσύνης.
THE LIFO TEAM
Το ChatGPT στην Κίνα υπόσχεται να «σε κρατήσει με ασφάλεια» και έγινε meme

Τech & Science / Το ChatGPT στην Κίνα υπόσχεται να «σε κρατήσει με ασφάλεια» και έγινε meme

Στα αγγλικά το ChatGPT έχει τις παύλες, τα έτοιμα σχήματα και τις φράσεις που μυρίζουν AI από μακριά. Στα κινεζικά, οι χρήστες το κοροϊδεύουν επειδή επαναλαμβάνει μια παράξενα τρυφερή φράση, σαν να είναι έτοιμο να τους πιάσει αν πέσουν.
THE LIFO TEAM
Πώς γίνεσαι tech bro: Το Στάνφορντ ως εργοστάσιο των νέων δισεκατομμυριούχων

Τech & Science / Πώς γίνεσαι tech bro: Το Στάνφορντ ως εργοστάσιο εικοσάρηδων δισεκατομμυριούχων

Στο How to Rule the World, ο 21χρονος δημοσιογράφος Θίο Μπέικερ μπαίνει στον κλειστό κόσμο του Στάνφορντ, εκεί όπου επενδυτές, hackathons και ελίτ φοιτητικές λέσχες μαθαίνουν σε παιδιά είκοσι ετών να σκέφτονται σαν μελλοντικοί άρχοντες της Σίλικον Βάλεϊ. Το πιο παράλογο; Μερικοί παίρνουν χρηματοδότηση πριν σκεφτούν καν τι εταιρεία θέλουν να φτιάξουν.
THE LIFO TEAM
Η νέα βιτρίνα της μόδας βρίσκεται πια κάτω από το πόστ σου

Τech & Science / Η νέα βιτρίνα της μόδας βρίσκεται πια κάτω από το πόστ σου

Οι μάρκες μόδας και ομορφιάς δεν αρκούνται πια στο τέλειο post. Μπαίνουν όλο και πιο ενεργά στα σχόλια του Instagram και του TikTok, εκεί όπου η Gen Z ψάχνει προϊόντα, συγκρίνει γνώμες και αποφασίζει τι μπορεί να εμπιστευτεί. Το πιο υποτιμημένο σημείο των social media γίνεται η νέα βιτρίνα τους.
THE LIFO TEAM
Το SheerLuxe έφτιαξε AI influencers και οι αναγνώστριες δεν το συγχώρεσαν

Τech & Science / Το SheerLuxe έφτιαξε AI influencers και οι αναγνώστριες δεν το συγχώρεσαν

Η βρετανική πλατφόρμα μόδας και lifestyle παρουσίασε τέσσερις ψηφιακές influencers για συμβουλές ομορφιάς και styling στο Instagram, προκαλώντας έντονες αντιδράσεις. Οι αναγνώστριες κατηγόρησαν το SheerLuxe ότι προωθεί μη ρεαλιστικά πρότυπα ομορφιάς και αντικαθιστά πραγματικές γυναίκες με avatars που δεν μπορούν καν να δοκιμάσουν τα προϊόντα που προτείνουν.
THE LIFO TEAM