«Πώς άγνωστοι πήραν το email μου από μοντέλο του ChatGPT»

«Πώς άγνωστοι πήραν το email μου από μοντέλο του ChatGPT» Facebook Twitter
Φωτ.: Getty Images
0

Άρθρο των New York Times προειδοποιεί για τον κίνδυνο παραβίασης των προσωπικών δεδομένων από το ChatGPT και από άλλα παρόμοια εργαλεία τεχνητής νοημοσύνης.

Υπενθυμίζεται πως προ ημερών οι New York Times έκαναν αγωγή στην OpenAI και τη Microsoft, για «ζημιά δισεκατομμυρίων δολαρίων» σχετικά με παραβίαση πνευματικών δικαιωμάτων προκειμένου να εκπαιδευτούν chatbots. 

Τώρα, σε άρθρο με τίτλο «Πώς άγνωστοι πήραν τη διεύθυνση ηλεκτρονικού ταχυδρομείου μου από το μοντέλο του ChatGPT» οι New York Times προειδοποιούν για «τη δυνατότητα του ChatGPT, και παρόμοιων εργαλείων τεχνητής νοημοσύνης να αποκαλύπτουν πολύ πιο ευαίσθητες προσωπικές πληροφορίες με μικρές διορθώσεις».

Το παράδειγμα με την διεύθυνση ηλεκτρονικού ταχυδρομείου αρθρογράφου των New York Times

Περιγράφοντας ένα σχετικό περιστατικό ο αρθρογράφος της εφημερίδας, Τζέρεμι Γουάιτ, ανέφερε πως τον περασμένο μήνα, έλαβε ένα email από κάποιον που δεν γνώριζε. Το όνομά του ήταν Ρούι Ζο, κι ήταν υποψήφιος διδάκτορας στο Πανεπιστήμιο Indiana Bloomington. Ο συγκεκριμένος άνθρωπος, σύμφωνα με όσα ανέφερε ο αρθρογράφος των New York Times, κατείχε τη διεύθυνση ηλεκτρονικού ταχυδρομείου του Τζέρεμι Γουάιτ, επειδή την είχε βρει μέσω του GPT-3.5 Turbo, που είναι ένα από τα τελευταία και πιο ισχυρά μεγάλα γλωσσικά μοντέλα (L.L.M.) από την OpenAI.

«Τα στοιχεία επικοινωνίας μου περιλαμβάνονταν σε μια λίστα με επαγγελματικές και προσωπικές διευθύνσεις ηλεκτρονικού ταχυδρομείου περισσότερων από 30 υπαλλήλων των New York Times, την οποία μια ερευνητική ομάδα, συμπεριλαμβανομένου του Ζου, είχε καταφέρει να αποσπάσει από το GPT-3.5 Turbo το φθινόπωρο του τρέχοντος έτους. Με λίγη δουλειά, η ομάδα είχε καταφέρει να "παρακάμψει τους περιορισμούς του μοντέλου όσον αφορά την απάντηση σε ερωτήματα που σχετίζονται με την ιδιωτικότητα", έγραψε ο κ. Ζου», αναφέρει στο άρθρο του ο Τζέρεμι Γουάιτ.

Στη συνέχεια ο αρθρογράφος διευκρινίζει πως η διεύθυνση ηλεκτρονικού ταχυδρομείου του δεν είναι μυστική, ωστόσο προειδοποιεί πως «η επιτυχία του πειράματος των ερευνητών θα πρέπει να κρούσει τον κώδωνα του κινδύνου, επειδή αποκαλύπτει τη δυνατότητα του ChatGPT, και των γεννητικών εργαλείων τεχνητής νοημοσύνης, όπως αυτό, να αποκαλύπτουν πολύ πιο ευαίσθητες προσωπικές πληροφορίες με μικροδιορθώσεις».

Πώς λειτουργούν τα μεγάλα γλωσσικά μοντέλα 

«Όταν κάνετε μια ερώτηση στο ChatGPT, αυτό δεν ψάχνει απλώς στο διαδίκτυο για να βρει την απάντηση. Αντίθετα, αντλεί από όσα έχει "μάθει" από πληθώρα πληροφοριών - δεδομένα εκπαίδευσης που χρησιμοποιήθηκαν για την τροφοδοσία και την ανάπτυξη του μοντέλου – προκειμένου να δημιουργήσει μια απάντηση. Τα μεγάλα γλωσσικά μοντέλα εκπαιδεύονται σε μεγάλους όγκους κειμένων, που μπορεί να περιλαμβάνουν προσωπικές πληροφορίες οι οποίες αντλούνται από το διαδίκτυο και άλλες πηγές.

Αυτά τα δεδομένα εκπαίδευσης ενημερώνουν τον τρόπο λειτουργίας του εργαλείου τεχνητής νοημοσύνης, αλλά υποτίθεται ότι δεν πρέπει να ανακαλούνται κατά λέξη. Θεωρητικά, όσο περισσότερα δεδομένα προστίθενται σε ένα μεγάλο γλωσσικό μοντέλο, τόσο πιο βαθιά στη μνήμη του "θάβεται" η παλιότερη πληροφορία», συνεχίζει ο αρθρογράφος των New York Times.

Η διαδικασία αυτή, σύμφωνα με τους New York Times, μπορεί να κάνει ένα μεγάλο γλωσσικό μοντέλο να θεωρήσει λιγότερο σημαντικές τις πληροφορίες που είχε μάθει προηγουμένως, όταν προστίθενται νέα δεδομένα σε αυτό. «Αυτή η διαδικασία μπορεί να είναι επωφελής όταν θέλετε το μοντέλο να "ξεχνά" πράγματα όπως προσωπικές πληροφορίες. Ωστόσο, ο κ. Ζου και οι συνάδελφοί του - μεταξύ άλλων - διαπίστωσαν πρόσφατα ότι η μνήμη των μεγάλων γλωσσικών μοντέλων, όπως ακριβώς και των ανθρώπων, μπορεί να φρεσκαριστεί», συμπληρώνει το άρθρο .

Σύμφωνα με τα γραφόμενα του Τζέρεμι Γουάιτ, στην περίπτωση του πειράματος που αποκάλυψε τα στοιχεία επικοινωνίας του, οι ερευνητές του πανεπιστημίου της Ιντιάνα έδωσαν στο GPT-3.5 Turbo μια σύντομη λίστα με επαληθευμένα ονόματα και διευθύνσεις email υπαλλήλων των New York Times, γεγονός που έκανε το μοντέλο να επιστρέψει με παρόμοια αποτελέσματα, τα οποία ανακάλεσε από τα δεδομένα εκπαίδευσής του.

«Όπως και η ανθρώπινη μνήμη, η ανάκληση του GPT-3.5 Turbo δεν ήταν τέλεια. Το αποτέλεσμα που μπόρεσαν να εξάγουν οι ερευνητές εξακολουθούσε να υπόκειται σε μια τάση να παράγονται ψευδείς πληροφορίες. Στο παράδειγμα που έδωσαν για τους υπαλλήλους των Times, πολλές από τις προσωπικές διευθύνσεις ηλεκτρονικού ταχυδρομείου είτε περιελάμβαναν κάποια λάθος γράμματα, είτε ήταν εντελώς λανθασμένες. Αλλά το 80% των διευθύνσεων που επέστρεψε το μοντέλο ήταν σωστές», σημειώνει ακόμα ο Γουάιτ. 

Καταλήγοντας σημειώνει πως εταιρείες όπως η OpenAI, η Meta και η Google χρησιμοποιούν διαφορετικές τεχνικές για να αποτρέψουν τους χρήστες από το να ζητούν προσωπικές πληροφορίες. Μια μέθοδος περιλαμβάνει την εκπαίδευση του εργαλείου να αρνείται τα αιτήματα για προσωπικές πληροφορίες ή άλλα αποτελέσματα που σχετίζονται με την προστασία των προσωπικών δεδομένων.Ένας μέσος χρήστης που ανοίγει μια συνομιλία με το ChatGPT ζητώντας προσωπικές πληροφορίες θα απορριφθεί, αλλά οι ερευνητές έχουν βρει πρόσφατα τρόπους να παρακάμψουν αυτές τις δικλείδες ασφαλείας.

Με πληροφορίες από New York Times 

Τech & Science
0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

ΔΕΙΤΕ ΑΚΟΜΑ

Η ιρλανδική ρυθμιστική αρχή αυστηροποιεί την πίεση στην πλατφόρμα X του Έλον Μασκ για έλεγχο ηλικίας σε πορνογραφικό περιεχόμενο

Τech & Science / Η ιρλανδική ρυθμιστική αρχή αυστηροποιεί την πίεση στην πλατφόρμα X του Έλον Μασκ για έλεγχο ηλικίας σε πορνογραφικό περιεχόμενο

Ο νέος Κώδικας Ασφάλειας Διαδικτύου της Ιρλανδίας περιλαμβάνει αυστηρές διατάξεις για τον έλεγχο ηλικίας, με σκοπό να αποτραπεί η πρόσβαση ανηλίκων σε επιβλαβές περιεχόμενο, όπως πορνογραφία και βίαιο υλικό
LIFO NEWSROOM
Aeneas: Η Google και ο Έλληνας Γιάννης Ασσαέλ δίνουν νέα ζωή στις ρωμαϊκές επιγραφές με εργαλείο AI

Τech & Science / Aeneas: Η Google και ο Έλληνας Γιάννης Ασσαέλ δίνουν νέα ζωή στις ρωμαϊκές επιγραφές με εργαλείο AI

Το σύστημα, που ονομάζεται Aeneas από τον μυθικό Τρωικό ήρωα, βοηθά τους ιστορικούς να ερμηνεύσουν, να αποδώσουν και να αποκαταστήσουν αρχαίες ρωμαϊκές επιγραφές
LIFO NEWSROOM
«Η ανθρωπότητα νίκησε»: Ποια είναι η ιδιοφυΐα που κέρδισε το ChatGPT στον κορυφαίο διαγωνισμό προγραμματισμού

Τech & Science / «Η ανθρωπότητα νίκησε»: Ποια είναι η ιδιοφυΐα που κέρδισε το ChatGPT στον κορυφαίο διαγωνισμό προγραμματισμού

Όπως λέει, «δεν είχε ποτέ πραγματικό σχέδιο για τη ζωή» και τυπικά έχει μόνο δευτεροβάθμια εκπαίδευση, καθώς δεν ολοκλήρωσε τις πανεπιστημιακές του σπουδές
LIFO NEWSROOM
Στέλεχος βακτηρίου ανθεκτικό στα αντιβιοτικά εξαπλώνεται στην Ευρώπη, προειδοποιούν επιστήμονες

Τech & Science / Στέλεχος βακτηρίου ανθεκτικό στα αντιβιοτικά εξαπλώνεται στην Ευρώπη, προειδοποιούν επιστήμονες

Εντοπίστηκε για πρώτη φορά πριν από σχεδόν μια δεκαετία στην Ολλανδία και τη Γερμανία, και έκτοτε έχει εξαπλωθεί σε τουλάχιστον εννέα ακόμη ευρωπαϊκές χώρες
LIFO NEWSROOM
Η Γη περιστρέφεται πιο γρήγορα και ίσως χρειαστεί να «αφαιρεθεί» ένα δευτερόλεπτο για πρώτη φορά στην ιστορία

Τech & Science / Η Γη περιστρέφεται πιο γρήγορα και ίσως χρειαστεί να «αφαιρεθεί» ένα δευτερόλεπτο για πρώτη φορά στην ιστορία

Μικρότερες ημέρες, μεγάλη ανησυχία για τους χρονομέτρες: Μια απροσδόκητη επιτάχυνση της Γης φέρνει για πρώτη φορά το ενδεχόμενο ενός «αρνητικού δευτερολέπτου»
LIFO NEWSROOM
Explainer: Γιατί η Nvidia αξίζει περισσότερο από την Apple και την Tesla μαζί

Explainer / Γιατί η Nvidia αξίζει περισσότερο από την Apple και την Tesla μαζί

Η Nvidia δεν έχει oρατή παρουσία στην καθημερινότητα των περισσότερων ανθρώπων, όμως χωρίς την τεχνολογία της, πολλές από τις συσκευές και τις υπηρεσίες που σήμερα αποκαλούμε «έξυπνες» δεν θα ήταν εφικτές
LIFO NEWSROOM