«Το Grok υποκινεί το μίσος» λένε οι εμπειρογνώμονες για το λογισμικό τεχνητής νοημοσύνης της X

«Το Grok υποκινεί το μίσος» λένε οι εμπειρογνώμονες για το λογισμικό τεχνητής νοημοσύνης της X Facebook Twitter
Grok / Φωτ.: Unsplash
0

Η αύξηση του διαδικτυακού ρατσισμού και της ρητορικής μίσους που οφείλεται σε ψεύτικες εικόνες είναι «μόνο η αρχή ενός επερχόμενου προβλήματος» μετά την τελευταία έκδοση του λογισμικού τεχνητής νοημοσύνης της X, Grok, προειδοποίησαν ειδικοί σε θέματα διαδικτυακής κατάχρησης.

Οι ανησυχίες των εμπειρογνωμόνων εκφράστηκαν αφού fake εικόνες που δημιουργήθηκαν από υπολογιστή με τη χρήση του Grok, του generative chatbot τεχνητής νοημοσύνης της X, κατέκλυσαν τον ιστότοπο κοινωνικής δικτύωσης τον περασμένο Δεκέμβριο.

Η Signify, μια οργάνωση που συνεργάζεται με εξέχουσες ομάδες και συλλόγους στον αθλητισμό για τον εντοπισμό και την αναφορά διαδικτυακού μίσους, δήλωσε ότι έχει παρατηρήσει αύξηση των αναφορών κακοποίησης μετά την τελευταία ενημέρωση του Grok και πιστεύει ότι η εισαγωγή της φωτορεαλιστικής τεχνητής νοημοσύνης θα την κάνει πολύ πιο διαδεδομένη.

«Είναι ένα πρόβλημα τώρα, αλλά στην πραγματικότητα είναι μόνο η αρχή ενός επερχόμενου προβλήματος. Θα γίνει πολύ χειρότερο και βρισκόμαστε μόλις στην αρχή, αναμένουμε ότι μέσα στους επόμενους 12 μήνες θα γίνει απίστευτα σοβαρό» σημείωσε η Signify. 

Το Grok ξεκίνησε το 2023 από τον Έλον Μασκ και πρόσφατα απέκτησε μια νέα λειτουργία μετατροπής κειμένου σε εικόνα με την ονομασία Aurora, η οποία δημιουργεί φωτορεαλιστικές εικόνες τεχνητής νοημοσύνης με βάση απλές οδηγίες που γράφει ο χρήστης.

Μια προηγούμενη, λιγότερο προηγμένη έκδοση, που ονομαζόταν Flux, προκάλεσε αντιδράσεις νωρίτερα φέτος, καθώς διαπιστώθηκε ότι μπορούσε να κάνει πράγματα που πολλά άλλα παρόμοια λογισμικά δεν θα έκαναν, όπως να απεικονίζει χαρακτήρες που προστατεύονται από πνευματικά δικαιώματα και δημόσια πρόσωπα σε συμβιβαστικές θέσεις, να παίρνουν ναρκωτικά ή να διαπράττουν πράξεις βίας.

Υπήρξαν αρκετές αναφορές ότι η νεότερη ενημέρωση Grok χρησιμοποιήθηκε για τη δημιουργία φωτορεαλιστικών ρατσιστικών -και fake- εικόνων με κεντρικά πρόσωπα ποδοσφαιριστές και μάνατζερ. Μία από τις fake εικόνες απεικονιζε έναν παίκτη, ο οποίος είναι μαύρος, να μαζεύει βαμβάκι, ενώ μια άλλη έδειχνε τον ίδιο παίκτη να τρώει μια μπανάνα περιτριγυρισμένος από μαϊμούδες σε ένα δάσος. Μια άλλη ψεύτικη εικόνα απεικόνιζε δύο διαφορετικούς παίκτες ως πιλότους στο πιλοτήριο ενός αεροπλάνου με φόντο τους Δίδυμους Πύργους. Άλλες fake εικόνες έδειχναν παίκτες να συναντούν και να συνομιλούν με τον Χίτλερ, τον Σαντάμ Χουσεΐν και τον Οσάμα Μπιν Λάντεν.

Ο Callum Hood, επικεφαλής της έρευνας στο Κέντρο για την Αντιμετώπιση του Ψηφιακού Μίσους (CCDH), δήλωσε ότι το X έχει γίνει μια πλατφόρμα που δίνει κίνητρα και ανταμείβει τη διάδοση του μίσους μέσω του διαμοιρασμού των εσόδων, και οι εικόνες τεχνητής νοημοσύνης το καθιστούν ακόμη πιο εύκολο.

«Αυτό που έχει κάνει το X, σε βαθμό που καμία άλλη mainstream πλατφόρμα δεν το έχει κάνει, είναι να προσφέρει χρηματικά κίνητρα σε λογαριασμούς για να το κάνουν αυτό, οπότε οι λογαριασμοί στο X δημοσιεύουν πολύ συνειδητά το πιο γυμνό μίσος και την παραπληροφόρηση» συμπλήρωσε. 

Μια βασική ανησυχία που περιγράφεται από πολλούς είναι όχι μόνο η σχετική έλλειψη περιορισμών σχετικά με το τι μπορούν να ζητήσουν οι χρήστες, αλλά και η ευκολία με την οποία οι προτροπές που δίνονται στο Grok μπορούν να παρακάμψουν τις κατευθυντήριες γραμμές της AI με «jailbreak», το οποίο περιλαμβάνει την περιγραφή των φυσικών χαρακτηριστικών οποιουδήποτε θέλει ο «δημιουργός» της εικόνας, αντί απλώς να τον κατονομάσει. Μια καλοκαιρινή έκθεση που δημοσιεύθηκε από το CCDH διαπίστωσε ότι όταν δόθηκαν διαφορετικές προτροπές μίσους, το Grok δημιούργησε το 80% από αυτές.

Με πληροφορίες από Guardian

Τech & Science
0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

Meta

Τech & Science / Η κίνηση της Meta να τερματίσει το fact checking προκαλεί ανησυχίες στους διαφημιζόμενους

Πολλοί επικεφαλής διαφημιστικών εταιρειών δήλωσαν στους FT ότι η κίνηση της Meta να τερματίσει το fact checking και να αποδυναμώσει τις πολιτικές για τη ρητορική μίσους θα μπορούσε να κοστίσει στον κολοσσό των social media
LIFO NEWSROOM
Meta: ΛΟΑΤΚΙ+ εργαζόμενοι παίρνουν άδεια «ψυχικής ασθένειας» μετά την κατάργηση του fact checking

Διεθνή / Meta: ΛΟΑΤΚΙ+ εργαζόμενοι παίρνουν άδεια «ψυχικής ασθένειας» μετά την κατάργηση του fact checking

Σφοδρές αντιδράσεις για τις αλλαγές που επιτρέπουν στους χρήστες των social να αποκαλούν μέλη της ΛΟΑΤΚΙ+ κοινότητας «ψυχικά άρρωστα» λόγω του σεξουαλικού προσανατολισμού ή της ταυτότητας φύλου τους
LIFO NEWSROOM
Στο νέο Facebook, οι χρήστες θα μπορούν να αποκαλούν «ψυχασθενείς» τα μέλη της ΛΟΑΤΚΙ+ κοινότητας

Τech & Science / Στο νέο Facebook, οι χρήστες θα μπορούν να αποκαλούν «ψυχασθενείς» τα ΛΟΑΤΚΙ+ άτομα

Πώς οι αλλαγές του Ζούκερμπεργκ θα επιτρέπουν τη ρητορική μίσους - Ο καθένας θα μπορεί να αποκαλεί τις γυναίκες «αντικείμενα του σπιτιού», στο πλαίσιο των σαρωτικών αλλαγών στις πλατφόρμες της Meta
LIFO NEWSROOM

ΔΕΙΤΕ ΑΚΟΜΑ

Γερμανία: Διαδικτυακή μηχανή αναζήτησης βοηθά ανθρώπους να ανακαλύψουν αν οι πρόγονοί τους ήταν Ναζί

Τech & Science / Γερμανία: Νέα μηχανή αναζήτησης αποκαλύπτει αν οι πρόγονοι κάποιου ήταν Ναζί

Πολλοί χρήστες δήλωσαν ότι ανακάλυψαν άγνωστες πτυχές για τις οικογένειές τους, κάτι που άλλαξε την εικόνα που είχαν για το παρελθόν τους, ενώ για κάποιους αποτέλεσε σοκ να συνειδητοποιήσουν την εμπλοκή συγγενών τους
THE LIFO TEAM
ΚΑΡΚΙΝΟΣ ΑΝΟΣΟΘΕΡΑΠΕΙΑ

Τech & Science / «Σαν σενάριο επιστημονικής φαντασίας»: Πώς η νέα γενιά ανοσοθεραπείας μπορεί να νικήσει τον καρκίνο

Η νέα ανοσοθεραπεία φέρνει εντυπωσιακά αποτελέσματα κατά του καρκίνου, με την επιστημονική κοινότητα να μιλά ακόμη και για μια νέα εποχή στην ογκολογία
THE LIFO TEAM
SOCIAL MEDIA ΑΥΣΤΡΑΛΙΑ ΑΝΗΛΙΚΟΙ

Τech & Science / Απαγόρευση social media στην Αυστραλία: Τα δύο τρίτα των ανηλίκων εξακολουθούν να έχουν πρόσβαση

Παρά την αυστηρή απαγόρευση που εφαρμόστηκε πριν από τέσσερις μήνες στη χώρα, νέα έρευνα δείχνει ότι η πλειονότητα των ανήλικων εξακολουθεί να έχει πρόσβαση στα social media
THE LIFO TEAM
Είναι το Mythos της Anthropic τόσο έξυπνο και δυνατό που καταντά επικίνδυνο;

Τech & Science / Είναι το Mythos της Anthropic τόσο έξυπνο και δυνατό που καταντά επικίνδυνο;

To εργαστήριο της Anthropic δηλώνει ιδιαίτερα θορυβημένo από την ικανότητα του συστήματος να εντοπίζει τρωτά σημεία λογισμικού και είτε να τα επιδιορθώνει (λειτουργώντας αμυντικά) είτε να τα εκμεταλλεύεται (λειτουργώντας ως χάκερ)
THE LIFO TEAM
ΠΡΟΩΡΟΣ ΤΟΚΕΤΟΣ ΧΗΜΙΚΕΣ ΟΥΣΙΕΣ ΠΛΑΣΤΙΚΑ

Τech & Science / Πρόωρος τοκετός: Τι είναι ο φθαλικός εστέρας και γιατί είναι επικίνδυνος

Νέα μελέτη διαπίστωσε ότι μια χημική ουσία που υπάρχει παντού γύρω μας θα μπορούσε να έχει συμβάλει σε 2 εκατομμύρια πρόωρους τοκετούς. Ωστόσο, δεν επηρεάζονται όλα τα μέρη του κόσμου στον ίδιο βαθμό.
THE LIFO TEAM