Το Grok, το εργαλείο τεχνητής νοημοσύνης του Έλον Μασκ, απενεργοποίησε τη λειτουργία δημιουργίας εικόνων για τη συντριπτική πλειονότητα των χρηστών, έπειτα από εκτεταμένη κατακραυγή για τη χρήση του στη δημιουργία σεξουαλικών εικόνων με γυναίκες και παιδιά.
Η απόφαση έρχεται έπειτα από προειδοποιήσεις για πρόστιμα, ρυθμιστικές κυρώσεις και αναφορές περί ενδεχόμενης απαγόρευσης της πλατφόρμας X στο Ηνωμένο Βασίλειο.
Η λειτουργία επεξεργασίας εικόνων απενεργοποιήθηκε για όλους εκτός από τους συνδρομητές επί πληρωμή.
Σε ανάρτησή του στην πλατφόρμα X, το Grok ανέφερε: «Η δημιουργία και επεξεργασία εικόνων περιορίζεται προς το παρόν στους συνδρομητές επί πληρωμή».
Αυτό σημαίνει ότι η συντριπτική πλειονότητα των χρηστών της πλατφόρμας δεν μπορεί πλέον να δημιουργεί εικόνες μέσω του Grok, ενώ όσοι εξακολουθούν να έχουν πρόσβαση διαθέτουν πλήρη στοιχεία και στοιχεία πιστωτικής κάρτας καταχωρημένα στην X, γεγονός που καθιστά δυνατή την ταυτοποίησή τους σε περίπτωση κατάχρησης της λειτουργίας.
Έρευνα που αποκάλυψε η εφημερίδα Guardian έδειξε ότι το εργαλείο είχε χρησιμοποιηθεί για τη δημιουργία πορνογραφικών βίντεο γυναικών χωρίς τη συγκατάθεσή τους, καθώς και εικόνων γυναικών που πυροβολούνται και σκοτώνονται.
Ο Μασκ αντιμετωπίζει την απειλή ρυθμιστικών μέτρων από χώρες σε όλο τον κόσμο, μετά τη χρήση του Grok για τη δημιουργία μη συναινετικού σεξουαλικού περιεχομένου.
Ο πρωθυπουργός του Ηνωμένου Βασιλείου, Κιρ Στάρμερ, την Τετάρτη απείλησε με αυστηρά μέτρα κατά της εταιρείας κοινωνικής δικτύωσης.
Ζήτησε από την X να «βάλει τάξη» στον καταιγισμό φωτογραφιών μερικώς ντυμένων γυναικών και παιδιών που έχουν δημιουργηθεί με τεχνητή νοημοσύνη στην πλατφόρμα, χαρακτηρίζοντας το περιεχόμενο «ντροπιαστικό» και «αηδιαστικό».
Ο Στάρμερ δήλωσε ότι η ρυθμιστική αρχή επικοινωνιών Ofcom στο Ηνωμένο Βασίλειο «έχει την πλήρη στήριξή μας για να αναλάβει δράση», προσθέτοντας: «Είναι παράνομο. Δεν θα το ανεχτούμε. Ζήτησα να εξεταστούν όλες οι επιλογές. Είναι αηδιαστικό. Η X πρέπει να συνέλθει και να αποσύρει αυτό το υλικό. Θα αναλάβουμε δράση, γιατί αυτό απλώς δεν είναι ανεκτό».
Με πληροφορίες από Guardian