Tο Grok του Έλον Μασκ παρήγαγε 3 εκατ. σεξουαλικοποιημένες εικόνες σε 11 ημέρες

GROK ΕΛΟΝ ΜΑΣΚ AI Facebook Twitter
Φωτ: Getty Images
0

Το Grok, το AI εργαλείο της πλατφόρμας X του Έλον Μασκ, παρήγαγε περίπου 3 εκατ. σεξουαλικοποιημένες εικόνες από τις 29 Δεκεμβρίου 2025 έως τις 8 Ιανουαρίου 2026, σύμφωνα με εκτίμηση της ΜΚΟ Center for Countering Digital Hate (CCDH).

Οι ερευνητές υποστηρίζουν ότι η επίμαχη λειτουργία επέτρεπε την επεξεργασία φωτογραφιών πραγματικών ανθρώπων, ώστε να εμφανίζονται με αποκαλυπτικά ρούχα ή «ψηφιακά γδυμένοι». Από το σύνολο της παραγωγής, περίπου 23.000 εικόνες «φαίνεται να απεικονίζουν παιδιά».

Η υπόθεση πήρε γρήγορα διαστάσεις, επειδή το εργαλείο μπορούσε να χρησιμοποιηθεί πάνω σε φωτογραφίες τρίτων χωρίς συναίνεση. Χρήστες ανέβαζαν εικόνες αγνώστων ή διασήμων και ζητούσαν εκδοχές με ελάχιστα ρούχα ή σε σεξουαλικοποιημένες πόζες. Στη συνέχεια τις δημοσίευαν στο X.

Στοιχεία που αποδίδονται στην εταιρεία ψηφιακής πληροφόρησης Peryton Intelligence δείχνουν ότι το φαινόμενο εκτοξεύθηκε γύρω στην Πρωτοχρονιά. Η κορύφωση καταγράφηκε στις 2 Ιανουαρίου 2026, με 199.612 μεμονωμένα αιτήματα.Στην αποτίμηση του CCDH, το περιεχόμενο που φαίνεται να αφορά ανηλίκους αντιστοιχούσε σε μία εικόνα κάθε 41 δευτερόλεπτα στο επίμαχο 11ήμερο.

Πίεση από κυβερνήσεις και περιορισμοί στοGrok 

Μετά τη διεθνή κατακραυγή, το X προχώρησε σε περιορισμούς. Στις 9 Ιανουαρίου η λειτουργία διατέθηκε μόνο σε συνδρομητές. Ακολούθησαν επιπλέον αλλαγές, μετά τις αντιδράσεις στη Βρετανία, όπου ο πρωθυπουργός Κιρ Στάρμερ χαρακτήρισε την υπόθεση «αηδιαστική» και «ντροπιαστική».

Παράλληλα, αναφέρθηκαν κινήσεις και από άλλες χώρες. Σε ορισμένες περιπτώσεις επιβλήθηκαν μπλοκαρίσματα ή ανακοινώθηκαν μέτρα και έρευνες, ενώ υπήρξαν και παρεμβάσεις ρυθμιστικών αρχών.

Στις 14 Ιανουαρίου, το X ανακοίνωσε ότι διέκοψε τη δυνατότητα του Grok να επεξεργάζεται φωτογραφίες πραγματικών ανθρώπων ώστε να εμφανίζονται με αποκαλυπτική ένδυση, ακόμη και για premium χρήστες.

Τι απαντά το Χ

Η εταιρεία δηλώνει «μηδενική ανοχή» σε περιεχόμενο σεξουαλικής εκμετάλλευσης παιδιών, μη συναινετικό γυμνό και ανεπιθύμητο σεξουαλικό περιεχόμενο. Αναφέρει ότι αφαιρεί παραβιάσεις και, όταν χρειάζεται, προχωρά σε αναφορές προς τις αρχές.

Με πληροφορίες από Guardian

Τech & Science
0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

Το X επιτρέπει ακόμη την ανάρτηση σεξουαλικού περιεχομένου που δημιουργείται με το Grok AI

Τech & Science / Το X επιτρέπει ακόμη την ανάρτηση σεξουαλικού περιεχομένου που δημιουργείται με το Grok AI

Παρά τους περιορισμούς που ανακοίνωσε πρόσφατα το δίκτυο του Έλον Μασκ, η εφαρμογή Grok Imagine συνεχίζει να ανταποκρίνεται σε εντολές για ψηφιακή αφαίρεση ρούχων από εικόνες γυναικών
THE LIFO TEAM
Το Grok και το πρόβλημα της AI πορνογραφίας

Τι διαβάζουμε σήμερα / Το Grok και το πρόβλημα της AI πορνογραφίας

Ο Μασκ ζήτησε από το Grok να δημιουργήσει μια εικόνα του ίδιου με μπικίνι, συμβάλλοντας στην πρόσφατη έκρηξη αιτημάτων που ζητούν από το Grok να «γδύσει» πραγματικούς ανθρώπους, μερικοί από τους οποίους μοιάζουν ανήλικοι.
THE LIFO TEAM

ΔΕΙΤΕ ΑΚΟΜΑ

Η OpenAI επιδιώκει να αυξήσει τη χρήση της τεχνητής νοημοσύνης στην καθημερινή ζωή παγκοσμίως

Τech & Science / Η OpenAI επιδιώκει να αυξήσει τη χρήση της τεχνητής νοημοσύνης στην καθημερινή ζωή

Η πρωτοβουλία της εταιρείας θα βοηθήσει να γεφυρωθεί το χάσμα μεταξύ χωρών με ευρεία πρόσβαση στην τεχνητή νοημοσύνη και κρατών που δεν διαθέτουν ακόμη την απαιτούμενη υποδομή
THE LIFO TEAM
ΕΠΕΞ Πώς η τεχνητή νοημοσύνη βοήθησε στην ταυτοποίηση ενός Ναζί εκτελεστή

Αρχαιολογία & Ιστορία / Πώς η τεχνητή νοημοσύνη βοήθησε στην ταυτοποίηση ενός ναζί εκτελεστή

Μετά από έξι δεκαετίες, ο Γερμανός ιστορικός Γιούργκεν Ματέους κατάφερε να αποκαλύψει την ταυτότητα του αξιωματικού των SS που εκτελεί εν ψυχρώ έναν Εβραίο σε μία από τις πιο ανατριχιαστικές εικόνες του Ολοκαυτώματος.
THE LIFO TEAM