Η πορνογραφία και κατ' επέκταση η βιομηχανία του πορνό ήταν πάντα πεδίο δοκιμών για τις νέες τεχνολογίες, καθώς από την τυπογραφία του Γουτεμβέργιου μέχρι τη βιντεοκασέτα, το Minitel και το διαδίκτυο, οι καινοτομίες υιοθετήθηκαν πρώτα από τη βιομηχανία ενηλίκων.
Το ίδιο συμβαίνει τώρα και με την τεχνητή νοημοσύνη, περιγράφει ο Economist στο νέο του άρθρο για το πώς το AI έχει «εισβάλλει», πλέον, στην πορνογραφία και για τους κινδύνους, που εγκυμονεί για τα θύματα σεξουαλικής εκμετάλλευσης.
Παρότι πολλές εταιρείες διστάζουν να ενσωματώσουν την ΑΙ, η παραγωγή πορνογραφικού περιεχομένου με αλγορίθμους έχει ήδη εκτοξευθεί. Οι ιστοσελίδες ενηλίκων κατακλύζονται από εικόνες και βίντεο που δημιουργούνται από μοντέλα τεχνητής νοημοσύνης. Μεγάλες εταιρείες του κλάδου μπαίνουν επίσης στο παιχνίδι: το Grok της xAI έχει «spicy mode», ενώ η OpenAI θα επιτρέπει ερωτικό περιεχόμενο στο ChatGPT από τον Δεκέμβριο, μόνο σε όσους και όσες έχουν ταυτοποιηθεί ως ενήλικες.
Το AI στο πορνό: Τα κέρδη μίας βιομηχανίας
Μάλιστα, η αγορά ΑΙ-πορνογραφίας υπολογίζεται φέτος στα 2,5 δισ. δολάρια και αναμένεται να αυξάνεται με 27% ετησίως ως το 2028.
Ειδικοί εκτιμούν πως η ταχύτητα υιοθέτησης της τεχνολογίας δημιουργεί υπαρξιακά ερωτήματα για ολόκληρο τον κλάδο. Αρχικά, θα παραγκωνιστούν οι ηθοποιοί; Θα πληρώνει κάποιος για «αληθινό» περιεχόμενο όταν το συνθετικό θα είναι άπειρο, φθηνό και προσαρμοσμένο στις φαντασιώσεις του χρήστη; Και τι θα συμβεί με τα παραδοσιακά στούντιο και τις πλατφόρμες που κυριάρχησαν επί δεκαετίες;
Η ΑΙ καθιστά εφικτή την παραγωγή πορνογραφίας κατά παραγγελία. Κάποια συστήματα επιτρέπουν στον χρήστη να «δημιουργεί» τον ιδανικό σύντροφο, από το σώμα και το πρόσωπο μέχρι την προσωπικότητα, και να «τον» βάζει να εκτελεί οποιοδήποτε σενάριο. Άλλες εφαρμογές δημιουργούν απλώς ερωτισμό σε μορφή κειμένου ή ήχου.
Το AI στο πορνό: Ποιοι οι κίνδυνοι
Ωστόσο, πολλές από αυτές τις τεχνολογίες χρησιμοποιούνται και για προβληματικές πρακτικές: εφαρμογές «nudify» που αφαιρούν ψηφιακά ρούχα από φωτογραφίες, deepfakes που χρησιμοποιούνται για απάτες και εκβιασμούς, και τρόποι παράκαμψης των περιορισμών για υλικό σεξουαλικής κακοποίησης ανηλίκων. Ο αριθμός τέτοιων εικόνων που εντοπίζει το Internet Watch Foundation έχει υπερδιπλασιαστεί μέσα σε έναν χρόνο.
Οι επιπτώσεις αφορούν τόσο τους δημιουργούς περιεχομένου όσο και τις πλατφόρμες. Η ζήτηση για πραγματικούς ηθοποιούς δεν θα μηδενιστεί, αλλά η ΑΙ γίνεται όλο και πιο δύσκολο να ξεχωρίσει από το πραγματικό.
Μάλιστα, μερικοί σταρ της βιομηχανίας πορνό έχουν αρχίσει να παραχωρούν τα δικαιώματα της εικόνας τους για να δημιουργηθούν ψηφιακά «avatars» που δουλεύουν για αυτούς. Στις πλατφόρμες συνδρομών, η ΑΙ ήδη αυτοματοποιεί το μοντάζ, την παραγωγή βίντεο και την προσωπική επικοινωνία με θαυμαστές.
Παράλληλα όμως, η τεχνολογία αυξάνει τον κίνδυνο παράνομης και κακοποιητικής χρήσης: βαθιά ψευδεπίγραφα βίντεο που μπορούν να δημιουργηθούν από μία μόνο φωτογραφία, υλικό ακραίας βίας που μιμείται τάσεις που έχουν γίνει δημοφιλείς στο διαδικτυακό πορνό, και εφαρμογές πλήρους παραποίησης ταυτότητας.
Πού είναι επικίνδυνη η τεχνητή νοημοσύνη
Οι ρυθμιστικές αρχές ανησυχούν κυρίως για τη χρήση της τεχνητής νοημοσύνης στην παραγωγή περιεχομένου που θα ήταν παράνομο αν αφορούσε πραγματικούς ανθρώπους. Το Internet Watch Foundation (IWF) έχει εντοπίσει χιλιάδες AI-generated εικόνες οι οποίες απεικονίζουν σεξουαλική κακοποίηση ανηλίκων και κυκλοφορούν ήδη στο διαδίκτυο. Οι σχετικές αναφορές έχουν υπερδιπλασιαστεί μέσα στο 2025 σε σχέση με όλο το 2024, ενώ η ποιότητα αυτών των εικόνων γίνεται ολοένα πιο ρεαλιστική και βίαιη.
Παρότι τα περισσότερα μοντέλα AI προσπαθούν να μπλοκάρουν την παραγωγή παράνομου περιεχομένου, πολλοί χρήστες κατεβάζουν open-source εκδόσεις τοπικά στους υπολογιστές τους και παρακάμπτουν τους περιορισμούς χρησιμοποιώντας κρυφούς ή κωδικοποιημένους όρους.
Κάποιοι υπερασπιστές της ελευθερίας του λόγου υποστηρίζουν ότι, αφού δεν βλάπτονται πραγματικά παιδιά, τέτοιες εικόνες δεν θα έπρεπε να ποινικοποιούνται. Ωστόσο, η εξοικείωση με τέτοιο υλικό θεωρείται ότι μπορεί να ενισχύσει πραγματικούς κινδύνους και να κανονικοποιήσει συμπεριφορές σεξουαλικής βίας.
Υπάρχουν ήδη ενδείξεις ότι πιο επιθετικές ή επικίνδυνες πρακτικές που εμφανίζονται συχνά στο διαδικτυακό πορνό υιοθετούνται στην πραγματική ζωή. Έρευνες δείχνουν αλματώδη αύξηση στα περιστατικά πνιγμού (choking), χτυπημάτων και εξαναγκαστικής φίμωσης στα δημοφιλέστερα βίντεο, ενώ ανάλογη αύξηση παρατηρείται και στις εμπειρίες που αναφέρουν νεαρές γυναίκες στις ΗΠΑ.
Παρότι αυτά συμβαίνουν «με συναίνεση», οι ειδικοί τονίζουν ότι ο πνιγμός δεν μπορεί ποτέ να θεωρηθεί ασφαλής πρακτική, η απώλεια αισθήσεων μπορεί να συμβεί μέσα σε δευτερόλεπτα.
Το δεύτερο μεγάλο μέτωπο κινδύνου είναι τα deepfakes. Πλέον, χρειάζεται λιγότερο από μισή ώρα και μία καθαρή φωτογραφία προσώπου για να δημιουργηθεί ένα πλήρως ψεύτικο πορνογραφικό βίντεο. Οι περιπτώσεις που γίνονται viral – όπως οι εικόνες της Taylor Swift – είναι μόνο η κορυφή του παγόβουνου: οι περισσότεροι στόχοι είναι απλοί καθημερινοί άνθρωποι.
Σύμφωνα με έρευνα του Alan Turing Institute:
- σχεδόν 1 στις 3 γυναίκες φοβάται ότι μπορεί να στοχοποιηθεί,
- όπως και 1 στους 5 άνδρες.
Οι απατεώνες χρησιμοποιούν ολοένα και περισσότερο deepfake πορνό για εκβιασμούς ή για να κερδίσουν την εμπιστοσύνη θυμάτων σε πλατφόρμες γνωριμιών και social media. Δημιουργοί περιεχομένου αναφέρουν ότι δέχονται συνεχώς μηνύματα από ανθρώπους που εξαπατήθηκαν από λογαριασμούς που χρησιμοποιούν deepfakes της εικόνας ή της φωνής τους.
Πώς αντιδρούν οι κυβερνήσεις
Την ίδια ώρα, οι κυβερνήσεις, παγκοσμίως, προσπαθούν να πάρουν τα μέτρα τους. Χαρακτηριστικά, η Ευρωπαϊκή Ένωση υποχρεώνει σε σήμανση ρεαλιστικού συνθετικού περιεχομένου, ενώ στις ΗΠΑ, ο νόμος «Take It Down» απαγορεύει τη δημοσίευση ροζ υλικού –πραγματικού ή συνθετικού– χωρίς συγκατάθεση.
Η Δανία θέλει να δώσει στους πολίτες πλήρη πνευματικά δικαιώματα πάνω στην εμφάνισή τους, την ώρα που η Βρετανία εξετάζει την πλήρη απαγόρευση των «nudify apps».
Ωστόσο, η τεχνολογία προχωρά πολύ πιο γρήγορα από τη νομοθεσία. Πολλά θα εξαρτηθούν από το πώς θα επιλέξουν να αυτορρυθμιστούν οι ίδιες οι πλατφόρμες, ειδικά οι μεγάλες εταιρείες τεχνητής νοημοσύνης.
Με πληροφορίες από Economist