Ένα ανησυχητικό κύμα εικόνων και βίντεο σεξουαλικής κακοποίησης παιδιών (CSAM) που δημιουργούνται μέσω τεχνητής νοημοσύνης κατακλύζει το διαδίκτυο, προκαλώντας ανησυχία στις αρχές επιβολής του νόμου και σε οργανισμούς προστασίας των παιδιών.
Σύμφωνα με νέες εκθέσεις, η ρεαλιστικότητα των παραγόμενων εικόνων αγγίζει πλέον το όριο του αδιάκριτου, απειλώντας να υπονομεύσει τις προσπάθειες εντοπισμού και δίωξης πραγματικών περιστατικών κακοποίησης.
Όπως καταγράφει το Internet Watch Foundation (IWF), μη κερδοσκοπικός οργανισμός με έδρα τη Βρετανία, μόνο το πρώτο εξάμηνο του 2025 εντοπίστηκαν 1.286 βίντεο CSAM δημιουργημένα από AI, έναντι μόλις δύο κατά το αντίστοιχο διάστημα του 2024. Παράλληλα, στις ΗΠΑ, το Εθνικό Κέντρο για τα Εξαφανισμένα και Εκμεταλλευόμενα Παιδιά (NCMEC) δήλωσε ότι έχει λάβει περισσότερες από 485.000 αναφορές τέτοιου περιεχομένου φέτος - υπερδεκαπλάσιες από το σύνολο του 2024.
Η άνοδος αποδίδεται στην πρόοδο της τεχνολογίας παραγωγικής τεχνητής νοημοσύνης και στη συνεργασία χρηστών σε σκοτεινά φόρουμ του dark web. Οι εικόνες είναι πλέον πιο ομαλές, λεπτομερείς και δύσκολα ανιχνεύσιμες.
«Ένα τσουνάμι εικόνων»
«Πρόκειται για ένα απόλυτο τσουνάμι», δήλωσε ο προσωρινός διευθύνων σύμβουλος του IWF, Derek Ray-Hill, επισημαίνοντας ότι το AI-generated περιεχόμενο συχνά συνδυάζει πραγματικές φωτογραφίες παιδιών με ψεύτικες συνθέσεις, καθιστώντας το έργο των διωκτικών αρχών εξαιρετικά περίπλοκο.
Παρότι οι εικόνες που δημιουργούνται από τεχνητή νοημοσύνη εξακολουθούν να αποτελούν μικρό μέρος του συνόλου του υλικού CSAM στο διαδίκτυο, οι αρχές δηλώνουν καταβεβλημένες από τον όγκο των αναφορών. Αυτό δυσχεραίνει την επικέντρωση σε περιπτώσεις πραγματικής κακοποίησης.
Ομοσπονδιακοί και πολιτειακοί νόμοι στις ΗΠΑ καλύπτουν πλέον ρητά και τις εικόνες CSAM που δημιουργούνται με τεχνητή νοημοσύνη, αν και η νομική προσέγγιση παραμένει ασαφής και εξελισσόμενη. Ορισμένα δικαστήρια μόλις τώρα ξεκινούν να αντιμετωπίζουν τις ιδιαιτερότητες αυτών των υποθέσεων.
Περίπου 35 εταιρείες τεχνολογίας δηλώνουν ότι αναγνωρίζουν και αναφέρουν υλικό CSAM που παράγεται με τεχνητή νοημοσύνη. Η Amazon, μέσω της υπηρεσίας cloud AWS, ανέφερε 380.000 περιπτώσεις το πρώτο εξάμηνο του έτους. Η OpenAI δήλωσε ότι απέσυρε 75.000 περιπτώσεις. Η Stability AI ανέφερε λιγότερες από 30.
Η Stability AI δήλωσε ότι έχει ενισχύσει τα φίλτρα ασφαλείας και παραμένει «βαθιά δεσμευμένη» στην πρόληψη κακόβουλης χρήσης των εργαλείων της. Παρόμοιες αναφορές εξέδωσαν και η OpenAI και η Amazon.
Εκβιασμοί, deepfakes και χρήση σχολικών εικόνων
Το πρόβλημα επιτείνεται από τη χρήση εργαλείων AI για τη δημιουργία γυμνών deepfakes με πρόσωπα ανηλίκων ή τον εκβιασμό παιδιών με χρήση συνθετικών εικόνων. Συχνά, οι φωτογραφίες αντλούνται από σχολικά sites και προφίλ στα social media.
Ερευνητές του Πανεπιστημίου Στάνφορντ είχαν εντοπίσει τον Δεκέμβριο του 2023 υλικό παιδικής κακοποίησης σε εκπαιδευτικό dataset πρώιμης έκδοσης του Stable Diffusion. Η Stability AI υποστηρίζει ότι δεν συμμετείχε στη συγκεκριμένη εκπαίδευση.
Τον Μάρτιο, άνδρας από το Ουισκόνσιν που κατηγορείται για κατοχή και διανομή 13.000 εικόνων AI-generated CSAM, επικαλέστηκε την Πρώτη Τροπολογία και δικαιώθηκε σε μία από τις κατηγορίες. Ωστόσο, η υπόθεσή του παραμένει ανοιχτή για τις κατηγορίες παραγωγής και διανομής, καθώς επιχείρησε να μοιραστεί τις εικόνες μέσω Instagram με ανήλικο.
«Το Υπουργείο Δικαιοσύνης θεωρεί όλες τις μορφές CSAM που δημιουργούνται από τεχνητή νοημοσύνη ως σοβαρή και αναδυόμενη απειλή», δήλωσε ο Matt Galeotti, επικεφαλής του ποινικού τμήματος.
Η κλιμάκωση του φαινομένου δημιουργεί νέες ανάγκες για νομοθετική επαγρύπνηση, διεθνή συνεργασία και αυστηρότερους μηχανισμούς προστασίας των παιδιών στο ψηφιακό περιβάλλον.
Με πληροφορίες από New York Times