Πώς μπορούμε να ξέρουμε αν μια εικόνα είναι αυθεντική;
Η απάντηση των ειδησεογραφικών πρακτορείων απέναντι στην απειλή της Τεχνητής Νοημοσύνης
"Η διασφάλιση της αυθεντικότητας των εικόνων μας είναι ζωτικής σημασίας για εμάς, προκειμένου να είμαστε βέβαιοι ότι οι πελάτες μας δεν θα καταφύγουν σύντομα στην Τεχνητή Νοημοσύνη για να εικονογραφήσουν τα άρθρα τους".
Marius Joly
INA Revue des médias - Σεπτ. 2025
INA Revue des médias - Σεπτ. 2025
Στα τέλη του 2022, καθώς το ευρύ κοινό ανακάλυπτε την παραγωγική τεχνητή νοημοσύνη με την έλευση του ChatGPT και την εξάπλωση εργαλείων δημιουργίας εικόνων όπως το Midjourney ή το Dall-E, ένα ερώτημα απασχολεί τους πάντες: θα είμαστε σε λίγο ανίκανοι να ξεχωρίσουμε το αληθινό από το ψεύτικο; Τρία χρόνια αργότερα, φαίνεται πως φτάσαμε σε ένα κρίσιμο σημείο καμπής. "Σήμερα, αν αυτά τα εργαλεία χρησιμοποιηθούν σωστά, το επίπεδο των εικόνων που παράγονται από AI είναι σχεδόν τέλειο", αποφαίνεται ο Éric Baradat, αναπληρωτής διευθυντής ειδήσεων στο Γαλλικό Πρακτορείο Ειδήσεων (AFP) και υπεύθυνος των τμημάτων Φωτογραφίας, γραφημάτων, τεκμηρίωσης και δεδομένων. "Όταν θέτω το ερώτημα σε ειδικούς, μου λένε ότι δεν υφίστανται έγκυρα τεχνολογικά μέσα που να ξεχωρίζουν τις εικόνες της τεχνητής νοημοσύνης από τις λήψεις των φωτογραφικών μηχανών."
Για τα μέσα ενημέρωσης, αυτές οι εικόνες θέτουν πραγματικές προκλήσεις όσον αφορά την παραπληροφόρηση και την αξιοπιστία. Τον Νοέμβριο του 2025, ένα βίντεο που διαδόθηκε ευρέως στο TikTok έδειχνε τη δημοσιογράφο της εκπομπής "C à vous" της France 5, την Émilie Tran Nguyen, να χαρακτηρίζει ως "θαυματουργό" ένα προϊόν που υποτίθεται ότι βοηθά στην ανάπτυξη των μαλλιών. Οι εικόνες είναι αληθινές, αλλά οι φωνές και τα λεγόμενα είχαν τροποποιηθεί μέσω τεχνητής νοημοσύνης.
Ακόμη πιο επιζήμιο ήταν ένα περιστατικό, τον Φεβρουάριο 2024, με ένα τροποποιημένο από ΤΝ βίντεο, το οποίο διακινήθηκε από ρωσικά δίκτυα, που έδειχνε έναν παρουσιαστή της France 24 να ισχυρίζεται ότι ο Εμανουέλ Μακρόν αναγκάστηκε "να ακυρώσει την επίσκεψή του στην Ουκρανία μετά από μια δολοφονική πρόκληση εναντίον του". Πρόκειται για ένα είδος παρέμβασης που το Κρεμλίνο έχει πολλαπλασιάσει τους τελευταίους μήνες. "Αυτά τα τροποποιημένα βίντεο αποτελούν τρομερά όπλα για όλους εκείνους που επιθυμούν να βλάψουν πρωτίστως τα μέσα ενημέρωσής μας και, κατ' επέκταση, τη Γαλλία στη διεθνή σκηνή", εξηγεί ο Vincent Roux, επιχειρησιακός διευθυντής αρμόδιος για την ενσωμάτωση της ΤΝ και την εκδοτική καινοτομία στη France Médias Monde.
Απέναντι σε αυτές τις διαφορετικές απειλές, οι συζητήσεις μεταξύ των μέσων ενημέρωσης και των ιδιωτικών εταιρειών πλήθυναν τα τελευταία χρόνια, με έναν στόχο: τη σήμανση των πραγματικών εικόνων και εκείνων που παράγονται από τεχνητή νοημοσύνη. Πρόκειται για ένα μείζον ζήτημα, τόσο για τους ειδησεογραφικούς οργανισμούς, που βρίσκονται αντιμέτωποι με την παραπληροφόρηση και την έλλειψη εμπιστοσύνης των πολιτών, όσο και για τις ιδιωτικές επιχειρήσεις, για τις οποίες τα θέματα των πνευματικών δικαιωμάτων και της πνευματικής ιδιοκτησίας είναι σήμερα πρωταρχικής σημασίας.
Οι πρώτες πρωτοβουλίες χρονολογούνται από το 2019, όταν το BBC, οι New York Times και η Microsoft ξεκίνησαν το Project Origin για έναν πιο ακριβή προσδιορισμό της προέλευσης των περιεχομένων στο Ίντερνετ. Σύντομα σε αυτή την προσπάθεια προσχώρησε η Content Authenticity Initiative (Πρωτοβουλία για την Αυθεντικότητα του Περιεχομένου) της Adobe, η οποία φιλοδοξεί να δημιουργήσει μια αξιόπιστη λύση για την πιστοποίηση της αυθεντικότητας των περιεχομένων. Οι δύο αυτές προσπάθειες κατέληξαν τελικά να συγχωνευθούν το 2021 στη Συμμαχία για την Προέλευση και την Αυθεντικότητα του Περιεχομένου (C2PA).
"Υπήρξε γρήγορα συναίνεση ως προς τον στόχο της πιστοποίησης της προέλευσης του περιεχομένου, κυρίως επειδή σήμερα, η ανάλυση και ο εντοπισμός εικόνων που παράγονται από TN είναι ταυτόχρονα αναξιόπιστος και εξαιρετικά χρονοβόρος", αναφέρει ο Santiago Lyon, πρώην αντιπρόεδρος του Associated Press και υπεύθυνος προώθησης της Content Authenticity Initiative που ηγείται η Adobe. Η ιδέα που αναδύεται τότε είναι απλή: να συνδυαστεί με μια εικόνα ένα σύνολο μεταδεδομένων που να πιστοποιούν την προέλευσή της, τον τρόπο δημιουργίας της (παράγεται από ΤΝ ή είναι πρωτότυπη) και τις διάφορες τροποποιήσεις της. Όλο αυτό έχει τη δυνατότητα να διατηρείται, από τη φωτογραφική μηχανή έως τη διάδοση, περνώντας από τους ιστότοπους επεξεργασίας.
Τα ειδησεογραφικά πρακτορεία είναι τα πρώτα που υιοθετούν την ιδέα. "Όλοι είχαν επίγνωση των διακυβευμάτων, αλλά τελικά ήμασταν αρκετά λίγοι εκείνοι που σκεφτόμασταν μια συγκεκριμένη εφαρμογή", θυμάται ο Éric Baradat. Το φθινόπωρο του 2024, το AFP (Γαλλικό Πρακτορείο Ειδήσεων) είναι το πρώτο που ξεκινά μια πειραματική εφαρμογή πλήρους κλίμακας για την πιστοποίηση των φωτογραφιών του, κατά τη διάρκεια της αμερικανικής προεδρικής εκστρατείας. Το γαλλικό πρακτορείο συνεργάζεται με την εταιρεία Nikon για τη δημιουργία φωτογραφικών μηχανών που ενσωματώνουν τα μεταδεδομένα C2PA, που εγγυώνται τη γνησιότητα της φωτογραφίας από τη στιγμή της δημιουργίας της. "Η ιδέα ήταν, αφενός, να ενσωματωθούν αυτά τα διεθνώς αναγνωρισμένα μεταδεδομένα και, αφετέρου, να προχωρήσουμε ένα βήμα παραπέρα ενσωματώνοντας μια ανεξίτηλη σήμανση που να συνδέει αυτά τα δεδομένα με την εικόνα. Κάτι που δυσκολεύει πολύ το έργο όσων θα ήθελαν να τα αφαιρέσουν", συνεχίζει ο Éric Baradat.
Η επιχείρηση, η οποία πραγματοποιήθηκε τον Ιανουάριο του 2025 κατά τη διάρκεια της εβδομάδας των αποτελεσμάτων των εκλογών που ανέδειξαν νικητή τον Ντόναλντ Τραμπ, στέφθηκε με "μεγάλη επιτυχία", σύμφωνα με το πρακτορείο. Συνολικά, αρκετές εκατοντάδες φωτογραφίες με πιστοποίηση C2PA μεταδόθηκαν σε αυτή την περίσταση. "Ορισμένες από αυτές τις εικόνες έμειναν χαραγμένες στη μνήμη, όπως αυτή που αποδόθηκε ως ναζιστικός χαιρετισμός στον Έλον Μασκ. Θα μπορούσε να είναι μια εικόνα που παρήγαγε η τεχνητή νοημοσύνη, αλλά οι φωτογραφίες τραβήχτηκαν με μια μηχανή C2PA που μπορούσε να αποφέρει την απόδειξη της γνησιότητάς της", εξηγεί ο Éric Baradat. Σήμερα, το 2026, οι εταιρείες Leica, Nikon και Canon διαθέτουν όλες προς πώληση φωτογραφικές μηχανές που ενσωματώνουν το πρότυπο C2PA, ενώ τα διεθνή πρακτορεία Associated Press και Reuters έχουν συνεργαστεί αντίστοιχα με τη Sony και την Canon για να θέσουν σε εφαρμογή τους δικούς τους πειραματισμούς.
"Τα πρακτορεία έχουν έναν μάλλον ιδιαίτερο ρόλο, καθώς κατέχουν κεντρική θέση στη βιομηχανία των οπτικών μέσων ενημέρωσης. Αυτά είναι που καταγράφουν την παγκόσμια επικαιρότητα", αναλύει ο αναπληρωτής διευθυντής ειδήσεων του AFP. "Η διασφάλιση της αυθεντικότητας των εικόνων μας είναι ζωτικής σημασίας για εμάς, προκειμένου να είμαστε βέβαιοι ότι οι πελάτες μας δεν θα καταφύγουν σύντομα στην Τεχνητή Νοημοσύνη για να εικονογραφήσουν τα άρθρα τους".
Τους τελευταίους μήνες, το πρότυπο C2PA έχει καθιερωθεί ως το κύριο εργαλείο για τα μέσα ενημέρωσης που επιδιώκουν να πιστοποιήσουν το περιεχόμενό τους, απέναντι στις απειλές των deepfakes και την παραπληροφόρηση. Τον Σεπτέμβριο, η France Télévisions ανακοίνωσε την υιοθέτηση του προτύπου για όλο το περιεχόμενο των δελτίων ειδήσεων των 13:00 και των 20:00 που αναρτάται στον ιστότοπό της. "Η μεγάλη του δύναμη είναι ότι αποτελεί μια παγκόσμια πρωτοβουλία την οποία εξετάζουν σήμερα τα περισσότερα μεγάλα μέσα ενημέρωσης και οι μεγάλοι δημόσιοι ή ιδιωτικοί τηλεοπτικοί σταθμοί", αναφέρει ο Laurent Delpech, διευθυντής καινοτομίας της France Télévisions. "Μετά από αρκετούς μήνες εργασίας, κρίναμε ότι ήμασταν τεχνικά έτοιμοι να κάνουμε αυτό το βήμα πριν από τους άλλους".
Ωστόσο, παρά τον αρχικό αυτό ενθουσιασμό, τα όρια της εν λόγω λύσης αρχίζουν να διαφαίνονται. Εδώ και αρκετούς μήνες, η Nikon αντιμετωπίζει δυσκολίες στη διασφάλιση της αξιοπιστίας των μεταδεδομένων της. Τον Σεπτέμβριο του 2025, χρήστες του διαδικτύου κατάφεραν να παρακάμψουν τα πιστοποιητικά C2PA που συνδέονται με τη φωτογραφική μηχανή, αναγκάζοντας την ιαπωνική εταιρεία να αναστείλει τη χρήση αυτών των πιστοποιητικών, μόλις λίγες εβδομάδες μετά την εμπορική τους διάθεση. Εκτός από τη Nikon, οι εταιρείες Sony, Leica και Canon εργάζονται πάνω στο ζήτημα της ιχνηλασιμότητας των εικόνων, με στόχο την ενίσχυση της αξιοπιστίας των πιστοποιητικών.
Πέρα από την τεχνική αξιοπιστία του προτύπου C2PA, παραμένει το ζήτημα της υιοθέτησής του: "αν δεν υιοθετηθεί από ολόκληρο το οικοσύστημα, συμπεριλαμβανομένων των μέσων κοινωνικής δικτύωσης, ο αντίκτυπός του στην παραπληροφόρηση θα είναι περιορισμένος", διευκρινίζει ο Thierry Fanchon, διευθυντής τεχνικών υπηρεσιών και συστημάτων πληροφορικής της France Médias Monde. Εν αναμονή μιας πιο ώριμης τεχνικής λύσης, πολλά μέσα ενημέρωσης την πλαισιώνουν με μια άλλη στρατηγική: φέρνοντας το περιεχόμενό τους πιο κοντά στο κοινό και επενδύοντας στην παιδεία στα μέσα επικοινωνίας. "Αυτό επιτρέπει την καταπολέμηση της παραπληροφόρησης, καθώς προσφέρεται ενημέρωση που δεν είναι μόνο θετική αλλά και διασταυρωμένη, ενισχύοντας έτσι τη σχέση εμπιστοσύνης με το κοινό", καταλήγει ο Thierry Fanchon.
Στην ερώτηση: ποια είναι τα πιο σύγχρονα μέσα που διασφαλίζουν σήμερα τη γνησιότητα μιας φωτογραφίας, η Τεχνητή Νοημοσύνη μου απάντησε:
Το 2026, η καταπολέμηση του συνθετικού περιεχομένου και των "deepfakes" βασίζεται σε έναν συνδυασμό βιομηχανικών προτύπων, αόρατων σημάνσεων και αυστηρών κανονισμών.
Ακολουθούν οι πιο πρόσφατοι τρόποι για τη διασφάλιση ή την επαλήθευση της αυθεντικότητας μιας φωτογραφίας:
1. Πρότυπα Προέλευσης (C2PA και Content Credentials)
Αυτή είναι η πιο ισχυρή λύση για την πιστοποίηση της προέλευσης ενός ψηφιακού αρχείου.
- Λειτουργία: Ενσωματώνει απαραβίαστα κρυπτογραφικά μεταδεδομένα απευθείας στο αρχείο κατά τη στιγμή της λήψης ή της τροποποίησης.
- Μαζική υιοθέτηση: Το 2026, κολοσσοί όπως η Nikon, η Sony και η Canon ενσωματώνουν εγγενώς αυτή την τεχνολογία στις μηχανές τους για την «ψηφιακή υπογραφή» των εικόνων από τη στιγμή της λήψης.
- Οπτικοποίηση: Οι συμβατές πλατφόρμες εμφανίζουν ένα εικονίδιο "CR" (Content Credentials), επιτρέποντας την προβολή του πλήρους ιστορικού της εικόνας (πηγή, τροποποιήσεις, χρήση Τεχνητής Νοημοσύνης).
2. Αόρατο Ψηφιακό Υδατογράφημα (AI Watermarking)
Σε αντίθεση με τα κλασικά υδατογραφήματα, αυτές οι σημάνσεις εισάγονται στο επίπεδο των εικονοστοιχείων (pixels) και αντέχουν στις παρεμβάσεις.
- SynthID (Google DeepMind): Μια τεχνολογία αιχμής που εισάγει έναν ανεπαίσθητο κώδικα στις εικόνες που δημιουργούνται από AI. Αυτή η σήμανση παραμένει ακόμα και μετά από περικοπή, αλλαγή χρωμάτων ή συμπίεση.
- Steg.AI: Χρησιμοποιεί βαθιά μάθηση (deep learning) για να "αγκυρώσει" αόρατες υπογραφές, που λειτουργούν ως αμετάβλητα QR codes.
3. Νομικό Πλαίσιο και Υποχρεωτική Σήμανση
Η νομοθεσία επιβάλλει πλέον διαφάνεια σχετικά με τη φύση των εικόνων.
- Ευρωπαϊκή Πράξη για την ΤΝ (EU AI Act): Από το 2026, ο νόμος επιβάλλει τη ρητή σήμανση "Παρήχθη από ΤΝ" για κάθε περιεχόμενο τύπου deepfake που θα μπορούσε να παραπλανήσει. Οι πάροχοι μοντέλων ΤΝ οφείλουν να εγγυώνται ότι τα εργαλεία τους επισημαίνουν αυτόματα τα αποτελέσματα.
4. Εργαλεία Ανίχνευσης και Επαλήθευσης
Για εικόνες που δεν διαθέτουν πιστοποιητικά προέλευσης, τα εργαλεία εξωτερικής ανάλυσης παραμένουν απαραίτητα:
- Προηγμένοι ανιχνευτές ΤΝ: Πλατφόρμες όπως το Lucide.ai ή το Winston AI θεωρούνται το 2026 ως σημεία αναφοράς για τον προσδιορισμό της πιθανότητας μια εικόνα να είναι συνθετική.
- Εμπλουτισμένη αντίστροφη αναζήτηση: Εργαλεία όπως το Google Images ή το TinEye επιτρέπουν την εύρεση της αρχικής πηγής μιας φωτογραφίας και τον έλεγχο αν αυτή έχει χρησιμοποιηθεί εκτός πλαισίου.
Συνοπτικά: Πώς να ελέγξετε μια φωτογραφία σήμερα;
- Αναζητήστε την ετικέτα "Content Credentials", εάν είναι διαθέσιμη.
- Αναλύστε τα μεταδεδομένα EXIF για να επιβεβαιώσετε την ημερομηνία, την τοποθεσία και τη συσκευή που χρησιμοποιήθηκε.
- Χρησιμοποιήστε έναν ανιχνευτή ΤΝ σε περίπτωση αμφιβολίας για τον ρεαλισμό της σκηνής.
- Πραγματοποιήστε αντίστροφη αναζήτηση εικόνας για να βρείτε την πρώτη εμφάνιση της εικόνας στο διαδίκτυο.