Η ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ χρησιμοποιείται ήδη από αστυνομικές και στρατιωτικές δομές ανά τον κόσμο. Προπαντός, η «προληπτική αστυνόμευση» –η πρόβλεψη των περιοχών όπου θα γίνουν εγκλήματα (ή των ατόμων που θα τα διαπράξουν) και η διοχέτευση ενεργειών εκεί– αυτοματοποιείται με γρήγορους ρυθμούς.
Το 2012, το LAPD και άλλες αστυνομίες των ΗΠΑ υιοθέτησαν το PredPol, ένα σύστημα ΑΙ που αναλύει δεδομένα εγκληματικότητας και αστυνόμευσης για να κατευθύνει περιπολίες και ελέγχους σε ορισμένες περιοχές. Στο Pasco County της Φλόριντα ένα αντίστοιχο πρόγραμμα τεχνητής νοημοσύνης συνέτασσε λίστες με τα άτομα που θεωρούσε ότι είναι πιθανό να διαπράξουν κάποιο έγκλημα∙ εν συνεχεία, η αστυνομία τα επισκεπτόταν και τα ανέκρινε, παρενοχλώντας πάνω από χίλιους ενήλικους και ανήλικους πολίτες.¹
Όταν μιλάμε με το ChatGPT συμμετέχουμε σε μια διαδικασία που διευκολύνει την εξέλιξη των δυνατοτήτων της τεχνητής νοημοσύνης. Η πρόοδος των εμπορικών μοντέλων στη γλωσσική κατανόηση ή την ανάλυση εικόνων συχνά καταλήγει να αξιοποιείται σε άλλα πεδία, όπως η αστυνόμευση και οι πολεμικές επιχειρήσεις.
Το πρόβλημα με αυτές τις χρήσεις του ΑΙ δεν αφορά μόνο τα ηθικά και θεωρητικά ζητήματα αλά Minority Report που εγείρουν. Έγκειται στο γεγονός ότι, με το να αναλύουν δεδομένα που έχουν διαμορφωθεί από ανθρώπινες αποφάσεις (π.χ. μοτίβα αστυνόμευσης ορισμένων περιοχών), τα προβλεπτικά ΑΙ αναπαράγουν την ανθρώπινη αυθαιρεσία και τον ρατσισμό του παρελθόντος. Έτσι, σύμφωνα με την «Guardian», το PredPol δημιουργεί έναν «φαύλο κύκλο», όπου τα data ρατσιστικής στοχοποίησης και υπεραστυνόμευσης χρησιμοποιούνται για να παραχθούν αντίστοιχα πρωτόκολλα στο παρόν (τα οποία, με τη σειρά τους, γίνονται data προς ανάλυση).²
Μάλιστα, αυτά τα προγράμματα ΑΙ επιφέρουν κάτι ακόμα πιο προβληματικό, αφού μειώνουν τη λογοδοσία της αστυνομίας, η οποία μπορεί πια να ισχυριστεί ότι η εκάστοτε έρευνα, περιπολία ή παρενόχληση μειονοτήτων δεν είναι απόφαση της διοίκησης ή των αστυνομικών αλλά του αλγορίθμου, ο οποίος είναι εξ ορισμού τόσο απρόσωπος όσο και ακατανόητος, ένα «μαύρο κουτί» που ασκεί μεγάλη εξουσία.
Μπορεί αυτά τα παραδείγματα να μας φαίνονται φουτουριστικά, αλλά, όπως οι περισσότερες τεχνολογίες ελέγχου, έρχονται στη χώρα μας υπό το πρόσχημα του «εκσυγχρονισμού». Ήδη, το 2017, η ΕΛ.ΑΣ. σχεδίαζε το πρόγραμμα «Smart Policing» για να εντάξει συστήματα facial recognition σε κάμερες που θα φορούν οι αστυνομικοί. Τον Μάρτιο του 2019 το έργο ανατέθηκε στην Intracom Telecom. Ύστερα, το 2022 γνωστοποιήθηκε ότι η κυβέρνηση είχε υπογράψει σύμβαση με την Palantir (και μετά με τη συνδεόμενη PwC), έναν «κολοσσό προληπτικής αστυνόμευσης», για τη δημιουργία μιας βάσης δεδομένων με σκοπό τη διαχείριση κρίσεων.³ Τέλος, φέτος μάθαμε ότι το υπουργείο Προστασίας του Πολίτη συνεργάζεται με το Ψηφιακής Διακυβέρνησης για να βάλει την τεχνητή νοημοσύνη στην υπηρεσία της ΕΛ.ΑΣ., μια τεχνολογία που, σύμφωνα με την «Καθημερινή», «μπορεί να δράσει ακόμα και προληπτικά». Η πρωτοβουλία πάρθηκε από τον Κυρανάκη και, αφού ο Χρυσοχοΐδης «έδειξε ιδιαίτερο ενδιαφέρον», ο υπουργός Ψηφιακής Διακυβέρνησης ταξίδεψε «στην Ουάσινγκτον, όπου συμμετείχε σε κλειστή σύσκεψη υπό τον CEO της Google, Τόμας Κούριαν».[4]
Φυσικά, η χρήση του ΑΙ στην υπηρεσία της καταστολής δεν περιορίζεται στα προγράμματα προληπτικής αστυνόμευσης. Στις ΗΠΑ, η τεχνητή νοημοσύνη βοηθά να εφαρμοστεί η απόφαση του Τραμπ για την απέλαση μη Αμερικανών φοιτητών που εκφράστηκαν δημόσια υπέρ της Παλαιστίνης. Συγκεκριμένα, συστήματα ΑΙ σκανάρουν δεκάδες χιλιάδες αναρτήσεις στα μέσα κοινωνικής δικτύωσης. Όταν βρίσκουν ποστ που θεωρούν ότι είναι υπέρ της Χαμάς, ταυτοποιούν τον συντάκτη τους προς απέλαση.[5]
Γνωστή είναι και η χρήση της τεχνητής νοημοσύνης από τον ισραηλινό στρατό. Μετά τα συστήματα Lavender και Gospel –τα οποία δημιούργησαν λίστες με χιλιάδες στόχους βομβαρδισμών, αδιαφορώντας για τους θανάτους αμάχων–, το IDF εισήγαγε ένα καινούργιο ΑΙ σύστημα παρακολούθησης που λειτουργεί σαν το ChatGPT. Το chatbot Unit 8200 αναλύει μεγάλους όγκους τηλεφωνικών συνομιλιών και μηνυμάτων στα αραβικά, ώστε να μπορεί να δώσει πληροφορίες για άτομα που ζουν στις κατεχόμενες περιοχές. Συγκεκριμένα, η εφαρμογή εντοπίζει «ύποπτους» Παλαιστίνιους που θεωρεί ότι μπορεί να είναι (ή να γίνουν) «ταραχοποιοί» γιατί εξέφρασαν θυμό προς το Ισραήλ σε ιδιωτικές συνομιλίες.[6]
Μέσα απ’ τα παραπάνω παραδείγματα βλέπουμε την ολοένα πιο συστηματική χρήση της τεχνητής νοημοσύνης με τρόπους που ενισχύουν τη βία των μηχανισμών καταστολής, ενώ ταυτόχρονα αποκλείουν τη δυνατότητα λογοδοσίας.
Δεν πρέπει να ξεχνάμε ότι η λειτουργία αυτών των εφαρμογών βασίζεται στα δικά μας data, στο δικό μας διαδικτυακό αποτύπωμα και στις δικές μας αλληλεπιδράσεις με την τεχνολογία. Σε ένα πρώτο επίπεδο, τα δεδομένα μας μπορούν να πουληθούν σε εταιρείες που συνεργάζονται με στρατούς και δυνάμεις καταστολής, αφήνοντας, για παράδειγμα, τις φωτογραφίες μας να εκπαιδεύσουν προγράμματα αναγνώρισης προσώπου. Βέβαια, υπάρχει και η περίπτωση της Clearview AI, η οποία κατέβασε παράνομα πάνω από τριάντα δισεκατομμύρια φωτογραφίες από δημόσια προφίλ στα social media για να πουλήσει εφαρμογές facial recognition στο αμερικανικό κράτος.[7]
Την ίδια στιγμή, και σε ένα δεύτερο επίπεδο, η ίδια μας η αλληλεπίδραση με εφαρμογές ΑΙ έχει σημαντικές συνέπειες, καθώς μπορεί να συμβάλει στη βελτίωση αυτών των συστημάτων. Όταν μιλάμε με το ChatGPT, δεν ενισχύουμε μόνο αυτό αλλά συμμετέχουμε σε μια διαδικασία που διευκολύνει την εξέλιξη των δυνατοτήτων της τεχνητής νοημοσύνης. Η πρόοδος των εμπορικών μοντέλων στη γλωσσική κατανόηση ή την ανάλυση εικόνων συχνά καταλήγει να αξιοποιείται σε άλλα πεδία, όπως η αστυνόμευση και οι πολεμικές επιχειρήσεις.
Μια ευρύτερη συζήτηση για την τεχνητή νοημοσύνη δεν μπορεί να αγνοεί τα παραπάνω στοιχεία. Ούτε αρκεί να πούμε ότι το πρόβλημα δεν είναι η τεχνολογία καθαυτή αλλά η χρήση που γίνεται, η κατάχρηση συγκεκριμένων τεχνικών συστημάτων από τα κράτη και τις εταιρείες. Η κατεύθυνση αυτής της τεχνολογίας είναι ήδη εγγεγραμμένη στον τρόπο σχεδιασμού, ανάπτυξης και χρηματοδότησής της, ενώ η πιθανότητα μιας «απελευθερωτικής» χρήσης του ΑΙ παραμένει μακρινή.
[1] https://theconversation.com/predictive-policing-ai-is-on-the-rise-making-it-accountable-to-the-public-could-curb-its-harmful-effects-254185
[2] https://www.theguardian.com/us-news/2021/nov/07/lapd-predictive-policing-surveillance-reform Το LAPD σταμάτησε να χρησιμοποιεί το PredPol το 2020 και υιοθέτησε το DICFP, ένα πρόγραμμα τόσο παρόμοιο, που πολλοί βλέπουν την αλλαγή ως ένα απλό «rebranding».
[3] https://thepressproject.gr/proliptiki-astynomefsi-me-syskeves-anagnorisis-prosopou-apo-tin-astynomia/
[4] https://www.kathimerini.gr/politics/563422951/neo-oplo-gia-tin-el-as-i-techniti-noimosyni-pos-tha-axiopoiithei/
[5] https://www.theguardian.com/us-news/2025/mar/06/foreign-student-visas-pro-palestinian-ai
[6] https://www.theguardian.com/world/2025/mar/06/israel-military-ai-surveillance?utm_source=chatgpt.com
[7] https://wearesolomon.com/el/mag/format-el/erevnes/clearview-pws-i-skiwdis-amerikaniki-etaireia-sinexizei-na-skanarei-ta-proswpa-mas/
Το άρθρο δημοσιεύθηκε στην έντυπη LiFO.