Η Google καταρτίζει μια σειρά νέων κατευθυντήριων γραμμών που θα κατευθύνουν τη συμμετοχή της στην ανάπτυξη εργαλείων Τεχνητής Νοημοσύνης για στρατιωτικούς σκοπούς.

 

Κανένας δεν γνωρίζει μέχρι στιγμής τι ακριβώς θα ορίζουν αυτές οι νέες κατευθυντήριες γραμμές, αλλά η Google τονίζει ότι θα συμπεριλαμβάνουν την απαγόρευση της χρήσης Τεχνητής Νοημοσύνης σε οπλικά συστήματα. Οι νέες αρχές αναμένεται να ανακοινωθούν πλήρως μέσα τις επόμενες εβδομάδες και αποτελούν μια απάντηση στη διαμάχη που έχει ξεκινήσει τους τελευταίους μήνες σχετικά με την απόφαση της εταιρείας να αναπτύξει εργαλεία AI για το Πεντάγωνο, τα οποία θα μπορούν να αναλύουν πλάνα επιτήρησης από drones.

 

Όπως αναφέρουν οι New York Times, ήδη από τον περασμένο Σεπτέμβριο η Fei-Fei Li, επικεφαλής του εργαστηρίου Tεχνητής Νοημοσύνης στο Πανεπιστήμιο Stanford και επικεφαλής επιστήμονας για την Τεχνητή Νοημοσύνη στο Google Cloud (μια από τις πιο ελπιδοφόρες επιχειρήσεις του γίγαντα της αναζήτησης), είχε συμβουλεύσει τα ανώτερα διοικητικά στελέχη της Google να αποφύγουν «με κάθε κόστος οποιαδήποτε αναφορά ή έμφαση στο ΑΙ σε στρατιωτικά προγράμματα». Σε ένα email που έστειλε προς τους συναδέλφους της στην Google τόνισε «H μετατροπή της Τεχνητής Νοημοσύνης σε όπλο είναι ίσως ένα από τα πιο ευαισθητοποιημένα θέματα του AI κλάδου - αν όχι το πιο σημαντικό. Αποτελεί ένα κόκκινο πανί για όλα τα μέσα ενημέρωσης που ψάχνουν να βρουν νέους τρόπους για να βλάψουν την Google».

 

Oι ανησυχίες της Li σχετικά με τις συνέπειες των στρατιωτικών συμβάσεων της Google και του Πενταγώνου αποδείχθηκαν προφητικές. Η σχέση της εταιρείας με το Υπουργείο Άμυνας, δεδομένου ότι κέρδισε μέρος της σύμβασης για το πρόγραμμα Maven, η οποία χρησιμοποιεί τεχνητή νοημοσύνη για την ανάλυση βίντεο εικόνων από drones, έχει δημιουργήσει μια άνευ προηγουμένου υπαρξιακή κρίση μέσα στην Google.


H εμπλοκή της Google στα σχέδια του Πενταγώνου έσπασε κυριολεκτικά το εργατικό δυναμικό της εταιρείας, τροφοδότησε αρκετές νευρικές συναντήσεις προσωπικού και εσωτερικές διαμάχες και ώθησε ορισμένους υπαλλήλους στην παραίτηση. Οι διαμάχες αυτές προκάλεσαν θλίψη σε ορισμένους ανώτερους αξιωματούχους της Google, συμπεριλαμβανομένης της Dr. Li, καθώς προσπαθούσαν να ξεπεράσουν το χάσμα μεταξύ επιστημόνων και πωλητών που ενδιαφέρονται αποκλειστικά για αυτά τα αμυντικά συμβόλαια.

 

Είναι γνωστό σε όλους, ότι το μοντέλο διαφήμισης πίσω από την εντυπωσιακή ανάπτυξη της Google έχει προκαλέσει μια έντονη κριτική σχετικά με την εισβολή της στο ιδιωτικό απόρρητο των χρηστών, ενώ συχνά υποστηρίζει αμφίβολες ιστοσελίδες, συμπεριλαμβανομένων κι εκείνων που εμπορεύονται ψευδείς ειδήσεις. Τώρα η πορεία της εταιρείας προς μια μελλοντική ανάπτυξη, μέσω υπηρεσιών cloud-computing, έχει μοιράσει την εταιρεία στα δύο, εξ αιτίας της στάσης της απέναντι στα μελλοντικά οπλικά συστήματα. Η συνέχιση μιας πορείας προς μεγάλες συμβάσεις στον τομέα της άμυνας θα μπορούσε να οδηγήσει όλους τους επιστήμονες της ΑΙ να φύγουν από την Google, στερώντας από την εταιρεία μια δυνητικά τεράστια επιχείρηση.

 

Η εσωτερική διαμάχη για το "Σχέδιο Maven", που θεωρήθηκε τόσο από τους υποστηρικτές όσο και από τους αντιπάλους ως το άνοιγμα της πόρτας σε πολύ μεγαλύτερες αμυντικές συμβάσεις, δημιούργησε μια αναφορά υπογεγραμμένη από περίπου 4.000 υπαλλήλους που ζήτησαν μια «σαφή πολιτική που θα δηλώνει ότι ούτε η Google ούτε οι εργολάβοι της θα κατασκευάσουν ποτέ τεχνολογία πολεμικών επιχειρήσεων».

 

Ωστόσο η Google δεν έχει κάνει μέχρι στιγμής καμία επίσημη ανακοίνωση και ένα κομμάτι της συνεχίζει να υπερασπίζεται την απόφαση της να συνεργαστεί με το Πεντάγωνο. Η εταιρεία λέει ότι η τεχνολογία της απλώς «επισημαίνει εικόνες για ανθρώπινη προεπισκόπηση» και προορίζεται για «μη καταστροφικές χρήσεις μόνο». Η σύμβαση είναι επίσης μικρή κατά τα βιομηχανικά πρότυπα - αξίας μόλις 9 εκατομμυρίων δολαρίων για την Google, σύμφωνα με τους New York Times.

 

Αλλά αυτό το πρόσθετο πλαίσιο δεν έπαψε να απασχολεί τους υπαλλήλους της με πολλούς να υποστηρίζουν τα πλεονεκτήματα και τα μειονεκτήματα της στρατιωτικής AI σε συναντήσεις και σε εσωτερικούς πίνακες μηνυμάτων. Πολλοί εξέχοντες ερευνητές της εταιρείας έχουν ήδη τονίσει τη θέση τους ενάντια στη χρήση όπλων Τεχνητής Νοημοσύνης. Ο Jeff Dean, ο οποίος είναι επικεφαλής της AI στην Google, δήλωσε αυτό το μήνα ότι είχε υπογράψει μια επιστολή από το 2015 αντίθετη προς την ανάπτυξη αυτόνομων όπλων. Τα κορυφαία στελέχη της DeepMind, θυγατρικής AI της Google που εδρεύει στο Λονδίνο, υπέγραψαν παρόμοια αναφορά και την έστειλαν στα Ηνωμένα Έθνη το περασμένο έτος.

 

Αλλά το ερώτημα που αντιμετωπίζουν  οι εργαζόμενοι (και η ίδια η Google) είναι: πού ορίζεται τελικά η γραμμή; Μπορεί μια μηχανική μάθηση που αναλύει αρχεία παρακολούθησης για στρατιωτικές επιχειρήσεις να καταχωρηθεί ως «όπλο Τεχνητής Νοημοσύνης»; Πιθανότατα όχι. Τι γίνεται, όμως, εάν αυτές οι αναλύσεις ενημερώνουν τις μελλοντικές αποφάσεις σχετικά με τις επιθέσεις των drones; Θα έχει σημασία ίσως τότε; Και πώς θα μπορούσε η Google να μάθει αν αυτό συνέβη χάρη στη δική της τεχνολογία;

 

Δύσκολες ερωτήσεις, αδύνατον να απαντηθούν έτσι ώστε να τους ικανοποιήσουν όλους. Και στη δέσμευση ενός τεχνολογικού γίγαντα για τον ορισμό των κατευθυντήριων γραμμών της πορείας του στο μέλλον, η Google, απ' ότι φαίνεται, έχει μπροστά της ένα πολύ δύσκολο έργο.