ΑΠΕΡΓΙΑ ΠΡΩΤΗ ΜΑΪΟΥ

TO BLOG ΤΟΥ ΣΠΥΡΟΥ ΣΤΑΒΕΡΗ
Facebook Twitter

Μπορεί η ανθρωπότητα να επιβιώσει από την Τεχνητή Νοημοσύνη;

Μπορεί η ανθρωπότητα να επιβιώσει από την Τεχνητή Νοημοσύνη;


Με την ανάπτυξη της τεχνητής νοημοσύνης να τρέχει με ιλιγγιώδη ταχύτητα, ορισμένοι από τους πλουσιότερους ανθρώπους στον κόσμο μπορεί να αποφασίζουν αυτή τη στιγμή για τη μοίρα της ανθρωπότητας.



Μπορεί η ανθρωπότητα να επιβιώσει από την Τεχνητή Νοημοσύνη; Facebook Twitter
Still από την ταινία Ex Machina (2014) του Alex Garland. "Η ταινία επισημαίνει ότι, επειδή κάποιος συμπεριφέρεται σαν άνθρωπος, δεν σημαίνει ότι είναι και άνθρωπος. Και ο τρόπος που σκέφτονται, αισθάνονται και προσεγγίζουν οι μη άνθρωποι τους άλλους είναι πολύ διαφορετικός από τον υπόλοιπο κόσμο. Η Alicia Vikander πρωταγωνιστεί ως Ava, μια τεχνητή νοημοσύνη που δημιουργήθηκε από τον ιδιοφυή Nathan (Oscar Isaacs), ο οποίος ζητά από τον υπάλληλό του Caleb (Domhnall Gleeson) να τον βοηθήσει να δοκιμάσει τις αντιδράσεις της Ava. Η Ava αρχικά φαίνεται να είναι ο πιο παθητικός χαρακτήρας από τους τρεις, αλλά τελικά αποδεικνύει το αντίθετο όταν παίρνει τον έλεγχο της κατάστασης." (Kath Leroy)


 

Garrison Lovely
Jacobin - 22.01.2024


Ο συνιδρυτής της Google Larry Page πιστεύει ότι η υπερ-ευφυής τεχνητή νοημοσύνη είναι "απλώς το επόμενο βήμα στην εξέλιξη". Στην πραγματικότητα, ο Page, του οποίου η αξία εκτιμάται περίπου στα 120 δισεκατομμύρια δολάρια, φέρεται να έχει υποστηρίξει ότι οι προσπάθειες για την αποτροπή της εξαφάνισης εξαιτίας της τεχνητής νοημοσύνης και την προστασία της ανθρώπινης συνείδησης είναι "speciesist" και "συναισθηματικές ανοησίες".

Τον Ιούλιο, ο πρώην βασικός επιστήμονας της Google DeepMind, Richard Sutton - ένας από τους πρωτοπόρους της ενισχυτικής μάθησης, ενός σημαντικού υποπεδίου της ΤΝ - δήλωσε ότι η τεχνολογία "θα μπορούσε να μας εκτοπίσει από την ύπαρξη" και ότι "δεν πρέπει να αντισταθούμε στη διαδοχή των πραγμάτων". Σε μια ομιλία του το 2015, ο Sutton είπε ότι, αν υποθέσουμε ότι "όλα αποτυγχάνουν" και η ΤΝ "μας σκοτώσει όλους": "είναι τόσο κακό που οι άνθρωποι δεν θα είναι η τελευταία μορφή νοήμονος ζωής στο σύμπαν;"

"Η βιολογική εξαφάνιση, δεν είναι αυτό το θέμα", μου είπε ο Sutton, εξήντα έξι ετών. "Το φως της ανθρωπότητας και η κατανόησή μας, η νοημοσύνη μας - η συνείδησή μας, αν θέλετε - μπορούν να συνεχίσουν να υπάρχουν χωρίς ανθρώπους από σάρκα".

Ο Yoshua Bengio, πενήντα εννέα ετών, είναι ο δεύτερος εν ζωή επιστήμονας με τις περισσότερες αναφορές, γνωστός για το θεμελιώδες έργο του στη βαθιά μάθηση. Απαντώντας στους Page και Sutton, ο Bengio μου είπε: "Ο σκοπός τους, νομίζω, είναι να παίζουν ζάρια με το μέλλον της ανθρωπότητας. Προσωπικά πιστεύω ότι αυτό πρέπει να ποινικοποιηθεί". Λίγο έκπληκτος, ρώτησα τι ακριβώς ήθελε να τεθεί εκτός νόμου, και είπε ότι οι προσπάθειες για τη δημιουργία "συστημάτων τεχνητής νοημοσύνης θα μπορούσαν να μας εξουδετερώσουν και να έχουν σχεδιαστεί για το δικό τους προσωπικό συμφέρον". Τον Μάιο, ο Bengio άρχισε να γράφει και να μιλάει για το πώς τα προηγμένα συστήματα τεχνητής νοημοσύνης μπορεί να ξεφύγουν και να αποτελέσουν κίνδυνο εξαφάνισης για την ανθρωπότητα.

Ο Bengio υποστηρίζει ότι μελλοντικά συστήματα τεχνητής νοημοσύνης σε πραγματικό ανθρώπινο επίπεδο θα μπορούσαν να βελτιώσουν τις δικές τους ικανότητες, δημιουργώντας λειτουργικά ένα νέο, πιο ευφυές είδος. Η ανθρωπότητα έχει εξαφανίσει εκατοντάδες άλλα είδη, κυρίως κατά λάθος. Φοβάται ότι μπορεί να είμαστε εμείς οι επόμενοι - και δεν είναι ο μόνος.

Ο Bengio μοιράστηκε το βραβείο Turing 2018, το βραβείο Νόμπελ της πληροφορικής, με τους συναδέλφους του πρωτοπόρους της βαθιάς μάθησης Yann LeCun και Geoffrey Hinton. Ο Χίντον, ο επιστήμονας με τις περισσότερες αναφορές εν ζωή, τάραξε τα νερά τον Μάιο όταν παραιτήθηκε από τη διευθυντική του θέση στην Google για να μιλήσει πιο ελεύθερα για την πιθανότητα τα μελλοντικά συστήματα τεχνητής νοημοσύνης να εξαφανίσουν την ανθρωπότητα. Ο Hinton και ο Bengio είναι οι δύο πιο επιφανείς ερευνητές ΤΝ που εντάχθηκαν στην κοινότητα του "x-risk". Μερικές φορές αναφέρονται ως "υπερασπιστές της ασφάλειας της ΤΝ" ή "καταστροφολόγοι", αυτή η άτυπη ομάδα ανησυχεί ότι η ΤΝ αποτελεί υπαρξιακό κίνδυνο για την ανθρωπότητα.

Τον ίδιο μήνα που ο Χίντον παραιτήθηκε από την Google, εκατοντάδες ερευνητές της Τεχνητής Νοημοσύνης και σημαντικές προσωπικότητες υπέγραψαν ανοιχτή επιστολή στην οποία αναφέρουν: "Ο μετριασμός του κινδύνου εξαφάνισης από την Τεχνητή Νοημοσύνη θα πρέπει να αποτελέσει παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος". Ο Hinton και ο Bengio ήταν οι κύριοι υπογράφοντες, ακολουθούμενοι από τον διευθύνοντα σύμβουλο του OpenAI Sam Altman και τους επικεφαλής άλλων κορυφαίων εργαστηρίων τεχνητής νοημοσύνης.

Οι Hinton και Bengio ήταν επίσης, τον Οκτώβρη, οι πρώτοι συγγραφείς ενός πορίσματος που προειδοποιούσε για τον κίνδυνο "μη αναστρέψιμης απώλειας του ανθρώπινου ελέγχου επί των αυτόνομων συστημάτων τεχνητής νοημοσύνης", μαζί με διάσημους πανεπιστημιακούς όπως ο νομπελίστας Daniel Kahneman και ο συγγραφέας του Sapiens Yuval Noah Harari.

Ο LeCun, ο οποίος διευθύνει την AI στη Meta, συμφωνεί ότι η τεχνητή νοημοσύνη σε ανθρώπινο επίπεδο έρχεται, αλλά δήλωσε σε μια δημόσια συζήτηση με τον Bengio για την εξαφάνιση της ΤΝ: "Αν είναι επικίνδυνη, δεν θα την κατασκευάσουμε".

Η βαθιά μάθηση τροφοδοτεί τα πιο προηγμένα συστήματα ΤΝ στον κόσμο, από το μοντέλο δίπλωσης των πρωτεϊνών της DeepMind μέχρι μεγάλα γλωσσικά μοντέλα (LLM) όπως το ChatGPT της OpenAI. Κανείς δεν καταλαβαίνει πραγματικά πώς λειτουργούν τα συστήματα βαθιάς μάθησης, αλλά οι επιδόσεις τους συνεχίζουν παρ' όλα αυτά να βελτιώνονται. Αυτά τα συστήματα δεν έχουν σχεδιαστεί για να λειτουργούν σύμφωνα με ένα σύνολο καλά κατανοητών αρχών, αλλά αντίθετα "εκπαιδεύονται" για να αναλύουν μοτίβα σε μεγάλα σύνολα δεδομένων, με αποτέλεσμα να προκύπτει σύνθετη συμπεριφορά - όπως η κατανόηση της γλώσσας. Ο προγραμματιστής τεχνητής νοημοσύνης Connor Leahy μου είπε: "Είναι περισσότερο σαν να εισάγουμε κάτι σε ένα τρυβλίο Petri" παρά σαν να γράφουμε ένα κομμάτι κώδικα. Οι θέσεις του Οκτωβρίου προειδοποιούν ότι "κανείς δεν γνωρίζει επί του παρόντος πώς να ευθυγραμμίσει αξιόπιστα τη συμπεριφορά της τεχνητής νοημοσύνης με πολύπλοκες αξίες".

Παρ' όλες αυτές τις αβεβαιότητες, οι εταιρείες τεχνητής νοημοσύνης θεωρούν ότι βρίσκονται σε έναν αγώνα δρόμου για να κάνουν αυτά τα συστήματα όσο γίνεται πιο ισχυρά - χωρίς ένα εφαρμόσιμο σχέδιο για να κατανοήσουν πώς λειτουργούν στην πραγματικότητα αυτά που δημιουργούν, ενώ παράλληλα κάνουν εκπτώσεις στην ασφάλεια για να κερδίσουν μεγαλύτερο μερίδιο αγοράς. Η τεχνητή γενική νοημοσύνη (AGI) είναι το ιερό δισκοπότηρο για το οποίο εργάζονται τα κορυφαία εργαστήρια ΤΝ. Η AGI ορίζεται συχνά ως ένα σύστημα που είναι τουλάχιστον εξίσου καλό με τον άνθρωπο σε σχεδόν κάθε διανοητική εργασία. Είναι επίσης αυτό που οι Bengio και Hinton πιστεύουν ότι θα μπορούσε να οδηγήσει στο τέλος της ανθρωπότητας.

Κατά περίεργο τρόπο, πολλοί από τους ανθρώπους που προωθούν ενεργά τις δυνατότητες της ΤΝ πιστεύουν ότι υπάρχει σημαντική πιθανότητα αυτό να προκαλέσει τελικά την απόλυτη καταστροφή. Μια έρευνα του 2022 σε ερευνητές μηχανικής μάθησης διαπίστωσε ότι σχεδόν οι μισοί από αυτούς πίστευαν ότι υπήρχε τουλάχιστον 10% πιθανότητα η προηγμένη τεχνητή νοημοσύνη να οδηγήσει σε "ανθρώπινη εξαφάνιση ή [μια] παρόμοια μόνιμη και σοβαρή αποδυνάμωση" της ανθρωπότητας. Λίγους μήνες προτού συνιδρύσει το OpenAI, ο Altman δήλωσε: "Η τεχνητή νοημοσύνη θα οδηγήσει πιθανότατα στο τέλος του κόσμου, αλλά στο μεταξύ θα υπάρξουν σπουδαίες εταιρείες".

Η κοινή γνώμη δείχνει αποθαρρυμένη από την τεχνητή νοημοσύνη, ιδίως κατά τη χρονιά που ακολούθησε την κυκλοφορία του ChatGPT. Σε όλες τις δημοσκοπήσεις του 2023, εκτός από μία, οι περισσότεροι Αμερικανοί πιστεύουν ότι η Τεχνητή Νοημοσύνη θα μπορούσε να αποτελέσει υπαρξιακή απειλή για την ανθρωπότητα. Στις σπάνιες περιπτώσεις που οι δημοσκόποι ρώτησαν τους ανθρώπους αν επιθυμούν τεχνητή νοημοσύνη ανθρώπινου επιπέδου ή ανώτερη, ισχυρές πλειοψηφίες στις Ηνωμένες Πολιτείες και το Ηνωμένο Βασίλειο δήλωσαν ότι δεν το επιθυμούν.

Μέχρι στιγμής, όταν οι σοσιαλιστές εκφράζονται σχετικά με την ΤΝ, είναι συνήθως για να τονίσουν τις διακρίσεις που βασίζονται στην ΤΝ ή για να προειδοποιήσουν για τις δυνητικά αρνητικές επιπτώσεις της αυτοματοποίησης σε έναν κόσμο αδύναμων συνδικάτων και ισχυρών καπιταλιστών. Αλλά η Αριστερά έχει παραμείνει επιδεικτικά σιωπηλή σχετικά με το εφιαλτικό σενάριο των Hinton και Bengio σύμφωνα με το οποίοι η προηγμένη τεχνητή νοημοσύνη θα μπορούσε να μας σκοτώσει όλους.


Ανησυχητικές δυνατότητες


Καθώς μεγάλο μέρος της προσοχής της x-risk κοινότητας επικεντρώνεται στην ιδέα ότι η ανθρωπότητα θα μπορούσε τελικά να χάσει τον έλεγχο της τεχνητής νοημοσύνης, πολλοί ανησυχούν επίσης για τα λιγότερο ικανά συστήματα που θα δώσουν την εξουσία σε κακούς παράγοντες σε πολύ σύντομο χρονικό διάστημα.

Ευτυχώς, είναι δύσκολο να φτιάξεις ένα βιολογικό όπλο. Αλλά αυτό μπορεί να αλλάξει σύντομα.

Η Anthropic, ένα κορυφαίο εργαστήριο τεχνητής νοημοσύνης που ιδρύθηκε από πρώην προσωπικό του OpenAI, συνεργάστηκε πρόσφατα με ειδικούς σε θέματα βιοασφάλειας για να δει πόσο θα μπορούσε να βοηθήσει ένα LLM έναν επίδοξο βιοτρομοκράτη. Καταθέτοντας ενώπιον υποεπιτροπής της Γερουσίας τον Ιούλιο, ο διευθύνων σύμβουλος της Anthropic Dario Amodei ανέφερε ότι ορισμένα βήματα στην παραγωγή βιολογικών όπλων δεν μπορούν να βρεθούν σε εγχειρίδια ή μηχανές αναζήτησης, αλλά ότι "τα σημερινά εργαλεία ΤΝ μπορούν να συμπληρώσουν ορισμένα από αυτά τα βήματα, αν και ελλιπώς" και ότι "μια απλή παρέκταση των σημερινών συστημάτων σε αυτά που αναμένουμε να δούμε σε δύο έως τρία χρόνια υποδηλώνει έναν σημαντικό κίνδυνο ότι τα συστήματα ΤΝ θα είναι σε θέση να συμπληρώσουν όλα τα κομμάτια που λείπουν".

Τον Οκτώβριο, το New Scientist ανέφερε ότι η Ουκρανία χρησιμοποίησε για πρώτη φορά στο πεδίο της μάχης θανατηφόρα αυτόνομα όπλα (LAWs) - κυριολεκτικά ρομπότ δολοφόνους. Οι Ηνωμένες Πολιτείες, η Κίνα και το Ισραήλ αναπτύσσουν τα δικά τους LAW. Η Ρωσία τάχθηκε με το μέρος των Ηνωμένων Πολιτειών και του Ισραήλ για να μην υπάρξει νέος διεθνής νόμος για τα LAWs.

Ωστόσο, η πιο διαδεδομένη ιδέα ότι η τεχνητή νοημοσύνη αποτελεί υπαρξιακό κίνδυνο έχει πολλούς επικριτές, και ο έντονος διάλογος γύρω από την τεχνητή νοημοσύνη είναι δύσκολο να αναλυθεί: εξίσου αξιόπιστοι άνθρωποι διατυπώνουν αντίθετους ισχυρισμούς σχετικά με το αν το x-risk της τεχνητής νοημοσύνης είναι πραγματικό, και οι εταιρείες επιχειρηματικών κεφαλαίων υψηλού κίνδυνου υπογράφουν ανοιχτές επιστολές με προοδευτικούς ειδικούς σε θέματα ηθικής της τεχνητής νοημοσύνης. Και ενώ η ιδέα του x-risk φαίνεται να κερδίζει έδαφος ταχύτερα, μια μεγάλη έκδοση δημοσιεύει ένα δοκίμιο σχεδόν κάθε εβδομάδα που υποστηρίζει ότι το x-risk αποσπά την προσοχή από τις υπάρχουσες επιβλαβείς επιπτώσεις. Εν τω μεταξύ, πολύ περισσότερα χρήματα και άνθρωποι αφιερώνονται αθόρυβα στο να κάνουν τα συστήματα τεχνητής νοημοσύνης πιο ισχυρά παρά στο να τα κάνουν ασφαλέστερα ή λιγότερο διαβλητά.

Κάποιοι φοβούνται όχι το σενάριο "επιστημονικής φαντασίας" όπου τα μοντέλα τεχνητής νοημοσύνης θα γίνουν τόσο ικανά ώστε να αποσπάσουν τον έλεγχο από την αδύναμη λαβή μας, όσο το ότι θα αναθέσουμε σε στρεβλά, εύθραυστα και αόριστα συστήματα υπερβολική ευθύνη, ανοίγοντας ένα πιο πεζό κουτί της Πανδώρας, γεμάτο από απαίσια αλλά γνωστά προβλήματα που εξελίσσονται με τους αλγορίθμους που τα προκαλούν. Αυτή η κοινότητα ερευνητών και υποστηρικτών - που συχνά χαρακτηρίζονται ως "ηθικοί της τεχνητής νοημοσύνης" - τείνει να εστιάζει στις άμεσες βλάβες που προκαλεί η τεχνητή νοημοσύνη, διερευνώντας λύσεις που περιλαμβάνουν την υπευθυνότητα των μοντέλων, την αλγοριθμική διαφάνεια και την ισότητα στη μηχανική μάθηση.

Μίλησα με μερικούς από τους πιο διακεκριμένους εκπροσώπους της κοινότητας της ηθικής της τεχνητής νοημοσύνης, όπως οι επιστημόνισσες πληροφορικής Joy Buolamwini, τριάντα τριών ετών, και Inioluwa Deborah Raji, είκοσι επτά ετών. Καθεμία από αυτές έχει διεξάγει πρωτοποριακή έρευνα σχετικά με τις υπάρχουσες βλάβες που προκαλούνται από τα διακριτικά και ελαττωματικά μοντέλα ΤΝ, των οποίων οι επιπτώσεις, κατά την άποψή τους, αποκρύπτονται τη μία ημέρα και υπερτονίζονται την επόμενη. Όπως και σε  άλλους ερευνητές σε ζητήματα ηθικής της ΤΝ, το έργο τους συνδυάζει την επιστήμη και τον ακτιβισμό. 

Εκείνοι με τους οποίους μίλησα σχετικά με τα θέματα ηθικής της ΤΝ εξέφρασαν σε μεγάλο βαθμό την άποψη ότι, αντί να αντιμετωπίζει με ουσιαστικό τρόπο τις νέες προκλήσεις, όπως η προοπτική μιας πλήρους τεχνολογικής ανεργίας ή ενός αφανισμού, το μέλλον της ΤΝ μοιάζει περισσότερο με εντεινόμενες φυλετικές διακρίσεις στις αποφάσεις για φυλάκιση ή για δάνεια, με τη μεταβολή των χώρων εργασίας σε αποθήκες της Amazon, με επιθέσεις στους φτωχούς εργαζόμενους και με μια περαιτέρω εδραιωμένη και εμπλουτισμένη τεχνο-ελίτ.  [...]

Ίσως δεν θα χρειαστεί να περιμένουμε να βρούμε υπερ-ευφυή συστήματα που δεν θα θέτουν ως προτεραιότητα την ανθρωπότητα. Οι υπεράνθρωποι πράκτορες [ευφυής πράκτορας (Intelligent Agent - IA) είναι μια αυτόνομη οντότητα που αντιλαμβάνεται το περιβάλλον της μέσω αισθητήρων και ενεργεί σε αυτό μέσω ενεργοποιητών - Wikipedia] βελτιστοποιούν αδίστακτα την ανταμοιβή σε βάρος οτιδήποτε άλλου μας ενδιαφέρει. Όσο πιο ικανός είναι ο πράκτορας και όσο πιο αδίστακτος είναι ο βελτιστοποιητής τόσο πιο ακραία είναι τα αποτελέσματα.

Σας θυμίζει κάτι; Αν ναι, δεν είστε οι μόνοι. Το AI Objectives Institute (AOI) εξετάζει τόσο τον καπιταλισμό όσο και την τεχνητή νοημοσύνη ως παραδείγματα εσφαλμένων βελτιστοποιητών. Με συνιδρυτές την πρώην παρουσιάστρια δημόσιας ραδιοφωνικής εκπομπής Brittney Gallagher και τον "ήρωα της ιδιωτικής ζωής" Peter Eckersley λίγο πριν από τον απροσδόκητο θάνατό του, το ερευνητικό εργαστήριο προτίθεται να εξετάσει τον χώρο μεταξύ του αφανισμού και της ουτοπίας, "τη συνέχιση των υφιστάμενων τάσεων συγκέντρωσης της εξουσίας σε λιγότερα χέρια - ενισχυμένες από την πρόοδο της ΤΝ - παρά την απότομη ρήξη με το παρόν". Ο πρόεδρος της AOI, Deger Turan, μου είπε: "Υπαρξιακός κίνδυνος είναι η αποτυχία συντονισμού μπροστά σε έναν κίνδυνο". Λέει ότι "πρέπει να δημιουργήσουμε γέφυρες" μεταξύ της ασφάλειας της τεχνητής νοημοσύνης και της ηθικής της τεχνητής νοημοσύνης. 

Μια από τις επηρεαστικές ιδέες στους κύκλους του x-risk είναι η κατάρα του μονομερούς, ένας όρος για καταστάσεις στις οποίες μία μονάδα μπορεί να καταστρέψει τα πράγματα για όλη την ομάδα. Για παράδειγμα, αν μια ομάδα βιολόγων ανακαλύψει έναν τρόπο να κάνει μια ασθένεια πιο θανατηφόρα, αρκεί μόνο ένας για να το δημοσιεύσει. Τις τελευταίες δεκαετίες, πολλοί άνθρωποι έχουν πειστεί ότι η τεχνητή νοημοσύνη θα μπορούσε να εξαλείψει την ανθρωπότητα, αλλά μόνο οι πιο φιλόδοξοι και ανεκτικοί στο ρίσκο από αυτούς έχουν ιδρύσει τις εταιρείες που επεκτείνουν τώρα τα σύνορα των δυνατοτήτων της τεχνητής νοημοσύνης ή, όπως το έθεσε πρόσφατα ο Sam Altman, σπρώχνουν το "πέπλο της άγνοιας πίσω". Όπως υπαινίσσεται ο διευθύνων σύμβουλος, δεν έχουμε τρόπο να γνωρίζουμε πραγματικά τι βρίσκεται πέρα από το τεχνολογικό όριο.

Κάποιοι κατανοούν πλήρως τους κινδύνους, αλλά προχωρούν έτσι κι αλλιώς. Με τη βοήθεια κορυφαίων επιστημόνων, η ExxonMobil είχε ανακαλύψει ήδη από το 1977 με πειστικές αποδείξεις ότι το προϊόν της προκαλούσε υπερθέρμανση του πλανήτη. Στη συνέχεια, είπε ψέματα στο κοινό γι' αυτό, ενώ παράλληλα κατασκεύαζε ακόμη πιο ψηλές πλατφόρμες πετρελαίου.

Η ιδέα ότι η καύση άνθρακα μπορεί να θερμάνει το κλίμα διατυπώθηκε για πρώτη φορά στα τέλη του δεκάτου ένατου αιώνα, αλλά η επιστημονική συναίνεση σχετικά με την κλιματική αλλαγή χρειάστηκε σχεδόν εκατό χρόνια για να διαμορφωθεί. Η ιδέα ότι θα μπορούσαμε να χάσουμε μόνιμα τον έλεγχο από τις μηχανές είναι παλαιότερη από την πληροφορική, αλλά απέχει πολύ από την επιστημονική συναίνεση. Και αν η πρόσφατη πρόοδος της Τεχνητής Νοημοσύνης συνεχιστεί με τον ίδιο ρυθμό, ίσως να μην έχουμε δεκαετίες για να διαμορφώσουμε μια συναίνεση πριν δράσουμε ουσιαστικά.

Η συζήτηση που διεξάγεται στη δημόσια σφαίρα μπορεί να σας κάνει να πιστεύετε ότι πρέπει να επιλέξουμε μεταξύ της αντιμετώπισης των άμεσων βλαβών της Τεχνητής Νοημοσύνης και των εγγενώς υποθετικών υπαρξιακών κινδύνων της. Και σίγουρα υπάρχουν συμβιβασμοί που απαιτούν προσεκτική εξέταση.

Αλλά όταν εξετάζετε τις υλικές δυνάμεις που εμπλέκονται, αναδύεται μια διαφορετική εικόνα: στη μία γωνία βρίσκονται εταιρείες τρισεκατομμυρίων δολαρίων που προσπαθούν να κάνουν τα μοντέλα τεχνητής νοημοσύνης πιο ισχυρά και κερδοφόρα - σε μια άλλη γωνία βρίσκονται ομάδες της κοινωνίας των πολιτών που προσπαθούν να κάνουν την τεχνητή νοημοσύνη να αντανακλά αξίες που συνήθως συγκρούονται με τη μεγιστοποίηση του κέρδους.

Εν ολίγοις, πρόκειται για τον καπιταλισμό ενάντια στην ανθρωπότητα.
 

Μπορεί η ανθρωπότητα να επιβιώσει από την Τεχνητή Νοημοσύνη; Facebook Twitter
Still από την ταινία Ex Machina (2014)


Μπορεί η ανθρωπότητα να επιβιώσει από την Τεχνητή Νοημοσύνη; Facebook Twitter
Still από την ταινία Ex Machina (2014)


Μπορεί η ανθρωπότητα να επιβιώσει από την Τεχνητή Νοημοσύνη; Facebook Twitter
Still από την ταινία Ex Machina (2014)


Μπορεί η ανθρωπότητα να επιβιώσει από την Τεχνητή Νοημοσύνη; Facebook Twitter
Still από την ταινία Ex Machina (2014)


Μπορεί η ανθρωπότητα να επιβιώσει από την Τεχνητή Νοημοσύνη; Facebook Twitter
Still από την ταινία Ex Machina (2014)

Αλμανάκ

ΑΠΕΡΓΙΑ ΠΡΩΤΗ ΜΑΪΟΥ

ΘΕΜΑΤΑ ΔΗΜΟΦΙΛΗ

ΕΙΔΗΣΕΙΣ ΔΗΜΟΦΙΛΗ

THE GOOD LIFO ΔΗΜΟΦΙΛΗ