Η «ανατρεπτική» ομιλία του Έλληνα καθηγητή στο MIT, Δασκαλάκη, που έλυσε τον γρίφο του Nash

Η «ανατρεπτική» ομιλία του Έλληνα καθηγητή στο MIT, Δασκαλάκη, που έλυσε τον γρίφο του Nash Facebook Twitter
9

Το βράδυ της Τρίτης στη Θεσσαλονίκη, ο μόλις 36 ετών, Κωνσταντίνος Δασκαλάκης, καθηγητής της Επιστήμης των Υπολογιστών στο περίφημο ΜΙΤ, μοιράστηκε με τους παρευρισκόμενους στην κατάμεστη αίθουσα τελετών του ΑΠΘ τις εκτιμήσεις του για την εξέλιξη της τεχνητής νοημοσύνης τα επόμενα «πέντε έως 50 χρόνια», παραδεχόμενος ότι η πραγματικότητα ενδέχεται τελικά να διαψεύσει κάθε πρόβλεψη.

Μπορούν τα ρομπότ να σώσουν το παγκόσμιο ασφαλιστικό σύστημα από την επαπειλούμενη κατάρρευση; Πόσο πιθανό είναι ένας καλοκάγαθος αλγόριθμος να εξελιχθεί σε ρατσιστή συνωμοσιολόγο μέσα σε λίγες ώρες;

Θα εναπόκειται στις ηθικές αξίες του software ενός αυτοοδηγούμενου αυτοκινήτου να αποφασίσει ποιος ζει και ποιος πεθαίνει, όταν το όχημα "συνειδητοποιεί" ότι επίκειται ένα σοβαρό αυτοκινητιστικό ατύχημα με εμπλοκή πεζών;

Πώς θα χρησιμοποιήσει τη στατιστική ένα ρομπότ, για να αποφασίσει σε ποιον υποψήφιο πελάτη θα δώσει η τράπεζα ένα δάνειο και ποιος θεωρείται αναξιόπιστος;

Είναι εφικτό μια ομάδα ανθρώπων να "πείσει" έναν αξιόπιστο αλγόριθμο αναγνώρισης εικόνας ότι μια καραμπίνα που έχει μπροστά του είναι ένα αθώο παιδικό παιχνίδι;

Η εποχή της τεχνητής νοημοσύνης έρχεται "φορτωμένη" με υποσχέσεις, προκλήσεις και κινδύνους. Και παρότι για να ανοίξει ο νέος αυτός οικονομικός κύκλος στην ιστορία της ανθρωπότητας απαιτείται ένα μεγάλο άλμα (η μετάβαση από την τεχνητή νοημοσύνη ειδικών εφαρμογών -που ήδη "βλέπουμε" να εφαρμόζεται σε αρκετές περιπτώσεις- στη γενική τεχνητή νοημοσύνη, η πλήρης ανάπτυξη της οποίας πιθανότατα θα απαιτήσει αρκετές δεκαετίες), μια νέα συναρπαστική εποχή ήδη ανατέλλει.

Κατά τον Έλληνα καθηγητή, που μεταξύ άλλων έχει λύσει το γρίφο του Nash, το πιθανότερο είναι ότι σε πέντε χρόνια από σήμερα θα έχουμε έναν προσωπικό γραμματέα με τεχνητή νοημοσύνη και αυτο-οδηγούμενα αυτοκίνητα, ενώ σε 15 χρόνια η διεπαφή του ανθρώπινου εγκεφάλου με την τεχνολογία θα γίνει ενδεχομένως πολύ πιο άμεση και το όριο που διαχωρίζει το πού ξεκινά ο άνθρωπος και πού αρχίζει η μηχανή πιο δυσδιάκριτο.

"Μπορεί όλο αυτό να ξεφύγει από τον έλεγχο; Ναι, θα μπορούσε όπως έχει συμβεί και με άλλα πράγματα στο παρελθόν. Το να είμαστε όμως αρνητικοί απέναντι στο ποτάμι που έρχεται κατά πάνω μας δεν είναι εποικοδομητικό, αυτό που πρέπει να σκεφτόμαστε, είναι πώς θα το βάλουμε στη σωστή κατεύθυνση" σημείωσε, μιλώντας σε εκδήλωση που διοργάνωσαν τα Τμήματα Πληροφορικής και Μαθηματικών της Σχολής Θετικών Επιστημών του ΑΠΘ.

Wonderland, Pessiland, Stagnatia

 

Ο ίδιος ανέλυσε τρία σενάρια για την εξέλιξη της τεχνητής νοημοσύνης στα επόμενα "πέντε έως 50 χρόνια", επισημαίνοντας ότι αυτό που πιθανότατα θα επικρατήσει είναι η μίξη τους. Με βάση το πρώτο (θετικό) σενάριο, με τίτλο "Wonderland", η αλληλεπίδραση ανθρώπων- μηχανών είναι θετική και ο πρώτος κερδίζει από την ύπαρξη των δεύτερων. Οι μηχανές κάνουν τις χειρονακτικές εργασίες, ο άνθρωπος έχει περισσότερο ελεύθερο χρόνο ή εκτελεί πνευματικές εργασίες και το ασφαλιστικό σύστημα σώζεται, αφού η έλλειψη νέων ανθρώπων που εργάζονται και καταβάλουν εισφορές αναπληρώνεται από την ύπαρξη των ρομπότ, που δεν χρειάζονται ασφάλιση ή σύνταξη.

Προϋπόθεση για να επαληθευτεί αυτό το σενάριο είναι να κατακτήσει η επιστήμη τη γενική νοημοσύνη, δηλαδή η μηχανή να μάθει να χρησιμοποιεί τη διαίσθηση και την εμπειρία που αποκτά από μια νοητική λειτουργία και να τη μεταφέρει σε μια που δεν ξέρει καθόλου (πχ, όταν γνωρίζει να παίζει σκάκι, να μπορεί να χρησιμοποιήσει στρατηγική και στο πόκερ).

Βάσει του δεύτερου -αρνητικού- σεναρίου, με τίτλο "Pessiland", η επιστήμη κατακτά την γενική νοημοσύνη, αλλά αυτή δεν είναι προσβάσιμη σε όλους, αλλά μόνο σε εργαστήρια εταιρειών ή κρατών, που τη χρησιμοποιούν για ιμπεριαλιστική επιρροή. "Αν πάμε σε αυτή την κατεύθυνση, το σενάριο είναι προφανώς δυστοπικό" επισήμανε ο καθηγητής.

Το τρίτο σενάριο, με τίτλο "Stagnatia", για το οποίο ο δρ Δασκαλάκης επισήμανε ότι "έχει αρκετές πιθανότητες (επαλήθευσης)", είναι αυτό κατά το οποίο ενώ υπάρχουν ολοένα και περισσότερες εφαρμογές ειδικής τεχνητής νοημοσύνης (πχ αναγνώριση εικόνας και ήχου ή μετάφραση), η επιστήμη δεν καταφέρνει να κάνει το άλμα στη γενική τεχνητή νοημοσύνη και επικρατεί σχετική στασιμότητα.

Όταν ο αλγόριθμος "βλέπει" μια χελώνα σαν καραμπίνα

Κατά τον δρα Δασκαλάκη, σήμερα ένας από τους βασικούς προβληματισμούς της ανθρωπότητας είναι η αξιοπιστία της τεχνολογίας."Υπάρχουν μεγάλα θέματα αξιοπιστίας και ένας από τους λόγους είναι ότι όταν τα δεδομένα με τα οποία τροφοδοτείς τον αλγόριθμο είναι ελλιπή ή μη αντιπροσωπευτικά, μπορεί να οδηγήσουν σε λανθασμένες ή ελλιπείς νοητικές λειτουργίες. Πχ, έγινε γνωστό ότι ένα αυτοκίνητο Tesla έπεσε σε φορτηγό σταματημένο στην αριστερή λωρίδα. Γιατί συνέβη αυτό;

Ίσως γιατί ποτέ στα δεδομένα που εισήχθησαν για να προπονηθεί ο αλγόριθμος στην αναγνώριση εικόνας δεν υπήρχε αυτοκίνητο σταματημένο στην αριστερή λωρίδα του δρόμου, επειδή αυτό σπάνια συμβαίνει. Ο αλγόριθμος θα επεξεργαστεί τα ελλιπή δεδομένα που τού δώσαμε και θα ενσωματώσει την έλλειψη" σημείωσε, ενώ πρόσθεσε ότι φοιτητές του ΜΙΤ επιτέθηκαν στον καλύτερο αλγόριθμο αναγνώρισης εικόνας και τον έκαναν να "πιστέψει" ότι μια τρισδιάστατη χελώνα τυπωμένη σε εκτυπωτή 3D ήταν ...καραμπίνα. "Δεν έχουμε τόσο αξιόπιστη Τεχνητή Νοημοσύνη σήμερα. Προσπαθούμε να φτιάξουμε τρόπους προστασίας αλγορίθμων από τέτοιου είδους επιθέσεις" επισήμανε.

Ποιος αποφασίζει ποιος θα χάσει τη ζωή του;

'Ενα άλλο θέμα, πρόσθεσε, έχει να κάνει με ηθικά διλήμματα. "Ενα κλασικό πρόβλημα είναι το εξής. Σκεφτείτε ότι φτιάχνουμε αυτοοδηγούμενα αυτοκίνητα που κινούνται μαζικά στους δρόμους. Αναπόφευκτα κάποιο από αυτά θα βρει τον εαυτό του σε φάση αναγνώρισης του γεγονότος ότι σε μερικά δευτερόλεπτα θα γίνει ένα αναπόφευκτο ατύχημα με εμπλοκή πεζών. Ο αλγόριθμος που οδηγεί καταλαβαίνει τότε ότι έχει δύο δυνατότητες:

να πάει ευθεία και να σκοτώσει τους πεζούς ή να πάει αριστερά, να χτυπήσει στο στηθαίο και να σκοτώσει τους επιβαίνοντες. Δεν μπορεί να σώσει και τους δύο. Πώς θα πάρει την απόφαση; Ο αλγόριθμος μπορεί επίσης να καταλαβαίνει ότι οι πεζοί είναι ένα παιδάκι 8 χρονών, ο μπαμπάς του, 41, και ο σκύλος τους και οι επιβαίνοντες μια έγκυος γυναίκα 30 ετών και το αγοράκι της. Πώς εγώ που σχεδιάζω τον αλγόριθμο θα λάβω την απόφαση για το ποιος θα ζήσει";

Ο ρατσιστής αλγόριθμος

 

Κατά τον δρα Δασκαλάκη, η Τεχνητή Νοημοσύνη είναι σαν ένα μωρό. Το μωρό έρχεται στον κόσμο με γενετικά χαρακτηριστικά, αλλά εν πολλοίς είναι tabula rasa. Οι γονείς τού δίνουν δεδομένα και στόχους. Αν τα δεδομένα που λαμβάνει το μωρό περιέχουν ρατσιστικές απόψεις ή προκαταλήψεις ή θέσεις, αυτές τις θέσεις θα τις υιοθετήσει. Το ίδιο ισχύει και για την Τεχνητή Νοημοσύνη, η οποία μαθαίνει από την αλληλεπίδραση με τους ανθρώπους.

Χαρακτηριστικό είναι το παράδειγμα ενός chat bot (σ.σ. ρομπότ που κάνει διάλογο μέσω κειμένου ή ήχου). Μια ομάδα χρηστών του επιτέθηκε, παρέχοντάς του ρατσιστικό και συνωμοσιολογικό περιεχόμενο. "Μέσα σε 17 ώρες έγινε τρελός ρατσιστής και συνωμοσιολόγος" σημείωσε ο καθηγητής.

Τίθενται επίσης ζητήματα αμεροληψίας, γιατί αν τα δεδομένα είναι ελλιπή, η τεχνητή νοημοσύνη θα υιοθετήσει στατιστικές που δεν είναι αντιπροσωπευτικές. Κι εδώ για παράδειγμα το ερώτημα είναι: έστω πως φτιάχνω τεχνολογία που αποφαίνεται αν κάποιος είναι άξιος λήψης δανείου, αλλά έχω ελλιπή στοιχεία για μια πληθυσμιακή ομάδα. Τι γίνεται τότε; "Πρέπει να προστατέψουμε την τεχνητή νοημοσύνη από το να κάνει τέτοια στατιστικά λάθη, αλλά το πρόβλημα είναι ότι η στατιστική είναι δύσκολη επιστήμη" σημείωσε.

Ο δρ Δασκαλάκης είναι απόφοιτος των Ηλεκτρολόγων του Ε.Μ.Π. Έκανε διδακτορικό στο Πανεπιστήμιο του Μπέρκλεϋ, και εργάστηκε ως μεταδιδακτορικός ερευνητής στη Microsoft. Η έρευνά του επικεντρώνεται στην θεωρητική πληροφορική και την διεπαφή της με τα Οικονομικά, την Στατιστική και την Τεχνητή Νοημοσύνη. Έχει μεταξύ άλλων τιμηθεί με το βραβείο της καλύτερης διδακτορικής διατριβής στην πληροφορική από τον διεθνή οργανισμό επιστήμης των υπολογιστών ACM, με το βραβείο Kalai από την διεθνή ένωση Θεωρίας Παιγνίων, το βραβείο εξαιρετικής δημοσίευσης από την διεθνή ένωση εφαρμοσμένων μαθηματικών SIAM, το Career Award από το Ίδρυμα Επιστημών της Αμερικής, το βραβείο Πληροφορικής του Ιδρύματος Sloan και την ερευνητική υποτροφία της Microsoft.

Τech & Science
9

ΔΕΙΤΕ ΑΚΟΜΑ

Ένα είδος αλεπούς ισως ήταν «ο καλύτερος φίλος του ανθρώπου», λένε αρχαιολόγοι

Τech & Science / Ένα είδος αλεπούς ίσως ήταν «ο καλύτερος φίλος του ανθρώπου» πριν από τον σκύλο, λένε αρχαιολόγοι

Η ανάλυση σκελετικών υπολειμμάτων ηλικίας 1.500 ετών στην Παταγονία υποδηλώνει ότι το Dusicyon avus ήταν «ένας πολύτιμος σύντροφος για τις ομάδες κυνηγών-τροφοσυλλεκτών»
NEWSROOM

σχόλια

2 σχόλια
Ενδιαφέρουσα η διάλεξη,αλλά πιστεύω θα μπορούσε να είναι πιο πρακτική.Τα όσα αναφέρει το άρθρο είναι καθαρά φιλοσοφικά και θα μπορούσαν να ειπωθούν κάλλιστα από έναν θεωρητικό. Γνώμη μου πάντα.
Ακομα και στην πρωτη και την καλυτερη εκβαση θα πρεπει να λυσουμε ενα προβλημα που υπαρχει χιλιαδες χρονια "αργια μητηρ πασης κακιας". Οι ανθρωποι είμαστε οντα "επιλυσης προβληματων" και όταν δεν εχουμε πραγματικα προβληματα, τα δημιουργουμε...ετσι για να εχουμε να λυνουμε. Στην επιστημονικη φαντασία εχουν ήδη διατυπωθει πολλα σεναρια, κανενα δεν είναι ουτοπικο, ακομα και τα φαινομενικα ιδεατα, είτε οδηγουν σε γενικευμενη απαθεια, είτε σε χειραγωγήσιμα περιβαλλοντα ανευ προηγουμενου, παντως ότι και να γίνει σε καμια περίπτωση δεν προκειται να ζήσει η ανθρωπότητα σε ενα χαρουμενο κιτρινο υποβρύχιο για τον πιο απλο λόγο όλων, η ανθρωπότητα ποτε δεν εχει εκφρασει μια και μοναδικη θεληση.Τα κρατη αναλογα με τα πολιτευματα θα χρησιμοποιησουν την Τ.Ν. οπως καθε αλλο εργαλέιο. Το ίδιο οι εταιρίες, το ίδιο οι πολιτες, το ίδιο το οργανωμενο εγκλημα, το ίδιο οι αντικαθεστωτικοι, το ίδιο οι δημαγωγοι & λαικιστες, το ίδιο στο πολεμο, το ίδιο στην ειρηνη.Η εισαγωγη ενος νεου εργαλείου δεν αλλαζει τον βασικο πυρηνα λειτουργίας τους είδους μας.
«Η εισαγωγη ενος νεου εργαλείου δεν αλλαζει τον βασικο πυρηνα λειτουργίας τους είδους μας.» Πηγή: www.lifo.grΓια το συγκεκριμένο «εργαλείο» ας μην είμαστε τόσο σίγουροι. Το «εργαλείο» της φωτιάς του homo erectus άνοιξε το δρόμο για την εμφάνιση του homo sapiens. Το «εργαλείο» της τεχνητής νοημοσύνης, σε συνδυασμό με τις άλλες τεχνοβιολογικές εξελίξεις, άνετα θα μπορούσε να οδηγήσει στην εμφάνιση του επόμενου homo...
Για πείτε μου με την εισαγωγη του τροχου και της φωτια, με την αγροτικη επανασταση και την βιομηχανικη, με την βασιλεία, τυρανία, ολιγαρχία, κουμουνισμο, δημοκρατία κτλ. Τι ακριβως αλλαξε στον βασικο πυρηνα λειτουργίας των ανθρωπινων κοινωνίων; Σταματησε ο πόλεμος (ελεγχος φυσικων πόρων για την διασφάλιση της επιβίωσης της ομαδας); σταματησε κατι; ή απλα αλλαξε ο τρόπος επιδίωξης του βασικου πυρινα σε διεκπεραιωτικο μοτιβο; η γραφή τι αλλαξε; τον τρόπο ή τον ίδιο τον πυρήνα λειτουργίας;Ο homo erectus με τον homo sapiens παλι τα ίδια πραγματα επιδιώκουν (πυρηνας λειτουργίας) απλα με διαφορετικα μεσα(φωτια, τροχος, γραφη, A.I. κτλ)....και τα πιο αποτελεσματικα είναι που καθορίζουν ποιος επιβιώνει.Οταν λεμε βασικος πυρηνας λειτουργίας εννοουμε, ποιες είναι οι κινητήριες δυναμεις που δημιουργουν τις κοινωνικες συμπεριφορες, 1. επιβιωση, 2. διαιωνιση, αυτα είναι κοινα και αναλοιωτα σε οποιον homo και να κοιτάξεις.Η Τεχνητη Νοημοσύνη τι σκοπο υπηρετει; Επιβίωση της ομαδας (που την κατεχει)Η φωτια τι σκοπο υπηρετει; Επιβιωση της ομάδας (που την κατεχει)Οπως και για τους ίδιους λόγους πλακωνόντουσαν στο ξύλο οι homo erectus ετσι πλακωνόμαστε και τωρα...απλα με πιο αποτελεσματικο τρόπο.Κυριολεκτικα μηδεν αλλαγη στον πυρηνα λειτουργίας...Αποδειξη; χρησιμοποιήτε το εργαλείο της A.I. στην πολεμικη βιομηχανία; κατασκοπία; δημιουργία προπαγανδας; οργανωμενο εγκλημα; προφανως και ως εργαλείο χρησιμοποιήται και για όλους τους ειρηνικους σκοπους, νοσοκομεια, πανεπιστημια, παροχη υπηρεσιων κτλ.Η φυση του homo δεν αλλαζει επειδη αλλαζουν τα εργαλεία με τα οποία την υπηρετει.