Η Google λέει ότι έφτιαξε μοντέλα AI που «διαβάζουν συναισθήματα» - Γιατί ανησυχούν οι ειδικοί

Η Google λέει ότι έφτιαξε μοντέλα AI που «αναγνωρίζουν συναισθήματα» - Γιατί ανησυχούν οι ειδικοί Facebook Twitter
Φωτογραφία: Getty Images
0

Η Google λέει ότι τα νέα μοντέλα της τεχνητής νοημοσύνης έχουν ένα ιδιαίτερο χαρακτηριστικό: Μπορούν να «αναγνωρίζουν» συναισθήματα.

Όπως ανακοίνωσε ο τεχνολογικός κολοσσός την Πέμπτη, 5 Δεκεμβρίου, η οικογένεια μοντέλων PaliGemma 2 μπορεί να αναλύει εικόνες, επιτρέποντας στην τεχνολογία AI να δημιουργεί λεζάντες και να απαντά σε ερωτήσεις σχετικά με τους ανθρώπους που «βλέπει» στις φωτογραφίες.

«Το PaliGemma 2 παράγει λεπτομερείς και σχετικές με το πλαίσιο λεζάντες για εικόνες, πηγαίνοντας πέρα από την απλή αναγνώριση αντικειμένων για να περιγράψει ενέργειες, συναισθήματα και το γενικότερο πλαίσιο της σκηνής», έγραψε η Google σε μια επικοινωνία που μοιράστηκε με την ιστοσελίδα TechCrunch.

Πρέπει να σημειωθεί ότι η λειτουργία αναγνώρισης συναισθημάτων δεν είναι ενεργοποιημένη εξ αρχής στο PaliGema 2, αλλά το πρόγραμμα πρέπει να ρυθμιστεί λεπτομερώς για τον συγκεκριμένο σκοπό.

Παρ' όλα αυτά, οι ειδικοί με τους οποίους μίλησε το TechCrunch θορυβήθηκαν έντονα από την προοπτική ενός ανοιχτά διαθέσιμου ανιχνευτή συναισθημάτων.

Μπορεί, αλήθεια, το AI να διαβάσει συναισθήματα; 

«Αυτό με προβληματίζει πολύ», δήλωσε στο TechCrunch η Sandra Wachter, καθηγήτρια σε θέματα ηθικής των δεδομένων και της τεχνητής νοημοσύνης στο Internet Institute του πανεπιστημίου της Οξφόρδης. «Θεωρώ προβληματικό να υποθέτουμε ότι μπορούμε να ''διαβάσουμε'' τα συναισθήματα των ανθρώπων. Είναι σαν να ζητάμε συμβουλές από μια κρυστάλινη μπάλα».

Εδώ και χρόνια, τόσο οι νεοφυείς επιχειρήσεις όσο και οι τεχνολογικοί γίγαντες προσπαθούν να δημιουργήσουν τεχνητή νοημοσύνη που μπορεί να ανιχνεύει συναισθήματα, η οποία μπορεί να έχει πολλές χρήσεις, από την εκπαίδευση πωλητών μέχρι την πρόληψη ατυχημάτων. Ορισμένες εταιρείες ισχυρίζονται ότι ήδη έχουν δημιουργήσει τέτοιες τεχνολογίες, αλλά είναι δύσκολο να αποδειχτεί η αποτελεσματικότητά τους.

Οι περισσότεροι «ανιχνευτές συναισθημάτων» αντλούν στοιχεία από το πρώιμο έργο του Paul Ekman, ενός ψυχολόγου που θεωρούσε ότι όλοι οι άνθρωποι έχουν έξι κοινά θεμελιώδη συναισθήματα: Θυμό, έκπληξη, αηδία, απόλαυση, φόβο και θλίψη. Μεταγενέστερες μελέτες αμφισβήτησαν, ωστόσο, την υπόθεση του Ekman, αποδεικνύοντας ότι υπάρχουν μεγάλες διαφορές στον τρόπο με τον οποίο οι άνθρωποι εκφράζουν τα συναισθήματά τους, ανάλογα με τις προηγούμενες εμπειρίες τους και το υπόβαθρό τους.

«Γενικότερα, η ανίχνευση συναισθημάτων δεν είναι δυνατή σε μεγάλη κλίμακα, επειδή τα ανθρώπινα όντα βιώνουν τα συναισθήματα με πολύπλοκους τρόπους», εξηγεί ο Mike Cook, ερευνητής στο Πανεπιστήμιο Queen Mary με ειδίκευση στην τεχνητή νοημοσύνη.

Ανιχνευτής συναισθημάτων ή συνονθύλευμα προκαταλήψεων;

«Φυσικά, πιστεύουμε ότι μπορούμε να καταλάβουμε τι αισθάνονται οι άλλοι άνθρωποι κοιτάζοντάς τους και πολλοί άνθρωποι ανά τους καιρούς έχουν προσπαθήσει, όπως οι υπηρεσίες κατασκοπείας ή οι εταιρείες μάρκετινγκ. Είμαι σίγουρος ότι μπορούμε να ανιχνεύσουμε κάποια γενικά σημάδια σε ορισμένες περιπτώσεις, αλλά δεν είναι κάτι που μπορούμε ποτέ να κατανοήσουμε πλήρως» πρόσθεσε ο Cook.

Ως αποτέλεσμα, τα συστήματα που διαφημίζονται ως «ανιχνευτές συναισθημάτων» τείνουν να είναι αναξιόπιστα, ενώ συχνά «κληρονομούν» τις προκαταλήψεις των δημιουργών τους, σημειώνει το TechCrunch.

Όπως έδειξε μία μελέτη του MIT από το 2020, τα μοντέλα ανάλυσης προσώπου μπορούν να αναπτύξουν «προτιμήσεις» για ορισμένες εκφράσεις, όπως για παράδειγμα το χαμόγελο. Άλλες, πιο πρόσφατες μελέτες, ανακάλυψαν ότι τα μοντέλα συναισθηματικής ανάλυσης αποδίδουν περισσότερα αρνητικά συναισθήματα στα πρόσωπα των μαύρων από ό,τι στα πρόσωπα των λευκών.

Από την πλευρά της, η Google αναφέρει ότι διεξήγαγε «εκτεταμένες δοκιμές» για την αξιολόγηση των δημογραφικών προκαταλήψεων στο PaliGemma 2 και διαπίστωσε «χαμηλά επίπεδα τοξικότητας και βωμολοχίας» σε σύγκριση με τα πρότυπα της βιομηχανίας. Ωστόσο, η εταιρεία δεν διευκρίνισε ποια ήταν τα κριτήρια αναφοράς που χρησιμοποίησε, ούτε σε ποιες ακριβώς δοκιμές υποβλήθηκε το μοντέλο.

Σύμφωνα με κάποιους εμπειρογνώμονες, όπως ο Heidy Khlaaf, επικεφαλής επιστήμονας τεχνητής νοημοσύνης στο AI Now Institute, ακόμη και αν τα μοντέλα ανίχνευσης συναισθημάτων μπορούσαν να «διαβάσουν» με ακρίβεια τις εκφράσεις του προσώπου μας, αυτό και πάλι δεν θα ήταν αρκετό.

«Άσχετα με την τεχνητή νοημοσύνη, η επιστημονική έρευνα μας έχει δείξει ότι έχει δείξει ότι δεν μπορούμε να συμπεράνουμε συναισθήματα μόνο από τα χαρακτηριστικά του προσώπου».

Η ΕΕ αντιδρά με νέους νόμους για το AI 

Καθώς οι τεχνολογικές-και όχι μόνο-εταιρείες προσπαθούν να κατασκευάσουν όλο και πιο εξελιγμένα μοντέλα AI, τα νομοθετικά όργανα της Ευρωπαϊκής Ένωσης σπεύδουν να περιορίσουν τη χρήση τους σε περιβάλλοντα που χαρακτηρίζονται «υψηλού κινδύνου».

Για παράδειγμα, ο Ευρωπαϊκός Κανονισμός για την Τεχνητή Νοημοσύνη απαγορεύει στα σχολεία και τους εργοδότες να αναπτύσσουν ανιχνευτές συναισθημάτων, αλλά αυτός ο περιορισμός δεν δεσμεύει στις αστυνομικές αρχές.

Η μεγαλύτερη πηγή ανησυχίας γύρω από μοντέλα όπως το PaliGema 2, το οποίο είναι ανοικτά διαθέσιμο σε διάφορες πλατφόρμες στο διαδίκτυο, συμπεριλαμβανομένης της ιστοσελίδας Hugging Face, είναι ότι θα γίνει κατάχρηση τους, οι συνέπειες της οποίας θα είναι εμφανείς στον πραγματικό κόσμο.

«Εάν αυτή η λεγόμενη συναισθηματική αναγνώριση βασίζεται σε ψευδοεπιστημονικές υποθέσεις, θα υπάρχουν σημαντικές επιπτώσεις στον τρόπο με τον οποίο αυτή η τεχνολογία μπορεί να χρησιμοποιηθεί για την περαιτέρω διάκριση σε βάρος περιθωριοποιημένων ομάδων», δήλωσε ο Khlaaf, δίνοντας παραδείγματα για τη χρήση της τεχνολογίας από την αστυνομία ή από τις υπηρεσίες μετανάστευσης.

Ερωτηθείς σχετικά με τους κινδύνους της κυκλοφορίας του PaliGemma 2, ένας εκπρόσωπος της Google δήλωσε ότι η εταιρεία έχει πάρει τα απαραίτητα μέτρα και πραγματοποίησε «ισχυρές αξιολογήσεις των μοντέλων του PaliGemma 2 όσον αφορά την ηθική και την ασφάλεια, συμπεριλαμβανομένης της ασφάλειας των παιδιών, της ασφάλειας του περιεχομένου», πρόσθεσαν.

«Θα θέλατε ένα δάνειο; Παρακαλώ περάστε πρώτα από τον ανιχνευτή συναισθημάτων»

Όμως η Sandra Wachter του Internet Institute στο πανεπιστήμιο της Οξφόρδης δεν πιστεύει ότι η Google έκανε αρκετά.

«Υπεύθυνη καινοτομία σημαίνει ότι σκέφτεσαι τις συνέπειες από την πρώτη μέρα που μπαίνεις στο εργαστήριό σου και συνεχίζεις να το κάνεις καθ' όλη τη διάρκεια του κύκλου ζωής ενός προϊόντος», είπε στο TechCrunch, προτού συνεχίσει.

«Μπορώ να σκεφτώ μυριάδες πιθανά ζητήματα (με μοντέλα όπως το PaliGemma 2) που μπορούν να οδηγήσουν σε ένα δυστοπικό μέλλον, όπου τα συναισθήματά σας θα καθορίζουν αν θα πάρετε μία δουλειά, αν θα σας δοθεί ένα δάνειο και αν θα γίνετε δεκτός στο πανεπιστήμιο».

Με πληροφορίες από TechCrunch

Τech & Science
0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

Τα social media κατακεραυνώνουν τη Coca-Cola για τη διαφήμιση που φτιάχτηκε με AI

It's Viral / Δείτε την πρώτη διαφήμιση της Coca-Cola που δημιουργήθηκε με τεχνολογία AI

Η Coca-Cola έφτιαξε μία διαφήμιση χρησιμοποιώντας μόνο τεχνολογία τεχνητής νοημοσύνης - Χρήστες του διαδικτύου χαρακτηρίζουν το σποτ «άψυχο» και «χωρίς ίχνος δημιουργικότητας» - Αντιδρούν και διαφημιστές
LIFO NEWSROOM

ΔΕΙΤΕ ΑΚΟΜΑ

«Σεξιστικός» ο αλγόριθμος του Facebook που προβάλλει θέσεις εργασίας, σύμφωνα με πόρισμα της γαλλικής Αρχής Ισότητας

Τech & Science / «Σεξιστικός» ο αλγόριθμος του Facebook που προβάλλει θέσεις εργασίας, σύμφωνα με πόρισμα της γαλλικής Αρχής Ισότητας

Σε δοκιμές, εννέα στους δέκα χρήστες που είδαν αγγελίες για θέσεις μηχανικών ήταν άνδρες, ενώ το ίδιο ποσοστό των χρηστών που είδαν αγγελίες για νηπιαγωγούς ήταν γυναίκες
LIFO NEWSROOM
Βρισκόμαστε πιο κοντά από ποτέ σ’ ένα πυρηνικό ολοκαύτωμα;

Τech & Science / Πόσο κοντά βρισκόμαστε σ’ ένα πυρηνικό ολοκαύτωμα;

Σύμφωνα με το βιβλίο «Nuclear Age», ο κίνδυνος είναι μεγαλύτερος από ποτέ, με την παρουσία τουλάχιστον εννέα πυρηνικών δυνάμεων και την έλλειψη αποτελεσματικού διεθνούς πλαισίου για τον περιορισμό της απειλής.
LIFO NEWSROOM
Η Ε.Ε. αποσύρει iPhone από την αγορά λόγω υπερβολικής ακτινοβολίας

Τech & Science / Η ΕΕ αποσύρει iPhone από την αγορά λόγω υπερβολικής ακτινοβολίας

Η υπόθεση ξεκίνησε στη Γαλλία, όταν τεχνικοί έλεγχοι αποκάλυψαν ότι το συγκεκριμένο μοντέλο ξεπερνούσε το όριο SAR, δηλαδή τον δείκτη που υπολογίζει πόση ακτινοβολία απορροφά ο ανθρώπινος οργανισμός
LIFO NEWSROOM
Αυξάνονται τα κρούσματα υπνικής άπνοιας στους καύσωνες

Τech & Science / Αυξάνονται τα κρούσματα υπνικής άπνοιας στους καύσωνες

Η υπνική άπνοια, κατά την οποία η αναπνοή του ατόμου διακόπτεται κατά τη διάρκεια της νύχτας, δεν προκαλεί απλώς υπερβολική υπνηλία, αλλά μπορεί να αυξήσει τον κίνδυνο υπέρτασης, εγκεφαλικού επεισοδίου, καρδιακών παθήσεων και διαβήτη τύπου 2
LIFO NEWSROOM
Παγκόσμια βλάβη στη Microsoft: Προβλήματα σε Outlook, Teams, Minecraft και μεγάλες εταιρείες

Τech & Science / Παγκόσμια βλάβη στη Microsoft: Προβλήματα σε Outlook, Teams, Minecraft και μεγάλες εταιρείες

Η εταιρεία αναφέρει ότι «ορισμένοι χρήστες του Microsoft 365 ενδέχεται να αντιμετωπίζουν καθυστερήσεις ή δυσκολίες σύνδεσης», ενώ οι μηχανικοί της εργάζονται για την πλήρη αποκατάσταση των υπηρεσιών
LIFO NEWSROOM