Η Google λέει ότι έφτιαξε μοντέλα AI που «διαβάζουν συναισθήματα» - Γιατί ανησυχούν οι ειδικοί

Η Google λέει ότι έφτιαξε μοντέλα AI που «αναγνωρίζουν συναισθήματα» - Γιατί ανησυχούν οι ειδικοί Facebook Twitter
Φωτογραφία: Getty Images
0

Η Google λέει ότι τα νέα μοντέλα της τεχνητής νοημοσύνης έχουν ένα ιδιαίτερο χαρακτηριστικό: Μπορούν να «αναγνωρίζουν» συναισθήματα.

Όπως ανακοίνωσε ο τεχνολογικός κολοσσός την Πέμπτη, 5 Δεκεμβρίου, η οικογένεια μοντέλων PaliGemma 2 μπορεί να αναλύει εικόνες, επιτρέποντας στην τεχνολογία AI να δημιουργεί λεζάντες και να απαντά σε ερωτήσεις σχετικά με τους ανθρώπους που «βλέπει» στις φωτογραφίες.

«Το PaliGemma 2 παράγει λεπτομερείς και σχετικές με το πλαίσιο λεζάντες για εικόνες, πηγαίνοντας πέρα από την απλή αναγνώριση αντικειμένων για να περιγράψει ενέργειες, συναισθήματα και το γενικότερο πλαίσιο της σκηνής», έγραψε η Google σε μια επικοινωνία που μοιράστηκε με την ιστοσελίδα TechCrunch.

Πρέπει να σημειωθεί ότι η λειτουργία αναγνώρισης συναισθημάτων δεν είναι ενεργοποιημένη εξ αρχής στο PaliGema 2, αλλά το πρόγραμμα πρέπει να ρυθμιστεί λεπτομερώς για τον συγκεκριμένο σκοπό.

Παρ' όλα αυτά, οι ειδικοί με τους οποίους μίλησε το TechCrunch θορυβήθηκαν έντονα από την προοπτική ενός ανοιχτά διαθέσιμου ανιχνευτή συναισθημάτων.

Μπορεί, αλήθεια, το AI να διαβάσει συναισθήματα; 

«Αυτό με προβληματίζει πολύ», δήλωσε στο TechCrunch η Sandra Wachter, καθηγήτρια σε θέματα ηθικής των δεδομένων και της τεχνητής νοημοσύνης στο Internet Institute του πανεπιστημίου της Οξφόρδης. «Θεωρώ προβληματικό να υποθέτουμε ότι μπορούμε να ''διαβάσουμε'' τα συναισθήματα των ανθρώπων. Είναι σαν να ζητάμε συμβουλές από μια κρυστάλινη μπάλα».

Εδώ και χρόνια, τόσο οι νεοφυείς επιχειρήσεις όσο και οι τεχνολογικοί γίγαντες προσπαθούν να δημιουργήσουν τεχνητή νοημοσύνη που μπορεί να ανιχνεύει συναισθήματα, η οποία μπορεί να έχει πολλές χρήσεις, από την εκπαίδευση πωλητών μέχρι την πρόληψη ατυχημάτων. Ορισμένες εταιρείες ισχυρίζονται ότι ήδη έχουν δημιουργήσει τέτοιες τεχνολογίες, αλλά είναι δύσκολο να αποδειχτεί η αποτελεσματικότητά τους.

Οι περισσότεροι «ανιχνευτές συναισθημάτων» αντλούν στοιχεία από το πρώιμο έργο του Paul Ekman, ενός ψυχολόγου που θεωρούσε ότι όλοι οι άνθρωποι έχουν έξι κοινά θεμελιώδη συναισθήματα: Θυμό, έκπληξη, αηδία, απόλαυση, φόβο και θλίψη. Μεταγενέστερες μελέτες αμφισβήτησαν, ωστόσο, την υπόθεση του Ekman, αποδεικνύοντας ότι υπάρχουν μεγάλες διαφορές στον τρόπο με τον οποίο οι άνθρωποι εκφράζουν τα συναισθήματά τους, ανάλογα με τις προηγούμενες εμπειρίες τους και το υπόβαθρό τους.

«Γενικότερα, η ανίχνευση συναισθημάτων δεν είναι δυνατή σε μεγάλη κλίμακα, επειδή τα ανθρώπινα όντα βιώνουν τα συναισθήματα με πολύπλοκους τρόπους», εξηγεί ο Mike Cook, ερευνητής στο Πανεπιστήμιο Queen Mary με ειδίκευση στην τεχνητή νοημοσύνη.

Ανιχνευτής συναισθημάτων ή συνονθύλευμα προκαταλήψεων;

«Φυσικά, πιστεύουμε ότι μπορούμε να καταλάβουμε τι αισθάνονται οι άλλοι άνθρωποι κοιτάζοντάς τους και πολλοί άνθρωποι ανά τους καιρούς έχουν προσπαθήσει, όπως οι υπηρεσίες κατασκοπείας ή οι εταιρείες μάρκετινγκ. Είμαι σίγουρος ότι μπορούμε να ανιχνεύσουμε κάποια γενικά σημάδια σε ορισμένες περιπτώσεις, αλλά δεν είναι κάτι που μπορούμε ποτέ να κατανοήσουμε πλήρως» πρόσθεσε ο Cook.

Ως αποτέλεσμα, τα συστήματα που διαφημίζονται ως «ανιχνευτές συναισθημάτων» τείνουν να είναι αναξιόπιστα, ενώ συχνά «κληρονομούν» τις προκαταλήψεις των δημιουργών τους, σημειώνει το TechCrunch.

Όπως έδειξε μία μελέτη του MIT από το 2020, τα μοντέλα ανάλυσης προσώπου μπορούν να αναπτύξουν «προτιμήσεις» για ορισμένες εκφράσεις, όπως για παράδειγμα το χαμόγελο. Άλλες, πιο πρόσφατες μελέτες, ανακάλυψαν ότι τα μοντέλα συναισθηματικής ανάλυσης αποδίδουν περισσότερα αρνητικά συναισθήματα στα πρόσωπα των μαύρων από ό,τι στα πρόσωπα των λευκών.

Από την πλευρά της, η Google αναφέρει ότι διεξήγαγε «εκτεταμένες δοκιμές» για την αξιολόγηση των δημογραφικών προκαταλήψεων στο PaliGemma 2 και διαπίστωσε «χαμηλά επίπεδα τοξικότητας και βωμολοχίας» σε σύγκριση με τα πρότυπα της βιομηχανίας. Ωστόσο, η εταιρεία δεν διευκρίνισε ποια ήταν τα κριτήρια αναφοράς που χρησιμοποίησε, ούτε σε ποιες ακριβώς δοκιμές υποβλήθηκε το μοντέλο.

Σύμφωνα με κάποιους εμπειρογνώμονες, όπως ο Heidy Khlaaf, επικεφαλής επιστήμονας τεχνητής νοημοσύνης στο AI Now Institute, ακόμη και αν τα μοντέλα ανίχνευσης συναισθημάτων μπορούσαν να «διαβάσουν» με ακρίβεια τις εκφράσεις του προσώπου μας, αυτό και πάλι δεν θα ήταν αρκετό.

«Άσχετα με την τεχνητή νοημοσύνη, η επιστημονική έρευνα μας έχει δείξει ότι έχει δείξει ότι δεν μπορούμε να συμπεράνουμε συναισθήματα μόνο από τα χαρακτηριστικά του προσώπου».

Η ΕΕ αντιδρά με νέους νόμους για το AI 

Καθώς οι τεχνολογικές-και όχι μόνο-εταιρείες προσπαθούν να κατασκευάσουν όλο και πιο εξελιγμένα μοντέλα AI, τα νομοθετικά όργανα της Ευρωπαϊκής Ένωσης σπεύδουν να περιορίσουν τη χρήση τους σε περιβάλλοντα που χαρακτηρίζονται «υψηλού κινδύνου».

Για παράδειγμα, ο Ευρωπαϊκός Κανονισμός για την Τεχνητή Νοημοσύνη απαγορεύει στα σχολεία και τους εργοδότες να αναπτύσσουν ανιχνευτές συναισθημάτων, αλλά αυτός ο περιορισμός δεν δεσμεύει στις αστυνομικές αρχές.

Η μεγαλύτερη πηγή ανησυχίας γύρω από μοντέλα όπως το PaliGema 2, το οποίο είναι ανοικτά διαθέσιμο σε διάφορες πλατφόρμες στο διαδίκτυο, συμπεριλαμβανομένης της ιστοσελίδας Hugging Face, είναι ότι θα γίνει κατάχρηση τους, οι συνέπειες της οποίας θα είναι εμφανείς στον πραγματικό κόσμο.

«Εάν αυτή η λεγόμενη συναισθηματική αναγνώριση βασίζεται σε ψευδοεπιστημονικές υποθέσεις, θα υπάρχουν σημαντικές επιπτώσεις στον τρόπο με τον οποίο αυτή η τεχνολογία μπορεί να χρησιμοποιηθεί για την περαιτέρω διάκριση σε βάρος περιθωριοποιημένων ομάδων», δήλωσε ο Khlaaf, δίνοντας παραδείγματα για τη χρήση της τεχνολογίας από την αστυνομία ή από τις υπηρεσίες μετανάστευσης.

Ερωτηθείς σχετικά με τους κινδύνους της κυκλοφορίας του PaliGemma 2, ένας εκπρόσωπος της Google δήλωσε ότι η εταιρεία έχει πάρει τα απαραίτητα μέτρα και πραγματοποίησε «ισχυρές αξιολογήσεις των μοντέλων του PaliGemma 2 όσον αφορά την ηθική και την ασφάλεια, συμπεριλαμβανομένης της ασφάλειας των παιδιών, της ασφάλειας του περιεχομένου», πρόσθεσαν.

«Θα θέλατε ένα δάνειο; Παρακαλώ περάστε πρώτα από τον ανιχνευτή συναισθημάτων»

Όμως η Sandra Wachter του Internet Institute στο πανεπιστήμιο της Οξφόρδης δεν πιστεύει ότι η Google έκανε αρκετά.

«Υπεύθυνη καινοτομία σημαίνει ότι σκέφτεσαι τις συνέπειες από την πρώτη μέρα που μπαίνεις στο εργαστήριό σου και συνεχίζεις να το κάνεις καθ' όλη τη διάρκεια του κύκλου ζωής ενός προϊόντος», είπε στο TechCrunch, προτού συνεχίσει.

«Μπορώ να σκεφτώ μυριάδες πιθανά ζητήματα (με μοντέλα όπως το PaliGemma 2) που μπορούν να οδηγήσουν σε ένα δυστοπικό μέλλον, όπου τα συναισθήματά σας θα καθορίζουν αν θα πάρετε μία δουλειά, αν θα σας δοθεί ένα δάνειο και αν θα γίνετε δεκτός στο πανεπιστήμιο».

Με πληροφορίες από TechCrunch

Τech & Science
0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

Τα social media κατακεραυνώνουν τη Coca-Cola για τη διαφήμιση που φτιάχτηκε με AI

It's Viral / Δείτε την πρώτη διαφήμιση της Coca-Cola που δημιουργήθηκε με τεχνολογία AI

Η Coca-Cola έφτιαξε μία διαφήμιση χρησιμοποιώντας μόνο τεχνολογία τεχνητής νοημοσύνης - Χρήστες του διαδικτύου χαρακτηρίζουν το σποτ «άψυχο» και «χωρίς ίχνος δημιουργικότητας» - Αντιδρούν και διαφημιστές
LIFO NEWSROOM

ΔΕΙΤΕ ΑΚΟΜΑ

Το Spotify βάζει σήμα επαλήθευσης για να ξεχωρίζουν οι πραγματικοί καλλιτέχνες από τα AI προφίλ

Τech & Science / Το Spotify εισάγει σήμα επαλήθευσης για να διακρίνονται οι πραγματικοί καλλιτέχνες από τα AI προφίλ

Το Spotify ανακοίνωσε το νέο σήμα «Verified by Spotify», ένα σύστημα επαλήθευσης που θα βοηθά τους χρήστες να ξεχωρίζουν τους πραγματικούς καλλιτέχνες από AI προφίλ και ψεύτικες ταυτότητες. Η κίνηση έρχεται σε μια περίοδο όπου οι μουσικές πλατφόρμες δέχονται όλο και μεγαλύτερη πίεση από την έκρηξη του περιεχομένου που δημιουργείται με τεχνητή νοημοσύνη.
THE LIFO TEAM
ΚΑΡΚΙΝΟΣ ΠΑΓΚΡΕΑΣ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΕΝΤΟΠΙΣΜΟΣ

Τech & Science / Στιγμή - ορόσημο για την αντιμετώπιση του καρκίνου στο πάγκρεας: AI μπορεί να τον εντοπίζει έως και 3 χρόνια πριν τη διάγνωση

Σε μια εξέλιξη που θα μπορούσε να αλλάξει ριζικά τον τρόπο με τον οποίο εντοπίζεται ένας από τους πιο θανατηφόρους καρκίνους, η Mayo Clinic παρουσίασε το REDMOD
THE LIFO TEAM
«Βλέπω ό,τι χειρότερο έχει γεννήσει η ανθρωπότητα»: Οι άνθρωποι που «σπάνε» την Τεχνητή Νοημοσύνη για να μας σώσουν

Τech & Science / «Βλέπω ό,τι χειρότερο έχει γεννήσει η ανθρωπότητα»

Οι AI jailbreakers προσπαθούν να ξεγελάσουν μεγάλα γλωσσικά μοντέλα όπως το ChatGPT και το Claude, ώστε να αποκαλύψουν αδυναμίες στους κανόνες ασφαλείας τους. Καθώς η τεχνητή νοημοσύνη μπαίνει σε περισσότερα συστήματα, η δουλειά τους γίνεται όλο και πιο κρίσιμη, αλλά και ψυχικά φορτισμένη..
THE LIFO TEAM
Η δίκη του αιώνα για την Τεχνητή Νοημοσύνη: Ο Έλον Μασκ στο εδώλιο κατά της OpenAI

Τech & Science / Η δίκη του αιώνα για την Τεχνητή Νοημοσύνη: Ο Έλον Μασκ στο εδώλιο κατά της OpenAI

Η δίκη του Έλον Μασκ κατά του Σαμ Άλτμαν, του OpenAI και της Microsoft ξεκίνησε στην Καλιφόρνια, με τον ιδρυτή της Tesla να υποστηρίζει ότι το OpenAI πρόδωσε την αρχική μη κερδοσκοπική αποστολή του. Η πλευρά του OpenAI απαντά ότι ο Μασκ δεν υπερασπίζεται μια αποστολή, αλλά επιτίθεται σε έναν ανταγωνιστή που δεν κατάφερε να ελέγξει.
THE LIFO TEAM