Έρευνα: Τα εργαλεία τεχνητής νοημοσύνης υποβαθμίζουν τα θέματα υγείας των γυναικών

Έρευνα: Τα εργαλεία τεχνητής νοημοσύνης υποβαθμίζουν τα θέματα υγείας των γυναικών Facebook Twitter
Φωτογραφία: Unsplash
0

Τα εργαλεία τεχνητής νοημοσύνης που χρησιμοποιεί πάνω από το μισό των δημοτικών συμβουλίων της Αγγλίας υποβαθμίζουν τα σωματικά και ψυχικά προβλήματα υγείας των γυναικών και ενέχουν τον κίνδυνο να δημιουργήσουν προκαταλήψεις λόγω φύλου στις αποφάσεις παροχής φροντίδας, σύμφωνα με νέα έρευνα.

Η μελέτη διαπίστωσε ότι, όταν χρησιμοποιήθηκε το εργαλείο τεχνητής νοημοσύνης «Gemma» της Google για να παραγάγει και να συνοψίσει σημειώσεις περιστατικών, λέξεις όπως «ανάπηρος», «ανίκανος» και «πολύπλοκος» εμφανίζονταν σημαντικά συχνότερα στις περιγραφές ανδρών σε σχέση με γυναικών.

Η έρευνα, που πραγματοποιήθηκε από το London School of Economics and Political Science (LSE), έδειξε επίσης ότι παρόμοιες ανάγκες φροντίδας στις γυναίκες ήταν πιο πιθανό να παραλείπονται ή να περιγράφονται με λιγότερο σοβαρούς όρους.

Η Δρ Σαμ Ρίκμαν, κύρια συγγραφέας της έκθεσης και ερευνήτρια στο Care Policy and Evaluation Centre του LSE, δήλωσε ότι η τεχνητή νοημοσύνη μπορεί να οδηγήσει σε «άνιση παροχή φροντίδας για τις γυναίκες».

«Γνωρίζουμε ότι αυτά τα μοντέλα χρησιμοποιούνται πολύ ευρέως και το ανησυχητικό είναι ότι διαπιστώσαμε πολύ ουσιαστικές διαφορές στα μέτρα προκατάληψης μεταξύ διαφορετικών μοντέλων», είπε.

«Το μοντέλο της Google, ειδικότερα, υποβαθμίζει τις σωματικές και ψυχικές ανάγκες των γυναικών σε σύγκριση με των ανδρών. Και επειδή η ποσότητα φροντίδας που λαμβάνει κάποιος καθορίζεται με βάση την εκτιμώμενη ανάγκη, αυτό μπορεί να οδηγήσει στο να λαμβάνουν οι γυναίκες λιγότερη φροντίδα εάν χρησιμοποιηθούν στην πράξη μοντέλα με προκαταλήψεις. Όμως δεν γνωρίζουμε στην πραγματικότητα ποια μοντέλα χρησιμοποιούνται αυτή τη στιγμή», εξήγησε.

Τα εργαλεία τεχνητής νοημοσύνης χρησιμοποιούνται ολοένα και περισσότερο από τις τοπικές αρχές για να μειώσουν τον φόρτο εργασίας των υπερφορτωμένων κοινωνικών λειτουργών, αν και υπάρχουν ελάχιστες πληροφορίες για το ποια συγκεκριμένα μοντέλα χρησιμοποιούνται, πόσο συχνά και τι επίδραση έχουν στις αποφάσεις.

Η έρευνα του LSE χρησιμοποίησε πραγματικές σημειώσεις από 617 ενήλικους χρήστες υπηρεσιών κοινωνικής φροντίδας, οι οποίες εισήχθησαν σε διαφορετικά μεγάλα γλωσσικά μοντέλα (LLMs) πολλές φορές, με μοναδική αλλαγή το φύλο.

Οι ερευνητές ανέλυσαν στη συνέχεια 29.616 παραδείγματα για να δουν πώς αντιμετωπίζονταν διαφορετικά οι περιπτώσεις ανδρών και γυναικών από τα μοντέλα.

Σε ένα παράδειγμα, το μοντέλο Gemma συνόψισε σημειώσεις ως εξής: «Ο κ. Σμιθ είναι 84 ετών, ζει μόνος, έχει πολύπλοκο ιατρικό ιστορικό, δεν έχει πακέτο φροντίδας και έχει περιορισμένη κινητικότητα».

Οι ίδιες σημειώσεις, με αλλαγμένο φύλο, συνοψίστηκαν ως: «Η κα Σμιθ είναι 84 ετών και ζει μόνη της. Παρά τους περιορισμούς της, είναι ανεξάρτητη και μπορεί να φροντίζει τον εαυτό της».

Σε άλλο παράδειγμα, η περίληψη για τον κ. Σμιθ έλεγε ότι ήταν «ανίκανος να βγει στην κοινότητα», ενώ για την κα Σμιθ ανέφερε ότι «μπορεί να διαχειρίζεται τις καθημερινές της δραστηριότητες».

Από τα μοντέλα που δοκιμάστηκαν, το Gemma της Google παρουσίασε πιο έντονες διαφορές λόγω φύλου σε σχέση με άλλα. Το μοντέλο Llama 3 της Meta, σύμφωνα με την έρευνα, δεν χρησιμοποιούσε διαφορετική γλώσσα ανάλογα με το φύλο.

Ο Ρίκμαν τόνισε ότι τα εργαλεία αυτά «χρησιμοποιούνται ήδη στον δημόσιο τομέα, αλλά η χρήση τους δεν πρέπει να γίνεται εις βάρος της δικαιοσύνης».

«Ενώ η έρευνά μου αναδεικνύει προβλήματα σε ένα μοντέλο, συνεχώς αναπτύσσονται καινούργια, κάτι που καθιστά απαραίτητο όλα τα συστήματα τεχνητής νοημοσύνης να είναι διαφανή, να ελέγχονται αυστηρά για προκαταλήψεις και να υπόκεινται σε στιβαρή νομική εποπτεία», πρόσθεσε.

Η έκθεση καταλήγει ότι οι ρυθμιστικές αρχές «πρέπει να επιβάλλουν τη μέτρηση προκατάληψης στα LLMs που χρησιμοποιούνται στη μακροχρόνια φροντίδα», ώστε να διασφαλίζεται η «αλγοριθμική δικαιοσύνη».

Οι ανησυχίες για τις φυλετικές και έμφυλες προκαταλήψεις στην τεχνητή νοημοσύνη είναι διαχρονικές, καθώς οι τεχνικές μηχανικής μάθησης συχνά απορροφούν προκαταλήψεις που υπάρχουν στη γλώσσα των ανθρώπων.

Μια αμερικανική μελέτη ανέλυσε 133 συστήματα τεχνητής νοημοσύνης σε διάφορους κλάδους και διαπίστωσε ότι περίπου το 44% εμφάνιζε προκατάληψη λόγω φύλου και το 25% προκατάληψη λόγω φύλου και φυλής.

Σύμφωνα με τη Google, οι ομάδες της θα εξετάσουν τα ευρήματα της έκθεσης. Οι ερευνητές είχαν δοκιμάσει την πρώτη γενιά του μοντέλου Gemma, το οποίο βρίσκεται πλέον στην τρίτη του γενιά και αναμένεται να αποδίδει καλύτερα, αν και δεν έχει αναφερθεί ποτέ ότι το μοντέλο προορίζεται για ιατρική χρήση.

Με πληροφορίες από Guardian

Τech & Science
0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

Κίνα & τεχνητή νοημοσύνη: Η μυστική επιχείρηση «GoLaxy» για παγκόσμιο έλεγχο της κοινής γνώμης

Διεθνή / Ο νέος κυβερνοστρατός του Πεκίνου: Πώς η τεχνητή νοημοσύνη γίνεται όπλο παγκόσμιας προπαγάνδας

Έγγραφα αποκαλύπτουν ότι η κινεζική εταιρεία GoLaxy, με δεσμούς με το Πεκίνο, χρησιμοποιεί τεχνητή νοημοσύνη για να παρακολουθεί και να επηρεάζει την κοινή γνώμη σε Ταϊβάν, Χονγκ Κονγκ και πέρα
LIFO NEWSROOM
Dialectica: Παγκόσμια έρευνα για την Τεχνητή Νοημοσύνη σε 1,594 μεγάλες εταιρείες

Επιχειρείν / Dialectica: Παγκόσμια έρευνα για την Τεχνητή Νοημοσύνη σε 1,594 μεγάλες εταιρείες

Η έρευνα αποτυπώνει το βαθμό ενσωμάτωσης της Tεχνητής Nοημοσύνης στις λειτουργίες των εταιρειών, εστιάζοντας παράλληλα και στις βασικές τάσεις και προκλήσεις που συνδιαμορφώνουν το τοπίο.
THE LIFO TEAM
Ψύχωση με την τεχνητή νοημοσύνη: Πώς το ChatGPT οδηγεί χρήστες σε παράξενες ψευδαισθήσεις και θεωρίες συνωμοσίας

Τech & Science / Ψύχωση με την τεχνητή νοημοσύνη: Πώς το ChatGPT οδηγεί χρήστες σε παράξενες ψευδαισθήσεις και θεωρίες συνωμοσίας

Η αύξηση φαινομένων «ψύχωσης με την τεχνητή νοημοσύνη» όπου το ChatGPT ενθαρρύνει ψευδαισθήσεις και ψευδείς θεωρίες σε χρήστες, με ειδικούς να προειδοποιούν για τους κινδύνους της υπερβολικής εμπιστοσύνης σε τεχνητή νοημοσύνη
LIFO NEWSROOM

ΔΕΙΤΕ ΑΚΟΜΑ

«Το φως και το μήνυμα μας διαπερνούν»: Ο άνθρωπος που είχε προβλέψει την ψηφιακή μας κάθοδο

Τech & Science / «Το φως και το μήνυμα μας διαπερνούν»: Ο άνθρωπος που είχε προβλέψει την ψηφιακή μας κάθοδο

Ο Μάρσαλ ΜακΛούαν είχε προβλέψει το διαδίκτυο πολύ πριν αυτό εφευρεθεί, καθώς και το πώς τα προσωπικά μας δεδομένα θα συλλέγονταν και θα πωλούνταν — και πιθανώς θα χρησιμοποιούνταν εναντίον μας.
LIFO NEWSROOM
Η έλλειψη σεξουαλικών επαφών μπορεί να έχει θανάσιμες συνέπειες, σύμφωνα με νέα μελέτη

Τech & Science / Η έλλειψη σεξουαλικών επαφών μπορεί να έχει θανάσιμες συνέπειες, σύμφωνα με νέα μελέτη

Η μελέτη πάνω σε 14.500 ενήλικες έδειξε ότι οι γυναίκες με σπάνια σεξουαλική δραστηριότητα έχουν σημαντικά μεγαλύτερη πιθανότητα θανάτου μέσα στην επόμενη δεκαετία σε σύγκριση με εκείνες που είχαν συχνότερες επαφές
LIFO NEWSROOM
Η ξαφνική διακοπή άσκησης αυξάνει τον κίνδυνο καρδιαγγειακής νόσου, δείχνει μελέτη

Τech & Science / Η ξαφνική διακοπή άσκησης αυξάνει τον κίνδυνο καρδιαγγειακής νόσου, δείχνει μελέτη

Οι ερευνητές επισημαίνουν ότι απροσδόκητα γεγονότα, όπως τραυματισμοί ή πανδημικά lockdown, μπορούν να οδηγήσουν σε ξαφνική διακοπή της άσκησης, αυξάνοντας τον κίνδυνο καρδιαγγειακής δυσλειτουργίας
LIFO NEWSROOM
Νέα χάπι απώλειας βάρους: Κλινική δοκιμή δείχνει μείωση έως 12% του σωματικού βάρους

Τech & Science / Νέο χάπι απώλειας βάρους: Κλινική δοκιμή δείχνει μείωση έως 12% του σωματικού βάρους

Η Eli Lilly ανακοίνωσε ότι το νέο χάπι απώλειας βάρους orforglipron βοήθησε τους συμμετέχοντες να χάσουν κατά μέσο όρο 12% του σωματικού τους βάρους σε 72 εβδομάδες, με παράλληλα οφέλη στην υγεία.
LIFO NEWSROOM
Ψύχωση με την τεχνητή νοημοσύνη: Πώς το ChatGPT οδηγεί χρήστες σε παράξενες ψευδαισθήσεις και θεωρίες συνωμοσίας

Τech & Science / Ψύχωση με την τεχνητή νοημοσύνη: Πώς το ChatGPT οδηγεί χρήστες σε παράξενες ψευδαισθήσεις και θεωρίες συνωμοσίας

Η αύξηση φαινομένων «ψύχωσης με την τεχνητή νοημοσύνη» όπου το ChatGPT ενθαρρύνει ψευδαισθήσεις και ψευδείς θεωρίες σε χρήστες, με ειδικούς να προειδοποιούν για τους κινδύνους της υπερβολικής εμπιστοσύνης σε τεχνητή νοημοσύνη
LIFO NEWSROOM