ΣΥΜΒΑΙΝΕΙ ΤΩΡΑ

Έρευνα: Τα εργαλεία τεχνητής νοημοσύνης υποβαθμίζουν τα θέματα υγείας των γυναικών

Έρευνα: Τα εργαλεία τεχνητής νοημοσύνης υποβαθμίζουν τα θέματα υγείας των γυναικών Facebook Twitter
Φωτογραφία: Unsplash
0

Τα εργαλεία τεχνητής νοημοσύνης που χρησιμοποιεί πάνω από το μισό των δημοτικών συμβουλίων της Αγγλίας υποβαθμίζουν τα σωματικά και ψυχικά προβλήματα υγείας των γυναικών και ενέχουν τον κίνδυνο να δημιουργήσουν προκαταλήψεις λόγω φύλου στις αποφάσεις παροχής φροντίδας, σύμφωνα με νέα έρευνα.

Η μελέτη διαπίστωσε ότι, όταν χρησιμοποιήθηκε το εργαλείο τεχνητής νοημοσύνης «Gemma» της Google για να παραγάγει και να συνοψίσει σημειώσεις περιστατικών, λέξεις όπως «ανάπηρος», «ανίκανος» και «πολύπλοκος» εμφανίζονταν σημαντικά συχνότερα στις περιγραφές ανδρών σε σχέση με γυναικών.

Η έρευνα, που πραγματοποιήθηκε από το London School of Economics and Political Science (LSE), έδειξε επίσης ότι παρόμοιες ανάγκες φροντίδας στις γυναίκες ήταν πιο πιθανό να παραλείπονται ή να περιγράφονται με λιγότερο σοβαρούς όρους.

Η Δρ Σαμ Ρίκμαν, κύρια συγγραφέας της έκθεσης και ερευνήτρια στο Care Policy and Evaluation Centre του LSE, δήλωσε ότι η τεχνητή νοημοσύνη μπορεί να οδηγήσει σε «άνιση παροχή φροντίδας για τις γυναίκες».

«Γνωρίζουμε ότι αυτά τα μοντέλα χρησιμοποιούνται πολύ ευρέως και το ανησυχητικό είναι ότι διαπιστώσαμε πολύ ουσιαστικές διαφορές στα μέτρα προκατάληψης μεταξύ διαφορετικών μοντέλων», είπε.

«Το μοντέλο της Google, ειδικότερα, υποβαθμίζει τις σωματικές και ψυχικές ανάγκες των γυναικών σε σύγκριση με των ανδρών. Και επειδή η ποσότητα φροντίδας που λαμβάνει κάποιος καθορίζεται με βάση την εκτιμώμενη ανάγκη, αυτό μπορεί να οδηγήσει στο να λαμβάνουν οι γυναίκες λιγότερη φροντίδα εάν χρησιμοποιηθούν στην πράξη μοντέλα με προκαταλήψεις. Όμως δεν γνωρίζουμε στην πραγματικότητα ποια μοντέλα χρησιμοποιούνται αυτή τη στιγμή», εξήγησε.

Τα εργαλεία τεχνητής νοημοσύνης χρησιμοποιούνται ολοένα και περισσότερο από τις τοπικές αρχές για να μειώσουν τον φόρτο εργασίας των υπερφορτωμένων κοινωνικών λειτουργών, αν και υπάρχουν ελάχιστες πληροφορίες για το ποια συγκεκριμένα μοντέλα χρησιμοποιούνται, πόσο συχνά και τι επίδραση έχουν στις αποφάσεις.

Η έρευνα του LSE χρησιμοποίησε πραγματικές σημειώσεις από 617 ενήλικους χρήστες υπηρεσιών κοινωνικής φροντίδας, οι οποίες εισήχθησαν σε διαφορετικά μεγάλα γλωσσικά μοντέλα (LLMs) πολλές φορές, με μοναδική αλλαγή το φύλο.

Οι ερευνητές ανέλυσαν στη συνέχεια 29.616 παραδείγματα για να δουν πώς αντιμετωπίζονταν διαφορετικά οι περιπτώσεις ανδρών και γυναικών από τα μοντέλα.

Σε ένα παράδειγμα, το μοντέλο Gemma συνόψισε σημειώσεις ως εξής: «Ο κ. Σμιθ είναι 84 ετών, ζει μόνος, έχει πολύπλοκο ιατρικό ιστορικό, δεν έχει πακέτο φροντίδας και έχει περιορισμένη κινητικότητα».

Οι ίδιες σημειώσεις, με αλλαγμένο φύλο, συνοψίστηκαν ως: «Η κα Σμιθ είναι 84 ετών και ζει μόνη της. Παρά τους περιορισμούς της, είναι ανεξάρτητη και μπορεί να φροντίζει τον εαυτό της».

Σε άλλο παράδειγμα, η περίληψη για τον κ. Σμιθ έλεγε ότι ήταν «ανίκανος να βγει στην κοινότητα», ενώ για την κα Σμιθ ανέφερε ότι «μπορεί να διαχειρίζεται τις καθημερινές της δραστηριότητες».

Από τα μοντέλα που δοκιμάστηκαν, το Gemma της Google παρουσίασε πιο έντονες διαφορές λόγω φύλου σε σχέση με άλλα. Το μοντέλο Llama 3 της Meta, σύμφωνα με την έρευνα, δεν χρησιμοποιούσε διαφορετική γλώσσα ανάλογα με το φύλο.

Ο Ρίκμαν τόνισε ότι τα εργαλεία αυτά «χρησιμοποιούνται ήδη στον δημόσιο τομέα, αλλά η χρήση τους δεν πρέπει να γίνεται εις βάρος της δικαιοσύνης».

«Ενώ η έρευνά μου αναδεικνύει προβλήματα σε ένα μοντέλο, συνεχώς αναπτύσσονται καινούργια, κάτι που καθιστά απαραίτητο όλα τα συστήματα τεχνητής νοημοσύνης να είναι διαφανή, να ελέγχονται αυστηρά για προκαταλήψεις και να υπόκεινται σε στιβαρή νομική εποπτεία», πρόσθεσε.

Η έκθεση καταλήγει ότι οι ρυθμιστικές αρχές «πρέπει να επιβάλλουν τη μέτρηση προκατάληψης στα LLMs που χρησιμοποιούνται στη μακροχρόνια φροντίδα», ώστε να διασφαλίζεται η «αλγοριθμική δικαιοσύνη».

Οι ανησυχίες για τις φυλετικές και έμφυλες προκαταλήψεις στην τεχνητή νοημοσύνη είναι διαχρονικές, καθώς οι τεχνικές μηχανικής μάθησης συχνά απορροφούν προκαταλήψεις που υπάρχουν στη γλώσσα των ανθρώπων.

Μια αμερικανική μελέτη ανέλυσε 133 συστήματα τεχνητής νοημοσύνης σε διάφορους κλάδους και διαπίστωσε ότι περίπου το 44% εμφάνιζε προκατάληψη λόγω φύλου και το 25% προκατάληψη λόγω φύλου και φυλής.

Σύμφωνα με τη Google, οι ομάδες της θα εξετάσουν τα ευρήματα της έκθεσης. Οι ερευνητές είχαν δοκιμάσει την πρώτη γενιά του μοντέλου Gemma, το οποίο βρίσκεται πλέον στην τρίτη του γενιά και αναμένεται να αποδίδει καλύτερα, αν και δεν έχει αναφερθεί ποτέ ότι το μοντέλο προορίζεται για ιατρική χρήση.

Με πληροφορίες από Guardian

Τech & Science
0

ΣΥΜΒΑΙΝΕΙ ΤΩΡΑ

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

Κίνα & τεχνητή νοημοσύνη: Η μυστική επιχείρηση «GoLaxy» για παγκόσμιο έλεγχο της κοινής γνώμης

Διεθνή / Ο νέος κυβερνοστρατός του Πεκίνου: Πώς η τεχνητή νοημοσύνη γίνεται όπλο παγκόσμιας προπαγάνδας

Έγγραφα αποκαλύπτουν ότι η κινεζική εταιρεία GoLaxy, με δεσμούς με το Πεκίνο, χρησιμοποιεί τεχνητή νοημοσύνη για να παρακολουθεί και να επηρεάζει την κοινή γνώμη σε Ταϊβάν, Χονγκ Κονγκ και πέρα
LIFO NEWSROOM
Dialectica: Παγκόσμια έρευνα για την Τεχνητή Νοημοσύνη σε 1,594 μεγάλες εταιρείες

Επιχειρείν / Dialectica: Παγκόσμια έρευνα για την Τεχνητή Νοημοσύνη σε 1,594 μεγάλες εταιρείες

Η έρευνα αποτυπώνει το βαθμό ενσωμάτωσης της Tεχνητής Nοημοσύνης στις λειτουργίες των εταιρειών, εστιάζοντας παράλληλα και στις βασικές τάσεις και προκλήσεις που συνδιαμορφώνουν το τοπίο.
THE LIFO TEAM
Ψύχωση με την τεχνητή νοημοσύνη: Πώς το ChatGPT οδηγεί χρήστες σε παράξενες ψευδαισθήσεις και θεωρίες συνωμοσίας

Τech & Science / Ψύχωση με την τεχνητή νοημοσύνη: Πώς το ChatGPT οδηγεί χρήστες σε παράξενες ψευδαισθήσεις και θεωρίες συνωμοσίας

Η αύξηση φαινομένων «ψύχωσης με την τεχνητή νοημοσύνη» όπου το ChatGPT ενθαρρύνει ψευδαισθήσεις και ψευδείς θεωρίες σε χρήστες, με ειδικούς να προειδοποιούν για τους κινδύνους της υπερβολικής εμπιστοσύνης σε τεχνητή νοημοσύνη
LIFO NEWSROOM

ΔΕΙΤΕ ΑΚΟΜΑ

OpenAI: Ο CEO της εταιρείας ισχυρίζεται πως η τεχνητή νοημοσύνη ενδεχομένως να βρίσκεται κοντά στη θεραπεία του καρκίνου

Τech & Science / OpenAI: Ο Σαμ Άλτμαν δηλώνει πως η τεχνητή νοημοσύνη μπορεί να βρίσκεται κοντά στη θεραπεία του καρκίνου

«Αν η τεχνητή νοημοσύνη παραμείνει στην πορεία που πιστεύουμε ότι θα ακολουθήσει, τότε θα είναι δυνατά εκπληκτικά πράγματα», είπε χαρακτηριστικά ο Σαμ Άλτμαν
LIFO NEWSROOM
Ανακαλύφθηκε νέο είδος δεινοσαύρου στη Μογγολία: Το παλαιότερο είδος παχυκεφαλόσαυρου

Τech & Science / Ανακαλύφθηκε νέο είδος δεινοσαύρου στη Μογγολία: Το παλαιότερο είδος παχυκεφαλόσαυρου

Ο Zavacephale rinpoche, το παλαιότερο και πιο πλήρες δείγμα παχυκεφαλόσαυρου, αποκαλύπτει πώς ζούσαν, πέθαιναν και ζευγάρωναν αυτά τα μυστηριώδη πλάσματα πριν 115 εκατ. χρόνια
LIFO NEWSROOM