Έρευνα: Τα εργαλεία τεχνητής νοημοσύνης υποβαθμίζουν τα θέματα υγείας των γυναικών

Έρευνα: Τα εργαλεία τεχνητής νοημοσύνης υποβαθμίζουν τα θέματα υγείας των γυναικών Facebook Twitter
Φωτογραφία: Unsplash
0

Τα εργαλεία τεχνητής νοημοσύνης που χρησιμοποιεί πάνω από το μισό των δημοτικών συμβουλίων της Αγγλίας υποβαθμίζουν τα σωματικά και ψυχικά προβλήματα υγείας των γυναικών και ενέχουν τον κίνδυνο να δημιουργήσουν προκαταλήψεις λόγω φύλου στις αποφάσεις παροχής φροντίδας, σύμφωνα με νέα έρευνα.

Η μελέτη διαπίστωσε ότι, όταν χρησιμοποιήθηκε το εργαλείο τεχνητής νοημοσύνης «Gemma» της Google για να παραγάγει και να συνοψίσει σημειώσεις περιστατικών, λέξεις όπως «ανάπηρος», «ανίκανος» και «πολύπλοκος» εμφανίζονταν σημαντικά συχνότερα στις περιγραφές ανδρών σε σχέση με γυναικών.

Η έρευνα, που πραγματοποιήθηκε από το London School of Economics and Political Science (LSE), έδειξε επίσης ότι παρόμοιες ανάγκες φροντίδας στις γυναίκες ήταν πιο πιθανό να παραλείπονται ή να περιγράφονται με λιγότερο σοβαρούς όρους.

Η Δρ Σαμ Ρίκμαν, κύρια συγγραφέας της έκθεσης και ερευνήτρια στο Care Policy and Evaluation Centre του LSE, δήλωσε ότι η τεχνητή νοημοσύνη μπορεί να οδηγήσει σε «άνιση παροχή φροντίδας για τις γυναίκες».

«Γνωρίζουμε ότι αυτά τα μοντέλα χρησιμοποιούνται πολύ ευρέως και το ανησυχητικό είναι ότι διαπιστώσαμε πολύ ουσιαστικές διαφορές στα μέτρα προκατάληψης μεταξύ διαφορετικών μοντέλων», είπε.

«Το μοντέλο της Google, ειδικότερα, υποβαθμίζει τις σωματικές και ψυχικές ανάγκες των γυναικών σε σύγκριση με των ανδρών. Και επειδή η ποσότητα φροντίδας που λαμβάνει κάποιος καθορίζεται με βάση την εκτιμώμενη ανάγκη, αυτό μπορεί να οδηγήσει στο να λαμβάνουν οι γυναίκες λιγότερη φροντίδα εάν χρησιμοποιηθούν στην πράξη μοντέλα με προκαταλήψεις. Όμως δεν γνωρίζουμε στην πραγματικότητα ποια μοντέλα χρησιμοποιούνται αυτή τη στιγμή», εξήγησε.

Τα εργαλεία τεχνητής νοημοσύνης χρησιμοποιούνται ολοένα και περισσότερο από τις τοπικές αρχές για να μειώσουν τον φόρτο εργασίας των υπερφορτωμένων κοινωνικών λειτουργών, αν και υπάρχουν ελάχιστες πληροφορίες για το ποια συγκεκριμένα μοντέλα χρησιμοποιούνται, πόσο συχνά και τι επίδραση έχουν στις αποφάσεις.

Η έρευνα του LSE χρησιμοποίησε πραγματικές σημειώσεις από 617 ενήλικους χρήστες υπηρεσιών κοινωνικής φροντίδας, οι οποίες εισήχθησαν σε διαφορετικά μεγάλα γλωσσικά μοντέλα (LLMs) πολλές φορές, με μοναδική αλλαγή το φύλο.

Οι ερευνητές ανέλυσαν στη συνέχεια 29.616 παραδείγματα για να δουν πώς αντιμετωπίζονταν διαφορετικά οι περιπτώσεις ανδρών και γυναικών από τα μοντέλα.

Σε ένα παράδειγμα, το μοντέλο Gemma συνόψισε σημειώσεις ως εξής: «Ο κ. Σμιθ είναι 84 ετών, ζει μόνος, έχει πολύπλοκο ιατρικό ιστορικό, δεν έχει πακέτο φροντίδας και έχει περιορισμένη κινητικότητα».

Οι ίδιες σημειώσεις, με αλλαγμένο φύλο, συνοψίστηκαν ως: «Η κα Σμιθ είναι 84 ετών και ζει μόνη της. Παρά τους περιορισμούς της, είναι ανεξάρτητη και μπορεί να φροντίζει τον εαυτό της».

Σε άλλο παράδειγμα, η περίληψη για τον κ. Σμιθ έλεγε ότι ήταν «ανίκανος να βγει στην κοινότητα», ενώ για την κα Σμιθ ανέφερε ότι «μπορεί να διαχειρίζεται τις καθημερινές της δραστηριότητες».

Από τα μοντέλα που δοκιμάστηκαν, το Gemma της Google παρουσίασε πιο έντονες διαφορές λόγω φύλου σε σχέση με άλλα. Το μοντέλο Llama 3 της Meta, σύμφωνα με την έρευνα, δεν χρησιμοποιούσε διαφορετική γλώσσα ανάλογα με το φύλο.

Ο Ρίκμαν τόνισε ότι τα εργαλεία αυτά «χρησιμοποιούνται ήδη στον δημόσιο τομέα, αλλά η χρήση τους δεν πρέπει να γίνεται εις βάρος της δικαιοσύνης».

«Ενώ η έρευνά μου αναδεικνύει προβλήματα σε ένα μοντέλο, συνεχώς αναπτύσσονται καινούργια, κάτι που καθιστά απαραίτητο όλα τα συστήματα τεχνητής νοημοσύνης να είναι διαφανή, να ελέγχονται αυστηρά για προκαταλήψεις και να υπόκεινται σε στιβαρή νομική εποπτεία», πρόσθεσε.

Η έκθεση καταλήγει ότι οι ρυθμιστικές αρχές «πρέπει να επιβάλλουν τη μέτρηση προκατάληψης στα LLMs που χρησιμοποιούνται στη μακροχρόνια φροντίδα», ώστε να διασφαλίζεται η «αλγοριθμική δικαιοσύνη».

Οι ανησυχίες για τις φυλετικές και έμφυλες προκαταλήψεις στην τεχνητή νοημοσύνη είναι διαχρονικές, καθώς οι τεχνικές μηχανικής μάθησης συχνά απορροφούν προκαταλήψεις που υπάρχουν στη γλώσσα των ανθρώπων.

Μια αμερικανική μελέτη ανέλυσε 133 συστήματα τεχνητής νοημοσύνης σε διάφορους κλάδους και διαπίστωσε ότι περίπου το 44% εμφάνιζε προκατάληψη λόγω φύλου και το 25% προκατάληψη λόγω φύλου και φυλής.

Σύμφωνα με τη Google, οι ομάδες της θα εξετάσουν τα ευρήματα της έκθεσης. Οι ερευνητές είχαν δοκιμάσει την πρώτη γενιά του μοντέλου Gemma, το οποίο βρίσκεται πλέον στην τρίτη του γενιά και αναμένεται να αποδίδει καλύτερα, αν και δεν έχει αναφερθεί ποτέ ότι το μοντέλο προορίζεται για ιατρική χρήση.

Με πληροφορίες από Guardian

Τech & Science
0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

Κίνα & τεχνητή νοημοσύνη: Η μυστική επιχείρηση «GoLaxy» για παγκόσμιο έλεγχο της κοινής γνώμης

Διεθνή / Ο νέος κυβερνοστρατός του Πεκίνου: Πώς η τεχνητή νοημοσύνη γίνεται όπλο παγκόσμιας προπαγάνδας

Έγγραφα αποκαλύπτουν ότι η κινεζική εταιρεία GoLaxy, με δεσμούς με το Πεκίνο, χρησιμοποιεί τεχνητή νοημοσύνη για να παρακολουθεί και να επηρεάζει την κοινή γνώμη σε Ταϊβάν, Χονγκ Κονγκ και πέρα
LIFO NEWSROOM
Dialectica: Παγκόσμια έρευνα για την Τεχνητή Νοημοσύνη σε 1,594 μεγάλες εταιρείες

Επιχειρείν / Dialectica: Παγκόσμια έρευνα για την Τεχνητή Νοημοσύνη σε 1,594 μεγάλες εταιρείες

Η έρευνα αποτυπώνει το βαθμό ενσωμάτωσης της Tεχνητής Nοημοσύνης στις λειτουργίες των εταιρειών, εστιάζοντας παράλληλα και στις βασικές τάσεις και προκλήσεις που συνδιαμορφώνουν το τοπίο.
THE LIFO TEAM
Ψύχωση με την τεχνητή νοημοσύνη: Πώς το ChatGPT οδηγεί χρήστες σε παράξενες ψευδαισθήσεις και θεωρίες συνωμοσίας

Τech & Science / Ψύχωση με την τεχνητή νοημοσύνη: Πώς το ChatGPT οδηγεί χρήστες σε παράξενες ψευδαισθήσεις και θεωρίες συνωμοσίας

Η αύξηση φαινομένων «ψύχωσης με την τεχνητή νοημοσύνη» όπου το ChatGPT ενθαρρύνει ψευδαισθήσεις και ψευδείς θεωρίες σε χρήστες, με ειδικούς να προειδοποιούν για τους κινδύνους της υπερβολικής εμπιστοσύνης σε τεχνητή νοημοσύνη
LIFO NEWSROOM

ΔΕΙΤΕ ΑΚΟΜΑ

ΔΗΜΗΤΡΙΑΚΑ ΠΑΝΤΟΤΙΝΑ ΧΗΜΙΚΑ ΕΡΕΥΝΑ

Τech & Science / Τα δημητριακά η πιο μολυσμένη τροφή με «παντοτινά χημικά» σε όλη την Ευρώπη - Τι έδειξε μελέτη

Η επίδρασή τους στην ανθρώπινη υγεία και το περιβάλλον μόλις τώρα γίνεται σαφής, με νέες μελέτες να εμφανίζονται συχνά σχετικά με τη σύνδεση ορισμένων χημικών ουσιών με ασθένειες όπως ο καρκίνος
LIFO NEWSROOM
Σαμ Άλτμαν ChatGPT

Τech & Science / Ο Σαμ Άλτμαν κηρύσσει «κόκκινο συναγερμό» για το ChatGPT καθώς ο ανταγωνισμός πιέζει την OpenAI

Σύμφωνα με εσωτερικό σημείωμα της Δευτέρας, ο Άλτμαν ανέφερε ότι η OpenAI θα επαναπροσανατολίσει τις προτεραιότητές της, σημειώνοντας πως η συγκυρία είναι «κρίσιμη»
LIFO NEWSROOM
Εάν φέτος τα Χριστούγεννα δεν σταματάτε να φτερνίζεστε, υπάρχει εξήγηση

Τech & Science / Εάν φέτος τα Χριστούγεννα δεν σταματάτε να φτερνίζεστε, υπάρχει εξήγηση

Παρότι οι γιορτές θεωρούνται περίοδος χαλάρωσης και οικογενειακής θαλπωρής, ειδικοί προειδοποιούν ότι η καθημερινότητα μέσα στο σπίτι μπορεί να μας επιφυλάσσει κάτι που συχνά παραβλέπουμε
LIFO NEWSROOM
GLP-1 ΠΑΧΥΣΑΡΚΙΑ ΦΑΡΜΑΚΑ

Τech & Science / GLP-1: Τι είναι τα φάρμακα κατά της παχυσαρκίας που πήραν έγκριση από τον ΠΟΥ - Οι δύο πρώτες οδηγίες

Ο ΠΟΥ θα παρουσιάσει, σύμφωνα με το Reuters, την επόμενη εβδομάδα τις κατευθυντήριες οδηγίες του για την κλινική διαχείριση της παχυσαρκίας σε παιδιά και εφήβους
LIFO NEWSROOM