«Επικίνδυνο και ανησυχητικό» - Η Google αφαιρεί ορισμένες από τις περιλήψεις τεχνητής νοημοσύνης για την υγεία

ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΑΝΑΖΗΤΗΣΗ ΥΓΕΙΑ Facebook Twitter
Φωτ. αρχείου: Unsplash
0

Η Google αφαίρεσε ορισμένες από τις περιλήψεις υγείας δημιουργημένες από τεχνητή νοημοσύνη, μετά από έρευνα του Guardian που αποκάλυψε ότι οι άνθρωποι διατρέχουν κίνδυνο βλάβης από ψευδείς και παραπλανητικές πληροφορίες.

Η εταιρεία δήλωσε ότι οι «AI Overviews», οι οποίες χρησιμοποιούν γενετική τεχνητή νοημοσύνη για να παρέχουν στιγμιότυπα βασικών πληροφοριών σχετικά με ένα θέμα ή μια ερώτηση, είναι «χρήσιμες» και «αξιόπιστες».

Ωστόσο, ορισμένες από τις περιλήψεις, οι οποίες εμφανίζονται στην κορυφή των αποτελεσμάτων αναζήτησης, παρείχαν ανακριβείς πληροφορίες για την υγεία, θέτοντας τους χρήστες σε κίνδυνο.

Τι διαπίστωσε η έρευνα για τις απαντήσεις της τεχνητής νοημοσύνης

Σε μια περίπτωση που οι ειδικοί χαρακτήρισαν «επικίνδυνη» και «ανησυχητική», η Google παρείχε ψευδείς πληροφορίες σχετικά με κρίσιμες εξετάσεις της ηπατικής λειτουργίας, οι οποίες θα μπορούσαν να οδηγήσουν άτομα με σοβαρή ηπατική νόσο να πιστεύουν λανθασμένα ότι είναι υγιείς.

Ο Guardian διαπίστωσε ότι η αναζήτηση «ποιο είναι το φυσιολογικό εύρος των εξετάσεων αίματος για το ήπαρ» παρείχε πλήθος αριθμών, ελάχιστο πλαίσιο και καμία αναφορά στην εθνικότητα, το φύλο, ή την ηλικία των ασθενών.

Σύμφωνα με τους ειδικούς, αυτό που η τεχνητή νοημοσύνη της Google χαρακτήριζε ως υγιές μπορεί να διαφέρει σημαντικά από αυτό που θεωρείται πραγματικά φυσιολογικό. Οι περιλήψεις αυτές θα μπορούσαν να οδηγήσουν ασθενείς να πιστεύουν λανθασμένα ότι τα αποτελέσματα των εξετάσεών τους είναι φυσιολογικά και να μην προσέλθουν στις προγραμματισμένες ιατρικές επισκέψεις.

Μετά την έρευνα, η εταιρεία αφαίρεσε τις περιλήψεις της τεχνητής νοημοσύνης για τους όρους αναζήτησης «ποιο είναι το φυσιολογικό εύρος για τις εξετάσεις αίματος του ήπατος» και «ποιο είναι το φυσιολογικό εύρος για τις εξετάσεις της ηπατικής λειτουργίας».

Ένας εκπρόσωπος της Google δήλωσε: «Δεν σχολιάζουμε μεμονωμένες διαγραφές στο Search. Σε περιπτώσεις όπου οι AI Overviews παραλείπουν κάποιο πλαίσιο, προσπαθούμε να κάνουμε γενικές βελτιώσεις και, όπου κρίνεται σκόπιμο, λαμβάνουμε μέτρα σύμφωνα με τις πολιτικές μας».

Η Βανέσα Χέμπντιτς, διευθύντρια επικοινωνίας και πολιτικής στο British Liver Trust, ένα φιλανθρωπικό ίδρυμα για την υγεία του ήπατος, δήλωσε: «Αυτά είναι εξαιρετικά νέα και είμαστε ευχαριστημένοι που διαγράφηκαν οι Google AI Overviews σε αυτές τις περιπτώσεις. Ωστόσο, αν η ερώτηση τεθεί με διαφορετικό τρόπο, μπορεί να δοθεί μια πιθανώς παραπλανητική AI Overview και εξακολουθούμε να ανησυχούμε ότι άλλες πληροφορίες για την υγεία που παράγονται από την τεχνητή νοημοσύνη μπορεί να είναι ανακριβείς και να προκαλούν σύγχυση».

Παραπλανητικές πληροφορίες σε περίπτωση που τεθεί αλλιώς η ερώτηση

Ο Guardian διαπίστωσε ότι η πληκτρολόγηση παραλλαγών των αρχικών ερωτημάτων στο Google, όπως «lft reference range» ή «lft test reference range», προκάλεσε την εμφάνιση AI Overviews. Αυτό ήταν πολύ ανησυχητικό, δήλωσε η Χέμπντιτς.

«Η εξέταση της ηπατικής λειτουργίας ή LFT είναι μια συλλογή διαφορετικών εξετάσεων αίματος. Η κατανόηση των αποτελεσμάτων και των επόμενων βημάτων είναι περίπλοκη και περιλαμβάνει πολύ περισσότερα από τη σύγκριση ενός συνόλου αριθμών. Ωστόσο, οι επισκοπήσεις της τεχνητής νοημοσύνης παρουσιάζουν μια λίστα εξετάσεων με έντονη γραφή, με αποτέλεσμα οι αναγνώστες να παραβλέπουν πολύ εύκολα ότι αυτοί οι αριθμοί μπορεί να μην είναι οι σωστοί για την εξέτασή τους. Επιπλέον, οι AI Overviews δεν προειδοποιούν ότι κάποιος μπορεί να έχει φυσιολογικά αποτελέσματα σε αυτές τις εξετάσεις, ενώ στην πραγματικότητα πάσχει από σοβαρή ηπατική νόσο και χρειάζεται περαιτέρω ιατρική φροντίδα. Αυτή η ψευδής διαβεβαίωση μπορεί να είναι πολύ επιβλαβής».

Η Google δήλωσε ότι εξετάζει τα νέα παραδείγματα που της παρέχονται από την Guardian.

Ο Χέμπντιτς δήλωσε: «Η μεγαλύτερη ανησυχία μας με όλα αυτά είναι ότι πρόκειται για μια λεπτομέρεια ενός μεμονωμένου αποτελέσματος αναζήτησης και η Google μπορεί απλά να απενεργοποιήσει τις AI Overviews για αυτό, αλλά δεν αντιμετωπίζει το μεγαλύτερο πρόβλημα των AI Overviews για την υγεία».

Η Σου Φάρινγκτον, πρόεδρος του Patient Information Forum, το οποίο προωθεί τεκμηριωμένες πληροφορίες για την υγεία σε ασθενείς, το κοινό και τους επαγγελματίες του τομέα της υγείας, χαιρέτισε την κατάργηση των περιλήψεων, αλλά δήλωσε ότι εξακολουθεί να έχει ανησυχίες.

«Αυτό είναι ένα καλό αποτέλεσμα, αλλά είναι μόνο το πρώτο βήμα για να διατηρηθεί η εμπιστοσύνη στα αποτελέσματα αναζήτησης της Google που σχετίζονται με την υγεία. Υπάρχουν ακόμα πάρα πολλά παραδείγματα όπου οι περιλήψεις της τεχνητής νοημοσύνης της Google παρέχουν στους ανθρώπους ανακριβείς πληροφορίες για την υγεία».

Εκατομμύρια ενήλικες σε όλο τον κόσμο ήδη δυσκολεύονται να έχουν πρόσβαση σε αξιόπιστες πληροφορίες για την υγεία, δήλωσε η Φάρινγκτον. «Γι' αυτό είναι τόσο σημαντικό το Google να κατευθύνει τους χρήστες προς αξιόπιστες, τεκμηριωμένες πληροφορίες για την υγεία και παροχή φροντίδας από αξιόπιστους οργανισμούς υγείας».

Με πληροφορίες από Guardian

Τech & Science
0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

ΔΕΙΤΕ ΑΚΟΜΑ

Το Ηνωμένο Βασίλειο ξεκινά επίσημη έρευνα για το Grok του Έλον Μασκ

Τech & Science / Το Ηνωμένο Βασίλειο ξεκινά επίσημη έρευνα για το Grok του Έλον Μασκ

Η βρετανική κυβέρνηση κάλεσε την περασμένη εβδομάδα το X να βρει «επειγόντως» λύση για να αποτραπεί η διασπορά πλαστών, «εξοργιστικών» εικόνων γυμνών γυναικών και παιδιών που δημιουργήθηκαν από το Grok
THE LIFO TEAM
Οι εκδότες φοβούνται ότι τα chatbots και οι περιλήψεις μέσω AI σηματοδοτούν το «τέλος της εποχής της επισκεψιμότητας»

Τech & Science / Τα chatbots και οι περιλήψεις μέσω AI σηματοδοτούν το «τέλος της εποχής της επισκεψιμότητας» στα ειδησεογραφικά sites

Η επισκεψιμότητα προς ειδησεογραφικές ιστοσελίδες έχει ήδη υποχωρήσει κατά ένα τρίτο μέσα σε μόλις έναν χρόνο παγκοσμίως, λόγω της ανόδου των AI overviews και των chatbots
THE LIFO TEAM
ΚΥΡΙΑΚΗ - Ένα κόκκινο pixel στο χιόνι: Πώς η τεχνητή νοημοσύνη έλυσε το μυστήριο ενός αγνοούμενου ορειβάτη

Τech & Science / Ένα κόκκινο pixel στο χιόνι: Πώς η τεχνητή νοημοσύνη έλυσε το μυστήριο ενός αγνοούμενου ορειβάτη

Μετά τη διακοπή των ερευνών λόγω χιονιού το 2024, το 2025 η τεχνητή νοημοσύνη και τα drones ανέλαβαν να σαρώσουν τις δύσβατες πλαγιές των Άλπεων για τον εντοπισμό του
THE LIFO TEAM