Άνθρωποι τίθενται σε κίνδυνο εξαιτίας ψευδών και παραπλανητικών πληροφοριών υγείας στην επισκόπηση τεχνητής νοημοσύνης της Google, όπως διαπίστωσε έρευνα του Guardian.
Η εταιρεία έχει δηλώσει ότι τα AI Overviews, τα οποία χρησιμοποιούν γενετική τεχνητή νοημοσύνη για να παρέχουν συνοπτικές εικόνες βασικών πληροφοριών γύρω από ένα θέμα ή μια ερώτηση, είναι «χρήσιμα» και «αξιόπιστα».
Ωστόσο, ορισμένες από τις περιλήψεις αυτές, που εμφανίζονται στην κορυφή των αποτελεσμάτων αναζήτησης, παρείχαν ανακριβείς πληροφορίες υγείας και έθεσαν ανθρώπους σε κίνδυνο.
Σε μία περίπτωση που ειδικοί χαρακτήρισαν «πραγματικά επικίνδυνη», η Google συμβούλευσε εσφαλμένα άτομα με καρκίνο του παγκρέατος να αποφεύγουν τροφές με υψηλή περιεκτικότητα σε λιπαρά. Οι ειδικοί τόνισαν ότι αυτό είναι ακριβώς το αντίθετο από ό,τι θα έπρεπε να συνιστάται και ότι μπορεί να αυξήσει τον κίνδυνο να πεθάνουν οι ασθενείς από τη νόσο.
Σε ένα ακόμη «ανησυχητικό» παράδειγμα, η εταιρεία παρείχε ψευδείς πληροφορίες σχετικά με κρίσιμες εξετάσεις ηπατικής λειτουργίας, κάτι που θα μπορούσε να οδηγήσει άτομα με σοβαρή ηπατική νόσο να πιστεύουν λανθασμένα ότι είναι υγιή.
Αναζητήσεις στη Google για εξετάσεις καρκίνου στις γυναίκες παρείχαν επίσης «εντελώς λανθασμένες» πληροφορίες, οι οποίες, σύμφωνα με ειδικούς, θα μπορούσαν να οδηγήσουν ανθρώπους στο να αγνοήσουν πραγματικά συμπτώματα.
Eκπρόσωπος της Google δήλωσε ότι πολλά από τα παραδείγματα σχετικά με την υγεία που τους κοινοποιήθηκαν ήταν «ατελή στιγμιότυπα οθόνης», αλλά από όσα μπόρεσαν να αξιολογήσουν, αυτά παραπέμπουν «σε γνωστές, αξιόπιστες πηγές και συνιστούν την αναζήτηση συμβουλών από ειδικούς».
Η έρευνα του Guardian έρχεται εν μέσω αυξανόμενων ανησυχιών ότι τα δεδομένα που παράγονται από την τεχνητή νοημοσύνη μπορεί να μπερδεύουν τους χρήστες, οι οποίοι ενδέχεται να υποθέτουν ότι είναι αξιόπιστα. Τον περασμένο Νοέμβριο, μελέτη διαπίστωσε ότι chatbots τεχνητής νοημοσύνης σε διάφορες πλατφόρμες παρείχαν ανακριβείς οικονομικές συμβουλές, ενώ παρόμοιες ανησυχίες έχουν εκφραστεί και για τις περιλήψεις ειδησεογραφικών άρθρων.
Η Σόφι Ράνταλ, διευθύντρια του Patient Information Forum, το οποίο προωθεί τεκμηριωμένες πληροφορίες υγείας προς ασθενείς, το κοινό και επαγγελματίες υγείας, δήλωσε ότι τα παραδείγματα δείχνουν πως «τα AI Overviews της Google μπορούν να τοποθετούν ανακριβείς πληροφορίες υγείας στην κορυφή των διαδικτυακών αναζητήσεων, δημιουργώντας κίνδυνο για την υγεία των ανθρώπων».
«Θα μπορούσε να είναι πραγματικά επικίνδυνο»
Η Στέφανι Πάρκερ, διευθύντρια ψηφιακών μέσων της Marie Curie, μιας φιλανθρωπικής οργάνωσης που ασχολείται με τη φροντίδα στο τέλος της ζωής, δήλωσε: «Οι άνθρωποι στρέφονται στο διαδίκτυο σε στιγμές ανησυχίας και κρίσης. Αν οι πληροφορίες που λαμβάνουν είναι ανακριβείς ή εκτός πλαισίου, μπορεί να βλάψουν σοβαρά την υγεία τους».
Ο Guardian εντόπισε αρκετές περιπτώσεις ανακριβών πληροφοριών υγείας στα AI Overviews της Google, αφού πολλές ομάδες υγείας, φιλανθρωπικές οργανώσεις και επαγγελματίες εξέφρασαν ανησυχίες.
Η Άννα Τζούελ, διευθύντρια τμήματος στην ΜΚΟ Pancreatic Cancer UK, δήλωσε ότι η συμβουλή προς ασθενείς να αποφεύγουν τροφές με υψηλά λιπαρά είναι «εντελώς λανθασμένη». Όπως πρόσθεσε, κάτι τέτοιο «θα μπορούσε να είναι πραγματικά επικίνδυνο και να θέσει σε κίνδυνο τις πιθανότητες ενός ανθρώπου να είναι αρκετά καλά ώστε να υποβληθεί σε θεραπεία».
Η Τζούελ είπε: «Η απάντηση της Google μέσω τεχνητής νοημοσύνης υποδεικνύει ότι τα άτομα με καρκίνο του παγκρέατος πρέπει να αποφεύγουν τροφές με υψηλά λιπαρά και παρέχει μια λίστα παραδειγμάτων. Ωστόσο, αν κάποιος ακολουθούσε όσα του έλεγε το αποτέλεσμα της αναζήτησης, μπορεί να μην λάμβανε αρκετές θερμίδες, να δυσκολευόταν να πάρει βάρος και να μην μπορούσε να αντέξει ούτε τη χημειοθεραπεία ούτε ενδεχομένως μια σωτήρια για τη ζωή χειρουργική επέμβαση».
«Πρόκειται για εντελώς λανθασμένη πληροφορία»
Παράλληλα, μια αναζήτηση για «συμπτώματα και εξετάσεις καρκίνου του κόλπου» ανέφερε το τεστ ΠΑΠ ως εξέταση για τον καρκίνο του κόλπου, κάτι που είναι λανθασμένο.
Η Αθηνά Λαμνίσος, διευθύνουσα σύμβουλος της φιλανθρωπικής οργάνωσης για τον καρκίνο Eve Appeal, δήλωσε: «Δεν πρόκειται για εξέταση που ανιχνεύει τον καρκίνο και σίγουρα δεν είναι εξέταση για την ανίχνευση του καρκίνου του κόλπου – πρόκειται για εντελώς λανθασμένη πληροφορία. Η λήψη τέτοιων εσφαλμένων πληροφοριών θα μπορούσε δυνητικά να οδηγήσει κάποιον στο να μην ελέγξει συμπτώματα καρκίνου του κόλπου, επειδή είχε καθαρό αποτέλεσμα σε πρόσφατο προσυμπτωματικό έλεγχο τραχήλου της μήτρας.
»Μας ανησύχησε επίσης το γεγονός ότι η σύνοψη της τεχνητής νοημοσύνης άλλαζε όταν κάναμε ακριβώς την ίδια αναζήτηση, δίνοντας κάθε φορά διαφορετική απάντηση αντλημένη από διαφορετικές πηγές. Αυτό σημαίνει ότι οι άνθρωποι λαμβάνουν διαφορετική απάντηση ανάλογα με το πότε κάνουν την αναζήτηση – και αυτό δεν είναι αποδεκτό».
Η Λαμνίσος δήλωσε ότι είναι εξαιρετικά ανήσυχη. «Ορισμένα από τα αποτελέσματα που έχουμε δει είναι πραγματικά ανησυχητικά και μπορεί δυνητικά να θέσουν γυναίκες σε κίνδυνο», είπε.
Ο Guardian διαπίστωσε επίσης ότι τα AI Overviews της Google παρείχαν παραπλανητικά αποτελέσματα σε αναζητήσεις σχετικά με ψυχικές διαταραχές.
Η Google δήλωσε ότι η συντριπτική πλειονότητα των AI Overviews της είναι ακριβής και χρήσιμη και ότι πραγματοποιεί συνεχώς βελτιώσεις ποιότητας. Πρόσθεσε ότι το ποσοστό ακρίβειας των AI Overviews είναι αντίστοιχο με εκείνο άλλων λειτουργιών αναζήτησης, όπως τα featured snippets, τα οποία υπάρχουν εδώ και πάνω από μία δεκαετία.
Η εταιρεία ανέφερε επίσης ότι όταν τα AI Overviews παρερμηνεύουν περιεχόμενο του ιστού ή παραλείπουν το κατάλληλο πλαίσιο, λαμβάνει μέτρα όπως προβλέπεται από τις πολιτικές της.
Εκπρόσωπος της Google δήλωσε: «Επενδύουμε σημαντικά στην ποιότητα των AI Overviews, ιδιαίτερα για θέματα όπως η υγεία, και η συντριπτική πλειονότητα παρέχει ακριβείς πληροφορίες».
Με πληροφορίες από Guardian