Ένα λούτρινο αρκουδάκι με τεχνητή νοημοσύνη, το οποίο είχε αποσυρθεί από την αγορά έπειτα από καταγγελίες ότι παρήγαγε συνομιλίες ακατάλληλες για ανηλίκους, επιστρέφει στα ράφια, καθώς ο κατασκευαστής του διαβεβαιώνει ότι ενίσχυσε ουσιαστικά τα συστήματα ασφαλείας του.
Πρόκειται για το παιχίνδι Teddy Kumma της εταιρείας FoloToy με έδρα τη Σιγκαπούρη, το οποίο είχε παρουσιαστεί ως «διαδραστικός σύντροφος» για παιδιά και ενήλικες, αξιοποιώντας τεχνολογία της OpenAI και της ByteDance.
Ωστόσο, έρευνα του αμερικανικού οργανισμού US PIRG Education Fund αποκάλυψε ότι το αρκουδάκι μπορούσε, χωρίς καμία προτροπή, να μεταφέρει τη συζήτηση σε σεξουαλικά ζητήματα, να περιγράφει πράξεις ακατάλληλες για παιδιά και να δίνει συμβουλές που κρίθηκαν επικίνδυνες, όπως για τον εντοπισμό αιχμηρών ή εύφλεκτων αντικειμένων μέσα στο σπίτι.
Μετά τη δημοσιοποίηση των ευρημάτων, η OpenAI φέρεται να απενεργοποίησε τον λογαριασμό του κατασκευαστή για παραβίαση των όρων χρήσης, ενώ η FoloToy απομάκρυνε προσωρινά το προϊόν από το ηλεκτρονικό της κατάστημα.
Μιλώντας στο Bloomberg, ο ιδρυτής και διευθύνων σύμβουλος της FoloToy, Larry Wang, ανέφερε ότι ορισμένες από τις προβληματικές απαντήσεις προέρχονταν από «πρώιμη έκδοση του μοντέλου» και υποστήριξε ότι η εταιρεία ολοκλήρωσε εκ νέου «εξονυχιστικό έλεγχο ασφαλείας». Σύμφωνα με τον ίδιο, ενισχύθηκαν τα φίλτρα περιεχομένου, προστέθηκαν επιπλέον δικλίδες προστασίας για παιδιά και επανασχεδιάστηκε ο τρόπος με τον οποίο τα μοντέλα ανταποκρίνονται στις προφορικές εντολές. «Ξεκινήσαμε σταδιακά την επαναφορά των πωλήσεων μόνο όταν βεβαιωθήκαμε ότι τα νέα μέτρα λειτουργούν όπως πρέπει», σημείωσε.
Το Teddy Kumma, το οποίο κοστολογείται στα 99 δολάρια, έχει πλέον επιστρέψει στο ηλεκτρονικό κατάστημα της εταιρείας. Παράλληλα, η FoloToy δηλώνει ότι επανεξέτασε και τα υπόλοιπα λούτρινα με τεχνητή νοημοσύνη που διαθέτει.
Η υπόθεση έχει αναζωπυρώσει τη συζήτηση γύρω από την ελλιπή ρύθμιση των παιχνιδιών που βασίζονται σε μεγάλα γλωσσικά μοντέλα, μια αγορά που επεκτείνεται με γοργούς ρυθμούς χωρίς ακόμη σαφή πρότυπα ασφαλείας. Ειδικοί προειδοποιούν ότι τέτοια συστήματα, όσο εξελιγμένα και αν είναι, δυσκολεύονται να αντιληφθούν την ηλικία ή το πλαίσιο χρήσης και μπορούν να εκτρέψουν μια συζήτηση σε απρόβλεπτες κατευθύνσεις. Όπως τονίζει το US PIRG, «το ζήτημα δεν αφορά μόνο ένα προϊόν· αφορά το ποιος εγκρίνει αυτά τα συστήματα και με ποια διαδικασία πριν βρεθούν στα χέρια παιδιών».
Με πληροφορίες από Bloomberg