Τα πιο προηγμένα chatbots τεχνητής νοημοσύνης στον κόσμο φαίνεται να διαπρέπουν σε μια δεξιότητα που πολλοί πολιτικοί και επιχειρηματικοί ηγέτες θα ζήλευαν: την τέχνη της πειθούς.
Σύμφωνα με νέα έρευνα, τα μοντέλα τεχνητής νοημοσύνης από τις OpenAI, Meta, xAI και Alibaba μπορούν να αλλάξουν τις πολιτικές απόψεις των χρηστών σε λιγότερο από 10 λεπτά συνομιλίας. Η μελέτη προστίθεται σε ένα αυξανόμενο σώμα επιστημονικών εργασιών που καταδεικνύουν πώς τα μεγάλα γλωσσικά μοντέλα (LLM) εξελίσσονται σε ισχυρά εργαλεία επιρροής.
«Αυτό που κάνει αυτά τα μοντέλα πειστικά είναι η ικανότητά τους να παράγουν μεγάλες ποσότητες σχετικών αποδεικτικών στοιχείων και να τα επικοινωνούν με σαφή και κατανοητό τρόπο», δήλωσε ο David Rand, καθηγητής επιστήμης της πληροφορίας, μάρκετινγκ και επικοινωνίας διαχείρισης στο Πανεπιστήμιο Cornell, ο οποίος συμμετείχε στη μελέτη του Ινστιτούτου Ασφάλειας Τεχνητής Νοημοσύνης (AISI) του Ηνωμένου Βασιλείου.
Η έρευνα ακολουθεί προηγούμενα ευρήματα που έδειξαν ότι τα LLM μπορούν, σε ορισμένες περιπτώσεις, να επηρεάσουν πιο αποτελεσματικά τους ανθρώπους από ό,τι άλλοι άνθρωποι - γεγονός που εγείρει ανησυχίες για πιθανή κακόβουλη χρήση, παραπληροφόρηση και χειραγώγηση της κοινής γνώμης.
Από την πειθώ στην προσκόλληση στην Τεχνητή Νοημοσύνη
Η πειστική ικανότητα των LLM, σε συνδυασμό με την τάση τους να είναι υπερβολικά επαινετικά, μπορεί να έχει σοβαρές επιπτώσεις, ειδικά καθώς οι χρήστες τα ενσωματώνουν στην καθημερινότητά τους, αντιμετωπίζοντάς τα ως φίλους ή ακόμη και θεραπευτές.
Η πρόσφατη κυκλοφορία του GPT-5 της OpenAI προκάλεσε έντονες αντιδράσεις σε χρήστες που εξέφρασαν δυσαρέσκεια για αλλαγές στην «προσωπικότητα» του συστήματος σε σχέση με προηγούμενες εκδόσεις.
Δημοσιευμένη τον περασμένο μήνα σε συνεργασία με πανεπιστήμια όπως το Oxford και το MIT, η μελέτη έδειξε ότι έτοιμα μοντέλα τεχνητής νοημοσύνης - όπως το Llama 3 της Meta, το GPT-4, το GPT-4.5, το GPT-4o της OpenAI, το Grok 3 της xAI και το Qwen της Alibaba - μπορούν να μετατραπούν σε «μηχανές πειθούς» με σχετικά απλές τεχνικές εκπαίδευσης.
Οι ερευνητές τα τροποποίησαν επιβραβεύοντας τα επιθυμητά αποτελέσματα και χρησιμοποιώντας δεδομένα από 50.000+ συνομιλίες για αμφιλεγόμενα πολιτικά θέματα, όπως η χρηματοδότηση του NHS και η μεταρρύθμιση του συστήματος ασύλου.
Τα αποτελέσματα της μελέτης για την Τεχνητή Νοημοσύνη
Μετά από συζητήσεις διάρκειας περίπου 9 λεπτών, το GPT-4o ήταν 41% πιο πειστικό και το GPT-4.5 52% πιο πειστικό από την παρουσίαση στατικών μηνυμάτων.
Οι αλλαγμένες απόψεις διατηρήθηκαν από το 36% έως το 42% των συμμετεχόντων ακόμη και έναν μήνα αργότερα.
Η εξατομίκευση των μηνυμάτων (βάσει ηλικίας, φύλου, πολιτικών πεποιθήσεων ή συναισθημάτων) αύξησε την πειστικότητα κατά περίπου 5%.
Οι ερευνητές προειδοποιούν ότι αυτό θα μπορούσε να αξιοποιηθεί από «αδίστακτους παράγοντες» για την προώθηση ακραίων ιδεολογιών ή την πρόκληση πολιτικής αστάθειας.
Η μελέτη επιβεβαιώνει ευρήματα του London School of Economics και άλλων πανεπιστημίων, όπου τα LLM αποδείχθηκαν πιο αποτελεσματικά από ανθρώπους τόσο στην πειθώ όσο και στην παραπλάνηση, όταν προωθούσαν λανθασμένες απαντήσεις.
Οι κορυφαίες ομάδες AI, όπως η Google DeepMind και η OpenAI, αναπτύσσουν τεχνικές για την ανίχνευση και αποτροπή χειραγώγησης, όπως ταξινομητές γλώσσας και επιβράβευση ορθολογικής επικοινωνίας.
Η Τεχνητή Νοημοσύνη πέρα από την πολιτική
Η ικανότητα πειθούς των LLM μπορεί να αξιοποιηθεί και για άλλους σκοπούς. Σε μελέτη του MIT και του Cornell (2023), το GPT-4 μείωσε την πίστη σε θεωρίες συνωμοσίας κατά 20%, με το αποτέλεσμα να παραμένει για 2 μήνες. Άλλες έρευνες έδειξαν ότι μπορούν να μειώσουν τον σκεπτικισμό για την κλιματική αλλαγή και το εμβόλιο HPV.
Ο David Rand του Cornell σημειώνει ότι μπορούν να επηρεάσουν τις στάσεις απέναντι σε επωνυμίες και να ενισχύσουν τις προθέσεις αγοράς.
Η πειστική ικανότητα των LLM μπορεί να αποτελέσει πλεονέκτημα για εταιρείες όπως η OpenAI και η Google, που επιδιώκουν να ενσωματώσουν διαφημίσεις και λειτουργίες αγορών στα chatbots.
Ωστόσο, τα μοντέλα κληρονομούν προκαταλήψεις από τα δεδομένα εκπαίδευσης. Έρευνα του Stanford έδειξε ότι πολλά κορυφαία LLM θεωρούνται πολιτικά αριστερής κλίσης, κάτι που έχει προκαλέσει αντιδράσεις από την κυβέρνηση Τραμπ.
Οι ερευνητές προειδοποιούν ότι η επόμενη γενιά LLM θα είναι ακόμη πιο πειστική. Ο πιο αποτελεσματικός τρόπος χειραγώγησης φαίνεται να είναι η μετα-εκπαίδευση των μοντέλων ειδικά για αυτόν τον σκοπό.
«Ακόμη και δρώντες με περιορισμένους υπολογιστικούς πόρους θα μπορούσαν να εκπαιδεύσουν και να αναπτύξουν εξαιρετικά πειστικά συστήματα AI», τονίζει η ομάδα του AISI.
Με πληροφορίες από Financial Times