Μπορεί ένα chatbot να έχει συνείδηση; Όχι. Μπορεί όμως να μάθει τι είναι σωστό και τι λάθος;
Καθώς η τεχνητή νοημοσύνη διεκδικεί ολοένα μεγαλύτερο ρόλο στη δημόσια σφαίρα — από την ενημέρωση μέχρι την παραγωγή εικόνων και λόγου — η συζήτηση μετατοπίζεται από το «πόσο ισχυρή είναι» στο «πώς αποφασίζει». Σε αυτό το πεδίο παρεμβαίνει η Anthropic, η εταιρεία πίσω από το Claude, επιχειρώντας να ενσωματώσει φιλοσοφία στον ίδιο τον σχεδιασμό του συστήματός της.
Σύμφωνα με ρεπορτάζ της The Wall Street Journal, η εταιρεία έχει αναθέσει στην Amanda Askell — ηθικολόγο με σπουδές στην Οξφόρδη και διδακτορικό στη φιλοσοφία από το Πανεπιστήμιο της Νέας Υόρκης — να διαμορφώσει το «ηθικό πλαίσιο» του μοντέλου. Η Askell, που στο παρελθόν εργάστηκε και στην OpenAI πάνω σε ζητήματα ασφάλειας της τεχνητής νοημοσύνης, μελετά τα μοτίβα συλλογισμού της AI και συντάσσει εκτενή prompts, ορισμένα άνω των 100 σελίδων, που καθοδηγούν τον τρόπο με τον οποίο το σύστημα απαντά σε σύνθετα ηθικά ζητήματα.
Κεντρικό στοιχείο αυτής της προσέγγισης είναι ένα εσωτερικό κείμενο 30.000 λέξεων — ένα είδος «συντάγματος» που περιγράφει τις αξίες που πρέπει να ενσωματώνονται στο μοντέλο: ενσυναίσθηση, σταθερότητα και υπευθυνότητα απέναντι στους χρήστες. Η μέθοδος, γνωστή ως “constitutional AI”, επιχειρεί να μεταφέρει τη συζήτηση για την ασφάλεια της τεχνητής νοημοσύνης από τα τεχνικά φίλτρα στις ίδιες τις αρχές που διέπουν την εκπαίδευσή της.
Η Askell έχει δηλώσει ότι η ανθρώπινη διάσταση των μοντέλων είναι κάτι που δεν μπορεί να αγνοηθεί: όσο τα συστήματα αυτά γίνονται πιο σύνθετα, τόσο περισσότερο χρειάζονται σαφείς κανόνες για το πώς θα απαντούν σε ερωτήματα που αγγίζουν ζητήματα όπως η πολιτική, η θρησκεία, ο πόλεμος ή η ψυχική υγεία.
Σε μια εποχή όπου η AI κατηγορείται για παραπληροφόρηση, bias και αδιαφάνεια, η κίνηση της Anthropic μοιάζει με πολιτισμική δήλωση: η τεχνολογία δεν αρκεί να είναι ικανή — πρέπει να είναι και αξιακά προσανατολισμένη. Το στοίχημα δεν είναι μόνο η απόδοση. Είναι ο χαρακτήρας.