Anthropic: Η τεχνητή νοημοσύνη αποκτά… φιλόσοφο

Η τεχνητή νοημοσύνη αποκτά… φιλόσοφο Facebook Twitter
Φωτογραφία: Winni Wintermeyer
0

Μπορεί ένα chatbot να έχει συνείδηση; Όχι. Μπορεί όμως να μάθει τι είναι σωστό και τι λάθος;

Καθώς η τεχνητή νοημοσύνη διεκδικεί ολοένα μεγαλύτερο ρόλο στη δημόσια σφαίρα — από την ενημέρωση μέχρι την παραγωγή εικόνων και λόγου — η συζήτηση μετατοπίζεται από το «πόσο ισχυρή είναι» στο «πώς αποφασίζει». Σε αυτό το πεδίο παρεμβαίνει η Anthropic, η εταιρεία πίσω από το Claude, επιχειρώντας να ενσωματώσει φιλοσοφία στον ίδιο τον σχεδιασμό του συστήματός της.

Σύμφωνα με ρεπορτάζ της The Wall Street Journal, η εταιρεία έχει αναθέσει στην Amanda Askell — ηθικολόγο με σπουδές στην Οξφόρδη και διδακτορικό στη φιλοσοφία από το Πανεπιστήμιο της Νέας Υόρκης — να διαμορφώσει το «ηθικό πλαίσιο» του μοντέλου. Η Askell, που στο παρελθόν εργάστηκε και στην OpenAI πάνω σε ζητήματα ασφάλειας της τεχνητής νοημοσύνης, μελετά τα μοτίβα συλλογισμού της AI και συντάσσει εκτενή prompts, ορισμένα άνω των 100 σελίδων, που καθοδηγούν τον τρόπο με τον οποίο το σύστημα απαντά σε σύνθετα ηθικά ζητήματα.

Η τεχνητή νοημοσύνη αποκτά… φιλόσοφο Facebook Twitter

Κεντρικό στοιχείο αυτής της προσέγγισης είναι ένα εσωτερικό κείμενο 30.000 λέξεων — ένα είδος «συντάγματος» που περιγράφει τις αξίες που πρέπει να ενσωματώνονται στο μοντέλο: ενσυναίσθηση, σταθερότητα και υπευθυνότητα απέναντι στους χρήστες. Η μέθοδος, γνωστή ως “constitutional AI”, επιχειρεί να μεταφέρει τη συζήτηση για την ασφάλεια της τεχνητής νοημοσύνης από τα τεχνικά φίλτρα στις ίδιες τις αρχές που διέπουν την εκπαίδευσή της.

Η Askell έχει δηλώσει ότι η ανθρώπινη διάσταση των μοντέλων είναι κάτι που δεν μπορεί να αγνοηθεί: όσο τα συστήματα αυτά γίνονται πιο σύνθετα, τόσο περισσότερο χρειάζονται σαφείς κανόνες για το πώς θα απαντούν σε ερωτήματα που αγγίζουν ζητήματα όπως η πολιτική, η θρησκεία, ο πόλεμος ή η ψυχική υγεία.

Σε μια εποχή όπου η AI κατηγορείται για παραπληροφόρηση, bias και αδιαφάνεια, η κίνηση της Anthropic μοιάζει με πολιτισμική δήλωση: η τεχνολογία δεν αρκεί να είναι ικανή — πρέπει να είναι και αξιακά προσανατολισμένη. Το στοίχημα δεν είναι μόνο η απόδοση. Είναι ο χαρακτήρας.

Τech & Science
0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

ΔΕΙΤΕ ΑΚΟΜΑ

Γερμανία: Διαδικτυακή μηχανή αναζήτησης βοηθά ανθρώπους να ανακαλύψουν αν οι πρόγονοί τους ήταν Ναζί

Τech & Science / Γερμανία: Νέα μηχανή αναζήτησης αποκαλύπτει αν οι πρόγονοι κάποιου ήταν Ναζί

Πολλοί χρήστες δήλωσαν ότι ανακάλυψαν άγνωστες πτυχές για τις οικογένειές τους, κάτι που άλλαξε την εικόνα που είχαν για το παρελθόν τους, ενώ για κάποιους αποτέλεσε σοκ να συνειδητοποιήσουν την εμπλοκή συγγενών τους
THE LIFO TEAM
ΚΑΡΚΙΝΟΣ ΑΝΟΣΟΘΕΡΑΠΕΙΑ

Τech & Science / «Σαν σενάριο επιστημονικής φαντασίας»: Πώς η νέα γενιά ανοσοθεραπείας μπορεί να νικήσει τον καρκίνο

Η νέα ανοσοθεραπεία φέρνει εντυπωσιακά αποτελέσματα κατά του καρκίνου, με την επιστημονική κοινότητα να μιλά ακόμη και για μια νέα εποχή στην ογκολογία
THE LIFO TEAM
SOCIAL MEDIA ΑΥΣΤΡΑΛΙΑ ΑΝΗΛΙΚΟΙ

Τech & Science / Απαγόρευση social media στην Αυστραλία: Τα δύο τρίτα των ανηλίκων εξακολουθούν να έχουν πρόσβαση

Παρά την αυστηρή απαγόρευση που εφαρμόστηκε πριν από τέσσερις μήνες στη χώρα, νέα έρευνα δείχνει ότι η πλειονότητα των ανήλικων εξακολουθεί να έχει πρόσβαση στα social media
THE LIFO TEAM
Είναι το Mythos της Anthropic τόσο έξυπνο και δυνατό που καταντά επικίνδυνο;

Τech & Science / Είναι το Mythos της Anthropic τόσο έξυπνο και δυνατό που καταντά επικίνδυνο;

To εργαστήριο της Anthropic δηλώνει ιδιαίτερα θορυβημένo από την ικανότητα του συστήματος να εντοπίζει τρωτά σημεία λογισμικού και είτε να τα επιδιορθώνει (λειτουργώντας αμυντικά) είτε να τα εκμεταλλεύεται (λειτουργώντας ως χάκερ)
THE LIFO TEAM
ΠΡΟΩΡΟΣ ΤΟΚΕΤΟΣ ΧΗΜΙΚΕΣ ΟΥΣΙΕΣ ΠΛΑΣΤΙΚΑ

Τech & Science / Πρόωρος τοκετός: Τι είναι ο φθαλικός εστέρας και γιατί είναι επικίνδυνος

Νέα μελέτη διαπίστωσε ότι μια χημική ουσία που υπάρχει παντού γύρω μας θα μπορούσε να έχει συμβάλει σε 2 εκατομμύρια πρόωρους τοκετούς. Ωστόσο, δεν επηρεάζονται όλα τα μέρη του κόσμου στον ίδιο βαθμό.
THE LIFO TEAM