Anthropic: Η τεχνητή νοημοσύνη αποκτά… φιλόσοφο

Η τεχνητή νοημοσύνη αποκτά… φιλόσοφο Facebook Twitter
Φωτογραφία: Winni Wintermeyer
0

Μπορεί ένα chatbot να έχει συνείδηση; Όχι. Μπορεί όμως να μάθει τι είναι σωστό και τι λάθος;

Καθώς η τεχνητή νοημοσύνη διεκδικεί ολοένα μεγαλύτερο ρόλο στη δημόσια σφαίρα — από την ενημέρωση μέχρι την παραγωγή εικόνων και λόγου — η συζήτηση μετατοπίζεται από το «πόσο ισχυρή είναι» στο «πώς αποφασίζει». Σε αυτό το πεδίο παρεμβαίνει η Anthropic, η εταιρεία πίσω από το Claude, επιχειρώντας να ενσωματώσει φιλοσοφία στον ίδιο τον σχεδιασμό του συστήματός της.

Σύμφωνα με ρεπορτάζ της The Wall Street Journal, η εταιρεία έχει αναθέσει στην Amanda Askell — ηθικολόγο με σπουδές στην Οξφόρδη και διδακτορικό στη φιλοσοφία από το Πανεπιστήμιο της Νέας Υόρκης — να διαμορφώσει το «ηθικό πλαίσιο» του μοντέλου. Η Askell, που στο παρελθόν εργάστηκε και στην OpenAI πάνω σε ζητήματα ασφάλειας της τεχνητής νοημοσύνης, μελετά τα μοτίβα συλλογισμού της AI και συντάσσει εκτενή prompts, ορισμένα άνω των 100 σελίδων, που καθοδηγούν τον τρόπο με τον οποίο το σύστημα απαντά σε σύνθετα ηθικά ζητήματα.

Η τεχνητή νοημοσύνη αποκτά… φιλόσοφο Facebook Twitter

Κεντρικό στοιχείο αυτής της προσέγγισης είναι ένα εσωτερικό κείμενο 30.000 λέξεων — ένα είδος «συντάγματος» που περιγράφει τις αξίες που πρέπει να ενσωματώνονται στο μοντέλο: ενσυναίσθηση, σταθερότητα και υπευθυνότητα απέναντι στους χρήστες. Η μέθοδος, γνωστή ως “constitutional AI”, επιχειρεί να μεταφέρει τη συζήτηση για την ασφάλεια της τεχνητής νοημοσύνης από τα τεχνικά φίλτρα στις ίδιες τις αρχές που διέπουν την εκπαίδευσή της.

Η Askell έχει δηλώσει ότι η ανθρώπινη διάσταση των μοντέλων είναι κάτι που δεν μπορεί να αγνοηθεί: όσο τα συστήματα αυτά γίνονται πιο σύνθετα, τόσο περισσότερο χρειάζονται σαφείς κανόνες για το πώς θα απαντούν σε ερωτήματα που αγγίζουν ζητήματα όπως η πολιτική, η θρησκεία, ο πόλεμος ή η ψυχική υγεία.

Σε μια εποχή όπου η AI κατηγορείται για παραπληροφόρηση, bias και αδιαφάνεια, η κίνηση της Anthropic μοιάζει με πολιτισμική δήλωση: η τεχνολογία δεν αρκεί να είναι ικανή — πρέπει να είναι και αξιακά προσανατολισμένη. Το στοίχημα δεν είναι μόνο η απόδοση. Είναι ο χαρακτήρας.

Τech & Science
0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

ΔΕΙΤΕ ΑΚΟΜΑ

ΠΑΝΔΗΜΙΑ ΠΟΥ ΣΥΜΦΩΝΙΑ

Τech & Science / Ο κόσμος «απροετοίμαστος» για την επόμενη πανδημία καθώς οι χώρες δεν συμφωνούν σε δεδομένα και εμβόλια

Η διεθνής συνθήκη του ΠΟΥ για τις πανδημίες παραμένει ανολοκλήρωτη, με τον γενικό διευθυντή του ΠΟΥ να τονίζει ότι η επόμενη πανδημία είναι «ζήτημα χρόνου και όχι πιθανότητας»
THE LIFO TEAM
ΣΠΕΡΜΑ ΚΑΡΚΙΝΟΣ ΧΗΜΕΙΟΘΕΡΑΠΕΙΑ

Τech & Science / Επιστημονικό ορόσημο: Άνδρας απέκτησε σπέρμα από ιστό που είχε καταψυχθεί όταν ήταν παιδί

Αν και συχνά σώζουν ζωές σε παιδιά με καρκίνο ή άλλες σοβαρές ασθένειες, θεραπείες όπως η χημειοθεραπεία και η ακτινοθεραπεία μπορούν να προκαλέσουν μόνιμη υπογονιμότητα
THE LIFO TEAM
Το chatbot σου δεν λέει την αλήθεια. Απλώς τη μαντεύει.

Τech & Science / Τa chatbot δεν λένε την αλήθεια. Απλώς τη μαντεύουν.

Στο νέο της βιβλίο Prophecy, η φιλόσοφος Carissa Véliz υποστηρίζει ότι η παραγωγική τεχνητή νοημοσύνη δεν είναι μηχανή γνώσης αλλά μηχανή πρόβλεψης. Από τους αρχαίους μάντεις μέχρι τα chatbots της Big Tech, το βιβλίο εξετάζει πώς η εμμονή με το μέλλον μπορεί να μας κάνει λιγότερο ασφαλείς, λιγότερο ελεύθερους και πιο ίδιους μεταξύ μας.
THE LIFO TEAM
Μια καλόγρια απέναντι στην Palantir: όταν ο όρκος φτώχειας συναντά τη Wall Street

Τech & Science / Μια καλόγρια απέναντι στην Palantir

Μια καθολική μοναχή χρησιμοποιεί τις μετοχές ως εργαλείο πίεσης απέναντι σε μερικές από τις πιο ισχυρές εταιρείες του κόσμου. Μετά τη Citigroup και τη Microsoft, η Σούζαν Φρανσουά βάζει στο στόχαστρο την Palantir και ζητά να της απαντήσει πώς αυτή επηρεάζει τα ανθρώπινα δικαιώματα.
THE LIFO TEAM