LIVE!

Anthropic: Η τεχνητή νοημοσύνη αποκτά… φιλόσοφο

Η τεχνητή νοημοσύνη αποκτά… φιλόσοφο Facebook Twitter
Φωτογραφία: Winni Wintermeyer
0

Μπορεί ένα chatbot να έχει συνείδηση; Όχι. Μπορεί όμως να μάθει τι είναι σωστό και τι λάθος;

Καθώς η τεχνητή νοημοσύνη διεκδικεί ολοένα μεγαλύτερο ρόλο στη δημόσια σφαίρα — από την ενημέρωση μέχρι την παραγωγή εικόνων και λόγου — η συζήτηση μετατοπίζεται από το «πόσο ισχυρή είναι» στο «πώς αποφασίζει». Σε αυτό το πεδίο παρεμβαίνει η Anthropic, η εταιρεία πίσω από το Claude, επιχειρώντας να ενσωματώσει φιλοσοφία στον ίδιο τον σχεδιασμό του συστήματός της.

Σύμφωνα με ρεπορτάζ της The Wall Street Journal, η εταιρεία έχει αναθέσει στην Amanda Askell — ηθικολόγο με σπουδές στην Οξφόρδη και διδακτορικό στη φιλοσοφία από το Πανεπιστήμιο της Νέας Υόρκης — να διαμορφώσει το «ηθικό πλαίσιο» του μοντέλου. Η Askell, που στο παρελθόν εργάστηκε και στην OpenAI πάνω σε ζητήματα ασφάλειας της τεχνητής νοημοσύνης, μελετά τα μοτίβα συλλογισμού της AI και συντάσσει εκτενή prompts, ορισμένα άνω των 100 σελίδων, που καθοδηγούν τον τρόπο με τον οποίο το σύστημα απαντά σε σύνθετα ηθικά ζητήματα.

Η τεχνητή νοημοσύνη αποκτά… φιλόσοφο Facebook Twitter

Κεντρικό στοιχείο αυτής της προσέγγισης είναι ένα εσωτερικό κείμενο 30.000 λέξεων — ένα είδος «συντάγματος» που περιγράφει τις αξίες που πρέπει να ενσωματώνονται στο μοντέλο: ενσυναίσθηση, σταθερότητα και υπευθυνότητα απέναντι στους χρήστες. Η μέθοδος, γνωστή ως “constitutional AI”, επιχειρεί να μεταφέρει τη συζήτηση για την ασφάλεια της τεχνητής νοημοσύνης από τα τεχνικά φίλτρα στις ίδιες τις αρχές που διέπουν την εκπαίδευσή της.

Η Askell έχει δηλώσει ότι η ανθρώπινη διάσταση των μοντέλων είναι κάτι που δεν μπορεί να αγνοηθεί: όσο τα συστήματα αυτά γίνονται πιο σύνθετα, τόσο περισσότερο χρειάζονται σαφείς κανόνες για το πώς θα απαντούν σε ερωτήματα που αγγίζουν ζητήματα όπως η πολιτική, η θρησκεία, ο πόλεμος ή η ψυχική υγεία.

Σε μια εποχή όπου η AI κατηγορείται για παραπληροφόρηση, bias και αδιαφάνεια, η κίνηση της Anthropic μοιάζει με πολιτισμική δήλωση: η τεχνολογία δεν αρκεί να είναι ικανή — πρέπει να είναι και αξιακά προσανατολισμένη. Το στοίχημα δεν είναι μόνο η απόδοση. Είναι ο χαρακτήρας.

Τech & Science
0

LIVE!

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

ΔΕΙΤΕ ΑΚΟΜΑ

OPENAI ΣΑΜ ΑΛΤΜΑΝ ΗΠΑ ΠΕΝΤΑΓΩΝΟ

Τech & Science / OpenAI τροποποιεί τη συμφωνία με το Πεντάγωνο μετά τις αντιδράσεις – «Έμοιαζε ευκαιριακή και πρόχειρη», λέει ο Σαμ Άλτμαν

Περίπου 900 εργαζόμενοι των OpenAI και Google κάλεσαν, μέσω ανοιχτής επιστολής, τις διοικήσεις των εταιρειών να απορρίψουν οποιαδήποτε συνεργασία που θα οδηγούσε σε μαζική παρακολούθηση ή σε αυτόνομα οπλικά συστήματα χωρίς ανθρώπινο έλεγχο
THE LIFO TEAM
CLAUDE ANTHROPIC ΗΠΑ ΙΡΑΝ ΝΤΟΝΑΛΝΤ ΤΡΑΜΠ

Τech & Science / Ο αμερικανικός στρατός χρησιμοποίησε το Claude στην επίθεση κατά του Ιράν, παρά την απαγόρευση Τραμπ

Σύμφωνα με τη Wall Street Journal, το στρατιωτικό επιτελείο των ΗΠΑ χρησιμοποίησε το Claude για ανάλυση πληροφοριών, αλλά και για την επιλογή στόχων και την προσομοίωση επιχειρήσεων στο πεδίο μάχης
THE LIFO TEAM
ΗΛΙΚΙΩΜΕΝΟΙ ΑΙΜΑΤΟΛΟΓΙΚΗ ΕΞΕΤΑΣΗ ΕΞΕΤΑΣΗ ΑΙΜΑΤΟΣ

Τech & Science / Εξέταση αίματος μπορεί να εκτιμήσει τον κίνδυνο θανάτου σε ηλικιωμένους

Ένα απλό αιματολογικό τεστ μπορεί να βοηθήσει τους γιατρούς να εντοπίσουν ποιοι ηλικιωμένοι διατρέχουν υψηλότερο κίνδυνο να ζήσουν μόνο για λίγα ακόμη χρόνια, καθώς μικρά μόρια RNA στο αίμα φαίνεται να προβλέπουν με ακρίβεια τη διάρκεια ζωής τους
THE LIFO TEAM