DeepSeek: Η εμφατική πρόοδος φέρνει πιο φτηνή τεχνητή νοημοσύνη

DeepSeek: Η εμφατική πρόοδος φέρνει πιο φτηνή τεχνητή νοημοσύνη Facebook Twitter
ChatGPT και DeepSeek εγκατεστημένες σε Iphone/ Φωτ.: Getty
0

Η κινεζική εταιρεία δημιουργίας τεχνητής νοημοσύνης (AI) DeepSeek υιοθέτησε καινοτόμες τεχνικές για την ανάπτυξη ενός μοντέλου που εκπαιδεύτηκε με περιορισμένη ανθρώπινη παρέμβαση, ωθώντας σε μια ερίγδουπη εμφάνιση, που προκάλεσε πανικό στις αγορές και θα μπορούσε να μετασχηματίσει το κόστος που απαιτείται ώστε οι προγραμματιστές να δημιουργήσουν εφαρμογές με βάση την τεχνολογία.

Το έγγραφο που δημοσιεύθηκε σχετικά με τη λειτουργία του μοντέλου «συλλογιστικής» R1 της DeepSeek αποκαλύπτει πώς η ομάδα, με επικεφαλής τον δισεκατομμυριούχο του hedge fund Λιάνγκ Γουένφενγκ, πέτυχε σε μεγάλο βαθμό να εξαλείψει πολλά εμπόδια στην ανάπτυξη της τεχνητής νοημοσύνης. Το έγγραφο δείχνει πώς η DeepSeek υιοθέτησε μια σειρά από πιο αποτελεσματικές τεχνικές για την ανάπτυξη του R1, το οποίο, όπως και το αντίπαλο μοντέλο o1 της OpenAI, παράγει ακριβείς απαντήσεις «σκεπτόμενο» βήμα προς βήμα τις απαντήσεις του για μεγαλύτερο χρονικό διάστημα από ό,τι τα περισσότερα μεγάλα γλωσσικά μοντέλα.

Τα επιτεύγματα της DeepSeek προέρχονται από τη χρήση της «μάθησης μέσω ενίσχυσης» (RL) για τη μείωση της ανθρώπινης συμμετοχής στην παραγωγή απαντήσεων σε προτροπές. Η εταιρεία έχει επίσης δημιουργήσει μικρότερα μοντέλα με λιγότερες παραμέτρους - τον αριθμό των μεταβλητών που χρησιμοποιούνται για την εκπαίδευση ενός συστήματος τεχνητής νοημοσύνης και τη διαμόρφωση της παραγωγής του - με ισχυρές ικανότητες συλλογισμού, βελτιώνοντας μεγάλα μοντέλα που εκπαιδεύονται από ανταγωνιστές όπως η Meta και η Alibaba. Μαζί, αυτές οι εξελίξεις έχουν προκαλέσει σοκ σε όλη τη Silicon Valley, καθώς το R1 υπερτερεί σε ορισμένες εργασίες σε σύγκριση με τα μοντέλα που κυκλοφόρησαν πρόσφατα από την OpenAI, την Anthropic και τη Meta, αλλά με ένα κλάσμα των χρημάτων για την ανάπτυξή τους.

«Νομίζω ότι είναι μόνο η κορυφή του παγόβουνου όσον αφορά το είδος της καινοτομίας που μπορούμε να περιμένουμε σε αυτά τα μοντέλα», δήλωσε ο Neil Lawrence, καθηγητής μηχανικής μάθησης της DeepMind στο πανεπιστήμιο του Cambridge. «Η ιστορία δείχνει ότι οι μεγάλες επιχειρήσεις δυσκολεύονται να καινοτομήσουν καθώς κλιμακώνονται, και αυτό που έχουμε δει από πολλές από αυτές τις μεγάλες επιχειρήσεις είναι η αντικατάσταση της πνευματικής σκληρής δουλειάς από επενδύσεις σε υπολογιστές».

Τα σταδιακά βήματα και η εμφατική παρουσίαση

Τα μεγάλα γλωσσικά μοντέλα κατασκευάζονται σε δύο στάδια. Το πρώτο ονομάζεται «προ-εκπαίδευση», κατά το οποίο οι προγραμματιστές χρησιμοποιούν τεράστια σύνολα δεδομένων που βοηθούν τα μοντέλα να προβλέψουν την επόμενη λέξη σε μια πρόταση. Το δεύτερο στάδιο ονομάζεται «μετεκπαίδευση», μέσω της οποίας οι προγραμματιστές μαθαίνουν στο μοντέλο να ακολουθεί οδηγίες, όπως η επίλυση μαθηματικών προβλημάτων ή η κωδικοποίηση. Ένας τρόπος για να κάνουν τα chatbots να παράγουν πιο χρήσιμες απαντήσεις ονομάζεται «μάθηση μέσω ενίσχυσης από ανθρώπινη ανατροφοδότηση» (RLHF), μια τεχνική που εφαρμόστηκε από την OpenAI για τη βελτίωση του ChatGPT. Η RLHF λειτουργεί με ανθρώπινους σχολιαστές που επισημαίνουν τις απαντήσεις του μοντέλου τεχνητής νοημοσύνης σε προτροπές και επιλέγουν τις απαντήσεις που είναι καλύτερες. Αυτό το βήμα είναι συχνά επίπονο, ακριβό και χρονοβόρο, απαιτώντας συχνά έναν μικρό στρατό ανθρώπινων μαρκαδόρων δεδομένων. Η μεγάλη καινοτομία της DeepSeek είναι η αυτοματοποίηση αυτού του τελικού βήματος, χρησιμοποιώντας μια τεχνική που ονομάζεται ενισχυτική μάθηση (RL), κατά την οποία το μοντέλο ΤΝ ανταμείβεται επειδή κάνει το σωστό.

Η DeepSeek ανέπτυξε πρώτα ένα ισχυρό μοντέλο πρόβλεψης κειμένου που ονομάζεται V3. Στη συνέχεια χρησιμοποίησε RL για να «ανταμείψει» το μοντέλο, όπως για παράδειγμα να του δώσει ένα μπράβο για την παραγωγή της σωστής απάντησης. Η κινεζική εταιρεία διαπίστωσε ότι κάνοντας αυτή τη διαδικασία αρκετές φορές, το μοντέλο κατάφερε να λύσει αυθόρμητα προβλήματα χωρίς ανθρώπινη επίβλεψη. Αυτή η τεχνική χρησιμοποιήθηκε επίσης από την Google DeepMind για την κατασκευή του AlphaGo, του συστήματος τεχνητής νοημοσύνης που νίκησε τους ανθρώπινους παίκτες στο αρχαίο επιτραπέζιο παιχνίδι Go και έδωσε το έναυσμα για τη σημερινή έκρηξη των υπολογιστικών τεχνικών βαθιάς μάθησης πριν από σχεδόν μια δεκαετία. Η DeepSeek δήλωσε «εύρηκα» όταν επαναξιολόγησε τις απαντήσεις του και προσάρμοσε τον χρόνο επεξεργασίας του για την επίλυση διαφορετικών ερωτήσεων. «Η στιγμή που αναφωνήσαμε 'εύρηκα' χρησιμεύει ως μια έντονη υπενθύμιση των δυνατοτήτων της [RL] να ξεκλειδώσει νέα επίπεδα νοημοσύνης στα συστήματα τεχνητής νοημοσύνης, ανοίγοντας τον δρόμο για πιο αυτόνομα και ευπροσάρμοστα μοντέλα στο μέλλον», έγραψαν οι δημιουργοί της DeepSeek στο έγγραφο.

Ο Lewis Tunstall, ερευνητής στη Hugging Face, μια εταιρεία ερευνών τεχνητής νοημοσύνης, δήλωσε: «Φαίνεται ότι η μυστική σάλτσα για να δουλέψει αυτό είναι να έχεις ένα πολύ, πολύ ισχυρό προ-εκπαιδευμένο μοντέλο και στη συνέχεια να έχεις πολύ, πολύ καλή υποδομή για να κάνεις αυτή τη διαδικασία ενισχυτικής μάθησης σε μεγάλη κλίμακα».

Μικρά μοντέλα που κατασκευάζονται χρησιμοποιώντας μεγάλα

Ενώ η OpenAI και η Google επενδύουν δισεκατομμύρια δολάρια για την κατασκευή μεγάλων γλωσσικών μοντέλων, η DeepSeek έχει επίσης κατασκευάσει μικρότερα μοντέλα που μπορούν να εκτελούνται σε τηλέφωνα ή προγράμματα περιήγησης στο διαδίκτυο, "αποστάζοντας" τις δυνατότητες συλλογισμού των μεγαλύτερων μοντέλων.

Η DeepSeek χρησιμοποίησε το μοντέλο R1 για να δημιουργήσει ένα σχετικά μικρό σύνολο 800.000 σημείων δεδομένων και στη συνέχεια βελτίωσε τα μοντέλα που κατασκευάστηκαν από ανταγωνιστές όπως το Qwen της Alibaba και το Llama της Meta χρησιμοποιώντας αυτά τα δεδομένα που δημιούργησε η τεχνητή νοημοσύνη. Η DeepSeek διαπίστωσε ότι αυτά τα αποσταγμένα μοντέλα ήταν ιδιαίτερα ισχυρά σε συγκριτικά κριτήρια συλλογισμού, σε ορισμένες περιπτώσεις ξεπερνώντας μοντέλα-ναυαρχίδες όπως το Claude της Anthropic. "Βασικά μπορεί να λύσει τα περισσότερα από τα μαθηματικά προβλήματα που έκανα στις προπτυχιακές σπουδές μου", δήλωσε ο Tunstall.

Αυτή η εξέλιξη θα μπορούσε να είναι μια ευλογία για τους προγραμματιστές εφαρμογών, οι οποίοι έχουν έναν φθηνό και αποτελεσματικό τρόπο να κατασκευάζουν προϊόντα. Η διδασκαλία των μοντέλων τεχνητής νοημοσύνης να συλλογίζονται κατά τη διάρκεια της «συμπερασματολογίας» - όταν το μοντέλο παράγει απαντήσεις - είναι πολύ πιο αποτελεσματική από τη διαδικασία προ-εκπαίδευσης, η οποία απαιτεί μεγάλη υπολογιστική ισχύ, σύμφωνα με τον Lennart Heim, ερευνητή στη Rand, μια δεξαμενή σκέψης.

Αυτό το νέο παράδειγμα θα μπορούσε να επιτρέψει στους ανταγωνιστές να κατασκευάσουν ανταγωνιστικά μοντέλα με πολύ λιγότερη υπολογιστική ισχύ και χρήματα, πρόσθεσε. Ωστόσο, χωρίς χρήματα για τσιπ, "απλά δεν μπορούν να τα αναπτύξουν στην ίδια κλίμακα", δήλωσε ο Heim.Η DeepSeek δεν δήλωσε πόσα δαπάνησε για την κατασκευή του R1, αλλά ισχυρίστηκε ότι εκπαίδευσε το μοντέλο V3, στο οποίο βασίζεται το R1, με μόλις 5,6 εκατ. δολάρια. Το ποσό αυτό δεν περιλαμβάνει άλλα κόστη, όπως η πιθανή απόκτηση χιλιάδων μονάδων επεξεργασίας γραφικών για την εκπαίδευση του μοντέλου, ούτε μισθούς, πειράματα, εκπαίδευση και ανάπτυξη, δήλωσε ο Heim.

Και ενώ η DeepSeek ήταν η πρώτη που χρησιμοποίησε τις συγκεκριμένες τεχνικές της, άλλα εργαστήρια τεχνητής νοημοσύνης αναμένεται να ακολουθήσουν το παράδειγμά της, με τη Hugging Face να εργάζεται ήδη για την αντιγραφή της R1. Οι αμερικανικές εταιρείες τεχνητής νοημοσύνης έχουν επίσης εργαστεί για τη χρήση των δυνατοτήτων των μεγάλων, υπερσύγχρονων μοντέλων τους σε μικρότερα, πιο ευέλικτα μοντέλα. Η Google λάνσαρε πέρυσι το Gemma, το οποίο είναι ένα πιο ελαφρύ μοντέλο βασισμένο στο δικό της Gemini.«Η συνταγή της νοημοσύνης είναι αρκετά απλή», λέει ο Thomas Wolf, συνιδρυτής και επιστημονικός υπεύθυνος της Hugging Face, προσθέτοντας ότι οι τεχνικές της DeepSeek ήταν καλά κατανοητές από άλλους στον τομέα. «Και γι' αυτό περιμένω ότι πολλές ομάδες μπορούν να το ξανακάνουν αυτό».

Με πληροφορίες από Financial Times

Διεθνή
0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

ΔΕΙΤΕ ΑΚΟΜΑ

Πώς οι δασμοί Τραμπ επηρεάζουν την οικονομία και τι σημαίνει για τους Αμερικανούς

Διεθνή / Πώς οι δασμοί Τραμπ επηρεάζουν την οικονομία και τι σημαίνει για τους Αμερικανούς

Οι τελευταίοι οικονομικοί δείκτες δείχνουν ότι οι δασμοί του Προέδρου Τραμπ προκαλούν αύξηση των τιμών και μειώνουν τα πραγματικά εισοδήματα, κάτι που μπορεί να επηρεάσει αρνητικά τις πολιτικές του Ρεπουμπλικανών.
LIFO NEWSROOM
Το μυστικό κανάλι που χρησιμοποιούν Ρωσία και Ουκρανία για να ανταλλάσσουν αιχμαλώτους πολέμου

Διεθνή / Το μυστικό κανάλι που χρησιμοποιούν Ρωσία και Ουκρανία για να ανταλλάσσουν αιχμαλώτους πολέμου

Οι ειρηνευτικές συνομιλίες είναι τεταμένες την παραμονή της συνόδου κορυφής Πούτιν-Τραμπ, ωστόσο οι δύο χώρες έχουν καταφέρει να ανταλλάξουν περισσότερους από 10.000 στρατιώτες, κάτι σχεδόν ανήκουστο στον σύγχρονο πόλεμο
LIFO NEWSROOM
Γιατί ο Πούτιν πιστεύει ότι η Ρωσία έχει το πάνω χέρι στην Ουκρανία

Διεθνή / Γιατί ο Πούτιν πιστεύει ότι η Ρωσία έχει το πάνω χέρι στην Ουκρανία

Η στρατηγική αναγέννησης του ρωσικού στρατού και πώς ο Βλαντίμιρ Πούτιν αξιοποιεί την οικονομική ανθεκτικότητα και την κινητοποίηση για να αλλάξει την κατεύθυνση του πολέμου στην Ουκρανία
LIFO NEWSROOM
Χιροσίμα, Ναγκασάκι - 80 χρόνια μετά: Τα αποτελέσματα της έρευνας για τον καρκίνο από την ακτινοβολία

Διεθνή / Χιροσίμα, Ναγκασάκι - 80 χρόνια μετά: Τα αποτελέσματα της έρευνας για τον καρκίνο από την ακτινοβολία

Νέα έρευνα αποκαλύπτει πως τα περιστατικά καρκίνου από την ακτινοβολία των βομβών στην Χιροσίμα και το Ναγκασάκι θα σκοτώσουν λιγότερο από το 1% των επιζώντων. Αναλυτικά αποτελέσματα 80 χρόνια μετά τις επιθέσεις.
LIFO NEWSROOM
Ουκρανία: Προβλήματα στρατηγικής και διοίκησης στον αγώνα ενάντια στη Ρωσία

Διεθνή / Ουκρανία: Προβλήματα στρατηγικής και διοίκησης στον αγώνα ενάντια στη Ρωσία

Η Ουκρανία αντιμετωπίζει αυξανόμενα στρατηγικά προβλήματα και απογοήτευση στο στρατό της, καθώς η παραδοσιακή σοβιετική ιεραρχία δημιουργεί αχρείαστες απώλειες και μειώνει το ηθικό των στρατευμάτων. Η αναγκαία αλλαγή στρατηγικής και διοίκησης είναι πιο επιτακτική από ποτέ.
LIFO NEWSROOM
Πως η μουσική επηρεάζει τη στρατηγική πολυτελών οίκων όπως η Dior και η Gucci

Διεθνή / Πώς η μουσική επηρεάζει τη στρατηγική πολυτελών οίκων όπως η Dior και η Gucci

Η μουσική και τα τραγούδια αναδεικνύουν την κουλτούρα των πολυτελών μαρκών. Από τη διάσημη επιτυχία "Dior" μέχρι την ανάκαμψη της Gucci, αναλύουμε πώς η μουσική επηρεάζει τις πωλήσεις και τις στρατηγικές των μεγάλων οίκων
LIFO NEWSROOM