Σε μια προσπάθεια να μειώσει το λειτουργικό κόστος, η κινεζική DeepSeek που «τάραξε τα νερά» στο χώρο της ΑΙ , συνεργάζεται με το Πανεπιστήμιο Tsinghua για τη μείωση της εκπαίδευσης που χρειάζονται τα μοντέλα τεχνητής νοημοσύνης της.
Η κινεζική startup, η οποία αναστάτωσε τις αγορές με το χαμηλού κόστους μοντέλο συλλογιστικής που εμφανίστηκε τον Ιανουάριο, συνεργάστηκε με ερευνητές από το ίδρυμα του Πεκίνου σε ένα έγγραφο που περιγράφει λεπτομερώς μια νέα προσέγγιση στην ενισχυτική μάθηση για να γίνουν τα μοντέλα πιο αποδοτικά.
Η νέα μέθοδος έχει ως στόχο να βοηθήσει τα μοντέλα τεχνητής νοημοσύνης να τηρούν καλύτερα τις ανθρώπινες προτιμήσεις, προσφέροντας ανταμοιβές για πιο ακριβείς και κατανοητές απαντήσεις, έγραψαν οι ερευνητές.
Η ενισχυτική μάθηση έχει αποδειχθεί αποτελεσματική στην επιτάχυνση των εργασιών της τεχνητής νοημοσύνης σε στενές εφαρμογές και τομείς. Ωστόσο, η επέκτασή της σε πιο γενικές εφαρμογές έχει αποδειχθεί πρόκληση – και αυτό είναι το πρόβλημα που προσπαθεί να λύσει η ομάδα της DeepSeek με κάτι που αποκαλεί ρύθμιση κριτικής με βάση τις αρχές του εαυτού της.
Καλύτερες επιδόσεις
Η στρατηγική ξεπέρασε τις υπάρχουσες μεθόδους και μοντέλα σε διάφορα benchmarks και το αποτέλεσμα έδειξε καλύτερες επιδόσεις με λιγότερους υπολογιστικούς πόρους, σύμφωνα με το έγγραφο που επικαλείται το Bloomberg.
Η DeepSeek ονομάζει αυτά τα νέα μοντέλα DeepSeek-GRM – συντομογραφία για τη «γενικευμένη μοντελοποίηση ανταμοιβής» – και θα τα κυκλοφορήσει σε βάση ανοιχτού κώδικα, δήλωσε η εταιρεία.
Άλλοι προγραμματιστές τεχνητής νοημοσύνης, συμπεριλαμβανομένου του κινεζικού τεχνολογικού γίγαντα Alibaba Group Holding Ltd. και της OpenAI με έδρα το Σαν Φρανσίσκο, προωθούνται επίσης σε ένα νέο σύνορο βελτίωσης της συλλογιστικής και των δυνατοτήτων αυτο-αναβάθμισης, ενώ ένα μοντέλο τεχνητής νοημοσύνης εκτελεί εργασίες σε πραγματικό χρόνο.
Η Meta Platforms Inc. με έδρα το Menlo Park της Καλιφόρνιας κυκλοφόρησε την τελευταία οικογένεια μοντέλων τεχνητής νοημοσύνης, το Llama 4, το Σαββατοκύριακο και τα χαρακτήρισε ως τα πρώτα που χρησιμοποιούν την αρχιτεκτονική Mixture of Experts (MoE).
Τα μοντέλα της DeepSeek βασίζονται σημαντικά στην MoE για την αποδοτικότερη χρήση των πόρων και η Meta έκανε συγκριτική αξιολόγηση της νέας της έκδοσης με τη νεοσύστατη εταιρεία με έδρα την Hangzhou. Η DeepSeek δεν έχει διευκρινίσει πότε μπορεί να κυκλοφορήσει το επόμενο μοντέλο-ναυαρχίδα της.
Πηγή: ot.gr