Τεχνητή νοημοσύνη: Συνεργασία Meta-Qualcomm φέρνει κινητά AI
Το Llama 2 της Meta μπορεί να κάνει πολλές από τις εργασίες που εκτελεί και το ChatGPT, αλλά μπορεί να συσκευαστεί σε ένα μικρότερο πρόγραμμα
- Μιας διαγραφής… μύρια έπονται για τη Ν.Δ.- Νέες εσωκομματικές συνθήκες και «εν κρυπτώ» υπουργοί
- Τι βλέπει η ΕΛ.ΑΣ. για τη γιάφκα στο Παγκράτι – Τα εκρηκτικά ήταν έτοιμα προς χρήση
- Την άρση ασυλίας Καλλιάνου εισηγείται η Επιτροπή Δεοντολογίας της Βουλής
- Οι καταναλωτικές συνήθειες των Ελλήνων κατά τη διάρκεια της Black Friday
Η Qualcomm και η Meta Platforms ανακοίνωσαν ότι θα επιτρέψουν στο νέο μεγάλο γλωσσικό μοντέλο της εταιρείας κοινωνικής δικτύωσης, το Llama 2, να τρέχει σε τσιπ της πρώτης σε τηλέφωνα και υπολογιστές από το 2024.
Μέχρι στιγμής, τα μεγάλα γλωσσικά μοντέλα (LLM) τρέχουν κυρίως σε μεγάλες φάρμες διακομιστών, με επεξεργαστές γραφικών της Nvidia, λόγω των τεράστιων αναγκών της συγκεκριμένης τεχνολογίας σε υπολογιστική ισχύ και δεδομένα, ενισχύοντας τη μετοχή της Nvidia, η οποία έχει αυξηθεί περισσότερο από 220% φέτος.
Ωστόσο, η έκρηξη της τεχνητής νοημοσύνης έχει σε μεγάλο βαθμό διαφύγει από τις εταιρείες που κατασκευάζουν επεξεργαστές αιχμής για τηλέφωνα και υπολογιστές, όπως η Qualcomm. Η μετοχή της τελευταίας έχει αυξηθεί κατά περίπου 10% μέχρι στιγμής το 2023, υπολειπόμενη της ανόδου του NASDAQ κατά 36%, αναφέρει χαρακτηριστικά το CNBC.
Η ανακοίνωση υποδηλώνει ότι η Qualcomm θέλει να καταστήσει τους επεξεργαστές της ως κατάλληλους για εφαρμογές τεχνητής νοημοσύνης, αλλά σε επίπεδο συσκευής αντί για το cloud. Εάν τα μεγάλα γλωσσικά μοντέλα μπορούν να εκτελούνται σε τηλέφωνα αντί σε μεγάλα κέντρα δεδομένων, αυτό θα μπορούσε να μειώσει το σημαντικό κόστος λειτουργίας των μοντέλων AI και θα μπορούσε να οδηγήσει σε καλύτερους και ταχύτερους βοηθούς φωνής και άλλες εφαρμογές.
Το Llama 2 της Meta μπορεί να κάνει πολλές από τις εργασίες που εκτελεί και το ChatGPT, αλλά μπορεί να συσκευαστεί σε ένα μικρότερο πρόγραμμα, το οποίο του επιτρέπει να τρέχει σε ένα τηλέφωνο.
Τα τσιπ της Qualcomm περιλαμβάνουν μια «tensor processor unit» ή TPU, η οποία είναι κατάλληλη για τα είδη των υπολογισμών που απαιτούν τα μοντέλα ΑΙ. Ωστόσο, η επεξεργαστική ισχύς που είναι διαθέσιμη σε μια κινητή συσκευή ωχριά σε σύγκριση με ένα κέντρο δεδομένων εφοδιασμένα με GPU τελευταίας τεχνολογίας.
Η διαφορά του Llama
Το Llama θεωρείται αξιοσημείωτο καθώς η Meta έχει δημοσιεύσει τα «βάρη» της τεχνολογίας, δηλαδή το σύνολο των δεδομένων που βοηθάει στη ρύθμιση του τρόπου λειτουργίας ενός συγκεκριμένου μοντέλου τεχνητής νοημοσύνης. Με αυτόν τον τρόπο θα επιτραπεί στους ερευνητές και τελικά στις εμπορικές επιχειρήσεις να χρησιμοποιούν τα μοντέλα τεχνητής νοημοσύνης στους δικούς τους υπολογιστές χωρίς να ζητούν άδεια ή να πληρώνουν.
Θα πρέπει να σημειωθεί ότι άλλα LLM, όπως το GPT-4 της OpenAI ή το Bard της Google, είναι κλειστού κώδικα και η σχετικές τεχνολογίες είναι επτασφράγιστα μυστικά.
Τέλος, θα πρέπει να σημειωθεί ότι η Qualcomm έχει συνεργαστεί στενά με τη Meta στο παρελθόν, κυρίως σε τσιπ για τις συσκευές εικονικής πραγματικότητας Quest. Έχει επίσης παρουσιάσει ορισμένα μοντέλα ΑΙ που τρέχουν αργά στα τσιπ της, όπως η γεννήτρια εικόνων ανοιχτού κώδικα Stable Diffusion.
Πηγή: OT.gr
Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις