Jamba Model Family: la rivoluzione nell’Intelligenza Artificiale

Andrea Belvedere
3 min readSep 3, 2024

--

Il 22 agosto 2024, Karol Kłusek ha annunciato l’uscita di una nuova famiglia di modelli di intelligenza artificiale: Jamba Model Family. Questo nuovo modello rappresenta una fusione rivoluzionaria di architetture, combinando Transformers e Mamba in un unico sistema. Per la prima volta, Mamba è stato scalato alla dimensione dei moderni Large Language Models (LLMs), ottenendo risultati impressionanti.

Prestazioni superiori

Jamba 398B ha dimostrato prestazioni superiori rispetto a LLama 405B nel benchmark Arena Hard, che è strettamente correlato con i risultati LMSys ELO Arena. Questo risultato è particolarmente significativo poiché conferma la superiorità di Jamba in termini di efficienza e precisione rispetto ai modelli concorrenti.

Jamba Model Family, innovazione nella quantizzazione

Un aspetto particolarmente interessante della famiglia Jamba è l’innovazione nella quantizzazione. I creatori di Jamba non erano soddisfatti dei metodi di quantizzazione esistenti e hanno quindi sviluppato un proprio metodo di quantizzazione, specificamente progettato per i modelli Mixture of Experts (MOE). Questa innovazione consente a Jamba di gestire in modo più efficiente le risorse computazionali, migliorando ulteriormente le sue prestazioni.

Effective context Window esteso

Un’altra caratteristica distintiva di Jamba è il suo eccezionalmente lungo Effective Context Window. Secondo gli autori, questo contesto è due volte più lungo rispetto a quello di Gemini Pro’s 2M window. Questa caratteristica consente a Jamba di gestire contesti più complessi e lunghi, migliorando la qualità delle interazioni e delle risposte generate dal modello.

Jamba Model Family, il futuro dell’Intelligenza Artificiale

La famiglia Jamba rappresenta un passo avanti significativo nell’evoluzione dell’intelligenza artificiale. La sua capacità di fondere diverse architetture, insieme all’innovazione nella quantizzazione e all’estensione del contesto, la rendono uno strumento potente per una vasta gamma di applicazioni. Dall’elaborazione del linguaggio naturale alla generazione di testo, Jamba promette di rivoluzionare il modo in cui interagiamo con l’IA.

La famiglia Jamba di Karol Kłusek è un esempio di come l’innovazione continua a guidare il progresso nell’intelligenza artificiale. Con prestazioni superiori, metodi di quantizzazione avanzati e un contesto esteso, Jamba si posiziona come un leader nel campo dei modelli di linguaggio. Il futuro promette ulteriori sviluppi e applicazioni, aprendo nuove possibilità per l’utilizzo dell’IA in vari settori.

Si tratta di una tecnologia rivoluzionaria in grado di superare i limiti di lunghezza delle sequenze e di efficienza computazionale.
AI21 Labs ha creato Jamba: il primo modello in produzione che combina Mamba con l’architettura dei Transformer tradizionali.

Risultato: un sistema che ha la capacità di selezionare e “ ricordare” informazioni importanti da lunghe sequenze, con una maggior capacità di comprensione del contesto. Il modello ottiene performance elevate superando o eguagliando modelli all’avanguardia della stessa classe, ma sfruttando l’hardware in modo molto migliore.

Per ulteriori informazioni, visita il sito ufficiale di Jamba Model Family: [https://ai21.com/jamba]( https://ai21.com/jamba).

Ref. https://arxiv.org/pdf/2312.00752

Prompt immagine di copertina

STYLE: digital realism | GENRE: technology | SCENE: A modern family of AI models composed of gears and algorithms spinning at the speed of light, with a world of astonished observers in the background, viewed from a first-person perspective (POV). | COLOR: metallic blue and silver | TAGS: speed; artificial intelligence; gears

Originally published at https://www.techbelve.it on September 3, 2024.

--

--

Andrea Belvedere

Tech Writer at New Technology, Blockchain & AI. From Italy