Di recente, Meta ha svelato i suoi nuovi modelli di intelligenza artificiale, battezzati Llama 4.
Insieme a questa presentazione, l’azienda ha pubblicato una serie di benchmark comparativi con altre IA di fama mondiale, tra cui Google e OpenAI.
Tuttavia, il colosso della tecnologia si è trovato a dover ammettere di aver impiegato una versione sperimentale del Llama 4, chiamata Maverick, per raggiungere punteggi elevati in un benchmark crowdsourced noto come LM Arena.
Questa rivelazione ha costretto i responsabili di LM Arena a scusarsi e rivedere le proprie politiche, incluso un nuovo punteggio per la versione originale del Maverick.
Sorprendentemente, i risultati hanno mostrato che il modello non modificato, “Llama-4-Maverick-17B-128E-Instruct”, non è competitivo come inizialmente preannunciato, finendo per classificarsi al di sotto di altri modelli come il GPT-4 di OpenAI e il Gemini 1.5 Pro di Google.
Le scarse prestazioni del modello non modificato hanno generato interrogativi.
L’ottimizzazione “per la conversazionalità” del Maverick sperimentale ha evidentemente giovato in eventi come LM Arena, dove l’analisi è influenzata da giudizi umani.
Questo solleva questioni riguardo l’affidabilità dei benchmark come LM Arena, che, in quanto fortemente influenzati da feedback umani, potrebbero non rappresentare la vera performance delle IA.
Adattare un modello per eccellere in un benchmark è fuorviante e può ostacolare la previsione delle reali prestazioni in contesti variabili.
In una dichiarazione a TechCrunch, Meta ha chiarito che sta sperimentando varie versioni dei suoi modelli, incoraggiando gli sviluppatori a personalizzare Llama 4 per adattarlo ai loro utilizzi.
Pur essendo una tattica conosciuta nel settore, il caso di Meta non sorprende e riflette una pratica ricorrente nel mondo della tecnologia.
```html Nuovo MediaWorld Xpress: Sinergia tra Tecnologia e Spesa Quotidiana Si consolida ulteriormente la fruttuosa…
Nintendo Switch 2: Un Lanciamento Da Record La nuova Nintendo Switch 2 ha fatto un'incredibile…
Google e la Sanzione da 4,1 Miliardi: Il Parere della Corte Europea Google si trova…
This website uses cookies.