Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Analisi indipendente dei modelli di intelligenza artificiale e dei provider di hosting: scegli il modello e il fornitore API migliori per il tuo caso d'uso
FLUX.2 [dev] è il nuovo modello di generazione di immagini da testo a pesi aperti leader, superando HunyuanImage 3.0, Qwen-Image e HiDream-I1-Dev nell'Arena di Analisi delle Immagini Artificiali!
L'ultima release di @bfl_ml si aggiudica il primo posto per la generazione di immagini da testo a pesi aperti, mentre si posiziona al #2 nell'Editing di Immagini a Pesi Aperti, superata solo dall'Editing di Immagini Qwen 2509 di Alibaba.
FLUX.2 [dev] è rilasciato sotto la Licenza Non Commerciale FLUX [dev] con pesi disponibili su @huggingface. Le applicazioni commerciali richiedono una licenza separata da Black Forest Labs.
Il modello è disponibile tramite API su @fal, @replicate, @runware, Verda, @togethercompute, @Cloudflare e @DeepInfra.
Black Forest Labs ha anche annunciato FLUX.2 [klein], che sarà rilasciato sotto la licenza Apache 2.0, consentendo a sviluppatori e aziende di costruire applicazioni commerciali senza requisiti di licenza separati da Black Forest Labs.

12,05K
DeepSeek V3.2 è il modello open weights più intelligente al #2 e si posiziona anche davanti a Grok 4 e Claude Sonnet 4.5 (Thinking) - porta DeepSeek Sparse Attention fuori dallo stato ‘sperimentale’ e lo abbina a un notevole aumento dell'intelligenza.
@deepseek_ai V3.2 ottiene un punteggio di 66 sull'Artificial Analysis Intelligence Index; un sostanziale aumento dell'intelligenza rispetto a DeepSeek V3.2-Exp (+9 punti) rilasciato a settembre 2025. DeepSeek ha cambiato il suo endpoint API principale a V3.2, senza alcuna modifica dei prezzi rispetto ai prezzi di V3.2-Exp - questo porta i prezzi a soli $0.28/$0.42 per 1M di token di input/output, con il 90% di sconto per i token di input memorizzati.
Dalla release originale di DeepSeek V3 ~11 mesi fa, alla fine di dicembre 2024, l'architettura V3 di DeepSeek con 671B di parametri totali/37B di parametri attivi ha visto un passaggio da un modello che otteneva un punteggio di 32 a uno che ottiene un punteggio di 66 nell'Artificial Analysis Intelligence Index.
DeepSeek ha anche rilasciato V3.2-Speciale, una variante solo per ragionamento con capacità migliorate ma un utilizzo di token significativamente più elevato. Questo è un compromesso comune nei modelli di ragionamento, dove un ragionamento più avanzato genera generalmente punteggi di intelligenza più elevati e più token di output. V3.2-Speciale è disponibile tramite l'API di prima parte di DeepSeek fino al 15 dicembre.
Attualmente, V3.2-Speciale ottiene un punteggio inferiore sull'Artificial Analysis Intelligence Index (59) rispetto a V3.2 (Ragionamento, 66) perché l'API di prima parte di DeepSeek non supporta ancora la chiamata agli strumenti per questo modello. Se V3.2-Speciale raggiungesse il punteggio tau2 di V3.2 (91%) con la chiamata agli strumenti abilitata, otterrebbe un punteggio di ~68 sull'Intelligence Index, rendendolo il modello open-weights più intelligente. V3.2-Speciale utilizza 160M di token di output per eseguire l'Artificial Analysis Intelligence Index, quasi ~2 volte il numero di token utilizzati da V3.2 in modalità ragionamento.
DeepSeek V3.2 utilizza un'architettura identica a V3.2-Exp, che ha introdotto DeepSeek Sparse Attention (DSA) per ridurre il calcolo necessario per l'inferenza su contesti lunghi. Il nostro benchmark di Long Context Reasoning non ha mostrato alcun costo per l'intelligenza dell'introduzione di DSA. DeepSeek ha riflesso questo vantaggio di costo di V3.2-Exp riducendo i prezzi sulla loro API di prima parte da $0.56/$1.68 a $0.28/$0.42 per 1M di token di input/output - una riduzione del 50% e del 75% nei prezzi dei token di input e output rispettivamente.
Punti chiave dei benchmark:
➤🧠 DeepSeek V3.2: In modalità ragionamento, DeepSeek V3.2 ottiene un punteggio di 66 sull'Artificial Analysis Intelligence Index e si posiziona equivalentemente a Kimi K2 Thinking (67) e davanti a Grok 4 (65), Grok 4.1 Fast (Ragionamento, 64) e Claude Sonnet 4.5 (Thinking, 63). Dimostra notevoli aumenti rispetto a V3.2-Exp (57) in termini di utilizzo degli strumenti, ragionamento su contesti lunghi e codifica.
➤🧠 DeepSeek V3.2-Speciale: V3.2-Speciale ottiene punteggi più alti rispetto a V3.2 (Ragionamento) in 7 dei 10 benchmark nel nostro Intelligence Index. V3.2-Speciale detiene ora i punteggi più alti e il secondo punteggio più alto tra tutti i modelli per AIME25 (97%) e LiveCodeBench (90%) rispettivamente. Tuttavia, come menzionato sopra, l'API di prima parte di DeepSeek per V3.2-Speciale non supporta la chiamata agli strumenti e il modello ottiene un punteggio di 0 nel benchmark tau2.
➤📚 Allucinazione e Conoscenza: DeepSeek V3.2-Speciale e V3.2 sono i modelli open weights più alti classificati sull'Artificial Analysis Omniscience Index con punteggi di -19 e -23 rispettivamente. I modelli proprietari di Google, Anthropic, OpenAI e xAI tendono a guidare questo indice.
➤⚡ Prestazioni non di ragionamento: In modalità non di ragionamento, DeepSeek V3.2 ottiene un punteggio di 52 sull'Artificial Analysis Intelligence Index (+6 punti rispetto a V3.2-Exp) ed è il #3 modello non di ragionamento più intelligente. DeepSeek V3.2 (Non-ragionamento) corrisponde all'intelligenza di DeepSeek R1 0528, un modello di ragionamento di frontiera di maggio 2025, evidenziando i rapidi guadagni di intelligenza ottenuti attraverso il pre-addestramento e i miglioramenti di RL quest'anno.
➤⚙️ Efficienza dei token: In modalità ragionamento, DeepSeek V3.2 ha utilizzato più token rispetto a V3.2-Exp per eseguire l'Artificial Analysis Intelligence Index (da 62M a 86M). L'uso dei token rimane simile nella variante non di ragionamento. V3.2-Speciale dimostra un utilizzo di token significativamente più elevato, utilizzando ~160M di token di output rispetto a Kimi K2 Thinking (140M) e Grok 4 (120M).
➤💲Prezzi: DeepSeek non ha aggiornato i prezzi per token per la loro prima parte e tutte e tre le varianti sono disponibili a $0.28/$0.42 per 1M di token di input/output.
Altri dettagli sul modello:
➤ ©️ Licenza: DeepSeek V3.2 è disponibile sotto la Licenza MIT.
➤ 🌐 Disponibilità: DeepSeek V3.2 è disponibile tramite l'API di DeepSeek, che ha sostituito DeepSeek V3.2-Exp. Gli utenti possono accedere a DeepSeek V3.2-Speciale tramite un'API temporanea di DeepSeek fino al 15 dicembre. Data l'aumento dell'intelligenza in questo rilascio, ci aspettiamo che un certo numero di fornitori di terze parti serva questo modello a breve.
➤ 📏 Dimensione: DeepSeek V3.2 Exp ha 671B di parametri totali e 37B di parametri attivi. Questo è lo stesso di tutti i modelli precedenti nella serie DeepSeek V3 e R1.

76,64K
La Rivelazione Whisper-Thunder: Runway Gen-4.5 è ora il modello di Text to Video leader nelle classifiche dei Video di Analisi Artificiale, superando Veo 3, Kling 2.5 Turbo e Sora 2 Pro!
Runway Gen-4.5 è l'ultima release di @runwayml, che succede a Runway Gen-4 rilasciato a marzo. Mentre Gen-4 supportava solo l'Image to Video, Runway Gen-4.5 introduce la generazione di Text to Video. Non abbiamo ancora valutato le capacità di generazione di Image to Video di Runway Gen-4.5.
Runway Gen-4.5 è in fase di distribuzione graduale agli utenti dell'applicazione Runway, con una disponibilità più ampia prevista nei prossimi giorni.
Vedi di seguito i confronti tra Runway Gen-4.5 e altri modelli leader nella nostra Arena dei Video di Analisi Artificiale 🧵

9,97K
Principali
Ranking
Preferiti

