Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Avi Chawla
Tutorial giornalieri e approfondimenti su DS, ML, LLM e RAG • Co-fondatore @dailydoseofds_ • IIT Varanasi • ex-AI Engineer @ MastercardAI
Accelera il tuo codice Python nativo di oltre 50x!
E ci vogliono solo 4 semplici passaggi.
L'interprete predefinito di Python (CPython) è lento principalmente a causa della sua dinamicità.
Ad esempio, dopo aver definito una variabile di un tipo specifico, può essere cambiata in un altro tipo.
Ma queste manipolazioni dinamiche comportano costi in termini di tempo di esecuzione e sovraccarico di memoria.
Il modulo Cython converte il tuo codice Python in C.
Passaggi per utilizzare il modulo Cython (riferisciti all'immagine mentre leggi):
1) Carica il modulo Cython: %load_ext Cython
2) Aggiungi il comando magico Cython
3) Quando usi funzioni, specifica il tipo di dato del parametro
4) Definisci ogni variabile utilizzando la parola chiave “cdef” e specifica il suo tipo di dato.
Questo codice verrà eseguito alla velocità della macchina nativa.
P.S. Il codice mostrato di seguito è solo per spiegare l'uso di Cython. Puoi facilmente implementare lo stesso utilizzando NumPy.

11,74K
Le aziende di pentesting non vogliono che tu veda questo.
Un agente AI open-source ha appena replicato il loro servizio da $50k.
Un pentest "normale" oggi appare così:
- $20k-$50k per ingaggio
- 4-6 settimane di definizione dell'ambito, NDA, chiamate di avvio
- Un grande PDF che è obsoleto nel momento in cui lanci una nuova funzionalità
Nel frattempo, gli agenti AI stanno silenziosamente iniziando a performare al pari dei pentester umani su ciò che conta realmente giorno per giorno:
↳ Enumerare la superficie di attacco
↳ Fuzzing degli endpoint
↳ Collegare vulnerabilità semplici in un impatto reale
↳ Produrre PoC e passaggi di remediation che gli sviluppatori possono effettivamente utilizzare
E lo fanno in ore invece che in settimane e a una frazione del costo.
Questo approccio è effettivamente implementato in Strix, un framework open-source recentemente di tendenza (oltre 14k stelle) per agenti di pentesting AI.
Il framework crea un team di "attaccanti" AI che sondano le tue app web, API e codice.
Restituisce quindi risultati convalidati con prove di exploit, passaggi di remediation e un report PDF completo che appare esattamente come quello che otterresti da un'azienda tradizionale, ma senza una fattura da $50k e un tempo di attesa di un mese.
Puoi vedere l'implementazione completa su GitHub e provarla tu stesso.
Basta eseguire: `strix --target https: //your-app .com` e sei a posto.
I team rossi umani non stanno scomparendo, ma il pentest di routine (pre-lancio, post-rifattore, controlli trimestrali) sta chiaramente passando all'AI.
Strix è uno dei primi strumenti che rende questo cambiamento reale invece che ipotetico.
Ho condiviso il repo di GitHub nelle risposte.
154,26K
I ricercatori di Stanford hanno sviluppato una nuova tecnica di prompting!
Aggiungendo ~20 parole a un prompt, essa:
- aumenta la creatività del LLM di 1.6-2x
- aumenta la diversità valutata dagli umani del 25.7%
- supera un modello fine-tuned senza alcun riaddestramento
- ripristina il 66.8% della creatività persa dal LLM dopo l'allineamento
I metodi di allineamento post-addestramento, come RLHF, sono progettati per rendere i LLM utili e sicuri.
Tuttavia, questi metodi causano involontariamente un significativo calo nella diversità dell'output (chiamato collasso di modalità).
Quando un LLM collassa a una modalità, inizia a favorire un insieme ristretto di risposte prevedibili o stereotipate rispetto ad altri output.
Questo accade perché i dati di preferenza umana utilizzati per addestrare il LLM hanno un difetto nascosto chiamato bias di tipicità.
Ecco come avviene:
- Gli annotatori valutano diverse risposte da un LLM e, successivamente, il LLM viene addestrato utilizzando un modello di ricompensa per imitare queste preferenze umane.
- Tuttavia, gli annotatori tendono naturalmente a favorire risposte che sono più familiari, facili da leggere e prevedibili. Questo è il bias di tipicità.
Quindi, anche se una nuova risposta creativa è altrettanto valida, la preferenza umana tende spesso verso quella comune.
A causa di ciò, il modello di ricompensa potenzia le risposte che il modello originale (pre-allineato) considerava già probabili.
Questo affila aggressivamente la distribuzione di probabilità del LLM, collassando l'output creativo del modello a una o due risposte dominanti e altamente prevedibili.
Detto ciò, non si tratta di un effetto irreversibile, e il LLM ha ancora due personalità dopo l'allineamento:
- Il modello originale che ha appreso le ricche possibilità durante il pre-addestramento.
- Il modello focalizzato sulla sicurezza, post-allineato.
Il campionamento verbalizzato (VS) risolve questo.
È una strategia di prompting senza addestramento introdotta per eludere il collasso di modalità e recuperare la distribuzione diversificata appresa durante il pre-addestramento.
L'idea centrale del campionamento verbalizzato è che il prompt stesso funge da interruttore mentale.
Quando chiedi direttamente “Raccontami una barzelletta”, la personalità allineata prende immediatamente il sopravvento e fornisce la risposta più rinforzata.
Ma nel campionamento verbalizzato, lo inviti con “Genera 5 risposte con le loro corrispondenti probabilità. Raccontami una barzelletta.”
In questo caso, il prompt non richiede un'istanza, ma una distribuzione.
Questo fa sì che il modello allineato parli della sua piena conoscenza e sia costretto a utilizzare la distribuzione diversificata che ha appreso durante il pre-addestramento.
In questo modo, il modello attinge a un insieme più ampio e diversificato di idee, che proviene dalla ricca distribuzione che esiste ancora all'interno dei suoi pesi pre-addestrati.
Il campionamento verbalizzato migliora significativamente la diversità di 1.6–2.1x rispetto al prompting diretto, mantenendo o migliorando la qualità.
Varianti come il CoT basato su campionamento verbalizzato (Chain-of-Thought) e il Multi basato su campionamento verbalizzato migliorano ulteriormente la diversità della generazione.
Ho condiviso il documento nelle risposte!
👉 A te: Quali altri metodi possono essere utilizzati per migliorare la diversità dei LLM?

129,7K
Principali
Ranking
Preferiti

