Il Self-Distillation Fine-Tuning rappresenta una svolta nell’addestramento dei modelli linguistici di grandi dimensioni. Infatti, questa tecnica sviluppata da ricercatori del MIT, dell’Improbable AI Lab e dell’ETH Zurigo consente agli LLM di acquisire nuove competenze senza dimenticare quelle già apprese, risolvendo uno dei problemi più critici dell’intelligenza artificiale aziendale.
Grazie per avere letto questo articolo, non dimenticare di iscriverti al nostro feed!
Il problema del catastrophic forgetting negli LLM

Attualmente, quando le aziende adattano i modelli linguistici a nuove mansioni, rischiano di compromettere tutte le capacità preesistenti. Di conseguenza, le organizzazioni si trovano costrette a mantenere modelli separati per ogni singola competenza, moltiplicando costi e complessità infrastrutturale.
Inoltre, una volta addestrato e distribuito, un LLM rimane statico. Non aggiorna i propri parametri per acquisire nuove abilità, internalizzare nuove conoscenze o migliorare dall’esperienza. Pertanto, l’industria necessita di soluzioni per il continual learning, permettendo ai sistemi di accumulare conoscenza come fanno gli esseri umani durante la loro carriera.
Tuttavia, l’approccio più efficace chiamato “on-policy learning” presenta limiti significativi. Questo metodo richiede tipicamente il reinforcement learning, che dipende da una funzione di ricompensa esplicita. Come spiega Idan Shenfeld, dottorando al MIT e coautore della ricerca, “non importa quante volte il modello base provi, non può generare risposte corrette su argomenti di cui non ha alcuna conoscenza”.
Come funziona il Self-Distillation Fine-Tuning
Il Self-Distillation Fine-Tuning risolve questo dilemma utilizzando la “distillazione”, un processo in cui un modello studente impara a imitare un insegnante. Nello specifico, i ricercatori hanno sfruttato le capacità di “in-context learning” (ICL) del modello per creare un ciclo di feedback all’interno di un singolo sistema.
Durante il ciclo di addestramento, SDFT impiega il modello in due ruoli distinti:
- L’insegnante: una versione congelata del modello riceve la query insieme a dimostrazioni esperte, deducendo la risposta corretta tramite ICL
- Lo studente: questa versione vede solo la query, simulando uno scenario reale senza chiavi di risposta disponibili
- Il feedback: quando lo studente genera una risposta, l’insegnante fornisce correzioni basate sulle dimostrazioni esperte
- L’aggiornamento: lo studente modifica i propri parametri per allinearsi alla distribuzione dell’insegnante
In altre parole, questo processo crea un ciclo di apprendimento on-policy combinando elementi di supervised fine-tuning e reinforcement learning. La supervisione proviene dall’interazione del modello stesso, non da un dataset statico.
Risultati sperimentali del Self-Distillation Fine-Tuning
Per validare l’approccio, i ricercatori hanno testato SDFT utilizzando il modello open-weight Qwen 2.5 su tre competenze complesse di livello enterprise: domande scientifiche, utilizzo di strumenti software e ragionamento medico.
I risultati hanno dimostrato che SDFT apprende nuove mansioni più efficacemente dei metodi standard. Ad esempio, sul benchmark Science Q&A, il modello SDFT ha raggiunto un’accuratezza del 70,2%, rispetto al 66,2% dell’approccio SFT tradizionale.
Ancora più rilevante per l’adozione aziendale è l’impatto sul catastrophic forgetting. Mentre il modello SFT standard perdeva drasticamente le capacità precedenti apprendendo nuove competenze, il modello SDFT manteneva stabile il punteggio sulle “Previous Tasks” al 64,5%. Questa stabilità suggerisce che le aziende potrebbero specializzare modelli per dipartimenti specifici senza degradare le capacità di ragionamento di base.
Apprendimento sequenziale e accumulo di competenze
Successivamente, i ricercatori hanno condotto un esperimento di apprendimento sequenziale, addestrando il modello su compiti scientifici, utilizzo di strumenti e ragionamento medico uno dopo l’altro. Mentre le prestazioni del modello standard oscillavano, perdendo abilità precedenti nell’apprendere nuove competenze, il modello SDFT accumulava con successo tutte e tre le capacità senza regressione.
Questa caratteristica affronta un problema critico per le aziende che attualmente gestiscono “zoo di modelli” con adattatori separati per compiti differenti. Come sottolinea Shenfeld, “offriamo la possibilità di mantenere un singolo modello per tutte le esigenze aziendali”. Pertanto, questo consolidamento può portare a una riduzione sostanziale dei costi di inferenza.
Implementazione pratica e limitazioni
Il codice per SDFT è disponibile su GitHub e pronto per essere integrato nei flussi di lavoro esistenti. Tuttavia, la tecnica presenta alcuni compromessi computazionali. SDFT è approssimativamente quattro volte più lento e richiede 2,5 volte più potenza computazionale rispetto al fine-tuning standard.
Nonostante ciò, i ricercatori sottolineano che il modello trattiene meglio la conoscenza, evitando costosi processi di riaddestramento multi-fase. Inoltre, il metodo si basa su modelli sufficientemente grandi da beneficiare dell’in-context learning, attualmente intorno ai 4 miliardi di parametri.
Ciononostante, Shenfeld prevede miglioramenti rapidi: “il modello Qwen 3 4B è già abbastanza potente. Vedo un futuro in cui anche modelli da 1B avranno capacità ICL sufficienti per supportare SDFT”.
Il futuro del lifelong learning
In definitiva, l’obiettivo è superare gli snapshot statici verso sistemi che migliorano attraverso l’uso. Come conclude Shenfeld, “il lifelong learning, insieme alla capacità di estrarre segnali di apprendimento da interazioni utente non strutturate, porterà a modelli che continuano a migliorare nel tempo”.
Infine, considerando che la maggior parte della potenza computazionale mondiale va già all’inferenza invece che all’addestramento, diventa cruciale trovare modi per sfruttare questa capacità per migliorare i modelli. Per approfondire ulteriori innovazioni nell’AI aziendale, visita il blog di Digital Seeds.








