Fine-Tuning Leggero con PEFT e LoRA
20 nov 2024
·
1 min di lettura

Questo progetto si concentra su una domanda pratica in NLP: quanta adattazione utile si puo ottenere da un modello pretrained senza pagare il costo completo del fine-tuning totale?
Usando LoRA su distilbert-base-uncased per sentiment analysis, la pipeline mostra che un sottoinsieme molto piccolo di parametri allenabili puo comunque produrre un netto salto di performance rispetto alla baseline zero-shot. Il progetto riguarda quindi meno la massima benchmark accuracy e piu la comprensione del trade-off tra performance ed efficienza.
Costruita nell’ecosistema Hugging Face, l’implementazione copre valutazione, configurazione LoRA, training e inferenza in un setup leggero che resta accessibile anche su hardware modesto.

Authors
Stefano Blando
(he/him)
PhD Student in Artificial Intelligence
Stefano Blando is a PhD student in the National PhD Program in Artificial Intelligence at
Scuola Superiore Sant’Anna and the University of Pisa. His research lies at the intersection
of AI, agent-based modeling, and economics. He studies adaptive multi-agent systems,
statistical verification of economic simulations, and robust quantitative methods for
financial and socio-economic data.