Fine-Tuning Leggero con PEFT e LoRA

20 nov 2024 · 1 min di lettura
projects

Questo progetto si concentra su una domanda pratica in NLP: quanta adattazione utile si puo ottenere da un modello pretrained senza pagare il costo completo del fine-tuning totale?

Usando LoRA su distilbert-base-uncased per sentiment analysis, la pipeline mostra che un sottoinsieme molto piccolo di parametri allenabili puo comunque produrre un netto salto di performance rispetto alla baseline zero-shot. Il progetto riguarda quindi meno la massima benchmark accuracy e piu la comprensione del trade-off tra performance ed efficienza.

Costruita nell’ecosistema Hugging Face, l’implementazione copre valutazione, configurazione LoRA, training e inferenza in un setup leggero che resta accessibile anche su hardware modesto.

Stefano Blando
Authors
PhD Student in Artificial Intelligence
Stefano Blando is a PhD student in the National PhD Program in Artificial Intelligence at Scuola Superiore Sant’Anna and the University of Pisa. His research lies at the intersection of AI, agent-based modeling, and economics. He studies adaptive multi-agent systems, statistical verification of economic simulations, and robust quantitative methods for financial and socio-economic data.