<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>NLP | Stefano Blando</title><link>https://stefano-blando.github.io/it/tags/nlp/</link><atom:link href="https://stefano-blando.github.io/it/tags/nlp/index.xml" rel="self" type="application/rss+xml"/><description>NLP</description><generator>HugoBlox Kit (https://hugoblox.com)</generator><language>it-IT</language><lastBuildDate>Thu, 15 Jan 2026 00:00:00 +0000</lastBuildDate><image><url>https://stefano-blando.github.io/media/icon_hu_8d0dee6c10a3c598.png</url><title>NLP</title><link>https://stefano-blando.github.io/it/tags/nlp/</link></image><item><title>A Multi-Method Validation Framework for Large-Scale Multilingual Text Analytics</title><link>https://stefano-blando.github.io/it/publications/multi-method-validation-framework/</link><pubDate>Thu, 15 Jan 2026 00:00:00 +0000</pubDate><guid>https://stefano-blando.github.io/it/publications/multi-method-validation-framework/</guid><description/></item><item><title>Fine-Tuning Leggero con PEFT e LoRA</title><link>https://stefano-blando.github.io/it/projects/peft-finetuning/</link><pubDate>Wed, 20 Nov 2024 00:00:00 +0000</pubDate><guid>https://stefano-blando.github.io/it/projects/peft-finetuning/</guid><description>&lt;p&gt;Questo progetto si concentra su una domanda pratica in NLP: quanta adattazione utile si puo ottenere da un modello pretrained senza pagare il costo completo del fine-tuning totale?&lt;/p&gt;
&lt;p&gt;Usando &lt;strong&gt;LoRA&lt;/strong&gt; su &lt;code&gt;distilbert-base-uncased&lt;/code&gt; per sentiment analysis, la pipeline mostra che un sottoinsieme molto piccolo di parametri allenabili puo comunque produrre un netto salto di performance rispetto alla baseline zero-shot. Il progetto riguarda quindi meno la massima benchmark accuracy e piu la comprensione del trade-off tra performance ed efficienza.&lt;/p&gt;
&lt;p&gt;Costruita nell&amp;rsquo;ecosistema &lt;strong&gt;Hugging Face&lt;/strong&gt;, l&amp;rsquo;implementazione copre valutazione, configurazione LoRA, training e inferenza in un setup leggero che resta accessibile anche su hardware modesto.&lt;/p&gt;</description></item><item><title>Chatbot Personalizzato con RAG</title><link>https://stefano-blando.github.io/it/projects/rag-chatbot/</link><pubDate>Thu, 15 Feb 2024 00:00:00 +0000</pubDate><guid>https://stefano-blando.github.io/it/projects/rag-chatbot/</guid><description>&lt;p&gt;Questo progetto usa un dominio volutamente piccolo ma strutturato per esplorare un&amp;rsquo;idea piu ampia: come rendere piu affidabili gli output dei language model ancorandoli a contesto recuperato.&lt;/p&gt;
&lt;p&gt;Il chatbot e costruito attorno a un dataset curato di personaggi immaginari e usa una pipeline &lt;strong&gt;RAG&lt;/strong&gt; completa con embedding, retrieval e prompt conditioning. Il dataset e giocoso, ma il punto metodologico e serio: il retrieval cambia il comportamento del modello da completamento generico a ragionamento vincolato dal contesto.&lt;/p&gt;
&lt;p&gt;Poiche i dati sottostanti sono semanticamente ricchi, il sistema puo gestire non solo question answering ma anche confronto tra personaggi, raccomandazione ed esplorazione basata su tratti. Questo lo rende un esempio compatto ma utile di progettazione NLP guidata dal retrieval.&lt;/p&gt;</description></item></channel></rss>