Quando parliamo di intelligenza artificiale parliamo in realtà di LLM. Come funzionano, come vengono addestrati e quali rischi comportano.
Negli ultimi anni, l’intelligenza artificiale ha compiuto passi da gigante, provocando una vera e propria rivoluzione nel mondo dell’informatica. Abbiamo assistito alla nascita di strumenti come ChatGPT, Gemini e Copilot, in grado di interagire con l’utente attraverso interfacce di comunicazione. La loro diffusione è stata rapida e ha innescato una competizione serrata tra le principali aziende tecnologiche, interessate a integrare soluzioni di IA generativa nei propri prodotti e servizi.

Nonostante la loro crescente popolarità, il funzionamento di questi sistemi rimane poco chiaro a molti utenti. Questi strumenti si basano su modelli noti come LLM (Large Language Model), modelli linguistici progettati per analizzare, comprendere e generare testo in linguaggio naturale.
In questo articolo analizzeremo la struttura e i meccanismi di funzionamento degli LLM, chiarendo su quali principi si basano e come vengono addestrati. Infine, verranno esaminati anche alcuni dei principali rischi legati all’utilizzo di questi modelli.
Fase di apprendimento di un LLM
Lo sviluppo di un LLM inizia con una fase di apprendimento, durante la quale il modello viene addestrato su grandi quantità di dati testuali. I dataset utilizzati contengono milioni, talvolta miliardi, di esempi e hanno lo scopo di permettere al modello di apprendere le regolarità del linguaggio naturale. Questi dati provengono in genere da fonti eterogenee, tra cui siti web, libri di testo, articoli online e archivi open source.
La fase di addestramento è fondamentale per la qualità complessiva del modello. La capacità di un LLM di interpretare correttamente i prompt e generare risposte coerenti dipende in larga misura dai dati utilizzati in questa fase. Dataset accurati, bilanciati e aggiornati aumentano la probabilità che il modello produca risposte corrette. Al contrario, dati incompleti o imprecisi portano alla generazione di informazioni errate o inventate, fenomeno comunemente noto come allucinazione (AI Hallucination). Per questo motivo, la selezione e la validazione dei dati rappresentano un passaggio critico nello sviluppo di un LLM.
Esiste poi un’ulteriore fase di addestramento, chiamata fine-tuning. In questa, il modello viene ulteriormente addestrato su dataset più specifici e mirati, spesso legati a un particolare dominio o a determinate attività. Così facendo l’LLM può adattarsi a contesti ben precisi e migliorare le proprie prestazioni in compiti come l’assistenza tecnica, la redazione di testi specialistici o l’analisi di informazioni specifiche.
Struttura e funzionamento degli LLM
Gli LLM si basano su una particolare architettura di reti neurali chiamata transformer, progettata specificamente per l’elaborazione del linguaggio naturale. I transformer permettono al modello di analizzare sequenze di testo e di coglierne il significato contestuale, superando i limiti delle architetture sequenziali tradizionali. Più precisamente:
- L’encoder converte il testo di input in una rappresentazione intermedia;
- Il decoder converte la rappresentazione intermedia in un testo scritto in linguaggio umano.
Nei modelli generativi più recenti, come ChatGPT 5.2 o Gemini 3, viene spesso utilizzata una variante basata prevalentemente sul decoder, ottimizzata per la generazione del testo.
Un altro elemento importante è la tecnica matematica di auto-attenzione. Questa consente al modello di valutare l’importanza relativa di ciascun elemento di una sequenza rispetto agli altri, individuando le relazioni semantiche tra parole anche molto distanti tra loro nel testo. Grazie all’auto-attenzione, un LLM riesce a interpretare correttamente il significato di un prompt anche in presenza di errori grammaticali, ambiguità o costruzioni sintattiche imperfette.
Gli LLM fanno inoltre uso di algoritmi di deep learning che permettono al modello di apprendere pattern e correlazioni direttamente dai dati, senza intervento umano diretto. Questo apprendimento avviene attraverso un’analisi probabilistica di grandi quantità di testo non strutturato, grazie alla quale il modello impara a stimare quale sequenza di token sia più probabile in un determinato contesto.
I token negli LLM
Gli LLM non elaborano il testo come una sequenza di frasi dotate di significato, ma come una sequenza di token. Questi ultimi sono unità elementari che possono essere:
- Parole intere (Cyberment)
- Porzioni di parole (Cyber-, -ment)
- Singoli caratteri (C, !)
Nella maggior parte dei casi, i modelli utilizzano token costituiti da sottoinsiemi di parole, in modo da gestire più efficientemente termini complessi, neologismi o parole poco comuni. Tuttavia, gli LLM non comprendono il significato delle parole nel senso umano del termine, in quanto i token sono convertiti in vettori numerici. Il modello si limita a prevedere quale token abbia la maggiore probabilità di seguire quelli precedenti, sulla base dei dati appresi.
Inoltre, ogni modello ha un limite massimo di token che può elaborare all’interno di una singola interazione, noto come finestra di contesto (context window). Ad esempio, GPT-3.5 supporta circa 4.000 token, mentre GPT-4-turbo arriva a 128mila. Quando questo limite viene superato, i token meno recenti vengono scartati oppure il modello non è in grado di produrre una risposta coerente.
Impiego degli LLM
I modelli linguistici vengono utilizzati principalmente all’interno di strumenti di intelligenza artificiale generativa per automatizzare e supportare attività cognitive e ripetitive. A partire da un prompt testuale fornito dall’utente, un LLM può svolgere numerose operazioni, tra cui:
- Effettuare ricerche personalizzate in base alle esigenze dell’utente;
- Analizzare, riassumere, o semplificare un paragrafo di testo;
- Generare e modificare contenuti multimediali, come immagini o video;
- Produrre porzioni di codice in diversi linguaggi di programmazione;
- Generare output vocali o testuali per assistenti digitali.
Rischi legati agli LLM
Purtroppo, le molteplici funzionalità degli LLM possono essere sfruttate anche in modo improprio, soprattutto quando il modello non è in grado di riconoscere richieste malevole o ambigue come tali. Questo contribuisce alla diffusione di minacce informatiche, poiché l’intelligenza artificiale può diventare uno strumento di supporto per attività dannose se utilizzata senza adeguati controlli.
Un attore malevolo può, ad esempio, utilizzare prompt mirati per generare codice dannoso o per automatizzare la creazione di malware. In alcuni casi, gli LLM vengono impiegati come veri e propri assistenti operativi a supporto di campagne di attacco, facilitando la scrittura di script, l’analisi di errori o la preparazione di contenuti ingannevoli. È noto il caso di un modello sviluppato da Anthropic che sarebbe stato utilizzato da un gruppo APT di matrice cinese per svolgere attività ripetitive all’interno di una campagna di cyberspionaggio emersa verso la fine del 2025.
Un ulteriore rischio riguarda l’alterazione del flusso di informazioni che circolano in rete. Attraverso semplici comandi testuali e l’uso combinato di file audio o video, gli LLM possono contribuire alla produzione di contenuti falsi o fuorvianti estremamente credibili. Questi materiali vengono spesso impiegati per alimentare truffe online, campagne di disinformazione o operazioni di delegittimazione mirate contro singoli individui o organizzazioni.
Non si devono nemmeno sottovalutare i problemi legati alla sicurezza dei dati. Alcuni LLM possono conservare i prompt forniti dagli utenti con l’obiettivo di migliorare le proprie capacità di risposta e di ragionamento. Tuttavia, questi input possono contenere informazioni sensibili, dati aziendali riservati o dettagli personali. In assenza di adeguate garanzie sul trattamento dei dati, il rischio è quello di esporre informazioni critiche a utilizzi impropri o a violazioni della sicurezza.
Conclusioni
I Large Language Model hanno modificato in modo profondo il rapporto tra esseri umani e sistemi informatici. Hanno reso in parte possibile un’interazione basata sul linguaggio naturale e riducendo, almeno in parte, la distanza tra intenzione umana e risposta della macchina. Ma al tempo stesso l’adozione degli LLM introduce nuove criticità che non possono essere ignorate. I rischi legati alla sicurezza, alla manipolazione delle informazioni e alla protezione dei dati si affiancano a questioni etiche e di responsabilità che richiedono attenzione, soprattutto in contesti aziendali e istituzionali.
Per questo motivo, l’utilizzo degli LLM deve essere accompagnato da consapevolezza tecnica, controlli adeguati e da un quadro normativo chiaro, in grado di ridurre gli abusi senza soffocare l’innovazione. Solo in questo modo questi strumenti potranno rappresentare un reale valore per il mondo digitale, anziché una nuova superficie di rischio.
