I modelli di IA generativa possono allucinare: produrre informazioni false presentate con assoluta sicurezza. Non è un bug raro — è una caratteristica strutturale di come funzionano. Il modello non "sa" se qualcosa è vero: genera la sequenza di parole più probabile dato il contesto.
Quando l'IA è più a rischio
- Dati specifici — date, numeri, nomi propri, citazioni normative: il modello può inventarli
- Fatti recenti — i modelli hanno una data di addestramento e non conoscono eventi successivi
- Fonti e riferimenti — può inventare titoli di libri, articoli, sentenze che non esistono
- Ragionamento matematico — i modelli linguistici non sono calcolatrici, possono sbagliare conti semplici
- Domande ambigue — se la domanda è vaga, il modello riempie i vuoti con ipotesi non dichiarate
Regola fondamentale
Mai fidarsi ciecamente di una risposta dell'IA, soprattutto per dati fattuali, riferimenti normativi e numeri. Verifica sempre le informazioni critiche su fonti primarie.
Come ridurre le allucinazioni
- Chiedi al modello di citare le fonti e poi verificale
- Usa la frase "Se non sei sicuro, dillo" nel prompt
- Per dati normativi, usa Perplexity o NotebookLM con i documenti originali
- Scomponi le domande complesse in sotto-domande verificabili
- Confronta le risposte di modelli diversi sullo stesso quesito
L'IA è un assistente brillante ma inaffidabile. Trattala come un collaboratore junior: ascolta i suggerimenti, ma controlla sempre il lavoro.