Fondamenti
Modulo I · Capitolo 7
Quando l'IA sbaglia

Limiti e allucinazioni

I modelli di IA non sanno tutto e a volte inventano. Riconoscere i limiti è la competenza più importante del prompt engineer.


I modelli di IA generativa possono allucinare: produrre informazioni false presentate con assoluta sicurezza. Non è un bug raro — è una caratteristica strutturale di come funzionano. Il modello non "sa" se qualcosa è vero: genera la sequenza di parole più probabile dato il contesto.

Quando l'IA è più a rischio

  • Dati specifici — date, numeri, nomi propri, citazioni normative: il modello può inventarli
  • Fatti recenti — i modelli hanno una data di addestramento e non conoscono eventi successivi
  • Fonti e riferimenti — può inventare titoli di libri, articoli, sentenze che non esistono
  • Ragionamento matematico — i modelli linguistici non sono calcolatrici, possono sbagliare conti semplici
  • Domande ambigue — se la domanda è vaga, il modello riempie i vuoti con ipotesi non dichiarate
Regola fondamentale

Mai fidarsi ciecamente di una risposta dell'IA, soprattutto per dati fattuali, riferimenti normativi e numeri. Verifica sempre le informazioni critiche su fonti primarie.

Come ridurre le allucinazioni

  • Chiedi al modello di citare le fonti e poi verificale
  • Usa la frase "Se non sei sicuro, dillo" nel prompt
  • Per dati normativi, usa Perplexity o NotebookLM con i documenti originali
  • Scomponi le domande complesse in sotto-domande verificabili
  • Confronta le risposte di modelli diversi sullo stesso quesito
L'IA è un assistente brillante ma inaffidabile. Trattala come un collaboratore junior: ascolta i suggerimenti, ma controlla sempre il lavoro.
Verifica di comprensione

Cosa significa quando si dice che un modello 'può allucinare'?