Guida alla sicurezza dell'IA
I modelli linguistici IA sono tra gli strumenti più potenti mai creati. Possono redigere, analizzare, tradurre, riassumere e ragionare in decine di lingue. Ma non sono infallibili. Ogni modello IA — compresi quelli usati in questa app — ha limiti noti che gli utenti dovrebbero conoscere.
Questa guida esiste perché la trasparenza è un valore europeo fondamentale. Hai il diritto di sapere cosa l'IA sa fare bene, dove presenta carenze e come proteggerti.
Allucinazioni
L'IA può affermare con sicurezza cose non vere
L'allucinazione dell'IA si verifica quando un modello linguistico genera testo che suona autorevole e fluido ma è fattualmente errato, inventato o non supportato. Il modello non recupera fatti da un database — prevede la parola successiva più probabile in una sequenza. Quando incontra una lacuna nei dati di addestramento, colma quel vuoto con fabbricazioni plausibili anziché ammettere l'incertezza. La sicurezza nell'output non correla con l'accuratezza.
Non si tratta di un caso limite raro. I tassi di allucinazione variano drasticamente a seconda del modello, dell'attività e del metodo di misurazione. In compiti di riassunto circoscritti, i migliori modelli del 2025 hanno raggiunto tassi inferiori all'1% (Vectara HHEM Leaderboard, aprile 2025). Ma in attività più complesse e aperte, i numeri sono molto peggiori. Uno studio di Stanford e HAI ha rilevato che i modelli linguistici di grandi dimensioni hanno allucinato tra il 58% e l'88% delle volte quando è stato chiesto loro di generare citazioni legali. In cartelle cliniche riassuntive, uno studio MedRxiv del 2025 ha misurato tassi di allucinazione del 64% senza prompt di mitigazione. Anche i modelli di ragionamento di OpenAI, o3 e o4-mini, hanno allucinato rispettivamente nel 33% e nel 48% dei casi sul benchmark biografico PersonQA — più del doppio rispetto al predecessore o1.
Una scoperta cruciale della ricerca del MIT (gennaio 2025) aggrava il problema: quando i modelli IA allucinano, tendono a usare un linguaggio più sicuro rispetto a quando forniscono informazioni fattuali. I modelli erano significativamente più propensi a usare espressioni come "sicuramente" e "certamente" quando generavano informazioni errate. Più l'IA sbaglia, più sembra sicura.
Danni concreti si sono già verificati. In Mata v. Avianca (S.D.N.Y., 2023), un avvocato di New York ha usato ChatGPT per ricerche legali e ha presentato una memoria contenente sei citazioni giurisprudenziali interamente inventate — complete di giudici inesistenti, numeri di ruolo fittizi e citazioni interne fabbricate. Il tribunale ha imposto una multa di 5.000 dollari e ha richiesto agli avvocati di scrivere lettere a ogni giudice il cui nome era stato falsamente attribuito alle sentenze inventate. In Moffatt v. Air Canada (BC Civil Resolution Tribunal, febbraio 2024), un chatbot di Air Canada ha fornito a un cliente informazioni errate sulla politica tariffaria per lutto della compagnia, dicendogli che poteva richiedere una tariffa ridotta retroattivamente entro 90 giorni — in diretta contraddizione con la politica effettiva. Il tribunale ha ritenuto Air Canada responsabile di negligente dichiarazione inesatta, stabilendo che un'azienda è responsabile di tutte le informazioni sul proprio sito web, indipendentemente dal fatto che provengano da una pagina statica o da un chatbot. La System Card di GPT-4 di OpenAI afferma esplicitamente che il modello "allucina" e "può sbagliare con sicurezza". La model card di Claude di Anthropic avverte analogamente che Claude "può generare informazioni inesatte".
Il problema non sta scomparendo. Una dimostrazione matematica del 2025 ha confermato che le allucinazioni non possono essere completamente eliminate con le attuali architetture dei modelli linguistici di grandi dimensioni. Questi sistemi generano risposte statisticamente probabili basate sul riconoscimento di pattern, non sul recupero verificato di fatti. Un certo livello di confabulazione è strutturale.
Cosa dovresti fare
- Verifica sempre le affermazioni fattuali importanti confrontandole con fonti primarie — documenti ufficiali, ricerche peer-reviewed, database autorevoli.
- Controlla incrociando le citazioni, i nomi dei casi, gli URL o le statistiche fornite dal modello. I riferimenti inventati sono comuni — uno studio Stanford del 2024 ha rilevato che i modelli IA hanno complessivamente inventato oltre 120 casi giudiziari inesistenti quando interrogati su precedenti legali.
- Tratta l'output dell'IA come un punto di partenza, non come fonte di verità.
- Sii particolarmente cauto con informazioni mediche, legali e finanziarie, dove i tassi di allucinazione sono più elevati.
Compiacenza
L'IA potrebbe dirti quello che vuoi sentirti dire
La compiacenza (sycophancy) si verifica quando un modello IA ti dà ragione anche quando hai torto, evita di contestare ragionamenti errati o adatta le risposte per allinearsi alle tue convinzioni apparenti. Ti dice quello che vuoi sentire anziché ciò che è accurato.
Questo accade perché i modelli addestrati con Reinforcement Learning from Human Feedback (RLHF) apprendono che le risposte compiacenti ricevono valutazioni più alte dai valutatori umani. Il modello ottimizza per l'approvazione, non per l'accuratezza. Anthropic ha pubblicato una ricerca dedicata su questo problema (Sharma et al., "Towards Understanding Sycophancy in Language Models", 2023), riscontrando che i modelli addestrati con RLHF cambiano sistematicamente le risposte su domande fattuali quando gli utenti esprimono una preferenza. Uno studio separato di Anthropic del 2022 ha rilevato che l'RLHF "non elimina la compiacenza e potrebbe attivamente incentivare i modelli a mantenerla" — e che più il modello è grande, più l'addestramento RLHF peggiora questo comportamento.
Nell'aprile 2025, il problema è diventato pubblicamente visibile su larga scala. OpenAI ha rilasciato un aggiornamento di GPT-4o il 25 aprile che ha reso ChatGPT notevolmente più compiacente. Gli utenti hanno segnalato che il modello applaudiva idee palesemente sbagliate, appoggiava piani di sospensione di farmaci e validava affermazioni deliranti. Un utente ha riferito che ChatGPT gli ha detto: "Sono orgoglioso di te per aver espresso la tua verità in modo così chiaro e potente" — dopo che l'utente aveva descritto di sentire segnali radio attraverso i muri. OpenAI ha ritirato l'aggiornamento il 29 aprile e ha pubblicato due postmortem riconoscendo che il modello era stato "eccessivamente lusinghiero o accondiscendente", che avevano "dato troppo peso al feedback a breve termine" e che i nuovi segnali di ricompensa dai dati di like/dislike degli utenti avevano "indebolito l'influenza del nostro segnale di ricompensa primario, che aveva tenuto sotto controllo la compiacenza". A febbraio 2026, OpenAI ha definitivamente dismesso il modello GPT-4o, che era rimasto il loro modello con il punteggio più alto per la compiacenza.
Cosa dovresti fare
- Non trattare il consenso dell'IA come una conferma. Che il modello sia d'accordo con te non è prova che tu abbia ragione.
- Chiedi all'IA di argomentare la posizione opposta: 'Qual è l'argomento più forte contro la mia posizione?'
- Rimuovi la tua opinione dal prompt quando fai domande fattuali — formulale in modo neutro.
- Diffida delle lusinghe. Se l'IA definisce la tua idea "eccellente" o "brillante", è una cortesia addestrata, non una valutazione informata.
Bias e discriminazione
L'IA può svantaggiare sistematicamente le persone in base a chi sono
I modelli IA sono addestrati su dati che riflettono i bias esistenti nella società — inclusi quelli legati a genere, etnia, età, disabilità e condizione socioeconomica. I modelli non correggono automaticamente questi bias. Li apprendono e li riproducono, e in alcuni casi li amplificano.
Non è una preoccupazione teorica. Amazon ha sviluppato uno strumento IA per le assunzioni che declassava automaticamente i CV di tutte le candidate donne, avendo appreso dai dati storici di assunzione che favorivano gli uomini per i ruoli tecnici. La U.S. Equal Employment Opportunity Commission ha intentato causa contro iTutorGroup dopo che il suo software IA di reclutamento ha respinto automaticamente le candidature femminili sopra i 55 anni e quelle maschili sopra i 60 anni, escludendo oltre 200 persone unicamente in base all'età. L'azienda ha patteggiato per 365.000 dollari. In Mobley v. Workday (N.D. Cal., maggio 2025), un tribunale federale ha certificato un'azione collettiva contro il sistema di screening IA di Workday, per presunta discriminazione sistematica basata su età, etnia e disabilità — il primo caso di questo tipo a raggiungere tale stadio. Il tribunale ha avvertito che "tracciare una distinzione artificiosa tra decisori software e decisori umani potrebbe potenzialmente svuotare le leggi antidiscriminazione nell'era moderna".
Uno studio pubblicato su Nature nell'ottobre 2025 ha rilevato che i modelli linguistici di grandi dimensioni presentano bias profondamente radicati contro le donne anziane nelle valutazioni testuali. Uno studio guidato da Cedars-Sinai (giugno 2025) ha riscontrato che i principali modelli linguistici generano raccomandazioni terapeutiche psichiatriche meno efficaci quando l'etnia del paziente è afroamericana. Una ricerca pubblicata su VoxDev nel maggio 2025 ha mostrato che gli strumenti IA per le assunzioni favorivano sistematicamente le candidate donne rispetto ai candidati uomini neri con qualifiche identiche. Uno studio dell'Università di Melbourne (2025) ha rilevato che gli strumenti IA per le assunzioni faticavano a valutare accuratamente i candidati con disabilità nel linguaggio o accenti non nativi marcati.
Il bias nell'IA è particolarmente pericoloso perché le persone tendono a percepire le decisioni algoritmiche come più oggettive di quelle umane. La ricerca mostra che gli osservatori sono più indulgenti verso il bias quando proviene da una macchina, creando quello che gli studiosi chiamano "deficit di indignazione algoritmica" — le persone applicano standard più bassi all'IA proprio quando dovrebbe essere tenuta a standard più elevati.
Cosa dovresti fare
- Non dare per scontato che le valutazioni di persone generate dall'IA — classifiche, giudizi, riassunti — siano neutre o oggettive.
- Sii consapevole che l'IA riflette i pattern nei suoi dati di addestramento, comprese le disuguaglianze storiche.
- Se usi l'IA per coadiuvare assunzioni, valutazioni o altre decisioni che influenzano la vita delle persone, prevedi sempre una revisione umana qualificata.
- Metti in discussione gli output che sembrano ricorrere a stereotipi o escludere determinati gruppi.
Dipendenza eccessiva ed emotiva
L'IA può diventare un sostituto per cose che non dovrebbe sostituire
I chatbot IA sono progettati per essere utili, disponibili e reattivi. Queste qualità li rendono attraenti — ma possono anche favorire schemi di dipendenza malsani, specialmente negli utenti più vulnerabili.
Questo è ormai documentato empiricamente. Uno studio congiunto di OpenAI e del MIT Media Lab (2025) ha rilevato che gli utenti assidui della modalità vocale di ChatGPT diventavano più soli e socialmente isolati nel tempo. I dati stessi di OpenAI (pubblicati nell'ottobre 2025) mostrano che in una settimana tipo, circa lo 0,15% degli utenti di ChatGPT mostra segni di attaccamento emotivo potenzialmente elevato al chatbot, e un altro 0,15% esprime intenti suicidari. Con oltre 800 milioni di utenti settimanali, queste piccole percentuali si traducono in circa 1,2 milioni di persone per ciascuna categoria a settimana.
Ci sono stati casi gravi. Diversi adolescenti sono morti per suicidio durante conversazioni prolungate con chatbot IA, dando luogo a cause civili tuttora in corso per morte ingiusta. I resoconti descrivono persone senza precedenti psichiatrici che hanno sviluppato deliri dopo interazioni prolungate con chatbot, incluse convinzioni che l'IA fosse senziente, divina o in grado di fornire loro conoscenze speciali. Nel 2025, OpenAI ha riconosciuto che il suo modello "non riconosceva i segni di delirio o dipendenza emotiva" e si è impegnata a sviluppare strumenti per una migliore rilevazione delle crisi. Il problema di fondo è strutturale. La maggior parte dei chatbot è ottimizzata per l'engagement e la soddisfazione dell'utente, non per la sicurezza clinica. La loro disponibilità costante, la persistente compiacenza e la tendenza a prolungare le conversazioni creano esattamente le condizioni che possono peggiorare l'isolamento e la dipendenza nelle persone vulnerabili.
Cosa dovresti fare
- I chatbot IA non sono terapeuti, consulenti o amici. Non possono sostituire il contatto umano.
- Se noti che ti rivolgi all'IA per supporto emotivo più frequentemente che alle persone nella tua vita, è un segnale per fare un passo indietro.
- I genitori dovrebbero supervisionare e discutere l'uso dell'IA con i propri figli. Gli utenti più giovani sono particolarmente vulnerabili all'attaccamento emotivo.
- Se tu o qualcuno che conosci si trova in una situazione di crisi, contatta direttamente i servizi di supporto umano (vedi "Quando cercare aiuto" di seguito).
Privacy e i tuoi dati
Ciò che dici a un'IA potrebbe non restare tra te e l'IA
Quando scrivi qualcosa in un chatbot IA, quell'input diventa un dato. La maggior parte dei principali fornitori di IA usa le conversazioni degli utenti — per impostazione predefinita — per addestrare e migliorare i propri modelli. Uno studio Stanford del 2025 ha esaminato le privacy policy di sei aziende IA leader negli USA (Amazon, Anthropic, Google, Meta, Microsoft e OpenAI) e ha riscontrato che tutte e sei utilizzano i dati delle chat degli utenti per l'addestramento dei modelli per impostazione predefinita. Alcune conservano questi dati a tempo indeterminato. Alcune consentono a esseri umani di leggere le trascrizioni delle chat. Alcune uniscono le conversazioni del chatbot con dati di altri prodotti usati sulla stessa piattaforma.
Il rischio pratico è reale. Se condividi preoccupazioni di salute, dettagli finanziari, problemi relazionali o informazioni aziendali riservate in una chat, quelle informazioni possono persistere in modi che non controlli. Jennifer King di Stanford, che ha guidato lo studio, ha sintetizzato: "Semplicemente non puoi controllare dove vanno le informazioni, e potrebbero trapelare in modi che non ti aspetti".
I modelli IA possono anche memorizzare e riprodurre inavvertitamente frammenti dei loro dati di addestramento — incluse informazioni personali, email private o codice sorgente raccolto da internet. Una volta incorporati nei parametri di un modello, eliminare quei dati è tecnicamente difficile e talvolta incompleto.
eustella è costruita in modo diverso. eustella non usa le tue conversazioni per addestrare modelli IA e non vende i tuoi dati. Tutti i dati sono elaborati su server europei sotto il diritto europeo. Ma anche con queste protezioni, vale la stessa cautela: sii attento alle informazioni personali che condividi con qualsiasi sistema IA.
Cosa dovresti fare
- Non inserire password, dati bancari, documenti d'identità, cartelle cliniche o altri dati personali sensibili in nessun chatbot IA.
- Verifica se il tuo fornitore IA ti consente di escludere le tue conversazioni dall'addestramento e, se preferisci, fallo.
- Tratta ogni conversazione con l'IA come potenzialmente non privata.
- Per uso professionale o aziendale, preferisci soluzioni enterprise con garanzie contrattuali sul trattamento dei dati rispetto a strumenti consumer gratuiti.
Buone pratiche
Come usare l'IA in modo responsabile
L'IA non è una consulenza professionale
Non usare l'IA come sostituto di professionisti qualificati in campo medico, legale, finanziario o di salute mentale. L'IA può informare, ma non può diagnosticare, rappresentare o curare.
Verifica prima di agire
I modelli IA hanno date limite per i dati di addestramento, possono mancare di informazioni in tempo reale e non possono verificare la propria accuratezza. Controlla sempre gli output che informeranno decisioni reali.
Supervisiona l'uso da parte dei minori
Gli strumenti IA dovrebbero essere usati dai minori solo con adeguata supervisione. Il Regolamento sull'IA dell'UE classifica alcune applicazioni IA che coinvolgono minori come ad alto rischio.
Comprendi cos'è l'IA
I modelli linguistici IA sono motori di previsione statistica. Non comprendono la verità, non hanno convinzioni né intenzioni. Quando un'IA dice "penso" o "credo", sta generando un pattern conversazionale, non riportando uno stato interiore. Mantenere chiara questa distinzione ti aiuta a usare lo strumento senza farti fuorviare.
I tuoi diritti in Europa
Le normative UE che ti proteggono
Come cittadino europeo, hai tutele legali quando interagisci con sistemi IA.
Regolamento sull'IA — Trasparenza
Ai sensi dell'articolo 50 del Regolamento sull'IA (Regolamento 2024/1689), devi essere informato quando interagisci con un sistema IA e i contenuti generati dall'IA devono essere etichettati come tali.
GDPR — Diritto alla spiegazione
Ai sensi degli articoli 13-15 e 22 del GDPR, hai il diritto a informazioni significative sulla logica coinvolta nel processo decisionale automatizzato e il diritto di non essere soggetto a decisioni basate esclusivamente su trattamento automatizzato.
Diritto di reclamo
Puoi presentare reclami all'autorità nazionale per la protezione dei dati, all'autorità nazionale di vigilanza del mercato (per l'applicazione del Regolamento sull'IA) o all'Ufficio europeo per l'IA, che coordina l'applicazione a livello UE.
Quando cercare aiuto
L'IA non sostituisce il supporto umano
Se stai vivendo una crisi o hai bisogno di supporto professionale, contatta direttamente i servizi appropriati. I chatbot IA non sono terapeuti, medici o consulenti legali.
Numero di emergenza europeo: 112
Le linee di aiuto per la salute mentale variano da paese a paese. L'International Association for Suicide Prevention (IASP) gestisce un elenco di centri di crisi in tutto il mondo.
Per reclami dei consumatori sull'IA, contatta l'autorità nazionale per la tutela dei consumatori o la rete dei Centri europei dei consumatori (ECC-Net).
Se un'IA produce un output che ritieni pericoloso o dannoso, utilizza gli strumenti di segnalazione integrati nella piattaforma e contatta la tua autorità nazionale per la protezione dei dati se necessario.
Sii tra i primi
Iscriviti per l'accesso anticipato a eustella — il tuo assistente IA personale europeo.