Negli uffici succede così: la scadenza è vicina, i colleghi sono pieni, qualcuno “prova un attimo con l’AI” per velocizzare. Funziona, e il gesto diventa abitudine. Se però nessuno ha approvato lo strumento, definito regole o valutato i dati che finiscono nel prompt, si apre la porta alla Shadow AI: utilissima, ma potenzialmente pericolosa per riservatezza, integrità e conformità. In Italia il tema tocca direttamente il GDPR e, sempre di più, l’AI Act europeo con scadenze già in vigore per alfabetizzazione AI e obblighi per i modelli ad uso generale.
Cos’è la Shadow AI (e differenze con Shadow IT)
Per Shadow AI intendiamo l’uso di strumenti o funzionalità di AI da parte di dipendenti senza approvazione/supervisione IT (es. chat pubbliche, estensioni del browser, funzioni AI dentro app SaaS personali). È un sottoinsieme della Shadow IT (qualsiasi tecnologia non approvata), ma con rischi amplificati perché l’AI “trattiene” e rielabora contenuti sensibili, spesso in cloud esterni.
Perché è un problema per le PMI italiane
- Confidenzialità e segreti: il testo incollato in un prompt può contenere dati clienti o codice proprietario. Alcune piattaforme possono conservarne tracce per diagnosi/quality (a seconda delle impostazioni contrattuali).
- Conformità (GDPR/AI Act): il trasferimento non controllato di dati personali verso servizi non contrattualizzati è un trattamento illecito; inoltre, l’AI Act procede per tappe: divieti e alfabetizzazione AI dal 2 febbraio 2025, obblighi per GPAI dal 2 agosto 2025, piena applicabilità da 2 agosto 2026 con estensioni al 2027 per alcuni sistemi ad alto rischio.
- Rischi operativi: versioni discordanti dei documenti, informazioni sbagliate (“allucinazioni”) usate in decisioni operative. Le best practice NIST/OWASP raccomandano validazione umana e controlli lungo il ciclo di vita.
Case Histories e casi tipici
- Samsung (apr–mag 2023): dipendenti incollano codice sorgente e note di meeting in ChatGPT → stop interno ai chatbot e revisione policy.
- NSW Reconstruction Authority, Australia (mar 2025, comunicato 14/10/2025): contractor carica su ChatGPT uno spreadsheet con dati personali/sanitari di migliaia di cittadini del programma Resilient Homes.
- Dipartimento tutela minori, Victoria (set 2024): un operatore usa ChatGPT per atti giudiziari con dati sensibili → divieto temporaneo d’uso dell’AI nel dipartimento.
Casi tipici nelle PMI: upload di documenti su chatbot pubblici, uso di account personali e assenza di logging/retention controllata.
Come si rileva la Shadow AI
Rilevare ≠ spiare: significa dare visibilità agli strumenti realmente usati, con priorità a dati e canali.
- Proxy/DNS/Web monitoring per individuare traffico verso domini AI non autorizzati; DLP per riconoscere pattern sensibili (es. IBAN, P.IVA, dati sanitari) in uscita; CASB per scoprire applicazioni in uso e applicare policy.
- Audit SaaS & inventario integrazioni (connettori, plugin, estensioni AI attive nelle suite): mappa delle app collegate ai dati aziendali.
- Survey interne e segnalazioni “safe”: canali semplici per dichiarare casi d’uso utili (da valutare/approvare) senza paura di sanzioni.
Policy & governance
- Policy d’uso dell’AI: cosa si può fare, con quali tool, quali dati sono vietati nei prompt, chi approva nuovi casi d’uso, tempi di conservazione e logging.
- SSO e ruoli: abilitare gli strumenti solo con account aziendali; definire proprietari, responsabili del trattamento, referenti legali.
- Processo di approvazione: una “corsia veloce” per proporre e far validare tool/casi d’uso utili.
Modelli e framework di riferimento aiutano ad avviare la governance (es. cataloghi, assessment, controlli continuativi).
Mitigazioni tecniche (senza spegnere l’AI)
- Account gestiti e allow-list: si usano solo servizi AI approvati; tutto il resto è bloccato o in “zona tollerata” con alert.
- Controllo delle azioni: policy granulari su upload/download verso app AI, con limiti per tipo di dato/utente/contesto.
- Retention & classificazione: etichette dati (es. “interno”, “riservato”, “personale”) che attivano automaticamente regole di condivisione e tempi di conservazione.
Le principali piattaforme di sicurezza cloud/edge consentono di classificare app (sanzionate/tollerate/non permesse) e imporre regole di caricamento.
Formazione e cultura (le persone prima dei tool)
Spiegare perché certe regole esistono e come usare in sicurezza gli strumenti approvati: esempi concreti, do & don’t (es. “mai incollare dati clienti non anonimizzati”). Media italiani come ZeroUno hanno pubblicato guide pratiche su policy e formazione per la Shadow AI: utili da adattare al contesto aziendale.
Best practice
- Minimo privilegio per integrazioni/plug-in AI; approvazioni per connettori a e-mail/drive/CRM.
- Validazione umana per output ad impatto (contratti, offerte, comunicati).
- Anonimizzare o pseudonimizzare i prompt quando possibile e non confondere “rimozione nomi” con anonimizzazione.
Conclusioni
La Shadow AI nasce da una buona intenzione: lavorare meglio. Senza regole però diventa un rischio di fughe di dati e non conformità. La soluzione non è vietare l’AI, ma governarla: offrire strumenti approvati, fare luce sugli utilizzi reali e allenare l’organizzazione a chiedersi “quali dati sto incollando, e dove vanno?”. Con pochi passi pragmatici, anche una PMI può sfruttare l’AI in sicurezza.
Fonti
- IBM — What is Shadow AI? (IBM)
- Varonis — Hidden Risks of Shadow AI (varonis.com)
- Palo Alto Networks — AI Access Security (Palo Alto Networks)
- Securiti — AI Security & Governance + AI governance for Shadow AI (Securiti)
- OWASP — Top 10 for LLM Applications (owasp.org)
- NIST — AI Risk Management Framework 1.0 (NIST Pubblicazioni Tecniche)
- Commissione UE — AI Act – Application timeline (Strategia Digitale Europea)
- NSW Reconstruction Authority — Resilient Homes Program data breach (NSW Government)
- Cybersecurity Dive / Forbes — Samsung ChatGPT leak (cybersecuritydive.com)
- The Guardian — Victoria child protection worker used ChatGPT (The Guardian)
- ZeroUno — Shadow AI, la minaccia invisibile… (ZeroUno)

