Shadow AI in azienda: come evitare fughe di dati senza frenare l’innovazione

Negli uffici succede così: la scadenza è vicina, i colleghi sono pieni, qualcuno “prova un attimo con l’AI” per velocizzare. Funziona, e il gesto diventa abitudine. Se però nessuno ha approvato lo strumento, definito regole o valutato i dati che finiscono nel prompt, si apre la porta alla Shadow AI: utilissima, ma potenzialmente pericolosa per riservatezza, integrità e conformità. In Italia il tema tocca direttamente il GDPR e, sempre di più, l’AI Act europeo con scadenze già in vigore per alfabetizzazione AI e obblighi per i modelli ad uso generale.

Cos’è la Shadow AI (e differenze con Shadow IT)

Per Shadow AI intendiamo l’uso di strumenti o funzionalità di AI da parte di dipendenti senza approvazione/supervisione IT (es. chat pubbliche, estensioni del browser, funzioni AI dentro app SaaS personali). È un sottoinsieme della Shadow IT (qualsiasi tecnologia non approvata), ma con rischi amplificati perché l’AI “trattiene” e rielabora contenuti sensibili, spesso in cloud esterni.

Perché è un problema per le PMI italiane

  • Confidenzialità e segreti: il testo incollato in un prompt può contenere dati clienti o codice proprietario. Alcune piattaforme possono conservarne tracce per diagnosi/quality (a seconda delle impostazioni contrattuali).
  • Conformità (GDPR/AI Act): il trasferimento non controllato di dati personali verso servizi non contrattualizzati è un trattamento illecito; inoltre, l’AI Act procede per tappe: divieti e alfabetizzazione AI dal 2 febbraio 2025, obblighi per GPAI dal 2 agosto 2025, piena applicabilità da 2 agosto 2026 con estensioni al 2027 per alcuni sistemi ad alto rischio.
  • Rischi operativi: versioni discordanti dei documenti, informazioni sbagliate (“allucinazioni”) usate in decisioni operative. Le best practice NIST/OWASP raccomandano validazione umana e controlli lungo il ciclo di vita.

Case Histories e casi tipici

  • Samsung (apr–mag 2023): dipendenti incollano codice sorgente e note di meeting in ChatGPT → stop interno ai chatbot e revisione policy.
  • NSW Reconstruction Authority, Australia (mar 2025, comunicato 14/10/2025): contractor carica su ChatGPT uno spreadsheet con dati personali/sanitari di migliaia di cittadini del programma Resilient Homes.
  • Dipartimento tutela minori, Victoria (set 2024): un operatore usa ChatGPT per atti giudiziari con dati sensibili → divieto temporaneo d’uso dell’AI nel dipartimento.

Casi tipici nelle PMI: upload di documenti su chatbot pubblici, uso di account personali e assenza di logging/retention controllata.

shadow ai

SSO e protezione identità e accessi su Windows e Mac -> Soluzioni Cisco DUO

Come si rileva la Shadow AI

Rilevare ≠ spiare: significa dare visibilità agli strumenti realmente usati, con priorità a dati e canali.

  • Proxy/DNS/Web monitoring per individuare traffico verso domini AI non autorizzati; DLP per riconoscere pattern sensibili (es. IBAN, P.IVA, dati sanitari) in uscita; CASB per scoprire applicazioni in uso e applicare policy.
  • Audit SaaS & inventario integrazioni (connettori, plugin, estensioni AI attive nelle suite): mappa delle app collegate ai dati aziendali.
  • Survey interne e segnalazioni “safe”: canali semplici per dichiarare casi d’uso utili (da valutare/approvare) senza paura di sanzioni.

Policy & governance

  • Policy d’uso dell’AI: cosa si può fare, con quali tool, quali dati sono vietati nei prompt, chi approva nuovi casi d’uso, tempi di conservazione e logging.
  • SSO e ruoli: abilitare gli strumenti solo con account aziendali; definire proprietari, responsabili del trattamento, referenti legali.
  • Processo di approvazione: una “corsia veloce” per proporre e far validare tool/casi d’uso utili.
    Modelli e framework di riferimento aiutano ad avviare la governance (es. cataloghi, assessment, controlli continuativi).

Mitigazioni tecniche (senza spegnere l’AI)

  • Account gestiti e allow-list: si usano solo servizi AI approvati; tutto il resto è bloccato o in “zona tollerata” con alert.
  • Controllo delle azioni: policy granulari su upload/download verso app AI, con limiti per tipo di dato/utente/contesto.
  • Retention & classificazione: etichette dati (es. “interno”, “riservato”, “personale”) che attivano automaticamente regole di condivisione e tempi di conservazione.
    Le principali piattaforme di sicurezza cloud/edge consentono di classificare app (sanzionate/tollerate/non permesse) e imporre regole di caricamento.

Formazione e cultura (le persone prima dei tool)

Spiegare perché certe regole esistono e come usare in sicurezza gli strumenti approvati: esempi concreti, do & don’t (es. “mai incollare dati clienti non anonimizzati”). Media italiani come ZeroUno hanno pubblicato guide pratiche su policy e formazione per la Shadow AI: utili da adattare al contesto aziendale.

Best practice

  • Minimo privilegio per integrazioni/plug-in AI; approvazioni per connettori a e-mail/drive/CRM.
  • Validazione umana per output ad impatto (contratti, offerte, comunicati).
  • Anonimizzare o pseudonimizzare i prompt quando possibile e non confondere “rimozione nomi” con anonimizzazione.

Conclusioni

La Shadow AI nasce da una buona intenzione: lavorare meglio. Senza regole però diventa un rischio di fughe di dati e non conformità. La soluzione non è vietare l’AI, ma governarla: offrire strumenti approvati, fare luce sugli utilizzi reali e allenare l’organizzazione a chiedersi “quali dati sto incollando, e dove vanno?”. Con pochi passi pragmatici, anche una PMI può sfruttare l’AI in sicurezza.

Fonti