Privacy news: il 73% dei dirigenti carica dati sensibili nei tool di intelligenza artificiale

Se usi strumenti di intelligenza artificiale in azienda, questa notizia ti riguarda da vicino: un report di La Fosse, basato su oltre 2.000 lavoratori tech nel Regno Unito, segnala che il 73% dei dirigenti ha inserito informazioni riservate dentro tool di IA generativa. È quasi il doppio rispetto ai profili entry-level (42%).

Il punto non è “se l’IA funziona”, ma come la stai usando. Dallo studio emerge un gap pericoloso tra fiducia e competenza: il 52% dice che decisioni basate su IA vengono prese senza adeguata supervisione tecnica; il 78% dei dirigenti usa l’IA per attività che non sa davvero svolgere; e il 93% ammette di aver preso decisioni influenzate da input o risultati inesatti.

Le conseguenze sono concrete: il 40% dei dirigenti dichiara impatti seri sul business (problemi operativi o reputazionali) legati a errori nell’uso dell’IA. In pratica, se incolli in un prompt nomi di clienti, documenti interni, dati economici o credenziali, rischi di perdere il controllo delle informazioni, soprattutto se il provider è esterno e i dati vengono trattati o conservati in modo non previsto.

Dal lato privacy e compliance, per te significa rischio GDPR: trattamenti non autorizzati, trasferimenti non valutati, accessi impropri, fino a possibili sanzioni e danni d’immagine.

Cosa fare subito, da microimpresa: definisci una policy (cosa non si inserisce mai nei prompt), forma te e i tuoi collaboratori con esempi pratici, e attiva controlli tecnici (account aziendali, limitazioni, log, strumenti approvati). Se l’IA entra nei processi, la governance deve arrivare prima, non dopo.

Verifica subito che la tua azienda rispetti la normativa GDPR per evitare le pesanti sanzioni previste,

Clicca qui