A fine luglio 2025, si è verificato un evento che ha riportato con forza al centro del dibattito pubblico il tema della sicurezza e della riservatezza nelle interazioni con strumenti di intelligenza artificiale generativa. Migliaia di conversazioni avvenute tra utenti e ChatGPT sono diventate accessibili pubblicamente tramite i motori di ricerca, in particolare Google.

A generare l’esposizione non è stato un data breach né un attacco informatico, bensì l’uso legittimo – ma poco chiaro – della funzione “Make this chat discoverable” (ovvero la funzione che consente di indicizzare la conversazione nei motori di ricerca).

A fine luglio 2025, si è verificato un evento che ha riportato con forza al centro del dibattito pubblico il tema della sicurezza e della riservatezza nelle interazioni con strumenti di intelligenza artificiale generativa. Migliaia di conversazioni avvenute tra utenti e ChatGPT sono diventate accessibili pubblicamente tramite i motori di ricerca, in particolare Google.

A generare l’esposizione non è stato un data breach né un attacco informatico, bensì l’uso legittimo – ma poco chiaro – della funzione “Make this chat discoverable”, offerta da OpenAI all’interno dell’opzione di condivisione dei link.

Questo ha permesso, di fatto, l’indicizzazione delle conversazioni con conseguente pubblicazione in rete di dati personali, riferimenti sensibili, contenuti identificativi e in alcuni casi persino documenti interi. Un’operazione attivata consapevolmente dagli utenti ma spesso inconsapevolmente nei suoi effetti, a causa della mancanza di una chiara informativa ex art. 13 GDPR, e dell’assenza di adeguati meccanismi di sicurezza e conferma.

L’incidente non è isolato né marginale, si inserisce in una nuova categoria di rischio: l’esposizione accidentale legata a una cattiva progettazione dell’interfaccia utente (UX), che pone seri interrogativi in materia di privacy by design, soprattutto nel contesto delle tecnologie emergenti.

L’impatto sul GDPR: rischi e violazioni concrete - L’episodio evidenzia, da un punto di vista normativo, plurime criticità sul piano della conformità al Regolamento (UE) 2016/679, anche in assenza di dolo o attacco esterno, si configurano violazioni di norme fondamentali:

-      L’art. 5, par. 1 impone il rispetto dei principi di liceità, trasparenza, minimizzazione, integrità e riservatezza: tutti elementi che, nel caso specifico, risultano quantomeno parzialmente disattesi.

-      L’art. 6 richiede una base giuridica chiara e specifica per ogni trattamento: la semplice azione di “spunta” da parte dell’utente, in un contesto di scarsa comprensione del rischio, non può considerarsi un consenso valido e informato.

-      L’art. 13 stabilisce l’obbligo di fornire informazioni comprensibili, tempestive e complete circa le modalità e le finalità del trattamento, cosa che non sembra essere avvenuta in modo pienamente conforme.

-      L’art. 32 impone al titolare l’obbligo di adottare misure tecniche e organizzative adeguate a garantire un livello di sicurezza idoneo al rischio: in assenza di blocchi automatici, doppie conferme o avvisi visivi, la misura è da ritenersi inadeguata.

Il ruolo del titolare, in questo contesto, diventa centrale anche se l’azione materiale di condivisione è compiuta dall’utente, l’onere della prevenzione e della progettazione ricade sul fornitore del servizio. Infatti, l’art. 25 GDPR sancisce il principio di privacy by design e by default: l’architettura stessa dell’interfaccia dovrebbe essere strutturata per impedire o almeno mitigare azioni potenzialmente lesive, specie se automatizzate o facilmente indicizzabili. Per questo l’incidente ChatGPT rappresenta un precedente emblematico, che impone a tutte le organizzazioni l’esigenza di:

-      Valutare il rischio legato alla condivisione di dati tramite IA generative;

-      Integrare queste valutazioni nei processi di compliance privacy e DPIA (art. 35 GDPR);

-      Riconsiderare le informative offerte all’utente e gli strumenti di controllo effettivo sulle funzionalità di condivisione.

La responsabilità del titolare: un obbligo di presidio, non solo di reazione - Uno degli aspetti più significativi che emergono dal caso ChatGPT è la ridefinizione della responsabilità del titolare del trattamento in contesti di IA generativa.

Anche quando un utente attiva una funzione che comporta la pubblicazione di contenuti, il titolare del trattamento – in questo caso OpenAI – non è esonerato dai propri obblighi di progettazione preventiva e protezione attiva. Lo ricorda chiaramente l’art. 5, par. 2 GDPR, che sancisce il principio di responsabilizzazione (accountability): è il titolare che deve dimostrare di aver posto in essere misure adeguate per prevenire trattamenti illeciti o sproporzionati.

Nel caso specifico, le criticità sono numerose:

-      Mancanza di meccanismi di blocco, avviso o conferma al momento della condivisione (art. 32 GDPR).

-      Informativa non trasparente o incompleta sull'effettiva portata della condivisione pubblica (art. 13 GDPR).

-      Assenza di misure di privacy by design e by default (art. 25 GDPR) nell’interfaccia utente, che ha reso semplice – ma non sicuro – il processo.

Queste carenze sono state formalmente accertate dal Garante per la protezione dei dati personali, che in data 20 dicembre 2024 ha sanzionato OpenAI con 15 milioni di euro per: violazione del principio di trasparenza, raccolta non proporzionata di dati per addestramento dell’IA, mancata verifica dell’età, e omessa comunicazione di un data breach.

È rilevante segnalare che, a marzo 2025, il Tribunale di Roma ha sospeso in via cautelare l’efficacia della sanzione, ma il merito è tuttora pendente. Ciò non toglie validità alle osservazioni tecniche e regolamentari sollevate dal Garante, che restano un riferimento autorevole per i titolari che trattano dati tramite IA generativa. Nel frattempo, il Comitato Europeo per la Protezione dei Dati (EDPB) ha istituito una specifica Task Force su ChatGPT, il cui report ufficiale di maggio 2024 raccomanda che: la base giuridica sia definita in modo puntuale; le interfacce rispettino i principi di trasparenza e controllo utente; le organizzazioni adottino DPIA in caso di trattamenti innovativi o ad alto rischio.

Reputazione, non conformità e perdita di controllo: il costo nascosto - Gli impatti dell’incidente ChatGPT non sono solo giuridici. Sono reputazionali, operativi, strategici. Numerose delle conversazioni rese pubbliche contenevano riferimenti personali, richieste legali, contenuti sanitari, codici fiscali, CV, dati bancari. In alcuni casi, anche bozze di atti riservati o documenti interni aziendali sono stati resi accessibili online. La cancellazione del link originario non è sufficiente, in quanto i contenuti possono restare indicizzati per settimane, essere riportati da terzi su forum, blog, repository automatizzati o finire nei backup dei motori di ricerca.

Per un’organizzazione, ciò può significare:

-      perdita di fiducia da parte di clienti, stakeholder e collaboratori;

-      potenziali azioni legali da parte di interessati (art. 82 GDPR);

-      attivazione di procedimenti ispettivi e sanzionatori da parte dell’autorità.

Ma, ancora più rilevante, l’organizzazione rischia la non conformità sistemica, in quanto spesso: non ha mappato l’utilizzo effettivo di IA da parte del personale; non ha predisposto policy aziendali sull’uso dei chatbot; non ha classificato i dati “non trattabili” tramite piattaforme esterne.

Ricordiamo che il GDPR non richiede solo la conformità “ex post”, ma l’attuazione preventiva di misure tecniche e organizzative idonee (artt. 24, 25, 32).

Se l’organizzazione non è in grado di dimostrare di aver formato il personale, disciplinato l’uso degli strumenti IA, e monitorato le eventuali condivisioni accidentali, non potrà invocare l’errore individuale come causa esimente. Per questo, nel contesto attuale, la reputazione diventa un’estensione della compliance, non solo rispetto alla normativa, ma rispetto alle aspettative di affidabilità e sicurezza da parte di chi ci affida i propri dati.

Verso una cultura della prevenzione: l’intelligenza artificiale si governa, non si subisce - L’esperienza legata a ChatGPT è destinata a ripetersi in forme analoghe, man mano che l’IA entra in modo pervasivo nei flussi aziendali, nei servizi pubblici e nelle attività quotidiane dei lavoratori.

Proprio per questo dobbiamo cambiare il nostro approccio.

La protezione dei dati non può più essere vista come un ambito statico, normato solo da obblighi documentali o informative di rito, deve diventare un processo dinamico, integrato nella governance dei sistemi digitali, in particolare quando si utilizzano tecnologie capaci di apprendere, generare, memorizzare e diffondere informazioni in modo automatico. È il momento per i titolari di adottare procedure aziendali per l’utilizzo controllato delle IA; definire regole chiare su quali dati possono e non possono essere trattati; inserire il rischio IA nel registro dei trattamenti e, ove necessario, attivare una DPIA; garantire audit periodici sui canali e strumenti digitali utilizzati dai dipendenti e soprattutto avviare formazione mirata, che distingua tra uso personale e uso istituzionale degli strumenti generativi.

Come indicato nel ChatGPT Task Force Report dell’European Data Protection Board, ogni organizzazione che utilizza IA in modo significativo dovrebbe rispondere a un questionario interno di valutazione (Allegato A del report), utile per anticipare rischi e prevenire esposizioni accidentali. Nel contesto attuale, chi non integra questi elementi nella propria strategia privacy, non è solo in ritardo: è esposto. Nell’economia della fiducia digitale, il danno più grave non è la sanzione, è la perdita di affidabilità percepita, motivo per cui la vera innovazione non è nell’automazione del dato, ma nella capacità del titolare di anticiparne i rischi e governarne il ciclo di vita.

, offerta da OpenAI all’interno dell’opzione di condivisione dei link.

Questo ha permesso, di fatto, l’indicizzazione delle conversazioni con conseguente pubblicazione in rete di dati personali, riferimenti sensibili, contenuti identificativi e in alcuni casi persino documenti interi. Un’operazione attivata consapevolmente dagli utenti ma spesso inconsapevolmente nei suoi effetti, a causa della mancanza di una chiara informativa ex art. 13 GDPR, e dell’assenza di adeguati meccanismi di sicurezza e conferma.

L’incidente non è isolato né marginale, si inserisce in una nuova categoria di rischio: l’esposizione accidentale legata a una cattiva progettazione dell’interfaccia utente (UX), che pone seri interrogativi in materia di privacy by design, soprattutto nel contesto delle tecnologie emergenti.

L’impatto sul GDPR: rischi e violazioni concrete - L’episodio evidenzia, da un punto di vista normativo, plurime criticità sul piano della conformità al Regolamento (UE) 2016/679, anche in assenza di dolo o attacco esterno, si configurano violazioni di norme fondamentali:

-      L’art. 5, par. 1 impone il rispetto dei principi di liceità, trasparenza, minimizzazione, integrità e riservatezza: tutti elementi che, nel caso specifico, risultano quantomeno parzialmente disattesi.

-      L’art. 6 richiede una base giuridica chiara e specifica per ogni trattamento: la semplice azione di “spunta” da parte dell’utente, in un contesto di scarsa comprensione del rischio, non può considerarsi un consenso valido e informato.

-      L’art. 13 stabilisce l’obbligo di fornire informazioni comprensibili, tempestive e complete circa le modalità e le finalità del trattamento, cosa che non sembra essere avvenuta in modo pienamente conforme.

-      L’art. 32 impone al titolare l’obbligo di adottare misure tecniche e organizzative adeguate a garantire un livello di sicurezza idoneo al rischio: in assenza di blocchi automatici, doppie conferme o avvisi visivi, la misura è da ritenersi inadeguata.

Il ruolo del titolare, in questo contesto, diventa centrale anche se l’azione materiale di condivisione è compiuta dall’utente, l’onere della prevenzione e della progettazione ricade sul fornitore del servizio. Infatti, l’art. 25 GDPR sancisce il principio di privacy by design e by default: l’architettura stessa dell’interfaccia dovrebbe essere strutturata per impedire o almeno mitigare azioni potenzialmente lesive, specie se automatizzate o facilmente indicizzabili. Per questo l’incidente ChatGPT rappresenta un precedente emblematico, che impone a tutte le organizzazioni l’esigenza di:

-      Valutare il rischio legato alla condivisione di dati tramite IA generative;

-      Integrare queste valutazioni nei processi di compliance privacy e DPIA (art. 35 GDPR);

-      Riconsiderare le informative offerte all’utente e gli strumenti di controllo effettivo sulle funzionalità di condivisione.

La responsabilità del titolare: un obbligo di presidio, non solo di reazione - Uno degli aspetti più significativi che emergono dal caso ChatGPT è la ridefinizione della responsabilità del titolare del trattamento in contesti di IA generativa.

Anche quando un utente attiva una funzione che comporta la pubblicazione di contenuti, il titolare del trattamento – in questo caso OpenAI – non è esonerato dai propri obblighi di progettazione preventiva e protezione attiva. Lo ricorda chiaramente l’art. 5, par. 2 GDPR, che sancisce il principio di responsabilizzazione (accountability): è il titolare che deve dimostrare di aver posto in essere misure adeguate per prevenire trattamenti illeciti o sproporzionati.

Nel caso specifico, le criticità sono numerose:

-      Mancanza di meccanismi di blocco, avviso o conferma al momento della condivisione (art. 32 GDPR).

-      Informativa non trasparente o incompleta sull'effettiva portata della condivisione pubblica (art. 13 GDPR).

-      Assenza di misure di privacy by design e by default (art. 25 GDPR) nell’interfaccia utente, che ha reso semplice – ma non sicuro – il processo.

Queste carenze sono state formalmente accertate dal Garante per la protezione dei dati personali, che in data 20 dicembre 2024 ha sanzionato OpenAI con 15 milioni di euro per: violazione del principio di trasparenza, raccolta non proporzionata di dati per addestramento dell’IA, mancata verifica dell’età, e omessa comunicazione di un data breach.

È rilevante segnalare che, a marzo 2025, il Tribunale di Roma ha sospeso in via cautelare l’efficacia della sanzione, ma il merito è tuttora pendente. Ciò non toglie validità alle osservazioni tecniche e regolamentari sollevate dal Garante, che restano un riferimento autorevole per i titolari che trattano dati tramite IA generativa. Nel frattempo, il Comitato Europeo per la Protezione dei Dati (EDPB) ha istituito una specifica Task Force su ChatGPT, il cui report ufficiale di maggio 2024 raccomanda che: la base giuridica sia definita in modo puntuale; le interfacce rispettino i principi di trasparenza e controllo utente; le organizzazioni adottino DPIA in caso di trattamenti innovativi o ad alto rischio.

Reputazione, non conformità e perdita di controllo: il costo nascosto - Gli impatti dell’incidente ChatGPT non sono solo giuridici. Sono reputazionali, operativi, strategici. Numerose delle conversazioni rese pubbliche contenevano riferimenti personali, richieste legali, contenuti sanitari, codici fiscali, CV, dati bancari. In alcuni casi, anche bozze di atti riservati o documenti interni aziendali sono stati resi accessibili online. La cancellazione del link originario non è sufficiente, in quanto i contenuti possono restare indicizzati per settimane, essere riportati da terzi su forum, blog, repository automatizzati o finire nei backup dei motori di ricerca.

Per un’organizzazione, ciò può significare:

-      perdita di fiducia da parte di clienti, stakeholder e collaboratori;

-      potenziali azioni legali da parte di interessati (art. 82 GDPR);

-      attivazione di procedimenti ispettivi e sanzionatori da parte dell’autorità.

Ma, ancora più rilevante, l’organizzazione rischia la non conformità sistemica, in quanto spesso: non ha mappato l’utilizzo effettivo di IA da parte del personale; non ha predisposto policy aziendali sull’uso dei chatbot; non ha classificato i dati “non trattabili” tramite piattaforme esterne.

Ricordiamo che il GDPR non richiede solo la conformità “ex post”, ma l’attuazione preventiva di misure tecniche e organizzative idonee (artt. 24, 25, 32).

Se l’organizzazione non è in grado di dimostrare di aver formato il personale, disciplinato l’uso degli strumenti IA, e monitorato le eventuali condivisioni accidentali, non potrà invocare l’errore individuale come causa esimente. Per questo, nel contesto attuale, la reputazione diventa un’estensione della compliance, non solo rispetto alla normativa, ma rispetto alle aspettative di affidabilità e sicurezza da parte di chi ci affida i propri dati.

Verso una cultura della prevenzione: l’intelligenza artificiale si governa, non si subisce - L’esperienza legata a ChatGPT è destinata a ripetersi in forme analoghe, man mano che l’IA entra in modo pervasivo nei flussi aziendali, nei servizi pubblici e nelle attività quotidiane dei lavoratori.

Proprio per questo dobbiamo cambiare il nostro approccio.

La protezione dei dati non può più essere vista come un ambito statico, normato solo da obblighi documentali o informative di rito, deve diventare un processo dinamico, integrato nella governance dei sistemi digitali, in particolare quando si utilizzano tecnologie capaci di apprendere, generare, memorizzare e diffondere informazioni in modo automatico. È il momento per i titolari di adottare procedure aziendali per l’utilizzo controllato delle IA; definire regole chiare su quali dati possono e non possono essere trattati; inserire il rischio IA nel registro dei trattamenti e, ove necessario, attivare una DPIA; garantire audit periodici sui canali e strumenti digitali utilizzati dai dipendenti e soprattutto avviare formazione mirata, che distingua tra uso personale e uso istituzionale degli strumenti generativi.

Come indicato nel ChatGPT Task Force Report dell’European Data Protection Board, ogni organizzazione che utilizza IA in modo significativo dovrebbe rispondere a un questionario interno di valutazione (Allegato A del report), utile per anticipare rischi e prevenire esposizioni accidentali. Nel contesto attuale, chi non integra questi elementi nella propria strategia privacy, non è solo in ritardo: è esposto. Nell’economia della fiducia digitale, il danno più grave non è la sanzione, è la perdita di affidabilità percepita, motivo per cui la vera innovazione non è nell’automazione del dato, ma nella capacità del titolare di anticiparne i rischi e governarne il ciclo di vita.

Federprivacy - di Mariangela Di Cuia Mariangela Di CuiMariangela Di CuiMariangela Di Cuia

Altri articoli

Scopri altre novità sulla protezione dati e GDPR.

Al rientro dalla malattia i lavoratori venivano sottoposti a colloqui e questionari: interviene il Garante della Privacy

Sanzionata azienda che rivalutava il dipendente al rientro dalla malattia

Microsoft subisce un attacco hacker globale che consente l’accesso da remoto ai sistemi critici

Colpite 29 agenzie governative e private in tutto il mondo

Può il Garante Privacy accertare una violazione dell'art. 4 dello Statuto dei lavoratori, o la competenza spetta solo al giudice del lavoro?

L'Autorità Garante ha creato una legislazione secondaria per colmare un vuoto legislativo e politico