Questo episodio solleva gravi questioni sulla responsabilità legale di OpenAI e sull'applicabilità del GDPR ai modelli di intelligenza artificiale generativa. Le conseguenze per l'azienda potrebbero essere sanzioni pesanti e l'obbligo di modificare radicalmente il funzionamento di ChatGPT.
Secondo quanto riportato da noyb, ChatGPT ha fornito informazioni completamente false sull'uomo, sostenendo che fosse stato condannato a 21 anni di carcere per aver ucciso i suoi figli. Anche se la chatbot abbia riportato alcuni dettagli corretti, come il nome dell'uomo, il numero e il genere dei suoi figli e la sua città di residenza, il resto della narrazione è stato completamente inventato.
Il problema non è nuovo: sono già emersi diversi casi in cui ChatGPT ha fornito informazioni errate e potenzialmente dannose su individui, incluso un giornalista tedesco accusato di abusi su minori e un politico australiano coinvolto in uno scandalo di corruzione inesistente.
"Il GDPR è chiaro: i dati personali devono essere accurati," ha dichiarato Joakim Söderberg, avvocato specializzato in protezione dei dati presso noyb. "Se non lo sono, gli utenti hanno il diritto di correggerli. Mostrare un semplice disclaimer che avverte che ChatGPT può sbagliare non è sufficiente. Non si possono diffondere informazioni false e poi aggiungere una nota che dice che potrebbero non essere vere."
Ai sensi del GDPR, OpenAI, in quanto sviluppatore di ChatGPT, è legalmente obbligata a garantire che i dati personali trattati dall'intelligenza artificiale siano esatti e aggiornati. Il fatto che l'azienda non offra agli utenti la possibilità di correggere le informazioni sbagliate generate dal modello è una potenziale violazione del regolamento.
Se le autorità per la protezione dei dati confermassero la violazione, OpenAI potrebbe affrontare multe fino al 4% del fatturato globale, che potrebbero quindi ammontare a diverse centinaia di milioni di euro.
Fonte: noyb.eu
Altri articoli