In un recente articolo pubblicato su Federprivacy, principale Associazione di categoria per i professionisti della protezione dei dati personali, l’avv. Michele Iaselli, coordinatore del Comitato scientifico della medesima Associazione, pone alcune riflessioni sull’utilizzo di tool di intelligenza artificiale nel mondo del lavoro e di cui condividiamo i concetti salienti nel seguito.

“È indubbio che l’IA stia rivoluzionando il modo di operare, offrendo strumenti avanzati per l’elaborazione dei dati, la gestione delle informazioni e l’automazione delle attività. Tuttavia l’uso non regolamentato di app e tool di IA da parte dei dipendenti può esporre le aziende a gravi violazioni normative e rischi legali, compromettendo la sicurezza delle informazioni nonché la privacy e la protezione dei dati personali”.

In altre parole, “se un dipendente utilizza software non autorizzati per processare informazioni sensibili, l’azienda può essere ritenuta responsabile per il trattamento illecito di dati”. Senza considerare che: “l’impiego di strumenti IA non certificati o sviluppati da terze parti senza controlli adeguati può aprire falle nella sicurezza informatica aziendale, favorendo attacchi informatici e data breach.”

Ecco che diventa sempre più importante per le aziende dotarsi di strumenti - come ad esempio il Disciplinare interno - che contengano chiare regole a cui attenersi ma, soprattutto, investire nella formazione e nella sensibilizzazione dei propri collaboratori.

Non è inusuale, infatti, che si trascuri il fatto che documenti riservati vengano inseriti in chatbot basati su IA generativa senza tenere conto, come ci ricorda l’avv. Iaselli, che le informazioni in essi contenute potrebbero essere intercettate da terzi per essere elaborate o addirittura manipolate. Ciò esponendo le aziende a rischi non trascurabili.

Infine, sempre il coordinatore del Comitato scientifico, pone l’accento sul problema delle discriminazioni che possono nascere dall’uso di IA qualora questi strumenti vengano utilizzati per prendere decisioni che riguardano dipendenti o clienti in assenza di una adeguata supervisione umana, in violazione della normativa antidiscriminazione e dei principi etici sanciti dall’AI Act.

Per cui, prima che le preziose soft skills delle risorse umane aziendali vengano atrofizzate da sistemi sterili, si impone lo sforzo di sviluppare un nuovo pensiero critico nell’uso di strumenti di intelligenza artificiale ed evitare il totale passivo affidamento alle macchine.

La Guida - Stefania Isoardi (Pentha S.r.l.)

Altri articoli

Scopri altre novità sulla protezione dati e GDPR.

Garante privacy: “Semplificare il Gdpr sì, ma senza smantellare i diritti”

La Commissione Europea valuta una semplificazione del GDPR entro maggio 2025 per ridurre gli oneri burocratici per le PMI

Norvegia: un uomo scopre che ChatGPT lo accusa di avere ucciso due suoi figli e denuncia OpenAI

Il diclaimer che avvisa di potenziali errori, non può giustificare la diffusione di informazioni errate

Approvato al Senato il DDL di delega al Governo sull'intelligenza artificiale

Il Governo italiano intende allinearsi all'AI Act attraverso Decreti che mettono al centro il potere decisionale dell'uomo e le sue responsabilità