In un recente articolo pubblicato su Federprivacy, principale Associazione di categoria per i professionisti della protezione dei dati personali, l’avv. Michele Iaselli, coordinatore del Comitato scientifico della medesima Associazione, pone alcune riflessioni sull’utilizzo di tool di intelligenza artificiale nel mondo del lavoro e di cui condividiamo i concetti salienti nel seguito.

“È indubbio che l’IA stia rivoluzionando il modo di operare, offrendo strumenti avanzati per l’elaborazione dei dati, la gestione delle informazioni e l’automazione delle attività. Tuttavia l’uso non regolamentato di app e tool di IA da parte dei dipendenti può esporre le aziende a gravi violazioni normative e rischi legali, compromettendo la sicurezza delle informazioni nonché la privacy e la protezione dei dati personali”.

In altre parole, “se un dipendente utilizza software non autorizzati per processare informazioni sensibili, l’azienda può essere ritenuta responsabile per il trattamento illecito di dati”. Senza considerare che: “l’impiego di strumenti IA non certificati o sviluppati da terze parti senza controlli adeguati può aprire falle nella sicurezza informatica aziendale, favorendo attacchi informatici e data breach.”

Ecco che diventa sempre più importante per le aziende dotarsi di strumenti - come ad esempio il Disciplinare interno - che contengano chiare regole a cui attenersi ma, soprattutto, investire nella formazione e nella sensibilizzazione dei propri collaboratori.

Non è inusuale, infatti, che si trascuri il fatto che documenti riservati vengano inseriti in chatbot basati su IA generativa senza tenere conto, come ci ricorda l’avv. Iaselli, che le informazioni in essi contenute potrebbero essere intercettate da terzi per essere elaborate o addirittura manipolate. Ciò esponendo le aziende a rischi non trascurabili.

Infine, sempre il coordinatore del Comitato scientifico, pone l’accento sul problema delle discriminazioni che possono nascere dall’uso di IA qualora questi strumenti vengano utilizzati per prendere decisioni che riguardano dipendenti o clienti in assenza di una adeguata supervisione umana, in violazione della normativa antidiscriminazione e dei principi etici sanciti dall’AI Act.

Per cui, prima che le preziose soft skills delle risorse umane aziendali vengano atrofizzate da sistemi sterili, si impone lo sforzo di sviluppare un nuovo pensiero critico nell’uso di strumenti di intelligenza artificiale ed evitare il totale passivo affidamento alle macchine.

La Guida - Stefania Isoardi (Pentha S.r.l.)

Altri articoli

Scopri altre novità sulla protezione dati e GDPR.

L'Antitrust bastona Poste Italiane con una sanzione da 4 milioni di euro

Clienti obbligati a consentire l’accesso ai loro dati personali per usare le app bancarie,

Controlli a distanza con una sola autorizzazione dell’ispettorato territoriale del lavoro per province diverse

Unico provvedimento in caso di più unità produttive ubicate nell’ambito di competenza della medesima sede territoriale dell’INL

Data breach: il Garante della Privacy sanziona l’Ordine degli psicologi della Lombardia

L'oridne ha subito un attacco ramsomware che ha comportato l'esfiltrazione di dati particolari di pazienti e iscritti all'Albo