Business Legal

Intelligenza artificiale e privacy: un rapporto che può funzionare

Obblighi delle imprese su come usare l’AI in merito al trattamento dei dati
Ecco che cosa dice il Garante tedesco

Facebook
Twitter
LinkedIn
Pinterest
Pocket
WhatsApp

L’intelligenza artificiale (IA) è presente nelle nostre imprese, nelle nostre case e nei nostri smartphone: è il caso di dire che la stiamo usando, prima di conoscerne le regole di funzionamento. Qualcuno potrebbe addirittura dubitare che esistano, o temere che quelle esistenti siano troppo generali per essere facilmente applicabili.

Facciamo chiarezza.

Approvazione del Regolamento Europeo AI Act

Il Consiglio Europeo ha definitivamente approvato il Regolamento Europeo, noto come AI Act. Dopo la pubblicazione in Gazzetta Ufficiale, passeranno sei mesi entro i quali le imprese che impiegano sistemi di intelligenza artificiale ad alto rischio dovranno intervenire per mitigarli o interromperne la vendita e quindi l’uso. Trascorsi 24 mesi, l’esame del rischio relativo ai sistemi di intelligenza artificiale impiegati competerà a tutti.

Conformità e Monitoraggio

Le imprese dovranno valutare e monitorare l’impiego dell’intelligenza artificiale nel rispetto delle norme sul trattamento dei dati (privacy), ad esempio nel caso di utilizzo di Large Language Model (LLM), su cui si basano i chatbot che incontriamo quando apriamo la casella di posta elettronica su Namirial o per alcuni servizi erogati da Poste Italiane.

Protezione dei Dati e Normative

Le singole autorità deputate alla protezione dei dati delle persone, come il Garante della Privacy in Italia, stanno lavorando alacremente per un uso sicuro e responsabile dell’intelligenza artificiale. Questo dipende dalla presenza di principi fondamentali nel GDPR che rischiano di perdere il ruolo preminente in favore dello sviluppo tecnologico. Conoscerli è il primo passo per portare alla coesistenza dei principi sulla privacy e di quelli sull’intelligenza artificiale.

Diritto e IA: Un Equilibrio Necessario

Innanzitutto, esiste il diritto dell’interessato a non subire una decisione basata unicamente su un trattamento automatizzato, inclusa la profilazione, che possa avere effetti importanti sia a livello giuridico che nella sua vita. Il primo esempio al quale penso sono le diagnosi cliniche e il fatto che l’art. 22 del GDPR ne vieti la produzione esclusiva a un sistema di intelligenza artificiale. Se i sistemi di intelligenza artificiale in ambito medico possono diventare supporti insopprimibili, è anche vero che la decisione e la direzione dell’intervento competono solo ed esclusivamente al personale medico.

Il Ruolo dei Garanti dei Dati

L’intelligenza artificiale elabora dati, opera anche su quelli di natura personale, perciò i singoli Garanti dei Paesi europei avranno un ruolo importante nel suo addestramento e sviluppo. Ci auguriamo che si arrivi a nominare un’autorità espressamente competente in ambito intelligenza artificiale e nuove tecnologie, caratterizzata da un panel di esperti multidisciplinare che sappia puntare lo sguardo sui diversi temi che la riguardano, come l’impiego dei dati personali per lo sviluppo di nuove tecniche medico sanitarie.

Libertà e Regolamentazione: L’AI Act

L’AI Act prevede la possibilità di lasciare massima libertà all’uso dell’intelligenza artificiale qualora impiegata per sviluppare nuove cure e medicinali. Basti pensare agli esoscheletri che supportano le articolazioni degli operai nei lavori usuranti, oppure le persone con ridotta capacità motoria nei loro spostamenti. In questo contesto, il Garante per la privacy tedesco ha ritenuto utile elencare scopi e ambiti applicativi in modo da evitare abusi.

Linee Guida e Principi Fondamentali

In particolare, le Linee Guida tedesche prevedono l’individuazione delle basi giuridiche per il trattamento dei dati tramite sistemi di intelligenza artificiale. Alcuni elementi fondamentali delle Linee Guida includono:

  • La base giuridica del trattamento dei dati effettuato con sistemi di IA.
  • Il caso in cui le decisioni finali siano automatizzate mediante sistemi di IA, che l’AI Act sembra escludere.
  • La centralità della trasparenza nel procedimento che attiene all’IA, a partire dal suo machine learning, ovvero l’addestramento ad effettuare analisi dati o fornire soluzioni.
  • La formazione dei dipendenti, che dovrebbero essere adeguatamente istruiti e supportati nel trattamento dati effettuato attraverso l’IA.

Conclusione

Questi sono i primi aspetti ai quali dovrebbero prestare attenzione le imprese che usano l’IA al proprio interno, per proteggere i loro clienti, i loro shareholders e la loro digital reputation.

Facebook
Twitter
LinkedIn
Pinterest
Pocket
WhatsApp

Iscriviti alla nostra newsletter!

Iscriviti alla newsletter