Dibattito al Kilometro Rosso sull’europeo “AI ACT”

Intelligenza artificiale e robot aprono scenari etici dirompenti

Se l’auto a guida automatica va a sbattere, chi paga?
E chi vorrebbe essere processato da un giudice digitale?

Facebook
Twitter
LinkedIn
Pinterest
Pocket
WhatsApp

L’unione della robotica con l’intelligenza artificiale (in inglese AI, artificial intelligence) sta aprendo campi inesplorati, le cui conseguenze di carattere etico, economico, politico e sociale potrebbero essere dirompenti.

Di questo si è parlato al Kilometro Rosso di Bergamo con Andrea Bertolini – avvocato e professore della Scuola superiore Sant’Anna, università che ha vinto numerosi premi nel campo della robotica – , ma anche esperto della materia e tecnico più volte ascoltato a Bruxelles. L’Ue infatti vuole regolare l’intelligenza artificiale e con l’“AI ACT” ha presentato una prima proposta organica nel 2021, dopo averci lavorato per due anni, spinta anche «dall’Economist che aveva in copertina, su questo tema, le bandiere della Cina e del Brasile, ma non quella europea» ha precisato il professor Bertolini. Nelle scorse settimane, la Commissione europea ha presentato due direttive di responsabilità civile e del produttore applicabili alle tecnologie avanzate, dall’AI alla robotica, fino alle piattaforme.

E nel 2023 l’“AI ACT” dovrebbe essere approvato e, dopo altri due anni, dovrebbe entrare in vigore (il condizionale è d’obbligo ndr). A questo Regolamento di 80 pagine hanno lavorato 52 esperti di vari Paesi europei che ne hanno elaborato i principi costruendo una ckeck list a cui tutti si dovranno conformare. In questo momento siamo nel bel mezzo della discussione a livello europeo. «Se noi europei non possiamo battere Google e Amazon, è stato il ragionamento a Bruxelles, siamo però bravi a regolare, e quindi fissiamo le regole che sappiano permettere una buona innovazione e a cui tutti coloro che vogliono lavorare con l’Europa dovranno sottostare» ha spiegato Bertolini. Il dado è tratto, insomma.

Il nodo della questione sta qui: tutti sono d’accordo che la materia AI venga regolata per mitigare i rischi insiti nello sviluppo di questa tecnologia e, quindi, per evitare danni e storture come vedremo; paletti sì, senza però mettere il bavaglio e la camicia di forza all’applicazione e ai vantaggi dell’intelligenza artificiale che coinvolgono non solo le aziende che operano in uno spazio esclusivamente digitale, ma anche le realtà produttive e manifatturiere che dai propri asset immateriali traggono inequivocabili vantaggi competitivi.

E proprio perché imprenditori, manager, policymaker, ingegneri e avvocati non arrivino impreparati a questi appuntamenti, Kilometro Rosso ha proposto RegulAIte, un progetto gestito da un consorzio di scuole di vari Paesi (KmRosso appunto, i portoghesi di Epralima, gli irlandesi di University College Cork (UCC), i tedeschi dell’istituto Fraunhofer) per saperne di più, per esempio, sulla responsabilità civile dell’intelligenza artificiale, sulle certificazioni dei prodotti AI da portare sul mercato, sui dati di accesso e sulla circolazione dei dati, su etica, safety, privacy e proprietà intellettuale.

Un regolamento complesso quello della Ue che mette insieme lo spazzolino da denti elettrico e le Fintech (le banche digitali). Ma è proprio sulla responsabilità civile di chi inventa e utilizza i software dell’AI che si sono scatenati dibattiti e polemiche. Vediamo alcuni esempi, e per spiegare le varie implicazioni partiamo dal Codice della Strada che viaggia su due piani: ex ante l’incidente avvertendo l’automobilista che deve comportarsi da guidatore prudente non viaggiando nei centri storici a 100 all’ora; ex post l’incidente, definendo chi deve pagare i danni e a quali provvedimenti va incontro. Così, un domani, chi risarcirà i danni provocati dalle auto a guida autonoma? Lo stesso vale per la radiologia diagnostica per immagini. Per ovviare alla mancanza di medici e velocizzare le operazioni in periodi di pandemia come il Covid, c’è già l’algoritmo che scarta tutte le radiografie al torace con esito negativo e che sottopone al radiologo solo quelle positive e rivelanti. Ma se l’algoritmo dovesse sbagliare? Chi incolpare: il software o il medico? Il quale per evitare guai, non accetterebbe mai questo algoritmo di intelligenza artificiale bloccandone così il suo importante sviluppo.

E’ anche il caso del robot collaborativo che lavora a contatto con l’operatore e che è stato modificato a seconda delle esigenze dell’azienda che l’ha acquistato: se il lavoratore dovesse rimanere ferito per un errore del robot, chi incolpare? Il produttore o la società che l’ha modificato o l’imprenditore? Anche in questa situazione, la paura dei risarcimenti potrebbe frenare lo sviluppo del software.

E ancora: ammettiamo che in una fabbrica del seme, il software accetti solo donatori che hanno le maggiori probabilità di contribuire a far nascere bambini sani eliminando tutti gli altri. E’ considerato un bene per la medicina, ma eticamente? Chi mi dice che sia stata così annullata la possibilità di far nascere un bambino che avrà, forse, qualche problema di salute, ma sarà un nuovo Beethoven?

E non è finita: negli ultimi 10 anni, robot e sistemi autonomi sono entrati nelle le case. Sono gli home system come è il caso di Alexa, l’assistente vocale di Amazon, l’intelligenza che alimenta altri dispositivi. «Potrebbe indurre le persone fragili a un attaccamento emotivo che, a sua volta, potrebbe essere sfruttato per fini commerciali?» avverte il professore del Sant’Anna. C’è anche il famoso mister Watson al quale si possono dare da leggere tutte le riviste mediche e lui ti consiglia quale pastiglia prendere per guarire. E se sbaglia? Così per i testi di legge. Ma chi si fida di essere giudicato da un giudice digitale?

La questione, insomma, è più complessa di quanto sembri: i sistemi di intelligenza artificiale, infatti, presentano aspetti di opacità, prevedibilità e autonomia “decisionale” tali da rendere difficoltosa l’individuazione di una colpa/negligenza “originale” in capo al produttore (ad esempio un errore di programmazione). Inoltre, può risultare tecnicamente molto difficile dimostrare l’esistenza di una connessione diretta tra tale colpa e le concrete modalità in cui il danno è stato causato dal sistema di intelligenza artificiale. Non va poi tralasciata la capacità dei sistemi di intelligenza artificiale di apprendere ed evolvere autonomamente adeguandosi alle informazioni acquisite nel tempo, è questa caratteristica che rende ancora più arduo identificare il difetto che nel tempo ha portato al risultato finale.

In tal senso, la proposta di Direttiva sulla responsabilità civile si propone di intervenire su due fronti: da un lato, alleggerendo da un punto di vista processuale l’onere della prova per il soggetto danneggiato e dall’altro, introducendo in presenza di determinate condizioni, una presunzione di colpevolezza del produttore.

Facebook
Twitter
LinkedIn
Pinterest
Pocket
WhatsApp

Iscriviti alla nostra newsletter!

Iscriviti alla newsletter