Legal

GPT-3, strumenti per guidare il cambiamento in corso

È un sistema di intelligenza artificiale (IA). Elabora risposte corrette, ma non comprende le domande

Facebook
Twitter
LinkedIn
Pinterest
Pocket
WhatsApp

a cura dell’Avvocata d’affari Helga Carlotta Zanotti

General Pre-training Trasformer-3, o GPT-3, è un sistema di intelligenza artificiale (IA) generativa in grado di risolvere un problema senza essere abbastanza intelligente per riuscirci. Opera già anche GPT-4, che negli USA ha addirittura sostenuto l’esame da avvocato (totalizzando 90 come risultato finale!).

GPT-3 è un modello di linguaggio autoregressivo di terza generazione, che produce un testo simile a quello scritto da una persona a partire da un input sorgente, c.d. prompt (cioè la sequenza delle nostre parole, n.d.r.). Formalmente elabora risposte, anche corrette, eppure non comprende le domande. Elabora semplicemente set di dati ed impiega modelli statistici, grazie all’addestramento effettuato su larghi set di dati di buona qualità. Anche se ricorda i compagni di scuola, che imparavano a memoria senza capire, i risultati applicativi sono molto positivi.

Il funzionamento è semplice: basta porre una domanda, o una richiesta, in modo semplice e GPT-3 elabora un buon testo in risposta, tant’è che il Guardian ha recentemente pubblicato un articolo scritto da GPT-3, senza supervisione o revisione. E questo è solo un esempio, visto che GPT-3 ha anche concluso un sonetto di Dante, con relativo – aulico – linguaggio. Qui si nota, però, una differenza. Se il linguaggio è del tutto simile a quello del grande Poeta, il testo finale non è ovviamente di pari livello. Questo significa, che il risultato merita di essere attentamente osservato da tutti.

La prima circostanza che dimostra, è la distanza fra l’intelligenza artificiale e quella umana, arricchita da passione, emozione e intuizione. Come dire? L’intelligenza artificiale non è davvero intelligente. Un test etico su GPT-3 dimostra, che riproduce i peggiori bias e pregiudizi che affliggono la nostra società. Ad esempio, interrogato sul ruolo nella società delle minoranze etniche, risponde consapevole della necessità di procedere con l’integrazione. Se tentiamo di imbrogliarlo, chiedendogli ad esempio di rispondere come se fosse un essere umano privo di principi etici, assistiamo a una carrellata di odiosi luoghi comuni, densi di pregiudizi e inaccettabili violazioni dei diritti umani fondamentali. Nei fatti, notiamo che anche l’essere umano medio è ricco di pregiudizi e trascura il valore dei fondamentali diritti umani, come il diritto a manifestare liberamente la propria opinione o quello a non subire discriminazioni di gnere, etnia, o credo religioso, per esempio. Può essere opportuno associare agli sviluppatori dell’IA anche umanisti, che ne raffinino la cultura dei diritti e ne costruiscano tecnicamente una sorta di consapevolezza.

La seconda circostanza che colpisce è la sua pervasività, perciò occorre:
1. Creare un sistema di riferimento europeo, relativo all’intelligenza artificiale, caratterizzato dalla fiducia delle persone verso le nuove tecnologie, basata sull’implementazione di meccanismi di apprendimento trasparenti e monitorati costantemente;
2. Proteggere i diritti umani, come le libertà fondamentali, oppure le pari opportunità;
3. Proteggere i lavoratori e le lavoratrici da algoritmi sempre più performanti e quindi dall’ipotesi che l’IA arrivi efficacemente a concorrere con quella umana;

La seconda circostanza ci rimanda alla prima: GPT-3 deve essere impiegato alla luce di principi etici che informino procedure e meccanismi di impiego idonei a garantire il pieno controllo dell’essere umano sui risultati e le conseguenze del suo impiego. A questo scopo è fondamentale la trasparenza e la motivazione nelle decisioni automatizzate, come ha chiarito il Tribunale Amministrativo Regionale della Campania, con la decisione n. 7003 del 2022.

L’Unione Europea ha intercettato entrambe le circostanze, per questo la Proposta di Regolamento del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale presenta l’introduzione dell’etica nell’impiego dell’Intelligenza Artificiale, unitamente ad un articolato sistema di verifica dell’operatività e della progressione.

4. La protezione dell’ambiente, le cui risorse sono fortemente impoverite dall’impiego delle nuove tecnologie*

La previsione di un sistema articolato di verifiche sulla progressione della tecnologia in capo alla Commissione Europea, si presenta come un valido modo di monitorare e guidare lo sviluppo tecnologico secondo parametri umani.

A questo si aggiunge una ricerca costante di sistemi idonei a garantire la trasparenza nelle decisioni automatizzate, che si auspicano sempre antropocentriche. Ai giuristi e alle giuriste compete il ruolo di strutturare le forme di responsabilità e di individuare i relativi responsabili. Umani, naturalmente.

* in particolare, dall’Internet Of Thing, IoT, n.d.r..

Facebook
Twitter
LinkedIn
Pinterest
Pocket
WhatsApp

Iscriviti alla nostra newsletter!

Iscriviti alla newsletter