News

08/03/2023

General Pre-trained Trasformer 3: Implementazione controllata

di Helga Zanotti

Generative Pre-trained Trasformer 3 (GPT-3, per brevità), un sistema di intelligenza artificiale in grado di generare output come contenuti, previsioni, raccomandazioni o decisioni idonee a influenzare gli ambienti con cui interagisce, presenta rischi per l’essere umano che l’Europa non sembra disposta a correre senza un percorso preciso e costantemente monitorato di verifiche e controlli.

Esaminiamo la storia delle norme sull’intelligenza artificiale in Europa, il focus sui rischi che GPT-3 presenta e concludiamo sui principi che può essere fondamentale recepire, al fine di impiegare questa forma di intelligenza artificiale generativa all’interno delle nostre aziende riducendone i rischi.

L’Unione Europea ha mantenuto lungamente una posizione di sostanziale neutralità sul tema dell’intelligenza artificiale, focalizzandosi sullo studio delle ipotesi di rischio, ma limitandosi all’emissione di norme di soft-law, come la Raccomandazione del Consiglio Europeo adottata il 14 maggio 2019. L’emanazione della Proposta di regolamento del Parlamento e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (Artificial intelligence act) e modifica alcuni atti legislativi dell’Unione, del 6 gennaio 2021, rappresenta un cambio di passo. Interviene in modo cogente sul funzionamento del mercato interno, mediante un quadro giuridico uniforme relativo allo sviluppo, alla commercializzazione e all’uso dell’intelligenza artificiale nel rispetto dei valori dell’Unione Europa. Il focus della norma è l’interesse pubblico, per esempio mediante la protezione della salute dei cittadini europei, della loro sicurezza e dei loro diritti fondamentali. Questo rappresenta il primo -potenziale- ostacolo all’implementazione di uno strumento di intelligenza artificiale generativa come GPT-3, che appartiene alla famiglia di tecnologie riunite sotto la denominazione di Intelligenza Artificiale, mirando a rendere più intuitivi i sistemi di interazione con gli esseri umani.

Dal White Paper sull’Intelligenza Artificiale, pubblicato dalla Commissione Europea nel 2020, si percepisce chiaramente la volontà dell’Unione Europea di impiegare l’Intelligenza Artificiale per cambiare passo. La proposta di regolamento, in corso di esame dal 2021, punta l’attenzione sul rischio per i diritti fondamentali, secondo tre gradazioni: 1. rischio totale; 2. rischio da totale ad alto; 3. rischio alto. Il focus sul rischio rappresenta la cifra distintiva dei regolamenti emanati in seno all’Unione Europea digitale. Per questo motivo, rappresenta anche il primo elemento da studiare relativamente all’implementazione di GPT-3.

In particolare, questo software esprime giudizi e valutazioni di carattere morale sulle richieste formulate dall’utente, come l’impiego di stupefacenti sotto controllo medico nella terapia del dolore, illecita in taluni Stati e legittima in altri. La ricerca sugli stupefacenti per uso clinico, formulata sul motore di ricerca Bing (1), in uno Stato che qualifica illecito l’impiego di stupefacenti per pazienti affetti da una patologia tumorale all’ultimo stadio, comporta l’uso di GPT-3 per limitare o interrompere la ricerca dell’utente. Non è un essere umano, ma GPT-3 ad effettuare la selezione, ossia a valutare se sia legittimo ciò che intende conoscere l’utente, restringendone la libertà secondo norme e principi che possono essere affetti da bias ad esempio, o più in generale, che non è in condizione di rivedere attraverso il confronto con l’essere umano. Inoltre, GPT-3 può essere oggetto di abuso, aggirandone i limiti (2). GPT-3 presenta capacità di auto-apprendimento, perciò rientra fra le tecnologie ad alto rischio, che la proposta di regolamento subordina al costante controllo umano anche in relazione alla violazione dei principi etici che informano il testo.

La lettura delle Ethics Guide lines of trustworthy AI europee lascia presagire la necessità di introdurre norme cogenti idonee a governare l’autonomia gestionale dei sistemi di Intelligenza Artificiale, che hanno il potere di modificare la loro condotta in base alle condizioni in cui operano (3). Sebbene in assenza del c.d. stress morale che compete all’essere umano, cioè della percezione del disvalore di una condotta, l’intelligenza artificiale può comunque essere istruita sulla base di principi fondamentali, come la scelta del c.d. male minore. A questo scopo, diventa fondamentale monitorare la purezza dei dati, ossia delle fonti, sulle quali GPT-3 è allenato. Ad oggi, GPT-3 attinge ai dati resi disponibili dal motore di ricerca Google e dai testi dottrinali, che qui rinviene.

La nuova generazione di regolamenti comunitari di cui entra a far parte anche il regolamento in tema di intelligenza artificiale non appena emanato, è caratterizzata dalla previsione di test, procedure e verifiche, che permettano di controllare il rispetto delle norme in modo estremamente operativo. Alla luce di questo, l’etica per le nuove tecnologie può essere utile in chiave pratica, come strumento per garantire:

- l’esatto impiego degli algoritmi nei confronti degli stakeholders;

- la trasparenza dei processi relativi ai sistemi di intelligenza artificiale e privacy by design;

- la trasparenza dei processi decisionali relativi ai sistemi di intelligenza artificiale ed alla .

L’implementazione di GPT-3 comporta l’urgenza di integrare i valori e gli obiettivi aziendali con:

- il rispetto dei diritti umani, ad esempio dei propri clienti/consumatori;

- la salvaguardia del benessere emotivo e professionale dei lavoratori in funzione dello sviluppo e dell’impiego di algoritmi sempre più performanti anche per mansioni complesse;

- la tutela dell’ambiente e l’impiego adeguato della tecnologia, per ridurre l’uso di risorse;

- la costruzione del c.d. trust nei confronti dell’intelligenza artificiale nelle operazioni di scelta e nell’apprendimento di know-how specifici per motivare le risposte fornite agli utenti;

- il ricorso a criteri intelligibili nell’elaborazione degli output.

Il Parlamento Europeo aveva già approvato un’iniziativa in data 20.10.2020, focalizzandosi sul valore dei principi etici e della responsabilità per danni causati dall’IA4, contenente un focus sui principi legali, che occorre rispettare nello sviluppo, nell’implementazione e nell’utilizzo della stessa e delle tecnologie correlate, ivi inclusi i software come GPT-3.

In conclusione, occorre verificare che GPT-3 osservi:

1. linee guida dettagliate per il controllo dei dati di input;

2. sicurezza (5) e trasparenza;

3. garanzie -monitorate costantemente – contro distorsioni e discriminazioni;

4. responsabilità sociale.

Le verifiche indicate rappresentano lo strumento necessario per raggiungere un’implementazione controllata ed efficace di GPT-3.


*Si ringrazia l’Ing. Giovanni Mandelli per i dati tecnici relativi all’operatività del software GPT-3

1 Bing è il primo motore di ricerca ad aver dichiarato di impiegare GPT-3 nell’ambito delle ricerche effettuate da parte degli utenti, n.d.r..

2 Sul punto, Matteo Flora, https://youtube.be/EKT5-OH2Ns4.

3 L’Algorithmic Accountability Act americano porta a conclusioni del tutto analoghe, n.d.r.

4 Più propriamente si ritiene corretta l’espressione “dall’essere umano attraverso l’intelligenza artificiale”, n.d.r..

5 oggetto di controllo con cadenza sistematica da parte della Commissione UE, ma manca l’indicazione dei requisiti valutati per calcolare i tempi di controllo

Informazione di contatto

Helga Zanotti
h.zanotti@bmvinternational.com




Per restare aggiornato su notizie, pubblicazioni e iniziative di BMV iscriviti alla nostra newsletter