Le informazioni afferenti ad applicativi di intelligenza artificiale, hanno dimostrato come ci si trovi davanti a un tema, che può presentare risvolti estremamente pericolosi. Ecco perché l’UE si sta attivando per pubblicare uno specifico regolamento.
I lettori sanno che l’unione europea può dare indicazioni alle nazioni partecipanti, sia pubblicando una direttiva, sia pubblicando un regolamento. Il regolamento è assai più vincolante e non ha bisogno di essere recepito nelle singole nazioni con leggi, ma solo con decreti legislativi. Negli ultimi tempi il ricorso ai regolamenti è cresciuto, anche perché così diminuisce il margine di discrezionalità dei vari paesi nel recepire una direttiva con una legge. Il regolamento europeo sulla protezione dati personali rappresenta proprio una conseguenza del fatto che la precedente direttiva era stata recepita in modi assai diversificati, facendo venir meno quel coordinamento fra i vari paesi, che rappresenta uno dei pregi della legislazione europea.
Giova tra l’altro rammentare come questo problema non si pone solo in Italia, ma anche in altri paesi, che cominciano non più ad apprezzare, bensì a temere applicativi di intelligenza artificiale utilizzati in maniera non appropriata.
L’Europa ha pubblicato un primo regolamento nell’aprile del 2021, e successivamente lo ha emendato, dopo i numerosi contributi ricevuti da tutti soggetti coinvolti; questa nuova versione:
ha buone probabilità di essere a breve approvata, anche nell’ambito delle infrastrutture digitali critiche, che possono essere particolarmente esposte a rischi legati ad applicativi di intelligenza artificiale non sufficientemente garantistici.
Per aiutare nella attuazione di questo futuro regolamento, sono già attivi i tre principali enti europei:
CEN-comitato normativo europeo,
CENELEC- comitato normativo europeo per il settore elettrico ed elettronico,
ETSI- European Telecommunication Standard institute.
La disponibilità di norme di settore aiuterà i fabbricanti nel dimostrare la conformità con i requisiti essenziali del regolamento europeo, accelerando lo sviluppo di nuovi prodotti e riducendo l’impegno degli organi di tutela, nell’effettuare verifiche specifiche. La disponibilità di norme europee inoltre facilita la presentazione di prodotti, sviluppati in Europa, in altri paesi del mondo, anch’essi assai preoccupati per questo stesso argomento.
Ad esempio, nell’ottobre 2022 la Casa Bianca ha pubblicato un documento legislativo afferente proprio all’utilizzo di applicativi di intelligenza artificiale. I lettori interessati a questo testo possono trovarlo qui:
Blueprint for an ai bill of rights making automated systems work for the american people (pdf)
In parallelo, anche il NIST- national institute for standard and technology ha cominciato a lavorare su una bozza di norma, che i lettori possono trovare al link:
https://www.nist.gov/itl/ai-risk-management-framework
All’altro capo del mondo, anche i giapponesi hanno pubblicato un documento, che offre una guida pratica agli utilizzatori di sistemi di intelligenza artificiale, nonché agli sviluppatori di questi applicativi. Anche questo documento è disponibile al link:
AI Governance in Japan Ver. 1.1 – Report from the expert group on how ai principles should be implemented (pdf)
Tutti gli enti normativi interessati stanno cercando di stabilire un collegamento, per cooperare nella emissione di norme, che possano avere un valore universale, rispetto alla emissione di norme con valore locale, anche solo in Europa o degli Stati Uniti.
Obiettivi comuni di questi interventi normativi riguardano evidentemente la trasparenza, la completa e corretta informazione agli utenti e la garanzia che qualsiasi applicativo di intelligenza artificiale sia sempre sottoposto a sorveglianza umana. Per quanto riguarda i campi di applicazione dell’intelligenza artificiale questi sono i tre campi già individuati:
- garantire il rispetto dei diritti fondamentali delle persone,
- garantire la salute delle persone,
- garantire la sicurezza delle persone.
Altri aspetti che le norme prendono in considerazione riguardano le responsabilità legali per la violazione di norme, nonché la indicazione di settori, in cui gli applicativi di intelligenza artificiale non dovrebbero essere usati.
Ad esempio, non dovrebbe essere consentito alle compagnie di assicurazione di stabilire il livello di rischio di una specifica polizza, applicabile ad una persona fisica, basando tale livello di rischio sull’analisi del comportamento degli utenti. Alcuni applicativi oggi permettono di abbassare il premio se l’assicurato ha smesso di fumare, o aumentarlo se sta continuando a fumare. Se poi l’applicativo tiene sotto controllo una fanciulla di 15 anni, che ha cominciato a frequentare un amico, l’applicativo può dare indicazioni di aumentare il premio a fronte di una possibile gravidanza di questa giovane!
Sono esempi estremi, ma in realtà sono casi concreti che possono verificarsi, se non vengono introdotti sistemi garantistici di utilizzo degli applicativi di intelligenza artificiale.
Ad esempio, nelle autovetture autonome di più recente costruzione sono già inseriti applicativi che tengono sotto controllo il livello di attenzione del guidatore, ad esempio illuminando con una radiazione infrarossa la pupilla e verificando se il guidatore sbatte gli occhi troppo spesso o addirittura chiude le palpebre, dimostrando che sta per addormentarsi. In questo caso l’applicativo di intelligenza artificiale lancia un allarme e, in casi estremi, può subentrare al guidatore, assumendo il controllo del veicolo.
Sono temi di una delicatezza estrema, nei quali può essere difficile stabilire un compromesso fra il diritto alla libertà di espressione e movimento di un soggetto e il diritto della società civile di non essere coinvolta in comportamenti anomali.
In chiusura di questa notizia, offriamo una sintetica illustrazione dei punti chiave del nuovo regolamento europeo, con i relativi articoli:
- articolo 9-adozione di sistemi di gestione del rischio, che diano adeguate garanzie di efficienza ed efficacia,
- articolo 10-acquisizione e trattamento dei dati che deve comportare la proibizione di utilizzare algoritmi discriminatori e garantire un’elevata protezione dei dati acquisiti,
- articolo 13-fornitura all’utente di informazioni complete e trasparenti sui dati acquisiti e sul loro utilizzo, nonché sulla durata di conservazione,
- articolo 14- introduzione di criteri di sorveglianza umana sugli applicativi, per consentire interventi correttivi, in caso di interpretazioni erronee o punitive da parte degli applicativi di intelligenza artificiale.
Fonti: Puntosicuro.it