Un saggio si sofferma sull’intelligenza artificiale e sull’uso e abuso dell’art. 2087 c.c. come fondamento della responsabilità penale per omesso impedimento dell’infortunio sul lavoro e come indice della colpa datoriale.

È indubbio che l’ evoluzione tecnologica connessa alla diffusione e all’impiego di sistemi di intelligenza artificiale porti a diverse considerazioni e problematiche sul tema della responsabilità in caso di incidenti e infortuni.

Ne abbiamo già parlato sul nostro giornale anche in riferimento ai contenuti presenti nel numero 2/2024 della rivista “Diritto della sicurezza sul lavoro”, pubblicazione online dell’Osservatorio Olympus dell’ Università degli Studi di Urbino. Ad esempio nell’articolo “ Sull’intelligenza artificiale, i poteri datoriali e la sicurezza sul lavoro” che presentava un saggio di Stefano Cairoli (professore associato di diritto del lavoro – Università degli Studi di Perugia).

Ma sono diversi i contributi della rivista 2/2024 che affrontano il tema.

Oggi, ad esempio, ci soffermiamo sul saggio “‘Uso’ e ‘abuso’ dell’art. 2087 c.c. come fondamento della responsabilità penale per omesso impedimento dell’infortunio sul lavoro e come indice ‘vuoto’ della colpa datoriale” curato da Silvia De Blasis, assegnista di ricerca in Diritto penale all’Università degli Studi “Roma Tre”.

Il contributo – come indicato nell’abstract – “analizza l’art. 2087 c.c. come fondamento della responsabilità penale datoriale per omesso impedimento dell’infortunio sul lavoro evidenziandone le criticità rispetto al principio di legalità e al principio di colpevolezza”. L’intento dell’autrice è quello di “approfondire, in particolare, il ruolo della norma come fondamento dell’obbligo giuridico di impedire eventi lesivi e, al contempo, come indice della colpa datoriale”.

Come indicato in premessa, anche in questo caso – ed è la parte su cui ci soffermeremo – particolare attenzione è dedicata “all’impatto dell’ intelligenza artificiale (IA) sulle dinamiche organizzative e sui poteri impeditivi del datore di lavoro, nelle sue evidenti implicazioni in ordine all’accertamento del nesso eziologico e alla prevedibilità degli eventi lesivi”.

Nel saggio si pone in luce la necessità di “predisporre regole cautelari specifiche e protocolli preventivi al fine di evitare una dilatazione della responsabilità penale, specialmente nei casi di sistemi di IA autonomi”.

Nel presentare brevemente il saggio, l’articolo affronta i seguenti temi:

  • Responsabilità penale, articolo 2087 del codice civile ed evoluzione tecnologica
  • Intelligenza artificiale, condotte imprevedibili e responsabilità
  • Intelligenza artificiale, regole cautelari e protocolli operativi

Responsabilità penale, articolo 2087 del codice civile ed evoluzione tecnologica

In premessa si ricorda che tradizionalmente l’ art. 2087 c.c., “prima dell’avvento di una organica disciplina della sicurezza sul lavoro, è stato usato dalla giurisprudenza penale a tutela dell’incolumità dei lavoratori, sia come fondamento dell’obbligo giuridico di impedire l’evento ai sensi dell’art. 40 cpv. c.p. sia come indice della colpa, per lo più specifica, del datore di lavoro, a dispetto della sua genericità e indeterminatezza in quanto costruito come norma di principio o di risultato senza indicazione di specifici contenuti precettivi”. L’articolo c.c. è così venuto ad assumere “un ruolo promozionale, non già sul piano della costruzione dell’omissione del datore di lavoro, bensì su quello della definizione della colpa”.

La conseguente estensione – continua il breve saggio – della responsabilità penale del datore di lavoro, “come si è registrato nella legislazione anticovid19 con particolare riferimento al rapporto tra l’obbligo di tutela della salute dei lavoratori e i protocolli di sicurezza per i luoghi di lavoro”, ripropone “l’esigenza di una riflessione sull’effettiva conformità del c.d. diritto vivente al principio costituzionale di personalità della responsabilità penale”.

L’analisi sottolinea poi che alcune problematiche, messe in luce dall’autrice, rischiano poi di aggravarsi “con l’uso dell’ intelligenza artificiale, specie per i sistemi c.d. di ultima generazione in quanto dotati di un certo grado di autonomia dall’uomo, che rischia di rendere ancora più oscura la titolarità della posizione di garanzia e di mettere in crisi il modello tradizionale d’imputazione della responsabilità per colpa”.

Si vuole comprendere se e come “l’introduzione di sistemi di intelligenza artificiale nell’organizzazione produttiva possa incidere sulla responsabilità del datore di lavoro sia dal punto di vista oggettivo che soggettivo dell’imputazione e se è possibile pensare ad un antidoto all’estensione della stessa”.

Intelligenza artificiale, condotte imprevedibili e responsabilità

L’autrice si sofferma sulla “necessità di imporre limiti alla colpa del datore di lavoro in presenza di condotte imprevedibili dell’agente intelligente”.

Infatti, nell’ipotesi di un sistema di intelligenza artificiale (IA) che modifica il percorso decisionale previsto in fase di programmazione “non si può non tenere conto dell’imprevedibilità della sua condotta e, conseguentemente, dell’impossibilità per l’uomo di intervenire”. E se non è immaginabile una responsabilità diretta della macchina, “a meno di non voler tradire i principi cardine del diritto penale”, occorre, dunque, domandarsi “se vi sia spazio e in quali limiti per una responsabilità del programmatore e/o dell’utilizzatore”.

Per quanto concerne la figura del programmatore – “a meno di voler aderire all’orientamento ampio secondo cui il giudizio di prevedibilità non concerne l’evento hic et nunc verificatosi, ma la generica classe di eventi cui appartiene quello realizzato” – si può concludere per “l’esclusione della sua responsabilità colposa data l’imprevedibilità che caratterizza i sistemi autonomi di intelligenza artificiale. Sotto tale aspetto, poi, potrebbe ipotizzarsi un’area di rischio consentito, residuando, pertanto, solo una responsabilità dolosa, eventualmente anche a titolo di dolo eventuale”.

Ma si pone un problema “anche per un’eventuale imputazione del fatto per colpa in capo al datore di lavoro quale utilizzatore della macchina se la condotta di quest’ultima fuoriesce dal perimetro di quelle preventivamente immaginabili”.

Si indica che il rischio è duplice:

  • “da un lato, infatti, potrebbe muoversi un rimprovero all’utilizzatore pur in mancanza di qualsivoglia profilo soggettivo di responsabilità solo in ragione della prossimità rispetto al fatto;
  • dall’altra, all’opposto, si potrebbe ritenere responsabile l’utilizzatore solo in ipotesi di colpa cosciente o dolo eventuale”.

E comunque in presenza di macchine totalmente autonome, “ove si volesse comunque perseguire l’utilizzatore, diventa complesso rispettare il divieto di responsabilità oggettiva tenuto conto che la tecnologia ha uno sviluppo tale da escludere la possibilità di intervento dell’uomo e, ancora prima, la prevedibilità di eventi infausti”. Ed, infatti, «più la macchina è capace di fare da sé, più il controllo umano si riduce ad impedire una prospettiva, sempre più improbabile e remota, di malfunzionamento» (Cappellini, Reati colposi e tecnologie dell’intelligenza artificiale), ma “questo è diverso dall’impedire un evento imprevedibile”.

Una possibile soluzione – continua il saggio – potrebbe essere quella di “adottare regole precauzionali scritte con le quali si impongono standard comportamentali che, ove correttamente adottati, sono idonei ad escludere la colpa”. E questa sembrerebbe la strada

percorsa con l’adozione del Regolamento Europeo sull’Intelligenza artificiale (AI Act). E le regole di condotta contenute nel Regolamento europeo “potrebbero già essere considerate protocolli di riferimento eventualmente da implementare” – con le peculiarità degli settori e, in questo caso, luoghi di lavoro – permettendo di escludere, “nell’area del c.d. rischio consentito, la responsabilità penale del programmatore, del produttore e dell’utilizzatore per eventi a questi imprevedibili e inevitabili residuando, dunque, solo un margine di responsabilità penale per la violazione delle regole di condotta impartite nei protocolli”.

Intelligenza artificiale, regole cautelari e protocolli operativi

Veniamo ad alcune considerazioni conclusive del saggio.

Si ribadisce che l’interferenza dei sistemi di intelligenza artificiale nell’organizzazione lavorativa pone “molteplici questioni problematiche per il diritto penale che possono essere risolte solo forzando le categorie classiche di imputazione oggettiva e soggettiva”.

Abbiamo visto come in un settore come quello in esame “il ricorso alle regole elastiche della colpa generica rischierebbe di allargare potenzialmente ad infinitum lo spazio della responsabilità penale e potrebbe, pertanto, essere auspicabile la codificazione di regole cautelari di portata predittiva al fine di predeterminare il corretto comportamento dell’uomo a contatto con i sistemi di IA”.

Se allo stato attuale “il terreno del nesso eziologico e quello della misura soggettiva della colpa non presentano anticorpi adeguati a scongiurare una deriva penalistica” sui sistemi di intelligenza artificiale, si può arrivare ad individuare una soglia “al di sopra della quale non possiamo ammettere macchine più pericolose dell’uomo e che sfuggono al controllo di quest’ultimo. In altri termini, alle macchine intelligenti non possiamo consentire una soglia di rischio più elevata di quella consentita all’uomo per lo svolgimento della medesima attività”.

Se l’elevata incertezza scientifica rende difficile definire i rischi accettabili, non ci si può affidare solo a norme generiche che si delineano “a posteriori”.

Insomma, come abbiamo visto, si può arrivare ad un risk-based approach che è anche la strada eletta nell’AI Act.

In questo modo, “in assenza di dati che consentano di dire con certezza in che modo e se l’evento lesivo realizzatosi dipenda da un difetto di costruzione/programmazione della macchina, detta impostazione permette di risolvere ‘a monte’ il problema dell’individuazione del rischio consentito e, nei confini di questo rischio, dovrebbero individuarsi regole cautelari precauzionali idonee, da un lato, a far assumere un determinato comportamento da parte di chi viene a contatto con l’IA e, dall’altra, a rendere maggiormente determinata la responsabilità colposa”.

In definitiva la previsione di regole cautelari che contengano protocolli operativi chiari per le fasi di operatività delle macchine e dei sistemi basati sull’intelligenza artificiale, “consentirebbe da un lato di delimitare l’ambito della responsabilità colposa e, dall’altro, di definire i soggetti garanti onde evitare l’individuazione postuma di ‘capri espiatori’”.

Rimandiamo alla lettura integrale del saggio che riporta altre interessanti riflessioni e che nell’analisi dell’articolo 2087 c.c. e dei sistemi IA si sofferma anche sui seguenti argomenti:

  • l’art. 2087 c.c. come fondamento dell’obbligo giuridico di impedire l’evento: una clausola generale in tensione col principio di personalità della responsabilità penale;
  • la posizione di garanzia datoriale e sistemi di intelligenza artificiale. Machine learning e poteri impeditivi;
  • l’art. 2087 c.c. come indice della responsabilità colposa del datore di lavoro: tensioni col principio di colpevolezza.

Scarica il documento da cui è tratto l’articolo:

Università di Urbino Carlo Bo, Osservatorio Olympus, Diritto della sicurezza sul lavoro, “‘Uso’ e ‘abuso’ dell’art. 2087 c.c. come fondamento della responsabilità penale per omesso impedimento dell’infortunio sul lavoro e come indice ‘vuoto’ della colpa datoriale”, a cura di Silvia De Blasis (assegnista di ricerca in Diritto penale all’Università degli Studi “Roma Tre”), Diritto della Sicurezza sul Lavoro (DSL) n. 2/2024.

Fonti: Puntosicuro.it, Uniurb.it