top of page
Logo Keiron.png

Intelligenza artificiale e responsabilità penale: chi risponde quando l’algoritmo sbaglia?

a cura di Noemi Gallo

immagine sito.png

L’intelligenza artificiale non è più una suggestione fantascientifica, ma una presenza quotidiana: dalle auto a guida autonoma ai sistemi di supporto diagnostico, dalle chatbot generative ai software di trading algoritmico. Come sottolinea la più recente dottrina penalistica, siamo di fronte a una tecnologia “imprevedibile by design”, capace di apprendere dall’esperienza e di produrre output non interamente predeterminabili dai suoi programmatori. 

 

Ma cosa accade quando un sistema di intelligenza artificiale realizza un fatto penalmente rilevante? Chi risponde per l’evento lesivo? Si pensi ad un'auto a guida autonoma che investe un pedone, ad un software medico che sbaglia una diagnosi con conseguenze fatali, o ad un algoritmo di trading che manipola i mercati finanziari. In tutti questi casi, c'è stata una condotta lesiva, ma dov'è il colpevole?

 

Il falso mito della “macchina colpevole”

Una prima soluzione, talvolta evocata nel dibattito dottrinale, è quella di riconoscere una forma di responsabilità penale diretta dell’intelligenza artificiale. L’idea della “personalità elettronica” o della macchina come nuovo soggetto di diritto nasce dal tentativo di colmare quello che in letteratura viene definito responsibility gap: il vuoto di responsabilità che si aprirebbe quando nessun essere umano sembra avere il controllo effettivo dell’evento lesivo. Tuttavia, come emerge con chiarezza dalla riflessione penalistica più attenta, questa soluzione si scontra frontalmente con i principi costituzionali che reggono il nostro sistema. 

 

Il brocardo machina delinquere non potest, evocato anche in dottrina, non è una semplice formula retorica: esso esprime l’idea che la responsabilità penale presupponga un soggetto capace di coscienza e volontà, di autodeterminazione, di comprensione del disvalore della propria condotta.

 

L’art. 27 Cost. fonda la responsabilità penale sul principio di personalità e sulla colpevolezza. Una macchina, per quanto sofisticata, non è titolare di libertà morale, né può essere rieducata. Attribuirle una responsabilità penale significherebbe svuotare di contenuto la nozione stessa di pena. In questa prospettiva, la strada della responsabilità diretta dell’IA appare più simbolica che realmente praticabile.

 

Il cuore del problema: controllo e prevedibilità

Se la macchina non può essere il soggetto attivo del reato, occorre allora interrogarsi sulla responsabilità delle persone fisiche che ruotano attorno al sistema: programmatori, produttori, utilizzatori, supervisori.

 

Il punto nevralgico, come evidenziato dalla dottrina, è il problema del controllo. I sistemi di machine learning non si limitano a eseguire istruzioni rigidamente predeterminate: apprendono da grandi moli di dati e possono generare decisioni non interamente spiegabili (c.d. black box). Ciò pone interrogativi cruciali in tema di causalità e colpa.

 

Nel diritto penale classico, la rimproverabilità si fonda sulla prevedibilità ed evitabilità dell’evento. Ma può considerarsi prevedibile l’imprevedibilità algoritmica? Se un’auto a guida autonoma investe un pedone a causa di una scelta “autonoma” del sistema, possiamo affermare che il produttore o il supervisore avessero la concreta possibilità di prevedere e prevenire quell’evento?

 

Il rischio, se non si maneggiano con cautela le categorie penalistiche, è duplice: da un lato, creare zone franche di irresponsabilità; dall’altro, scivolare verso forme surrettizie di responsabilità oggettiva, vietate dal nostro ordinamento.

 

La responsabilità colposa del produttore

Uno dei terreni più delicati è quello della responsabilità colposa del produttore di sistemi di IA. 

Il produttore può essere chiamato a rispondere, ad esempio, per omicidio colposo o lesioni colpose qualora un prodotto “intelligente” difettoso cagioni un evento lesivo. Tuttavia, l’accertamento della colpa richiede l’individuazione di una regola cautelare violata: quali standard devono essere rispettati nello sviluppo e nella messa in commercio di un sistema di IA?

 

L’entrata in vigore dell’AI Act europeo, con il suo approccio basato sul rischio e sugli obblighi di trasparenza, sorveglianza umana e gestione del rischio, contribuisce a delineare l’area del rischio consentito. In questo senso, la regolazione extra-penale diventa parametro fondamentale anche per il giudizio penale: la violazione di obblighi normativi e tecnici può costituire il presupposto della colpa specifica.

 

Resta però il problema della causalità in contesti complessi e multifattoriali: nei sistemi di IA intervengono sviluppatori, data scientist, manager, fornitori di dati. Il c.d. many hands problem rende difficile l’individuazione del singolo responsabile all’interno di organizzazioni articolate.

 

Il supervisore e la moral crumple zone

Un’altra figura centrale è quella dell’utilizzatore o supervisore del sistema. Si pensi al medico che si affida a un software di supporto diagnostico o al conducente di un’auto semi-autonoma.

 

Qui si pone il tema della cosiddetta moral crumple zone: il rischio che la responsabilità ricada sull’ultimo anello della catena – il soggetto umano più vicino all’evento – anche quando il suo potere di controllo è in realtà limitato. Se il sistema è progettato per operare in modo altamente automatizzato, fino a che punto possiamo pretendere dal supervisore un controllo effettivo e costante? 

 

La risposta non può essere univoca. Occorre distinguere tra sistemi ad alta automazione, dove il potere di intervento umano è ridotto e sistemi di supporto decisionale, dove l’ultima parola spetta comunque all’operatore. In ogni caso, la responsabilità penale non può trasformarsi in una clausola di salvaguardia simbolica volta a rassicurare l’opinione pubblica di fronte alla complessità tecnologica.

 

IA come strumento del reato

Accanto ai reati colposi, vi sono le ipotesi in cui l’IA diventa strumento per la commissione di reati dolosi: diffusione di deepfake, manipolazioni di mercato tramite trading algoritmico, campagne di odio automatizzate. In tali casi, la macchina non è “autore”, ma mezzo attraverso cui l’agente umano realizza il fatto tipico. 

 

Le categorie del dolo, del concorso di persone e dell’aberratio restano applicabili, ma devono confrontarsi con l’imprevedibilità parziale degli esiti algoritmici. Se un soggetto attiva un sistema generativo sapendo che potrebbe produrre contenuti illeciti, fino a che punto è configurabile il dolo? E quando, invece, si è di fronte a un eccesso non voluto?

 

La sfida consiste nel calibrare l’elemento soggettivo senza dilatarlo eccessivamente, ma senza neppure consentire facili schermi dietro la complessità tecnologica.

 

Il ruolo del diritto penale

Il diritto penale non può essere l’unico strumento di governo dell’intelligenza artificiale. Esso deve operare in modo integrato con: la regolazione amministrativa attraverso la previsione di standard tecnici, vigilanza esanzioni e la responsabilità civile. 

 

Il diritto penale rimane ultima ratio, chiamato a intervenire nei casi di violazioni gravi e rimproverabili. Accettare un certo grado di “ineffettività” è il prezzo da pagare per preservare i principi di legalità, colpevolezza e personalità della responsabilità.

In definitiva, l’intelligenza artificiale non impone di abbandonare le categorie penalistiche, ma di metterle alla prova, verificarne la tenuta e, se necessario, adattarle con prudenza. La vera sfida non è trovare necessariamente un colpevole “tecnologico”, ma costruire un sistema di responsabilità coerente con i valori costituzionali, capace di governare il rischio senza sacrificare le garanzie.

contact
bottom of page