Il contributo esamina le implicazioni dell'integrazione di sistemi algoritmici e strumenti di intelligenza artificiale nel processo penale, interrogandosi sulla loro compatibilità con le garanzie fondamentali della "giusta decisione". Muovendo dall'analisi del principio del libero convincimento del giudice e del suo radicamento costituzionale (artt. 111 Cost. e 6 CEDU), la ricerca evidenzia come l'impiego di strumenti di predictive justice e di supportive justice sollevi criticità profonde sul piano epistemologico, assiologico e processuale. In particolare, l'opacità intrinseca delle black boxes algoritmiche si pone in tensione con l'obbligo di motivazione della sentenza, con il diritto al contraddittorio e con il metodo dialettico proprio del modello accusatorio. Il lavoro analizza quindi il quadro normativo sovranazionale — dal Regolamento (UE) 2016/679 alla Direttiva (UE) 2016/680 fino all'AI Act (Reg. UE 2024/1689) — soffermandosi sul right to explanation e sul principio del controllo umano significativo quali presidi essenziali di transparency e accountability. L'analisi si chiude con una valutazione critica del disegno di legge italiano in materia di IA (d.d.l. n. 1146), rilevandone l'insufficienza rispetto alle esigenze di garanzia del sistema processuale penale, e auspicando un intervento legislativo più incisivo che configuri il controllo umano significativo non come clausola residuale, ma come autentico criterio di validazione della decisione giurisdizionale.
Alongi, B.C. (2026). Sistemi algoritmici e garanzie della giusta decisione : l’IA tra i naturalia del processo penale?. In A. De Caro, V. Maffeo, G. Rossi, G. Tessitore (a cura di), Il processo penale alla prova delle nuove tecnologie e dell’intelligenza artificiale (pp. 331-349). Torino : Giappichelli.
Sistemi algoritmici e garanzie della giusta decisione : l’IA tra i naturalia del processo penale?
Alongi, Bianca Claudia
2026-01-01
Abstract
Il contributo esamina le implicazioni dell'integrazione di sistemi algoritmici e strumenti di intelligenza artificiale nel processo penale, interrogandosi sulla loro compatibilità con le garanzie fondamentali della "giusta decisione". Muovendo dall'analisi del principio del libero convincimento del giudice e del suo radicamento costituzionale (artt. 111 Cost. e 6 CEDU), la ricerca evidenzia come l'impiego di strumenti di predictive justice e di supportive justice sollevi criticità profonde sul piano epistemologico, assiologico e processuale. In particolare, l'opacità intrinseca delle black boxes algoritmiche si pone in tensione con l'obbligo di motivazione della sentenza, con il diritto al contraddittorio e con il metodo dialettico proprio del modello accusatorio. Il lavoro analizza quindi il quadro normativo sovranazionale — dal Regolamento (UE) 2016/679 alla Direttiva (UE) 2016/680 fino all'AI Act (Reg. UE 2024/1689) — soffermandosi sul right to explanation e sul principio del controllo umano significativo quali presidi essenziali di transparency e accountability. L'analisi si chiude con una valutazione critica del disegno di legge italiano in materia di IA (d.d.l. n. 1146), rilevandone l'insufficienza rispetto alle esigenze di garanzia del sistema processuale penale, e auspicando un intervento legislativo più incisivo che configuri il controllo umano significativo non come clausola residuale, ma come autentico criterio di validazione della decisione giurisdizionale.| File | Dimensione | Formato | |
|---|---|---|---|
|
Bianca Claudia Alongi.pdf
Solo gestori archvio
Tipologia:
Versione Editoriale
Dimensione
2.35 MB
Formato
Adobe PDF
|
2.35 MB | Adobe PDF | Visualizza/Apri Richiedi una copia |
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.


