Il contributo esamina le implicazioni dell'integrazione di sistemi algoritmici e strumenti di intelligenza artificiale nel processo penale, interrogandosi sulla loro compatibilità con le garanzie fondamentali della "giusta decisione". Muovendo dall'analisi del principio del libero convincimento del giudice e del suo radicamento costituzionale (artt. 111 Cost. e 6 CEDU), la ricerca evidenzia come l'impiego di strumenti di predictive justice e di supportive justice sollevi criticità profonde sul piano epistemologico, assiologico e processuale. In particolare, l'opacità intrinseca delle black boxes algoritmiche si pone in tensione con l'obbligo di motivazione della sentenza, con il diritto al contraddittorio e con il metodo dialettico proprio del modello accusatorio. Il lavoro analizza quindi il quadro normativo sovranazionale — dal Regolamento (UE) 2016/679 alla Direttiva (UE) 2016/680 fino all'AI Act (Reg. UE 2024/1689) — soffermandosi sul right to explanation e sul principio del controllo umano significativo quali presidi essenziali di transparency e accountability. L'analisi si chiude con una valutazione critica del disegno di legge italiano in materia di IA (d.d.l. n. 1146), rilevandone l'insufficienza rispetto alle esigenze di garanzia del sistema processuale penale, e auspicando un intervento legislativo più incisivo che configuri il controllo umano significativo non come clausola residuale, ma come autentico criterio di validazione della decisione giurisdizionale.

Alongi, B.C. (2026). Sistemi algoritmici e garanzie della giusta decisione : l’IA tra i naturalia del processo penale?. In A. De Caro, V. Maffeo, G. Rossi, G. Tessitore (a cura di), Il processo penale alla prova delle nuove tecnologie e dell’intelligenza artificiale (pp. 331-349). Torino : Giappichelli.

Sistemi algoritmici e garanzie della giusta decisione : l’IA tra i naturalia del processo penale?

Alongi, Bianca Claudia
2026-01-01

Abstract

Il contributo esamina le implicazioni dell'integrazione di sistemi algoritmici e strumenti di intelligenza artificiale nel processo penale, interrogandosi sulla loro compatibilità con le garanzie fondamentali della "giusta decisione". Muovendo dall'analisi del principio del libero convincimento del giudice e del suo radicamento costituzionale (artt. 111 Cost. e 6 CEDU), la ricerca evidenzia come l'impiego di strumenti di predictive justice e di supportive justice sollevi criticità profonde sul piano epistemologico, assiologico e processuale. In particolare, l'opacità intrinseca delle black boxes algoritmiche si pone in tensione con l'obbligo di motivazione della sentenza, con il diritto al contraddittorio e con il metodo dialettico proprio del modello accusatorio. Il lavoro analizza quindi il quadro normativo sovranazionale — dal Regolamento (UE) 2016/679 alla Direttiva (UE) 2016/680 fino all'AI Act (Reg. UE 2024/1689) — soffermandosi sul right to explanation e sul principio del controllo umano significativo quali presidi essenziali di transparency e accountability. L'analisi si chiude con una valutazione critica del disegno di legge italiano in materia di IA (d.d.l. n. 1146), rilevandone l'insufficienza rispetto alle esigenze di garanzia del sistema processuale penale, e auspicando un intervento legislativo più incisivo che configuri il controllo umano significativo non come clausola residuale, ma come autentico criterio di validazione della decisione giurisdizionale.
2026
Settore GIUR-13/A - Diritto processuale penale
Alongi, B.C. (2026). Sistemi algoritmici e garanzie della giusta decisione : l’IA tra i naturalia del processo penale?. In A. De Caro, V. Maffeo, G. Rossi, G. Tessitore (a cura di), Il processo penale alla prova delle nuove tecnologie e dell’intelligenza artificiale (pp. 331-349). Torino : Giappichelli.
File in questo prodotto:
File Dimensione Formato  
Bianca Claudia Alongi.pdf

Solo gestori archvio

Tipologia: Versione Editoriale
Dimensione 2.35 MB
Formato Adobe PDF
2.35 MB Adobe PDF   Visualizza/Apri   Richiedi una copia

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10447/701104
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact