05/07/2021 - La black box: l'esplicabilità delle scelte algoritmiche quale garanzia di buona amministrazione
Abstract [It]: L’esame della questione giuridica della esplicabilità delle decisioni amministrative, che si avvalgono di modelli di Intelligenza Artificiale connotati dalla black box, presuppone che sia, in primo luogo, indagato il fenomeno nella sua dimensione reale. La black box, con la quale si intende l’impossibilità di “guardare dentro” il meccanismo di funzionamento del sistema da parte degli stessi programmatori, è peraltro la massima espressione della opacità che caratterizza, con gradi diversi, tutti i modelli algoritmici e connota, in particolare, i sistemi di cd. Deep Learning. Allo stato attuale dello sviluppo tecnologico, pertanto, tali sistemi sembrano essere incompatibili con il principio della trasparenza “rafforzata” che la giurisprudenza amministrativa ha indicato come garanzia minima di legittimità per l’utilizzo di algoritmi nell’attività amministrativa decisionale, anche se privi di “autonomia”. Tale principio, inteso come comprensibilità del risultato, è ora espressamente contenuto anche nella proposta di Regolamento della Commissione europea del 21 aprile 2021 come standard di progettazione dei sistemi di I.A.