Come ho già altrove osservato, occorre anzitutto essere consci della ‘liaison très dangereuse’ fra algoritmi e dati: se si utilizza un algoritmo di tipo determi-nistico, perché questo è in grado di elevare l’errore a sistema, riproducendo l’errore medesimo in modo del tutto automatico un numero infinito di volte; se si utilizza un algoritmo di machine learning, perché questo è in grado di incor-porare l’errore nel patrimonio di conoscenze personale su cui si basa il suo ‘al-lenamento’, generando una sorta di ‘effetto moltiplicatore’ dell’errore medesi-mo. Pertanto, invece di aumentare l’intelligenza umana , è possibile gli algo-ritmi fungano, in effetti, da moltiplicatore delle imperfezioni dell’intelligenza umana, creando uno scenario che ho ironicamente definito come di ‘Human-stupidity-in-the-loop’ . La decisione amministrativa algoritmica discriminato-ria potrebbe, dunque, rivelarsi come una conseguenza inevitabile dell’atto di traslare i meccanismi decisionali e le ‘decision-making capabilities’ dall’uomo alla ‘macchina’: ove non si adottino le dovute cautele e non si tenga conto delle questioni e problematiche di cui si è riferito nei paragrafi che precedono.
La decisione amministrativa algoritmica discriminatoria: ragioni e rimedi possibili (fra diritto amministrativo nazionale e diritto UE) / D.U. Galetta (DIRITTO DELL'INNOVAZIONE | SEZ. OPERE SCIENTIFICHE). - In: Discriminazioni automatiche : Come il diritto può aiutare l’intelligenza artificiale e viceversa / [a cura di] G.P. Ruotolo, A. Stiano. - Torino : Giappichelli, 2026. - ISBN 979-12-211-1600-7. - pp. 141-157
La decisione amministrativa algoritmica discriminatoria: ragioni e rimedi possibili (fra diritto amministrativo nazionale e diritto UE)
D.U. Galetta
2026
Abstract
Come ho già altrove osservato, occorre anzitutto essere consci della ‘liaison très dangereuse’ fra algoritmi e dati: se si utilizza un algoritmo di tipo determi-nistico, perché questo è in grado di elevare l’errore a sistema, riproducendo l’errore medesimo in modo del tutto automatico un numero infinito di volte; se si utilizza un algoritmo di machine learning, perché questo è in grado di incor-porare l’errore nel patrimonio di conoscenze personale su cui si basa il suo ‘al-lenamento’, generando una sorta di ‘effetto moltiplicatore’ dell’errore medesi-mo. Pertanto, invece di aumentare l’intelligenza umana , è possibile gli algo-ritmi fungano, in effetti, da moltiplicatore delle imperfezioni dell’intelligenza umana, creando uno scenario che ho ironicamente definito come di ‘Human-stupidity-in-the-loop’ . La decisione amministrativa algoritmica discriminato-ria potrebbe, dunque, rivelarsi come una conseguenza inevitabile dell’atto di traslare i meccanismi decisionali e le ‘decision-making capabilities’ dall’uomo alla ‘macchina’: ove non si adottino le dovute cautele e non si tenga conto delle questioni e problematiche di cui si è riferito nei paragrafi che precedono.| File | Dimensione | Formato | |
|---|---|---|---|
|
GalettaCapitoloVolumeRuotolo2026Ridotto.pdf
accesso riservato
Tipologia:
Publisher's version/PDF
Licenza:
Nessuna licenza
Dimensione
396 kB
Formato
Adobe PDF
|
396 kB | Adobe PDF | Visualizza/Apri Richiedi una copia |
Pubblicazioni consigliate
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.




