Come ho già altrove osservato, occorre anzitutto essere consci della ‘liaison très dangereuse’ fra algoritmi e dati: se si utilizza un algoritmo di tipo determi-nistico, perché questo è in grado di elevare l’errore a sistema, riproducendo l’errore medesimo in modo del tutto automatico un numero infinito di volte; se si utilizza un algoritmo di machine learning, perché questo è in grado di incor-porare l’errore nel patrimonio di conoscenze personale su cui si basa il suo ‘al-lenamento’, generando una sorta di ‘effetto moltiplicatore’ dell’errore medesi-mo. Pertanto, invece di aumentare l’intelligenza umana , è possibile gli algo-ritmi fungano, in effetti, da moltiplicatore delle imperfezioni dell’intelligenza umana, creando uno scenario che ho ironicamente definito come di ‘Human-stupidity-in-the-loop’ . La decisione amministrativa algoritmica discriminato-ria potrebbe, dunque, rivelarsi come una conseguenza inevitabile dell’atto di traslare i meccanismi decisionali e le ‘decision-making capabilities’ dall’uomo alla ‘macchina’: ove non si adottino le dovute cautele e non si tenga conto delle questioni e problematiche di cui si è riferito nei paragrafi che precedono.

La decisione amministrativa algoritmica discriminatoria: ragioni e rimedi possibili (fra diritto amministrativo nazionale e diritto UE) / D.U. Galetta (DIRITTO DELL'INNOVAZIONE | SEZ. OPERE SCIENTIFICHE). - In: Discriminazioni automatiche : Come il diritto può aiutare l’intelligenza artificiale e viceversa / [a cura di] G.P. Ruotolo, A. Stiano. - Torino : Giappichelli, 2026. - ISBN 979-12-211-1600-7. - pp. 141-157

La decisione amministrativa algoritmica discriminatoria: ragioni e rimedi possibili (fra diritto amministrativo nazionale e diritto UE)

D.U. Galetta
2026

Abstract

Come ho già altrove osservato, occorre anzitutto essere consci della ‘liaison très dangereuse’ fra algoritmi e dati: se si utilizza un algoritmo di tipo determi-nistico, perché questo è in grado di elevare l’errore a sistema, riproducendo l’errore medesimo in modo del tutto automatico un numero infinito di volte; se si utilizza un algoritmo di machine learning, perché questo è in grado di incor-porare l’errore nel patrimonio di conoscenze personale su cui si basa il suo ‘al-lenamento’, generando una sorta di ‘effetto moltiplicatore’ dell’errore medesi-mo. Pertanto, invece di aumentare l’intelligenza umana , è possibile gli algo-ritmi fungano, in effetti, da moltiplicatore delle imperfezioni dell’intelligenza umana, creando uno scenario che ho ironicamente definito come di ‘Human-stupidity-in-the-loop’ . La decisione amministrativa algoritmica discriminato-ria potrebbe, dunque, rivelarsi come una conseguenza inevitabile dell’atto di traslare i meccanismi decisionali e le ‘decision-making capabilities’ dall’uomo alla ‘macchina’: ove non si adottino le dovute cautele e non si tenga conto delle questioni e problematiche di cui si è riferito nei paragrafi che precedono.
Intelligenza Artificiale; Machine Learning; Discriminazioni algoritmiche
Settore GIUR-06/A - Diritto amministrativo e pubblico
2026
Book Part (author)
File in questo prodotto:
File Dimensione Formato  
GalettaCapitoloVolumeRuotolo2026Ridotto.pdf

accesso riservato

Tipologia: Publisher's version/PDF
Licenza: Nessuna licenza
Dimensione 396 kB
Formato Adobe PDF
396 kB Adobe PDF   Visualizza/Apri   Richiedi una copia
Pubblicazioni consigliate

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/2434/1237035
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
  • OpenAlex ND
social impact