This dissertation aims at framing the problem of criminal liability, in the Italian legal framework, for harms committed by means of Artificial Intelligence systems (hereinafter ‘AI systems’). This kind of incidents could undermine existing liability models based on negligence, which are shaped around human actions and require a culpable mental state. As AI systems become increasingly autonomous and able to learn new skills and adapt to the context around them, they are expected to act in ways that its designers and developers have no way to foresee. Who is to blame if an AI system causes serious harm to individuals or property? This dissertation will focus on both manufacturers and users’ liability. In Civil law, there are different solutions that are available or that could be devised to deal with artificial intelligence damages. These solutions are mostly based on strict liability regimes, which are provided in the Italian Civil Code (Articles 2049-2054) and in the complementary legislation (Directive 85/374/EEC and Articles 114-127 of the Italian Consumer Code). On the contrary, the guarantees surrounding the constitutional system of Criminal law (first and foremost: principles of actus reus and mens rea; presumption of innocence) make this sector of law unsuitable for managing those systemic, globalised and uncertain phenomena that characterise post-modernity. On the one hand, the interposition between the inscrutable algorithmic decision-making and the conduct of the user or producer poses a problem with reference to causation, because there is no scientific understanding of the AI systems’ behaviour. On the other hand, it is questionable if the producer and the user could be considered negligent: the unpredictability of AI systems is generically foreseeable, but the criminal negligence requires that the foreseeability concerns the specific harm that occurred in the concrete case. Given the difficulty with establishing criminal liability for AI damages, this dissertation finally focuses on the possible introduction of new negligence crimes centered around the improper design, operation, and testing of AI applications.

Il presente lavoro verte sui problemi ascrittivi della responsabilità penale nell’ordinamento italiano, in relazione agli eventi lesivi che coinvolgono sistemi di intelligenza artificiale (c.d. sistemi di i.a.). L’obiettivo è di verificare se i tradizionali regimi di responsabilità penale – che hanno come presupposto la commissione di fatti penalmente rilevanti da parte di persone fisiche – siano adeguati al nuovo contesto tecnologico, in cui algoritmi caratterizzati da autonomia, interattività e opacità (c.d. black box) possono porre in essere condotte imprevedibili dagli utilizzatori e dagli stessi produttori. Chi risponde, allora, degli incidenti mortali cagionati da una self driving car? Chi è colpevole per una manipolazione del mercato realizzata da un sistema di trading algoritmico? Nel corso del nostro lavoro, ci concentreremo sia sui profili di responsabilità attinenti alla posizione del produttore, sia su quelli attinenti l’utilizzatore. Nel diritto civile – cui dedichiamo il secondo capitolo – sono prospettabili diverse soluzioni per offrire ristoro economico alla persona danneggiata dai sistemi di i.a., fondate, da un lato, su semplificazioni probatorie in materia di accertamento del nesso di causalità, e, dall’altro lato, su criteri di imputazione lato sensu oggettivi, contenuti nel codice civile (artt. 2049-2054 c.c.) e nella legislazione speciale (dir. 85/374/CE e artt. 114-127 cod. cons. sulla responsabilità del produttore). Sebbene non manchino le questioni problematiche e le necessità di adattamento dei regimi esistenti, la responsabilità aquiliana si conferma uno strumento duttile, capace di adattarsi ai nuovi fenomeni tecnologici. Di contro, le garanzie che circondano il sistema costituzionale del diritto penale (prime tra tutte: legalità, offensività, colpevolezza, presunzione di innocenza) lo rendono un diritto rigido, inidoneo a contenere quei fenomeni sistemici, globalizzati ed incerti che caratterizzano la post modernità. In particolare, l’interposizione tra l’imperscrutabile decision making algoritmico e la condotta dell’utilizzatore o del produttore pone un problema, innanzitutto, con riferimento all’accertamento del nesso di causalità, stante l’assenza, attualmente, di leggi scientifiche di copertura in grado di spiegare il comportamento dei dispositivi intelligenti. La crisi del modello nomologico-deduttivo si ripercuote, poi, a cascata, sull’intera struttura del reato e, in particolare, sull’accertamento della colpa. Lo sviluppo di sistemi di i.a. – caratterizzati da un’imprevedibilità genericamente prevedibile – parrebbe infatti mettere in discussione la stessa possibilità di muovere un rimprovero colposo al produttore e all’utilizzatore, se si considera che, secondo il criterio di copertura del rischio tipico, l’evento lesivo è rimproverabile all’agente soltanto se esso costituisce realizzazione tipica del rischio che la norma cautelare mirava a prevenire. Stante, dunque, la difficoltà di configurare una responsabilità penale per il danno derivante da dispositivo intelligente, il presente lavoro si concentra infine sulla possibilità di fare ricorso a tecniche di anticipazione della tutela penale, sia in una prospettiva de jure condito, sia in una prospettiva de jure condendo.

INTELLIGENZA ARTIFICIALE E RESPONSABILITÀ: TRA DIRITTO CIVILE E DIRITTO PENALE / B. Fragasso ; tutor: G. L. Gatta ; coordinatrice: F. Poggi. Dipartimento di Scienze Giuridiche Cesare Beccaria, 2023 Apr 03. 35. ciclo, Anno Accademico 2022.

INTELLIGENZA ARTIFICIALE E RESPONSABILITÀ: TRA DIRITTO CIVILE E DIRITTO PENALE

B. Fragasso
2023

Abstract

This dissertation aims at framing the problem of criminal liability, in the Italian legal framework, for harms committed by means of Artificial Intelligence systems (hereinafter ‘AI systems’). This kind of incidents could undermine existing liability models based on negligence, which are shaped around human actions and require a culpable mental state. As AI systems become increasingly autonomous and able to learn new skills and adapt to the context around them, they are expected to act in ways that its designers and developers have no way to foresee. Who is to blame if an AI system causes serious harm to individuals or property? This dissertation will focus on both manufacturers and users’ liability. In Civil law, there are different solutions that are available or that could be devised to deal with artificial intelligence damages. These solutions are mostly based on strict liability regimes, which are provided in the Italian Civil Code (Articles 2049-2054) and in the complementary legislation (Directive 85/374/EEC and Articles 114-127 of the Italian Consumer Code). On the contrary, the guarantees surrounding the constitutional system of Criminal law (first and foremost: principles of actus reus and mens rea; presumption of innocence) make this sector of law unsuitable for managing those systemic, globalised and uncertain phenomena that characterise post-modernity. On the one hand, the interposition between the inscrutable algorithmic decision-making and the conduct of the user or producer poses a problem with reference to causation, because there is no scientific understanding of the AI systems’ behaviour. On the other hand, it is questionable if the producer and the user could be considered negligent: the unpredictability of AI systems is generically foreseeable, but the criminal negligence requires that the foreseeability concerns the specific harm that occurred in the concrete case. Given the difficulty with establishing criminal liability for AI damages, this dissertation finally focuses on the possible introduction of new negligence crimes centered around the improper design, operation, and testing of AI applications.
3-apr-2023
Il presente lavoro verte sui problemi ascrittivi della responsabilità penale nell’ordinamento italiano, in relazione agli eventi lesivi che coinvolgono sistemi di intelligenza artificiale (c.d. sistemi di i.a.). L’obiettivo è di verificare se i tradizionali regimi di responsabilità penale – che hanno come presupposto la commissione di fatti penalmente rilevanti da parte di persone fisiche – siano adeguati al nuovo contesto tecnologico, in cui algoritmi caratterizzati da autonomia, interattività e opacità (c.d. black box) possono porre in essere condotte imprevedibili dagli utilizzatori e dagli stessi produttori. Chi risponde, allora, degli incidenti mortali cagionati da una self driving car? Chi è colpevole per una manipolazione del mercato realizzata da un sistema di trading algoritmico? Nel corso del nostro lavoro, ci concentreremo sia sui profili di responsabilità attinenti alla posizione del produttore, sia su quelli attinenti l’utilizzatore. Nel diritto civile – cui dedichiamo il secondo capitolo – sono prospettabili diverse soluzioni per offrire ristoro economico alla persona danneggiata dai sistemi di i.a., fondate, da un lato, su semplificazioni probatorie in materia di accertamento del nesso di causalità, e, dall’altro lato, su criteri di imputazione lato sensu oggettivi, contenuti nel codice civile (artt. 2049-2054 c.c.) e nella legislazione speciale (dir. 85/374/CE e artt. 114-127 cod. cons. sulla responsabilità del produttore). Sebbene non manchino le questioni problematiche e le necessità di adattamento dei regimi esistenti, la responsabilità aquiliana si conferma uno strumento duttile, capace di adattarsi ai nuovi fenomeni tecnologici. Di contro, le garanzie che circondano il sistema costituzionale del diritto penale (prime tra tutte: legalità, offensività, colpevolezza, presunzione di innocenza) lo rendono un diritto rigido, inidoneo a contenere quei fenomeni sistemici, globalizzati ed incerti che caratterizzano la post modernità. In particolare, l’interposizione tra l’imperscrutabile decision making algoritmico e la condotta dell’utilizzatore o del produttore pone un problema, innanzitutto, con riferimento all’accertamento del nesso di causalità, stante l’assenza, attualmente, di leggi scientifiche di copertura in grado di spiegare il comportamento dei dispositivi intelligenti. La crisi del modello nomologico-deduttivo si ripercuote, poi, a cascata, sull’intera struttura del reato e, in particolare, sull’accertamento della colpa. Lo sviluppo di sistemi di i.a. – caratterizzati da un’imprevedibilità genericamente prevedibile – parrebbe infatti mettere in discussione la stessa possibilità di muovere un rimprovero colposo al produttore e all’utilizzatore, se si considera che, secondo il criterio di copertura del rischio tipico, l’evento lesivo è rimproverabile all’agente soltanto se esso costituisce realizzazione tipica del rischio che la norma cautelare mirava a prevenire. Stante, dunque, la difficoltà di configurare una responsabilità penale per il danno derivante da dispositivo intelligente, il presente lavoro si concentra infine sulla possibilità di fare ricorso a tecniche di anticipazione della tutela penale, sia in una prospettiva de jure condito, sia in una prospettiva de jure condendo.
Settore IUS/17 - Diritto Penale
diritto penale; intelligenza artificiale; artificial intelligence; AI systems; sistemi di i.a.; responsabilità per danno da prodotto; Directive 85/374/EEC; AI-crimes;
GATTA, GIAN LUIGI
POGGI, FRANCESCA
Doctoral Thesis
INTELLIGENZA ARTIFICIALE E RESPONSABILITÀ: TRA DIRITTO CIVILE E DIRITTO PENALE / B. Fragasso ; tutor: G. L. Gatta ; coordinatrice: F. Poggi. Dipartimento di Scienze Giuridiche Cesare Beccaria, 2023 Apr 03. 35. ciclo, Anno Accademico 2022.
File in questo prodotto:
File Dimensione Formato  
phd_unimi_R12537.pdf

embargo fino al 01/10/2024

Descrizione: INTELLIGENZA ARTIFICIALE E RESPONSABILITÀ: TRA DIRITTO CIVILE E DIRITTO PENALE
Tipologia: Altro
Dimensione 3.04 MB
Formato Adobe PDF
3.04 MB Adobe PDF   Visualizza/Apri   Richiedi una copia
Pubblicazioni consigliate

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/2434/961406
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact