This paper examines the implementation of artificial intelligence in decision-making processes within public administration, with a focus on addressing the challenges of transparency, accountability, and the intelligibility of AI-generated decisions. The paper discusses the importance of imputability in decisions made with deep learning algorithms. It emphasizes that by granting public administrations full control over the training dataset, source code, and knowledge base, the imputability of the decision can be ensured. This control enables administrations to validate the relevancy and accuracy of the algorithm's training data, address potential biases, and comply with legal and ethical requirements. The paper then proposes the use of Large Language Models (LLM) as a solution to enhance the transparency and motivation behind AI-assisted decisions. It highlights that LLMs can generate articulate and comprehensible textual outputs that closely resemble human-generated decisions, allowing for a deeper understanding of the decision-making process. Furthermore, the paper emphasizes the significance of providing access to the training dataset, source code, and individual administrative precedents to enhance transparency and accountability. It argues that by offering these components, stakeholders can evaluate the validity and reliability of AI-assisted decisions, fostering trust in the decision-making process.
Questo articolo esamina l'implementazione dell'intelligenza artificiale nei processi decisionali all'interno della pubblica amministrazione, con un focus su come affrontare le sfide legate alla trasparenza, alla responsabilità e alla comprensibilità delle decisioni generate dall'IA. L’articolo discute in particolare l'importanza dell'imputabilità nelle decisioni prese con algoritmi di deep learning. Sottolinea che concedendo alle pubbliche amministrazioni il pieno controllo sul set di dati per l'addestramento, sul codice sorgente e sulla base di conoscenza, si può garantire l'imputabilità della decisione. Questo controllo permette alle amministrazioni di validare la pertinenza e l'accuratezza dei dati di addestramento dell'algoritmo, affrontare eventuali bias e rispettare i requisiti legali ed etici. Il documento propone quindi l'utilizzo dei Large Language Models (LLM) come soluzione per migliorare la trasparenza e la motivazione dietro le decisioni assistite dall'IA. Mette in evidenza che gli LLM possono generare output testuali articolati e comprensibili che assomigliano da vicino alle decisioni generate dall'uomo, permettendo una comprensione più profonda del processo decisionale. Inoltre, l'articolo enfatizza l'importanza di fornire l'accesso al set di dati per l'addestramento, al codice sorgente e ai precedenti amministrativi individuali per aumentare la trasparenza e la responsabilità. Sostiene che offrendo questi componenti, gli stakeholder possono valutare la validità e l'affidabilità delle decisioni assistite dall'IA, promuovendo la fiducia nel processo decisionale.
Large Language Models for Transparent and Intelligible AI-Assisted Public Decision-Making / G. Carullo. - In: CERIDAP. - ISSN 2723-9195. - 3(2023), pp. 1-23. [10.13130/2723-9195/2023-3-100]
Large Language Models for Transparent and Intelligible AI-Assisted Public Decision-Making
G. Carullo
2023
Abstract
This paper examines the implementation of artificial intelligence in decision-making processes within public administration, with a focus on addressing the challenges of transparency, accountability, and the intelligibility of AI-generated decisions. The paper discusses the importance of imputability in decisions made with deep learning algorithms. It emphasizes that by granting public administrations full control over the training dataset, source code, and knowledge base, the imputability of the decision can be ensured. This control enables administrations to validate the relevancy and accuracy of the algorithm's training data, address potential biases, and comply with legal and ethical requirements. The paper then proposes the use of Large Language Models (LLM) as a solution to enhance the transparency and motivation behind AI-assisted decisions. It highlights that LLMs can generate articulate and comprehensible textual outputs that closely resemble human-generated decisions, allowing for a deeper understanding of the decision-making process. Furthermore, the paper emphasizes the significance of providing access to the training dataset, source code, and individual administrative precedents to enhance transparency and accountability. It argues that by offering these components, stakeholders can evaluate the validity and reliability of AI-assisted decisions, fostering trust in the decision-making process.File | Dimensione | Formato | |
---|---|---|---|
Carullo - Large Language Models for Transparent and Intellig.pdf
accesso aperto
Descrizione: Article
Tipologia:
Publisher's version/PDF
Dimensione
305.17 kB
Formato
Adobe PDF
|
305.17 kB | Adobe PDF | Visualizza/Apri |
Pubblicazioni consigliate
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.