Indietro Intelligenza Artificiale

Studio del Consiglio d’Europa sulle implicazioni dei sistemi di intelligenza artificiale per il concetto di responsabilità, DGI(2019)05

In questo studio vengono esaminate le implicazioni delle tecnologie digitali avanzate (compresa l’Intelligenza Artificiale) per il concetto di responsabilità, indagando come l’impiego di tali strumenti potrebbe ostacolare il godimento dei diritti e delle libertà fondamentali tutelati dalla CEDU e a quali forme di attribuzione della responsabilità si possa ricorrere di fronte a tali rischi e conseguenze.

Il report si articola in tre capitoli: (i) nel primo si individuano i tratti caratterizzanti i sistemi di machine learning (come l’autonomia decisionale, l’adattività all’ambiente circostante, l’opacità dei sistemi, etc.) che hanno delle dirette implicazioni sul concetto di responsabilità; (ii) nel secondo si analizza come l’impiego di sistemi algoritmici decisionali possa porre a repentaglio alcuni diritti fondamentali, in particolare il diritto alla privacy e alla protezione dei dati personali (art. 8 CEDU) e il diritto alla protezione contro forme di discriminazione (art. 14 CEDU); (iii) l’ultimo capitolo viene infine dedicato ai modelli di responsabilità applicabili e ai c.d. “standard etici” che l’industria tech si sta autonomamente impegnando a rispettare senza che siano tuttavia previsti meccanismi di enforcement o sanzionatori a presidio degli stessi.

The purpose of this study is to examine the implications of advanced digital technologies (including AI) for the concept of responsibility, particularly in so far as they might impede the enjoyment of human rights and fundamental freedoms protected under the ECHR and how responsibility for those risks and consequences should be allocated.

The report is divided into three chapters: (i) the first one identifies the features characterizing machine learning systems (such as decisional autonomy, adaptability to the surrounding environment, opacity of the systems, etc.) that have direct implications on the concept of responsibility; (ii) the second one analyzes how the use of algorithmic decision-making systems may threaten several human rights, including rights to privacy and data protection (Art 8 ECHR) and rights to protection against discrimination in the exercise of rights and freedoms (Art 14 ECHR); (iii) the last one is finally dedicated to the applicable models of responsibility and the so-called “ethical standards” that the tech industry is autonomously committing itself to abide, without, however, providing for enforcement and sanctioning mechanisms to protect them.

Il nostro
TEAM

All’interno dell’OC collaborano ricercatori, professionisti, operatori del diritto ed esperti informatici specializzati nel settore "diritto e nuove tecnologie". 

OC Project
and support

La creazione dell'Osservatorio Cybercrime - Observatory on Cybercrime (OC) costituisce uno degli obiettivi e dei risultati della ricerca del Progetto RIBA (TCC) “New Technologies and the fight against (cyber) terrorism and hate speech in the European perspective”, Università degli Studi di Verona (informativa trasparenza ex d.lgs 33/2013)