DAVIDE BALDINI, I confini del diritto dell’Unione nella regolazione dell’IA: il caso dei sistemi a rischio minimo

Abstract (ITA)

Il regolamento (UE) 2024/1689 (“AI Act”) rappresenta il primo tentativo di disciplinare in maniera sistematica lo sviluppo, la commercializzazione e l’utilizzo dei sistemi di intelligenza artificiale attraverso un approccio orizzontale e basato sul rischio per i diritti e libertà fondamentali, la sicurezza e lo stato di diritto. Pur collocandosi nel solco del New Legislative Framework, l’AI Act si distingue per l’ampiezza del proprio ambito di applicazione materiale, che ricomprende tutti i “sistemi di IA” secondo l’ampia definizione adottata, e per la contemporanea limitazione degli obblighi sostanziali a un insieme ristretto di categorie: sistemi a rischio inaccettabile, ad alto rischio e, in misura marginale, a rischio limitato. Tale disallineamento produce una vasta area di sistemi – quelli a rischio c.d. “minimo” – formalmente inclusi nel campo di applicazione del regolamento, ma di fatto privi di disciplina anche quando pongono rischi concreti per i diritti fondamentali. Unita alla natura di armonizzazione massima derivante dalla base giuridica principale dell’AI Act, tale impostazione solleva interrogativi sull’esistenza o meno di spazio residuo di intervento degli Stati membri. L’articolo analizza le implicazioni di questa architettura normativa, evidenziando possibili conflitti tra diritto dell’Unione e diritto nazionale e riflettendo sulle sfide interpretative e applicative che l’AI Act pone rispetto all’equilibrio tra funzionamento del mercato interno, autonomia regolatoria nazionale e tutela effettiva dei diritti fondamentali. 

Abstract (ENG)

Regulation (EU) 2024/1689 (“AI Act”) represents the first attempt to systematically regulate the development, commercialization, and use of artificial intelligence systems through a horizontal, risk-based approach aimed at safeguarding fundamental rights, security, and the rule of law. While situated within the framework of the New Legislative Framework, the AI Act stands out for the breadth of its material scope, which encompasses all “AI systems” according to the broad definition adopted, while substantive obligations are limited to a narrow set of categories: unacceptable-risk systems, high-risk systems, and, to a marginal extent, limited-risk systems. This misalignment results in a wide range of systems – those considered to be of so-called “minimal” risk – being formally included within the Regulation’s scope but substantially unregulated, even when they pose tangible risks to fundamental rights. Combined with the AI Act’s maximum harmonization nature stemming from its primary legal basis, this approach raises questions about whether Member States retain any residual regulatory space. The article examines the implications of this regulatory architecture, highlighting potential conflicts between EU and national law and reflecting on the interpretative and enforcement challenges posed by the AI Act with regard to balancing the functioning of the internal market, national regulatory autonomy, and the effective protection of fundamental rights.

DOWNLOAD IN FORMATO PDF

.