Scarica in formato pdf o txt
Scarica in formato pdf o txt
Sei sulla pagina 1di 119

11 giugno 2024

Disposizioni e deleghe
al Governo in materia
di intelligenza artificiale

A.S. n. 1146
SERVIZIO STUDI
TEL. 06 6706-2451 - [email protected] - @SR_Studi
Dossier n. 289

SERVIZIO STUDI
Dipartimento Istituzioni
Tel. 06 6760-9475 - [email protected] - @CD_istituzioni
Progetti di legge n. 305

La documentazione dei Servizi e degli Uffici del Senato della Repubblica e della Camera dei deputati è destinata alle
esigenze di documentazione interna per l'attività degli organi parlamentari e dei parlamentari. Si declina ogni
responsabilità per la loro eventuale utilizzazione o riproduzione per fini non consentiti dalla legge. I contenuti originali
possono essere riprodotti, nel rispetto della legge, a condizione che sia citata la fonte.
INDICE

SCHEDE DI LETTURA
Articolo 1 (Finalità e ambito di applicazione) ....................................................... 7
Articolo 2 (Definizioni) .......................................................................................... 8
Articolo 3 (Principi generali) ............................................................................... 10
Articolo 4 (Principi in materia di informazione e di dati personali) .................. 11
Articolo 5 (Princìpi in materia di sviluppo economico) ..................................... 12
Articolo 6 (Sicurezza e difesa nazionale) ............................................................ 14
Articolo 7 (Uso dell’intelligenza artificiale in ambito sanitario e di
disabilità) .............................................................................................................. 16
Articolo 8 (Ricerca e sperimentazione scientifica nella realizzazione di
sistemi di intelligenza artificiale in ambito sanitario) ......................................... 19
Articolo 9 (Disposizioni in materia di fascicolo sanitario elettronico, sistemi
di sorveglianza nel settore sanitario e governo della sanità digitale) ................. 25
Articolo 10 (Disposizioni sull’uso dell’intelligenza artificiale in materia di
lavoro) .................................................................................................................. 29
Articolo 11 (Osservatorio sull’adozione di sistemi di intelligenza artificiale
nel mondo del lavoro) ........................................................................................... 32
Articolo 12 (Disposizioni in materia di professioni intellettuali) ........................ 34
Articolo 13 (Uso dell’intelligenza artificiale nella pubblica
amministrazione) .................................................................................................. 35
Articolo 14 (Utilizzo dell’intelligenza artificiale nell’attività giudiziaria) ......... 39
Articolo 15 (Modifiche al codice di procedura civile) ......................................... 41
Articolo 16 (Uso dell’intelligenza artificiale per il rafforzamento della
cybersicurezza nazionale) .................................................................................... 42
Articolo 17 (Strategia nazionale per l’intelligenza artificiale)............................ 44
Articolo 18 (Autorità nazionali per l’intelligenza artificiale)............................. 46
Articolo 19 (Applicazione sperimentale dell’intelligenza artificiale ai servizi
forniti dal Ministero degli affari esteri e della cooperazione internazionale) ..... 48
Articolo 20 (Misure di sostegno ai giovani e allo sport) ..................................... 52
Articolo 21 (Investimenti nei settori di intelligenza artificiale, della
cybersicurezza e calcolo quantistico)................................................................... 59
Articolo 22, commi 1, 2 e 6 (Delega al Governo per l’adeguamento della
normativa nazionale al regolamento dell’Unione europea in materia di
intelligenza artificiale) ......................................................................................... 64
Articolo 22, commi 3-5 (Delega per la definizione organica della disciplina
nei casi di uso di sistemi di intelligenza artificiale per finalità illecite) .............. 84
Articolo 23 (Identificazione dei contenuti testuali, fotografici, audiovisivi e
radiofonici prodotti da sistemi di intelligenza artificiale) ................................... 86
Articolo 24 (Tutela del diritto d’autore delle opere generate con l’ausilio
dell’intelligenza artificiale) .................................................................................. 98
Articolo 25, comma 1 (Norme penali) ............................................................... 100
Articolo 25, commi da 2 a 4 (Modifiche alla disciplina dei reati di
aggiotaggio, plagio e manipolazione del mercato) ............................................ 114
Articolo 26 (Clausola di invarianza finanziaria) ............................................... 119
SCHEDE DI LETTURA
A.S. n. 1146 Articolo 1

Articolo 1
(Finalità e ambito di applicazione)

L’articolo 1 enuncia finalità ed ambito di applicazione della disciplina prevista dal


disegno di legge, con sottolineatura della dimensione antropocentrica dell’utilizzo
dell’intelligenza artificiale e della vigilanza sui rischi economici e sociali nonché
sull’impatto in ordine ai diritti fondamentali.

Il disegno di legge in esame, dunque, detta, all’inizio del proprio articolato, le


disposizioni di natura finalistica che motivano l’adozione del provvedimento,
partendo dalla consapevolezza della rivoluzione informatica che, dal secondo
Novecento, ha assunto una incidenza sulla vita individuale e collettiva, tale da
configurare una ‘società digitale’, in cui la diffusione del personal computer,
l’avvento di internet e degli smartphone, hanno dilatato l’impiego di strumenti
digitali nella quotidianità. In questo contesto, l’evoluzione tecnologica fa sì che le
‘macchine’ dispongano ormai di margini di auto-apprendimento, auto-
organizzazione, auto-decisione. Ne segue che si pone all’etica, al diritto, al
dibattito pubblico il tema della ‘intelligenza artificiale’ e di una sua regolazione.
In tale direzione muove il regolamento dell’Unione europea sull’intelligenza
artificiale, approvato in via definitiva nel maggio 2024.
E a livello nazionale si colloca il disegno di legge in esame, volto – specifica il suo
articolo 1 – a disporre norme generali – “principi” – relativamente ai sistemi e
modelli di intelligenza artificiale, con riguardo alla loro ricerca, sperimentazione,
sviluppo, adozione e applicazione.
La disciplina che si viene a profilare persegue una duplice finalità.
Si mira da un lato a un utilizzo “corretto, trasparente e responsabile”, in una
dimensione antropocentrica, di questa strumentazione tecnologica, onde
coglierne le opportunità.
Si intende, dall’altro, “garantire” la vigilanza sui rischi economici e sociali e
sull’impatto sui diritti fondamentali.
Le disposizioni così poste si interpretano e si applicano conformemente al diritto
dell’Unione europea.

L’Unione europea ha approntato strumenti regolatori su più ambiti caratterizzati dalla


digitalizzazione, quali la protezione dei dati personali, i diritti sui dati e contenuti digitali,
la responsabilità dei fornitori di servizi digitali, la concorrenza dei mercati digitali, il
commercio elettronico.
Con specifico riguardo all’intelligenza artificiale, un apposito regolamento è stato
approvato dal Parlamento europeo (il 13 marzo 2024) e dal Consiglio (il 21 maggio 2024).
Per la sua sintesi v. infra la scheda di lettura relativa all’articolo 22 del presente disegno
di legge, il quale reca delega al Governo per l’adeguamento della normativa interna alle
disposizioni appunto di quel regolamento.

7
A.S. n. 1146 Articolo 2

Articolo 2
(Definizioni)

L’articolo 2 reca le definizioni dei vocaboli utilizzati all’interno del


provvedimento, quali:
 “sistemi di intelligenza artificiale”;
 “dato”;
 “modelli di intelligenza artificiale”.

L’articolo 2 riporta le seguenti definizioni, riprese in parte dal diritto dell’Unione


europea, che sono utilizzate nel provvedimento in esame.

In particolare, la lettera a) reca la definizione di sistema di intelligenza


artificiale. Con tale termine si intende un sistema automatizzato progettato per
funzionare con livelli di autonomia variabili e che può presentare adattabilità
dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che
riceve come generare output quali previsioni, contenuti, raccomandazioni o
decisioni che possono influenzare ambienti fisici o virtuali.

Come ricordato anche dalla Relazione illustrativa, tale definizione è identica a quella
contenuta nell’art. 3, par. 1, n. 1) dell’AI Act (approvato dal Consiglio UE in via
definitiva il 21 maggio 2024).

La lettera b) introduce la definizione di dato, considerato come qualsiasi


rappresentazione digitale di atti, fatti o informazioni e qualsiasi raccolta di tali
atti, fatti o informazioni, anche sotto forma di registrazione sonora, visiva o
audiovisiva.

Tale definizione è presa dal regolamento (UE) 2022/868, cosiddetto Data governance
Act.

Infine, la lettera c) riporta la definizione di modelli di intelligenza artificiale. Si


tratta – secondo il dettato dell’articolo in commento – di modelli che identificano
strutture ricorrenti attraverso l'uso di collezioni di dati, che hanno la capacità di
svolgere un’ampia gamma di compiti distinti e che possono essere integrati in una
varietà di sistemi o applicazioni.

Si segnala che questa definizione differisce da quella riportata dal citato art. 3, par. 1, al
n. 63 dell’AI Act, la quale concerne, specificamente, un “modello di IA per finalità
generali"; quest’ultimo è definito come un “modello di IA, anche laddove tale modello di
IA sia addestrato con grandi quantità di dati utilizzando l'auto-supervisione su larga scala,
che sia caratterizzato da una generalità significativa e sia in grado di svolgere con
competenza un'ampia gamma di compiti distinti, indipendentemente dalle modalità con
cui il modello è immesso sul mercato, e che può essere integrato in una varietà di sistemi

8
A.S. n. 1146 Articolo 2

o applicazioni a valle, ad eccezione dei modelli di IA che sono utilizzati per attività di
ricerca, sviluppo o prototipazione prima di essere immessi sul mercato”.

Si valuti l’opportunità di coordinare la definizione in sede nazionale con quella suddetta


del regolamento europeo, poiché la difformità tra le definizioni potrebbe generare
problemi di armonizzazione fra la normativa europea e nazionale.

9
A.S. n. 1146 Articolo 3

Articolo 3
(Principi generali)

L’articolo 3 definisce i principi generali della disciplina posta dal disegno di legge.
Vi è ricompreso il preservamento dei diritti fondamentali, delle libertà, dello
svolgimento con metodo democratico della vita istituzionale e politica.

La disciplina prevista dal disegno di legge ha quale ambito di applicazione – si è


ricordato trattando dell’articolo 1 – la ricerca, sperimentazione, sviluppo,
adozione, applicazione ed utilizzo di sistemi e di modelli di intelligenza artificiale.
L’articolo 3 prescrive loro alcuni obblighi. Sono:
 il rispetto dei diritti fondamentali e delle libertà previsti dall’ordinamento
italiano ed europeo;
 il rispetto dei principi di trasparenza, proporzionalità, sicurezza, protezione
dei dati personali, riservatezza, accuratezza, non discriminazione, parità dei
sessi e sostenibilità (comma 1);
 la correttezza, attendibilità, sicurezza, qualità, appropriatezza e trasparenza,
secondo il principio di proporzionalità, dei dati e processi su cui si sviluppa
l’intelligenza artificiale (comma 2);
 il rispetto dell’autonomia e del potere decisionale umani;
 la prevenzione del danno;
 la conoscibilità e spiegabilità (comma 3).
L’utilizzo di sistemi di intelligenza artificiale non deve recare pregiudizio allo
svolgimento con metodo democratico della vita istituzionale e politica (comma 4).
Il comma 5 prescrive la cybersicurezza (protezione dagli attacchi informatici)
lungo l’intero ciclo di vita dei sistemi e modelli di intelligenza artificiale, sulla
base del rischio e con specifici controlli di sicurezza, con riguardo tra l’altro ai
tentativi di alterarne l’utilizzo, il comportamento previsto, le prestazioni o le
impostazioni di sicurezza.
Infine il comma 6 dispone che l’accesso delle persone con disabilità avvenga su
base di uguaglianza e senza alcuna forma di discriminazione e di pregiudizio (in
conformità alle disposizioni della Convenzione delle Nazioni Unite sui diritti delle
persone con disabilità, fatta a New York il 13 dicembre 2006, ratificata e resa
esecutiva in Italia con la legge n. 18 del 2009).

10
A.S. n. 1146 Articolo 4

Articolo 4
(Principi in materia di informazione e di dati personali)

L’articolo 4 reca principi specifici, in materia di informazione e di riservatezza


dei dati personali.
Inoltre reca previsione relativa all’accesso dei minori alle tecnologie di intelligenza
artificiale (differenziando a seconda abbiano o meno compiuto quattordici anni).

L’articolo 4 reca taluni specifici principi, per un duplice riguardo: l’informazione;


i dati personali.
Per quanto concerne l’informazione, l’utilizzo di sistemi di intelligenza artificiale
non deve pregiudicare:
 la libertà ed il pluralismo dei mezzi di comunicazione;
 la libertà di espressione;
 l’obiettività, completezza, imparzialità e lealtà dell'informazione (comma
1).
Per quanto riguarda i dati personali, deve esserne garantito:
 il trattamento lecito, corretto e trasparente dei dati personali;
 la compatibilità con le finalità per le quali sono stati raccolti, in conformità
con il diritto dell’Unione europea in materia di dati personali e di tutela
della riservatezza (comma 2).
Si estendono pertanto all’ambito dell’intelligenza artificiale i principi vigenti in
materia di riservatezza dei dati personali.
Ancora, le informazioni e le comunicazioni connesse all’utilizzo di sistemi di
intelligenza artificiale, se relative al trattamento dei dati, debbono essere rese con
linguaggio “chiaro e semplice”, in modo da garantire all’utente la piena
conoscibilità nonché la facoltà di opporsi ai trattamenti non corretti dei propri dati
personali (comma 3).
Specifica disposizione detta il comma 4 per l’accesso dei minori alle tecnologie
di intelligenza artificiale.
Per i minori infra-quattordicenni, si prescrive il consenso di chi eserciti la
responsabilità genitoriale.
Per i minori che abbiano compiuto quattordici anni, è prevista la facoltà di
esprimere il proprio consenso al trattamento dei dati personali connessi all’utilizzo
di sistemi di intelligenza artificiale, purché le informazioni e le comunicazioni
siano facilmente accessibili e comprensibili.
Siffatta disciplina ‘ricalca’ quella vigente circa il consenso del minore al
trattamento dei propri dati personali in relazione all'offerta diretta di servizi della
società dell'informazione (cfr. l’articolo 2-quinquies del decreto legislativo n. 196
del 2003 recante il Codice in materia di protezione dei dati personali, come
novellato dal decreto legislativo n. 101 del 2018).

11
A.S. n. 1146 Articolo 5

Articolo 5
(Princìpi in materia di sviluppo economico)

L’articolo 5 prevede che lo Stato e le altre autorità pubbliche promuovano


l’utilizzo dell’intelligenza artificiale (IA) per migliorare la produttività e la
competitività del sistema economico nazionale, favoriscano un mercato dell'IA
innovativo, equo, aperto e concorrenziale, facilitino la disponibilità di dati di alta
qualità per le imprese che sviluppano o utilizzano sistemi di IA, indirizzino le
piattaforme di e-procurement delle pubbliche amministrazioni a scegliere fornitori
di sistemi e modelli di IA che garantiscono una localizzazione e elaborazione dei
dati critici presso data center sul territorio nazionale ed elevati standard di
trasparenza.

L’articolo 5 stabilisce una serie di linee strategiche che lo Stato e le altre autorità
pubbliche sono tenute a porre in essere. In particolare, viene disposto che essi:
a) promuovano l’utilizzo dell’intelligenza artificiale come strumento per
migliorare l’interazione uomo-macchina nei settori produttivi, la produttività in
tutte le catene del valore e le funzioni organizzative, nonché quale strumento utile
all’avvio di nuove attività economiche, al fine di accrescere la competitività del
sistema economico nazionale e la sovranità tecnologica della Nazione nel quadro
della strategia europea;
b) favoriscano la creazione di un mercato dell’intelligenza artificiale
innovativo, equo, aperto e concorrenziale e di ecosistemi innovativi;
c) facilitino la disponibilità e l’accesso a dati di alta qualità per le imprese che
sviluppano o utilizzano sistemi di intelligenza artificiale e per la comunità
scientifica e dell’innovazione;
d) indirizzino le piattaforme di e-procurement delle amministrazioni
pubbliche di cui all’articolo 1, comma 2, del decreto legislativo n. 165 del 2001,
in modo che, nella scelta dei fornitori di sistemi e di modelli di intelligenza
artificiale, siano privilegiate quelle soluzioni che garantiscono la localizzazione
e l’elaborazione dei dati critici presso data center posti sul territorio nazionale,
nonché modelli in grado di assicurare elevati standard in termini di trasparenza
nelle modalità di addestramento e di sviluppo di applicazioni basate
sull’intelligenza artificiale generativa, nel rispetto della normativa sulla
concorrenza e dei princìpi di non discriminazione e proporzionalità.

Ai sensi dell’articolo 1, comma 2, del decreto legislativo n. 165 del 2001, per
amministrazioni pubbliche si intendono tutte le amministrazioni dello Stato, ivi
compresi gli istituti e scuole di ogni ordine e grado e le istituzioni educative, le aziende
ed amministrazioni dello Stato ad ordinamento autonomo, le Regioni, le Province, i
Comuni, le Comunità montane, e loro consorzi e associazioni, le istituzioni
universitarie, gli Istituti autonomi case popolari, le Camere di commercio, industria,
artigianato e agricoltura e loro associazioni, tutti gli enti pubblici non economici
nazionali, regionali e locali, le amministrazioni, le aziende e gli enti del Servizio sanitario

12
A.S. n. 1146 Articolo 5

nazionale, l'Agenzia per la rappresentanza negoziale delle pubbliche amministrazioni


(ARAN), le Agenzie di cui al decreto legislativo n. 300 del 1999 e il CONI.

13
A.S. n. 1146 Articolo 6

Articolo 6
(Sicurezza e difesa nazionale)

L’articolo 6 esclude dall’ambito applicativo della disciplina prevista dal presente


disegno di legge, le attività connesse ai sistemi e modelli di intelligenza artificiale,
condotte dagli organismi preposti alla sicurezza nazionale, alla cybersicurezza, alla
difesa nazionale.
Rimangono fermi peraltro alcuni loro obblighi, anche in materia di trattamento dei
dati personali. Una più analitica disciplina di rango applicativo è demandata a
successivi d.P.C.m.

L’articolo 6 esclude dall’ambito applicativo della disciplina posta dal disegno di


legge le attività connesse ai sistemi e modelli di intelligenza artificiale, se condotte
a fini di sicurezza nazionale, di cybersicurezza, di difesa nazionale.
Il comma 1 specifica il novero di soggetto per i quali vale l’esclusione sopra
ricordata.
Sono:
 il Dipartimento delle informazioni per la sicurezza (DIS), l'Agenzia
informazioni e sicurezza esterna (AISE), l'Agenzia informazioni e sicurezza
interna (AISI): vale a dire gli organismi oggetto rispettivamente degli
articoli 4, 6 e 7 della legge 3 agosto n. 104 del 2007, la quale disciplina il
Sistema di informazione per la sicurezza della Repubblica (oltre che il
segreto);
 l’Agenzia per la cybersicurezza nazionale, istituita dal decreto-legge n. 82
del 2021. Di questo, l’articolo 1, comma 1, lettere a) e b) forniscono una
definizione di cybersicurezza (“l'insieme delle attività - fermi restando le
attribuzioni di cui alla legge n. 124 del 2007 e gli obblighi derivanti da
trattati internazionali - necessarie per proteggere dalle minacce
informatiche reti, sistemi informativi, servizi informatici e comunicazioni
elettroniche, assicurandone la disponibilità, la confidenzialità e l'integrità e
garantendone la resilienza, anche ai fini della tutela della sicurezza
nazionale e dell'interesse nazionale nello spazio cibernetico”) nonché di
resilienza nazionale nello spazio cibernetico (“le attività volte a prevenire
un pregiudizio per la sicurezza nazionale”);
 le Forze armate, per scopi di difesa nazionale.
Beninteso, a fronte dell’esclusione dall’ambito applicativo della disciplina che si
viene a porre, rimane fermo l’obbligo del rispetto dei diritti fondamentali e delle
libertà previste dalla Costituzione nonché dello svolgimento con metodo
democratico della vita istituzionale e politica.
Per tali soggetti, specifica il comma 2, lo sviluppo di sistemi e modelli di
intelligenza artificiale è tenuto alla correttezza, attendibilità, sicurezza, qualità,
appropriatezza e trasparenza dei dati e processi, secondo il principio di
proporzionalità (come prescritto dall’articolo 3, comma 2, del disegno di legge).

14
A.S. n. 1146 Articolo 6

Specifica disposizione ancora del comma 2 riguarda il trattamento dei dati


personali.
Se l’intelligenza artificiale sia utilizzata dagli organismi del sistema di sicurezza
nazionale, il trattamento dei dati personali deve uniformarsi a puntuali previsioni
del Codice in materia di protezione dei dati personali (decreto legislativo n. 196
del 2003), enumerate dal suo articolo 58, comma 1 (tra queste, figura il divieto (ai
sensi dell’articolo 8 del decreto legislativo n. 51 del 2018, di decisioni basate
unicamente su un trattamento automatizzato, compresa la profilazione, che
producono effetti negativi nei confronti dell'interessato, salvo che siano autorizzate
dal diritto dell'Unione europea o da specifiche disposizioni di legge; nonché le
sanzioni previste per le violazioni).
Se l’intelligenza artificiale sia utilizzata dall’Agenzia per la cybersicurezza
nazionale, vale la disposizione sopra detta, nonché, in caso di elevato rischio per i
diritti e le libertà delle persone fisiche, l’effettuazione di una valutazione d’impatto
sulla protezione dei dati e la consultazione preventiva del Garante (secondo
dispongono gli articoli 23 e 24 del decreto legislativo n. 51 del 2018, cui fa rinvio
l’articolo 58, comma 2, del Codice in materia di protezione dei dati personali, cui
fa a sua volta rinvio l’articolo 13 del decreto-legge n. 82 del 2021, richiamato dalla
disposizione in esame).
Infine il comma 3 demanda a regolamento adottato con d.P.C.m (anche in deroga
a quanto previsto dalla legge n. 400 del 1988) previo parere del Comitato
parlamentare per la sicurezza della Repubblica e sentito il Comitato
interministeriale per la sicurezza della Repubblica (CISR), la definizione delle
modalità di svolgimento della attività connesse all’intelligenza artificiale, svolte
dagli organismi sopra ricordati componenti il Sistema di informazione per la
sicurezza della Repubblica, o delle attività loro funzionali, svolte da altri soggetti
pubblici e privati esclusivamente per scopi di sicurezza nazionale.
Per le attività svolte dall’Agenzia per la cybersicurezza nazionale è previsto
analogo regolamento, adottato con d.P.C.m, su proposta del direttore generale
dell'Agenzia (anche in deroga alla legge n. 400 del 1988 ed alle norme in materia
di contratti pubblici), previo parere del Comitato parlamentare per la sicurezza
della Repubblica e sentito il Comitato interministeriale per la cybersicurezza
(CIC).

15
A.S. n. 1146 Articolo 7

Articolo 7
(Uso dell’intelligenza artificiale in ambito sanitario e di disabilità)

L’articolo 7 enuncia alcuni principi volti a regolare l’uso dei sistemi di


intelligenza artificiale in ambito sanitario, con particolare riguardo al
miglioramento delle condizioni di vita delle persone con disabilità.

L’articolo 7, nell’evidenziare il contributo fornito dall’utilizzo di sistemi di


intelligenza artificiale al potenziamento del sistema sanitario e alla
prevenzione e cura delle malattie, enuncia alcuni limiti e principi in
quest’ambito.

Il comma 1 prevede che l’utilizzo dei sistemi di intelligenza artificiale debba


avvenire nel rispetto dei diritti, delle libertà e degli interessi della persona.
Inoltre, lo stesso comma richiama tra i principi la necessaria garanzia della
protezione dei dati personali, a cui fa riferimento più nel dettaglio l’articolo 8 del
presente disegno di legge (v. infra).

Il comma 2 pone il divieto di condizionare l’accesso alle prestazioni sanitarie


a criteri discriminatori, tramite l’impiego di strumenti di intelligenza artificiale.

Il comma 3 assicura all’interessato il diritto di informazione in merito all’utilizzo


di tecnologie di intelligenza artificiale e con riguardo ai vantaggi, in termini
diagnostici e terapeutici, derivanti dall’utilizzo delle nuove tecnologie, nonché
sulla logica decisionale utilizzata.

A tal proposito, si ricorda che il regolamento del Parlamento europeo e del Consiglio UE
del 2024, cd. “AI Act”, approvato dal Consiglio UE in via definitiva il 21 maggio 2024,
qualifica i sistemi di intelligenza artificiale nell’ambito dell’assistenza sanitaria come “ad
alto rischio”, ponendo in capo ai soggetti fornitori maggior obblighi di informazione al
fine di garantire la trasparenza nell’impiego di tali strumenti.
In specie, il regolamento europeo considera ad alto rischio un numero limitato di sistemi
di intelligenza artificiale che possono potenzialmente avere ripercussioni negative sulla
sicurezza delle persone o sui loro diritti fondamentali, tutelati dalla Carta dei diritti
fondamentali dell'Unione europea.
Prima di immettere un sistema di intelligenza artificiale ad alto rischio sul mercato
dell'Unione europea, o di farlo entrare in servizio, i fornitori dovranno sottoporlo a una
valutazione della conformità. Dovranno, quindi, dimostrare che il loro sistema è conforme
ai requisiti obbligatori per un’IA affidabile (ad esempio: qualità dei dati, documentazione
e tracciabilità, trasparenza, sorveglianza umana, accuratezza, cibersicurezza e
robustezza).
I sistemi di IA ad alto rischio dovranno essere tecnicamente robusti per garantire che la
tecnologia sia adatta allo scopo e che i risultati falsi positivi/negativi non incidano in

16
A.S. n. 1146 Articolo 7

modo sproporzionato sui gruppi protetti (ad esempio, per origine razziale o etnica, sesso,
età, ecc.).
Dovranno, inoltre, essere addestrati e testati con set di dati sufficientemente
rappresentativi per ridurre al minimo il rischio di integrare distorsioni inique nel modello
e garantire che, se presenti, queste possano essere risolte mediante opportune misure di
rilevazione, correzione e attenuazione. Dovranno anche essere tracciabili e verificabili,
garantendo la conservazione dell'opportuna documentazione, compresi i dati utilizzati per
addestrare l'algoritmo, fondamentali per le indagini ex post.
Si impone inoltre agli operatori che siano organismi di diritto pubblico o operatori privati
che forniscono servizi pubblici, nonché agli operatori che forniscono sistemi ad alto
rischio di effettuare una valutazione d'impatto sui diritti fondamentali prima di mettere in
uso i sistemi di intelligenza artificiale.

Con riguardo specifico all’utilizzo dei sistemi di intelligenza artificiale nel


miglioramento delle condizioni di vita delle persone con disabilità, il comma 4,
nel completare i principi in materia di disabilità introdotti all’articolo 3, comma
6, promuove lo sviluppo, lo studio e la diffusione di sistemi di intelligenza
artificiale anche con il fine di realizzare il progetto di vita di cui all’articolo 2,
comma 2, lett. c) n. 1) della legge 22 dicembre 2021, n. 2271.
Più nel dettaglio, tale comma individua nei sistemi di intelligenza artificiale uno
strumento diretto a contribuire all’accessibilità, all’autonomia, alla sicurezza e ai
processi di inclusione sociale delle persone con disabilità, tenuto altresì conto della
finalità di elaborare un progetto di vita individuale, personalizzato e partecipato.
Si intende, pertanto, prevedere forme di applicazione dei sistemi di intelligenza
artificiale tra i contenuti ricompresi nel progetto di vita.

Si ricorda che la legge n. 227/2021, recante delega al Governo per il riassetto delle
disposizioni vigenti in materia di disabilità, adottata in attuazione della riforma 1.1,
prevista dalla Missione 5 "Inclusione e Coesione" Componente 2 "Infrastrutture
sociali, famiglie, comunità e Terzo settore" del PNRR, ha il proprio fulcro nel progetto
di vita personalizzato e partecipato diretto a consentire alle persone con disabilità di essere
protagoniste della propria vita e di realizzare una effettiva inclusione nella società. In
specie, l’articolo 2 della legge n. 227/2021, individua sette ambiti, all'interno di ciascuno
dei quali sono previsti specifici principi e criteri direttivi. Tra questi figura, al comma 2,
lett. c), n. 1), con riguardo alla realizzazione del progetto personalizzato e di vita
indipendente, la necessità di prevedere le modalità di coordinamento tra le
amministrazioni competenti per l’integrazione della programmazione sociale e sanitaria
nazionale e regionale.
A tal proposito, si ricorda che in attuazione della citata legge, il decreto legislativo del 3
maggio 2024, n. 622 (per un approfondimento v. dossier su A.G. n. 122), definisce
(articolo 18) il progetto di vita individuale, personalizzato e partecipato, disponendo che
lo Stato, le regioni e gli enti locali, nell’ambito delle relative competenze, debbano

1
Delega al Governo in materia di disabilità.
2
Definizione della condizione di disabilità, della valutazione di base, di accomodamento ragionevole,
della valutazione multidimensionale per l'elaborazione e attuazione del progetto di vita individuale
personalizzato e partecipato.

17
A.S. n. 1146 Articolo 7

garantire l’effettività e l’omogeneità del progetto di vita, indipendentemente dall’età,


dalle condizioni personali e sociali. Viene quindi previsto che la persona con disabilità:
- è titolare del progetto di vita e deve richiederne l’attivazione;
- concorre a determinare i contenuti del progetto di vita;
- esercita le prerogative volte ad apportarvi le modifiche e le integrazioni, secondo i propri
desideri, le proprie aspettative e le proprie scelte.
La persona con disabilità può richiedere l’elaborazione del progetto di vita all’esito della
valutazione di base, fermo restando quanto previsto dall’articolo 35, comma 4 del
medesimo decreto legislativo, con particolare riferimento alle disposizioni che sanciscono
il principio di non regressione e tutela dei diritti acquisiti.
L’art. 18 definisce, inoltre, gli obiettivi e il contenuto essenziale del progetto di vita,
specificando che esso:
- è diretto a realizzare gli obiettivi della persona con disabilità per migliorare le condizioni
personali e di salute nei diversi ambiti di vita, facilitandone l’inclusione sociale e la
partecipazione nei diversi contesti di vita su base di uguaglianza con gli altri;
- individua, per qualità, quantità ed intensità, gli strumenti, le risorse, gli interventi, i
benefici, le prestazioni, i servizi e gli accomodamenti ragionevoli, volti anche
all’eliminazione delle barriere e all’attivazione dei supporti necessari per l’inclusione e
la partecipazione della persona stessa nei diversi ambiti di vita, compresi quelli scolastici,
della formazione superiore, abitativi, lavorativi e sociali. La disposizione specifica,
peraltro, che nel progetto di vita devono essere altresì comprese le misure previste a
legislazione vigente per il superamento di condizioni di povertà, emarginazione ed
esclusione sociale, nonché gli eventuali sostegni erogabili in favore del nucleo familiare
e di chi presta cura ed assistenza in base a quanto disposto per la figura del caregiver
familiare definita ai sensi dell’articolo 1, comma 255, della legge 27 dicembre 2017, n.
205.
Infine, si precisa che il progetto di vita deve essere sostenibile nel tempo ovvero garantire
continuità degli strumenti, delle risorse, degli interventi, dei benefici, delle prestazioni,
dei servizi e degli accomodamenti ragionevoli.

Più in generale, il comma 5 prevede che i sistemi di intelligenza artificiale


nell’ambito sanitario fungano da supporto nei processi di prevenzione, diagnosi,
cura e scelta terapeutica, lasciando impregiudicata la decisione, che deve sempre
essere rimessa agli esercenti la professione medica.
Sinteticamente può qui ricordarsi che anche l'AI Act ha evidenziato l'importanza degli
strumenti di intelligenza artificiale nell'ambito della sicurezza e della salute pubblica,
con particolare riguardo all'individuazione delle malattie, alla diagnosi, alla prevenzione,
al controllo e al trattamento e miglioramento dei sistemi di assistenza sanitaria.

Infine, il comma 6 stabilisce che i sistemi di intelligenza artificiale in ambito


sanitario devono essere affidabili, periodicamente verificati e aggiornati,
nell’ottica di minimizzare il rischio di errori.

18
A.S. n. 1146 Articolo 8

Articolo 8
(Ricerca e sperimentazione scientifica nella realizzazione di sistemi di
intelligenza artificiale in ambito sanitario)

In base al comma 1 dell’articolo in titolo, i trattamenti di dati, anche personali,


eseguiti da soggetti pubblici e privati senza scopo di lucro per la ricerca e la
sperimentazione scientifica nella realizzazione di sistemi di intelligenza
artificiale per finalità terapeutica e farmacologica, in quanto necessari ai fini
della realizzazione e dell’utilizzazione di banche dati e modelli di base, sono
dichiarati di rilevante interesse pubblico.
Ai fini predetti e da parte dei soggetti summenzionati, in base al successivo comma
2, è consentito l’uso secondario dei dati personali privi degli elementi
identificativi diretti, anche se appartenenti alle particolari categorie indicate
all’articolo 9 del regolamento (UE) 2016/6793, senza necessità di ulteriore
consenso dell’interessato e fermo restando l'obbligo di informativa di
quest’ultimo, assolvibile con modalità semplificate.
Ai sensi del comma 3, i predetti trattamenti e usi dei dati: devono essere oggetto
di approvazione da parte dei comitati etici interessati, nonché di comunicazione
al Garante per la protezione dei dati personali insieme ad una serie di
informazioni; possono essere iniziati decorsi trenta giorni dalla predetta
comunicazione, se non oggetto di blocco disposto dal Garante per la protezione
dei dati personali.
Il comma 4 precisa che restano fermi i poteri ispettivi, interdittivi e sanzionatori
del Garante per la protezione dei dati personali.

Più in particolare, il comma 1 dell’articolo in esame elenca le seguenti finalità di


ricerca e sperimentazione scientifica nella realizzazione di sistemi di intelligenza
artificiale, in relazione alle quali i predetti trattamenti di dati sono dichiarati di
rilevante interesse pubblico: prevenzione, diagnosi e cura di malattie, sviluppo di
farmaci, terapie e tecnologie riabilitative, realizzazione di apparati medicali,
incluse protesi e interfacce fra il corpo e strumenti di sostegno alle condizioni del
paziente, salute pubblica, incolumità della persona, salute e sicurezza sanitaria.
Come sopra evidenziato, il comma in esame riconosce il rilevante interesse
pubblico in quanto i trattamenti di dati in questione siano necessari ai fini della
realizzazione e dell’utilizzazione di banche dati e modelli di base.

Si ricorda che l’articolo 2 del disegno di legge in esame reca le definizioni di “sistema di
intelligenza artificiale”, “dato” e “modelli di intelligenza artificiale” (v. sopra la relativa
scheda di lettura), ma non anche quella di “modello di base”, né quella di “banca dati”.
Specifica attenzione ai modelli di base è stata dedicata dal Parlamento europeo nel corso
dell’esame della proposta di regolamento del Parlamento europeo e del Consiglio che

3
Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016, c.d.
regolamento generale sulla protezione dei dati.

19
A.S. n. 1146 Articolo 8

stabilisce regole armonizzate sull'intelligenza artificiale (c.d. AI act: al riguardo,


relativamente alla materia sanitaria, si veda sopra la scheda di lettura relativa all’articolo
7 del presente provvedimento)4. Tra gli emendamenti al testo5, ve ne era uno volto a
inserire nella proposta un “considerando” così formulato: “I modelli di base sono uno
sviluppo recente, in cui i modelli di IA sono sviluppati a partire da algoritmi progettati
per ottimizzare la generalità e la versatilità degli output. Tali modelli sono spesso
addestrati su un'ampia gamma di fonti di dati e su grandi quantità di dati per svolgere
un'ampia gamma di compiti a valle, compresi alcuni per i quali non sono stati
specificamente sviluppati e addestrati. Il modello di base può essere unimodale o
multimodale e può addestrato con diversi metodi, come l'apprendimento supervisionato
o l'apprendimento per rinforzo. I sistemi di IA con finalità previste specifiche o i sistemi
di IA per finalità generali possono essere l'attuazione di un modello di base, il che
significa che ciascun modello di base può essere riutilizzato in innumerevoli sistemi di
IA a valle o in sistemi di IA per finalità generali. Questi modelli rivestono un'importanza
crescente per molte applicazioni e molti sistemi a valle.”.
Nel testo definitivamente approvato6 (non ancora pubblicato sulla Gazzetta Ufficiale
dell’UE) il “considerando” sopra riportato non è stato inserito, né si definisce ivi il
“modello di base”, mentre si cita e si definisce il “modello di IA per finalità generali”,
ossia: “un modello di IA, anche laddove tale modello di IA sia addestrato con grandi
quantità di dati utilizzando l'autosupervisione su larga scala, che sia caratterizzato una
generalità significativa e sia in grado di svolgere con competenza un'ampia gamma di
compiti distinti, indipendentemente dalle modalità con cui il modello è immesso sul
mercato, e che può essere integrato in una varietà di sistemi o applicazioni a valle, ad
eccezione dei modelli di IA utilizzati per attività di ricerca, sviluppo o prototipazione
prima di essere immessi sul mercato” (art. 3, numero 63)).
Quanto alla definizione di banca dati, essa era contenuta nell’articolo 4 del d. lgs. n. 196
del 20037, che al comma 1, lettera p), definiva la “banca di dati” come “qualsiasi
complesso organizzato di dati personali, ripartito in una o più unità dislocate in uno o più
siti”. Il predetto articolo 4 del d. lgs. 196/2003 è stato abrogato dall'art. 27, comma 1, lett.
a), n. 1), d.lgs. 10 agosto 2018, n. 1018. L'art. 22, comma 6, del d.lgs. 101/2018 stabilisce
che i rinvii alle abrogate disposizioni del codice in materia di protezione dei dati personali,
di cui al decreto legislativo n. 196 del 2003, contenuti in norme di legge e di regolamento,
si intendono riferiti alle corrispondenti disposizioni del Regolamento (UE) 2016/679 e a
quelle introdotte o modificate dal medesimo d. lgs. 101/2018, in quanto compatibili. Nel
Regolamento (UE) 2016/679 non si rinviene una definizione di banca dati, ma si trova la
seguente definizione di “archivio”: “qualsiasi insieme strutturato di dati personali

4
Tale proposta, dopo l’approvazione del PE, ha avuto anche l’approvazione definitiva del Consiglio UE,
in data 21 maggio 2024: v. https://www.adnkronos.com/economia/ai-act-ce-lapprovazione-e-la-prima-
legge-sullintelligenza-artificiale_5rijAqfMEhOhMrOuhz2ME8
5
https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_IT.html
6
https://data.consilium.europa.eu/doc/document/PE-24-2024-INIT/it/pdf
7
Codice in materia di protezione dei dati personali, recante disposizioni per l'adeguamento
dell'ordinamento nazionale al regolamento (UE) n. 2016/679 del Parlamento europeo e del Consiglio,
del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati
personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE.
8
Disposizioni per l'adeguamento della normativa nazionale alle disposizioni del regolamento (UE)
2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle
persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati
e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati).

20
A.S. n. 1146 Articolo 8

accessibili secondo criteri determinati, indipendentemente dal fatto che tale insieme sia
centralizzato, decentralizzato o ripartito in modo funzionale o geografico” (articolo 4).

Si valuti, alla luce degli elementi informativi testé forniti, se i riferimenti contenuti
nel comma in esame, tra cui in particolare quello alla realizzazione e utilizzazione
di “modelli di base”, siano suscettibili di determinare incertezze interpretative.

La dichiarazione di interesse pubblico di cui al comma in disamina è


asseritamente disposta in attuazione dell'articolo 32 della Costituzione e in
conformità a quanto previsto dall'articolo 9, paragrafo 2, lettera g), del regolamento
(UE) 2016/679.

Si ricorda che l’articolo 32 della Costituzione, tra l’altro, stabilisce che la Repubblica
tutela la salute come fondamentale diritto dell'individuo e interesse della collettività.
La richiamata disposizione del regolamento (UE) 2016/679 (art. 9, par. 2, lett. g))
consente il trattamento di determinate categorie di dati “sensibili” (v. infra), tra cui quelli
relativi alla salute, se il trattamento è necessario per motivi di interesse pubblico rilevante
sulla base del diritto dell'Unione o degli Stati membri. La disposizione richiamata precisa
che il trattamento deve essere proporzionato alla finalità perseguita, rispettare l'essenza
del diritto alla protezione dei dati e prevedere misure appropriate e specifiche per tutelare
i diritti fondamentali e gli interessi dell'interessato.

Il comma 2 dell’articolo in esame tratta dell’uso secondario dei dati personali


privi degli elementi identificativi diretti, sempre da parte di soggetti pubblici e
privati senza scopo di lucro e per le descritte finalità indicate dal precedente
comma 1. Tale uso è autorizzato anche con riferimento ai dati appartenenti alle
particolari categorie indicate all’articolo 9 del regolamento (UE) 2016/679 (si
tratta dei dati già individuati come “sensibili”)9, vale a dire: dati personali che
rivelino l'origine razziale o etnica, le opinioni politiche, le convinzioni religiose o
filosofiche, o l'appartenenza sindacale, nonché dati genetici, dati biometrici intesi
a identificare in modo univoco una persona fisica, dati relativi alla salute o alla vita
sessuale o all'orientamento sessuale della persona.
Viene precisato che: resta fermo l'obbligo di informativa all'interessato, che può
essere assolto anche mediante messa a disposizione di un’informativa generale sul
sito web del titolare del trattamento; non è richiesto ulteriore consenso
dell’interessato “ove inizialmente previsto dalla legge”.

La disposizione sopra descritta sull’uso secondario, secondo la relazione illustrativa del


provvedimento in esame, “si rende necessaria per chiarire che la finalità di ricerca medico

9
Per “dati sensibili”, in base alla previgente disciplina recata dal Codice in materia di protezione dei dati
personali, si intendevano i dati personali idonei a rivelare l'origine razziale ed etnica, le convinzioni
religiose, filosofiche o di altro genere, le opinioni politiche, l'adesione a partiti, sindacati, associazioni
od organizzazioni a carattere religioso, filosofico, politico o sindacale, nonché i dati personali idonei a
rivelare lo stato di salute e la vita sessuale. Ai sensi di quanto disposto dall'art. 22, comma 2, del d.ggs.
10 agosto 2018, n. 101, a decorrere dal 25 maggio 2018, l'espressione “dati sensibili” si intende riferita
alle categorie particolari di dati di cui all'art. 9 del succitato Regolamento (UE) n. 2016/679.

21
A.S. n. 1146 Articolo 8

scientifica di pubblico interesse non richiede di replicare il consenso dell’interessato (ove


richiesto) se cambia l’ambito della ricerca stessa. In altri termini, se è stato prestato un
consenso al trattamento di dati per la ricerca di una cura di una determinata patologia, gli
stessi dati devono poter essere utilizzati senza ulteriori adempimenti salva la
comunicazione al Garante per la protezione dei dati personali”.

Si ricorda che, per uso secondario dei dati, si intende il trattamento di dati personali per
scopi diversi da quelli per i quali i dati stessi sono stati inizialmente raccolti.
Con specifico riferimento ai dati sanitari, nella proposta di regolamento del Parlamento
europeo e del Consiglio sullo spazio europeo dei dati sanitari, un riferimento all’uso
secondario è contenuto nel “considerando” (1), che così recita: “Il presente regolamento
ha lo scopo di istituire lo spazio europeo dei dati sanitari (European Health Data Space,
EHDS) al fine di migliorare l'accesso delle persone fisiche ai loro dati sanitari elettronici
personali e il loro controllo su tali dati nel contesto dell'assistenza sanitaria (uso primario
dei dati sanitari elettronici), e per altre finalità di cui beneficerebbe la società quali la
ricerca, l'innovazione, la definizione delle politiche, la sicurezza dei pazienti, la medicina
personalizzata, le statistiche ufficiali o le attività normative (uso secondario dei dati
sanitari elettronici). (..)”.
L’articolo 14 del citato regolamento (UE) 2016/679 richiede un’informativa
all’interessato, tra l’altro, qualora il titolare del trattamento intenda trattare ulteriormente
i dati personali per una finalità diversa da quella per cui essi sono stati ottenuti.
Il d.lgs.196/2003, all’articolo 110-bis, disciplina il trattamento ulteriore da parte di terzi
dei dati personali a fini di ricerca scientifica o a fini statistici, prevedendo che il Garante
per la protezione dei dati personali possa autorizzare il trattamento ulteriore di dati
personali, compresi quelli dei trattamenti speciali di cui all'articolo 9 del regolamento
(UE) 2016/679, a fini di ricerca scientifica o a fini statistici da parte di soggetti terzi che
svolgano principalmente tali attività quando, a causa di particolari ragioni, informare gli
interessati risulta impossibile o implica uno sforzo sproporzionato, oppure rischia di
rendere impossibile o di pregiudicare gravemente il conseguimento delle finalità della
ricerca, a condizione che siano adottate misure appropriate per tutelare i diritti, le libertà
e i legittimi interessi dell'interessato, comprese forme preventive di minimizzazione e di
anonimizzazione dei dati. Il Garante comunica la decisione adottata sulla richiesta di
autorizzazione entro quarantacinque giorni, decorsi i quali la mancata pronuncia equivale
a rigetto. Con il provvedimento di autorizzazione o anche successivamente, sulla base di
eventuali verifiche, il Garante stabilisce le condizioni e le misure necessarie ad assicurare
adeguate garanzie a tutela degli interessati nell'ambito del trattamento ulteriore dei dati
personali da parte di terzi, anche sotto il profilo della loro sicurezza. Il trattamento
ulteriore di dati personali da parte di terzi per le finalità anzidette può essere autorizzato
dal Garante anche mediante provvedimenti generali, adottati d'ufficio e anche in relazione
a determinate categorie di titolari e di trattamenti, con i quali sono stabilite le condizioni
dell'ulteriore trattamento e prescritte le misure necessarie per assicurare adeguate garanzie
a tutela degli interessati.
L’articolo 110 del d.lgs.196/2003 prevede alcuni casi nei quali il consenso dell'interessato
- per il trattamento dei dati relativi alla salute a fini di ricerca scientifica in campo medico,
biomedico o epidemiologico - non è necessario. In tali casi: il titolare del trattamento
adotta misure appropriate per tutelare i diritti, le libertà e i legittimi interessi
dell'interessato; il programma di ricerca è oggetto di motivato parere favorevole del

22
A.S. n. 1146 Articolo 8

competente comitato etico a livello territoriale; il Garante per la protezione dei dati
personali individua le garanzie da osservare.

Il comma 3 dell’articolo in esame stabilisce, in primo luogo, che i trattamenti di


dati di cui ai precedenti commi 1 e 2 devono essere oggetto di approvazione da
parte dei comitati etici interessati10.
In secondo luogo, prevede che detti trattamenti debbano essere comunicati al
Garante per la protezione dei dati personali insieme con informazioni sulle
misure per assicurare la sicurezza del trattamento e sulla valutazione
dell’impatto del trattamento medesimo (questo, in sintesi, il senso del richiamo
degli articoli 24, 25, 32 e 35 del regolamento (UE) 2016/679, operato dal comma
in esame), nonché con l’indicazione espressa dei soggetti individuati quali
responsabili del trattamento, ove presenti (richiamo dell’articolo 28 del
medesimo regolamento (UE) 2016/679).
In terzo luogo, il comma in esame pone un termine dilatorio per l’inizio dei
trattamenti in questione: questi possono essere iniziati decorsi trenta giorni dalla
predetta comunicazione al Garante, se non oggetto di blocco disposto dal Garante
medesimo.

Il comma 4 precisa che restano fermi i poteri ispettivi, interdittivi e sanzionatori


del Garante per la protezione dei dati personali.

Si ricorda che i poteri di indagine del Garante, quale autorità di controllo, sono previsti
dall’articolo 58, co. 1, del regolamento (UE) 2016/679. Tra l’altro, spetta al Garante: di
ingiungere al titolare del trattamento e al responsabile del trattamento (e, ove applicabile,
al rappresentante del titolare del trattamento o del responsabile del trattamento) di
fornirgli ogni informazione di cui necessiti per l'esecuzione dei suoi compiti; di ottenere,
dal titolare del trattamento o dal responsabile del trattamento, l'accesso a tutti i dati
personali e a tutte le informazioni necessarie per l'esecuzione dei suoi compiti; di ottenere
accesso a tutti i locali del titolare del trattamento e del responsabile del trattamento in
conformità con il diritto dell'Unione o il diritto processuale degli Stati membri.
Il predetto articolo 58, al co. 2, prevede alcuni poteri correttivi, tra i quali quello di
imporre una limitazione provvisoria o definitiva al trattamento, incluso il divieto di
trattamento, e quello di infliggere una sanzione amministrativa pecuniaria.
Il successivo co. 3 tratta invece dei poteri autorizzativi e consultivi.
L’articolo 157 del d.lgs. 196/2003, al co. 1, stabilisce che il Garante può richiedere al
titolare, al responsabile, al rappresentante del titolare o del responsabile, all'interessato o
anche a terzi di fornire informazioni e di esibire documenti anche con riferimento al
contenuto di banche di dati.
Il Garante, in base al successivo articolo 158, può disporre accessi a banche di dati, archivi
o altre ispezioni e verifiche nei luoghi ove si svolge il trattamento o nei quali occorre

10
Si ricorda che i comitati etici sono organismi indipendenti la cui principale funzione è la valutazione
degli aspetti etici e scientifici delle ricerche biomediche al fine di tutelare i diritti, la sicurezza e il
benessere delle persone coinvolte. Per un approfondimento in materia si veda
https://www.issalute.it/index.php/la-salute-dalla-a-alla-z-menu/c/comitato-etico

23
A.S. n. 1146 Articolo 8

effettuare rilevazioni comunque utili al controllo del rispetto della disciplina in materia
di trattamento dei dati personali.

Si ricorda, in conclusione, che nell’ambito della missione 6 (Salute) del PNRR,


l’investimento M6C1 I1.2 - Casa come primo luogo di cura e telemedicina prevede anche
un subinvestimento concernente le Centrali operative territoriali (COT), all’interno del
quale 50 milioni di euro sono da destinare alla implementazione di un progetto pilota per
i servizi di Intelligenza artificiale a supporto dell’assistenza primaria, per verificare le
opportunità e i rischi relativi all’implementazione di tali strumenti all’interno del SSN.

24
A.S. n. 1146 Articolo 9

Articolo 9
(Disposizioni in materia di fascicolo sanitario elettronico, sistemi di
sorveglianza nel settore sanitario e governo della sanità digitale)

L’articolo 9 apporta modifiche al D.L. n. 179/2012, il cui articolo 12 detta


disposizioni riguardanti il Fascicolo sanitario elettronico, i sistemi di
sorveglianza del settore sanitario ed il governo della sanità digitale, aggiungendo
il nuovo articolo 12-bis in tema di intelligenza artificiale nel settore sanitario
per garantire strumenti e tecnologie avanzate in campo sanitario.

L’articolo 9 (comma 1), inserisce l’articolo 12-bis nel Decreto legge 12 ottobre
2012, n. 27911, in tema di Intelligenza artificiale nel settore sanitario. Viene
previsto (comma 1 art. 12-bis) che le soluzioni di intelligenza artificiale aventi
funzione di supporto alle finalità di cui all'articolo 12, comma 2 del citato D.L. (v.
infra), devono essere disciplinate con uno o più decreti del Ministro della salute,
di concerto con l'Autorità politica delegata in materia di innovazione tecnologica
e transizione digitale e con l'Autorità delegata per la sicurezza della Repubblica e
cybersicurezza, sentita la Conferenza permanente Stato-Regioni. Ciò al fine di
garantire strumenti e tecnologie avanzate nel settore sanitario.

In proposito, il comma 2 dell’articolo 12 del D.L. n. 179/2012 prevede che le citate finalità
siano le seguenti:
a) diagnosi, cura e riabilitazione;
a-bis) prevenzione;
a-ter) profilassi internazionale;
b) studio e ricerca scientifica in campo medico, biomedico ed epidemiologico;
c) programmazione sanitaria, verifica delle qualità delle cure e valutazione dell'assistenza
sanitaria.
Il FSE deve inoltre consentire l'accesso da parte del cittadino ai servizi sanitari on line
secondo predeterminate modalità ovvero tramite il Portale nazionale sul Fascicolo
sanitario.
Il Portale è costituito da una pagina web che consente l’accesso al cittadino mediante
l’inserimento dei propri dati certificati e rispettando specifiche procedure di sicurezza. Il
Governo offre inoltre una specifica pagina web in cui sono spiegate le modalità per
accedere al FSE.

Tramite i decreti approvati con la procedura indicata dalla norma, si dispone che
devono essere individuati i soggetti che, nell'esercizio delle proprie funzioni,
accedono alle soluzioni di intelligenza artificiale secondo le modalità definite dai
medesimi decreti.

11
Ulteriori misure urgenti per la crescita del Paese, conv. con mod. dalla L. n. 221/2012.

25
A.S. n. 1146 Articolo 9

Si dispone inoltre (comma 2 art. 12-bis) che per il supporto alle finalità di cura, e
in particolare per l'assistenza territoriale (v. box) deve essere istituita una
piattaforma di intelligenza artificiale.
Al riguardo, la progettazione, la realizzazione, la messa in servizio e la titolarità
della piattaforma vengono attribuite all'Agenzia nazionale per i servizi sanitari
regionali (AGENAS) in qualità di Agenzia nazionale per la sanità digitale.
Più in dettaglio, tale piattaforma dovrà erogare i seguenti servizi di supporto:
1. ai professionisti sanitari per la presa in carico della popolazione assistita;
2. ai medici nella pratica clinica quotidiana con suggerimenti non vincolanti;
3. agli utenti per l'accesso ai servizi sanitari delle Case di Comunità.

La citata piattaforma (comma 3 art. 12-bis) deve essere alimentata con i dati
strettamente necessari per l'erogazione dei servizi di cui al medesimo comma 2,
che saranno trasmessi dai relativi titolari del trattamento. In proposito, si precisa
che l’Agenzia nazionale per i servizi sanitari, Agenas, è il soggetto titolare del
trattamento dei dati raccolti e generati all'interno della piattaforma.
L’Agenzia, con proprio provvedimento, dopo aver acquisito i previ pareri del
Ministero della salute e del Garante per la protezione dei dati personali, oltre che
dell’Agenzia per la Cybersicurezza nazionale, e valutato l'impatto del trattamento,
specifica i tipi di dati trattati e le operazioni eseguite all'interno della piattaforma,
nonché le misure tecniche e organizzative per garantire un livello di sicurezza
adeguato al rischio e per tutelare i diritti fondamentali e gli interessi
dell'interessato, in coerenza con le disposizioni del Regolamento UE 2016/679,
vale a dire il Regolamento generale sulla protezione dei dati (comma 4 art. 12-bis).

Il comma 2, dell’articolo 9 in esame prevede poi la clausola di invarianza degli


oneri finanziari, prevedendo che dall'attuazione del presente articolo non devono
derivare nuovi o maggiori oneri per la finanza pubblica. Inoltre, si specifica che
l'Agenzia nazionale per i servizi sanitari regionali (Agenas) è chiamata a
provvedere alle attività di cui al presente articolo con le risorse umane, strumentali
e finanziarie disponibili a legislazione vigente.

• Il Fascicolo sanitario elettronico e gli investimenti PNRR

Il Fascicolo Sanitario Elettronico (FSE), introdotto dall'art. 12 del decreto legge n.


179 del 2012, costituisce l'insieme dei dati e documenti digitali di tipo sanitario e
sociosanitario generati da eventi clinici presenti e trascorsi riguardanti l'assistito ed è
alimentato in maniera continuativa dai soggetti che prendono in cura l'assistito nell'ambito
del Servizio sanitario nazionale. Il FSE, istituito dalle regioni e dalle province autonome,
mira al raggiungimento di diverse finalità:
a) prevenzione, diagnosi, cura e riabilitazione;
b) studio e ricerca scientifica in campo medico, biomedico ed epidemiologico;
c) programmazione sanitaria, verifica delle qualità delle cure e valutazione
dell'assistenza sanitaria.

26
A.S. n. 1146 Articolo 9

Il DPCM 29 settembre 2015, n. 178, il regolamento di attuazione del FSE, ha definito


i contenuti del FSE, tra cui: il profilo sanitario sintetico che riassume la storia clinica
dell'assistito (redatto dal medico di medicina generale o dal pediatra di libera scelta); il
taccuino personale dell'assistito, sezione riservata del FSE in cui si consente all'assistito
di inserire documenti relativi ai propri percorsi di cura, effettuati anche al di fuori del
SSN; tutti gli elementi in materia di riservatezza dei dati come da normativa del Codice
in materia di protezione dei dati personali. Le Regioni hanno assunto il compito di rendere
operativo l'accesso alle informazioni per tutte le finalità sopra previste, garantendo
l'interoperabilità su tutto il territorio nazionale mediante le specifiche tecniche pubblicate
dall'AgID il 6 maggio 2015, successivamente aggiornate nel 2016. Sulla interoperabilità
del FSE è intervenuta, attraverso un apposito stanziamento, la legge di bilancio 2017 (art.
1, co. 382, L. 232/2016) disponendo, mediante l'infrastruttura del Sistema Tessera
Sanitaria (v. art. 50 del D.L. 269/2003 - L. 326/2003), l'identificazione dell'assistito
registrato all'Anagrafe Nazionale degli Assistiti (ANA), oltre ad una serie di servizi idonei
ad interrogare il Sistema. Ulteriori disposizioni attuative sono previste dal Decreto del
Ministero della salute del 7 settembre 2023.
L'AgID, in proposito, ha elaborato un documento per definire nel dettaglio funzionalità
e obiettivi della citata Infrastruttura nazionale di interoperabilità (v. Circolare n. 4 del 1°
agosto 2017). Al fine di favorire l'interoperabilità tra i modelli realizzati in completa
autonomia dalle regioni, la circolare AgID n. 3 del 2 settembre 2019 ha introdotto il
portale nazionale FSE, che costituisce un punto di accesso unico per l'intero territorio
nazionale.
Più recentemente, il decreto MEF dell' 11 aprile 2024 è intervenuto modificando la
disciplina prevista dal decreto 4 agosto 2017, circa le modalità di esercizio della facoltà
di opposizione all'alimentazione automatica del Fascicolo sanitario elettronico con i
dati e documenti digitali sanitari generati da eventi clinici riferiti alle prestazioni erogate
dal Servizio sanitario nazionale fino al 18 maggio 2020.
L'articolo 42 del D.L. 19/2024 PNRR ha poi previsto alcune norme per
il potenziamento delle competenze dell'Agenzia nazionale per i servizi sanitari regionali
– Agenas, in materia di Fascicolo sanitario elettronico (FSE) e senza nuovi o maggiori
oneri per la finanza pubblica, prevedendo che l'Agenas estenda l'esercizio delle proprie
competenze attualmente previste per i soli livelli centrali (Ministero del lavoro e politiche
sociali e Ministero della salute) e regionali di governo, anche con riferimento allo studio
e alla ricerca scientifica in campo medico, biomedico ed epidemiologico e relativamente
alla programmazione sanitaria, alla verifica delle qualità delle cure ed alla valutazione
dell'assistenza sanitaria che rientrano nel FSE. Tra i compiti dell'AGENAS vi rientra
quello della gestione dell'Intelligenza Artificiale e della valutazione delle tecnologie
sanitarie (Health Technology Assessment – HTA) relative ai dispositivi medici,
nell'ambito della gestione della piattaforma nazionale di telemedicina. All'Agenzia si
attribuiscono inoltre le attività relative alla raccolta e alla gestione dei dati utili anche
pseudonimizzati, garantendo che gli interessati non siano direttamente identificabili,
nell'ambito dell'attività di monitoraggio dell'erogazione dei servizi di telemedicina
necessario per il raggiungimento degli obiettivi riconducibili al sub-intervento di
investimento M6C1 1.2.3.2 "Servizi di telemedicina", tra cui il target comunitario M6C1-
9, nonché per garantire la tempestiva attuazione del sub intervento M6C1 1.2.2.4 "COT-
Progetto pilota di intelligenza artificiale".
Lo sviluppo e l'utilizzo del FSE su tutto il territorio nazionale è stato considerato uno
degli obiettivi da raggiungere nel nuovo disegno programmatorio del PNRR, che ha

27
A.S. n. 1146 Articolo 9

previsto il potenziamento dei sistemi informativi e degli strumenti digitali


sanitari (investimento 1.3) con risorse pari a 1.672,5 milioni in prestiti, oltre a quote di
cofinanziamento nazionale del Fondo nazionale di coesione (437,4 milioni) riguardanti:
° il potenziamento, con risorse pari a 1.379,99 milioni (di cui 569 milioni per progetti
già in essere), dell'infrastruttura tecnologica per la raccolta, l'elaborazione, l'analisi dati e
la simulazione nell'ambito del Fascicolo sanitario elettronico (FSE) con almeno l'85%
dei medici di base (MMG) in grado di alimentare il Fascicolo regolarmente mediante
sostegno e formazione per l'aggiornamento digitale entro la fine del 2025, con adozione
ed utilizzo dell'infrastruttura da parte di tutte le Regioni entro la metà del 2026 ((M6C2-
11, 12 e 13); delle richiamate risorse una quota-parte di 610,9 milioni è destinata al
potenziamento infrastruttura digitale (299,6 mln) e alle competenze digitali dei
professionisti (311,4 mln). A tal fine il decreto 20 maggio 2022 ha adottato le Linee guida
per l'attuazione del Fasciolo sanitario elettronico;
° il rafforzamento dell'infrastruttura tecnologica del Ministero della salute per
l'analisi dei dati e il modello predittivo per la vigilanza LEA (M6C2-13), con risorse pari
a 292,6 milioni per l'attuazione del Nuovo Sistema Informativo Sanitario (NSIS) e
l'adozione regionale di 4 nuovi flussi informativi nazionali per ciascuna delle 21 Regioni
che utilizzano EHR (Electronic Health Records), riguardanti 1) il Rafforzamento
infrastrutture e strumenti di Data Analysis del Ministero della Salute e completamento
della piattaforma open data (92,7 milioni); 2) Reingegnerizzazione NSIS a livello locale
(103,3 milioni); 3) Costruzione del modello predittivo e Realizzazione del National
Health Hub (77 milioni); 4) Sviluppo Piattaforma Nazionale per i servizi di telemedicina
(19,6 milioni).

28
A.S. n. 1146 Articolo 10

Articolo 10
(Disposizioni sull’uso dell’intelligenza artificiale
in materia di lavoro)

L’articolo 10 disciplina l’utilizzo dell’intelligenza artificiale all’interno del


mondo del lavoro. In particolare, la norma esamina gli obiettivi che si intendono
perseguire mediante l’impiego della nuova tecnologia - quali il miglioramento
delle condizioni di lavoro, la salvaguardia dell’integrità psico-fisica dei
lavoratori, l’incremento delle prestazioni lavorative e della produttività delle
persone – prevedendo, allo stesso tempo, il rispetto della dignità umana, la
riservatezza dei dati personali e la tutela dei diritti inviolabili dei prestatori, in
conformità a quanto prescritto dal diritto europeo.

Il comma 1 individua le finalità che deve perseguire l’utilizzo dell’intelligenza


artificiale all’interno del mondo del lavoro.
In particolare, gli obiettivi richiamati riguardano:
- il miglioramento delle condizioni di lavoro;
- la salvaguardia dell’integrità psico-fisica dei lavoratori;
- l’incremento delle prestazioni lavorative e della produttività delle persone.

Si può osservare come le predette finalità valorizzino un approccio cd.


antropocentrico, come sottolineato anche dalla Relazione Illustrativa, in
conformità con quanto prescritto dalla normativa sovranazionale, in particolare dal
Considerando n. 8 del Regolamento del Parlamento europeo e del Consiglio UE
del 2024 cd. “AI Act”, approvato dal Consiglio in via definitiva in data 21 maggio
202412) (in attesa di pubblicazione sulla Gazzetta Ufficiale dell’UE).
A tal riguardo, si ricorda che il predetto Regolamento europeo ha dettato una
normativa dettagliata in materia di IA, disciplinando anche gli aspetti concernenti
l’impatto della nuova tecnologia sul mercato del lavoro (per approfondimento cfr.
scheda su articolo 22, comma 2).
Nello specifico l’allegato III del Regolamento (a cui fa espresso rinvio l’articolo 6,
paragrafo 7 del medesimo atto), analizza, tra gli altri, i sistemi di IA13 ad alto rischio14
nell’ambito dell’“occupazione, gestione dei lavoratori e accesso al lavoro autonomo”.

12
Il Considerando 8 afferma che “il presente regolamento contribuisce all'obiettivo di promuovere
l'approccio antropocentrico europeo all'IA ed essere un leader mondiale nello sviluppo di un'IA
sicura, affidabile ed etica, come affermato dal Consiglio europeo, e garantisce la tutela dei principi etici,
come specificamente richiesto dal Parlamento europeo”.
13
In base alla definizione fornita dal Regolamento, per “sistema di IA” si intende “un sistema
automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare
adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come
generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare
ambienti fisici o virtuali” (articolo 3 Regolamento UE sull’IA).
14
Il Regolamento, in questo contesto, definisce il “rischio” come “la combinazione della probabilità del
verificarsi di un danno e la gravità del danno stesso” (articolo 3 Regolamento “AI Act”).

29
A.S. n. 1146 Articolo 10

In questa categoria sono, pertanto, ricompresi:


 “i sistemi di IA destinati ad essere utilizzati per l'assunzione o la selezione di persone
fisiche, in particolare per pubblicare annunci di lavoro mirati, analizzare o filtrare le
candidature e valutare i candidati”;
 “i sistemi di IA destinati a essere utilizzati per adottare decisioni riguardanti le
condizioni dei rapporti di lavoro, la promozione o cessazione dei rapporti contrattuali
di lavoro, per assegnare compiti sulla base del comportamento individuale o dei tratti
e delle caratteristiche personali o per monitorare e valutare le prestazioni e il
comportamento delle persone nell'ambito di tali rapporti di lavoro”.

Il comma 2 specifica che il ricorso a sistemi di IA non può ledere i diritti


inviolabili15 della dignità umana e della riservatezza dei dati personali.
A tal riguardo l’impiego della nuova tecnologia deve possedere i caratteri della
sicurezza, dell’affidabilità e della trasparenza16.
Inoltre, con specifico riferimento a quest’ultimo elemento, la norma prevede che
il datore sia tenuto a fornire al lavoratore un’informativa trasparente sugli ambiti
di impiego di sistemi di IA.
La disposizione rinvia all’articolo 1-bis del D.Lgs. 26 maggio 1997, n. 152 per
l’individuazione dei casi e delle modalità con cui il datore deve adempiere ai
predetti obblighi di informazione.

Si ricorda che l’articolo 1-bis, appena richiamato, prevede che il datore sia tenuto ad
informare il prestatore dell'utilizzo di sistemi decisionali o di monitoraggio, integralmente
automatizzati, che siano in grado di fornire indicazioni in materia di: assunzione,
conferimento dell'incarico, gestione e cessazione del rapporto di lavoro, assegnazione di
compiti o mansioni, sorveglianza, valutazione, adempimento degli obblighi contrattuali
da parte dei prestatori (comma1).
L’articolo prescrive, inoltre, che il datore (o il committente) debba fornire le suddette
informazioni “in modo trasparente, in formato strutturato, di uso comune e leggibile da
dispositivo automatico”. Le informazioni devono essere comunicate anche alle RSA o
RSU competenti, ovvero, in mancanza, alle sedi territoriali delle associazioni sindacali
comparativamente più rappresentative sul piano nazionale (comma 6).

Il comma 3 prende in esame l’ipotesi specifica di utilizzo dell’intelligenza


artificiale negli ambiti dell’organizzazione e della gestione del rapporto di lavoro.
A tal riguardo, la disposizione prescrive che, durante i suddetti impieghi dell’IA,
occorre garantire i diritti inviolabili degli individui, evitando forme di

15
Secondo quanto riportato al Considerando n. 9 del Regolamento UE: “(…) Il presente regolamento non
dovrebbe inoltre pregiudicare l'esercizio dei diritti fondamentali riconosciuti dagli Stati membri e a
livello di Unione, compresi il diritto o la libertà di sciopero o il diritto o la libertà di intraprendere altre
azioni contemplate dalla disciplina delle relazioni industriali negli Stati membri nonché il diritto di
negoziare, concludere ed eseguire accordi collettivi, o di intraprendere azioni collettive in conformità
del diritto nazionale (…)”
16
Sempre al Considerando n. 9 il Regolamento UE, afferma che “il presente regolamento mira a rafforzare
l'efficacia di tali diritti e mezzi di ricorso esistenti definendo requisiti e obblighi specifici, anche per
quanto riguarda la trasparenza, la documentazione tecnica e la conservazione delle registrazioni dei
sistemi di IA”.

30
A.S. n. 1146 Articolo 10

discriminazione fondate sul sesso, sull’età, delle origini etniche, del credo
religioso, dell’orientamento sessuale, delle opinioni politiche e sulle condizioni
personali, sociali ed economiche, anche alla luce di quanto prescritto dal diritto
europeo17.
Attraverso tale disposizione, inoltre, vengono applicati anche al mondo del lavoro
principi già espressi in via generale dall’articolo 3, comma 1, di questo stesso
disegno di legge (per approfondimento cfr. scheda di lettura articolo 3).

17
Il Considerando n. 57 del Regolamento UE esamina puntualmente l’applicazione dei sistemi di IA sulla
gestione e sull’organizzazione del mondo del lavoro. A tal riguardo si asserisce che “i sistemi di IA
utilizzati nel settore dell'occupazione, nella gestione dei lavoratori e nell'accesso al lavoro autonomo, in
particolare per l'assunzione e la selezione delle persone, per l'adozione di decisioni riguardanti le
condizioni del rapporto di lavoro la promozione e la cessazione dei rapporti contrattuali di lavoro, per
l'assegnazione dei compiti sulla base dei comportamenti individuali, dei tratti o delle caratteristiche
personali e per il monitoraggio o la valutazione delle persone nei rapporti contrattuali legati al lavoro,
dovrebbero essere classificati come sistemi ad alto rischio, in quanto tali sistemi possono avere un
impatto significativo sul futuro di tali persone in termini di prospettive di carriera e sostentamento e di
diritti dei lavoratori (…). Durante tutto il processo di assunzione, nonché ai fini della valutazione e della
promozione delle persone o del proseguimento dei rapporti contrattuali legati al lavoro, tali sistemi
possono perpetuare modelli storici di discriminazione, ad esempio nei confronti delle donne, di talune
fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o
un determinato orientamento sessuale. I sistemi di IA utilizzati per monitorare le prestazioni e il
comportamento di tali persone possono inoltre comprometterne i diritti fondamentali in materia di
protezione dei dati e vita privata”.

31
A.S. n. 1146 Articolo 11

Articolo 11
(Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo
del lavoro)

L’articolo 11 istituisce, presso il Ministero del lavoro e delle politiche sociali,


l’Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del
lavoro, al fine di contenere i rischi derivanti dall’impiego dei sistemi di IA in
ambito lavorativo, massimizzando i benefici.

Per la suddetta finalità, all’Osservatorio viene attribuito il compito di (comma 1):


 definire una strategia sull’utilizzo dell’intelligenza artificiale in ambito
lavorativo;
 monitorare l’impatto sul mercato del lavoro;
 identificare i settori lavorativi maggiormente interessati dall’avvento
dell’intelligenza artificiale;
 promuovere la formazione dei lavoratori e dei datori di lavoro in materia
di intelligenza artificiale.

Si ricorda che il Regolamento del Parlamento europeo e del Consiglio dell’UE sull'IA,
cd. “AI Act”, approvato in via definitiva dal Consiglio lo scorso 21 maggio e in attesa di
pubblicazione sulla Gazzetta ufficiale dell’UE (per una sintesi del quale si rinvia alla
scheda di lettura relativa al successivo articolo 22, c. 2) annovera tra i sistemi definiti ad
alto rischio (di cui all'Allegato III, punto 4) - ossia potenzialmente in grado di violare
diritti fondamentali - anche quelli utilizzati per l'occupazione, la gestione dei
lavoratori e l'accesso al lavoro (in particolare per l'assunzione e la selezione delle
persone), dal momento che tali sistemi possono influire sensibilmente sulle prospettive di
carriera future e sui mezzi di sussistenza di tali persone e sui diritti dei lavoratori. Per tale
ragione, il Regolamento prevede che, prima di mettere in servizio o utilizzare un sistema
di IA ad alto rischio sul posto di lavoro, i datori di lavoro devono informare
i rappresentanti dei lavoratori e i lavoratori interessati che saranno soggetti al
sistema (articolo 26, paragrafo 7). Inoltre, in base al fatto che, come chiarito nei
considerando del regolamento in questione, lo stesso non deve incidere sul diritto
dell'Unione in materia di politica sociale e sul diritto del lavoro nazionale, si dispone che
il regolamento medesimo non osta a che gli Stati membri o l'Unione mantengano o
introducano disposizioni legislative, regolamentari o amministrative più favorevoli ai
lavoratori per quanto riguarda la tutela dei loro diritti relativi all'uso dei sistemi di IA da
parte dei datori di lavoro, o per incoraggiare o consentire l'applicazione di contratti
collettivi più favorevoli ai lavoratori.

L’Osservatorio è presieduto dal Ministro del lavoro e delle politiche sociali o da


un suo rappresentante e, con decreto del medesimo Ministro, da adottare entro
novanta giorni dalla data di entrata in vigore della presente legge, sono stabiliti i
suoi componenti, ai quali non spettano compensi, gettoni di presenza, rimborsi di

32
A.S. n. 1146 Articolo 11

spese o altri emolumenti comunque denominati. A tale decreto è demandata altresì


la definizione delle modalità di funzionamento, nonché degli ulteriori compiti e
funzioni dell’Osservatorio (comma 2).
Con riferimento a tali disposizioni, potrebbe risultare opportuno precisare –
mediante apposita specificazione normativa – quali possano essere gli ambiti nei
quali il decreto è legittimato ad attribuire, con fonte di rango secondario, ulteriori
compiti e funzioni all’Osservatorio e, al contempo, indicare nei confronti di quali
soggetti, pubblici e/o privati, sia rivolta la relativa attività di carattere istruttorio,
programmatorio e formativo.
Si dispone, infine, che l’istituzione e il funzionamento dell’Osservatorio non
comportano nuovi o maggiori oneri a carico della finanza pubblica e sono
assicurati con le risorse finanziarie, umane e strumentali disponibili a legislazione
vigente (comma 3).

33
A.S. n. 1146 Articolo 12

Articolo 12
(Disposizioni in materia di professioni intellettuali)

L’articolo 12 limita alle attività strumentali e di supporto l’applicabilità dei


sistemi di intelligenza artificiale nelle professioni intellettuali e richiede che
l’eventuale utilizzo dei medesimi sistemi sia oggetto di informativa ai clienti da
parte dei professionisti in esame.

L’articolo 12 concerne l’utilizzo dei sistemi di intelligenza artificiale – come


definiti nel precedente articolo 2, comma 1, lettera a) – nelle professioni
intellettuali.
Riguardo all’ambito e alla disciplina generale di queste ultime, la relazione
illustrativa del presente disegno di legge18 fa riferimento agli articoli da 2229 a
2238 del codice civile. Tali articoli concernono il contratto di prestazione d’opera
intellettuale (in tale ambito, l’articolo 2230 fa rinvio, in quanto compatibili con le
suddette disposizioni e con la natura del rapporto, alle norme di cui agli articoli da
2222 a 2228 del citato codice, relative al contratto d’opera in generale).
La disciplina di cui al presente articolo 12 è, dunque, inerente ai contratti di
prestazione d’opera intellettuale e non anche a contratti (quali, per esempio, i
contratti di edizione) di cessione o utilizzo di opere intellettuali precedentemente
realizzate senza un incarico sottostante – opere che restano quindi al di fuori della
disciplina limitativa in oggetto –.
Il comma 1 dell’articolo 12 prevede che i sistemi di intelligenza artificiale siano
applicabili nelle professioni intellettuali esclusivamente per lo svolgimento di
attività strumentali e di supporto all’attività professionale, la quale deve restare
contraddistinta dalla prevalenza del lavoro intellettuale oggetto della prestazione
d’opera. La suddetta relazione illustrativa osserva che, in base al comma in
esame, il pensiero critico umano deve sempre risultare prevalente rispetto all’uso
degli strumenti di intelligenza artificiale. Il requisito di prevalenza appare, dunque,
posto dal comma con riferimento al profilo della qualità della prestazione (e non
implica una prevalenza anche di tipo quantitativo).
Il successivo comma 2 dispone che le informazioni relative ai sistemi di
intelligenza artificiale utilizzati dal professionista siano comunicate al soggetto
destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed
esaustivo (nel rispetto del rapporto fiduciario tra professionista e cliente).
Riguardo all’uso dei sistemi di intelligenza artificiale da parte dei professionisti,
cfr. anche la disciplina di delega di cui all’articolo 22, comma 2, lettera c), del
presente disegno di legge (si rinvia alla relativa scheda).

18
Si ricorda che la suddetta relazione è reperibile nell’A.S. n. 1146.

34
A.S. n. 1146 Articolo 13

Articolo 13
(Uso dell’intelligenza artificiale nella pubblica amministrazione)

L’articolo 13 pone talune previsioni di ordine generale circa l’utilizzo


dell’intelligenza artificiale nei procedimenti della pubblica amministrazione, alla
stregua di principi quali la conoscibilità, tracciabilità, strumentalità rispetto alla
decisione spettante comunque alla persona responsabile dell’agire amministrativo.

Il comma 1 pone le finalità dell’utilizzo dell’intelligenza artificiale da parte delle


pubbliche amministrazioni.
Sono:
 l’incremento della propria efficienza;
 la riduzione dei tempi di definizione dei procedimenti;
 l’incremento della qualità e quantità dei servizi erogati.
Al contempo, si prescrive di assicurare agli interessati la conoscibilità del suo
funzionamento e la tracciabilità del suo utilizzo.
L’utilizzo dell’intelligenza artificiale ha da essere in funzione strumentale e di
supporto all’attività provvedimentale.
Ed è tenuto al rispetto dell’autonomia e del potere decisionale della persona che
resta l’unica responsabile dei provvedimenti e dei procedimenti (così il comma 2).
Le pubbliche amministrazioni adottano misure tecniche, organizzative e
formative, volte a garantire un utilizzo dell’intelligenza artificiale “responsabile”
e a sviluppare le capacità trasversali degli utilizzatori (comma 3).
Infine è posta una clausola di invarianza finanziaria (comma 4).

I principi così formulati concernono un ambito di utilizzo dell’intelligenza artificiale – da


parte delle pubbliche amministrazioni – sul quale, se allo stato non sono intervenute
pronunzie della Corte costituzionale, si è profilata ormai una prima giurisprudenza
amministrativa.
Vale rammentare, per questo riguardo, la sentenza del Consiglio di Stato, Sezione VI,
8-4-2019, n. 2270, entro un giudizio in cui gli appellanti erano docenti della scuola
secondaria di secondo grado già inseriti nelle relative graduatorie ad esaurimento,
individuati come destinatari di proposta di assunzione a tempo indeterminato, in
conseguenza del piano straordinario nazionale (di cui alla legge n. 107 del 2015, art. 1,
commi 95-104) nella fase “B”. Essi lamentavano di essersi ritrovati - per effetto di un
meccanismo algoritmico - destinatari di una nomina su classi di concorso ed ordine di
scuola in cui non avevano mai lavorato, e scuola superiore di primo grado benché
avessero espresso preferenza per quella di secondo grado, ed in province lontane rispetto
a quella di provenienza, quando poi in seguito, durante la fase “C”, i docenti collocati in
graduatoria in posizione deteriore rispetto agli appellanti, hanno beneficiato
dell’assunzione a tempo indeterminato nella classe di concorso prescelta e nella provincia
di residenza.
Il Consiglio di Stato rilevava preliminarmente “gli indiscutibili vantaggi derivanti dalla
automazione del processo decisionale dell’amministrazione mediante l’utilizzo di una
procedura digitale ed attraverso un ‘algoritmo’ - ovvero di una sequenza ordinata di

35
A.S. n. 1146 Articolo 13

operazioni di calcolo - che in via informatica sia in grado di valutare e graduare una
moltitudine di domande. L’utilità di tale modalità operativa di gestione dell’interesse
pubblico è particolarmente evidente con riferimento a procedure seriali o standardizzate,
implicanti l’elaborazione di ingenti quantità di istanze e caratterizzate dall’acquisizione
di dati certi ed oggettivamente comprovabili e dall’assenza di ogni apprezzamento
discrezionale”.
Dunque la strumentazione digitale può concorrere ai canoni di efficienza ed economicità
dell’azione amministrativa, secondo il principio costituzionale di buon andamento
dell’azione amministrativa (art. 97 Cost.); non solo, “l’assenza di intervento umano in
un’attività di mera classificazione automatica di istanze numerose, secondo regole
predeterminate (che sono, queste sì, elaborate dall’uomo), e l’affidamento di tale attività
a un efficiente elaboratore elettronico appaiono come doverose declinazioni dell’art. 97
Cost. coerenti con l’attuale evoluzione tecnologica”.
Tuttavia, soggiungeva il Consiglio di Stato, l’utilizzo di procedure ‘robotizzate’ non può
essere motivo di elusione dei princìpi che conformano il nostro ordinamento e che
regolano lo svolgersi dell’attività amministrativa. “Difatti, la regola tecnica che governa
ciascun algoritmo resta pur sempre una regola amministrativa generale, costruita
dall’uomo e non dalla macchina, per essere poi (solo) applicata da quest’ultima, anche se
ciò avviene in via esclusiva. Questa regola algoritmica, quindi:
- possiede una piena valenza giuridica e amministrativa, anche se viene declinata in forma
matematica, e come tale, come si è detto, deve soggiacere ai principi generali dell’attività
amministrativa, quali quelli di pubblicità e trasparenza (art. 1 l. 241/90), di
ragionevolezza, di proporzionalità, etc.;
- non può lasciare spazi applicativi discrezionali (di cui l’elaboratore elettronico è privo),
ma deve prevedere con ragionevolezza una soluzione definita per tutti i casi possibili,
anche i più improbabili (e ciò la rende in parte diversa da molte regole amministrative
generali); la discrezionalità amministrativa, se senz’altro non può essere demandata al
software, è quindi da rintracciarsi al momento dell’elaborazione dello strumento digitale;
- vede sempre la necessità che sia l’amministrazione a compiere un ruolo ex ante di
mediazione e composizione di interessi, anche per mezzo di costanti test, aggiornamenti
e modalità di perfezionamento dell’algoritmo (soprattutto nel caso di apprendimento
progressivo e di deep learning);
- deve contemplare la possibilità che – come è stato autorevolmente affermato – sia il
giudice a “dover svolgere, per la prima volta sul piano ‘umano’, valutazioni e
accertamenti fatti direttamente in via automatica”, con la conseguenza che la decisione
robotizzata “impone al giudice di valutare la correttezza del processo automatizzato in
tutte le sue componenti”. In definitiva, dunque, l’algoritmo, ossia il software, deve
essere considerato a tutti gli effetti come un “atto amministrativo informatico”.
Ciò comporta un duplice ordine di conseguenze. “In primo luogo, come già messo in luce
dalla dottrina più autorevole, il meccanismo attraverso il quale si concretizza la decisione
robotizzata (ovvero l’algoritmo) deve essere “conoscibile”, secondo una declinazione
rafforzata del principio di trasparenza, che implica anche quello della piena conoscibilità
di una regola espressa in un linguaggio differente da quello giuridico. Tale conoscibilità
dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento
usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità
assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti.
Ciò al fine di poter verificare che gli esiti del procedimento robotizzato siano conformi
alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte

36
A.S. n. 1146 Articolo 13

di tale procedimento e affinché siano chiare - e conseguentemente sindacabili - le


modalità e le regole in base alle quali esso è stato impostato. In altri termini, la
“caratterizzazione multidisciplinare” dell’algoritmo (costruzione che certo non richiede
solo competenze giuridiche, ma tecniche, informatiche, statistiche, amministrative) non
esime dalla necessità che la “formula tecnica”, che di fatto rappresenta l’algoritmo, sia
corredata da spiegazioni che la traducano nella “regola giuridica” ad essa sottesa e che la
rendano leggibile e comprensibile, sia per i cittadini che per il giudice”
“In secondo luogo, la regola algoritmica deve essere non solo conoscibile in sé, ma
anche soggetta alla piena cognizione, e al pieno sindacato, del giudice
amministrativo. La suddetta esigenza risponde infatti all’irrinunciabile necessità di poter
sindacare come il potere sia stato concretamente esercitato, ponendosi in ultima analisi
come declinazione diretta del diritto di difesa del cittadino, al quale non può essere
precluso di conoscere le modalità (anche se automatizzate) con le quali è stata in concreto
assunta una decisione destinata a ripercuotersi sulla sua sfera giuridica. Solo in questo
modo è possibile svolgere, anche in sede giurisdizionale, una valutazione piena della
legittimità della decisione; valutazione che, anche se si è al cospetto di una scelta assunta
attraverso una procedura informatica, non può che essere effettiva e di portata analoga a
quella che il giudice esercita sull’esercizio del potere con modalità tradizionali. In questo
senso, la decisione amministrativa automatizzata impone al giudice di valutare in primo
luogo la correttezza del processo informatico in tutte le sue componenti: dalla sua
costruzione, all’inserimento dei dati, alla loro validità, alla loro gestione. Da qui, come si
è detto, si conferma la necessità di assicurare che quel processo, a livello amministrativo,
avvenga in maniera trasparente, attraverso la conoscibilità dei dati immessi e
dell’algoritmo medesimo. In secondo luogo, conseguente al primo, il giudice deve poter
sindacare la stessa logicità e ragionevolezza della decisione amministrativa robotizzata,
ovvero della “regola” che governa l’algoritmo, di cui si è ampiamente detto”
Sulla scorta di tali considerazioni, il Consiglio di Stato accoglieva l’appello dei ricorrenti,
ravvisando la violazione dei principi di imparzialità, pubblicità e trasparenza, poiché non
era dato comprendere per quale ragione le legittime aspettative di soggetti collocati in una
determinata posizione in graduatoria fossero andate deluse. “Infatti, l’impossibilità di
comprendere le modalità con le quali, attraverso il citato algoritmo, siano stati assegnati
i posti disponibili, costituisce di per sé un vizio tale da inficiare la procedura. Non solo,
gli esiti della stessa paiono effettivamente connotati dall’illogicità ed irrazionalità
denunciate dalle appellanti”.
Ancora in un giudizio relativo al procedimento di assegnazioni di sedi scolastiche,
interveniva la sentenza del Consiglio di Stato, Sezione VI, 13 dicembre 2019, n. 8472.
Essa rimarcava il rilievo fondamentale assunto, anche alla luce della disciplina di origine
sovranazionale, da “due aspetti preminenti, quali elementi di minima garanzia per ogni
ipotesi di utilizzo di algoritmi in sede decisoria pubblica: a) la piena conoscibilità a monte
del modulo utilizzato e dei criteri applicati; b) l’imputabilità della decisione all’organo
titolare del potere, il quale deve poter svolgere la necessaria verifica di logicità e
legittimità della scelta e degli esiti affidati all’algoritmo”.
Per quanto riguarda la conoscibilità dell’algoritmo, essa “deve essere garantita in tutti gli
aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di
decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e
dei dati selezionati come rilevanti. Ciò al fine di poter verificare che i criteri, i presupposti
e gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità
stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e

37
A.S. n. 1146 Articolo 13

affinché siano chiare - e conseguentemente sindacabili - le modalità e le regole in base


alle quali esso è stato impostato”.
Per quanto concerne l’imputabilità, “deve essere garantita la verifica a valle, in termini di
logicità e di correttezza degli esiti. Ciò a garanzia dell’imputabilità della scelta al titolare
del potere autoritativo, individuato in base al principio di legalità, nonché della verifica
circa la conseguente individuazione del soggetto responsabile, sia nell’interesse della
stessa p.a. che dei soggetti coinvolti ed incisi dall’azione amministrativa affidata
all’algoritmo”.
Sulla scorta del diritto sovranazionale europeo, il Consiglio di Stato rilevava inoltre la
rilevanza del “principio di non esclusività della decisione algoritmica. Nel caso in cui
una decisione automatizzata «produca effetti giuridici che riguardano o che incidano
significativamente su una persona», questa ha diritto a che tale decisione non sia basata
unicamente su tale processo automatizzato (art. 22 Reg. 2016/679). In proposito, deve
comunque esistere nel processo decisionale un contributo umano capace di controllare,
validare ovvero smentire la decisione automatica. In ambito matematico ed informativo
il modello viene definito come HITL (human in the loop), in cui, per produrre il suo
risultato è necessario che la macchina interagisca con l’essere umano”.
Così come sottolineava “un ulteriore principio fondamentale, di non discriminazione
algoritmica, secondo cui è opportuno che il titolare del trattamento utilizzi procedure
matematiche o statistiche appropriate per la profilazione, mettendo in atto misure tecniche
e organizzative adeguate al fine di garantire, in particolare, che siano rettificati i fattori
che comportano inesattezze dei dati e sia minimizzato il rischio di errori e al fine di
garantire la sicurezza dei dati personali, secondo una modalità che tenga conto dei
potenziali rischi esistenti per gli interessi e i diritti dell'interessato e che impedisca tra
l'altro effetti discriminatori nei confronti di persone fisiche sulla base della razza o
dell'origine etnica, delle opinioni politiche, della religione o delle convinzioni personali,
dell'appartenenza sindacale, dello status genetico, dello stato di salute o dell'orientamento
sessuale, ovvero che comportano misure aventi tali effetti”.
Le due sentenze ‘apripista’ del 2019 sopra ricordate – la prima concernente l’attività
amministrativa vincolata, la seconda con ‘apertura’ a quella discrezionale – hanno avuto
successivi ribadimenti (cfr. ancora della Sezione VI, la sentenza 4-2-2020, n. 881) e
possono dirsi recare salienti indirizzi giurisprudenziali in ordine all’utilizzo, allo stato, di
strumenti della ‘rivoluzione digitale’ da parte delle pubbliche amministrazioni.

38
A.S. n. 1146 Articolo 14

Articolo 14
(Utilizzo dell’intelligenza artificiale nell’attività giudiziaria)

L’articolo 14 detta norme generali per l’utilizzo dei sistemi di intelligenza


artificiale in ambito giudiziario.

In particolare, il comma 1 delinea il perimetro di applicazione dei suddetti sistemi


nel settore giustizia, limitandolo agli ambiti riguardanti:
- l’organizzazione e la semplificazione del lavoro giudiziario;
- la ricerca giurisprudenziale e dottrinale.

La disciplina puntuale per l’impiego dei sistemi di intelligenza artificiale da parte


degli uffici giudiziari è demandata al Ministro della giustizia relativamente alla
giustizia ordinaria, mentre per le altre giurisdizioni provvedono gli organi di
governo competenti sulla base dei rispettivi ordinamenti (ovvero il Consiglio di
Presidenza della Giustizia amministrativa e le Sezioni riunite della Corte dei conti).

Il comma 2 enuclea le attività che sono invece sempre riservate al magistrato


ovvero le decisioni concernenti:
- l’interpretazione della legge;
- la valutazione dei fatti e delle prove;
- l’adozione dei provvedimenti.

Nelle attività sopra elencate, che costituiscono il nucleo fondamentale e più


sensibile nell’esercizio della giurisdizione, viene esclusa pertanto qualsiasi
possibilità di fare ricorso all’intelligenza artificiale.

La disposizione, dunque, non consentirebbe l’impiego dei sistemi di AI


riconducibili alla c.d. “giustizia predittiva”, ovvero di sistemi che, sulla base di
un modello statistico elaborato in maniera autonoma dal sistema stesso a seguito
dell’analisi di una mole significativa di atti giuridici, sono in grado di formulare
una previsione che può giungere fino al possibile esito di un giudizio.
Si ricorda in proposito che il regolamento del Parlamento europeo e del Consiglio UE del
2024, cd. “AI Act”, approvato dal Consiglio UE in via definitiva il 21 maggio 2024, si
caratterizza per un approccio basato sulla definizione di diversi livelli di rischio delle
applicazioni di IA. In tale contesto, i sistemi di intelligenza artificiale destinati
all'amministrazione della giustizia sono riconosciuti come “ad alto rischio” giacché
incidono sugli ambiti più sensibili del diritto, nei quali occorre minimizzare i “rischi di
potenziali distorsioni, errori e opacità”, tenendone distinte le “attività amministrative
puramente accessorie, che non incidono sull'effettiva amministrazione della giustizia nei
singoli casi, quali l'anonimizzazione o la pseudonimizzazione di decisioni, documenti o
dati giudiziari, la comunicazione tra il personale, i compiti amministrativi o

39
A.S. n. 1146 Articolo 14

l'assegnazione delle risorse”, alle quali non si ritiene opportuno estendere la


classificazione di rischio elevato (Considerando 61).
Particolarmente sensibili sono i profili attinenti all’utilizzo dell’IA nell’ambito del diritto
penale. Sul tema è intervenuta una specifica risoluzione del Parlamento europeo (6
ottobre 2021), nella quale si ribadisce che “la decisione che produce effetti giuridici o
analoghi deve sempre essere presa da un essere umano, il quale possa essere ritenuto
responsabile per le decisioni adottate”.
La disposizione in commento risulta altresì in linea con la Carta etica per l’uso
dell'intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, adottata dalla
Commissione europea per l'efficienza della giustizia (CEPEJ) nel dicembre del 2018,
dove, in particolare, si stabilisce che il giudice dovrebbe poter controllare in qualsiasi
momento le decisioni giudiziarie e i dati utilizzati per produrre una decisione, mantenendo
la possibilità di discostarsi dalle soluzioni proposte dall’IA, tenendo conto delle
specificità del caso in questione.
Si segnala, infine, che la Commissione Giustizia del Senato sta svolgendo un'indagine
conoscitiva sull'impatto dell'intelligenza artificiale nel settore della giustizia, nell’ambito
della quale hanno già avuto luogo alcune audizioni di esperti in materia.
Per maggiori dettagli circa l’utilizzo dei sistemi di intelligenza artificiale nel settore della
giustizia si rinvia all’apposito dossier.

40
A.S. n. 1146 Articolo 15

Articolo 15
(Modifiche al codice di procedura civile)

L’articolo 15 affida al tribunale la competenza in materia di procedimenti


riguardanti il funzionamento di un sistema di intelligenza artificiale.

Più nel dettaglio, l’articolo in commento modifica l’articolo 9, secondo comma,


del codice di procedura civile al fine di introdurre, tra le materie di esclusiva
competenza del tribunale, quelle hanno ad oggetto il funzionamento di un
sistema di intelligenza artificiale, escludendo pertanto la competenza del giudice
di pace in tali materie.
Si ricorda che il primo comma dell’art. 9 c.p.c., nella sua formulazione vigente, attribuisce
al tribunale la competenza per tutte quelle cause che non sono di competenza di un altro
giudice, mentre il secondo comma del medesimo articolo individua alcune specifiche
materie per le quali il tribunale è competente in via esclusiva ovvero:
 imposte e tasse;
 stato e capacità delle persone e diritti onorifici;
 querela di falso;
 esecuzione forzata;
 cause di valore indeterminabile.

Codice di procedura civile


Testo previgente Modificazioni apportate dall’art. 15
Art. 9 Art. 9
(Competenza del tribunale) (Competenza del tribunale)
Il tribunale è competente per tutte le cause che Identico.
non sono di competenza di altro giudice.

Il tribunale è altresì esclusivamente Il tribunale è altresì esclusivamente


competente per le cause in materia di imposte competente per le cause in materia di imposte
e tasse, per quelle relative allo stato e alla e tasse, per quelle relative allo stato e alla
capacità delle persone e ai diritti onorifici, per capacità delle persone e ai diritti onorifici, per
la querela di falso, per l'esecuzione forzata e, la querela di falso, per l'esecuzione forzata,
in generale, per ogni causa di valore per le cause che hanno ad oggetto il
indeterminabile. funzionamento di un sistema di intelligenza
artificiale e, in generale, per ogni causa di
valore indeterminabile.

41
A.S. n. 1146 Articolo 16

Articolo 16
(Uso dell’intelligenza artificiale per il rafforzamento
della cybersicurezza nazionale)

L’articolo 16 porta modifiche all’art. 7, comma 1, del decreto-legge n. 82 del


2021, in materia di cybersicurezza, attribuendo ulteriori funzioni all’Agenzia per
la cybersicurezza nazionale in materia di intelligenza artificiale.

L’articolo 16 si compone di un unico comma e reca modifiche all’articolo 7,


comma 1, del decreto-legge n. 82 del 2021 (convertito con la legge n. 109 del
2021) finalizzate di favorire l’utilizzo dell’intelligenza artificiale a supporto della
cybersicurezza nazionale.

Il decreto-legge n. 82 del 2021, recante disposizioni urgenti in materia di cybersicurezza,


definizione dell’architettura nazionale di cybersicurezza e istituzione dell’Agenzia per la
cybersicurezza nazionale, è stato convertito dalla legge n. 109 del 2021. Tale atto normativo
definisce il sistema nazionale di sicurezza cibernetica e istituisce una nuova “Agenzia per
la cybersicurezza nazionale” (ACN), a tutela degli interessi nazionali nel campo della
cybersicurezza, definendone organizzazione e compiti.
L’articolo 7, comma 1, individua le funzioni dell’Agenzia che viene qualificata quale
Autorità nazionale per la cybersicurezza (ACN). Tra le sue attribuzioni rientrano: il
coordinamento tra soggetti pubblici coinvolti nella cybersicurezza a livello nazionale; la
predisposizione della strategia nazionale di cybersicurezza; la promozione di azioni comuni
dirette ad assicurare la sicurezza cibernetica.
Per approfondimenti si veda il relativo dossier.

In particolare, l’articolo 16, comma 1, introduce una nuova lettera m-quater) al


suddetto articolo del decreto-legge n. 82 del 2021, attribuendo all’Agenzia per la
cybersicurezza nazionale (ACN) il compito di promuovere e sviluppare ogni
iniziativa, anche di partenariato pubblico-privato, finalizzata a valorizzare
l’intelligenza artificiale come risorsa per il rafforzamento della cybersicurezza
nazionale.

In questo modo, come si evince dalla Relazione illustrativa che accompagna il disegno di
legge, anche nell’ambito del settore strategico della cybersicurezza, viene affermata la
visione antropocentrica quale fattore di prevenzione e di contenimento del rischio, come
anche evidenziato nel Considerando 6 dell’AI Act.

Inoltre, l’assegnazione di questo compito all’ACN appare in linea con l’osservazione,


rinvenibile nel Considerando 76 dell’AI Act, secondo cui la cybersicurezza svolge un “ruolo
cruciale nel garantire che i sistemi di intelligenza artificiale siano resilienti ai tentativi” di
terzi animati da intenzioni malevole e agli attacchi informatici.

Circa la puntualizzazione, contenuta nella novella, in ordine al partenariato pubblico-


privato, appare conferente menzionare:

42
A.S. n. 1146 Articolo 16

 sia l’art. 67 dell’AI Act, il quale istituisce il Forum consultivo volto a fornire consulenze
e competenze agli organi delle istituzioni europee, il quale è composto da una “selezione
equilibrata” di portatori d’interessi, tra cui imprese, start-up, società civile e mondo
accademico;
 sia il consenso internazionale maturato sulla circostanza che gli investimenti e la
sperimentazione sull’intelligenza artificiale debbano contare sullo sforzo congiunto tra
soggetti e regolatori pubblici e impresa privata. Vedi in proposito, da ultimo, la
dichiarazione di Seul del 21 maggio 2024, nella quale si fa riferimento all’“active multi-
stakeholder collaboration, including governments, the private sector, academia, and civil
society”.

43
A.S. n. 1146 Articolo 17

Articolo 17
(Strategia nazionale per l’intelligenza artificiale)

L’articolo 17 definisce la governance italiana sull’intelligenza artificiale,


dettando disposizioni in materia di Strategia nazionale per l’intelligenza
artificiale.

L’articolo 17 apre il Capo III del disegno di legge, relativo alla “Strategia
nazionale, Autorità nazionali e azioni di promozione”, recante norme che, come
evidenziato dalla Relazione illustrativa “disegnano la governance italiana e le
azioni di promozione sull’intelligenza artificiale”.

L’articolo in commento appare in linea con il Considerando 148 dell’AI Act, che raccomanda
a livello nazionale l’istituzione di un adeguato livello di governance e con il (conseguente)
art. 70 del medesimo regolamento europeo sull’intelligenza artificiale.

La norma si compone di 4 commi e dètta disposizioni relative alla Strategia


nazionale per l'intelligenza artificiale.

Il comma 1 individua i soggetti chiamati a predisporre e ad aggiornare la


suddetta Strategia. Nello specifico, la norma affida tale incarico al Dipartimento
per la trasformazione digitale della Presidenza del Consiglio dei ministri,
d’intesa con le Autorità nazionali per l’intelligenza artificiale di cui all’articolo
18. Prevede, inoltre, che per la sua predisposizione debbano essere sentiti:
 il Ministro delle imprese e del made in Italy per i profili di politica industriale
e di incentivazione;
 il Ministro della difesa per gli aspetti relativi ai sistemi di intelligenza artificiale
impiegabili in chiave duale.

Infine, è previsto che la Strategia debba essere approvata con cadenza almeno
biennale dal Comitato interministeriale per la transizione digitale (CITD) di
cui all'articolo 8, comma 2, del decreto-legge n. 22 del 2021, convertito, con
modificazioni, dalla legge n. 55 del 2021.

A norma dell’art. 18 del disegno di legge in commento, sono Autorità nazionali per
l’intelligenza artificiale l’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la
cybersicurezza nazionale (ACN).

L'art. 8, comma 2, del decreto-legge n. 22 del 2021, convertito dalla legge n. 55 del 2021,
istituisce presso la Presidenza del Consiglio dei Ministri il Comitato interministeriale per
la transizione digitale (CITD), e gli attribuisce tra gli altri, il compito di assicurare il
coordinamento e monitoraggio dell’attuazione delle iniziative relative allo sviluppo e alla
diffusione delle tecnologie emergenti dell'intelligenza artificiale, dell'internet delle cose (IoT)
e della blockchain.

44
A.S. n. 1146 Articolo 17

Con riferimento alla sua composizione, il comma 3 del medesimo articolo stabilisce che esso
è presieduto dal Presidente del Consiglio dei Ministri ed è formato dai Ministri per la pubblica
amministrazione, ove nominato, dell'economia e delle finanze, della giustizia e della salute.
Vi partecipano altresì gli altri Ministri o loro delegati aventi competenza nelle materie oggetto
dei provvedimenti e delle tematiche poste all'ordine del giorno.
Per approfondimenti si rimanda a relativo dossier.

Il comma 2 individua le finalità della Strategia nazionale per l’intelligenza


artificiale, prevedendo che essa debba mirare a favorire la collaborazione tra le
amministrazioni pubbliche e i soggetti privati relativamente allo sviluppo e
all’adozione di sistemi di intelligenza artificiale, coordinare l’attività della
pubblica amministrazione in materia, promuovere la ricerca e la diffusione della
conoscenza in materia di intelligenza artificiale, indirizzare le misure e gli
incentivi finalizzati allo sviluppo imprenditoriale e industriale dell’intelligenza
artificiale.

Pertanto, come si evince anche dalla Relazione illustrativa, il documento garantisce la


collaborazione tra pubblico e privato, coordinando le azioni della PA in materia e le misure e
gli incentivi economici rivolti allo sviluppo imprenditoriale ed industriale.

Il comma 3 attribuisce al Dipartimento per la trasformazione digitale della


Presidenza del Consiglio dei ministri il compito di coordinare e monitorare
l’attuazione della strategia. Nello svolgimento di tale incarico il Dipartimento si
avvale dell’Agenzia per l’Italia digitale, d’intesa, per gli aspetti di competenza,
con l’Agenzia per la cybersicurezza nazionale.
È previsto, infine, che i risultati del monitoraggio vengano trasmessi
annualmente alle Camere.

Il comma 4 reca modifiche all’articolo 8, comma 3, primo periodo, del citato


decreto-legge n. 22 del 2021. Nello specifico, tra i componenti, su indicati, del
Comitato interministeriale per la transizione digitale viene aggiunto il Ministero
dell’università e della ricerca.

45
A.S. n. 1146 Articolo 18

Articolo 18
(Autorità nazionali per l’intelligenza artificiale)

L’articolo 18 qualifica Autorità nazionali per l’intelligenza artificiale due soggetti:


l’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la cybersicurezza nazionale.
Esso istituisce un Comitato di coordinamento presso la Presidenza del Consiglio,
per agevolare la collaborazione delle due Agenzie tra loro e con le pubbliche
amministrazioni.

La disposizione attribuisce la qualifica di Autorità nazionale per l’intelligenza


artificiale a due soggetti:
 l’Agenzia per l’Italia digitale (AgID);
 l’Agenzia per la cybersicurezza nazionale.
Alla prima, sono attribuiti:
 la responsabilità di promuovere l’innovazione e lo sviluppo
dell’intelligenza artificiale;
 le funzioni e i compiti in materia di notifica, valutazione, accreditamento e
monitoraggio dei soggetti incaricati di verificare la conformità dei sistemi
di intelligenza artificiale.
Alla seconda, sono attribuiti:
 la responsabilità per la vigilanza - ivi incluse le attività ispettive e
sanzionatorie - dei sistemi di intelligenza artificiale, secondo quanto
previsto dalla normativa nazionale e dell'Unione europea;
 la promozione e lo sviluppo dell'intelligenza artificiale relativamente ai
profili di cybersicurezza.
Peraltro, è previsto che le due Agenzie (ciascuna secondo la rispettiva competenza)
assicurino l’istituzione e la gestione congiunta di spazi di sperimentazione,
sentito il Ministero della difesa per gli aspetti relativi ai sistemi di intelligenza
artificiale impiegabili in chiave ‘duale’.
Rimangono ferme le attribuzioni del Garante per la protezione dei dati personali.

È altresì istituito un Comitato di coordinamento presso la Presidenza del


Consiglio, composto dai direttori generali delle due Agenzie e dal Capo del
Dipartimento per la trasformazione digitale della medesima Presidenza del
Consiglio.
Tale Comitato è inteso quale ausilio al coordinamento e collaborazione delle due
Agenzie tra loro e con le altre pubbliche amministrazioni e autorità indipendenti.
Ai componenti del Comitato non spettano compensi, gettoni di presenza, rimborsi
di spese o altri emolumenti comunque denominati.
Si valuti l’opportunità che la norma definisca, sia pure nelle linee generali, le
modalità di funzionamento del Comitato e gli eventuali principi a presidio della

46
A.S. n. 1146 Articolo 18

corretta collaborazione con le altre amministrazioni pubbliche e autorità


indipendenti.

47
A.S. n. 1146 Articolo 19

Articolo 19
(Applicazione sperimentale dell’intelligenza artificiale ai servizi forniti
dal Ministero degli affari esteri e della cooperazione internazionale)

L’articolo 19 autorizza la spesa di 300.000 euro, per ciascuno degli anni 2025 e
2026, per la realizzazione di progetti sperimentali volti all’applicazione
dell’intelligenza artificiale relativamente ai servizi forniti dal MAECI.

L’articolo 19, comma 1 autorizza la spesa di 300.000 € annui per ciascuno degli
anni 2025 e 2026 per la realizzazione di progetti sperimentali volti all’applicazione
dell’intelligenza artificiale ai servizi forniti dal Ministero degli affari esteri e della
cooperazione internazionale a cittadini e a imprese.

A tal riguardo si fa presente che i servizi in questione sono principalmente rivolti agli
italiani residenti all’estero ed ai cittadini o residenti del Paese di accreditamento (ad
es. visti), ma, nei casi previsti dalla legge, anche agli italiani temporaneamente
all’estero. Inoltre, ai sensi dell’art. 23 del Trattato sul funzionamento dell’Unione
europea, l’Ufficio consolare può prestare assistenza anche ai cittadini dell’Unione
europea nel caso in cui lo Stato membro di cittadinanza non disponga nel Paese in cui si
opera di alcuna Ambasciata, Consolato o Console onorario. Allo stesso modo, nei Paesi
in cui l’Italia non è rappresentata, ma vi è un’Ambasciata o un Consolato di un altro Stato
membro dell’UE, il connazionale ha il diritto di essere tutelato alle stesse condizioni dei
cittadini di tale Stato.

Il comma 2 specifica che agli oneri derivanti dal comma 1 (300.000€ annui per il
biennio 2025-26) si provvede mediante corrispondente riduzione delle proiezioni
dello stanziamento del fondo speciale di parte corrente iscritto, ai fini del bilancio
triennale 2024-2026, nell'ambito del programma «Fondi di riserva e speciali» della
missione «Fondi da ripartire» dello stato di previsione del Ministero dell'economia
e delle finanze per l'anno 2024, allo scopo parzialmente utilizzando
l’accantonamento relativo al Ministero degli affari esteri e della cooperazione
internazionale.

Come esposto dal Governo nella relazione tecnica allegata al disegno di legge, per la
quantificazione dello stanziamento, in assenza di una serie storica di dati derivante dalla
novità del settore dell’intelligenza artificiale, si è tenuto conto di progetti sperimentali
per l’uso dell’intelligenza artificiale già avviati dal MAECI e di altre organizzazioni
pubbliche e private anche simili con esigenze analoghe a quelle del predetto Ministero, il
cui valore medio è stato di circa 75.000€ per un anno. Nel biennio considerato si è
pertanto considerata la possibilità di avviare quattro iniziative (di durata biennale) di
valore medio comparabile a quello del progetto sperimentale già avviato. La disposizione
è espressamente redatta come un tetto di spesa e non è quindi suscettibile di comportare
nuovi o maggiori oneri per la finanza pubblica superiori a quelli espressamente
quantificati nel testo normativo. Agli oneri si provvede mediante corrispondente
riduzione delle disponibilità della Tabella A, voce Ministero degli affari esteri e della

48
A.S. n. 1146 Articolo 19

cooperazione internazionale, che presenta le necessarie disponibilità. Si precisa che la


riduzione non compromette l’attività di ratifica dei trattati internazionali e il connesso
adempimento degli obblighi internazionali.

Giova rammentare l’Audizione del Sottosegretario di Stato per gli affari esteri
e la cooperazione internazionale Giorgio Silli sui servizi consolari e le principali
questioni riguardanti i cittadini italiani residenti all'estero, tenutasi nella III
Commissione della Camera Affari esteri e comunitari il 22 novembre 2023. Il
Sottosegretario Silli ha evidenziato l’ampiezza della nostra diaspora,
considerato che “i cittadini italiani residenti all’estero sono attualmente 7 milioni,
un numero enorme che richiede un’attenta gestione dei servizi loro dedicati”.
Inoltre, “a questi 7 milioni si aggiungono gli italo-discendenti, cioè il numero di
persone che, ai sensi della legge italiana sulla cittadinanza n. 91 del 1992, possono
vantare il diritto ad acquisire la cittadinanza italiana”. Nello specifico nel corso
dell’audizione è stata preannunciata l’intenzione del Governo di migliorare i
servizi consolari, anche nell’ottica di una loro digitalizzazione ove possibile, e di
ampliare la partecipazione della Comunità italiana all’estero alla vita
democratica del nostro Paese, attraverso i COMITES, le scuole e le
associazioni italiane o con nuovi strumenti mutuabili, con i dovuti aggiustamenti,
da altri ordinamenti (ad esempio il voto elettronico utilizzato dalla Francia per far
votare i propri cittadini all’estero). Il Sottosegretario Silli ha inoltre citato nel suo
intervento la proposta di legge A.C. 994 On. Onori, in corso di esame presso la
III Commissione, relativa alla creazione di un Portale unico telematico per gli
italiani all’estero, volto all’unificazione ed omogeneizzazione di tutte le
informazioni disponibili sui servizi consolari che possono essere erogati on line. Il
Portale potrebbe rispondere alle esigenze di tre macro-gruppi di cittadini italiani:
coloro che sono in procinto di andare all’estero, coloro che sono già residenti
all’estero e coloro i quali desiderano legittimamente ritornare nel nostro Paese.
Si ricorda, inoltre, che è all’esame della III Commissione affari esteri della
Camera, la proposta di legge A.C. 960 dei deputati Toni Ricciardi ed altri
concernente la "Destinazione agli uffici diplomatici e consolari di quota dei
proventi derivanti dal rilascio dei passaporti all'estero". La proposta in esame
prevede che i proventi derivanti dal versamento degli importi dovuti da chi richiede
il rilascio del passaporto all'estero, siano attribuiti mensilmente al bilancio
dell'ufficio diplomatico-consolare che ha rilasciato il relativo passaporto, in misura
percentuale rispetto al totale degli introiti collegati all'emissione di passaporti e
carte di identità. Come precisato nel secondo periodo del comma 1 tali risorse
devono essere a loro volta destinate al rafforzamento dei servizi consolari per i
cittadini italiani residenti o presenti all'estero, con priorità per la
contrattualizzazione di personale interinale e per l'acquisizione di servizi destinati,
sotto le direttive e il controllo dei funzionari consolari, alle operazioni preliminari
connesse al rilascio dei passaporti, alla validazione del codice fiscale per i residenti
all'estero e ai servizi maggiormente richiesti, quali il rilascio del passaporto e della
carta di identità elettronica.

49
A.S. n. 1146 Articolo 19

• Principali servizi consolari

Fra i principali servizi consolari si annoverano:


 L’assistenza ai detenuti: visite periodiche in carcere; suggerimento di
nominativi di legali di riferimento in loco; cura dei contatti con i familiari, previo
consenso espresso del detenuto; fornitura, quando necessario e consentito dalle
norme locali, di generi di conforto al detenuto; piccoli aiuti economici sotto forma
di sussidi occasionali; mediazione per favorire il trasferimento in Italia del
detenuto, qualora stia scontando la pena in Paesi aderenti alla Convenzione di
Strasburgo sul trasferimento dei detenuti del 1983 o con cui siano in vigore accordi
bilaterali con l’Italia; mediazione per sostenere le domande di grazia presentate
dal detenuto o dal suo legale.
 L’assistenza economica: l’Ufficio consolare, compatibilmente con i fondi
disponibili, può eccezionalmente erogare al cittadino italiano che risiede
stabilmente residente nella propria circoscrizione consolare e che si trovi in
situazione di comprovata indigenza un sussidio. Può altresì erogare al cittadino
italiano temporaneamente all’estero e residente in Italia o in altra circoscrizione
consolare che non possa avvalersi dell’aiuto dei familiari a ciò tenuti per legge (art.
433 c.c.) o di terze persone un prestito con promessa di restituzione all’Erario
entro 90 giorni.
 L’assistenza in caso di furto o smarrimento dei documenti: qualora il cittadino
italiano si trovi in una situazione di emergenza (ad esempio un turista in transito
che deve ripartire ed ha smarrito o è stato derubato del proprio passaporto) e non
si faccia in tempo ad esperire la necessaria istruttoria per l’emissione di un nuovo
passaporto, la Rappresentanza consolare rilascia un documento provvisorio di
viaggio (E.T.D, Emergency Travel Document) con validità per il solo viaggio di
rientro in Italia, nel Paese di stabile residenza all’estero o, in casi eccezionali, per
una diversa destinazione.
 La collaborazione con le competenti Autorità italiane (Questure, Agenzia delle
Entrate) per il rilascio di passaporti e codici fiscali.
 La collaborazione con i Comuni italiani per la tenuta dell’Anagrafe degli Italiani
residenti all’estero (AIRE) e la gestione dei registri di stato civile (cittadinanza,
nascita, matrimonio e morte), che includono gli atti di stato civile formati dalla
Rappresentanza diplomatico-consolare e quelli emessi dalle Autorità straniere
nonché altri provvedimenti stranieri (ad es. sentenze di divorzio, adozione)
trasmessi ai Comuni italiani per la trascrizione.
 La celebrazione del matrimonio consolare e della costituzione di unioni civili,
se non vi si oppongano le leggi locali.
 La gestione del processo di voto all’estero dei cittadini italiani iscritti AIRE per
le elezioni politiche, i referendum abrogativi e costituzionali di cui agli artt. 75
e 138 della Costituzione, le elezioni dei membri del Parlamento europeo
spettanti all’Italia e, ove costituiti nelle circoscrizioni consolari in cui risiedano
almeno 3.000 italiani, l’elezione dei Comitati degli italiani residenti all’estero
(COMITES).
Il voto all’estero per le elezioni politiche e i referendum nazionali è regolato dalla Legge 27
dicembre 2001, n. 459 e dal relativo regolamento attuativo D.P.R. 2 aprile 2003, n. 104. Il voto
all’estero per l’elezione dei rappresentanti dell’Italia al Parlamento europeo è invece regolato
dalla Legge 24 gennaio 1979, n. 18 e dal Decreto-legge 24 giugno 1994, n. 408 convertito in

50
A.S. n. 1146 Articolo 19

Legge 3 agosto 1994, n. 483. Il voto per i COMITES è regolato dalla Legge 23 ottobre 2003, n.
286.
Possono essere ammessi al voto per le elezioni politiche, del Parlamento europeo e per i
referendum nazionali anche i cittadini temporaneamente domiciliati all’estero per un periodo di
almeno 3 mesi per motivi di lavoro, studio o cure mediche, previa apposita istanza da presentare
alla Rappresentanza diplomatico-consolare competente in base al temporaneo domicilio.
 La collaborazione con il Ministero dell’Interno nella gestione delle domande di
cittadinanza italiana presentate all’estero, inclusi l’identificazione del
richiedente, l’acquisizione in originale della documentazione pertinente e gli altri
adempimenti necessari al perfezionamento dell’istanza.
 La notifica all’estero degli atti giudiziari ed extragiudiziari italiani in materia
civile e commerciale.
 Il rilascio a favore di cittadini italiani che si trovano all’estero in via permanente o
temporanea di alcuni atti notarili (procure, testamenti, atti notori, autenticazioni
di sottoscrizioni apposte a scritture private).
 La legalizzazione e traduzione di atti e documenti stranieri emessi dalle Autorità
di Paesi che non hanno sottoscritto la Convenzione de L’Aia del 5 ottobre 1961
relativa all’abolizione della legalizzazione di atti pubblici stranieri.
 Il rimpatrio consolare, in collaborazione con gli enti italiani territorialmente
competenti (Prefetture, Questure, Comuni, Aziende Sanitarie Locali, Servizi
Sociali), di cittadini italiani residenti all’estero che versino in gravi condizioni di
indigenza e di minori italiani in stato di abbandono, subordinatamente alla
verifica della disponibilità dei congiunti ad assumersi in Italia le responsabilità
connesse con il mantenimento e l’assistenza del rimpatriando.
In assenza di tale disponibilità, il rimpatrio è coordinato con i Servizi Sociali del Comune di
ultima residenza o di origine in Italia, ovvero attraverso il ricorso a fondi regionali mentre il
rimpatrio di minori in stato di abbandono è effettuato a carico dell’Erario, di concerto con il
Tribunale dei Minori competente e i Servizi Sociali del Comune di residenza.
 Il rimpatrio di salme di cittadini italiani deceduti all’estero, in collaborazione con
il Comune italiano competente per la tumulazione della salma o delle ceneri.
 La collaborazione con la Commissione Adozioni Internazionali (CAI), Autorità
centrale per l’Italia per l’applicazione della Convenzione de L’Aja del 29 maggio
1993 sulla tutela dei minori e la cooperazione in materia di adozione
internazionale, per il buon esito delle procedure di adozione.
 La collaborazione con l’INPS per il pagamento delle pensioni all’estero.

Occorre inoltre sottolineare che le Rappresentanze diplomatico-consolare svolgono un


significativo lavoro relativamente alla concessione dei visti di ingresso in Italia nei casi
previsti dalla normativa vigente.
Per un approfondimento della normativa concernente i servizi consolari cfr.
https://www.esteri.it/it/servizi-consolari-e-visti/normativa_consolare/serviziconsolari/ Per un
approfondimento della normativa concernente il rilascio dei visti di ingresso cfr.
https://www.esteri.it/it/servizi-consolari-e-visti/normativa_consolare/visti/

51
A.S. n. 1146 Articolo 20

Articolo 20
(Misure di sostegno per il rientro in Italia dei lavoratori, i giovani e lo
sport)

L’articolo 20 introduce modifiche e iniziative in ambiti specifici riguardanti il


rientro in Italia dei lavoratori, i giovani e lo sport. In particolare, il comma 1
annovera lo svolgimento di attività di ricerca applicata nel campo delle
tecnologie di intelligenza artificiale tra i requisiti in presenza dei quali è possibile
accedere al regime fiscale agevolativo in favore dei lavoratori cosiddetti
impatriati. Il comma 2 dispone poi che, per gli studenti delle scuole superiori con
alto potenziale cognitivo, il piano didattico personalizzato (PDP) può includere
attività volte a sviluppare competenze aggiuntive, tramite esperienze di
apprendimento presso istituzioni di istruzione superiore, con la possibilità che
i crediti formativi acquisiti attraverso queste attività vengano riconosciuti e
valutati nei percorsi di formazione superiore che lo studente intraprenderà dopo
aver ottenuto il diploma di maturità. Il comma 3 promuove l’intervento dello Stato
per favorire l'accesso ai sistemi di intelligenza artificiale per migliorare il
benessere psicofisico delle persone tramite l'attività sportiva. Questo include lo
sviluppo di soluzioni innovative per una maggiore inclusione delle persone con
disabilità nel settore sportivo. Inoltre, si prevede che i sistemi di intelligenza
artificiale possono essere utilizzati anche per organizzare attività sportive.

Nello specifico, il comma 1, mediante una integrazione alla lettera d) del comma
1 dell’articolo 5 del decreto legislativo 27 dicembre 2023, n. 209, aggiunge un
riferimento allo svolgimento di attività di ricerca, anche applicata, nell’ambito
delle tecnologie di intelligenza artificiale nell’elenco dei requisiti in presenza
dei quali è possibile accedere al regime fiscale agevolativo a favore dei lavoratori
cosiddetti impatriati.

Si ricorda che l’articolo 5, comma 1 del decreto legislativo n. 209 del 2023
disciplina un regime temporaneo di tassazione agevolata riconosciuto, a
determinate condizioni, ai lavoratori che trasferiscono la residenza fiscale in Italia
a partire dal periodo d'imposta 2024 e nei quattro periodi d'imposta successivi a
quello in cui è avvenuto il trasferimento.
Più nel dettaglio, il regime stabilisce che i redditi di lavoro dipendente e
assimilati, e i redditi di lavoro autonomo, derivanti dall'esercizio di arti e
professioni, prodotti in Italia entro il limite annuo di 600.000 euro da lavoratori
che trasferiscono la residenza fiscale nel territorio dello Stato, concorrono alla
formazione del reddito complessivo, ai fini IRPEF, limitatamente al 50 per
cento del loro ammontare.
Il suddetto regime è applicabile, a legislazione vigente, quando ricorrono (tutte) le
seguenti condizioni:

52
A.S. n. 1146 Articolo 20

a) i lavoratori si impegnano a risiedere fiscalmente in Italia per almeno quattro


anni;
b) i lavoratori non sono stati fiscalmente residenti in Italia nei tre periodi d'imposta
precedenti il loro trasferimento;
c) l'attività lavorativa è prestata per la maggior parte del periodo d'imposta nel
territorio dello Stato;
d) i lavoratori sono in possesso dei requisiti di elevata qualificazione o
specializzazione indicati dal decreto legislativo n. 108/2012 e dal decreto
legislativo n. 206/2007.

Per un ulteriore approfondimento sul regime agevolativo a favore dei lavoratori


impatriati, si rinvia all’apposita scheda di lettura del relativo dossier presente nel Portale
della documentazione.

Ora, con l’entrata in vigore del comma in commento, la lettera d) dell’art. 5,


comma 1, appena citata, assumerebbe la seguente nuova formulazione:

d) i lavoratori sono in possesso dei requisiti di elevata qualificazione o


specializzazione indicati dal decreto legislativo n. 108/2012 e dal decreto
legislativo n. 206/2007 oppure hanno svolto un’attività di ricerca anche
applicata nell’ambito delle tecnologie di intelligenza artificiale.

In proposito, si evidenzia che, secondo la relazione tecnica allegata al disegno di legge


in commento, la novella di cui al comma 1 in esame avrebbe una valenza puramente
specificativa.
Essa cioè sarebbe volta a chiarire “che anche i soggetti che hanno svolto un’attività di
ricerca nell’ambito delle tecnologie di intelligenza artificiale sono tra coloro che
possono rientrare nel già vigente regime agevolativo a favore dei lavoratori
impatriati, di cui all’art. 5 del d.lgs. 27 dicembre 2023, n. 209, senza pertanto comportare
nuovi o maggiori oneri a carico della finanza pubblica, poiché sicuramente in possesso
dei requisiti di elevata qualificazione o specializzazione come definiti dal d.lgs.
108/2012, richiesto dall’art.5, comma 1, lettera d), del d.lgs. 209/2023”.

In proposito, si ricorda che l’articolo 1 del decreto legislativo n. 108 del 2012 ha
introdotto, nel testo unico sull’immigrazione di cui al decreto legislativo n. 286 del 1998,
l’art. 27-quater (rubricato “Ingresso e soggiorno per lavoratori altamente qualificati.
Rilascio della Carta blu UE”), che, nel testo attualmente vigente (e cioè, come modificato
dall’articolo 1 del decreto legislativo n. 152 del 2023) fa riferimento alla necessità, per
poter accedere e soggiornare in Italia per periodi superiori a tre mesi quali lavoratori
stranieri altamente qualificati, di essere alternativamente in possesso dei seguenti
requisiti:
a) del titolo di istruzione superiore di livello terziario rilasciato dall'autorità
competente nel paese dove è stato conseguito che attesti il completamento di un percorso
di istruzione superiore di durata almeno triennale o di una qualificazione
professionale di livello post secondario di durata almeno triennale o corrispondente
almeno al livello 6 del Quadro nazionale delle qualificazioni allegato al decreto del

53
A.S. n. 1146 Articolo 20

Ministero del lavoro e delle politiche sociali dell'8 gennaio 2018 (laurea triennale,
diploma accademico di primo livello, diploma ITS);
b) dei requisiti previsti dal decreto legislativo n. 206 del 2007, limitatamente all'esercizio
di professioni regolamentate;
c) di una qualifica professionale superiore attestata da almeno cinque anni di
esperienza professionale di livello paragonabile ai titoli d'istruzione superiori di livello
terziario, pertinenti alla professione o al settore specificato nel contratto di lavoro o
all'offerta vincolante;
d) di una qualifica professionale superiore attestata da almeno tre anni di esperienza
professionale pertinente acquisita nei sette anni precedenti la presentazione della
domanda di Carta blu UE, per quanto riguarda dirigenti e specialisti nel settore delle
tecnologie dell'informazione e della comunicazione di cui alla classificazione ISCO-08,
rispettivamente designati con il codice n. 133 (dirigenti nei servizi delle tecnologie
dell’informazione e della comunicazione) e n. 25 (Specialisti delle tecnologie
dell’informazione e della comunicazione).

Per quanto riguarda, invece, il decreto legislativo n. 206 del 2007, esso disciplina il
riconoscimento delle qualifiche professionali già acquisite in uno o più Stati membri
dell'Unione europea che permettono al titolare l'accesso e l’esercizio alle professioni
regolamentate. Tali professioni, all’articolo 4, sono definite come:
1) l'attività, o l'insieme delle attività, il cui esercizio è consentito solo a seguito di
iscrizione in ordini o collegi o in albi, registri ed elenchi tenuti da amministrazioni o
enti pubblici, se la iscrizione è subordinata al possesso di qualifiche professionali o
all'accertamento delle specifiche professionalità;
2) i rapporti di lavoro subordinato, se l'accesso ai medesimi è subordinato, da
disposizioni legislative o regolamentari, al possesso di qualifiche professionali;
3) l'attività esercitata con l'impiego di un titolo professionale il cui uso è riservato a chi
possiede una qualifica professionale;
4) le attività attinenti al settore sanitario nei casi in cui il possesso di una qualifica
professionale è condizione determinante ai fini della retribuzione delle relative
prestazioni o della ammissione al rimborso;
5) le professioni esercitate dai membri di specifici organismi o associazioni britanniche
o irlandesi (riportate all'Allegato I del decreto legislativo).

Il comma 2 dell’articolo in esame dispone che nel piano didattico personalizzato


(PDP) adottato dall’istituzione scolastica secondaria di secondo grado, nell’ambito
della propria autonomia, per le studentesse e gli studenti ad alto potenziale
cognitivo, possano essere inserite attività volte all’acquisizione di ulteriori
competenze attraverso esperienze di apprendimento presso le istituzioni della
formazione superiore (università e istituzioni dell’alta formazione artistica,
musicale e coreutica – AFAM), in deroga a quanto previsto all'articolo 11 del
decreto del Presidente della Repubblica n. 89 del 2010, in materia di previo
possesso del titolo, in coerenza con il profilo in uscita dell'indirizzo di studio.
Il medesimo comma prevede, inoltre, che i crediti formativi acquisiti nell’ambito
delle attività di cui sopra sono valutati nell’ambito dei percorsi formativi della
formazione superiore intrapresi dopo il conseguimento del titolo summenzionato.

54
A.S. n. 1146 Articolo 20

Il decreto del Presidente della Repubblica n. 89 del 2010, in attuazione della


cosiddetta “riforma Gelmini” (articolo 64, comma 4, del decreto-legge 25 giugno 2008,
n. 112), reca la revisione dell'assetto ordinamentale, organizzativo e didattico dei licei.
L’articolo 11 del citato decreto del Presidente della Repubblica, in particolare al comma
3, dispone in effetti che il diploma rilasciato al superamento dell’esame di Stato
conclusivo dei percorsi liceali consente l’accesso all'università ed agli istituti di alta
formazione artistica, musicale e coreutica, agli istituti tecnici superiori e ai percorsi di
istruzione e formazione tecnica superiore.
Poiché, invece, il comma in commento si riferisce espressamente ai piani didattici
personalizzati adottati “dalle istituzioni scolastiche secondarie di secondo grado”, e
dunque anche agli istituti professionali e agli istituti tecnici, sarebbe forse più
opportuno citare qui una norma, in materia di previo possesso del titolo, utile a
ricomprendere anche i diplomi rilasciati da tali istituti.
A tal fine, si segnala che l'articolo 6, comma 1, del regolamento di cui al decreto
dell’allora Ministro dell'istruzione, dell'università e della ricerca 22 ottobre 2004, n. 270,
prevede, in via generale, che “per essere ammessi ad un corso di laurea occorre essere
in possesso di un diploma di scuola secondaria superiore o di altro titolo di studio
conseguito all'estero, riconosciuto idoneo”.

Ove si intenda rendere inequivoca la volontà di estendere la possibilità di


svolgere esperienze di apprendimento presso le istituzioni della formazione
superiore a tutti gli studenti ad alto potenziale cognitivo delle istituzioni
scolastiche secondarie di secondo grado, e non solo a quelli dei licei, si valuti
l’opportunità di citare - all’articolo 20, comma 2 - quale norma da derogare in
materia di necessità del previo possesso del diploma di scuola secondaria di
secondo grado, quale requisito di accesso all’istruzione superiore, l’articolo 6 del
decreto del Ministro dell’istruzione, dell’università e della ricerca n. 270 del 2004,
anziché l’articolo 11 del decreto del Presidente della Repubblica n. 89 del 2010.

In relazione a quanto disposto dal comma 2 dell’articolo in commento, si rileva


che il citato piano didattico personalizzato (PDP), a livello legislativo, risulta
richiamato in tale specifica denominazione solo dagli articoli 11 e 20 del decreto
legislativo n. 62 del 2017, peraltro in relazione ai soli alunni con disabilità o con
disturbi specifici di apprendimento. Tali richiami non forniscono una
definizione di piano didattico personalizzato (PDP), né rinviano a tal fine a
ulteriori disposizioni normative, anche di rango secondario. Per una ricostruzione
del percorso che ha portato alla diffusione dei piani didattici personalizzati
all’interno del sistema scolastico italiano, e per l’individuazione più precisa degli
studenti per cui tali piani sono adottati, si rinvia all’approfondimento che segue.

• Il Piano didattico personalizzato e i bisogni educativi speciali

In materia di personalizzazione dei percorsi didattici, è opportuno ricordare


preliminarmente che all’interno dell’ordinamento scolastico italiano vige, e riveste
fondamentale importanza, il principio dell’autonomia scolastica.

55
A.S. n. 1146 Articolo 20

Esso è espressamente riconosciuto dall’articolo 117, terzo comma, della


Costituzione, e si desume implicitamente dagli altri articoli dedicati alla cultura e
all’istruzione (artt. 9, 33 e 34). A livello legislativo, l’autonomia scolastica è riconosciuta
dall’articolo 21 della legge 15 marzo 1997, n. 59, ed è disciplinata nel dettaglio dal
relativo regolamento di attuazione, il decreto del Presidente della Repubblica 8 marzo
1999, n. 275.
Ai sensi del comma 9 dell’articolo 21 della citata legge n. 59 del 1997, l'autonomia
didattica delle istituzioni scolastiche “si sostanzia nella scelta libera e programmata di
metodologie, strumenti, organizzazione e tempi di insegnamento, da adottare nel rispetto
della possibile pluralità di opzioni metodologiche, e in ogni iniziativa che sia espressione
di libertà progettuale, compresa l'eventuale offerta di insegnamenti opzionali,
facoltativi o aggiuntivi e nel rispetto delle esigenze formative degli studenti.”
L’articolo 4, comma 2, lettera c) del DPR n. 275 del 1999 dispone poi che,
nell’esercizio dell’autonomia scolastica, le scuole possono adottare tutte le forme di
flessibilità che ritengono opportune, tra cui, l'attivazione di percorsi didattici
individualizzati, nel rispetto del principio generale dell'integrazione degli alunni nella
classe e nel gruppo, anche in relazione agli alunni “in situazione di handicap”, secondo
quanto già previsto dalla legge n. 104 del 1992.
La legge 8 ottobre 2010, n. 170, ha successivamente introdotto nuove norme in
materia di disturbi specifici di apprendimento (DSA) in ambito scolastico. Ai sensi
dell’articolo 5 della legge appena citata, agli studenti con DSA diagnosticato le
istituzioni scolastiche garantiscono, tra l’altro, l'uso di una didattica individualizzata e
personalizzata, con forme efficaci e flessibili di lavoro scolastico che tengano conto
anche di caratteristiche peculiari dei soggetti. Il decreto ministeriale n. 5669 del 12 luglio
2011, attuativo della legge n. 170 del 2010, fa esplicito riferimento, all’articolo 5,
all’adozione di un piano didattico personalizzato per gli alunni e studenti con DSA, in
particolare specificando che la sua redazione può costituire lo strumento attraverso il
quale la scuola garantisce ed esplicita, nei confronti di alunni e studenti con DSA,
interventi didattici individualizzati e personalizzati.
Nel 2012 è quindi intervenuta la direttiva ministeriale del 27 dicembre 2012 volta a
definire strumenti di intervento per gli alunni con bisogni educativi speciali – BES. La
direttiva parte dall’assunto che “l’area dello svantaggio scolastico è molto più ampia
di quella riferibile esplicitamente alla presenza di deficit”, che “le problematiche
ricomprese nei disturbi evolutivi specifici non vengono o possono non venir certificate
ai sensi della legge 104/92, non dando conseguentemente diritto alle provvidenze ed alle
misure previste dalla stessa legge quadro”; analogamente, la direttiva sottolinea che
“alcune tipologie di disturbi, non esplicitati nella legge 170/2010, danno diritto ad
usufruire delle stesse misure ivi previste in quanto presentano problematiche specifiche
in presenza di competenze intellettive nella norma”. “Un approccio educativo, non
meramente clinico” continua la citata direttiva “dovrebbe dar modo di individuare
strategie e metodologie di intervento correlate alle esigenze educative speciali, nella
prospettiva di una scuola sempre più inclusiva e accogliente, senza bisogno di ulteriori
precisazioni di carattere normativo”. Pertanto, “le scuole – con determinazioni assunte
dai Consigli di classe, risultanti dall’esame della documentazione clinica presentata dalle
famiglie e sulla base di considerazioni di carattere psicopedagogico e didattico – possono
avvalersi per tutti gli alunni con bisogni educativi speciali degli strumenti
compensativi e delle misure dispensative previste dalle disposizioni attuative della
legge 170/2010 (DM 5669/2011)”.

56
A.S. n. 1146 Articolo 20

In forza di tale direttiva interpretativa, la redazione, tra l’altro, del piano didattico
personalizzato diviene quindi uno strumento rivolto non solo agli studenti in situazione
di disabilità o di disturbo specifico dell’apprendimento certificati, ma a tutti gli studenti
con bisogni educativi speciali (BES). Il piano è utilizzato come strumento di lavoro in
itinere per gli insegnanti e di documentazione alle famiglie delle strategie di intervento
programmate. Più in particolare, la medesima direttiva evidenzia “la necessità di
elaborare un percorso individualizzato e personalizzato per alunni e studenti con
BES, anche attraverso la redazione di un piano didattico personalizzato”, riferendosi,
tra gli altri, anche agli “alunni con competenze intellettive nella norma o anche elevate,
che – per specifici problemi – possono incontrare difficoltà a scuola”.
L’interesse agli alunni con bisogni educativi speciali è stato poi declinato in precise
modalità operative dall’Amministrazione scolastica mediante la circolare ministeriale n.
8 del 6 marzo 2013, la nota MIUR 27 giugno 2013 prot. n. 1551 e la nota MIUR prot. n.
2563 del 22 novembre 2013, che delineano le strategie di intervento a favore degli
alunni e studenti con bisogni educativi speciali, e offrono indicazioni in merito alla
redazione del piano didattico personalizzato (PDP) per i medesimi alunni e studenti.
I bisogni educativi speciali sono citati dalla legge n. 107 del 2015, cosiddetta “Buona
scuola”, che individua espressamente fra gli obiettivi formativi prioritari del sistema
d'istruzione il “potenziamento dell'inclusione scolastica e del diritto allo studio degli
alunni con bisogni educativi speciali attraverso percorsi individualizzati e
personalizzati” (articolo 1, comma 7, lettera l)).
Uno dei decreti legislativi attuativi della legge “Buona scuola”, il n. 62 del 2017,
cita esplicitamente i piani didattici personalizzati, ma, come si è detto, solo con
riferimento agli studenti con disabilità e disturbi specifici di apprendimento, in
particolare in relazione alla valutazione nel primo ciclo d’istruzione (articolo 11) e
all’esame di Stato nel secondo ciclo d’istruzione (articolo 20). Un altro decreto legislativo
attuativo della legge “Buona scuola”, il n. 66 del 2017, è invece espressamente rivolto
all’inclusione scolastica degli studenti con disabilità, e reca disposizioni specifiche in
materia di “piano educativo individualizzato” ad essi rivolto.
Con più specifico riferimento agli studenti ad alto potenziale cognitivo (definiti in
ambito internazionale Gifted children), con la nota n. 562 del 3 aprile 2019, l’allora MIUR
ha avallato l’interpretazione invalsa presso le istituzioni scolastiche a seguito
dell'emanazione della sopra citata direttiva 27 dicembre 2012 di considerare la
condizione di tali alunni e studenti plusdotati nell'ambito delle prescrizioni sul
trattamento dei bisogni educativi speciali, in quanto ritenuta assolutamente corretta
nella prospettiva della personalizzazione degli insegnamenti, della valorizzazione degli
stili di apprendimento individuali e del principio di responsabilità educativa (v. paragrafo,
“Alunni e studenti ad alto potenziale intellettivo”, a pag. 3 della menzionata nota n. 562).
La medesima nota ha, inoltre, chiarito che anche in caso di alto potenziale cognitivo,
come per tutti gli altri bisogni educativi speciali, la strategia da assumere è rimessa alla
decisione dei consigli di classe (o team docenti della primaria) che, in presenza di
eventuali situazioni di criticità con conseguenti manifestazioni di disagio, possono
adottare metodologie didattiche specifiche in un'ottica inclusiva, sia a livello individuale
sia di classe, valutando la convenienza di un percorso di personalizzazione
formalizzato in un piano didattico personalizzato (PDP).
Si evidenzia, altresì, che con riferimento alla condizione giuridica degli alunni e
studenti ad alto potenziale cognitivo sono all’esame della 7ª Commissione permanente
del Senato i disegni di legge AS n. 180, recante disposizioni per il riconoscimento degli

57
A.S. n. 1146 Articolo 20

alunni con alto potenziale cognitivo, l'adozione di piani didattici personalizzati e la


formazione del personale scolastico all’esame del Senato, e AS n. 1041, riguardante
l’istituzione di un piano sperimentale per favorire l'inserimento e il successo scolastico
degli alunni con alto potenziale cognitivo e per la formazione specifica dei docenti.
Si ricorda, inoltre, la raccomandazione n. 1248 (94) del Consiglio
d’Europa sull’istruzione dei bambini con alto potenziale cognitivo.
Sullo stesso tema è intervenuto anche il Comitato economico e sociale europeo che,
nella 486° Sessione plenaria del 16-17 gennaio 2013, ha reso il parere “Liberare il
potenziale dei bambini e dei giovani con alte abilità intellettuali nell’Unione europea”.

Il comma 3 dell’articolo in esame prevede - con norma che appare di natura


programmatica - che lo Stato favorisca l’accessibilità ai sistemi di intelligenza
artificiale per il miglioramento del benessere psicofisico attraverso l'attività
sportiva, anche ai fini dello sviluppo di soluzioni innovative finalizzate a una
maggiore inclusione in ambito sportivo delle persone con disabilità.
Dispone, inoltre, che nel rispetto dei principi generali di cui al presente progetto di
legge, i sistemi di intelligenza artificiale possano essere utilizzati anche per
l’organizzazione delle attività sportive.

58
A.S. n. 1146 Articolo 21

Articolo 21
(Investimenti nei settori di intelligenza artificiale,
della cybersicurezza e calcolo quantistico)

L’articolo 21 consente investimenti fino a un miliardo di euro nella


partecipazione al capitale di rischio di imprese che operano in Italia nei settori
dell’intelligenza artificiale, della cybersicurezza, del calcolo quantistico e delle
telecomunicazioni. Gli investimenti sono effettuati avvalendosi di Cdp Venture
Capital Sgr spa (comma 1). Il Ministero delle imprese e del made in Italy (MIMIT)
è il soggetto investitore (comma 3). Per la misura, vengono utilizzate le risorse del
Fondo di sostegno al venture capital istituito dalla legge di bilancio 2019 (comma
2).

L’articolo 21 qui in esame – che si compone di tre commi – reca misure


finanziarie a sostegno di imprese operanti in settori dell’intelligenza artificiale,
della cybersicurezza, del calcolo quantistico e delle telecomunicazioni.

Nello specifico, le misure, per esplicita previsione del comma 1, sono finalizzate
a supportare lo sviluppo di imprese operanti nei settori dell’intelligenza
artificiale, della cybersicurezza, del calcolo quantistico, delle
telecomunicazioni e delle tecnologie per questa abilitanti, anche attraverso la
creazione di poli di trasferimento tecnologico e programmi di accelerazione
operanti nei medesimi settori. Ciò in linea con la Strategia nazionale per
l’intelligenza artificiale di cui all’articolo 17 (alla cui scheda di lettura si rinvia).
Il comma 1, segnatamente, autorizza, avvalendosi dell’operatività di Cdp Venture
Capital Sgr -Fondo Nazionale Innovazione (FNI), l’assunzione – fino a 1
miliardo di euro – di partecipazioni dirette o indirette nel capitale di rischio di
determinate imprese quali:
a) piccole e medie imprese (PMI) con elevato potenziale di sviluppo e
innovative, con sede legale e operativa in Italia, che operano nei settori
dell’intelligenza artificiale, della cybersicurezza e del calcolo quantistico e
delle tecnologie per queste abilitanti, nonché nel settore delle
telecomunicazioni con particolare riferimento al 5G e alle sue evoluzioni, al
mobile edge computing, alle architetture aperte basate su soluzioni software, al
Web 3, all’elaborazione del segnale, anche in relazione ai profili di sicurezza e
integrità delle reti di comunicazione elettroniche, e che si trovano in fase di
sperimentazione (seed financing), di costituzione (start up financing), di avvio
dell’attività (early-stage financing) o di sviluppo del prodotto (expansion, scale
up financing);
b) imprese, con sede legale e operativa in Italia, anche diverse da quelle di cui
alla lettera a) di cui sopra, operanti nei suddetti settori e tecnologie, con
elevato potenziale di sviluppo e altamente innovative, al fine di promuoverne
lo sviluppo come campioni tecnologici nazionali.

59
A.S. n. 1146 Articolo 21

Il comma 1, alinea, e la successiva lettera a) dell’articolo 21 contengono


l’espressione “[settore] delle tecnologie per questa/queste abilitanti”. Si valuti
l’opportunità di meglio definire questo concetto, considerando la sostituzione di
quella espressione con la seguente: “[settore] delle relative tecnologie abilitanti”.

Il comma 3 specifica che il soggetto investitore è il Ministero delle imprese e


del made in Italy (MIMIT).
Alla luce di quanto dispone il comma 3, si valuti l’opportunità di specificare, nel
comma 1, laddove si utilizza genericamente la locuzione “è autorizzata”, a chi è
conferita tale autorizzazione.

La relazione illustrativa afferma che la mobilizzazione dei suddetti investimenti


avviene sulla base di una strategia che si fonda su tre pilastri:
- la creazione di poli di trasferimento tecnologico (c.d. tech transfer)
specializzati in intelligenza artificiale, cybersicurezza e quantum computing: si
tratta di veicoli che federano realtà accademiche, partner tecnici e co-
investitori, con l’obiettivo di investire nelle predette imprese;
- investimenti in startup in diverse fasi di vita (early e late stage) attraverso tre
modalità: coordinamento con fondi che si concentrano su specifici settori o
industrie al fine di rafforzare le applicazioni verticali degli investimenti;
investimenti autonomi in startup che operano in un ambito settoriale non ben
definito o specifico; investimenti in fondi di venture capital che focalizzano la
propria attività di investimento su startup che operano in ambiti specifici;
- iniziative relative alla creazione e allo sviluppo di campioni nazionali (o
“unicorni”) dell’intelligenza artificiale mediante, da un lato, l’implementazione
di processi di supporto alla creazione di nuove startup, e, dall’altro,
l’individuazione di una o più startup già esistenti in cui investire per supportarle
nei processi di crescita.

Il comma 2 prevede che gli investimenti di cui al comma 1 siano effettuati


attraverso la sottoscrizione diretta o indiretta di quote o azioni di uno o più fondi
per il venture capital, appositamente istituiti e gestiti da Cdp Venture Capital Sgr
spa (CDPVC), oppure attraverso il coinvestimento da parte di altri fondi per il
venture capital istituiti e gestiti dalla stessa CDPVC.
Si valuti l’opportunità di meglio definire il concetto di “coinvestimento da parte
di altri fondi”, chiarendo se si intenda indicare una modalità di investimento
effettuato in parte mediante fondi di nuova istituzione e in parte mediante fondi
già istituiti.

Ai sensi del medesimo comma 2 gli investimenti sono effettuati mediante l’utilizzo
delle risorse del Fondo di sostegno al venture capital di cui all’articolo 1, comma
209, della legge di bilancio 2019 (L. n. 145/2018), secondo le disposizioni di cui
al decreto ministeriale attuativo del medesimo Fondo – D.M. 27 giugno 2019 – del

60
A.S. n. 1146 Articolo 21

quale viene contestualmente previsto un aggiornamento al fine di definire criteri


e modalità di applicazione delle misure qui introdotte.
Si ricorda che al fine di perseguire con maggiore efficacia l’obiettivo di promozione
degli interventi nel capitale di rischio e garantire una adeguata sinergia con gli
strumenti in essere, il citato D.M. ha previsto che il Fondo di sostegno al venture
capital intervenga in fondi per il venture capital, istituiti e gestiti dalla CDPVC o
da altre società autorizzate da Banca d’Italia a prestare il servizio di gestione
collettiva del risparmio19. I fondi per il venture capital devono investire
esclusivamente nel capitale di rischio di PMI con elevato potenziale di sviluppo ed
innovative, non quotate in mercati regolamentati, che si trovano nella fase di
sperimentazione (seed financing), di costituzione (start-up financing), di avvio
dell’attività (early-stage financing) o di sviluppo del prodotto (expansion, scale-up
financing).

La relazione tecnica precisa che la copertura della verticale d’investimento si


trova nell’ambito delle risorse del Fondo per il sostegno al venture capital nel
suo complesso, già interamente sottoscritte e trasferite a CDPVC. Il conto
corrente di tesoreria in questione (n. 25095) per la gestione (fuori bilancio) degli
interventi del Fondo, autorizzato dall’articolo 10, comma 7-sexies, ultimo periodo,
del D.L. n. 121/2021, ha attualmente una consistenza di cassa di 1.770.826.854,97
euro.

L’articolo 1 della legge 30 dicembre 2018, n. 145, legge di bilancio 2019, ha introdotto
disposizioni per una razionalizzazione del sistema del venture capital nazionale e, in
particolare:
a) il comma 116, ha previsto che, al fine di semplificare e rafforzare il settore del venture
capital e il tessuto economico-produttivo del Paese, l’allora Ministero dello sviluppo
economico (ora Ministero delle imprese e del made in Italy) potesse autorizzare la
cessione, a condizioni di mercato, da parte di Invitalia spa20, di una quota di
partecipazione, anche di controllo, detenuta nella società di gestione del risparmio
Invitalia Ventures Sgr spa - Invitalia Sgr, nonché di una quota di partecipazione in
fondi da essa gestiti, per favorire la gestione sinergica delle risorse (destinate al
venture capital) del c.d. Fondo per la crescita sostenibile21, di quelle del c.d. Fondo
imprese Sud22, e di quelle del c.d. Fondo “Italia Venture III”23;
b) il comma 117 ha attribuito il diritto di opzione a Cassa depositi e prestiti, per
l’acquisto della quota di partecipazione azionaria in Invitalia Sgr nonché della
quota di partecipazione in fondi da essa gestiti.
In attuazione di quanto sopra previsto, la società CDP Equity ha acquistato quote di

19
Contemporaneamente, il D.M. ha destinato agli investimenti nei fondi per il venture capital istituiti
e gestiti dalla CDPVC o da altre società autorizzate da Banca d’Italia a prestare il servizio di gestione
collettiva del risparmio, la somma di 200 milioni di euro già previsti con delibera CIPE n. 14 del 28 febbraio
2018, e assegnati al MISE dal comma 121 della legge di bilancio 2019.
20
L’Agenzia nazionale per l’attrazione degli investimenti e lo sviluppo d’impresa S.p.a. – Invitalia
S.p.a. è interamente di proprietà del Ministero dell’Economia e finanze (MEF) (cfr. qui).
21
di cui all’art. 23 del DL n. 82/2012.
22
di cui all’art. 1, comma 897, L. n. 205/2017.
23
di cui al comma 121 della stessa L. n. 145/2018.

61
A.S. n. 1146 Articolo 21

partecipazione di maggioranza in Invitalia Ventures Sgr. L’assemblea di Invitalia


Ventures Sgr (70% CDP Equity e 30% Invitalia) tenutasi il 21 gennaio 2020, ha
modificato il nome della società in CDP Venture Capital Sgr s.p.a. La denominazione
è stata modificata in CDP Venture Capital Sgr s.p.a. - Fondo Nazionale Innovazione
(qui il comunicato stampa e il sito istituzionale dedicato);
c) i commi 206 e 207 hanno previsto la possibilità di sottoscrizione da parte dello Stato,
tramite il MIMIT, di quote o azioni di uno o più Fondi per il venture capital o di uno
o più fondi che investono in fondi per il venture capital, come definiti dall’articolo
31, comma 2, del D.L. n. 98 del 201124, anche unitamente ad altri investitori
istituzionali, pubblici o privati, privilegiati nella ripartizione dei proventi derivanti
dalla gestione dei predetti organismi di investimento. Il D.M. 27 giugno 2019, in
attuazione di quanto previsto dal comma 208, ha disciplinato le modalità
d’investimento statale.
d) il comma 209, ha previsto per le finalità di cui al citato comma 206, l’istituzione,
nello stato di previsione dell’allora MISE (ora MIMIT), il Fondo di sostegno al
venture capital, dotandolo inizialmente di 30 milioni di euro per ciascuno degli anni
2019, 2020 e 2021 e di 5 milioni di euro per ciascuno degli anni dal 2022 al 2025.
Contestualmente, il comma 216 ha previsto, ai fini di una successiva alimentazione
del Fondo, che le entrate dello Stato derivanti dalla distribuzione di utili d’esercizio
o di riserve sotto forma di dividendi delle società partecipate dal MEF possano
essere utilizzate, fino al 10 per cento del loro ammontare, nel rispetto degli obiettivi
di finanza pubblica, per gli investimenti in venture capital sopra indicati e che le
somme introitate a tale titolo siano riassegnate, anche in deroga ai limiti previsti per
le riassegnazioni, con decreto del Ministro dell’economia e delle finanze ad apposito
capitolo dello stato di previsione della spesa del MEF per essere poi versate al Fondo,
iscritto nello stato di previsione della spesa del MIMIT. Le disposizioni hanno trovato
applicazione a decorrere dal 1° luglio 2019. Il Fondo è stato anche successivamente
rifinanziato e definanziato per via legislativa. I definanziamenti sono stati disposti a
titolo di parziale compensazione finanziaria delle misure recate nelle norme che li
hanno previsti25. Quanto ai rifinanziamenti, si rammenta che l’articolo 10, comma

24
L’articolo 31 del D.L. n. 98/2011, ha introdotto nell’ordinamento norme per favorire l’accesso
al venture capital e sostenere i processi di crescita di nuove imprese, utilizzando lo strumento
dell’organismo di investimento collettivo del risparmio chiuso, nonché delle società di investimento a
capitale fisso. Il comma 2 definisce “Fondi per il Venture Capital” (FVC) gli organismi di investimento
collettivo del risparmio chiusi e le società di investimento a capitale fisso, fiscalmente residenti in Italia o
in uno degli Stati membri dell’UE o in Stati aderenti all’Accordo sullo Spazio economico europeo (SEE)
compresi nell’apposito elenco del MEF, che investono almeno l’85 per cento del valore degli attivi in
piccole e medie imprese (PMI) non quotate in mercati regolamentati, nella fase di sperimentazione
(seed financing), di costituzione (start-up financing), di avvio dell’attività (early-stage financing) o di
sviluppo del prodotto (expansion o scale up financing) e il residuo in PMI di cui all’articolo 1, comma 1,
lettera w-quater.1), del testo unico di cui al decreto legislativo 24 febbraio 1998, n. 58. (281)
25
L’articolo 38, comma 3, del D.L. n. 34/2020 ha disposto uno stanziamento aggiuntivo di 200
milioni di euro per l’anno 2020. Queste risorse sono state finalizzate a sostenere investimenti nel capitale,
anche tramite la sottoscrizione di strumenti finanziari partecipativi, nonché l’erogazione di finanziamenti
agevolati, la sottoscrizione di obbligazioni convertibili, o altri strumenti finanziari di debito che prevedano
la possibilità del rimborso dell’apporto effettuato, a beneficio esclusivo delle startup innovative e delle
PMI innovative. In attuazione, è stato adottato il D.M. 1 ottobre 2020.
L’articolo 1, comma 107 della legge di bilancio 2021 (L. n.178/2020) ha stanziato 3 milioni di
euro per l’anno 2021 per il Fondo finalizzando tali risorse a sostenere investimenti nel capitale di rischio
per progetti di imprenditoria femminile a elevata innovazione ovvero a contenuto di innovazione
tecnologica, che prevedono il rientro dell’investimento iniziale esclusivamente nel lungo periodo, realizzati

62
A.S. n. 1146 Articolo 21

7-sexies, del D.L. n. 121/2021 – richiamato nella relazione tecnica del provvedimento
in esame – al fine di favorire il settore del venture capital, ha autorizzato il MISE, ora
MIMIT26, a sottoscrivere fino a un ammontare pari a 2 miliardi di euro da versare
al Fondo27. In attuazione, è stato adottato il decreto 26 luglio 2022 disciplina nel
dettaglio le modalità di impiego di tali somme. Come ricordato dalla relazione tecnica
del disegno di legge qui in commento, l’articolo 10, comma 7-sexies – per la gestione
degli interventi – ha autorizzato l’apertura di un apposito conto corrente presso la
Tesoreria centrale dello Stato, intestato al MIMIT, cui affluiscono le risorse ad esso
assegnate e sul quale la CDP spa è autorizzata a effettuare operazioni di
versamento e di prelevamento.
Si rileva che a legge di bilancio 2024 (L. n. 213/2024) il capitolo di spesa
7344/MIMIT, su cui sono iscritte le risorse del Fondo per il sostegno al venture capital
reca una previsione di 605 milioni per il 2024 e di 5 milioni per il 2025.
In argomento si veda anche la relazione annuale al Parlamento presentata dal MIMIT
nel 2023 sullo stato di attuazione delle policy in favore delle startup e PMI
innovative (in particolare da p. 50).

Il comma 3, dispone che, oltre al MIMIT in qualità di investitore, partecipano


agli organi di governo dei fondi di venture capital, con propri rappresentanti, in
ragione delle proprie competenze, la struttura della Presidenza del Consiglio dei
ministri competente in materia di innovazione tecnologica e transizione digitale e
l’Agenzia per la cybersicurezza nazionale, in ogni caso senza compensi o
indennità.

entro i confini del territorio nazionale da società il cui capitale è detenuto in maggioranza da donne. In
attuazione, è stato adottato il D.M. 27 dicembre 2021.
Il Fondo ha poi subìto una riduzione di 300 milioni di euro per l’anno 2024 ad opera dell’articolo
4, comma 4, lett. b), della legge n. 206/2023 (c.d. legge sul made in Italy) a titolo di parziale compensazione
dell’onere derivante dalla costituzione del c.d. Fondo nazionale del made in Italy.
26
nel rispetto della disciplina sugli aiuti di stato relativa agli “Orientamenti sugli aiuti di Stato
destinati a promuovere gli investimenti per il finanziamento del rischio”.
27
le risorse sono state reperite a valere su quelle, iscritte in conto residui nello stato di previsione del
Ministero dell’economia e delle finanze, autorizzate ai sensi dell’art. 27 del D.L. n. 34/2020, per le finalità
del cd. “Patrimonio destinato”, strumento la cui gestione è stata affidata a CDP.

63
A.S. n. 1146 Articolo 22, commi 1, 2 e 6

Articolo 22, commi 1, 2 e 6


(Delega al Governo per l’adeguamento della normativa nazionale al
regolamento dell’Unione europea in materia di intelligenza artificiale)

L’articolo 22, commi 1 e 2, contiene una delega al Governo per l’adozione, entro
dodici mesi dall’entrata in vigore del provvedimento, di uno o più decreti
legislativi che adeguino la normativa nazionale al regolamento del Parlamento
europeo e del Consiglio UE del 2024, cd. “AI Act”, approvato dal Consiglio UE
in via definitiva il 21 maggio 2024.
L’esercizio della delega è subordinato al rispetto di principi e criteri direttivi, sia
generali che specifici (comma 2).
Per quanto concerne i principi e criteri direttivi specifici, la lettera a) del comma
2 stabilisce che nell’attuazione della delega siano individuate le Autorità
nazionali competenti previste dal Regolamento europeo.
La successiva lettera b) concerne i percorsi di alfabetizzazione e formazione in
materia di strumenti di intelligenza artificiale, rivolti anche (lettera c)) ai
professionisti che fanno uso di tali strumenti.
Le lettere d), e) ed f) recano principi e criteri direttivi specifici per l’esercizio
della delega legislativa in materia di istruzione scolastica, formazione superiore
e ricerca. Tali principi e criteri direttivi fanno riferimento: al potenziamento,
all'interno dei curricoli scolastici, dello sviluppo di competenze legate alle
discipline STEM, nonché artistiche, al fine di promuovere la scelta di percorsi di
formazione superiore relativi alle menzionate discipline (lettera d)); alla
previsione, nei corsi universitari e delle istituzioni AFAM, nonché nei percorsi di
istruzione tecnologica superiore offerti dagli ITS Academy, di attività formative
per la comprensione tecnica e l'utilizzo consapevole anche sotto il profilo giuridico
delle tecnologie, anche con riferimento ai sistemi di intelligenza artificiale così
come definiti dalla disciplina europea, nonché per la corretta interpretazione della
produzione di tali sistemi in termini di previsioni, contenuti, raccomandazioni o
decisioni (lettera e)) ; alla valorizzazione delle attività di ricerca e di trasferimento
tecnologico in materia di intelligenza artificiale svolte da università, istituzioni
dell'AFAM, ITS Academy ed enti pubblici di ricerca, mediante disposizioni
finalizzate al perseguimento di alcuni obiettivi specificamente indicati (lettera f)).
Il comma 6 reca una clausola di invarianza finanziaria

I commi 1 e 2 dell’articolo in commento recano una delega al Governo per


l’adozione, entro dodici mesi dall’entrata in vigore del provvedimento, di uno o
più decreti legislativi per adeguare la normativa nazionale al regolamento del
Parlamento europeo e del Consiglio UE del 2024, cd. “AI Act”, approvato dal
Consiglio UE in via definitiva il 21 maggio 2024.

Brevi cenni sul regolamento dell’Unione europea

64
A.S. n. 1146 Articolo 22, commi 1, 2 e 6

In via di sintesi, il suddetto regolamento dell’Unione europea: stabilisce le pratiche


vietate in materia; reca una disciplina specifica per i sistemi di intelligenza
artificiale ad alto rischio, prevedendo anche una relativa banca dati; stabilisce
alcuni obblighi di trasparenza a carico dei produttori e dei gestori (deployers) di
determinati sistemi di intelligenza artificiale e pone in capo ai produttori la
responsabilità sulla sussistenza di alcuni requisiti dei prodotti (tra i sistemi
interessati da tali obblighi o responsabilità figurano quelli destinati ad interagire
direttamente con le persone fisiche e quelli che generano contenuti audio,
immagine, video o testuali sintetici); reca una disciplina specifica sui modelli di
intelligenza artificiale per finalità generali (modelli che presentano un elevato
livello di generalità); reca norme sulla sperimentazione in materia di intelligenza
artificiale; disciplina la governance del settore a livello di Unione europea e di
autorità nazionali; disciplina il monitoraggio sul mercato e la condivisione delle
informazioni; fa riferimento a codici di condotta e ad orientamenti.
Per un esame più dettagliato della disciplina posta dal regolamento
dell’Unione europea si rinvia al paragrafo finale della presente scheda.

Procedura per l’adozione dei decreti legislativi (comma 1)

Per la procedura per l’adozione dei decreti legislativi, il comma 1 del presente
articolo 22 fa rinvio a quella stabilita dall’articolo 31 della legge 24 dicembre
2012, n. 234, recante “Norme generali sulla partecipazione dell'Italia alla
formazione e all'attuazione della normativa e delle politiche dell'Unione europea”;
il medesimo comma 1 prevede l’acquisizione del parere – oltre che delle
Commissioni parlamentari competenti – del Garante per la protezione dei dati
personali.

L’articolo 31 della legge 24 dicembre 2012, n. 234, disciplina le procedure per l'esercizio
delle deleghe legislative conferite al Governo con la legge di delegazione europea28.
Il comma 2 di tale articolo specifica che i decreti legislativi sono adottati su proposta del
Presidente del Consiglio dei Ministri o del Ministro per gli affari europei e del Ministro
con competenza prevalente nella materia. Questi agiscono di concerto con i Ministri degli
affari esteri, della giustizia, dell'economia e delle finanze e con gli altri Ministri
interessati. L'amministrazione con competenza istituzionale prevalente predispone una
tabella di concordanza tra le disposizioni introdotte e quelle della direttiva da recepire.
Lo schema procedurale è disciplinato in via generale dal comma 3: gli schemi di
decreto legislativo, una volta acquisiti gli altri pareri previsti dalla legge, sono trasmessi

28
Il termine temporale per l’esercizio della delega è stabilito in via diretta, come detto, dal comma 1 del
presente articolo 22. Si ricorda in ogni caso che il comma 1 del summenzionato articolo 31 prevede che
il termine per l’esercizio delle deleghe sia di quattro mesi antecedenti il termine di recepimento indicato
in ciascuna delle direttive. Qualora il termine così determinato sia già scaduto alla data di entrata in
vigore della legge di delegazione europea, o scada nei tre mesi successivi, la delega deve invece essere
esercitata entro tre mesi dalla data di entrata in vigore della legge. In assenza di termine di recepimento,
il termine è di dodici mesi.

65
A.S. n. 1146 Articolo 22, commi 1, 2 e 6

alle Camere per l’espressione del parere delle Commissioni parlamentari competenti.
Decorsi quaranta giorni dalla data di trasmissione, essi sono emanati anche in assenza
del parere. Qualora il termine fissato per l’espressione del parere parlamentare scada nei
trenta giorni che precedono il termine per l’esercizio della delega o successivamente, il
termine è prorogato di tre mesi. Si intende in tal modo permettere al Governo di
usufruire in ogni caso di un adeguato periodo di tempo per l’eventuale recepimento, nei
decreti legislativi, delle indicazioni emerse in sede parlamentare.
Sugli schemi di decreto legislativo che comportino conseguenze finanziarie è previsto
anche il parere delle Commissioni parlamentari competenti per i profili finanziari
(comma 4); tali schemi devono essere corredati di una relazione tecnica; nel caso in cui
non intenda conformarsi alle condizioni formulate da tali Commissioni, il Governo
ritrasmette al Parlamento i testi, corredati dei necessari elementi integrativi
d'informazione, per i pareri definitivi delle medesime Commissioni competenti per i
profili finanziari, che devono essere espressi entro venti giorni. Il comma 9 prevede
altresì l’ipotesi che il Governo non intenda conformarsi ai pareri espressi dagli organi
parlamentari su norme contenenti sanzioni penali. In tal caso ritrasmette i testi alle
Camere, con osservazioni ed eventuali modificazioni. I decreti sono emanati anche in
mancanza di parere dopo venti giorni dalla data di ritrasmissione.
Il comma 5 prevede la possibilità per il Governo di adottare disposizioni integrative e
correttive entro 24 mesi dalla data di entrata in vigore di ciascun decreto legislativo. È
comunque necessario garantire il rispetto dei princìpi e criteri direttivi fissati in origine
dalla legge stessa. Analoga possibilità è disciplinata dal comma 6 al fine di recepire il
contenuto di atti delegati dell'Unione europea che modificano o integrano le direttive di
origine.
I commi 7 e 8 disciplinano i decreti di recepimento di direttive adottati materie di
competenza legislativa delle regioni e delle province autonome.

Principi e criteri direttivi generali per l’esercizio della delega (comma 2,


alinea)

Ai sensi del comma 2 del presente articolo 22, l’esercizio della delega è
subordinato in primis ai principi e criteri direttivi generali elencati nell’articolo
32 della citata legge 24 dicembre 2012, n. 234.

I principi e criteri direttivi indicati dall’articolo 32 della legge n. 234 del 2012 sono, in
estrema sintesi, i seguenti:
a) le amministrazioni direttamente interessate provvedono all'attuazione dei decreti
legislativi con le ordinarie strutture, secondo il principio della massima semplificazione
dei procedimenti;
b) ai fini di un migliore coordinamento con le discipline vigenti sono introdotte le
occorrenti modificazioni alle discipline stesse, anche attraverso il riassetto e la
semplificazione della normativa;
c) gli atti di recepimento di direttive non possono prevedere l'introduzione o il
mantenimento di livelli di regolazione superiori a quelli minimi richiesti dalle direttive
stesse (c.d. gold plating);

66
A.S. n. 1146 Articolo 22, commi 1, 2 e 6

d) ove necessario, al fine di assicurare l'osservanza delle disposizioni contenute nei


decreti legislativi, sono previste sanzioni amministrative e penali per le infrazioni alle
disposizioni dei decreti stessi. In ogni caso le sanzioni penali sono previste "solo nei casi
in cui le infrazioni ledano o espongano a pericolo interessi costituzionalmente protetti".
Si segnala che l’articolo 99 del regolamento europeo in oggetto prevede che gli Stati
membri stabiliscano sanzioni effettive, proporzionate e dissuasive, comprese
sanzioni amministrative pecuniarie, in relazione alle violazioni del regolamento
medesimo. Le sanzioni adottate dagli Stati membri sono soggette ad obbligo di
comunicazione alla Commissione europea.
Sono stabilite le seguenti soglie massime, a cui devono attenersi le norme
sanzionatorie dei singoli Stati membri:
 fino a 35 milioni di euro o al 7% del fatturato mondiale totale annuo
dell'esercizio precedente (se superiore29) per violazioni relative alle pratiche
vietate di cui all’articolo 5 del regolamento (riguardo a tale articolo, cfr. il
paragrafo finale della presente scheda);
 fino a 15 milioni di euro o al 3% del fatturato mondiale totale annuo
dell'esercizio precedente (se superiore30), per l'inosservanza di qualsiasi
altro requisito o obbligo del regolamento, posto in capo a produttori,
rappresentati autorizzati, importatori, distributori, gestori (deployers),
nonché degli obblighi di trasparenza posti in capo a produttori e deployers
e dei requisiti e obblighi degli organismi notificati;
 fino a 7,5 milioni di euro o all'1,5% del fatturato mondiale totale annuo
dell'esercizio precedente (se superiore31), per la fornitura di informazioni
inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità
nazionali competenti.
Per le PMI, comprese le start-up, si prevede l’applicazione della soglia massima
più bassa tra quella in valore percentuale e quella in valore assoluto.
e) al recepimento di direttive o di altri atti che modificano precedenti direttive o di
atti già attuati con legge o con decreto legislativo si procede apportando le
corrispondenti modificazioni alla legge o al decreto legislativo di attuazione;
f) nella redazione dei decreti legislativi si tiene conto delle eventuali modifiche
delle direttive, intervenute fino al momento dell'esercizio della delega;
g) quando si verificano sovrapposizioni di competenze tra amministrazioni diverse o
siano coinvolte le competenze di più amministrazioni statali, i decreti legislativi
individuano le procedure per salvaguardare l'unitarietà dei processi decisionali, l’efficacia
e la trasparenza dell’azione amministrativa, nel rispetto dei princìpi di sussidiarietà e delle
competenze delle regioni e degli enti territoriali;
h) le direttive che riguardano le stesse materie o che comportano modifiche degli
stessi atti normativi vengono attuate con un unico decreto legislativo, compatibilmente
con i diversi termini di recepimento;
i) è sempre assicurata la parità di trattamento dei cittadini italiani rispetto ai
cittadini degli altri Stati membri dell'Unione europea né può essere previsto un
trattamento sfavorevole dei cittadini italiani.

29
Per le PMI, comprese le start-up, cfr. infra.
30
Per le PMI, comprese le start-up, cfr. infra.
31
Per le PMI, comprese le start-up, cfr. infra.

67
A.S. n. 1146 Articolo 22, commi 1, 2 e 6

Principi e criteri direttivi specifici per l’esercizio della delega (comma 2,


lettere a) - f))

Le lettere da a) a f) del comma 2 recano i principi e criteri direttivi specifici.

Autorità nazionali (comma 2, lettera a))

La lettera a) prevede che nell’attuazione della delega il Governo designi


l’autorità di vigilanza del mercato, l’autorità di notifica, nonché il punto di
contatto con le istituzioni dell’Unione europea. Tali soggetti sono individuati in
coerenza con quanto previsto dall’articolo 18 del presente provvedimento,
concernente le autorità nazionali per l’intelligenza artificiale (cfr. la relativa
scheda). Si ricorda che il capo VII del regolamento dell’Unione europea in oggetto
prevede la designazione, da parte dei singoli Stati membri, di almeno un’autorità
di vigilanza del mercato e di almeno un’autorità nazionale di notifica; l’autorità
di vigilanza del mercato – o una di esse, in caso di pluralità di autorità designate –
funge da punto di contatto unico. Tali autorità costituiscono le autorità nazionali
competenti (ai fini dell’attuazione del regolamento medesimo)32.

Alfabetizzazione e formazione (comma 2, lettere b) e c))

Le lettere b) e c) stabiliscono che, nell’attuazione della delega, il Governo preveda


percorsi di alfabetizzazione e formazione nell’uso dei sistemi di intelligenza
artificiale.
In particolare, la lettera c) stabilisce che gli ordini professionali possano
prevedere percorsi dedicati ai professionisti e agli operatori del settore di
competenza. La medesima disposizione prevede la possibilità di una modulazione
dell’equo compenso sulla base dei rischi e delle responsabilità connessi all’uso
dell’intelligenza artificiale da parte del professionista.

Riguardo alle norme in materia di alfabetizzazione di cui all’articolo 4 del regolamento


europeo in oggetto, si rinvia al paragrafo finale della presente scheda.
Si ricorda che la legge 21 aprile 2023, n. 49, reca disposizioni in materia di equo
compenso delle prestazioni professionali (v. il dossier di documentazione sull’A.C. 338-
B, ultima lettura parlamentare). La legge interviene, tra l’altro, sull'ambito applicativo
della disciplina vigente, ampliandolo sia per quanto riguarda i professionisti interessati -
tra i quali sono inclusi gli esercenti professioni non ordinistiche - sia per quanto riguarda
la committenza che viene estesa anche a tutte le imprese che impiegano più di 50
dipendenti o fatturano più di 10 milioni di euro. L’articolo 1 della citata legge n. 49
stabilisce che per essere considerato “equo” il compenso deve essere proporzionato alla
quantità e qualità del lavoro svolto e al contenuto e alle caratteristiche della prestazione
professionale nonché conforme ai parametri per la determinazione dei compensi previsti
dalla legge.

32
Riguardo al regolamento, cfr. il paragrafo finale della presente scheda.

68
A.S. n. 1146 Articolo 22, commi 1, 2 e 6

Istruzione scolastica, formazione superiore e ricerca (comma 2, lettere d), e) ed


f))

Nel dettaglio, il comma 2, alle lettere d), e) e f), enuncia i seguenti principi e
criteri direttivi specifici ai quali il Governo deve attenersi nell'esercizio della
delega conferitagli dal comma 1:
- potenziamento, all'interno dei curricoli scolastici, dello sviluppo di competenze
scientifiche, tecnologiche, ingegneristiche e matematiche legate alle discipline
STEM, nonché artistiche, al fine di promuovere la scelta da parte delle studentesse
e degli studenti, anche attraverso mirate attività di orientamento personalizzato, di
percorsi di formazione superiore relativi alle menzionate discipline (lettera d));

Per quanto concerne i curricoli relativi ai diversi percorsi della scuola secondaria di
secondo grado si veda l’apposita pagina sul sito Unica del Ministero dell'istruzione
e del merito.

- previsione, nei corsi universitari e delle istituzioni di alta formazione artistica,


musicale e coreutica (AFAM), nonché nei percorsi di istruzione tecnologica
superiore offerti dagli istituti tecnologici superiori (ITS Academy), coerentemente
con i rispettivi profili culturali e professionali, di attività formative per la
comprensione tecnica e l'utilizzo consapevole anche sotto il profilo giuridico delle
tecnologie, anche con riferimento ai sistemi di intelligenza artificiale così come
definiti dalla disciplina europea, nonché per la corretta interpretazione della
produzione di tali sistemi in termini di previsioni, contenuti, raccomandazioni o
decisioni (lettera e));

Si rammenta in proposito che un "sistema di IA" è un sistema automatizzato


progettato per funzionare con livelli di autonomia variabili e che può presentare
adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce
dall'input che riceve come generare output quali previsioni, contenuti,
raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali
(articolo 3, n. 1), del regolamento del Parlamento europeo e del Consiglio UE del
2024).

Le istituzioni di alta formazione e specializzazione artistica e musicale (AFAM), ai


sensi della legge n. 508 del 1999, sono le seguenti: le Accademie di belle
arti, l'Accademia nazionale di arte drammatica, l'Accademia nazionale di danza,
gli Istituti superiori per le industrie artistiche (ISIA), i Conservatori di musica e
gli Istituti musicali pareggiati. L’elenco completo dei 105 istituti è riportato sul sito
del Ministero dell’università e della ricerca.
Per un approfondimento sulle istituzioni AFAM, si consulti la sezione ad esse
dedicata all’interno dell’area tematica dedicata a “Le misure destinate agli studenti
universitari e alle istituzioni AFAM, il diritto allo studio e la formazione
professionale” del portale della documentazione della Camera dei Deputati.
Si ricorda che la legge 15 luglio 2022, n. 99 ("Istituzione del Sistema terziario di
istruzione tecnologica superiore"), composta di 16 articoli, ha introdotto

69
A.S. n. 1146 Articolo 22, commi 1, 2 e 6

nell'ordinamento una normativa organica di rango legislativo per gli Istituti tecnici
superiori (ITS), inizialmente disciplinati - nei loro tratti essenziali - principalmente
da una fonte di rango secondario, il DPCM del 25 gennaio 2008 recante "Linee
guida per la riorganizzazione del Sistema di istruzione e formazione tecnica
superiore e la costituzione degli Istituti tecnici superiori". Tale legge è stata
approvata in attuazione della riforma del sistema ITS (M4-C1-R.1.2) prevista
dal Piano nazionale di ripresa e resilienza (PNRR), la quale aveva come primo
traguardo, al 31 dicembre 2022, l'adozione della riforma (attuata, appunto, con
l'approvazione della legge n. 99 del 2022). Il successivo (e ultimo) traguardo di tale
riforma è stato fissato al 31 dicembre 2023, e consiste nell'entrata in vigore delle
disposizioni per l'efficace attuazione e applicazione di tutte le misure relative alla
riforma, ove necessario. Per un approfondimento sulle riforme e
sugli investimenti del PNRR relativi al settore dell'istruzione, e sul loro stato di
attuazione, si rinvia all'apposita sezione del Portale della documentazione della
Camera dei deputati.

- valorizzazione delle attività di ricerca e di trasferimento tecnologico in materia


di intelligenza artificiale svolte da università, istituzioni dell'AFAM,
ITS Academy ed enti pubblici di ricerca, mediante disposizioni finalizzate al
perseguimento dei seguenti obiettivi (lettera f)):
1) agevolare il coinvolgimento del sistema dell'università e della ricerca nella
promozione, nella realizzazione e nell'utilizzo di spazi di sperimentazione
normativa in collaborazione con il mondo produttivo;
2) incentivare le attività di supporto e semplificare gli strumenti di collaborazione
tra il sistema dell'università e della ricerca, degli ITS Academy e le Agenzie per
l'Italia digitale (AgID) e per la cybersicurezza nazionale (ACN) designate
dall'articolo 18, comma 1, quali Autorità nazionali per l'intelligenza artificiale.

In base all’articolo 1, comma 1, del d.lgs. n. 218/2016, gli enti pubblici di ricerca
sono i seguenti: Area di Ricerca Scientifica e Tecnologica di Trieste - Area Science
Park; Agenzia Spaziale Italiana - ASI; Consiglio Nazionale delle Ricerche - CNR;
Istituto Italiano di Studi Germanici; Istituto Nazionale di Astrofisica - INAF;
Istituto Nazionale di Alta Matematica "Francesco Severi" - INDAM; Istituto
Nazionale di Fisica Nucleare - INFN; Istituto Nazionale di Geofisica e
Vulcanologia - INGV; Istituto Nazionale di Oceanografia e di Geofisica
Sperimentale - OGS; Istituto Nazionale di Ricerca Metrologica - INRIM; Museo
Storico della Fisica e Centro Studi e Ricerche "Enrico Fermi"; Stazione Zoologica
"Anton Dohrn"; Istituto Nazionale per la Valutazione del Sistema Educativo di
Istruzione e di Formazione - INVALSI; Istituto Nazionale di Documentazione,
Innovazione e Ricerca Educativa - INDIRE; Consiglio per la ricerca in agricoltura
e l'analisi dell'economia agraria - CREA; Agenzia Nazionale per le Nuove
Tecnologie, l'energia e lo Sviluppo Sostenibile - ENEA; Istituto per lo Sviluppo
della Formazione Professionale dei Lavoratori - ISFOL (a decorrere dal 1°
dicembre 2016 denominato Istituto nazionale per l'analisi delle politiche pubbliche
- INAPP); Istituto Nazionale di Statistica - ISTAT; Istituto Superiore di Sanità -
ISS; Istituto Superiore per la Protezione e la Ricerca Ambientale – ISPRA.

70
A.S. n. 1146 Articolo 22, commi 1, 2 e 6

Clausola di invarianza finanziaria (comma 6)

Il comma 6 stabilisce che dall’attuazione del presente articolo 22 (v. anche la


scheda sui commi da 3 a 5) non derivino nuovi o maggiori oneri a carico della
finanza pubblica. Le amministrazioni provvedono con le risorse umane,
strumentali e finanziarie, disponibili a legislazione vigente.

Quadro sul regolamento del Parlamento europeo e del Consiglio che stabilisce
regole armonizzate sull'intelligenza artificiale e modifica i regolamenti (CE)
n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE)
2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE)
2020/1828 (regolamento sull'intelligenza artificiale)

In via di sintesi (come già detto nella parte precedente della scheda), il regolamento
in oggetto: stabilisce le pratiche vietate in materia; reca una disciplina specifica
per i sistemi di intelligenza artificiale ad alto rischio, prevedendo anche una
relativa banca dati; stabilisce alcuni obblighi di trasparenza a carico dei produttori
e dei gestori (deployers) di determinati sistemi di intelligenza artificiale e pone in
capo ai produttori la responsabilità sulla sussistenza di alcuni requisiti dei prodotti
(tra i sistemi interessati da tali obblighi o responsabilità figurano quelli destinati
ad interagire direttamente con le persone fisiche e quelli che generano contenuti
audio, immagine, video o testuali sintetici); reca una disciplina specifica sui
modelli di intelligenza artificiale per finalità generali (modelli che presentano un
elevato livello di generalità); reca norme sulla sperimentazione in materia di
intelligenza artificiale; disciplina la governance del settore a livello di Unione
europea e di autorità nazionali; disciplina il monitoraggio sul mercato e la
condivisione delle informazioni; fa riferimento a codici di condotta e ad
orientamenti.

Il 13 marzo 2024 il Parlamento europeo ha approvato il regolamento


sull’intelligenza artificiale (IA), facendo seguito all'accordo già raggiunto con il
Consiglio dell’Unione europea nel dicembre 2023. Il testo è stato formalmente
adottato dal Consiglio Telecomunicazioni nella seduta del 21 maggio 2024.
Principali obiettivi del regolamento sono (così come esplicitati in particolare ai
considerando 1 e 2):
 migliorare il funzionamento del mercato interno dell’Unione, istituendo
un quadro giuridico uniforme, in particolare per quanto riguarda lo
sviluppo, l'immissione sul mercato, la messa in servizio e l'uso di sistemi
di intelligenza artificiale (sistemi di IA);
 promuovere la diffusione di un'intelligenza artificiale (IA)
antropocentrica e affidabile, garantendo nel contempo un livello elevato
di protezione della salute, della sicurezza e dei diritti fondamentali sanciti

71
A.S. n. 1146 Articolo 22, commi 1, 2 e 6

dalla Carta dei diritti fondamentali dell'Unione europea, compresi la


democrazia, lo Stato di diritto e la protezione dell'ambiente nell'Unione;
 promuovere l'innovazione e l’occupazione;
 assicurare all’Unione un ruolo guida in tale settore.
Si traccia di seguito un quadro sulle principali disposizioni contenute nel
regolamento.
Il capo I definisce l'oggetto del regolamento e l'ambito di applicazione delle
nuove regole, le quali concernono l'immissione sul mercato, la messa in servizio
e l'uso di sistemi di IA nell’Unione (artt. 1-4).
L’art. 1 specifica che il regolamento stabilisce:
 divieti di talune pratiche di IA;
 requisiti specifici per i sistemi di IA ad alto rischio e obblighi per gli
operatori di tali sistemi;
 regole di trasparenza armonizzate per determinati sistemi di IA;
 regole armonizzate per l'immissione sul mercato di modelli di IA per
finalità generali;
 regole in materia di monitoraggio del mercato, vigilanza del mercato,
governance ed esecuzione;
 misure a sostegno dell'innovazione, con particolare attenzione alle PMI,
comprese le start-up.
Il regolamento si applica ai soggetti pubblici e privati, all'interno e all'esterno
dell'UE, con riferimento ai casi in cui il sistema di IA sia immesso sul mercato
dell'Unione o in cui il suo uso abbia effetti su persone situate nell'UE.
L’art. 3 contiene le ‘definizioni’ applicate ai fini del regolamento. In particolare,
per sistema di IA si intende “un sistema automatizzato progettato per funzionare
con livelli di autonomia variabili e che può presentare adattabilità dopo la
diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve
come generare output quali previsioni, contenuti, raccomandazioni o decisioni che
possono influenzare ambienti fisici o virtuali”.
L’art. 4 stabilisce che i produttori e i gestori33 adottino misure per garantire, “nella
misura del possibile”, un livello sufficiente di alfabetizzazione in materia di
intelligenza artificiale del personale e degli altri soggetti che facciano uso di
sistemi di IA per conto dei medesimi produttori o gestori.
Il capo I è integrato dall'allegato I, contenente un elenco della normativa di
armonizzazione dell'Unione (elenco a cui fanno riferimento alcune norme del
regolamento, cfr. infra in merito).
Il capo II stabilisce le pratiche di AI vietate (art. 5).
Sono vietati l’immissione sul mercato, la messa in servizio o l’uso di un sistema
di IA volto a:
1. utilizzare tecniche subliminali che agiscano senza che una persona ne
sia consapevole o tecniche volutamente manipolative o ingannevoli

33
Riguardo ai termini, usati nella presente esposizione, di produttori e gestori, cfr. infra, anche in
nota.

72
A.S. n. 1146 Articolo 22, commi 1, 2 e 6

aventi lo scopo o l'effetto di distorcere materialmente il comportamento


di una persona o di un gruppo di persone;
2. sfruttare le vulnerabilità di una persona fisica o di uno specifico gruppo
di persone, dovute all'età, alla disabilità o a una specifica situazione
sociale o economica, con l'obiettivo o l'effetto di distorcere
materialmente il comportamento di tale persona, in un modo che
provochi o possa ragionevolmente provocare un danno significativo;
3. la valutazione o la classificazione delle persone fisiche o di gruppi di
persone sulla base del loro comportamento sociale o di caratteristiche
(personali o della personalità) note, inferite o previste, qualora il
punteggio sociale così ottenuto comporti il verificarsi di uno o di
entrambi gli scenari seguenti:
a. un trattamento pregiudizievole o sfavorevole in contesti sociali
che non siano collegati ai contesti in cui i dati siano stati
originariamente generati o raccolti;
b. un trattamento pregiudizievole o sfavorevole che sia ingiustificato
o sproporzionato rispetto al comportamento sociale dei soggetti o
alla sua gravità;
4. valutare o prevedere il rischio che una persona fisica commetta un reato,
unicamente sulla base della profilazione di una persona fisica o della
valutazione dei tratti e delle caratteristiche della personalità (tale divieto
non si applica ai sistemi di IA utilizzati a sostegno della valutazione del
coinvolgimento di una persona in un'attività criminosa);
5. creare o ampliare le banche dati di riconoscimento facciale mediante
scraping34 non mirato di immagini facciali da internet o da filmati di
telecamere a circuito chiuso;
6. inferire le emozioni di una persona fisica nell'ambito del luogo di lavoro
e degli istituti di istruzione (tranne laddove l'uso del sistema di IA sia
utilizzato a fini medici o di sicurezza);
7. classificare individualmente le persone fisiche sulla base dei loro dati
biometrici per trarre deduzioni o inferenze in merito a razza, opinioni
politiche, appartenenza sindacale, convinzioni religiose o filosofiche,
vita sessuale o orientamento sessuale; tale divieto non riguarda
l'etichettatura o il filtraggio di set di dati biometrici acquisiti legalmente,
come le immagini sulla base di dati biometrici, o sulla base della

34
Il web scraping (dall’inglese to scrape, grattare/raschiare) è una particolare tecnica di crawling.
Un crawler – chiamato anche bot o spider – è un software che ha lo scopo di raccogliere tutte le
informazioni necessarie per indicizzare in modo automatico le pagine di un sito, analizzare i collegamenti
ipertestuali e trovare associazioni fra termini di ricerca e classificarli (definizione fornita dal sito Agenda
digitale europea).

73
A.S. n. 1146 Articolo 22, commi 1, 2 e 6

categorizzazione di dati biometrici35, nel settore delle attività di


contrasto36;
8. l'uso di sistemi di identificazione biometrica remota "in tempo reale"
in spazi accessibili al pubblico a fini di attività di contrasto, a meno
che (e nella misura in cui) tale uso sia strettamente necessario per uno
degli obiettivi seguenti:
a. la ricerca mirata di vittime di sottrazione, tratta di esseri
umani o sfruttamento sessuale, nonché la ricerca di persone
scomparse;
b. la prevenzione di una minaccia specifica, sostanziale e
imminente per la vita o l'incolumità fisica delle persone fisiche
o di una minaccia reale e attuale, o reale e prevedibile, di un
attacco terroristico;
c. la localizzazione o l'identificazione di una persona sospettata di
aver commesso uno dei reati di cui all'allegato II del regolamento,
punibile nello Stato membro interessato con una pena o una
misura di sicurezza privativa della libertà della durata massima di
almeno quattro anni37.
Il capo III stabilisce la disciplina relativa ai sistemi di IA ad alto rischio (artt.
6-49).
La sezione 1 si riferisce alla classificazione dei sistemi di IA “ad alto rischio”.
In primo luogo, rientrano in tale categoria i sistemi per i quali ricorrono entrambe
le seguenti condizioni:
 il sistema di IA è destinato a essere utilizzato come componente di
sicurezza di un prodotto disciplinato dalla normativa di armonizzazione
dell'Unione elencata nel suddetto allegato I, ovvero il sistema costituisce
di per sé un prodotto rientrante nell’ambito della medesima normativa
di armonizzazione;
 la componente di sicurezza o il prodotto summenzionato è soggetto a
una valutazione della conformità da parte di terzi ai fini
dell'immissione sul mercato o della messa in servizio di tale prodotto, ai
sensi della normativa di armonizzazione dell'Unione di cui all'allegato I.

35
Si ricorda che il presente regolamento definisce la "categorizzazione biometrica" come
l'assegnazione di persone fisiche a categorie specifiche sulla base dei loro dati biometrici.
36
Le attività di contrasto sono così definite dal regolamento in oggetto: “attività svolte dalle autorità
di contrasto o per loro conto a fini di prevenzione, indagine, accertamento o perseguimento di reati o
esecuzione di sanzioni penali, incluse la salvaguardia contro le minacce alla sicurezza pubblica e la
prevenzione delle stesse”.
37
Il regolamento specifica che ogni uso di un sistema di identificazione biometrica remota "in tempo
reale" in spazi accessibili al pubblico a fini di attività di contrasto dovrà essere subordinato a
un'autorizzazione preventiva rilasciata da un'autorità giudiziaria o da un'autorità amministrativa
indipendente, la cui decisione è vincolante, dello Stato membro in cui avviene l'uso. Tuttavia, in una
situazione di urgenza debitamente giustificata, sarà possibile iniziare a usare il sistema senza
autorizzazione, a condizione che tale autorizzazione sia richiesta senza indebito ritardo, al più tardi entro
24 ore. Se tale autorizzazione verrà respinta, l'uso sarà interrotto con effetto immediato e tutti i dati, nonché
i risultati e gli output di tale uso, saranno immediatamente eliminati e cancellati.

74
A.S. n. 1146 Articolo 22, commi 1, 2 e 6

Sono inoltre considerati ad alto rischio i sistemi di IA di cui all'allegato III del
regolamento38, a meno che essi non presentino un rischio significativo di danno
per la salute, la sicurezza o i diritti fondamentali delle persone fisiche; tali
esclusioni non possono riguardare i sistemi di cui all'allegato III che effettuino
profilazione di persone fisiche.
Si segnala che, in base a tali definizioni, tra i sistemi ad alto rischio rientrano, in
particolare, quelli riguardanti:
 l’identificazione biometrica remota, la categorizzazione biometrica e
il riconoscimento delle emozioni;
 le infrastrutture critiche (sistemi di IA destinati a essere utilizzati come
componenti di sicurezza nella gestione e nel funzionamento delle
infrastrutture digitali critiche e del traffico stradale e nella fornitura
di acqua, gas, riscaldamento o elettricità);
 l'accesso, l'ammissione o l'assegnazione agli istituti di istruzione e
formazione professionale;
 l’occupazione, la gestione dei lavoratori e l’accesso al lavoro
autonomo (sistemi di IA destinati all’assunzione o alla selezione di
persone fisiche, in particolare mediante pubblicazione di annunci di
lavoro mirati o valutazione dei candidati, e sistemi destinati a essere
utilizzati per adottare decisioni in merito alle condizioni dei rapporti di
lavoro, per assegnare compiti o per monitorare le prestazioni);
 l’accesso a servizi e a prestazioni, pubblici e privati, essenziali
(compresi l'assistenza sanitaria e compresi i sistemi di IA destinati a
essere utilizzati per valutare e classificare le chiamate di emergenza), la
valutazione dell'affidabilità creditizia delle persone fisiche, la
valutazione dei rischi finanziari, la determinazione dei prezzi in
relazione ad assicurazioni sulla vita e assicurazioni sanitarie;
 le attività di contrasto (nella misura in cui il diritto dell’Unione o
nazionale ne consenta l’uso)39;
 la gestione della migrazione, dell'asilo e del controllo delle frontiere;
 l’amministrazione della giustizia e i processi democratici (sistemi di
IA destinati a essere usati per assistere le autorità giudiziarie nella ricerca
e nell’interpretazione dei fatti e sistemi destinati a influenzare l’esito di
un’elezione o di un referendum).
Nella misura in cui sono integrati in piattaforme online di dimensioni molto grandi
o motori di ricerca online di dimensioni molto grandi, i sistemi di IA sono soggetti al

38
Alla Commissione è conferito il potere di adottare atti delegati al fine di modificare l’elenco di cui
all’allegato III, aggiungendo o modificando i casi d’uso dei sistemi di IA ad alto rischio se sono soddisfatte
entrambe le seguenti condizioni: i sistemi di IA sono destinati a essere usati in uno dei settori elencati
nell'allegato III; i sistemi di IA presentano un rischio di danno per la salute e la sicurezza, o di impatto
negativo sui diritti fondamentali, e tale rischio è equivalente o superiore al rischio di danno o di impatto
negativo presentato dai sistemi di IA ad alto rischio di cui all'allegato III.
39
Riguardo alla nozione di attività di contrasto, cfr. supra, in nota.

75
A.S. n. 1146 Articolo 22, commi 1, 2 e 6

quadro di gestione dei rischi di cui al regolamento (UE) 2022/2065 (regolamento sui
servizi digitali)40.
La sezione 2 disciplina i requisiti per i sistemi di IA classificati ad alto
rischio, mentre nella sezione 3 sono stabiliti gli obblighi dei produttori41 e dei
gestori (deployers42) di tali sistemi.
Per i sistemi ad alto rischio vige l'obbligo di valutare e ridurre i rischi, mantenere
registri d'uso, essere accurati e garantire la sorveglianza umana. In particolare, tali
sistemi dovranno essere progettati e sviluppati in modo tale da garantire che il loro
funzionamento sia sufficientemente trasparente e da consentire ai deployers di
interpretare l'output del sistema e utilizzarlo adeguatamente.
I produttori di sistemi di IA ad alto rischio dovranno istituire un sistema di gestione della
qualità che garantisca la conformità al regolamento in oggetto. Tale sistema dovrà essere
documentato in modo sistematico e ordinato sotto forma di politiche, procedure e
istruzioni scritte e comprendere almeno: a) una strategia per la conformità normativa; b)
le tecniche, le procedure e gli interventi sistematici da utilizzare per la progettazione, il
controllo della progettazione e la verifica della progettazione del sistema di IA ad alto
rischio; c) le tecniche, le procedure e gli interventi sistematici da utilizzare per lo sviluppo
e per il controllo e la garanzia della qualità del sistema di IA ad alto rischio; d) le
procedure di esame, prova e convalida da effettuare prima, durante e dopo lo sviluppo del
sistema di IA ad alto rischio e la frequenza con cui devono essere effettuate; e) le
specifiche tecniche, comprese le norme, da applicare e, qualora le pertinenti norme
armonizzate non siano applicate integralmente, o non includano tutti i requisiti pertinenti,
i mezzi da usare per garantire che il sistema di IA ad alto rischio sia conforme a tali
requisiti; f) i sistemi e le procedure per la gestione dei dati; g) il sistema di gestione dei
rischi; h) la predisposizione, l'attuazione e la manutenzione di un sistema di monitoraggio
successivo all'immissione sul mercato; i) le procedure relative alla segnalazione di un
incidente grave43; j) la gestione della comunicazione con le autorità nazionali
competenti, altre autorità pertinenti, gli organismi notificati, altri operatori, clienti o altre
parti interessate; k) i sistemi e le procedure per la conservazione delle registrazioni e di
tutte le informazioni e la documentazione pertinenti; l) la gestione delle risorse, comprese
le misure relative alla sicurezza dell'approvvigionamento; m) un quadro di responsabilità
che definisca le responsabilità della dirigenza e di altro personale.

40
Cfr. anche il regolamento sui mercati digitali (regolamento (UE) 2022/1925).
41
Riguardo a tale categoria, si ricorda che, sotto il profilo letterale, il regolamento adopera il termine
fornitore, il quale viene ivi definito come “una persona fisica o giuridica, un'autorità pubblica, un'agenzia
o un altro organismo che sviluppa un sistema di IA o un modello di IA per finalità generali o che fa
sviluppare un sistema di IA o un modello di IA per finalità generali e immette tale sistema o modello sul
mercato o mette in servizio il sistema di IA con il proprio nome o marchio, a titolo oneroso o gratuito”.
42
Il regolamento definisce "deployer" una persona fisica o giuridica, un’autorità pubblica,
un’agenzia o un altro organismo che utilizza un sistema di IA sotto la propria autorità, ad eccezione dei casi
in cui il sistema di IA sia utilizzato nel corso di un'attività personale non professionale.
43
Viene definito "incidente grave": un incidente o malfunzionamento di un sistema di IA che,
direttamente o indirettamente, determina una delle conseguenze seguenti:
1. il decesso di una persona o gravi danni alla salute di una persona;
2. una perturbazione grave e irreversibile della gestione o del funzionamento delle infrastrutture
critiche;
3. la violazione degli obblighi posti a norma del diritto dell'Unione e intesi a proteggere i diritti
fondamentali;
4. gravi danni alle cose o all'ambiente.

76
A.S. n. 1146 Articolo 22, commi 1, 2 e 6

Prima di utilizzare un sistema di IA ad alto rischio, i deployers (di diritto pubblico


o privato) che forniscono servizi pubblici e i deployers di sistemi di IA ad alto
rischio di cui all'allegato III, punto 5, lettere b) e c), dovranno effettuare una
valutazione dell'impatto sui diritti fondamentali che l'uso di tale sistema può
produrre.
Il capo IV stabilisce gli obblighi di trasparenza per i produttori e i deployers
di determinati sistemi di IA (art. 50).
I produttori dovranno garantire che i sistemi di IA destinati a interagire
direttamente con le persone fisiche siano progettati e sviluppati in modo tale che
le persone fisiche interessate siano “informate del fatto di stare interagendo con
un sistema di IA, a meno che ciò non risulti evidente dal punto di vista di una
persona fisica ragionevolmente informata, attenta e avveduta, tenendo conto delle
circostanze e del contesto di utilizzo”. Tale obbligo non si applica ai sistemi di IA
autorizzati dalla legge per accertare, prevenire, indagare o perseguire reati, fatte
salve le tutele adeguate per i diritti e le libertà dei terzi, a meno che tali sistemi non
siano a disposizione del pubblico per segnalare un reato.
I produttori di sistemi di IA, compresi i sistemi di IA per finalità generali44, che
generano contenuti audio, immagine, video o testuali sintetici, devono garantire
che gli output del sistema di IA siano marcati in un formato leggibile
meccanicamente e rilevabili come generati o manipolati artificialmente45.
Inoltre, i deployers di un sistema di riconoscimento delle emozioni o di un sistema
di categorizzazione biometrica dovranno informare le persone fisiche che vi sono
esposte in merito al funzionamento del sistema e trattare i dati personali in
conformità dei regolamenti (UE) 2016/679 e (UE) 2018/1725 e della direttiva (UE)
2016/680, a seconda dei casi46.
Il presente regolamento definisce la "categorizzazione biometrica" come l'assegnazione
di persone fisiche a categorie specifiche sulla base dei loro dati biometrici.
Si prevede che l'Ufficio per l’IA (già istituito all’interno della Commissione
europea47) incoraggi e agevoli l'elaborazione di buone pratiche a livello
dell'Unione per facilitare l'efficace attuazione degli obblighi relativi alla
rilevazione e all'etichettatura dei contenuti generati o manipolati artificialmente.
Il capo V stabilisce le norme relative ai modelli di IA per finalità generali (artt.

44
Riguardo a questi ultimi sistemi, cfr. infra.
45
“Diversi sistemi di IA possono generare grandi quantità di contenuti sintetici, che per gli esseri
umani è divenuto sempre più difficile distinguere dai contenuti autentici e generati da esseri umani. L’ampia
disponibilità e l’aumento delle capacità di tali sistemi hanno un impatto significativo sull’integrità e sulla
fiducia nell’ecosistema dell’informazione, aumentando i nuovi rischi di cattiva informazione e
manipolazione su vasta scala, frode, impersonificazione e inganno dei consumatori. Alla luce di tali impatti,
della rapida evoluzione tecnologica e della necessità di nuovi metodi e tecniche per risalire all’origine delle
informazioni, è opportuno imporre ai produttori di tali sistemi di integrare soluzioni tecniche che
consentano agli output di essere marcati in un formato leggibile meccanicamente e di essere rilevabili come
generati o manipolati da un sistema di IA e non da esseri umani” (considerando 133 del regolamento).
46
Tale obbligo non si applica ai sistemi di IA utilizzati per la categorizzazione biometrica e il
riconoscimento delle emozioni autorizzati dalla legge per accertare, prevenire o indagare reati, fatte salve
le tutele adeguate per i diritti e le libertà dei terzi e conformemente al diritto dell'Unione.
47
Cfr. la parte della scheda relativa al capo VII del presente regolamento.

77
A.S. n. 1146 Articolo 22, commi 1, 2 e 6

51-56). In base alla nozione posta dal regolamento48, si considera come un modello
di IA per finalità generali un modello (anche se addestrato con grandi quantità di
dati mediante l'autosupervisione su larga scala) “che sia caratterizzato da una
generalità significativa e sia in grado di svolgere con competenza un'ampia gamma
di compiti distinti, indipendentemente dalle modalità con cui il modello è immesso
sul mercato, e che può essere integrato in una varietà di sistemi o applicazioni a
valle, ad eccezione dei modelli di IA utilizzati per attività di ricerca, sviluppo o
prototipazione prima di essere immessi sul mercato”.
Con riferimento agli obblighi dei produttori di modelli di IA per finalità
generali (sezione 2), si dispone che tali soggetti siano tenuti a:
 redigere la documentazione tecnica del modello, relativa anche al
processo di addestramento e prova e ai risultati della sua valutazione; la
documentazione deve contenere almeno le informazioni di cui
all'allegato XI, affinché possa essere trasmessa, su richiesta, all'Ufficio
per l'IA49 e alle autorità nazionali competenti;
 elaborare informazioni e documentazioni per i produttori di sistemi di IA
che intendano integrare il modello di IA per finalità generali nei loro
sistemi di IA. Fatta salva la necessità di rispettare e proteggere i diritti di
proprietà intellettuale e le informazioni commerciali riservate o i segreti
commerciali (conformemente al diritto dell'Unione e nazionale), le
informazioni e le documentazioni devono:
o consentire ai produttori di sistemi di IA di avere una buona
comprensione delle capacità e dei limiti del modello di IA per
finalità generali e di adempiere i loro obblighi a norma del
regolamento;
o contenere almeno gli elementi di cui all'allegato XII50;
 attuare una politica volta ad adempiere al diritto dell'Unione in materia
di diritto d'autore e di diritti ad esso collegati e, in particolare, a
individuare e rispettare, anche attraverso tecnologie all'avanguardia, una
riserva di diritti espressa dal titolare in modo appropriato a norma dell'art.
4, paragrafo 3, della direttiva (UE) 2019/790;
 redigere e mettere a disposizione del pubblico una sintesi
sufficientemente dettagliata dei contenuti utilizzati per l'addestramento
del modello di IA per finalità generali, secondo un modello fornito
dall'Ufficio per l'IA.

48
All’art. 3, primo comma, punto 63).
49
Riguardo a tale Ufficio, cfr., come detto, la parte della scheda relativa al capo VII del presente
regolamento.
50
Gli obblighi di informazione e documentazione fin qui ricordati (di cui alla sezione 2 in oggetto)
non si applicano ai produttori di modelli di IA rilasciati con licenza libera e open source che consentono
l'accesso, l'uso, la modifica e la distribuzione del modello e i cui parametri, compresi i pesi, le informazioni
sull'architettura del modello e le informazioni sull'uso del modello, sono resi pubblici.
Tale eccezione non si applica ai modelli di IA per finalità generali con rischi sistemici.

78
A.S. n. 1146 Articolo 22, commi 1, 2 e 6

Nella sezione 3 sono stabiliti gli specifici obblighi posti (in via aggiuntiva) a
carico dei produttori di modelli di IA per finalità generali con rischio
sistemico.
Si ricorda che (in base alla sezione 1 del capo in esame) un modello di IA per
finalità generali è classificato come “modello di IA per finalità generali con
rischio sistemico” se rientra in una delle fattispecie seguenti:
 presenta capacità di impatto elevato, valutate sulla base di strumenti
tecnici e metodologie adeguati, compresi indicatori e parametri di
riferimento;
 presenta capacità di impatto equivalenti a quelle suddette; tale
equivalenza è stabilita con decisione della Commissione – ex officio o a
seguito di una segnalazione qualificata del gruppo di esperti scientifici –
sulla base dei criteri di cui all'allegato XIII.
Per tali modelli, le norme poste dalla suddetta sezione 3 richiedono di:
 effettuare una valutazione dei modelli in conformità di protocolli e
strumenti standardizzati che rispecchino lo stato dell’arte, anche
svolgendo e documentando il test contraddittorio (adversarial testing)
del modello al fine di individuare e attenuare i rischi sistemici;
 valutare e attenuare i possibili rischi sistemici, a livello dell’Unione, che
possano derivare dallo sviluppo, dall’immissione sul mercato o dall’uso
del modello;
 tenere traccia, documentare e riferire “senza indebito ritardo” all’Ufficio
per l’IA e, se del caso, alle autorità nazionali competenti le informazioni
pertinenti su incidenti gravi ed eventuali misure correttive per porvi
rimedio;
 garantire un livello adeguato di protezione – in termini di cibersicurezza
– del modello e dell’infrastruttura fisica dello stesso51.
Il capo VI disciplina le misure a sostegno dell'innovazione (artt. 57-63).
Gli Stati membri devono provvedere affinché le loro autorità competenti
istituiscano almeno uno spazio di sperimentazione normativa per l'IA, a livello
nazionale o congiuntamente con le autorità competenti di altri Stati membri52; lo
spazio deve essere operativo entro due anni dalla data di entrata in vigore del
presente regolamento. In base alla definizione posta da quest’ultimo53, lo spazio in
oggetto è “un quadro controllato istituito da un'autorità competente che offre ai
fornitori o potenziali fornitori di sistemi di IA la possibilità di sviluppare,

51
“La protezione della cibersicurezza connessa ai rischi sistemici associati a uso doloso o attacchi
dovrebbe tenere debitamente in considerazione model leakage accidentali, rilasci non autorizzati, elusioni
delle misure di sicurezza, nonché la difesa contro gli attacchi informatici, l'accesso non autorizzato o il furto
di modelli. Tale protezione potrebbe essere facilitata mettendo al sicuro pesi, algoritmi, server e set di dati
relativi al modello, ad esempio attraverso misure di sicurezza operativa per la sicurezza delle informazioni,
politiche specifiche in materia di cibersicurezza, soluzioni tecniche e consolidate appropriate e controlli
dell'accesso informatico e fisico, che siano adeguati alle circostanze pertinenti e ai rischi connessi”
(considerando 115).
52
La Commissione europea può fornire in merito assistenza tecnica, consulenza e strumenti.
53
Cfr. l’art. 3, primo comma, punto 55).

79
A.S. n. 1146 Articolo 22, commi 1, 2 e 6

addestrare, convalidare e provare, se del caso in condizioni reali, un sistema di IA


innovativo, conformemente a un piano dello spazio di sperimentazione per un
periodo di tempo limitato sotto supervisione regolamentare”.
Gli spazi di sperimentazione normativa per l'IA devono garantire un ambiente
controllato che promuova l'innovazione e faciliti lo sviluppo, l'addestramento, la
sperimentazione e la convalida di sistemi di IA innovativi per un periodo di tempo
limitato prima della loro immissione sul mercato o della loro messa in servizio,
conformemente a un piano specifico dello spazio di sperimentazione concordato
fra i produttori o i potenziali produttori e l’autorità competente. Tali spazi di
sperimentazione possono comprendere “prove in condizioni reali”, soggette a
controllo nei medesimi spazi.
Le prove in condizioni reali possono essere effettuate solo se sussistono garanzie
specifiche. Tra l’altro, gli utenti dei sistemi sottoposti a prova in condizioni reali devono
fornire un consenso informato; tale condizione non si applica per le attività di contrasto54,
qualora la richiesta di consenso sia sostanzialmente incompatibile con la prova (in questo
caso, si richiede che le prove e i risultati delle stesse non abbiano alcun effetto negativo
sugli utenti e che i relativi dati personali siano cancellati dopo la conclusione delle prove).
Una protezione speciale nello svolgimento delle prove deve essere riservata alle persone
vulnerabili (a causa della loro età o della disabilità fisica o mentale).
L'autorità competente fornisce una relazione di uscita che illustra in dettaglio le
attività svolte nello spazio di sperimentazione normativa, i relativi risultati e le
conclusioni dell'apprendimento. I produttori possono utilizzare tale
documentazione per dimostrare la conformità al presente regolamento
(nell’ambito della procedura di valutazione della conformità o nell’ambito dei loro
rapporti con i soggetti che esercitano le attività di vigilanza sul mercato).
La previsione degli spazi di sperimentazione normativa per l'IA è intesa ai seguenti
obiettivi: a) migliorare la certezza del diritto; b) sostenere la condivisione delle
migliori pratiche; c) promuovere l'innovazione e la competitività e agevolare lo
sviluppo di un ecosistema di IA; d) contribuire all'apprendimento normativo basato
su dati concreti; e) agevolare e accelerare l'accesso al mercato dell'Unione per i
sistemi di IA, in particolare se forniti dalle PMI, comprese le start-up.
Il capo VII disciplina la governance del settore a livello di Unione europea e di
autorità nazionali (artt. 64-70).
Nell’ambito dell’Unione, sono istituiti:
 un Ufficio per l'IA all'interno della Commissione, volto a sviluppare le
competenze e le capacità dell’Unione nel settore dell’IA. Più precisamente,
tale Ufficio, a cui fa riferimento il regolamento in esame, è stato già istituito
con la decisione della Commissione del 24 gennaio 2024 (C (2024) 390);
L'Ufficio per l'IA ha la missione di sviluppare competenze e capacità dell'Unione
nel settore dell'IA e di contribuire all'attuazione del diritto dell'Unione in materia.
In particolare, l'Ufficio ha il compito di applicare e supervisionare le nuove regole
per i modelli di IA per finalità generali, con il potere di richiedere
documentazione, condurre valutazioni dei modelli, indagare sulle segnalazioni e
chiedere ai produttori di adottare misure correttive. L'Ufficio deve inoltre

54
Riguardo alla nozione di attività di contrasto, cfr. supra, in nota.

80
A.S. n. 1146 Articolo 22, commi 1, 2 e 6

garantire il coordinamento per quanto riguarda la politica in materia di IA e la


collaborazione fra le istituzioni, gli organi e le agenzie dell'Unione coinvolti,
nonché con gli esperti e i portatori di interessi. A tal fine, l'Ufficio per l'IA deve
dialogare con la comunità scientifica, l'industria, la società civile e altri esperti.
 un Comitato europeo per l'intelligenza artificiale, composto da
rappresentanti degli Stati membri e incaricato di fornire consulenza e
assistenza alla Commissione e agli Stati membri, al fine di agevolare la
coerenza e il coordinamento fra le autorità nazionali nell'attuazione del
regolamento sull'IA. Alle riunioni del Comitato partecipano anche l'Ufficio
per l’IA (senza diritto al voto) e, in qualità di osservatore, il Garante europeo
della protezione dei dati parteciperà. Altre autorità, organismi o esperti
nazionali e dell'Unione possono essere invitati alle riunioni qualora le
questioni discusse siano di loro pertinenza;
 un gruppo di esperti scientifici indipendenti, con funzione di sostegno
delle attività dell’Unione europea di esecuzione del presente regolamento;
 un forum consultivo, volto a fornire consulenza e competenze tecniche al
Comitato europeo per l'IA e alla Commissione. Il forum deve essere
costituito da una ‘selezione equilibrata’ di portatori di interessi, fra cui
l'industria, le start-up, le PMI, la società civile e il mondo accademico.
Il capo VII prevede inoltre la designazione, da parte dei singoli Stati membri, di
almeno un’autorità di vigilanza del mercato e di almeno un’autorità nazionale
di notifica; l’autorità di vigilanza del mercato – o una di esse, in caso di pluralità
di autorità designate – funge da punto di contatto unico55. Tali autorità
costituiscono le autorità nazionali competenti (ai fini dell’attuazione del
regolamento in oggetto).
Il capo VIII disciplina la banca dati della UE sui sistemi di IA ad alto rischio
(art. 71); tale banca dati ricomprende anche i sistemi che, pur rientrando
nell’ambito dell’allegato III, non siano classificati come ad alto rischio56.
Il capo IX riguarda il monitoraggio successivo all'immissione sul mercato, la
condivisione delle informazioni e la vigilanza del mercato (artt. 72-94).
Per i sistemi di IA ad alto rischio, il monitoraggio successivo all'immissione sul
mercato raccoglie, documenta e analizza attivamente e sistematicamente i dati
pertinenti – che possono essere forniti dai gestori (deployers) o che possono essere
raccolti tramite altre fonti – sulle prestazioni dei sistemi per tutta la durata del loro
ciclo di vita; il monitoraggio consente in tal modo al produttore di valutare la
costante conformità di un sistema di IA ad alto rischio ai requisiti di cui al capo
III, sezione 2.

55
L’art. 3, primo comma, punto 26), del regolamento in esame definisce l’autorità di vigilanza del
mercato quale l’autorità nazionale che svolge le attività e adotta le misure a norma del regolamento
(UE) 2019/1020 (recante disposizioni “sulla vigilanza del mercato e sulla conformità dei prodotti e che
modifica la direttiva 2004/42/CE e i regolamenti (CE) n. 765/2008 e (UE) n. 305/2011”).
Riguardo al tema della vigilanza del mercato, la relazione della Commissione europea annessa alla
schema del regolamento in esame (COM(2021) 206 final) afferma che non sono previste disposizioni
“eccessivamente prescrittive”, lasciando “spazio a diversi livelli di azione da parte degli Stati membri
in relazione ad aspetti che non pregiudicano il conseguimento degli obiettivi dell'iniziativa”.
56
Cfr. la parte della presente scheda relativa al capo III del regolamento in oggetto.

81
A.S. n. 1146 Articolo 22, commi 1, 2 e 6

Nella sezione 4 del presente capo IX sono definiti i mezzi di ricorso. Viene
stabilito che, fatti salvi altri ricorsi amministrativi o giurisdizionali, qualsiasi
persona fisica o giuridica che abbia motivo di ritenere che vi sia stata una
violazione delle disposizioni del regolamento in oggetto può presentare un reclamo
alla pertinente autorità di vigilanza del mercato. Conformemente al regolamento
(UE) 2019/102057, tali reclami sono presi in considerazione ai fini dello
svolgimento delle attività di vigilanza del mercato e sono trattati in linea con le
procedure specifiche stabilite dalle medesime autorità di vigilanza. Inoltre,
qualsiasi persona interessata oggetto di una decisione adottata dal gestore
(deployer) sulla base dell'output di un sistema di IA ad alto rischio elencato
nell'allegato III, ad eccezione dei sistemi elencati al punto 2 dello stesso, e che
produca effetti giuridici o incida significativamente su tale persona, in un modo
che, secondo quest’ultima, abbia un impatto negativo sulla sua salute, sulla sua
sicurezza o sui suoi diritti fondamentali, ha il diritto di ottenere dal deployer
spiegazioni chiare e significative sul ruolo del sistema di IA nella procedura
decisionale e sui principali elementi della decisione adottata.
Il capo X fa riferimento a codici di condotta e orientamenti (artt. 95-96).
Si prevede che l'Ufficio per l'IA e gli Stati membri incoraggino e agevolino
l'elaborazione di codici di condotta (comprensivi di relativi meccanismi di
governance) intesi a promuovere l'applicazione (su base volontaria) ai sistemi di
IA, diversi dai sistemi di IA ad alto rischio, di alcuni o di tutti i requisiti previsti
per i sistemi di IA ad alto rischio (di cui al capo III, sezione 2), tenendo conto delle
soluzioni tecniche disponibili e delle migliori pratiche del settore che consentano
l'applicazione di tali requisiti.
I produttori di sistemi di IA non ad alto rischio possono creare e attuare i codici di
condotta autonomamente, sulla base di obiettivi chiari e di indicatori chiave di
prestazione. In merito, l’art. 95, paragrafo 2, del regolamento indica a titolo
esemplificativo alcuni elementi.
Il regolamento demanda inoltre alla Commissione l’elaborazione di orientamenti
sull'attuazione pratica della presente disciplina, con particolare riferimento a: a)
l'applicazione dei requisiti e degli obblighi per i sistemi ad alto rischio; b) le
pratiche di IA vietate; c) l'attuazione delle disposizioni relative alla modifica
sostanziale di un sistema di IA; d) l'attuazione degli obblighi di trasparenza (di cui
al suddetto art. 50 del regolamento); e) i rapporti fra il regolamento e altre
normative dell'Unione, anche per quanto riguarda la coerenza nella loro
applicazione; f) l'applicazione della definizione di sistema di IA.
Nell’adozione degli orientamenti, la Commissione deve prestare particolare attenzione
alle esigenze delle PMI, comprese le start-up, delle autorità pubbliche locali e dei settori
maggiormente interessati dal regolamento. Su richiesta degli Stati membri o dell'Ufficio
per l’IA, o di propria iniziativa, la Commissione aggiorna gli orientamenti qualora lo
ritenga necessario.
Il capo XI disciplina la delega di potere e la procedura di comitato (artt. 97-98).

57
Regolamento recante disposizioni “sulla vigilanza del mercato e sulla conformità dei prodotti e
che modifica la direttiva 2004/42/CE e i regolamenti (CE) n. 765/2008 e (UE) n. 305/2011”.

82
A.S. n. 1146 Articolo 22, commi 1, 2 e 6

Il regolamento prevede un ampio ricorso a misure di attuazione e modificative,


demandate alla Commissione europea, al fine sia di definire aspetti di dettaglio
della disciplina sia di aggiornarla in base all’evoluzione tecnologica e di contesto.
A questo scopo diverse disposizioni del regolamento potranno essere modificate o
integrate mediante atti delegati e di esecuzione, adottati dalla Commissione
europea secondo le norme procedurali poste o richiamate dal capo XI in oggetto.
Il capo XII dispone in ordine alle sanzioni da adottare (artt. 99-101).
Riguardo alle sanzioni di competenza del singolo Stato membro, previste dall’art.
99, si rinvia alla parte della presente scheda relativa ai principi e criteri direttivi
generali per l’esercizio della delega (esame del comma 2, alinea, del presente
articolo 22).
L’art. 100 prevede sanzioni per eventuali inadempimenti da parte di istituzioni,
organi e organismi dell’Unione europea, mentre l’art. 101 contempla le sanzioni
per le violazioni di obblighi nei confronti dei soggetti summenzionati (sia le
sanzioni di cui all’art. 100 sia quelle di cui all’art. 101 sono comminate a livello di
Unione).
Il capo XIII reca le disposizioni finali (artt. 102-113).
Il regolamento entra in vigore venti giorni dopo la pubblicazione nella Gazzetta
ufficiale dell'Unione europea e inizia ad applicarsi 24 mesi dopo l'entrata in vigore,
salvo per quanto riguarda: il capo I e il capo II (relativo, quest’ultimo, alle pratiche
vietate), che si applicano a partire da 6 mesi dopo l’entrata in vigore del
regolamento; alcune sezioni normative – tra cui quella sui sistemi di IA per finalità
generali e le norme sanzionatorie di cui agli articoli 99 e 100 – che si applicano
dopo 12 mesi; alcune norme sui sistemi ad alto rischio, le quali si applicano dopo
36 mesi.

Si segnala che il 3 giugno 2024 il Garante europeo della protezione dei dati (GEPD)
ha pubblicato le sue linee guida sull'uso dell'IA generativa da parte delle istituzioni
europee. Il GEPD Wojciech Wiewiórowski auspica cautela nell’uso dell'intelligenza
artificiale generativa, in particolare per quanto riguarda i dati raccolti e il tipo di modello
utilizzato; sottolinea inoltre che è responsabilità delle istituzioni dell’UE gestire in modo
appropriato i rischi connessi a tale uso.

Si segnala, inoltre, la relazione speciale della Corte dei conti europea n. 8/2024 “Le
ambizioni dell’UE in materia di intelligenza artificiale - Per il futuro, una governance più
forte e investimenti più consistenti e mirati sono essenziali” (Gazzetta ufficiale
dell’Unione europea C/2024/3540 del 31 maggio 2024). A tale relazione sono seguite le
risposte della Commissione europea, pubblicate unitamente alla relazione speciale (il
documento contenente le risposte della Commissione è reperibile sul sito della Corte dei
conti europea al link: https://www.eca.europa.eu/it/publications/sr-2024-08).

83
A.S. n. 1146 Articolo 22, commi 3-5

Articolo 22, commi 3-5


(Delega per la definizione organica della disciplina nei casi di uso di
sistemi di intelligenza artificiale per finalità illecite)

L’articolo 22, commi da 3 a 5, reca delega al Governo, indicandone anche i


principi e criteri direttivi, per la definizione organica della disciplina nei casi di
uso di sistemi di intelligenza artificiale per finalità illecite.

Il comma 3 delega il Governo ad adottare, entro 12 mesi dalla entrata in vigore


della legge, uno o più decreti legislativi per definire organicamente la disciplina
nei casi di uso di sistemi di intelligenza artificiale per finalità illecite.
Con riguardo alla procedura di adozione dei suddetti decreti, il comma 4 prevede
che siano adottati su proposta del Presidente del Consiglio dei ministri e del
Ministro della giustizia, di concerto con il Ministro dell’interno. Di ciascuno
schema è prevista la successiva trasmissione alle Camere per l’espressione dei
pareri delle Commissioni parlamentari competenti, che si pronunciano entro il
termine di 60 giorni dalla data di trasmissione, decorso il quale i decreti legislativi
possono essere comunque emanati. La disposizione prevede inoltre il principio
dello “scorrimento” in base al quale se il termine previsto per il parere cade nei
trenta giorni che precedono la scadenza del termine previsto o successivamente, la
scadenza medesima è prorogata di sessanta giorni.

Il comma 5 dell’articolo 22 reca i principi e criteri direttivi ai quali il Governo


è tenuto ad attenersi nell’esercizio della delega di cui ai commi precedenti.

Come si evidenzia anche nella relazione illustrativa la delega “realizza un intervento


complementare a quello contenuto nell’articolo 25 del disegno di legge, che contempla
invece l’introduzione di una fattispecie di reato, di una circostanza aggravante comune e
di limitate circostanze aggravanti ad effetto speciale per alcuni reati”.

Nel dettaglio, il legislatore delegato è chiamato, in primo luogo, a prevedere


strumenti, anche cautelari, in ambito civile, amministrativo e penale, finalizzati
a inibire la diffusione e a rimuovere contenuti generati illecitamente anche con
sistemi di intelligenza artificiale, assistiti da un sistema di sanzioni effettive,
proporzionate e dissuasive (lett.a);

Ancora, il Governo dovrà introdurre una o più autonome fattispecie di reato,


punite a titolo di dolo o di colpa, incentrate sulla omessa adozione o l’omesso
adeguamento di misure di sicurezza per la produzione, la messa in circolazione e
l’utilizzo professionale di sistemi di intelligenza artificiale, nonché ulteriori
fattispecie di reato, punite a titolo di dolo, dirette a tutelare specifici beni giuridici
esposti a rischio di compromissione per effetto dell’utilizzazione di sistemi di

84
A.S. n. 1146 Articolo 22, commi 3-5

intelligenza artificiale e che non siano adeguatamente tutelabili mediante interventi


su fattispecie già esistenti (lett.b).

In terzo luogo in sede di esercizio della delega dovrà essere prevista una
circostanza aggravante speciale per i delitti dolosi puniti con pena diversa
dall’ergastolo nei quali l’impiego dei sistemi di intelligenza artificiale incida in
termini di rilevante gravità sull’offesa al bene giuridico tutelato, includendovi i
casi di offesa ai beni attinenti alla persona e allo Stato (lett.c).

Infine il legislatore delegato è chiamato a rivedere, anche a fini di


razionalizzazione complessiva del sistema, la normativa sostanziale e
processuale vigente (lett.d).

Occorre rammentare che ai sensi del comma 6 (v. la scheda sull’articolo 22,
comma 2, lett. a-c) e comma 6) stabilisce che dall’attuazione del presente articolo
22 e quindi anche dall’attuazione della delega in esame non derivino nuovi o
maggiori oneri a carico della finanza pubblica. Le amministrazioni provvedono
con le risorse umane, strumentali e finanziarie, disponibili a legislazione vigente.

85
A.S. n. 1146 Articolo 23

Articolo 23
(Identificazione dei contenuti testuali, fotografici, audiovisivi
e radiofonici prodotti da sistemi di intelligenza artificiale)

L’articolo 23 apporta modifiche al decreto legislativo n. 208 del 2021 (c.d.


TUSMA).

L’articolo 23 apre il Capo IV del disegno di legge e reca disposizioni a tutela degli
utenti e in materia di diritto d’autore.

Si rammenta che il diritto d’autore è disciplinato in Italia dalla legge n. 633 del 1941.
Esso ha due componenti, l’una personale (che consiste nel diritto sulla paternità
dell’opera e quindi di essere riconosciuti come autori di essa e di opporsi a manipolazioni
e usi distorti); l’altra patrimoniale (relativa all’uso commerciale dell’opera medesima).
Per ulteriori dettagli, vedi la scheda che segue sull’art. 24.

Come sottolineato dalla Relazione illustrativa “in considerazione del crescente


utilizzo dei sistemi di intelligenza artificiale in settori che coinvolgono il
riconoscimento da parte dell’utente di contenuti testuali, fotografici, audiovisivi e
radiofonici prodotti da sistemi di intelligenza artificiale, il Capo IV introduce
procedure per consentire agli utenti di riconoscere i contenuti generati da IA (art.
23), nonché detta una disciplina ad hoc sul diritto di autore (art. 24)”.

Il decreto legislativo n. 208 del 2021 reca il testo unico per la fornitura di servizi di
media audiovisivi ed è stato adottato in attuazione della direttiva (UE) 2018/1808 del
Parlamento europeo e del Consiglio del 2018.
Per approfondimenti vedi il relativo dossier.

L’articolo si compone di un solo comma che, a sua volta contiene 4 lettere da a)


a d).
La lettera a) del comma 1 modifica l’art. 6, comma 2, lettera e) del suddetto
decreto, che fissa i principi in materia di informazione nel settore dei servizi media
audiovisivi e radiofonici e stabilisce, in particolare, che la disciplina
dell’informazione radiotelevisiva debba garantire, tra l’altro, il divieto di
utilizzare metodologie e tecniche capaci di manipolare in maniera non
riconoscibile allo spettatore il contenuto delle informazioni.
Orbene la lettera a) estende la portata del divieto prevedendo che gli utenti
vengano messi al corrente dell’alterazione o creazione di contenuti informativi
anche quando ciò avvenga attraverso l’utilizzo di sistemi di intelligenza artificiale.

La lettera b) novella il testo del decreto legislativo, inserendo un nuovo articolo


40-bis. La nuova disposizione stabilisce che qualunque contenuto informativo
diffuso da fornitori di servizi audiovisivi e radiofonici, tramite qualsiasi
piattaforma che, previa acquisizione del consenso dei titolari dei diritti, sia stato,

86
A.S. n. 1146 Articolo 23

attraverso l’utilizzo di sistemi di intelligenza artificiale, completamente generato


ovvero, anche parzialmente, modificato o alterato in modo tale da presentare
come reali dati, fatti e informazioni che non lo sono, deve essere reso chiaramente
visibile e riconoscibile da parte degli utenti mediante inserimento di un elemento
o segno identificativo.
Tale obbligo grava sull’autore del contenuto o sul titolare dei diritti di sfruttamento
economico, se diverso dall’autore, e viene assolto con l’inserimento di un elemento
o segno identificativo, anche in filigrana o marcatura incorporata purché
chiaramente visibile e riconoscibile, con l’acronimo “IA” ovvero, nel caso di
contenuti audio, attraverso annunci audio ovvero con tecnologie adatte a
consentire il riconoscimento. L’identificazione deve essere presente sia
all’inizio della trasmissione e all’inizio del contenuto, sia alla fine della
trasmissione e alla fine del contenuto, nonché a ogni ripresa del programma a
seguito di interruzione pubblicitaria.
La norma contempla, tuttavia, una deroga, stabilendo che l’inserimento del segno
identificativo è escluso quando il contenuto fa parte di un’opera o di un programma
manifestamente creativo, satirico, artistico o fittizio, fatte salve le tutele per i
diritti e le libertà dei terzi.
Infine è previsto che per le finalità di cui all’articolo (nonché dell’articolo 42,
commi 1, lettera c-bis, e 7, lettera c-bis, aggiunte dal disegno di legge in
commento), l’Autorità promuove forme di co-regolamentazione e di
autoregolamentazione tramite codice di condotta sia con i fornitori di servizi di
media audiovisivi e radiofonici sia con i fornitori di piattaforme per la condivisione
di video.

La lettera c) introduce modifiche all’art. 42 del TUSMA aggiungendo:


1) al comma 1, la lettera c-bis). Tale comma stabilisce l’obbligo dei fornitori di
piattaforme per la condivisione di video soggetti alla giurisdizione italiana di
adottare misure adeguate volte a tutelare i minori e il grande pubblico da taluni
programmi o video considerati lesivi per la persona. La novella estende tale
obbligo, prevedendo che le suddette misure debbano essere adottate anche al
fine di tutelare il grande pubblico da contenuti informativi che siano stati,
attraverso l’utilizzo di sistemi di intelligenza artificiale, completamente
generati ovvero, anche parzialmente, modificati o alterati in modo da
presentare come reali dati, fatti e informazioni che non lo sono.
2) Al comma 7, una nuova lettera c-bis). Il comma 7 prevede che i fornitori di
piattaforma per la condivisione di video siano in ogni caso tenuti ad adottare
ulteriori cautele nei confronti degli utenti. La nuova lettera stabilisce che, nello
specifico, essi debbano predisporre una funzionalità che consenta agli utenti
che caricano contenuti video generati dagli utenti di dichiarare se tali contenuti
video rechino contenuti generati, modificati o alterati, anche parzialmente, in
qualsiasi forma e modo, attraverso l’utilizzo di sistemi di intelligenza artificiale
di cui sono a conoscenza o si possa ragionevolmente presumere che ne siano a
conoscenza.

87
A.S. n. 1146 Articolo 23

La lettera d) reca modifiche all’art. 67 relativo alle sanzioni, e nello specifico:


1) al comma 1, aggiunge la lettera r-bis). Tale comma stabilisce che l'Agcom
applica, secondo le procedure stabilite con proprio regolamento, in base a
principi di proporzionalità, adeguatezza e rispetto del contraddittorio, le
sanzioni per la violazione degli obblighi in materia di programmazione,
pubblicità e contenuti radiotelevisivi e, in particolare, quelli previsti dalla
medesima disposizione. La novella introduce tra i casi di violazione quello
relativo agli obblighi di cui all’articolo 40-bis (introdotto dal disegno di legge
in commento, vedi sopra).
2) Al secondo comma ricomprende le lettere p) e r-bis) del medesimo art. 67 del
TUSMA tra le disposizioni la cui violazione può comportare l’irrogazione di
una sanzione amministrativa del pagamento di una somma da 10329,00 a
258228,00 euro da parte dell’Agcom.
Si ricorda che la lettera p) inerisce alle violazioni delle regole sul diritto d’autore.

Per una migliore comprensione delle modifiche legislative proposte dall’art. 23 del
disegno di legge in commento si veda il seguente testo a fronte.

Testo a fronte delle modifiche al decreto legislativo 8 novembre 2021,


n. 208 proposte dall’articolo 23 del ddl AS 1146

Decreto legislativo 8 novembre 2021, n. 208


Modificazioni apportate dal disegno
Testo previgente di legge
A.S. 1146
[articolo 23, comma 1, lett. a)]
Art. 6 Nuovo art. 6
(Principi generali in materia di (idem)
informazione e di ulteriori compiti di
pubblico servizio nel settore dei servizi
di media audiovisivi e radiofonici)
1. L'attività di informazione mediante Identico
servizio di media audiovisivo o
radiofonico costituisce un servizio di
interesse generale ed è svolta nel
rispetto dei principi di cui al presente
capo.
2. La disciplina dell'informazione 2. La disciplina dell'informazione
radiotelevisiva, garantisce: radiotelevisiva, garantisce:
a) la presentazione veritiera dei fatti e a) la presentazione veritiera dei fatti e
degli avvenimenti, in modo tale da degli avvenimenti, in modo tale da

88
A.S. n. 1146 Articolo 23

Decreto legislativo 8 novembre 2021, n. 208


favorire la libera formazione delle favorire la libera formazione delle
opinioni; opinioni;
b) la trasmissione quotidiana di b) la trasmissione quotidiana di
telegiornali o giornali radio da parte telegiornali o giornali radio da parte
dei soggetti abilitati a fornire servizi dei soggetti abilitati a fornire servizi
di media audiovisivi e radiofonici in di media audiovisivi e radiofonici in
ambito nazionale o locale su ambito nazionale o locale su
frequenze terrestri; frequenze terrestri;
c) l'accesso di tutti i soggetti politici c) l'accesso di tutti i soggetti politici
alle trasmissioni di informazione in alle trasmissioni di informazione in
condizioni di parità di trattamento e di condizioni di parità di trattamento e di
imparzialità, nelle forme e secondo le imparzialità, nelle forme e secondo le
modalità indicate dalla legge; modalità indicate dalla legge;
d) la trasmissione dei comunicati e d) la trasmissione dei comunicati e
delle dichiarazioni ufficiali degli delle dichiarazioni ufficiali degli
organi costituzionali indicati dalla organi costituzionali indicati dalla
legge; legge;
e) il divieto di utilizzare metodologie e) il divieto di utilizzare metodologie
e tecniche capaci di manipolare in e tecniche capaci di manipolare in
maniera non riconoscibile allo maniera non riconoscibile allo
spettatore il contenuto delle spettatore il contenuto delle
informazioni. informazioni.
Commi da 3 a 5 Omissis Identici
[articolo 23, comma 1, lett. b)]
Nuovo art. 40-bis
(Contenuti testuali, fotografici,
audiovisivi e radiofonici che
utilizzano sistemi di intelligenza
artificiale)
1. Qualunque contenuto informativo
diffuso da fornitori di servizi
audiovisivi e radiofonici tramite
qualsiasi piattaforma in qualsiasi
modalità, incluso il video on demand
e lo streaming, che, previa
acquisizione del consenso dei titolari
dei diritti, sia stato, attraverso
l’utilizzo di sistemi di intelligenza
artificiale, completamente generato
ovvero, anche parzialmente,
modificato o alterato in modo tale da
presentare come reali dati, fatti e
informazioni che non lo sono, deve
essere reso, a cura dell’autore o del

89
A.S. n. 1146 Articolo 23

Decreto legislativo 8 novembre 2021, n. 208


titolare dei diritti di sfruttamento
economico, se diverso dall’autore,
chiaramente visibile e riconoscibile
da parte degli utenti mediante
inserimento di un elemento o segno
identificativo, anche in filigrana o
marcatura incorporata purché
chiaramente visibile e riconoscibile,
con l’acronimo “IA” ovvero, nel caso
di contenuti audio, attraverso
annunci audio ovvero con tecnologie
adatte a consentire il riconoscimento.
Tale identificazione deve essere
presente sia all’inizio della
trasmissione e all’inizio del
contenuto, sia alla fine della
trasmissione e alla fine del contenuto,
nonché ad ogni ripresa del
programma a seguito di interruzione
pubblicitaria. L’inserimento del
segno identificativo è escluso quando
il contenuto fa parte di un’opera o di
un programma manifestamente
creativo, satirico, artistico o fittizio,
fatte salve le tutele per i diritti e le
libertà dei terzi. Fermo restando
quanto previsto dall’articolo 41, per
le finalità di cui al presente articolo
nonché all’articolo 42, commi 1,
lettera c-bis), e 7, lettera c-bis),
l’Autorità promuove forme di
coregolamentazione e di
autoregolamentazione tramite codici
di condotta sia con i fornitori di
servizi di media audiovisivi e
radiofonici sia con i fornitori di
piattaforme per la condivisione di
video.
[articolo 23, comma 1, lett. c)]
Art. 42 Nuovo art. 42
(Misure di tutela) (idem)
1. I fornitori di piattaforme per la 1. I fornitori di piattaforme per la
condivisione di video soggetti alla condivisione di video soggetti alla
giurisdizione italiana devono adottare giurisdizione italiana devono adottare
misure adeguate volte a tutelare: misure adeguate volte a tutelare:

90
A.S. n. 1146 Articolo 23

Decreto legislativo 8 novembre 2021, n. 208


a) i minori da programmi, video a) i minori da programmi, video
generati dagli utenti e comunicazioni generati dagli utenti e comunicazioni
commerciali audiovisive che possano commerciali audiovisive che possano
nuocere al loro sviluppo fisico, nuocere al loro sviluppo fisico,
mentale o morale a norma degli mentale o morale a norma degli
articoli 37 e 43; articoli 37 e 43;
b) il grande pubblico da programmi, b) il grande pubblico da programmi,
video generati dagli utenti e video generati dagli utenti e
comunicazioni commerciali comunicazioni commerciali
audiovisive che istighino alla audiovisive che istighino alla
violenza o all'odio nei confronti di un violenza o all'odio nei confronti di un
gruppo di persone o un membro di un gruppo di persone o un membro di un
gruppo sulla base di uno dei motivi di gruppo sulla base di uno dei motivi di
cui all'articolo 21 della Carta dei cui all'articolo 21 della Carta dei
diritti fondamentali dell'Unione diritti fondamentali dell'Unione
europea; europea;
c) il grande pubblico da programmi, c) il grande pubblico da programmi,
video generati dagli utenti e video generati dagli utenti e
comunicazioni commerciali comunicazioni commerciali
audiovisive che includano contenuti audiovisive che includano contenuti
la cui diffusione costituisce reato ai la cui diffusione costituisce reato ai
sensi del diritto vigente negli Stati sensi del diritto vigente negli Stati
membri dell'Unione europea, con membri dell'Unione europea, con
particolare riferimento alla pubblica particolare riferimento alla pubblica
provocazione a commettere reati di provocazione a commettere reati di
terrorismo ai sensi dell'articolo 5 della terrorismo ai sensi dell'articolo 5 della
direttiva (UE) 2017/541 del direttiva (UE) 2017/541 del
Parlamento europeo e del Consiglio, Parlamento europeo e del Consiglio,
del 15 marzo 2017, ai reati di del 15 marzo 2017, ai reati di
pedopornografia ai sensi dell'articolo pedopornografia ai sensi dell'articolo
5, paragrafo 4, della direttiva 5, paragrafo 4, della direttiva
2011/93/UE del Parlamento europeo 2011/93/UE del Parlamento europeo
e del Consiglio del 13 dicembre 2011, e del Consiglio del 13 dicembre 2011,
e ai reati di stampo razzista o e ai reati di stampo razzista o
xenofobo ai sensi dell'articolo 1 della xenofobo ai sensi dell'articolo 1 della
decisione quadro 2008/913/GAI del decisione quadro 2008/913/GAI del
Consiglio, del 28 novembre 2008. Consiglio, del 28 novembre 2008;
c-bis) il grande pubblico da
contenuti informativi che siano
stati, attraverso l’utilizzo di sistemi
di intelligenza artificiale,
completamente generati ovvero,
anche parzialmente, modificati o
alterati in modo da presentare
come reali dati, fatti e informazioni
che non lo sono.

91
A.S. n. 1146 Articolo 23

Decreto legislativo 8 novembre 2021, n. 208


Commi da 2 a 6 Omissis Identici
7. I fornitori di piattaforma per la 7. I fornitori di piattaforma per la
condivisione di video sono in ogni caso condivisione di video sono in ogni caso
tenuti a: tenuti a:
a) includere i requisiti di cui al a) includere i requisiti di cui al
comma 1, nei termini e alle comma 1, nei termini e alle
condizioni dei servizi di piattaforma condizioni dei servizi di piattaforma
per la condivisione di video, la cui per la condivisione di video, la cui
accettazione da parte degli utenti accettazione da parte degli utenti
costituisce condizione di accesso al costituisce condizione di accesso al
servizio; servizio;
b) includere e applicare, nei termini e b) includere e applicare, nei termini e
alle condizioni dei servizi di alle condizioni dei servizi di
piattaforme per la condivisione di piattaforme per la condivisione di
video, i requisiti di cui all'articolo 9, video, i requisiti di cui all'articolo 9,
paragrafo 1, della direttiva (UE) paragrafo 1, della direttiva (UE)
2018/1808 del Parlamento europeo e 2018/1808 del Parlamento europeo e
del Consiglio, del 14 novembre 2018, del Consiglio, del 14 novembre 2018,
per le comunicazioni commerciali per le comunicazioni commerciali
audiovisive non promosse audiovisive non promosse
commercialmente, vendute o commercialmente, vendute o
organizzate dai fornitori di organizzate dai fornitori di
piattaforme per la condivisione di piattaforme per la condivisione di
video; video;
c) avere una funzionalità che consenta c) avere una funzionalità che consenta
agli utenti che caricano video generati agli utenti che caricano video generati
dagli utenti di dichiarare se tali video dagli utenti di dichiarare se tali video
contengono comunicazioni contengono comunicazioni
commerciali audiovisive di cui sono a commerciali audiovisive di cui sono a
conoscenza o di cui si possa conoscenza o di cui si possa
ragionevolmente presumere che siano ragionevolmente presumere che siano
a conoscenza; a conoscenza;
c-bis) avere una funzionalità che
consenta agli utenti che caricano
contenuti video generati dagli utenti
di dichiarare se tali contenuti video
contengono contenuti generati,
modificati o alterati, anche
parzialmente, in qualsiasi forma e
modo, attraverso l’utilizzo di sistemi
di intelligenza artificiale di cui sono a
conoscenza o di cui si possa
d) predisporre meccanismi trasparenti e ragionevolmente presumere che
di facile uso affinché gli utenti delle siano a conoscenza;
piattaforme per la condivisione di video

92
A.S. n. 1146 Articolo 23

Decreto legislativo 8 novembre 2021, n. 208


possano segnalare o indicare al fornitore d) predisporre meccanismi trasparenti e
di piattaforme interessato i contenuti di di facile uso affinché gli utenti delle
cui al comma 1 caricati sulla sua piattaforme per la condivisione di video
piattaforma; possano segnalare o indicare al fornitore
e) predisporre sistemi mediante i di piattaforme interessato i contenuti di
quali i fornitori di piattaforme per la cui al comma 1 caricati sulla sua
condivisione di video spiegano agli piattaforma;
utenti di tali piattaforme quale seguito e) predisporre sistemi mediante i
sia stato dato alla segnalazione e quali i fornitori di piattaforme per la
all'indicazione di cui alla lettera d); condivisione di video spiegano agli
f) predisporre sistemi per verificare, utenti di tali piattaforme quale seguito
nel rispetto della normativa in materia sia stato dato alla segnalazione e
di protezione dei dati personali, l'età all'indicazione di cui alla lettera d);
degli utenti delle piattaforme di f) predisporre sistemi per verificare,
condivisione di video per quanto nel rispetto della normativa in materia
attiene ai contenuti che possono di protezione dei dati personali, l'età
nuocere allo sviluppo fisico, mentale degli utenti delle piattaforme di
o morale dei minori; condivisione di video per quanto
g) predisporre sistemi di facile uso attiene ai contenuti che possono
che consentano agli utenti delle nuocere allo sviluppo fisico, mentale
piattaforme per la condivisone di o morale dei minori;
video di valutare i contenuti di cui al g) predisporre sistemi di facile uso
comma 1; che consentano agli utenti delle
h) dotarsi di sistemi di controllo piattaforme per la condivisone di
parentale sotto la vigilanza dell'utente video di valutare i contenuti di cui al
finale per quanto attiene ai contenuti comma 1;
che possano nuocere allo sviluppo h) dotarsi di sistemi di controllo
fisico, mentale o morale dei minori; parentale sotto la vigilanza dell'utente
i) predisporre procedure trasparenti, finale per quanto attiene ai contenuti
di facile uso ed efficaci per la gestione che possano nuocere allo sviluppo
e la risoluzione dei reclami degli fisico, mentale o morale dei minori;
utenti nei confronti dei fornitori di i) predisporre procedure trasparenti,
piattaforme per la condivisione di di facile uso ed efficaci per la gestione
video in relazione all'attuazione delle e la risoluzione dei reclami degli
misure di cui alle lettere da d) a h); utenti nei confronti dei fornitori di
l) predisporre misure e strumenti piattaforme per la condivisione di
efficaci di alfabetizzazione mediatica video in relazione all'attuazione delle
e sensibilizzare gli utenti in merito a misure di cui alle lettere da d) a h);
tali misure e strumenti. l) predisporre misure e strumenti
efficaci di alfabetizzazione mediatica
e sensibilizzare gli utenti in merito a
tali misure e strumenti.
Commi da 8 a 11 Omissis Identici
[articolo 23, comma 1, lett. d)]

93
A.S. n. 1146 Articolo 23

Decreto legislativo 8 novembre 2021, n. 208


Art. 67 Nuovo art. 67
(Sanzioni di competenza dell'Autorità) (idem)
1. L'Autorità applica, secondo le 1. L'Autorità applica, secondo le
procedure stabilite con proprio procedure stabilite con proprio
regolamento, in base a principi di regolamento, in base a principi di
proporzionalità, adeguatezza e rispetto proporzionalità, adeguatezza e rispetto
del contraddittorio, le sanzioni per la del contraddittorio, le sanzioni per la
violazione degli obblighi in materia di violazione degli obblighi in materia di
programmazione, pubblicità e contenuti programmazione, pubblicità e contenuti
radiotelevisivi, ed in particolare quelli radiotelevisivi, ed in particolare quelli
previsti: previsti:
a) dalle disposizioni per il rilascio a) dalle disposizioni per il rilascio
delle concessioni per la delle concessioni per la
radiodiffusione televisiva privata su radiodiffusione televisiva privata su
frequenze terrestri adottate frequenze terrestri adottate
dall'Autorità con proprio dall'Autorità con proprio
regolamento, ivi inclusi gli impegni regolamento, ivi inclusi gli impegni
relativi alla programmazione assunti relativi alla programmazione assunti
con la domanda di concessione; con la domanda di concessione;
b) dal regolamento dell'Autorità b) dal regolamento dell'Autorità
relativo alla radiodiffusione terrestre relativo alla radiodiffusione terrestre
in tecnica digitale, relativamente ai in tecnica digitale, relativamente ai
fornitori di servizi di media; (154) fornitori di servizi di media; (154)
c) dalle disposizioni sulle c) dalle disposizioni sulle
comunicazioni commerciali comunicazioni commerciali
audiovisive, pubblicità televisiva e audiovisive, pubblicità televisiva e
radiofonica, sponsorizzazioni, radiofonica, sponsorizzazioni,
televendite ed inserimento di prodotti, televendite ed inserimento di prodotti,
ivi comprese le disposizioni sul livello ivi comprese le disposizioni sul livello
sonoro della pubblicità di cui ai sonoro della pubblicità di cui ai
regolamenti dell'Autorità e ai codici di regolamenti dell'Autorità e ai codici di
autoregolamentazione; autoregolamentazione;
d) dall'articolo 20, comma 5, della d) dall'articolo 20, comma 5, della
legge 6 agosto 1990, n. 223, nonché legge 6 agosto 1990, n. 223, nonché
dai regolamenti dell'Autorità, dai regolamenti dell'Autorità,
relativamente alla registrazione dei relativamente alla registrazione dei
programmi; programmi;
e) dalla disposizione relativa al e) dalla disposizione relativa al
mancato adempimento all'obbligo di mancato adempimento all'obbligo di
trasmissione dei messaggi di trasmissione dei messaggi di
comunicazione pubblica, di cui comunicazione pubblica, di cui
all'articolo 36; all'articolo 36;
f) in materia di propaganda f) in materia di propaganda
radiotelevisiva di servizi di tipo radiotelevisiva di servizi di tipo

94
A.S. n. 1146 Articolo 23

Decreto legislativo 8 novembre 2021, n. 208


interattivo audiotex e videotex interattivo audiotex e videotex
dall'articolo 1, comma 26, del decreto- dall'articolo 1, comma 26, del decreto-
legge 23 ottobre 1996, n. 545, legge 23 ottobre 1996, n. 545,
convertito, con modificazioni, dalla convertito, con modificazioni, dalla
legge 23 dicembre 1996, n. 650; legge 23 dicembre 1996, n. 650;
g) in materia di tutela della g) in materia di tutela della
produzione audiovisiva europea e produzione audiovisiva europea e
indipendente, dal titolo VII e dai indipendente, dal titolo VII e dai
regolamenti dell'Autorità, nonché dai regolamenti dell'Autorità, nonché dai
decreti ministeriali; decreti ministeriali;
h) in materia di diritto di rettifica, nei h) in materia di diritto di rettifica, nei
casi di mancata, incompleta o tardiva casi di mancata, incompleta o tardiva
osservanza del relativo obbligo di cui osservanza del relativo obbligo di cui
all'articolo 35; all'articolo 35;
i) in materia dei divieti di cui i) in materia dei divieti di cui
all'articolo 29, comma 4; all'articolo 29, comma 4;
l) in materia di obbligo di trasmissione l) in materia di obbligo di trasmissione
del medesimo programma su tutto il del medesimo programma su tutto il
territorio per il quale è rilasciato il territorio per il quale è rilasciato il
titolo abilitativo, salva la deroga di cui titolo abilitativo, salva la deroga di cui
all'articolo 5, comma 1, lettera g); all'articolo 5, comma 1, lettera g);
m) dalle disposizioni in materia di m) dalle disposizioni in materia di
diffusione di programmi in diffusione di programmi in
contemporanea di cui all'articolo 26; contemporanea di cui all'articolo 26;
n) in materia di obbligo di informativa n) in materia di obbligo di informativa
all'Autorità riguardo, tra l'altro, a dati all'Autorità riguardo, tra l'altro, a dati
contabili ed extra contabili, contabili ed extra contabili,
dall'articolo 1, comma 28, del decreto- dall'articolo 1, comma 28, del decreto-
legge 23 ottobre 1996, n. 545, legge 23 ottobre 1996, n. 545,
convertito, con modificazioni, dalla convertito, con modificazioni, dalla
legge 23 dicembre 1996, n. 650, e dai legge 23 dicembre 1996, n. 650, e dai
regolamenti dell'Autorità; regolamenti dell'Autorità;
o) dalle disposizioni in materia di o) dalle disposizioni in materia di
pubblicità di amministrazioni ed enti pubblicità di amministrazioni ed enti
pubblici di cui all'articolo 49; pubblici di cui all'articolo 49;
p) in materia di violazioni delle norme p) in materia di violazioni delle norme
sul diritto d'autore di cui all'articolo sul diritto d'autore di cui all'articolo
32, comma 2; 32, comma 2;
q) dalle disposizioni in materia di q) dalle disposizioni in materia di
tutela dei diritti fondamentali di cui tutela dei diritti fondamentali di cui
all'articolo 30, dalle norme a all'articolo 30, dalle norme a
salvaguardia di una maggiore salvaguardia di una maggiore
accessibilità da parte degli utenti con accessibilità da parte degli utenti con
disabilità di cui all'articolo 31 e dalle disabilità di cui all'articolo 31 e dalle
disposizioni di cui al codice di disposizioni di cui al codice di

95
A.S. n. 1146 Articolo 23

Decreto legislativo 8 novembre 2021, n. 208


autoregolamentazione adottato a autoregolamentazione adottato a
salvaguardia dei valori dello sport ai salvaguardia dei valori dello sport ai
sensi dell'articolo 39; sensi dell'articolo 39;
r) dai regolamenti dell'Autorità r) dai regolamenti dell'Autorità
adottati per la disciplina degli eventi adottati per la disciplina degli eventi
di cui all'articolo 33. di cui all'articolo 33.
r-bis) in materia di violazione degli
obblighi di cui all’articolo 40-bis.
2. L'Autorità, applicando le norme 2. L'Autorità, applicando le norme
contenute nel capo I, sezioni I e II, della contenute nel capo I, sezioni I e II, della
legge 24 novembre 1981, n. 689, tenuto legge 24 novembre 1981, n. 689, tenuto
conto, in particolare, della gravità del conto, in particolare, della gravità del
fatto e delle conseguenze che ne sono fatto e delle conseguenze che ne sono
derivate nonché della durata ed derivate nonché della durata ed
eventuale reiterazione delle violazioni eventuale reiterazione delle violazioni
delibera l'irrogazione della sanzione delibera l'irrogazione della sanzione
amministrativa del pagamento di una amministrativa del pagamento di una
somma: somma:
a) da 10.329 euro a 258.228 euro, in a) da 10.329 euro a 258.228 euro, in
caso di inosservanza delle caso di inosservanza delle
disposizioni di cui al comma 1, lettere disposizioni di cui al comma 1, lettere
a), b) c) e p); a), b) c), p) e r-bis);
b) da 5.165 euro a 51.646 euro, in caso b) da 5.165 euro a 51.646 euro, in caso
di inosservanza delle disposizioni di di inosservanza delle disposizioni di
cui al comma 1, lettere d) ed e); cui al comma 1, lettere d) ed e);
c) da 25.823 euro a 258.228 euro, in c) da 25.823 euro a 258.228 euro, in
caso di violazione delle norme di cui caso di violazione delle norme di cui
al comma 1, lettera f); al comma 1, lettera f);
d) da 100.000 euro a 5.000.000 euro, d) da 100.000 euro a 5.000.000 euro,
ovvero fino all'uno per cento del ovvero fino all'uno per cento del
fatturato annuo, quando il valore di fatturato annuo, quando il valore di
tale percentuale è superiore a tale percentuale è superiore a
5.000.000 euro, in caso di violazione 5.000.000 euro, in caso di violazione
delle norme di cui al comma 1, lettera delle norme di cui al comma 1, lettera
g) e lettera r); g) e lettera r);
e) da 5.165 euro a 51.646 euro, in caso e) da 5.165 euro a 51.646 euro, in caso
di violazione delle norme di cui al di violazione delle norme di cui al
comma 1, lettere h), i), l), m) e n); comma 1, lettere h), i), l), m) e n);
f) da 5.165 euro a 51.646 euro, in caso f) da 5.165 euro a 51.646 euro, in caso
di violazione delle norme di cui al di violazione delle norme di cui al
comma 1, lettera o), anche nel caso in comma 1, lettera o), anche nel caso in
cui la pubblicità di amministrazioni ed cui la pubblicità di amministrazioni ed
enti pubblici sia gestita, su incarico enti pubblici sia gestita, su incarico

96
A.S. n. 1146 Articolo 23

Decreto legislativo 8 novembre 2021, n. 208


degli stessi, da agenzie pubblicitarie o degli stessi, da agenzie pubblicitarie o
da centri media; da centri media;
g) da 30.000 euro a 600.000 euro in g) da 30.000 euro a 600.000 euro in
caso di violazione delle norme di cui caso di violazione delle norme di cui
al comma 1, lettera q). al comma 1, lettera q).

97
A.S. n. 1146 Articolo 24

Articolo 24
(Tutela del diritto d’autore delle opere generate
con l’ausilio dell’intelligenza artificiale)

L’articolo 24 disciplina la tutela del diritto d’autore con riguardo alle opere
generate con l’ausilio dell’intelligenza artificiale. In particolare, tramite novelle
alla legge n. 633 del 1941, si precisa: in primo luogo che le “opere dell’ingegno”
protette ai sensi della predetta legge devono essere di origine “umana”; in
secondo luogo, che anche le opere create con l’ausilio di strumenti di
intelligenza artificiale sono protette dal diritto d’autore, a condizione che la loro
creazione derivi del lavoro intellettuale dell'autore.
Viene inoltre consentita la riproduzione e l’estrazione, effettuata tramite
l’utilizzo di modelli e sistemi di intelligenza artificiale, compresi quelli
generativi, di opere o altri materiali, in conformità a talune disposizioni della
medesima legge n. 633 del 1941.

Nello specifico, l’articolo in commento, composto di un unico comma, è


suddiviso in due lettere.

Ai sensi della lettera a) si modifica l’articolo 1, primo comma, della legge n. 633
del 1941, specificando che l’ingegno che crea le opere tutelate dalla predetta legge
è “umano”. Si prevede, inoltre, con una ulteriore integrazione al medesimo
articolo 1, primo comma, che le opere dell'ingegno sono protette anche laddove
create con l’ausilio di strumenti di intelligenza artificiale, purché costituenti
risultato del lavoro intellettuale dell'autore.

La lettera b) inserisce il nuovo articolo 70-septies alla legge n. 633 del 1941, il
quale prevede, nel suo unico comma, che la riproduzione e l’estrazione di opere
o altri materiali attraverso modelli e sistemi di intelligenza artificiale anche
generativa sono consentite in conformità alle disposizioni di cui agli articoli 70-
ter e 70-quater della medesima legge.

Si segnala che il presente provvedimento, all’articolo 2 (rubricato “Definizioni”)


definisce il sistema di intelligenza artificiale ma non definisce, nello specifico, il sistema
di intelligenza artificiale “generativa”.

Si ricorda che l’articolo 70-ter della legge n. 633 del 1941 prevede, in particolare,
che sono consentite le riproduzioni compiute da organismi di ricerca e da istituti
di tutela del patrimonio culturale, per scopi di ricerca scientifica, ai fini
dell'estrazione di testo e di dati da opere o da altri materiali disponibili in reti
o banche di dati cui essi hanno lecitamente accesso, nonché la comunicazione al
pubblico degli esiti della ricerca ove espressi in nuove opere originali.

98
A.S. n. 1146 Articolo 24

L’articolo 70-quater della medesima legge n. 633 del 1941, poi, autorizza le
riproduzioni e le estrazioni da opere o da altri materiali contenuti in reti o in
banche di dati cui si ha legittimamente accesso ai fini dell'estrazione di testo e di
dati.

99
A.S. n. 1146 Articolo 25, comma 1

Articolo 25, comma 1


(Norme penali)

L’articolo 25 reca disposizioni riguardanti: 1) l’introduzione di una circostanza


aggravante comune, qualora il reato sia commesso mediante sistemi di
intelligenza artificiale; 2) l’introduzione del nuovo reato di illecita diffusione di
contenuti generati o manipolati con sistemi di intelligenza artificiale; 3)
l’inserimento nel codice penale di circostanze aggravanti ad effetto speciale
legate all’impiego di sistemi di intelligenza artificiale nella commissione del fatto.

In particolare, il comma 1 reca modifiche al codice penale.

La lett. a) modifica l’art. 61, primo comma, c.p. in materia di circostanze


aggravanti comuni, integrando l’elenco delle aggravanti con l’inserimento del
numero 11-decies, volto a prevedere tra le predette aggravanti l’aver commesso il
fatto mediante sistemi di intelligenza artificiali quando:
 gli stessi, per la loro natura o le modalità di utilizzo, abbiano costituito mezzo
insidioso;
 il loro impiego abbia comunque ostacolato la pubblica o privata difesa;
 il loro impiego abbia aggravato le conseguenze del reato.

Si ricorda che l’art. 61, primo comma, c.p. prevede, tra l’altro, le aggravanti dell’aver
profittato di circostanze di tempo, di luogo o di persona, anche in riferimento all’età, tali
da ostacolare la pubblica o privata difesa (n. 5) e dell’aver aggravato o tentato di
aggravare le conseguenze del delitto (n. 8).
L’aggravante di cui la norma in commento propone l’introduzione si applica ai casi in cui
l’ostacolo alla pubblica o privata difesa o l’aggravamento delle conseguenze del reato
derivino dall’impiego di sistemi di intelligenza artificiale.

La lett. b) prevede l’introduzione di una circostanza aggravante ad effetto


comune del delitto di attentati contro i diritti politici del cittadino di cui all’art.
294 c.p.

L’art. 294 c.p. nel testo vigente punisce con la reclusione da uno a cinque anni chiunque
con volenza, minaccia o inganno impedisce in tutto o in parte l’esercizio di un diritto
politico, ovvero determina taluno a esercitarlo in senso difforme dalla sua volontà.

Nello specifico, la disposizione in commento introduce un comma aggiuntivo


all’art. 294 c.p. volto a prevedere una circostanza aggravante ad effetto comune se
il fatto è commesso mediante l’impiego di sistemi di intelligenza artificiale.

La lett. c) prevede l’introduzione di una circostanza aggravante a effetto


speciale del delitto di sostituzione di persona di cui all’art. 494 c.p.

100
A.S. n. 1146 Articolo 25, comma 1

L’art. 494 c.p. nel testo vigente punisce con la reclusione fino a un anno – sempre che il
fatto non costituisca un altro delitto contro la fede pubblica - chiunque, al fine di procurare
a sé o ad altri un vantaggio o di recare ad altri un danno, induca taluno in errore,
sostituendo illegittimamente la propria all’altrui persona o attribuendo a sé o ad altri un
falso nome o un falso stato ovvero una qualità cui la legge attribuisce effetti giuridici.

In particolare, la disposizione in commento prevede – attraverso l’introduzione di


un comma aggiuntivo all’art. 494 c.p. - che si applichi la reclusione da 1 a 3 anni
se il fatto è commesso mediante l’impiego di sistemi di intelligenza artificiale.

Si ricorda sul punto che la giurisprudenza di legittimità ha ritenuto che integri il delitto di
sostituzione di persona di cui all’art. 494 c.p. la creazione di un falso profilo “social”
utilizzando generalità o immagini di una terza persona non consenziente (Cass. pen. Sez.
V 20/9/2022, n. 41801; Cass. pen. Sez. V 30/3/2021, n. 12062; Cass. pen. Sez. V
23/7/2020, n. 22049).

La lett. d), invece, prevede l’introduzione di un’ulteriore circostanza aggravante


a effetto speciale del delitto di rialzo e ribasso fraudolento di prezzi sul
pubblico mercato o nelle borse di commercio di cui all’art. 501 c.p.

L’art. 501 c.p., primo comma, punisce con la reclusione fino a 3 anni e con la multa da
516 a 25.822 euro chiunque, al fine di turbare il mercato interno dei valori o delle merci,
divulga notizie false, esagerate o tendenziose o adoperi altri artifici atti a cagionare un
aumento o una diminuzione del prezzo delle merci o dei valori.
Il secondo comma prevede che se l’aumento o la diminuzione del prezzo si verifica la
pena sia aumentata (circostanza aggravante a effetto comune).
Il terzo comma prevede che la pena sia raddoppiata (circostanza aggravante a effetto
speciale):
 se il fatto è commesso dal cittadino per favorire interessi stranieri (n. 1);
 se dal fatto deriva il deprezzamento della valuta nazionale o dei titoli di Stato
o il rincaro di merci di comune o largo consumo (n. 2).
Le pene si applicano anche se il fatto è commesso all’estero in danno della valuta
nazionale o dei titoli pubblici italiani (terzo comma).
Si applica la pena accessoria dell’interdizione dai pubblici uffici (quarto comma).

In particolare, la disposizione in commento prevede – attraverso l’introduzione del


numero 2-bis nel terzo comma dell’art. 501 c. p. - che la pena sia altresì
raddoppiata se il fatto è commesso mediante l’impiego di sistemi di intelligenza
artificiale.

La lett. e) introduce nel codice penale l’art. 612-quater, volto a prevedere il nuovo
reato di “Illecita diffusione di contenuti generati o manipolati con sistemi di
intelligenza artificiale”, nell’ambito del titolo XII (Delitti contro la persona), capo
III (Delitti contro la libertà individuale), sezione III (Delitti contro la libertà
morale).

101
A.S. n. 1146 Articolo 25, comma 1

Il nuovo art. 612-quater c.p. punisce con la reclusione da 1 a 5 anni chiunque


cagioni un danno ingiusto ad una persona cedendo, pubblicando o diffondendo,
senza il suo consenso, immagini, video o voci falsificati o alterati mediante
l’impiego di sistemi di intelligenza artificiale e idonei a trarre in inganno sulla
loro genuinità (primo comma).
Secondo quanto riportato dalla relazione illustrativa, attraverso la disposizione in
commento si vuole offrire una tutela rafforzata della persona, incentrando l’offensività
della condotta sul pregiudizio all’autodeterminazione ed al pieno svolgimento della
personalità, circostanza confermata anche dalla collocazione sistematica della
disposizione fra i delitti contro la persona e, segnatamente contro la libertà morale.
Il delitto, inoltre, è punibile a querela, ma si procede d’ufficio se il fatto è connesso
con altro delitto per il quale si deve procedere d’ufficio ovvero se il fatto è
commesso nei confronti di persona incapace, per età o infermità, o nei confronti di
una pubblica autorità a causa delle funzioni esercitate.

La lett. f) introduce una nuova circostanza aggravante speciale del reato di


truffa (nuovo n. 2-ter del secondo comma dell’articolo 640 c.p.), che ricorre
quando il fatto è commesso mediante l’impiego di sistemi di intelligenza
artificiale.

Si ricorda che l'art. 640 del codice penale - relativo al delitto di truffa - apre il capo II del
titolo XIII del libro secondo del codice penale, relativo ai "Delitti contro il patrimonio
mediante frode" e punisce con la reclusione da 6 mesi a 3 anni e con la multa da 51 a
1.032 euro chiunque, con artifizi o raggiri, inducendo taluno in errore, procura a sé o ad
altri un ingiusto profitto con altrui danno (primo comma). La disposizione individua tre
aggravanti speciali del reato (secondo comma), che comportano un aumento di pena
(reclusione da 1 a 5 cinque anni e multa da 309 a 1.549 euro): 1) se il fatto è commesso a
danno dello Stato o di un altro ente pubblico o dell'Unione europea o col pretesto di far
esonerare taluno dal servizio militare; 2) se il fatto è commesso ingenerando nella persona
offesa il timore di un pericolo immaginario o l'erroneo convincimento di dovere eseguire
un ordine dell'autorità; 2-bis) se il fatto è commesso in presenza della circostanza di cui
all'articolo 61, numero 5) (si tratta dell’aggravante comune della c.d. "minorata difesa" -
ossia l'avere profittato di circostanze di tempo, di luogo e di persona, anche in riferimento
all'età, tali da ostacolare la pubblica o privata difesa).

La lett. g) interviene sul comma terzo dell’articolo 640-ter c.p. che disciplina, con
riguardo al reato di frode informatica, la circostanza aggravante della
commissione del fatto con furto o indebito utilizzo dell'identità digitale in danno
di uno o più soggetti.

La pena prevista è della reclusione da due a sei anni e della multa da euro 600 a
euro 3.000. La norma mira a contrastare il sempre più diffuso fenomeno delle frodi
realizzate attraverso l'accesso abusivo a un sistema informatico con l'indebito utilizzo
dell'identità digitale altrui.

102
A.S. n. 1146 Articolo 25, comma 1

La disposizione in commento modifica la citata circostanza aggravante


prevedendo che essa ricorra anche quando la frode informatica avvenga
mediante l’impiego di sistemi di intelligenza artificiale.

Si ricorda che l'art. 640 ter è stato introdotto nel codice penale dall'art. 10 della
legge n. 547 del 1993, recante "Modificazioni ed integrazioni delle norme del codice
penale e del codice di procedura penale in tema di criminalità informatica", volto a
disciplinare quei fenomeni criminali che si caratterizzano nell'uso distorto o nell'abuso
della tecnologia informatica hardware e software (c.d. computer crimes). L'art. 640-ter
punisce le ipotesi di ingiusto profitto ottenuto mediante l'impiego "alterato" o "senza
diritto" di un sistema informatico o telematico. La norma, pur ricalcando la fattispecie
della truffa non è ad essa perfettamente sovrapponibile. Riproposto lo stesso evento
tipico, l'aggressione al patrimonio viene descritta dall'art. 640 ter attraverso una diversa
connessione eziologica tra le fasi che la realizzano; manca inoltre il riferimento
all'induzione in errore della vittima che presuppone un rapporto relazionale ed
interpersonale fra soggetto agente e soggetto ingannato impossibile da riprodursi nel caso
in cui l'atto di disposizione patrimoniale dipenda da un macchinario tramite un'operazione
automatica.

La lett. h) modifica il terzo comma dell’articolo 648-bis c.p. il quale disciplina


l’aggravante speciale del reato di riciclaggio, prevedendo che tale circostanza
ricorra non solo quando il fatto è commesso nell'esercizio di un'attività
professionale ma anche mediante l’impiego di sistemi di intelligenza artificiale.
Analoga modifica apportano le lett. i) e l) con riguardo alle circostanze
aggravanti previste, rispettivamente, dal terzo comma dell’articolo 648-ter c.p.
(Impiego di denaro, beni o utilità di provenienza illecita) e dal sesto comma
dell’articolo 648-ter.1 (Autoriciclaggio).

L’introduzione delle circostanze aggravanti prevista dalla disposizione in esame merita


un approfondimento nell’ambito della più ampia questione relativa alla attribuzione della
responsabilità penale nei casi in cui il fatto di reato sia condiviso dall’uomo con un
sistema di IA di ultima generazione. La (parziale) perdita di controllo dell’operatore
umano sul processo decisionale e sul comportamento dell’algoritmo rischia di influire sui
classici meccanismi imputativi del diritto penale. I nuovi sistemi di IA infatti sono dotati
di capacità di apprendimento e di autonomia decisionale, che prescindono dall’agente
umano e che possono portare alla realizzazione di un fatto non voluto o addirittura diverso
da quello previsto dall’input umano. In particolare con riguardo alle fattispecie prese in
considerazione dalla norma in esame potrebbe risultare difficile stabilire a priori a quale
persona fisica sia da ascrivere il fatto di riciclaggio di denaro posto in essere dalla
macchina. Si pensi, a titolo esemplificativo, all’ipotesi in cui sia una chatbot, utilizzata
da un determinato soggetto per assistere i clienti nelle loro transazioni finanziarie, a
causare il trasferimento del denaro su un contro estero associato a operazioni di
riciclaggio di denaro.

103
A.S. n. 1146 Articolo 25, comma 1

Codice penale
Testo vigente Testo come modificato dall’A.S.1146
Art. 61 Art. 61
(Circostanze aggravanti comuni) (Circostanze aggravanti comuni)
Aggravano il reato, quando non ne sono Identico
elementi costitutivi o circostanze
aggravanti speciali, le circostanze
seguenti:
1. L'avere agito per motivi abietti o Identico
futili;
2. L'aver commesso il reato per Identico
eseguirne od occultarne un altro, ovvero
per conseguire o assicurare a sé o ad
altri il prodotto o il profitto o il prezzo
ovvero la impunità di un altro reato;
3. L'avere, nei delitti colposi, agito Identico
nonostante la previsione dell'evento;
4. L'avere adoperato sevizie, o l'aver Identico
agito con crudeltà verso le persone;
5. L'avere profittato di circostanze di Identico
tempo, di luogo o di persona, anche in
riferimento all'età, tali da ostacolare la
pubblica o privata difesa;
6. L'avere il colpevole commesso il Identico
reato durante il tempo, in cui si è
sottratto volontariamente alla
esecuzione di un mandato o di un ordine
di arresto o di cattura o di carcerazione,
spedito per un precedente reato;
7. L'avere, nei delitti contro il Identico
patrimonio, o che comunque offendono
il patrimonio, ovvero nei delitti
determinati da motivi di lucro,
cagionato alla persona offesa dal reato
un danno patrimoniale di rilevante
gravità;
8. L'avere aggravato o tentato di Identico
aggravare le conseguenze del delitto
commesso;
9. L'avere commesso il fatto con abuso Identico
dei poteri, o con violazione dei doveri
inerenti a una pubblica funzione o a un

104
A.S. n. 1146 Articolo 25, comma 1

Codice penale
Testo vigente Testo come modificato dall’A.S.1146
pubblico servizio, ovvero alla qualità di
ministro di un culto;
10. L'avere commesso il fatto contro un Identico
pubblico ufficiale o una persona
incaricata di un pubblico servizio, o
rivestita della qualità di ministro del
culto cattolico o di un culto ammesso
nello Stato, ovvero contro un agente
diplomatico o consolare di uno Stato
estero, nell'atto o a causa
dell'adempimento delle funzioni o del
servizio;
11. L'avere commesso il fatto con abuso Identico
di autorità o di relazioni domestiche,
ovvero con abuso di relazioni di ufficio,
di prestazione d'opera, di coabitazione,
o di ospitalità.
11-bis. L'avere il colpevole commesso Identico
il fatto mentre si trova illegalmente sul
territorio nazionale.
11-ter. L'aver commesso un delitto Identico
contro la persona ai danni di un soggetto
minore all'interno o nelle adiacenze di
istituti di istruzione o di formazione.
11-quater. L'avere il colpevole Identico
commesso un delitto non colposo
durante il periodo in cui era ammesso ad
una misura alternativa alla detenzione
in carcere.
11-quinquies. L'avere, nei delitti non Identico
colposi contro la vita e l'incolumità
individuale e contro la libertà personale,
commesso il fatto in presenza o in
danno di un minore di anni diciotto
ovvero in danno di persona in stato di
gravidanza.
11-sexies. L'avere, nei delitti non Identico
colposi, commesso il fatto in danno di
persone ricoverate presso strutture
sanitarie o presso strutture
sociosanitarie residenziali o

105
A.S. n. 1146 Articolo 25, comma 1

Codice penale
Testo vigente Testo come modificato dall’A.S.1146
semiresidenziali, pubbliche o private,
ovvero presso strutture socio-educative.
11-septies. L'avere commesso il fatto in Identico
occasione o a causa di manifestazioni
sportive o durante i trasferimenti da o
verso i luoghi in cui si svolgono dette
manifestazioni.
11-octies. L'avere agito, nei delitti Identico
commessi con violenza o minaccia, in
danno degli esercenti le professioni
sanitarie e socio-sanitarie nonché di
chiunque svolga attività ausiliarie di
cura, assistenza sanitaria o soccorso,
funzionali allo svolgimento di dette
professioni, a causa o nell'esercizio di
tali professioni o attività.
11-novies. L'avere agito, nei delitti Identico
commessi con violenza o minaccia, in
danno di un dirigente scolastico o di un
membro del personale docente,
educativo, amministrativo, tecnico o
ausiliario della scuola, a causa o
nell'esercizio delle loro funzioni.
11-decies. L’avere commesso il fatto
mediante l’impiego di sistemi di
intelligenza artificiale, quando gli
stessi, per la loro natura o per le
modalità di utilizzo, abbiano
costituito mezzo insidioso, ovvero
quando il loro impiego abbia
comunque ostacolato la pubblica o la
privata difesa, ovvero aggravato le
conseguenze del reato.

Art. 294 Art. 294


(Attentati contro i diritti politici del (Attentati contro i diritti politici del
cittadino) cittadino)
Chiunque con violenza, minaccia o Identico
inganno impedisce in tutto o in parte
l'esercizio di un diritto politico, ovvero
determina taluno a esercitarlo in senso

106
A.S. n. 1146 Articolo 25, comma 1

Codice penale
Testo vigente Testo come modificato dall’A.S.1146
difforme dalla sua volontà, è punito con
la reclusione da uno a cinque anni.
La pena è aumentata se il fatto è
commesso mediante l’impiego di
sistemi di intelligenza artificiale
Art. 494 Art. 494
(Sostituzione di persona) (Sostituzione di persona)
Chiunque, al fine di procurare a sé o ad Identico
altri un vantaggio o di recare ad altri un
danno, induce taluno in errore,
sostituendo illegittimamente la propria
all'altrui persona, o attribuendo a sé o ad
altri un falso nome, o un falso stato,
ovvero una qualità a cui la legge
attribuisce effetti giuridici, è punito, se
il fatto non costituisce un altro delitto
contro la fede pubblica, con la
reclusione fino a un anno.
La pena è della reclusione da uno a
tre anni se il fatto è commesso
mediante l’impiego di sistemi di
intelligenza artificiale.
Art. 501 Art. 501
(Rialzo e ribasso fraudolento di prezzi (Rialzo e ribasso fraudolento di prezzi
sul pubblico mercato o nelle borse di sul pubblico mercato o nelle borse di
commercio) commercio)
Chiunque al fine di turbare il mercato Identico
interno dei valori o delle merci,
pubblica o altrimenti divulga notizie
false, esagerate o tendenziose o adopera
altri artifici atti a cagionare un aumento
o una diminuzione del prezzo delle
merci, ovvero dei valori ammessi nelle
liste di borsa o negoziabili nel pubblico
mercato, è punito con la reclusione fino
a tre anni e con la multa da euro 516 a
euro 25.822.
Se l'aumento o la diminuzione del Identico
prezzo delle merci o dei valori si
verifica, le pene sono aumentate.
Le pene sono raddoppiate: Identico

107
A.S. n. 1146 Articolo 25, comma 1

Codice penale
Testo vigente Testo come modificato dall’A.S.1146
1) se il fatto è commesso dal cittadino Identico
per favorire interessi stranieri;
2) se dal fatto deriva un deprezzamento Identico
della valuta nazionale o dei titoli dello
Stato, ovvero il rincaro di merci di
comune o largo consumo.
2-bis) se il fatto è commesso mediante
l’impiego di sistemi di intelligenza
artificiale
Art. 612-quater
(Illecita diffusione di contenuti
generati o alterati con sistemi di
intelligenza artificiale)
Chiunque cagiona un danno ingiusto
ad una persona, cedendo,
pubblicando o altrimenti
diffondendo, senza il suo consenso,
immagini, video o voci falsificati o
alterati mediante l’impiego di sistemi
di intelligenza artificiale e idonei a
indurre in inganno sulla loro
genuinità, è punito con la reclusione
da uno a cinque anni.
Il delitto è punibile a querela della
persona offesa. Si procede tuttavia
d’ufficio se il fatto è connesso con
altro delitto per il quale si deve
procedere d’ufficio ovvero se è
commesso nei confronti di persona
incapace, per età o per infermità, o di
una pubblica autorità a causa delle
funzioni esercitate.

Art. 640 Art. 640


(Truffa) (Truffa)
Chiunque, con artifizi o raggiri, Identico
inducendo taluno in errore, procura a sé
o ad altri un ingiusto profitto con altrui
danno, è punito con la reclusione da sei
mesi a tre anni e con la multa da euro 51
a euro 1.032.

108
A.S. n. 1146 Articolo 25, comma 1

Codice penale
Testo vigente Testo come modificato dall’A.S.1146
La pena è della reclusione da uno a Identico
cinque anni e della multa da euro 309 a
euro 1.549:
1. se il fatto è commesso a danno dello Identico
Stato o di un altro ente pubblico o
dell'Unione europea o col pretesto di far
esonerare taluno dal servizio militare;
2. se il fatto è commesso ingenerando Identico
nella persona offesa il timore di un
pericolo immaginario o l'erroneo
convincimento di dovere eseguire un
ordine dell'autorità;
2-bis. se il fatto è commesso in presenza Identico
della circostanza di cui all'articolo 61,
numero 5).
2-ter. se il fatto è commesso mediante
l’impiego di sistemi di intelligenza
artificiale
Il delitto è punibile a querela della Identico
persona offesa, salvo che ricorra taluna
delle circostanze previste dal capoverso
precedente

Art. 640-ter Art. 640-ter


(Frode informatica) (Frode informatica)
Chiunque, alterando in qualsiasi modo Identico
il funzionamento di un sistema
informatico o telematico o intervenendo
senza diritto con qualsiasi modalità su
dati, informazioni o programmi
contenuti in un sistema informatico o
telematico o ad esso pertinenti, procura
a sé o ad altri un ingiusto profitto con
altrui danno, è punito con la reclusione
da sei mesi a tre anni e con la multa da
euro 51 a euro 1.032.
La pena è della reclusione da uno a Identico
cinque anni e della multa da euro 309 a
euro 1.549 se ricorre una delle
circostanze previste dal numero 1) del

109
A.S. n. 1146 Articolo 25, comma 1

Codice penale
Testo vigente Testo come modificato dall’A.S.1146
secondo comma dell'articolo 640,
ovvero se il fatto produce un
trasferimento di denaro, di valore
monetario o di valuta virtuale o è
commesso con abuso della qualità di
operatore del sistema.
La pena è della reclusione da due a sei La pena è della reclusione da due a sei
anni e della multa da euro 600 a euro anni e della multa da euro 600 a euro
3.000 se il fatto è commesso con furto o 3.000 se il fatto è commesso mediante
indebito utilizzo dell'identità digitale in l’impiego di sistemi di intelligenza
danno di uno o più soggetti. artificiale o con furto o indebito
utilizzo dell'identità digitale in danno di
uno o più soggetti.
Il delitto è punibile a querela della Identico
persona offesa, salvo che ricorra taluna
delle circostanze di cui al secondo e
terzo comma o la circostanza prevista
dall'articolo 61, primo comma, numero
5, limitatamente all'aver approfittato di
circostanze di persona, anche in
riferimento all'età

Art. 648-bis. Art. 648-bis.


(Riciclaggio) (Riciclaggio)
Fuori dei casi di concorso nel reato, Identico
chiunque sostituisce o trasferisce
denaro, beni o altre utilità provenienti
da delitto, ovvero compie in relazione
ad essi altre operazioni, in modo da
ostacolare l'identificazione della loro
provenienza delittuosa, è punito con la
reclusione da quattro a dodici anni e con
la multa da euro 5.000 a euro 25.000.
La pena è della reclusione da due a sei Identico
anni e della multa da euro 2.500 a euro
12.500 quando il fatto riguarda denaro o
cose provenienti da contravvenzione
punita con l'arresto superiore nel
massimo a un anno o nel minimo a sei
mesi.

110
A.S. n. 1146 Articolo 25, comma 1

Codice penale
Testo vigente Testo come modificato dall’A.S.1146
La pena è aumentata quando il fatto è La pena è aumentata quando il fatto è
commesso nell'esercizio di un'attività commesso nell'esercizio di un'attività
professionale. professionale ovvero mediante
l’impiego di sistemi di intelligenza
artificiale.
La pena è diminuita se il denaro, i beni Identico
o le altre utilità provengono da delitto
per il quale è stabilita la pena della
reclusione inferiore nel massimo a
cinque anni.
Si applica l'ultimo comma dell'articolo Identico
648

Art. 648-ter. Art. 648-ter.


(Impiego di denaro, beni o utilità di (Impiego di denaro, beni o utilità di
provenienza illecita) provenienza illecita)
Chiunque, fuori dei casi di concorso nel Identico
reato e dei casi previsti dagli articoli 648
e 648-bis, impiega in attività
economiche o finanziarie denaro, beni o
altre utilità provenienti da delitto, è
punito con la reclusione da quattro a
dodici anni e con la multa da euro 5.000
a euro 25.000.
La pena è della reclusione da due a sei Identico
anni e della multa da euro 2.500 a euro
12.500 quando il fatto riguarda denaro o
cose provenienti da contravvenzione
punita con l'arresto superiore nel
massimo a un anno o nel minimo a sei
mesi.
La pena è aumentata quando il fatto è La pena è aumentata quando il fatto è
commesso nell'esercizio di un'attività commesso nell'esercizio di un'attività
professionale. professionale ovvero mediante
l’impiego di sistemi di intelligenza
artificiale.
La pena è diminuita nell'ipotesi di cui al Identico
quarto comma dell'articolo 648.

111
A.S. n. 1146 Articolo 25, comma 1

Codice penale
Testo vigente Testo come modificato dall’A.S.1146
Si applica l'ultimo comma dell'articolo Identico
648.
Art. 648-ter.1. Art. 648-ter.1.
(Autoriciclaggio) (Autoriciclaggio)
Si applica la pena della reclusione da Identico
due a otto anni e della multa da euro
5.000 a euro 25.000 a chiunque, avendo
commesso o concorso a commettere un
delitto, impiega, sostituisce, trasferisce,
in attività economiche, finanziarie,
imprenditoriali o speculative, il denaro,
i beni o le altre utilità provenienti dalla
commissione di tale delitto, in modo da
ostacolare concretamente
l'identificazione della loro provenienza
delittuosa.
La pena è della reclusione da uno a Identico
quattro anni e della multa da euro 2.500
a euro 12.500 quando il fatto riguarda
denaro o cose provenienti da
contravvenzione punita con l'arresto
superiore nel massimo a un anno o nel
minimo a sei mesi.
La pena è diminuita se il denaro, i beni Identico
o le altre utilità provengono da delitto
per il quale è stabilita la pena della
reclusione inferiore nel massimo a
cinque anni.
Si applicano comunque le pene previste Identico
dal primo comma se il denaro, i beni o
le altre utilità provengono da un delitto
commesso con le condizioni o le finalità
di cui all'articolo 416-bis.1.
Fuori dei casi di cui ai commi Identico
precedenti, non sono punibili le
condotte per cui il denaro, i beni o le
altre utilità vengono destinate alla mera
utilizzazione o al godimento personale.
La pena è aumentata quando i fatti sono La pena è aumentata quando i fatti sono
commessi nell'esercizio di un'attività commessi nell'esercizio di un'attività
bancaria o finanziaria o di altra attività

112
A.S. n. 1146 Articolo 25, comma 1

Codice penale
Testo vigente Testo come modificato dall’A.S.1146
bancaria o finanziaria o di altra attività professionale ovvero mediante
professionale. l’impiego di sistemi di intelligenza
artificiale.
La pena è diminuita fino alla metà per Identico
chi si sia efficacemente adoperato per
evitare che le condotte siano portate a
conseguenze ulteriori o per assicurare le
prove del reato e l'individuazione dei
beni, del denaro e delle altre utilità
provenienti dal delitto.
Si applica l'ultimo comma dell'articolo Identico
648.

113
A.S. n. 1146 Articolo 25, commi da 2 a 4

Articolo 25, commi da 2 a 4


(Modifiche alla disciplina dei reati di aggiotaggio, plagio e manipolazione
del mercato)

I commi da 2 a 4 dell’articolo 25 oltre ad introdurre specifiche circostanze


aggravanti per i reati di aggiotaggio e di manipolazione del mercato quando i fatti
sono commessi mediante l’impiego di sistemi di intelligenza artificiale,
sanzionano anche alle condotte di plagio commesse attraverso sistemi di
intelligenza artificiale.

Il comma 2 modifica l’articolo 2637, primo comma, del codice civile, che
disciplina il reato di aggiotaggio (punito con la reclusione da uno a cinque anni)
prevedendo un aggravamento di pena (la reclusione da due a sette anni) quando il
fatto è commesso mediante l’impiego di sistemi di intelligenza artificiale.

Codice civile
Testo vigente Modificazioni apportate dall’A.S.1146
Art. 2637 Art. 2637
(Aggiotaggio) (Aggiotaggio)
Chiunque diffonde notizie false, ovvero Chiunque diffonde notizie false, ovvero
pone in essere operazioni simulate o altri pone in essere operazioni simulate o altri
artifici concretamente idonei a provocare artifici concretamente idonei a provocare
una sensibile alterazione del prezzo di una sensibile alterazione del prezzo di
strumenti finanziari non quotati o per i strumenti finanziari non quotati o per i
quali non è stata presentata una richiesta quali non è stata presentata una richiesta
di ammissione alle negoziazioni in un di ammissione alle negoziazioni in un
mercato regolamentato, ovvero ad mercato regolamentato, ovvero ad
incidere in modo significativo incidere in modo significativo
sull'affidamento che il pubblico ripone sull'affidamento che il pubblico ripone
nella stabilità patrimoniale di banche o di nella stabilità patrimoniale di banche o di
gruppi bancari, è punito con la pena della gruppi bancari, è punito con la pena della
reclusione da uno a cinque anni . reclusione da uno a cinque anni. La pena
è della reclusione da due a sette anni se
il fatto è commesso mediante l’impiego
di sistemi di intelligenza artificiale.

Il comma 3 dell’articolo 25 interviene sulla disciplina del plagio artistico dettata


dall’articolo 171, comma 1, della legge 22 aprile 1941, n. 633.

L’articolo 171 definisce il plagio artistico come la appropriazione, intesa come


riproduzione, in tutto o in parte di un'opera creativa altrui senza averne diritto, punendo
tali condotte con la pena della multa da 51 a 2.065 euro.

114
A.S. n. 1146 Articolo 25, commi da 2 a 4

Il disegno di legge estende la punibilità anche alla riproduzione o estrazione di


testo o dati da opere o altri materiali disponibili in rete o in banche di dati in
violazione degli articoli 70-ter e 70-quater (che disciplinano riproduzioni ed
estrazioni di testi e dati) anche attraverso sistemi di intelligenza artificiale.

Legge 22 aprile 1941, n.633


Protezione del diritto d'autore e di altri diritti connessi al suo esercizio
Testo vigente Modificazioni apportate dall’A.S. 1146
Art. 171 Art. 171
Salvo quanto previsto dall'art. 171-bis Identico
e dall'articolo 171-ter è punito con la
multa da euro 51 (lire 100.000) a euro
2.065 (lire 4 milioni) chiunque senza
averne diritto, a qualsiasi scopo e in
qualsiasi forma:
a) riproduce, trascrive, recita in pubblico, a) Identica
diffonde, vende o mette in vendita o pone
altrimenti in commercio un'opera altrui o
ne rivela il contenuto prima che sia reso
pubblico, o introduce e mette in
circolazione nello Stato esemplari prodotti
all'estero contrariamente alla legge
italiana;
a-bis) mette a disposizione del pubblico, a-bis) Identica
immettendola in un sistema di reti
telematiche, mediante connessioni di
qualsiasi genere, un'opera dell'ingegno
protetta, o parte di essa;
a-ter) riproduce o estrae testo o dati da
opere o altri materiali disponibili in rete
o in banche di dati in violazione degli
articoli 70-ter e 70-quater, anche
attraverso sistemi di intelligenza
artificiale;
b) rappresenta, esegue o recita in pubblico b) Identica
o diffonde, con o senza variazioni od
aggiunte, un'opera altrui adatta a pubblico
spettacolo od una composizione musicale.
La rappresentazione o esecuzione
comprende la proiezione pubblica
dell'opera cinematografica, l'esecuzione in
pubblico delle composizioni musicali
inserite nelle opere cinematografiche e la
radiodiffusione mediante altoparlante
azionato in pubblico;

115
A.S. n. 1146 Articolo 25, commi da 2 a 4

Legge 22 aprile 1941, n.633


Protezione del diritto d'autore e di altri diritti connessi al suo esercizio
Testo vigente Modificazioni apportate dall’A.S. 1146
c) compie i fatti indicati nelle precedenti c)Identica
lettere mediante una delle forme di
elaborazione previste da questa legge;
d) riproduce un numero di esemplari o d) Identica
esegue o rappresenta un numero di
esecuzioni o di rappresentazioni maggiore
di quello che aveva il diritto
rispettivamente di riprodurre o di
rappresentare;
[e) riproduce con qualsiasi processo di
duplicazione dischi o altri apparecchi
analoghi o li smercia, ovvero introduce nel
territorio dello Stato le riproduzioni così
fatte all'estero;]
f) in violazione dell'art. 79 ritrasmette su f) Identica
filo o per radio o registra in dischi
fonografici o altri apparecchi analoghi le
trasmissioni o ritrasmissioni radiofoniche
o smercia i dischi fonografici o altri
apparecchi indebitamente registrati.
Chiunque commette la violazione di Identico
cui al primo comma, lettera a-bis), è
ammesso a pagare, prima dell'apertura del
dibattimento, ovvero prima dell'emissione
del decreto penale di condanna, una
somma corrispondente alla metà del
massimo della pena stabilita dal primo
comma per il reato commesso, oltre le
spese del procedimento. Il pagamento
estingue il reato.
La pena è della reclusione fino ad un Identico
anno o della multa non inferiore a euro
516 (lire 1.000.000), se i reati di cui sopra
sono commessi sopra un'opera altrui non
destinata alla pubblicità ovvero con
usurpazione della paternità dell'opera,
ovvero con deformazione, mutilazione o
altra modificazione dell'opera medesima,
qualora ne risulti offesa all'onere od alla
reputazione dell'autore.
La violazione delle disposizioni di cui Identico
al terzo ed al quarto comma dell'articolo
68 comporta la sospensione della attività

116
A.S. n. 1146 Articolo 25, commi da 2 a 4

Legge 22 aprile 1941, n.633


Protezione del diritto d'autore e di altri diritti connessi al suo esercizio
Testo vigente Modificazioni apportate dall’A.S. 1146
di fotocopia, xerocopia o analogo sistema
di riproduzione da sei mesi ad un anno
nonché la sanzione amministrativa
pecuniaria da euro 1.032 a euro 5.164 (due
a dieci milioni di lire).

Il comma 4, modificando l’articolo 185 TUIF, introduce un aggravamento di pena


(fino a un terzo) per le condotte di manipolazione del mercato perpetrate
mediante l’impiego di sistemi di intelligenza artificiale.

Occorre rammentare che l’articolo 185 TUIF punisce con la reclusione da due a dodici
anni e con la multa da euro ventimila a euro cinque milioni chiunque diffonde notizie
false o pone in essere operazioni simulate o altri artifizi concretamente idonei a provocare
una sensibile alterazione del prezzo di strumenti finanziari.

D.Lgs. 24/02/1998, n. 58
Testo unico delle disposizioni in materia di intermediazione finanziaria
Testo vigente Modificazioni apportate dall’A.S. 1146
Art. 185 Art. 185
Manipolazione del mercato Manipolazione del mercato
1. Chiunque diffonde notizie false o 1. Chiunque diffonde notizie false o pone
pone in essere operazioni simulate o altri in essere operazioni simulate o altri artifizi
artifizi concretamente idonei a provocare concretamente idonei a provocare una
una sensibile alterazione del prezzo di sensibile alterazione del prezzo di
strumenti finanziari, è punito con la strumenti finanziari, è punito con la
reclusione da due a dodici anni e con la reclusione da due a dodici anni e con la
multa da euro ventimila a euro cinque multa da euro ventimila a euro cinque
milioni. milioni. Se i fatti sono commessi
mediante l’impiego di sistemi di
intelligenza artificiale, la pena è
aumentata.
1-bis. Non è punibile chi ha commesso 1-bis) Identico
il fatto per il tramite di ordini di
compravendita o operazioni effettuate per
motivi legittimi e in conformità a prassi di
mercato ammesse, ai sensi dell'articolo 13
del regolamento (UE) n. 596/2014.
2. Il giudice può aumentare la multa 2) Identico
fino al triplo o fino al maggiore importo di
dieci volte il prodotto o il profitto

117
A.S. n. 1146 Articolo 25, commi da 2 a 4

D.Lgs. 24/02/1998, n. 58
Testo unico delle disposizioni in materia di intermediazione finanziaria
Testo vigente Modificazioni apportate dall’A.S. 1146
conseguito dal reato quando, per la
rilevante offensività del fatto, per le
qualità personali del colpevole o per
l'entità del prodotto o del profitto
conseguito dal reato, essa appare
inadeguata anche se applicata nel
massimo.
[2-bis. Nel caso di operazioni relative
agli strumenti finanziari di cui all'articolo
180, comma 1, lettera a), numeri 2), 2-bis)
e 2-ter), limitatamente agli strumenti
finanziari il cui prezzo o valore dipende
dal prezzo o dal valore di uno strumento
finanziario di cui ai numeri 2) e 2-bis)
ovvero ha un effetto su tale prezzo o
valore, o relative alle aste su una
piattaforma d'asta autorizzata come un
mercato regolamentato di quote di
emissioni, la sanzione penale è quella
dell'ammenda fino a euro centotremila e
duecentonovantuno e dell'arresto fino a tre
anni.]
[2-ter. Le disposizioni del presente
articolo si applicano anche:
a) ai fatti concernenti i contratti a pronti su
merci che non sono prodotti energetici
all'ingrosso, idonei a provocare una
sensibile alterazione del prezzo o del
valore degli strumenti finanziari di cui
all'articolo 180, comma 1, lettera a);
b) ai fatti concernenti gli strumenti
finanziari, compresi i contratti derivati o
gli strumenti derivati per il trasferimento
del rischio di credito, idonei a provocare
una sensibile alterazione del prezzo o del
valore di un contratto a pronti su merci,
qualora il prezzo o il valore dipendano dal
prezzo o dal valore di tali strumenti
finanziari;
c) ai fatti concernenti gli indici di
riferimento (benchmark). ]

118
A.S. n. 1146 Articolo 26

Articolo 26
(Clausola di invarianza finanziaria)

L’articolo 26 reca la clausola di invarianza finanziaria.

Si stabilisce che dall’attuazione del presente provvedimento, ad eccezione


dell’articolo 19 concernente “Applicazione sperimentale dell'intelligenza
artificiale ai servizi forniti dal Ministero degli affari esteri e della cooperazione
internazionale” (v. relativa scheda) non derivino nuovi o maggiori oneri a carico
della finanza pubblica. Le amministrazioni provvedono con le risorse umane,
strumentali e finanziarie, disponibili a legislazione vigente.

119

Potrebbero piacerti anche