Art. 3
Principi generali
1. La ricerca, la sperimentazione, lo sviluppo, l'adozione,
l'applicazione e l'utilizzo di sistemi e di modelli di intelligenza
artificiale per finalita' generali avvengono nel rispetto dei diritti
fondamentali e delle liberta' previste dalla Costituzione, del
diritto dell'Unione europea e dei principi di trasparenza,
proporzionalita', sicurezza, protezione dei dati personali,
riservatezza, accuratezza, non discriminazione, parita' dei sessi e
sostenibilita'.
2. Lo sviluppo di sistemi e di modelli di intelligenza artificiale
per finalita' generali avviene su dati e tramite processi di cui
devono essere garantite e vigilate la correttezza, l'attendibilita',
la sicurezza, la qualita', l'appropriatezza e la trasparenza, secondo
il principio di proporzionalita' in relazione ai settori nei quali
sono utilizzati.
3. I sistemi e i modelli di intelligenza artificiale per finalita'
generali devono essere sviluppati e applicati nel rispetto
dell'autonomia e del potere decisionale dell'uomo, della prevenzione
del danno, della conoscibilita', della trasparenza, della
spiegabilita' e dei principi di cui al comma 1, assicurando la
sorveglianza e l'intervento umano.
4. L'utilizzo di sistemi di intelligenza artificiale non deve
pregiudicare lo svolgimento con metodo democratico della vita
istituzionale e politica e l'esercizio delle competenze e funzioni
delle istituzioni territoriali sulla base dei principi di autonomia e
sussidiarieta' e non deve altresi' pregiudicare la liberta' del
dibattito democratico da interferenze illecite, da chiunque
provocate, tutelando gli interessi della sovranita' dello Stato
nonche' i diritti fondamentali di ogni cittadino riconosciuti dagli
ordinamenti nazionale ed europeo.
5. La presente legge non produce nuovi obblighi rispetto a quelli
previsti dal regolamento (UE) 2024/1689 per i sistemi di intelligenza
artificiale e per i modelli di intelligenza artificiale per finalita'
generali.
6. Al fine di garantire il rispetto dei diritti e dei principi di
cui al presente articolo deve essere assicurata, quale precondizione
essenziale, la cybersicurezza lungo tutto il ciclo di vita dei
sistemi e dei modelli di intelligenza artificiale per finalita'
generali, secondo un approccio proporzionale e basato sul rischio,
nonche' l'adozione di specifici controlli di sicurezza, anche al fine
di assicurarne la resilienza contro tentativi di alterarne
l'utilizzo, il comportamento previsto, le prestazioni o le
impostazioni di sicurezza.
7. La presente legge garantisce alle persone con disabilita' il
pieno accesso ai sistemi di intelligenza artificiale e alle relative
funzionalita' o estensioni, su base di uguaglianza e senza alcuna
forma di discriminazione e di pregiudizio, in conformita' alle
disposizioni della Convenzione delle Nazioni Unite sui diritti delle
persone con disabilita', fatta a New York il 13 dicembre 2006,
ratificata e resa esecutiva in Italia ai sensi della legge 3 marzo
2009, n. 18.
Note all'art. 3:
- La legge 3 marzo 2009, n. 1 recante: «Ratifica ed
esecuzione della Convenzione delle Nazioni Unite sui
diritti delle persone con disabilita', con Protocollo
opzionale, fatta a New York il 13 dicembre 2006 e
istituzione dell'Osservatorio nazionale sulla condizione
delle persone con disabilita'» e' pubblicata nella Gazzetta
Ufficiale n. 61 del 14 marzo 2009.