L’Unione Europea si dota di una propria legge che disciplina l’Intelligenza Artificiale!

Dopo diversi anni di lavoro, finalmente è stato emanato il Regolamento UE n. 2024/1689, anche noto come legge sull’IA, che definisce la disciplina che l’Unione europea seguirà nell’approccio con i sistemi di Intelligenza Artificiale.

L’Unione europea sceglie di disciplinare l’Intelligenza Artificiale mediante il regolamento. Pertanto, con l’atto di diritto derivato più rilevante di tutti, in quanto obbliga gli Stati membri non solo a raggiungere specifici obiettivi, ma anche per i mezzi da utilizzare per raggiungerli. Rappresenta, infatti, una fonte direttamente applicabile in tutti gli Stati membri.

Rilevante è anche la scelta di approccio: a differenza di alcuni grandi Stati del mondo (che utilizzano principalmente strumenti c.d. di soft-law e/o di self-regulation), l’Unione europea adotta una visione assai innovativa, in quanto si dota di un atto di diritto vincolante che ha l’obiettivo di bilanciare due esigenze che sono la tutela dei diritti fondamentali e lo sviluppo dell’innovazione. Pertanto, l’ordinamento dell’Unione fa sì che tutti i cittadini possano contare su sistemi di Intelligenza Artificiale sempre più evoluti, ma che allo stesso tempo siano anche sicuri!

L’approccio adottato dall’ordinamento dell’UE è basato sul rischio: in particolare, viene fatta una sorta di gerarchia, secondo il modello di cui sotto:

Si evince, pertanto, la presenza di quattro livelli:

  • Il primo – all’apice della piramide – è quello in cui rientrano i sistemi di Intelligenza Artificiale considerati a rischio inaccettabile. Questi sono vietati. Nel novero di questi sistemi rientrano “Tutti i sistemi di IA considerati una chiara minaccia alla sicurezza, ai mezzi di sussistenza e ai diritti delle persone sono vietati, dal punteggio sociale da parte dei governi ai giocattoli che utilizzano l’assistenza vocale che incoraggia comportamenti pericolosi”. Basti pensare a sistemi tipo per es. il riconoscimento facciale biometrico che non avviene in presenza di tre necessità che sono quella di individuazione di responsabili di reati puniti con più di tre anni di reclusione, quella di ricerca della vittime di gravi reati e quella di prevenzione di grave reati di elevati impatto sociale, come quelli di matrice terroristica.
  • Nel secondo livello, invece, rientrano i sistemi considerati a rischio alto. Questi sono ammessi, ma a condizione che rispettino una serie di requisiti, condizioni accertata da una preventiva valutazione di conformità, che deve essere condotta da un organismo notificato imparziale. Tali requisiti sono: 1) “alta qualità delle serie di dati che alimentano il sistema per ridurre al minimo i rischi e i risultati discriminatori”; 2) “registrazione dell’attività per garantire la tracciabilità dei risultati”; 3) “documentazione dettagliata che fornisca tutte le informazioni necessarie sul sistema e sul suo scopo affinché le autorità ne valutino la conformità”; 4) “informazioni chiare e adeguate per l’operatore”; 5) “adeguate misure di sorveglianza umana per ridurre al minimo i rischi”; 6) “alto livello di robustezza, sicurezza e precisione”. Rientrano in questa categoria, per es., i sistemi ad identificazione biometrica remota in spazi non accessibili al pubblico.

Dal momento in cui il sistema di IA è sul mercato, le Autorità sono responsabili della vigilanza dello stesso. Inoltre, gli operatori devono garantire la sorveglianza e il monitoraggio umano. I fornitori, inoltre, dispongono di un sistema di monitoraggio che interviene nella fase di post-commercializzazione. Questi ultimi, inoltre, insieme agli operatori, segnaleranno anche gli incidenti gravi ed i malfunzionamenti.

  • Nel terzo livello, rientrano i sistemi di IA a “rischio limitato”. Per la loro immissione nel mercato è necessario il rispetto degli obblighi di trasparenza. Codesti, hanno lo scopo di garantire che le persone vengano informate quando necessario del fatto che stanno utilizzando detti sistemi, promuovendo la fiducia e dando la possibilità di scegliere se procedere o meno con l’operazione intrapresa. Un esempio di tale categoria è costituito dai c.d. chat-bot. I fornitori, inoltre, devono garantire che i contenuti generati dai sistemi di intelligenza artificiale siano identificabili dal pubblico. Pertanto, un testo generato con l’IA, pubblicato con lo scopo di infromazioni su questioni di interesse pubblico deve fare presente che è generato artificialmente: lo stesso dicasi per i contenuti audio e video che costituiscono deep fake.
  • Nel quarto – ed ultimo – livello rientrano quei sistemi di Intelligenza Artificiale che sono classificati a rischio minimo. In questa categoria rientrano, a titolo esemplificativo, videogiochi e filtri anti-spam. La legge sull’IA consente l’utilizzo libero di questi sistemi. La stragrande maggioranza dei sistemi di IA utilizzati nell’UE rientra in questa categoria.

Si aggiunge, inoltre, che in caso di applicazione dell’IA in sistemi di grandi dimensioni, viene richiesto il rispetto di ulteriori obblighi, che comprendono l’autovalutazione, l’attenuazione dei rischi sistemici, la segnalazione di incidenti gravi, lo svolgimento di valutazioni di test e modelli, ed i requisiti di cibersicurezza.

L’entrata in vigore e le fasi

Il regolamento sull’IA è entrato in vigore il 1° agosto. Sarà pienamente applicabile due anni dopo, salvo le presenti eccezioni:

  • I divieti entreranno in vigore dopo sei mesi;
  • Le norme di governance e gli obblighi per i modelli di IA per uso generale si applicheranno dopo 12 mesi.
  • Le norme per i sistemi di IA – integrati in prodotti regolamentati – andranno osservate dopo 36 mesi.

Al fine di agevolare l’applicazione del nuovo quadro normativo, la Commissione ha emanato il Patto sull’IA: consiste in un’iniziativa volontaria che mira ad incoraggiare la futura attuazione, invitando gli sviluppatori europei – e altri interessati – di sistemi di Intelligenza Artificiale europei ad anticipare l’osservanza degli obblighi fondamentali della legge sull’IA.

L’applicazione e l’attuazione di questo regolamento sarà vigilata dall’Ufficio europeo per l’IA, quest’ultimo istituito nel febbraio 2024 all’interno della Commissione europea. Inoltre, tale Ufficio si occuperà di creare un ambiente dove i sistemi di Intelligenza Artificiale rispettino la dignità umana, i diritti e la fiducia, promuovendo, inoltre, la collaborazione, l’innovazione e la ricerca su questi, tra i soggetti interessati. Sarà anche impegnato nel dialogo e nella cooperazione internazionale inerente a questioni riguardanti l’IA, riconoscendo la necessità di una visione globale della gestione dell’Intelligenza Artificiale. Con questi sforzi, l’Ufficio europeo per l’Intelligenza Artificiale mira a posizionare l’Europa come leader nello sviluppo eitico e sostenibile dei sistemi di Intelligenza Artificiale.

Ulteriori sviluppi paralleli, a sfondo internazionale, al Regolamento sull’IA

È notizia del 5 settembre scorso che la Commissione europea ha firmato la Convenzione Quadro del Consiglio d’Europa sull’Intelligenza Artificiale. Codesta, consiste nel primo accordo internazionale giuridicamente vincolante sull’Intelligenza Artificiale. È pienamente in linea con il Regolamento sull’IA, sopra analizzato, che fungerà, nell’Unione Europea, anche da strumento di attuazione di detta Convenzione.

Tale Convenzione prevede un approccio comune nel garantire che i sistemi di Intelligenza Artificiale siano compatibili con i diritti umani, la democrazia e lo Stato di diritto, ma che allo stesso tempo venga permessa l’innovazione e la fiducia. Le sue previsioni riprendono anche l’approccio seguito dall’Unione europea nel regolamento per l’IA, quali la trasparenza, gli obblighi documentali per i sistemi di IA ad “alto rischio” e la possibilità di introdurre divieti per quei sistemi di IA “considerati come una chiara minaccia per i diritti fondamentali”.

L’accordo, redatto anche con il contributo di 68 rappresentanti internazionali della società civile, del mondo accademico, dell’industria e di altre organizzazioni internazionali – persone che hanno garantito “un approccio globale e inclusivo” – è stato sottoscritto, oltre che dall’Unione Europea, anche da altri Stati membri del Consiglio d’Europa, oltreché dalla Santa Sede, dagli Stati Uniti, dal Canada, dal Messico, dal Giappone, dall’Israele, dall’Australia, dall’Argentina, dal Perù, dall’Uruguay e dal Costa Rica.

Con la firma della Convenzione, la Commissione preparerà una proposta di decisione del Consiglio relativa alla conclusione della Convenzione, che necessiterà dell’approvazione anche da parte del Parlamento europeo.

 

A cura di: Antonio Natale

Fonti

 

 

 

Consigliati

Chatting on EU

Proseguono gli eventi aperti al pubblico organizzati dal centro Europe...

Leggi
AbitiAmo Roma

“AbitiAmo Roma – Il futuro dell’abitare visto dalle nuove generazioni”...

Leggi