L’evento ha visto la presenza di numerose personalità di spicco del mondo istituzionale e accademico. La prima parte dell’incontro è stata dedicata ai saluti istituzionali da parte dei coordinatori del Centro Europe Direct Prof. Avv. Raffaele Torino e Prof.ssa Teresa Maria Moschetta (che ha anche assunto il ruolo di moderatrice dell’incontro), del Vicario del Direttore del D.I.C.I.T.A. Prof. Michele La Rocca, del Consigliere dell’Ordine degli Ingegneri della Provincia di Roma Ing. Paolo Reale e del Responsabile delle relazioni pubbliche in Italia del Parlamento Europeo, Dott. Fabrizio Spada. In particolare, il dott. Spada ha ricordato che il Parlamento europeo è stato il primo al mondo ad aver emesso un regolamento molto innovativo in materia di Intelligenza Artificiale che si spera possa regolare questa nuova tecnologia, concludendo che è necessario prevedere la direzione che prenderà.
La seconda parte dell’incontro ha visto gli interventi dei relatori. Il primo che ha preso la parola è stato il Dott. Vittorio Calaprice, analista politico presso la Commissione Europea, cha ricordato l’accordo raggiunto il 9 dicembre (dopo 36 ore di negoziato tra rappresentanti del Parlamento Europeo, del Consiglio dell’Unione Europea e della Commissione europea) che però non si è formalizzato in un testo, bensì in un comunicato del Consiglio e in un aggiornamento delle questions and answers della Commissione. Ha affermato che sono state stabilite quattro categorie di rischio derivante dall’utilizzo dell’Intelligenza Artificiale a seconda dei diversi usi effettuati (in particolare: 1) rischio basso; 2) rischi limitati; 3) alto rischio; 4) rischio inaccettabile) e che la Commissione ha scelto la strada della normazione in quanto con questa è possibile porre delle misure di salvaguardia, rendendo l’UE alla stregua di altri attori mondiali come l’ONU, l’OCSE ed il G7. Ha fatto presente che comunque l’IA non può attribuire un voto ai cittadini e controllarli, e che, insieme ai computer quantistici, crea nuove tecnologie, le quali devono essere a favore dell’uomo. Il dott. Calaprice evidenzia, a tal proposito, che è importante aver individuato un punto di equilibrio tra innovazione e normazione.
La seconda relatrice è stata la Prof.ssa Anita Larissa Sciacovelli, docente di Diritto Internazionale presso l’Università degli Studi di Bari Aldo Moro. Ha fatto presente che la guerra in Ucraina ha visto un suo avvio prima nel cyberspazio e poi nell’applicazione fisica. Fa presente che quanto sopra testimonia il fatto che, nel passato, il concetto di difesa era legato ai confini terrestri, oggi, invece, si esplica anche nel cyberspazio, che rappresenta il quinto spazio di dominio, oltre che quello terrestre, marittimo, aereo e atmosferico. Riguardo Israele, che il 9 ottobre si è svegliata sotto attacco, ha fatto presente che la cibernetica non è intervenuta anteriormente in quanto i sensori, probabilmente, sono stati hackerati.
Sciacovelli ha affermato che il problema della sicurezza cibernetica è prodromico al rispetto dei diritti, dello sviluppo e della tutela dei diritti umani, facendo presente la necessità di applicare degli istituti giuridici del mondo militare su quello cibernetico-virtuale.
La terza relatrice è stata l’Ing. Paola Rocco, Presidente della Commissione Sicurezza Informatica Ordine degli Ingegneri della Provincia di Roma. Ha affermato che il termine Intelligenza Artificiale coinvolge tutte le macchine computazionali che hanno anche ruoli caratteristici nei comportamenti umani, in quanto possono fornire un valido supporto di analisi e di controllo predittivo.
Rocco ha dichiarato, inoltre, che il mercato dell’Intelligenza Artificiale e della cybersecurity sarà in crescita negli anni, anche se trattasi di tecnologie costose, che però sono molto importanti in quanto possono fornire un importante contributo.
Riguardo l’aspetto degli attacchi informatici, la Presidente ha affermato che questi si svolgono in tempi molto rapidi: pertanto, a suo avviso, va ritenuto di grande rilevanza avere a disposizione tutta una serie di strumenti, tra cui un database comportamentale che possa dare un supporto (per es. i rilevamenti fatti in tempo reale, tutte quelle tecnologie che grazie ad un modello aperto possano dire agli altri cosa si sta verificando). I cyber attacchi sono molto complessi e molto difficili da riconoscere in tempo reale; pertanto, tutto quello che è predittivo e adattativo di una situazione può contrastare gli attacchi informatici.
L’Ing. Rocco conclude il suo intervento facendo presente che l’Intelligenza Artificiale può essere molto utile per il rilevamento delle minacce degli attacchi informatici.
Il quarto relatore è stato il Prof. Avv. Ranieri Razzante, Comitato per la strategia dell’intelligenza artificiale presso la Presidenza del Consiglio e docente di Cybercrime e Homeland Security presso l’Università di Perugia, che ha subito ricordato la definizione di attacco informatico: “operazione informatica di natura offensiva o difensiva che sia ragionevolmente prevedibile e che cagioni lesioni o morte alle persone o danni e distruzioni a oggetti”. Ha fatto presente che un esempio di attacco informatico mortale può essere rappresentato nella sanità: basti pensare alle apparecchiature con le quali si sta facendo un intervento chirurgico, che, se attaccati i relativi sistemi, si possono verificare dei danni gravi al paziente che sta per essere operato.
Ma, il Docente, ha tenuto ad evidenziare un problema cardine: l’attribuzione di questi attacchi, quindi l’individuazione del soggetto di diritto.
Secondo Razzante, sarebbero individuabili tre fasi per l’attribuzione di un attacco cyber: la prima, fase tecnica, dove si individua la strumentazione utilizzata, la seconda, fase politica, dove viene rintracciato il soggetto, la terza ed ultima, fase giuridica, dove viene imputata la responsabilità, dimostrando il nesso di causalità, ed applicata la sanzione.
Altra domanda che il relatore si è posto era se sia possibile o meno effettuare un contrattacco: riguardo i privati, vi è la necessità di individuare la posizione del soggetto al momento in cui ha commesso l’attacco e di conseguenza applicare il Codice penale. Ma se l’attacco fosse di matrice statale, sarebbe necessario valutare se ricorra il diritto di autodifesa sancito nell’art. 51 Carta delle Nazioni Unite (diritto autodifesa), deve essere un attacco che lede l’interesse dello Stato.
Razzante afferma inoltre che, a livello di legislatore europeo, il Reg. (UE) 796/2019 limita il transito nel territorio europeo dei cyberterroristi individuati e che l’Italia, con il d.l. 9 agosto 2022 “Aiuti”, ha deciso di fare un passaggio legislativo, prevedendo che il Presidente del Consiglio e l’Autorità delegata di intelligence possano dare un ordine di contrattaccare queste postazioni. Il relatore tiene comunque a sottolineare che è necessaria un’azione preventiva.
In conclusione, Ranieri Razzante afferma che, a suo avviso, l’Intelligenza Artificiale diventa soggetto di diritto nel momento in cui viene utilizzata, e pertanto occorre fare va una fictio iuris: è necessario fare finta che questo strumento tecnologico sia un soggetto vero e proprio e, pertanto, deve essere regolamentato. Non è possibile, secondo il Docente, paragonare l’Intelligenza Artificiale come un’arma, ma è necessario regolamentarla come tale.
Il quinto relatore è stato il Prof. Stefano Panzieri, Ordinario di Automatica presso il D.I.C.I.T.A. dell’Università degli Studi Roma Tre, che ha trattato la vulnerabilità cyber delle smart city. Da uno spunto di un pensiero di Oscar Wilde, ha affermato che “L’Intelligenza Artificiale si può solo amare e non comprendere” in virtù del fatto che ci si trova “di fronte ad un oggetto che ha una sua complessità” e, pertanto, la regolamentazione rappresenta un atto proprio dovuto e non un’opzione.
In particolare, il Docente afferma che l’IA non presenta solamente problemi da un punto di vista etico, ma anche di sopravvivenza: fa l’esempio del fatto che vengono controllati edifici con sistemi di cui non si sa di che cosa sono fatti. Riferendosi all’ambito europeo, Panzieri sancisce che in questo si possono mettere i valori di dove si vive, ma non appena si verifichi una sola falla, divengono inefficaci.
Il sesto ed ultimo relatore è stato il Prof. Ing. Fabio Pompei, giornalista. Ha incominciato il suo discorso facendo presente il grande valore che rappresentano i dati per chi li rivende, concetto che la rete ha amplificato.
Ha fatto riferimento alle attività degli algoritmi volti a studiare le preferenze dei consumatori.
Pompei si è riferito anche al programma di pubblicità di Google, valutandolo come molto evoluto, in quanto adatta la stessa sui siti terzi ai visitatori. Secondo l’Ingegnere, quest’ultima caratteristica rappresenta un mix importantissimo. Il relatore ha evidenziato anche che è cambiato il modo di fare pubblicità, in quanto la potenza della rete oggi è raccogliere dati e utilizzare algoritmi per proporre prodotti e servizi a chi è interessato.
Fabio Pompei conclude il suo discorso facendo presente che tutte queste attività di trattamento dei dati personali sono accettate dai consumatori nelle condizioni contrattuali, evidenziando che queste sono caratterizzate da una lunghezza anche di quindici schermate, che per leggerle occorrerebbero due mesi e mezzo.
Al termine dell’intervento dell’Ing. Pompei, è seguito il momento delle domande da parte del pubblico, guidato dai coordinatori del Centro Europe Direct.
A cura di: Antonio Natale
Fonti22
Foto di Gerd Altmann da Pixabay (https://pixabay.com/it/illustrations/intelligenza-artificiale-cervello-3382507/)