Intelligenza Artificiale: Italia chiede maggior controllo per i sistemi ad alto rischio

Intelligenza Artificiale: Italia chiede maggior controllo per i sistemi ad alto rischio

Intelligenza Artificiale: Italia chiede maggior controllo per i sistemi ad alto rischio

Il Comitato italiano Data Governance e AI Committee, sostenuto da SPES Academy, propone strumenti concreti per garantire il controllo umano sui sistemi di intelligenza artificiale. Composto da esperti e rappresentanti istituzionali, il gruppo si concentra sull’Art. 14 dell’AI Act europeo, evidenziando la necessità di mantenere il potere decisionale umano rispetto all’AI ad alto rischio. Per questo, si delineano cinque pilastri fondamentali: spiegabilità, progettazione, formazione, controllo e proporzionalità. È essenziale sviluppare competenze sull’AI Literacy, orientando la tecnologia verso una governance che promuova responsabilità e trasparenza, assicurando che l’individuo rimanga al centro delle decisioni.

Strumenti per un Controllo Umano nell’Intelligenza Artificiale

ROMA (ITALPRESS) – È essenziale sviluppare strumenti pratici che consentano agli esseri umani di intervenire, comprendere e fermare i sistemi di intelligenza artificiale quando necessario. Questo è il messaggio del Comitato italiano Data Governance e AI Committee, promosso da SPES Academy. Il comitato riunisce istituzioni, imprese e accademici impegnati nell’attuazione dell’AI Act europeo in Italia. Tra i membri ci sono figure di spicco come Bruno Frattasi, Mario Nobile e Guido Scorza, che si concentrano sul tema dell’Art. 14, evidenziando l’importanza del mantenimento del potere decisionale umano riguardo a sistemi di AI ad alto rischio.

Gli esperti propongono un’impostazione nazionale basata su cinque elementi chiave: spiegabilità utile, progettazione by design, formazione multidisciplinare, controllo effettivo e proporzionalità. Questi principi mirano a garantire che l’intelligenza artificiale resti sotto il controllo umano, specialmente in processi automatizzati che possano avere impatti significativi sulla vita e sui diritti delle persone. È fondamentale, dunque, implementare una strategia nazionale di formazione sull’AI Literacy per funzionari pubblici e manager d’impresa, in modo da fornire a tutti le competenze necessarie per gestire i processi automatizzati.

L’AI Act sottolinea l’importanza del controllo umano come un presupposto costituzionale, evidenziando la necessità di prevedere uno spazio di intervento umano anche nell’automazione più avanzata. Oreste Pollicino, Coordinatore del Comitato, enfatizza che il principio del controllo umano deve diventare parte integrante della pratica quotidiana, necessitando di competenze, responsabilità e una governance efficace. Solo così l’Italia potrà interpretare l’AI come un’opportunità piuttosto che come una minaccia.

Valerio De Luca, Presidente del Comitato, ribadisce l’urgenza di creare un modello di governance che rimetta l’essere umano al centro delle decisioni. Le proposte formulate offrono una base concreta per una Costituzione digitale italiana, coerente con il contesto europeo, ma capace di mettere l’individuo al primo posto, promuovendo responsabilità, trasparenza e sicurezza come elementi di competitività e democrazia.

Garantire il Controllo Umano sull’Intelligenza Artificiale in Italia

ROMA (ITALPRESS) – L’obiettivo del Comitato italiano Data Governance e AI Committee, promosso da SPES Academy, è quello di sviluppare strumenti pratici che consentano all’essenza umana di intervenire, comprendere e, se necessario, bloccare i sistemi di intelligenza artificiale. Questo gruppo, che include figure come Bruno Frattasi, Direttore Generale dell’Agenzia per la Cybersicurezza Nazionale, e Mario Nobile, Direttore dell’Agenzia per l’Italia Digitale, si dedica a rendere operativo l’AI Act europeo sul territorio nazionale. Un aspetto chiave riguarda l’Art. 14, che tratta della necessità di garantire il potere decisionale umano su sistemi di AI ad alto rischio.

Per affrontare tale questione, gli esperti propongono un impianto nazionale strutturato su cinque pilastri: spiegabilità, approccio progettuale by design, formazione multidisciplinare, controllo effettivo e proporzionalità. Questi principi sono fondamentali per assicurare che l’uso delle macchine avvenga sempre sotto la supervisione umana, in particolare nei processi automatizzati che potrebbero avere un impatto significativo sui diritti e sulla dignità degli individui. È essenziale implementare una strategia nazionale di formazione sulla AI Literacy, specialmente per funzionari pubblici e manager, al fine di sviluppare competenze interdisciplinari necessarie a mantenere il controllo umano sui sistemi automatizzati.

Oreste Pollicino, Coordinatore del Comitato, sottolinea che l’AI Act sottintende che il controllo umano non sia solo un accorgimento tecnico, ma un principio costituzionale imprescindibile. Anche nei contesti di automazione avanzata, deve essere garantito uno spazio per l’intervento umano. Tradurre questo principio in pratica richiede competenze adeguate, accountability e un’architettura di governance che non ostacoli l’innovazione ma la guidi. La vera sfida è trasformare la regolazione in opportunità, ponendo la tecnologia come strumento di democrazia.

Valerio De Luca, Presidente del Comitato e Fondatore della SPES Academy, afferma che l’intelligenza artificiale non deve diventare un potere oscuro. È necessario sviluppare un modello di governance che rimetta l’essere umano al centro della decisione. Le proposte avanzate pongono solide basi per formulare una digitale Costituzione italiana, che sia allineata con il contesto europeo e che valorizzi la responsabilità, la trasparenza e la sicurezza come leve di competitività e democrazia, sempre ponendo l’individuo al primo posto.

(ITALPRESS).

Non perderti tutte le notizie di tecnologia su Blog.it

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *