Legislatori della California approvano la legge sulla sicurezza dell’IA, ma Newsom può ancora porre il veto.
La Nuova Legge sulla Sicurezza dell’AI in California
La California ha recentemente approvato un’importante legge sulla sicurezza dell’intelligenza artificiale (AI), creando nuovi requisiti di trasparenza per le grandi aziende del settore. La legge, nota come SB 53, è stata approvata dal Senato statale nelle prime ore di sabato mattina, segnando un passo importante verso una maggiore responsabilità nell’uso dell’AI.
Dettagli sulla Legge SB 53
Secondo il suo autore, il senatore Scott Wiener, la legge SB 53 impone che i grandi laboratori di AI siano trasparenti riguardo ai loro protocolli di sicurezza. In aggiunta, prevede protezioni per i whistleblower, ovvero i dipendenti degli studi di AI, e crea un cloud pubblico chiamato CalCompute per ampliare l’accesso alla potenza di calcolo. Questa iniziativa è stata vista come necessaria per garantire la sicurezza e la fiducia del pubblico in una tecnologia in rapida evoluzione.
La Strada verso l’Approvazione
La legge deve ora essere firmata o respinta dal Governatore della California, Gavin Newsom. Sebbene non abbia ancora commentato pubblicamente su SB 53, nel 2022 ha respinto una proposta di legge più ampia sempre di Wiener, approvando invece una legislazione più ristretta che affrontava questioni come i deepfake. In quell’occasione, Newsom aveva riconosciuto l’importanza di “proteggere il pubblico dalle minacce reali poste da questa tecnologia”, ma aveva criticato il precedente progetto di legge per gli “standard severi” che richiedeva, non distingue tra modelli ad alto rischio e quelli che non lo erano.
Secondo Wiener, il nuovo progetto di legge è stato influenzato dalle raccomandazioni di un panel di esperti di AI convocato da Newsom dopo il suo diniego alla legge precedente.
Reazioni delle Aziende Tech
Diversi gruppi e aziende della Silicon Valley si sono opposti a questa nuova legge. OpenAI, pur non menzionando specificamente SB 53 in una lettera recente a Newsom, ha suggerito che per evitare “duplicazioni e incoerenze”, le aziende dovrebbero essere considerate conformi alle normative di sicurezza statali se rispettano gli standard federali o europei. Questo punto di vista evidenzia le tensioni esistenti tra le normative statali e quelle federali, che potrebbero creare confusione nel già complesso scenario normativo dell’industria tecnologica.
Anche il capo della politica AI e l’ufficiale legale di Andreessen Horowitz hanno dichiarato che molte delle attuali leggi statali sull’AI, come quelle proposte in California e New York, rischiano di violare i limiti costituzionali su come gli stati possono regolare il commercio interstatale. Questo dibattito si inserisce in un contesto più ampio in cui la regolazione tecnologica è stata un fattore chiave che ha portato i co-fondatori di a16z a sostenere Donald Trump per un secondo mandato. Durante la sua amministrazione, erano state avanzate richieste per un divieto di 10 anni sulla regolazione statale dell’AI.
Supporto per la Legge
A differenza delle critiche di alcune aziende, il co-fondatore di Anthropic, Jack Clark, ha espresso il suo sostegno per SB 53, affermando: “Abbiamo sempre detto che preferiremmo uno standard federale. Ma in assenza di quello, questa legge crea un solido piano per la governance dell’AI che non può essere ignorato.” Questo punto di vista pone l’accento sull’importanza di avere una struttura normativa, anche a livello statale, fino a quando non si raggiungano accordi federali.
Le aspettative sono ora altissime da parte degli operatori del settore, i cittadini e i politici, mentre tutti attendono la decisione di Newsom. La questione della sicurezza dell’AI è diventata cruciale in un’epoca in cui le tecnologie emergenti possono avere un impatto profondo sulle vite quotidiane, dal lavoro alla privacy personale.
Considerazioni Futura
Le prossime settimane saranno decisive per capire come SB 53 influenzerà il panorama dell’AI in California e oltre. La legge potrebbe fungere da modello per altre giurisdizioni, spingendo verso una maggiore trasparenza e responsabilità nel settore dell’intelligenza artificiale. La continua evoluzione della tecnologia richiede che legislatori, aziende e cittadini lavorino insieme per garantire che le innovazioni siano sviluppate e implementate in modo responsabile e etico.
Fonti ufficiali:
Non perderti tutte le notizie di tecnologia su Blog.it
