Genitori chiedono al governatore di New York di firmare storica legge sulla sicurezza dell’AI.
Genitori chiedono a Hochul di firmare il RAISE Act sul Sicurezza dell’AI
Un gruppo di oltre 150 genitori ha inviato una lettera venerdì al governatore di New York, Kathy Hochul, esortandola a firmare il Responsible AI Safety and Education (RAISE) Act. Questo progetto di legge, molto discusso, richiede agli sviluppatori di modelli di intelligenza artificiale di grande volume — come Meta, OpenAI, DeepSeek e Google — di creare piani di sicurezza e di seguire criteri di trasparenza nel reporting degli incidenti di sicurezza.
Il RAISE Act ha già ottenuto l’approvazione sia dal Senato che dall’Assemblea dello Stato di New York nel mese di giugno. Nelle scorse settimane, però, Hochul avrebbe proposto una riscrittura quasi totale del testo, rendendolo più favorevole alle aziende tecnologiche, similmente a quanto accaduto con alcune modifiche al SB 53 della California dopo l’intervento di grandi aziende del settore.
Le posizioni contrapposte nel dibattito sull’AI
I colossi dell’intelligenza artificiale si sono opposti in modo deciso alla legislazione. L’AI Alliance, che include membri come Meta, IBM, Intel, Oracle, Snowflake, Uber, AMD, Databricks e Hugging Face, ha inviato a giugno una lettera ai legislatori di New York esprimendo la propria “profonda preoccupazione” riguardo al RAISE Act, definendolo “inattendibile”. Inoltre, il super PAC pro-IA “Leading the Future”, sostenuto da Perplexity AI, Andreessen Horowitz (a16z), Greg Brockman di OpenAI e Joe Lonsdale, co-fondatore di Palantir, sta facendo campagna contro il deputato Alex Bores, co-sostenitore del RAISE Act.
Nella lettera inviata a Hochul, le organizzazioni ParentsTogether Action e il Tech Oversight Project hanno dichiarato che alcuni dei firmatari avevano “perso figli a causa dei danni provocati dai chatbot AI e dai social media”. I firmatari del documento hanno descritto il RAISE Act, nella sua attuale formulazione, come “barriere minime” che devono diventare legge.
I genitori hanno anche sottolineato che il progetto di legge, così come approvato dalla legislatura dello Stato di New York, “non regola tutti gli sviluppatori di AI – solo le aziende più grandi, quelle che spendono centinaia di milioni di dollari all’anno”. Le aziende coinvolte sarebbero obbligate a segnalare incidenti di sicurezza di grande entità all’ufficio del procuratore generale e a pubblicare piani di sicurezza. Inoltre, gli sviluppatori non potrebbero rilasciare un modello frontiera “se ciò comporterebbe un rischio irragionevole di danno critico”, definito come la morte o lesioni gravi di 100 persone o più, oppure danni superiori a un miliardo di dollari a diritti in denaro o proprietà derivanti dalla creazione di un’arma chimica, biologica, radiologica o nucleare; o da un modello di AI che “opera senza un intervento umano significativo” e che “commetterebbe, se fatto da un umano,” crimini specifici.
“L’opposizione delle big tech, con i loro fondi profondamente radicati, a queste protezioni di base è un modello che ci appare familiare, avendo già assistito a simili schemi di evasione,” afferma la lettera. “I danni diffusi ai giovani — inclusi quelli alla loro salute mentale, stabilità emotiva e capacità di funzionare a scuola — sono stati ampiamente documentati da quando le grandi aziende tecnologiche hanno deciso di spingere piattaforme sociali algoritmiche senza trasparenza, controllo o responsabilità.”
Queste preoccupazioni si uniscono a un dibattito più ampio sulla regolamentazione delle tecnologie emergenti e sul loro impatto sulla società. Le conseguenze dell’uso sconsiderato dell’intelligenza artificiale e dei social media hanno già avuto effetti devastanti su molti giovani in tutto il mondo.
Per ulteriori informazioni sulle posizioni proposte dal RAISE Act e sul dibattito pubblico che ne deriva, i lettori possono consultare fonti ufficiali come New York State Legislature e Tech Oversight Project.
