Stavo guardando questo e la prima cosa che mi è venuta in mente è che le regole riguardanti l'IA stanno cominciando a sembrare molto più reali ora.
Per un po', gran parte della conversazione è rimasta nello spazio familiare delle opinioni, degli avvertimenti e del discorso politico ampio. Ma una volta che le misure di sicurezza iniziano a influenzare chi può effettivamente vincere contratti statali, l'intera questione diventa più concreta. Non si tratta più solo di ciò che le aziende dicono che i loro modelli possano fare. Si tratta di ciò che possono dimostrare, quali rischi possono controllare e se le istituzioni pubbliche si sentano a loro agio nel fare affidamento su di esse.
Questa è la parte che mi ha colpito di più.
Perché questo inizia a spingere l'IA lontano da una storia di pura innovazione e più vicino a una storia di responsabilità. Le prestazioni contano ancora, ovviamente. Ma la fiducia, la documentazione, la sicurezza e le protezioni dei diritti civili iniziano a contare in modo più visibile quando sono coinvolti denaro pubblico e sistemi pubblici.
Per me, questo è il cambiamento più grande qui. Gli standard dell'IA smettono di sembrare teorici una volta che iniziano a plasmare decisioni reali. E una volta che ciò accade, le aziende con la struttura più forte sottostante potrebbero contare di più rispetto a quelle con le affermazioni più rumorose.
#Aİ #California #TechPolicy #Regulation #ArtificialIntelligence
