A senadora Cynthia Lummis apresentou o Responsible Innovation and Safe Expertise (RISE) Act para proteger os desenvolvedores de IA de responsabilidade civil.
De acordo com Lummis, o projeto de lei, se aprovado, obrigaria legalmente os profissionais a usar ferramentas de IA a realizar a devida diligência e validar os resultados da tecnologia.
Em um post no X na quinta-feira, o senador republicano comentou:
"Hoje, apresentei o RISE Act de 2025 — legislação para proteger a inovação, capacitar profissionais e trazer verdadeira transparência para poderosos sistemas de IA."
~ Senadora Cynthia Lummis
O RISE Act de Lummis exigiria que os desenvolvedores divulgassem as especificações do modelo de IA.
Em uma série de posts no X, Lummis argumentou que a inteligência artificial está progredindo rapidamente e agora é utilizada em múltiplas áreas, incluindo medicina, direito e finanças. No entanto, os desenvolvedores ainda carecem de clareza sobre quem permanece responsável quando essas ferramentas de IA são usadas.
Na sua visão, as leis de responsabilidade atuais colocam os desenvolvedores em risco, mesmo quando profissionais licenciados usam as ferramentas de forma responsável e dentro de sua especialização. No entanto, Lummis afirmou que seu projeto de lei mudaria isso e protegeria os desenvolvedores de IA que atendem aos padrões de transparência e documentação.
Em um comunicado à imprensa, Lummis esclareceu que o RISE Act não oferece "imunidade geral" para a IA; em vez disso, exigirá que os desenvolvedores revelem as especificações do modelo, permitindo que os profissionais tomem decisões informadas sobre as ferramentas que utilizam. Isso significa que os profissionais licenciados são, em última análise, responsáveis pelos conselhos e decisões que tomam.
Se o projeto de lei for aprovado, os desenvolvedores devem divulgar como a IA foi treinada e testada, suas forças e limitações, e os prompts e restrições que orientam seu comportamento. Portanto, se um profissional licenciado usar uma ferramenta de IA com uma compreensão clara de suas capacidades e surgir um problema, o desenvolvedor estaria protegido de uma ação civil — desde que atendesse suas obrigações e agisse de forma responsável.
O senador republicano afirmou que os desenvolvedores devem ser transparentes e os profissionais devem tomar decisões sensatas, e se ambas as partes cumprirem suas obrigações, a inovação não deve ser punida quando erros ocorrem.
A Câmara dos Representantes aprovou uma moratória de 10 anos sobre os estados aplicando suas próprias leis.
A Câmara dos Representantes recentemente aprovou o projeto de lei de impostos e gastos, incluindo uma moratória de 10 anos sobre os estados aplicando suas leis de inteligência artificial. O projeto ainda está sob consideração no Senado, mas se os legisladores o aprovarem, os estados dos EUA não poderão implementar suas próprias regulamentações de IA.
Antes que o projeto de lei fosse aprovado na Câmara, o representante David Joyce, de Ohio, havia pressionado pela lei, argumentando que havia vários projetos de lei sobre IA, variando em definições, requisitos e mecanismos de aplicação, introduzidos desde janeiro, despertando incertezas. No entanto, ele esperava que isso pudesse abrir caminho para um quadro nacional de IA para fornecer mais clareza para a indústria.
Ele observou: "Esta lei é um exemplo claro de direcionar um dano específico com uma lei cuidadosamente elaborada para preencher uma lacuna que foi identificada na legislação existente."
No entanto, alguns democratas se opuseram à moratória, dizendo que seria uma doação para os gigantes da tecnologia. A representante Lori Trahan, por exemplo, afirmou que, embora um mosaico de diferentes leis estaduais possa ser caótico, a moratória ainda não é uma boa política, pois impediria os estados de tomarem ações rápidas quando necessário.
Em 4 de junho, o presidente da Câmara, Mike Johnson, defendeu a moratória quando a representante Marjorie Taylor Greene ameaçou votar contra o pacote devido à inclusão da disposição.
Greene acreditava que a moratória infringiria os direitos dos estados, acrescentando que não estava ciente de sua inclusão no projeto de lei. Sua resistência poderia facilmente comprometer a aprovação final do projeto, já que ele passou na Câmara por apenas um voto extra.
Johnson argumentou que gosta do projeto de lei em seu estado atual e que ter 50 estados diferentes regulando a IA teria sérias implicações para a segurança nacional.
Suas notícias de criptomoedas merecem atenção - KEY Difference Wire coloca você em mais de 250 sites principais.