A lei de responsabilidade civil não costuma ser um ótimo assunto para conversas em festas, mas pode ter um impacto imenso na forma como tecnologias emergentes como a inteligência artificial evoluem.

Se mal elaboradas, as regras de responsabilidade podem criar barreiras para inovações futuras, expondo empreendedores — neste caso, desenvolvedores de IA — a riscos legais desnecessários. Ou assim argumenta a senadora dos EUA, Cynthia Lummis, que na semana passada apresentou o Ato de Inovação Responsável e Expertise Segura (RISE) de 2025.

Este projeto de lei busca proteger os desenvolvedores de IA de serem processados em um tribunal civil para que médicos, advogados, engenheiros e outros profissionais “possam entender o que a IA pode e não pode fazer antes de confiar nela.”

As reações iniciais ao Ato RISE de fontes contatadas pelo Cointelegraph foram em sua maioria positivas, embora alguns tenham criticado o escopo limitado do projeto de lei, suas deficiências em relação aos padrões de transparência e questionaram a oferta de um escudo de responsabilidade para desenvolvedores de IA.

A maioria caracterizou o RISE como um trabalho em andamento, não um documento finalizado.

O Ato RISE é um “favor” para os desenvolvedores de IA?

De acordo com Hamid Ekbia, professor da Escola Maxwell de Cidadania e Assuntos Públicos da Universidade de Syracuse, o projeto de lei de Lummis é “oportuno e necessário.” (Lummis o chamou de “a primeira legislação de reforma de responsabilidade direcionada para IA de nível profissional” do país.)

Mas o projeto de lei inclina o equilíbrio muito a favor dos desenvolvedores de IA, disse Ekbia ao Cointelegraph. O Ato RISE exige que eles divulguem publicamente as especificações dos modelos para que os profissionais possam tomar decisões informadas sobre as ferramentas de IA que escolhem utilizar, mas:

“Isso coloca a maior parte do ônus do risco em ‘profissionais experientes’, exigindo dos desenvolvedores apenas ‘transparência’ na forma de especificações técnicas — cartões de modelo e especificações — e proporcionando a eles ampla imunidade de outra forma.”

Não surpreendentemente, alguns foram rápidos em criticar o projeto de lei de Lummis como um ‘favor’ para as empresas de IA. O Democratic Underground, que se descreve como uma “comunidade política à esquerda do centro”, observou em um de seus fóruns que “as empresas de IA não querem ser processadas por falhas em suas ferramentas, e este projeto de lei, se aprovado, conseguirá isso.”

Nem todos concordam. “Eu não iria tão longe a ponto de chamar o projeto de lei de um ‘favor’ para as empresas de IA,” disse Felix Shipkevich, sócio da Shipkevich Attorneys at Law, ao Cointelegraph.

A disposição de imunidade proposta no Ato RISE parece ter como objetivo proteger os desenvolvedores de responsabilidade estrita pelo comportamento imprevisível de grandes modelos de linguagem, explicou Shipkevich, particularmente quando não há negligência ou intenção de causar dano. Do ponto de vista legal, essa é uma abordagem racional. Ele acrescentou:

“Sem alguma forma de proteção, os desenvolvedores podem enfrentar uma exposição ilimitada por resultados que não têm uma maneira prática de controlar.”

O escopo da legislação proposta é bastante restrito. Ele se concentra em grande parte em cenários nos quais profissionais estão usando ferramentas de IA enquanto lidam com seus clientes ou pacientes. Um consultor financeiro poderia usar uma ferramenta de IA para ajudar a desenvolver uma estratégia de investimento para um investidor, por exemplo, ou um radiologista poderia usar um programa de software de IA para ajudar a interpretar uma radiografia.

O Ato RISE realmente não aborda casos em que não há intermediário profissional entre o desenvolvedor de IA e o usuário final, como quando chatbots são usados como companheiros digitais para menores.

Um caso de responsabilidade civil surgiu recentemente na Flórida, onde um adolescente cometeu suicídio após se envolver por meses com um chatbot de IA. A família do falecido disse que o software foi projetado de uma maneira que não era razoavelmente segura para menores. “Quem deve ser responsabilizado pela perda de vida?” perguntou Ekbia. Esses casos não são abordados na legislação proposta pelo Senado.

“Há uma necessidade de padrões claros e unificados para que usuários, desenvolvedores e todas as partes interessadas entendam as regras do caminho e suas obrigações legais,” disse Ryan Abbott, professor de direito e ciências da saúde na Faculdade de Direito da Universidade de Surrey, ao Cointelegraph.

Mas é difícil porque a IA pode criar novos tipos de danos potenciais, dada a complexidade, opacidade e autonomia da tecnologia. A área da saúde será particularmente desafiadora em termos de responsabilidade civil, de acordo com Abbott, que possui diplomas em medicina e direito.

Por exemplo, os médicos historicamente superaram o software de IA em diagnósticos médicos, mas mais recentemente, evidências estão surgindo de que em certas áreas da prática médica, um humano no processo “na verdade alcança resultados piores do que deixar a IA fazer todo o trabalho,” explicou Abbott. “Isso levanta todos os tipos de questões interessantes sobre responsabilidade.”

Quem pagará a compensação se um erro médico grave for cometido quando um médico não estiver mais envolvido? O seguro de responsabilidade profissional cobrirá isso? Talvez não.

O AI Futures Project, uma organização de pesquisa sem fins lucrativos, endossou provisoriamente o projeto de lei (foi consultada enquanto o projeto de lei estava sendo elaborado). Mas o diretor executivo Daniel Kokotajlo disse que as divulgações de transparência exigidas dos desenvolvedores de IA não são suficientes.

“O público merece saber quais metas, valores, agendas, preconceitos, instruções, etc., as empresas estão tentando dar a sistemas de IA poderosos.” Este projeto de lei não exige tal transparência e, portanto, não vai longe o suficiente, disse Kokotajlo.

Além disso, “as empresas sempre podem optar por aceitar a responsabilidade em vez de serem transparentes, então, sempre que uma empresa quiser fazer algo que o público ou os reguladores não gostariam, ela pode simplesmente optar por não fazer,” disse Kokotajlo.

A abordagem ‘baseada em direitos’ da UE

Como o Ato RISE se compara às disposições de responsabilidade na Lei de IA da UE de 2023, a primeira regulamentação abrangente sobre IA por um grande regulador?

A posição da UE sobre responsabilidade em IA tem estado em fluxo. Uma diretiva de responsabilidade em IA da UE foi concebida pela primeira vez em 2022, mas foi retirada em fevereiro de 2025, alguns dizem que como resultado de lobby da indústria de IA.

Ainda assim, a legislação da UE geralmente adota uma estrutura baseada em direitos humanos. Como observado em um recente artigo da UCLA Law Review, uma abordagem baseada em direitos “enfatiza o empoderamento dos indivíduos,” especialmente dos usuários finais, como pacientes, consumidores ou clientes.

Uma abordagem baseada em riscos, como a do projeto de lei de Lummis, por outro lado, constrói sobre processos, documentação e ferramentas de avaliação. Ela se concentraria mais na detecção e mitigação de preconceitos, por exemplo, em vez de fornecer direitos concretos às pessoas afetadas.

Quando o Cointelegraph perguntou a Kokotajlo se uma abordagem de responsabilidade civil “baseada em riscos” ou “baseada em regras” era mais apropriada para os EUA, ele respondeu: “Acho que o foco deve ser baseado em riscos e voltado para aqueles que criam e implantam a tecnologia.”

A UE adota uma abordagem mais proativa para tais questões de forma geral, acrescentou Shipkevich. “Suas leis exigem que os desenvolvedores de IA demonstrem desde o início que estão seguindo regras de segurança e transparência.”

Padrões claros são necessários

O projeto de lei de Lummis provavelmente exigirá algumas modificações antes de ser sancionado (se é que será).

“Vejo o Ato RISE de maneira positiva, desde que essa legislação proposta seja vista como um ponto de partida,” disse Shipkevich. “É razoável, afinal, fornecer alguma proteção aos desenvolvedores que não estão agindo de forma negligente e não têm controle sobre como seus modelos são usados a montante.” Ele acrescentou:

“Se este projeto de lei evoluir para incluir requisitos reais de transparência e obrigações de gerenciamento de riscos, ele poderá estabelecer as bases para uma abordagem equilibrada.”

De acordo com Justin Bullock, vice-presidente de políticas da Americans for Responsible Innovation (ARI), “O Ato RISE apresenta algumas ideias fortes, incluindo orientações federais de transparência, um porto seguro com escopo limitado e regras claras sobre responsabilidade para adotantes profissionais de IA,” embora a ARI não tenha endossado a legislação.

Mas Bullock também tinha preocupações sobre transparência e divulgações — ou seja, garantir que as avaliações de transparência exigidas sejam eficazes. Ele disse ao Cointelegraph:

“Publicar cartões de modelo sem auditorias de terceiros robustas e avaliações de risco pode dar uma falsa sensação de segurança.”

Ainda assim, no geral, o projeto de lei de Lummis “é um primeiro passo construtivo na conversa sobre como devem ser os requisitos federais de transparência em IA,” disse Bullock.

Supondo que a legislação seja aprovada e sancionada, ela entraria em vigor em 1º de dezembro de 2025.

Revista: A luta invisível do Bitcoin entre os advogados e os cypherpunks