La senadora Cynthia Lummis presentó el Acta de Innovación Responsable y Expertise Segura (RISE) para proteger a los desarrolladores de IA de la responsabilidad civil.

Según Lummis, el proyecto de ley, si se aprueba, obligaría legalmente a los profesionales que utilizan herramientas de IA a realizar la debida diligencia y validar los resultados de la tecnología.

En una publicación de X el jueves, el senador republicano comentó:

“Hoy, presenté el Acta RISE de 2025 — legislación para proteger la innovación, empoderar a los profesionales y traer verdadera transparencia a los poderosos sistemas de IA.”

~ Senadora Cynthia Lummis

El Acta RISE de Lummis requeriría que los desarrolladores divulguen las especificaciones del modelo de IA.

En una serie de publicaciones en X, Lummis argumentó que la inteligencia artificial está progresando rápidamente y ahora se utiliza en múltiples campos, incluyendo medicina, derecho y finanzas. Sin embargo, los desarrolladores aún carecen de claridad sobre quién sigue siendo responsable cuando se utilizan estas herramientas de IA.

En su opinión, las leyes de responsabilidad actuales ponen a los desarrolladores en riesgo, incluso cuando los profesionales con licencia utilizan las herramientas de manera responsable y dentro de su campo de experiencia. Sin embargo, Lummis afirmó que su proyecto de ley cambiaría eso y protegería a los desarrolladores de IA que cumplan con los estándares de transparencia y documentación.

En un comunicado de prensa, Lummis aclaró que el Acta RISE no ofrece “inmunidad general” para la IA, sino que requerirá que los desarrolladores revelen las especificaciones del modelo, permitiendo a los profesionales tomar decisiones informadas sobre las herramientas que utilizan. Eso significa que los profesionales con licencia son, en última instancia, responsables de los consejos y decisiones que toman.

Si el proyecto de ley se aprueba, los desarrolladores deberán revelar cómo se entrenó y probó la IA, sus fortalezas y limitaciones, y los parámetros y restricciones que guían su comportamiento. Por lo tanto, si un profesional con licencia utiliza una herramienta de IA con una comprensión clara de sus capacidades y surge un problema, el desarrollador estaría protegido de una demanda civil, siempre que cumplieran con sus obligaciones y actuaran de manera responsable.

La senadora republicana mantuvo que los desarrolladores deben ser transparentes y los profesionales tomar decisiones fundamentadas, y si ambas partes cumplen con sus obligaciones, la innovación no debería ser castigada cuando ocurren errores.

La Cámara de Representantes aprobó un moratorio de 10 años sobre la aplicación de sus propias leyes por parte de los estados.

La Cámara de Representantes aprobó recientemente el proyecto de ley de impuestos y gastos, que incluye un moratorio de 10 años sobre la aplicación de sus leyes de inteligencia artificial por parte de los estados. El proyecto de ley aún está bajo consideración en el Senado, pero si los legisladores lo aprueban, los estados de EE. UU. no podrán implementar sus regulaciones individuales de IA.

Antes de que el proyecto de ley se aprobara en la Cámara, el representante David Joyce de Ohio había presionado para que se aprobara la ley, argumentando que desde enero se habían introducido múltiples proyectos de ley de IA que variaban en definiciones, requisitos y mecanismos de aplicación, lo que generó incertidumbre. Sin embargo, esperaba que pudiera abrir el camino para un marco nacional de IA que proporcione más claridad para la industria.

Él comentó: “Esta ley es un ejemplo principal de cómo abordar un daño específico con una ley ajustada para llenar un vacío que se ha identificado en la ley existente.”

Sin embargo, algunos demócratas se opusieron al moratorio, diciendo que sería un regalo para los gigantes tecnológicos. La representante Lori Trahan, por ejemplo, afirmó que, aunque un mosaico de diferentes leyes estatales puede ser caótico, el moratorio aún no es una buena política ya que obstaculizaría a los estados de tomar acciones rápidas cuando sea necesario.

El 4 de junio, el presidente de la Cámara, Mike Johnson, defendió el moratorio cuando la representante Marjorie Taylor Greene amenazó con votar en contra del paquete debido a la inclusión de la disposición.

Greene creía que el moratorio infringiría los derechos de los estados, añadiendo que no estaba al tanto de su inclusión en el proyecto de ley. Su resistencia podría poner fácilmente en peligro la aprobación final del proyecto de ley, dado que pasó en la Cámara por solo un voto extra.

Johnson argumentó que le gusta el proyecto de ley en su estado actual y que tener 50 estados diferentes regulando la IA tendría serias implicaciones para la seguridad nacional.

Tus noticias sobre cripto merecen atención - KEY Difference Wire te coloca en más de 250 sitios principales.