El Congreso de los Estados Unidos resolvió en las últimas horas uno de los puntos más controvertidos del llamado Gran y Hermoso Proyecto de Ley. Con 99 votos a favor y solo 1 en contra, el Senado optó por descartar la cláusula que proponía establecer una moratoria de 10 años para impedir que los estados regulen el desarrollo y uso de la inteligencia artificial. La decisión, que se tomó durante una sesión nocturna, se produjo pocos días antes de que la iniciativa llegue a la votación definitiva que definirá su futuro.
La propuesta original buscaba unificar criterios a nivel federal y evitar que cada estado aprobara sus propias normas sobre IA. Parte de la industria tecnológica se mostró de acuerdo con esa idea, al considerar que un sistema fragmentado provocaría costos elevados y complicaciones legales para las empresas. Sin embargo, el rechazo terminó imponiéndose de manera contundente, a partir del impulso de legisladores que expresaron reparos sobre la falta de regulaciones mínimas si tampoco existía un marco nacional robusto.
Sam Altman, de OpenAI, fue uno de los referentes del sector que reclamó un enfoque centralizado. Según Altman, la coexistencia de leyes estatales con criterios diferentes generará dificultades. "(Ese tipo de leyes estatales) nos retrasarán en un momento en el que no creo que a nadie le interese hacerlo", advirtió el empresario, que además pidió la creación de un marco único que sea "suave" con la innovación.
En la otra vereda se ubicó la senadora Marsha Blackburn, de Tennessee, quien lideró las gestiones para retirar la moratoria del proyecto. Para Blackburn, mantener la prohibición de regulación estatal abriría un vacío que las empresas aprovecharían sin controles. En un comunicado, la legisladora aseguró: "Si bien aprecio los esfuerzos del presidente Cruz por encontrar un lenguaje aceptable que permita a los estados proteger a sus ciudadanos de los abusos de la IA, el lenguaje actual no es aceptable para quienes más necesitan estas protecciones". Y agregó que la disposición podría habilitar a las grandes compañías tecnológicas a continuar explotando a niños, creadores y conservadores sin restricciones.
El vínculo con el fondo de infraestructura y el debate ético
Un aspecto menos visible del debate fue el intento de atar la moratoria de regulación a la asignación de un fondo de US$ 500 millones destinado a infraestructura. Esta maniobra buscaba condicionar el acceso a los recursos federales a cambio de que los estados renunciaran a legislar sobre inteligencia artificial. Sin embargo, la estrategia tampoco prosperó y terminó desechada junto con el resto de la cláusula.
La senadora Blackburn insistió en que la prioridad debía ser la protección de los datos personales y la seguridad de los menores frente a los usos indebidos de la tecnología. Entre los argumentos que más se repitieron figuró la necesidad de brindar herramientas para controlar el poder de las plataformas que concentran la producción y explotación de los sistemas de IA.
Mientras tanto, parte de la comunidad tecnológica mantuvo posturas ambiguas sobre el tema. Aunque en esta oportunidad no hubo un respaldo público contundente a la regulación estatal, en años anteriores personalidades como Elon Musk alertaron sobre la urgencia de desarrollar pautas éticas que permitan establecer límites claros. Musk planteó que la investigación responsable debía acompañar la expansión de estas tecnologías, que cambian con rapidez.
La eliminación de la moratoria regulatoria deja a los 50 estados con libertad para diseñar sus propias normas y mecanismos de control. Con este paso, cada jurisdicción podrá definir qué restricciones impondrá a las empresas y qué derechos garantizará a los usuarios. En ese escenario, se prevé que la discusión sobre el equilibrio entre innovación y seguridad cobre más fuerza, con un mapa legal mucho más diverso que el que pretendía el proyecto original.
Iniciativas estatales
Entonces, ¿qué tienen previsto los estados?
La respuesta parece ser: bastante.
De acuerdo con Inside Privacy, el blog de Covington & Burling LLP, los legisladores estatales analizan un número importante de proyectos vinculados con la inteligencia artificial. "Los legisladores estatales están considerando una amplia gama de leyes sobre IA, con cientos de proyectos de ley presentados en 2025", describieron los autores en un artículo reciente. Según detallaron, muchas de estas propuestas se agrupan en varios temas centrales.
Entre las principales categorías identificadas se encuentran:
- Normas generales de protección al consumidor
- Regulación específica sobre decisiones automatizadas
- Leyes que establecen controles sobre el uso de chatbots
- Obligaciones de transparencia en sistemas de IA generativa
- Requisitos sobre consumo energético y operación de centros de datos
- Proyectos modelo orientados a la seguridad pública en zonas limítrofes
Los especialistas aclararon que estas áreas reflejan una parte de la actividad legislativa y evidencian cuáles son las prioridades de muchas legislaturas estatales. Además, anticiparon que varias de estas iniciativas podrían transformarse en leyes en un plazo no tan lejano.
El Consejo de Gobiernos Estatales también reúne información sobre estas tendencias y publica informes periódicos que sirven para seguir de cerca los avances. La expectativa es que en los próximos meses se multipliquen las discusiones y los textos legislativos, en un escenario que algunos consideran complejo y desafiante, pero que muchos coinciden en que merece un análisis profundo.
Nota publicada por Forbes US