
En las últimas semanas de 2025, la disputa sobre cómo regular la inteligencia artificial en EE UU alcanzó su punto más crítico. El 11 de diciembre, después de que el Congreso fracasara por segunda vez en su intento de aprobar una ley que prohibiera a los estados legislar sobre IA, el presidente Donald Trump firmó una amplia orden ejecutiva destinada a limitar la capacidad de los estados para regular un sector en plena expansión. En su lugar, prometió trabajar con el Congreso para crear una política nacional de IA “lo menos restrictiva posible”, diseñada para situar a EE UU en posición de dominar la carrera global por esta tecnología. La medida supuso una victoria parcial para los gigantes tecnológicos, que han estado reuniendo fondos multimillonarios para oponerse a las regulaciones sobre la IA, argumentando que un mosaico de leyes estatales frenaría la innovación.
En 2026, el escenario principal del conflicto será el judicial. Aunque algunos estados podrían dar marcha atrás en sus planes de legislar la IA, otros seguirán adelante, impulsados por la creciente presión social para proteger a los menores de los chatbots y contener el avance de unos centros de datos voraces en consumo energético. Al mismo tiempo, los super PACs rivales financiados por magnates tecnológicos y por defensores de la seguridad en IA invertirán decenas de millones en campañas electorales para el Congreso y los parlamentos estatales, con el objetivo de situar en el poder a legisladores afines a sus visiones opuestas sobre cómo debe regularse la IA.
La orden ejecutiva de Trump instruye al Departamento de Justicia a crear un grupo especial encargado de demandar a los estados cuyas leyes sobre la IA choquen con su apuesta por una regulación de intervención mínima. Además, ordena al Departamento de Comercio que prive a los estados de fondos federales para banda ancha si sus leyes sobre IA se consideran “excesivas”. En la práctica, la medida podría dirigirse contra un puñado de normas aprobadas en estados gobernados por demócratas, explica James Grimmelmann, profesor de Derecho en Cornell Law School. “La orden ejecutiva se utilizará para impugnar un número reducido de disposiciones, relacionadas principalmente con la transparencia y el sesgo en la IA, que suelen ser cuestiones más liberales”, afirma Grimmelmann.
Por ahora, muchos estados no están cediendo. El 19 de diciembre, la gobernadora de Nueva York, Kathy Hochul, firmó la Responsible AI Safety and Education Act, conocida como RAISE, una ley pionera que obliga a las compañías de inteligencia artificial a publicar los protocolos empleados para garantizar el desarrollo seguro de sus modelos y a notificar incidentes críticos de seguridad. El 1 de enero, California estrenó la primera ley del país centrada en la seguridad de la IA avanzada, la SB 53 (en la que se inspiró la RAISE), destinada a evitar daños catastróficos, como la creación de armas biológicas o ciberataques. Aunque ambas leyes se suavizaron con respecto a versiones anteriores para sobrevivir a la intensa presión ejercida por la industria, lograron un compromiso poco habitual, aunque frágil, entre los gigantes tecnológicos y los defensores de la seguridad de la IA.
Si Trump decide atacar estas leyes fruto de arduas negociaciones, estados demócratas como California y Nueva York probablemente llevarán la batalla a los tribunales. Estados republicanos como Florida, donde existen voces influyentes a favor de regular la IA, podrían seguir su ejemplo. Trump podría enfrentarse a una dura batalla. “La administración Trump se está esforzando al máximo con algunos de sus intentos de adelantarse eficazmente [a la legislación] mediante medidas ejecutivas”, afirma Margot Kaminski, profesora de Derecho en la University of Colorado Law School. “Se mueve sobre hielo muy fino”.
Pero los estados republicanos que quieran evitar llamar la atención de Trump o que no puedan permitirse perder los fondos federales para ampliar la banda ancha en sus vastas zonas rurales podrían dar marcha atrás a la hora de aprobar o aplicar leyes sobre inteligencia artificial. Con independencia de lo que ocurra en los tribunales, el clima de caos e incertidumbre puede enfriar cualquier impulso legislativo. De forma paradójica, los estados demócratas a los que Trump pretende controlar (armados con con presupuestos abultados y reforzados por la imagen de enfrentarse a la Administración) pueden ser los menos dispuestos a ceder.
Ante la ausencia de leyes estatales, Trump promete impulsar con el Congreso una política federal sobre IA. Pero un Congreso polarizado y bloqueado no aprobará ninguna ley este año. En julio, el Senado enterró una moratoria sobre leyes estatales de IA que se había incluido en un proyecto fiscal y, en noviembre, la Cámara de Representantes descartó un nuevo intento a través de una ley de defensa. De hecho, el intento de Trump de presionar al Congreso mediante una orden ejecutiva podría acabar por enfriar cualquier expectativa de acuerdo bipartidista.
La orden ejecutiva “ha dificultado la aprobación de una política responsable sobre IA al endurecer muchas posiciones, convirtiéndola en un asunto mucho más partidista”, señala Brad Carson, excongresista demócrata de Oklahoma que está impulsando una red de super PACs en apoyo a candidatos favorables a regular la IA. “Endureció a los demócratas y abrió brechas profundas entre los republicanos”, afirma.
Mientras los llamados accelerationists del entorno de Trump (entre ellos David Sacks, responsable de IA y criptomonedas) defienden la desregulación, figuras del ala populista del movimiento MAGA, como Steve Bannon, alertan sobre una posible superinteligencia fuera de control y sobre un desempleo masivo. En respuesta a la orden ejecutiva, varios fiscales generales republicanos firmaron una carta bipartidista instando a la FCC a no invalidar las leyes estatales sobre IA.
A medida que crece la preocupación en EE UU por cómo la inteligencia artificial podría perjudicar la salud mental, el empleo y el medioambiente, crece la demanda pública de regulación. Si el Congreso continúa paralizado, los estados serán los únicos que actuarán para mantener bajo control la industria de la IA. En 2025, los legisladores estatales presentaron más de 1.000 proyectos de ley relacionados con la IA, y cerca de 40 estados aprobaron más de un centenar de normas, según la National Conference of State Legislatures.
Los esfuerzos por proteger a los menores de los chatbots podrían convertirse en uno de los pocos puntos de consenso. El 7 de enero, Google y Character Technologies (la empresa creadora del chatbot Character.AI) resolvieron varias demandas presentadas por familias de adolescentes que se suicidaron tras interactuar con el bot. Apenas un día después, el fiscal general de Kentucky demandó a Character Technologies, alegando que sus chatbots inducían a menores al suicidio y a otras formas de autolesión. OpenAI y Meta afrontan una oleada similar de litigios. Y todo apunta a que este año se acumularán más. Sin leyes sobre IA en vigor, queda por ver cómo se aplican las leyes de responsabilidad por productos defectuosos y las doctrinas de libertad de expresión a estos nuevos peligros. “Es una incógnita qué harán los tribunales”, señala Grimmelmann.
Mientras avanzan los litigios, los estados se moverán para aprobar leyes de protección infantil, que están exentas de la prohibición de legislar sobre IA que plantea Trump. El 9 de enero, OpenAI firmó un acuerdo con un antiguo adversario, el grupo defensor de la seguridad infantil Common Sense Media, para respaldar una iniciativa electoral en California llamada Parents & Kids Safe AI Act, que establece límites sobre cómo interactúan los chatbots con los menores. La medida propone exigir a las compañías de IA que verifiquen la edad de los usuarios, ofrezcan controles parentales y se sometan a auditorías independientes de seguridad infantil. Si sale adelante, podría servir de modelo para los estados que buscan poner coto a los chatbots en todo el país.
Impulsados por el creciente rechazo social hacia los centros de datos, los estados también intentarán regular los recursos necesarios para alimentar la inteligencia artificial. Esto incluye propuestas que obliguen a los centros de datos a informar sobre su consumo de energía y agua, además de asumir íntegramente sus facturas eléctricas. Si la IA empieza a sustituir empleos a gran escala, los sindicatos podrían plantear prohibiciones de su uso en determinadas profesiones. Algunos estados, preocupados por los riesgos catastróficos asociados a la IA, podrían aprobar leyes de seguridad inspiradas en la SB 53 y en la RAISE Act.
Mientras tanto, los gigantes tecnológicos seguirán usando su capacidad financiera para frenar cualquier intento de regulación. Leading the Future, un super PAC respaldado por Greg Brockman, presidente de OpenAI, y la firma de capital riesgo Andreessen Horowitz, buscará llevar al Congreso y a las legislaturas estatales a candidatos partidarios de un desarrollo de la IA sin restricciones. Seguirán el manual de la industria criptográfica para elegir aliados y redactar las reglas. Como contrapeso, los super PACs financiados por Public First (una organización dirigida por Carson y el excongresista republicano Chris Stewart, de Utah) respaldarán a aspirantes que defienden la necesidad de regular la IA. Incluso es posible que veamos a un puñado de candidatos presentarse con programas populistas contrarios a la IA.
En 2026, el lento y enrevesado engranaje de la democracia estadounidense seguirá avanzando. Y las normas que se aprueben en las capitales estatales podrían decidir cómo se desarrolla la tecnología más disruptiva de nuestra generación mucho más allá de las fronteras de Estados Unidos durante los próximos años.





