Dos de las empresas tecnológicas más poderosas tomaron caminos bien distintos respecto a la regulación de la inteligencia artificial en Europa. OpenAI se sumó al Código de Prácticas voluntario de la Unión Europea para la IA de Propósito General. Apoyó la iniciativa y se mostró a favor de una gobernanza compartida. Meta, en cambio, se bajó del acuerdo y cuestionó públicamente la postura del bloque.
Esa diferencia refleja los modelos de negocio de cada una, su nivel de tolerancia al riesgo y las apuestas que hacen a largo plazo sobre cómo se regulará la IA tanto en Europa como en Estados Unidos.
El experimento voluntario de Europa con la supervisión de la IA
El Código de Prácticas que presentó la UE el 10 de julio funciona como una guía opcional para orientar el desarrollo y uso de modelos de IA de propósito general. Lo armaron en conjunto los reguladores y las empresas del sector. Busca fomentar la transparencia, el intercambio de información y ciertas prácticas comunes para manejar riesgos y evaluar sistemas.
La idea es que las empresas publiquen resúmenes de los datos con los que entrenan sus modelos, eviten usar material con derechos de autor sin permiso e implementen sistemas internos para controlar riesgos. A cambio, las que se sumen recibirán menos exigencias administrativas y mayor certeza jurídica.
El mensaje es claro: quien se suma entra en la lista de las "buenas", con menos chances de enfrentar un escrutinio más duro. Rechazar el código no implica violar ninguna norma, pero sí marca una posición.
Hasta ahora, pocas compañías se comprometieron con el código. Entre ellas están Mistral —la firma que Francia considera su campeón nacional de IA—, OpenAI y Microsoft.
La regulación de la IA que impulsa la Unión Europea recibió fuertes presiones por parte de los líderes de la industria del continente. En una carta abierta, pidieron a la Comisión Europea que suspenda durante dos años algunas de las obligaciones más importantes que plantea la Ley de IA.
Un informe de Tech Policy Press expuso cómo empresas estadounidenses, entre ellas Google y Meta, también se movieron para frenar o suavizar la aplicación de la norma. Alegaron que cumplir con esas exigencias podría perjudicar la innovación.
Joel Kaplan, presidente de asuntos globales de Meta, cuestionó con dureza la postura del bloque: "esta extralimitación frenará el desarrollo y la implementación de modelos de IA de vanguardia en Europa y obstaculizará a las empresas europeas que buscan desarrollar negocios sobre ellos".
OpenAI: el cumplimiento normativo como parte de su crecimiento en Europa
El respaldo de OpenAI al código europeo forma parte de una estrategia más amplia. La empresa busca mostrarse como un actor responsable y dispuesto a colaborar en la regulación global de la inteligencia artificial.
Ben Rosen, director de política de IA en OpenAI, dijo que se trató de un "gran momento tanto para la UE como para la industria".
La decisión llegó justo cuando OpenAI acelera su expansión internacional y amplía su presencia comercial en Europa. Con varios países de la Unión como mercados clave, sumarse al código fortalece su credibilidad y apoya su crecimiento en la región.
Más allá de una señal de buena voluntad hacia los reguladores, se trata de una jugada estratégica para integrarse a la infraestructura económica y digital europea. OpenAI planea abrir centros de datos, impulsar la formación en inteligencia artificial, trabajar con gobiernos, financiar startups con fondos nacionales y fomentar el uso de sus sistemas en distintos sectores.
La decisión de OpenAI de firmar el código de prácticas de la Unión Europea va en línea con su objetivo de posicionarse como líder en el desarrollo responsable de inteligencia artificial.
Desde sus inicios, la empresa mantuvo una postura activa en temas de transparencia y seguridad. Publicó fichas técnicas, liberó datos de evaluación y permitió que especialistas externos pusieran a prueba sus modelos. También fue de las primeras en sumarse a protocolos globales de seguridad, como la Declaración de Bletchley y el Marco de Seúl.
Estas acciones no responden solo a una cuestión ética. Son parte de una estrategia para influir en el diseño de las reglas del sector y mostrar su voluntad de cumplir con las nuevas exigencias.
Al alinearse con los reguladores europeos, OpenAI refuerza su legitimidad. Ese respaldo institucional puede resultarle clave frente al aumento de la preocupación por los riesgos que presentan los modelos más avanzados.
El estatuto de la empresa establece que debe evitar usos de la inteligencia artificial que puedan dañar a la humanidad o concentrar el poder de forma excesiva. El código de prácticas le da un espacio concreto para mostrar en público que sigue ese principio.
Meta: resistencia al cambio de estrategia en IA
Meta se negó a firmar el código de conducta propuesto por la Unión Europea, en línea con su postura crítica frente a lo que interpreta como una regulación excesiva que, según la empresa, frena la innovación.
Esta decisión se da en medio de múltiples litigios que mantiene en territorio europeo, con frentes abiertos en temas como la privacidad de datos y la implementación de la Ley de Servicios Digitales y la Ley de Mercados Digitales.
En los últimos meses, la tensión regulatoria sumó un componente geopolítico. El gobierno de Estados Unidos empezó a incluir este tema en negociaciones comerciales, lo que indica que la regulación sobre inteligencia artificial ya forma parte del tira y afloje por los aranceles.
Ante ese escenario, Meta pidió apoyo a Washington y le reclamó al presidente: "Defienda a las empresas e innovadores estadounidenses de IA de la extorsión extranjera y de multas, sanciones, investigaciones y medidas de control punitivas".
La negativa de Meta a firmar el código europeo se da en medio de un giro estratégico, luego de quedar rezagada en la carrera por los modelos de inteligencia artificial. El lanzamiento de su familia Llama 4 no tuvo el impacto esperado, lo que obligó a la empresa a redoblar sus apuestas para recuperar terreno.
Meta puso en marcha una inversión agresiva y destinó US$ 14.300 millones a Scale AI. Como parte del acuerdo, incorporó a su fundador, Alexandr Wang, quien ahora lidera un nuevo laboratorio de investigación sobre superinteligencia. El objetivo es desarrollar sistemas de IA capaces de superar la inteligencia humana.
Además, el director ejecutivo, Mark Zuckerberg, anticipó que planea destinar cientos de miles de millones de dólares a infraestructura informática para avanzar en ese mismo camino.
Dos modelos, dos mensajes para los reguladores de la IA
OpenAI y Meta están enviando señales muy distintas a los reguladores, tanto en Europa como en Estados Unidos. Cada una refleja una apuesta diferente sobre cómo influir en el rumbo que tomará la regulación de la inteligencia artificial.
OpenAI confía en que colaborar desde el principio y mostrar cierta transparencia le permitirá ganarse un lugar en la mesa donde se escriben las normas. Su estrategia busca evitar una regulación más dura en el futuro. Meta, en cambio, eligió confrontar públicamente y así marcar límites a lo que los gobiernos pueden exigir, sobre todo en lo que respecta al desarrollo de modelos de código abierto.
Esa diferencia de posturas abre una discusión clave: ¿conviene aceptar las reglas, con todo lo que implica en términos de normas y exigencias de cumplimiento, o es preferible mantener la flexibilidad y asumir el riesgo de quedar bajo mayor vigilancia?
Las estrategias también responden a sus modelos de negocio. OpenAI, que ahora opera con fines de lucro limitados y mantiene vínculos estrechos con Microsoft, necesita proyectar una imagen responsable para atraer a clientes corporativos y evitar cuestionamientos por el desarrollo de modelos avanzados.
Meta, en cambio, sigue apoyada en su negocio publicitario y en plataformas orientadas al consumidor. Desde ese lugar, se presenta como defensora de la innovación abierta, en sintonía con desarrolladores e investigadores que desconfían de una IA sujeta a regulaciones rígidas y control centralizado.
Esta diferencia de estrategias podría terminar marcando el rumbo de la regulación global de la inteligencia artificial. Los marcos voluntarios, como el código de prácticas de la Unión Europea, funcionan como terreno de prueba para medir cuánta transparencia ofrecen los modelos y cómo las empresas logran influir en las normas que después los alcanzarán.
En ese contexto, las decisiones que toman OpenAI y Meta anticipan las disputas regulatorias que se vienen.
Nota publicada en Forbes US.