Meta y Google, Posturas Diferentes ante el Código en IA de la UE
Inicio » Blog » Meta y Google, Posturas Diferentes ante el Código en IA de la UE

El código de buenas prácticas de la UE para IA se ha convertido en el epicentro de un debate crucial sobre el futuro de la Inteligencia Artificial. Mientras gigantes tecnológicos como Google han decidido firmar este marco voluntario, Meta se niega a firmar el código de buenas prácticas de IA en la Unión Europea, marcando una fractura significativa en la industria. Esta decisión de Meta no es un mero desacuerdo; expone una profunda tensión entre la visión regulatoria de Bruselas y la perspectiva de Silicon Valley sobre cómo deben regirse los avances tecnológicos.

La Comisión Europea publicó este documento el 10 de julio de 2025, con el objetivo de servir como una guía para que las empresas comiencen a cumplir de forma anticipada con la AI Act, la regulación más ambiciosa hasta la fecha. Sin embargo, la postura de Meta, comunicada por su jefe de asuntos globales, Joel Kaplan, es que este marco introduce «incertidumbres legales» y va «mucho más allá del alcance del AI Act», advirtiendo que podría asfixiar la innovación en el continente.

¿Qué Propone el Código de Buenas Prácticas y el AI Act?

El Código de Buenas Prácticas, aunque voluntario, establece una serie de obligaciones para los desarrolladores de modelos de Inteligencia Artificial de Propósito General (GPAI). Estas medidas buscan mitigar los riesgos sistémicos de la IA y asegurar un desarrollo responsable.

Requisitos y Obligaciones Prácticas para Desarrolladores

Las empresas que firmen el código, como Google, se comprometen a una mayor transparencia y cumplimiento. En la práctica, esto implica:

  • Transparencia de datos: Detallar la información utilizada para entrenar los modelos, ofreciendo un nivel de transparencia sin precedentes.
  • Cumplimiento de copyright: Respetar las leyes de derechos de autor europeas, prohibiendo expresamente el entrenamiento con contenido pirateado y atendiendo las solicitudes de exclusión de los titulares.
  • Evaluaciones de riesgo: Implementar evaluaciones de riesgo para modelos que superen umbrales específicos de capacidad computacional, como los 1023 FLOPs, y establecer protocolos de monitoreo continuo.

Por otro lado, la AI Act, cuya entrada en vigor para los modelos de IA de riesgo sistémico comienza el 2 de agosto de 2025, clasifica las aplicaciones de IA en función de su nivel de riesgo. Algunas, como el «scoring social» o la manipulación conductual, están directamente prohibidas. Las de «alto riesgo», como la biometría o el uso en decisiones laborales, tendrán requisitos de cumplimiento mucho más estrictos.

La Postura de Google frente a la de Meta: Dos Caminos Opuestos

La decisión de Google de sumarse al código contrasta notablemente con la de Meta. Aunque Google tiene reservas sobre la carga regulatoria del AI Act, considera la última versión del código «más razonable» y ha optado por colaborar. Esta postura se alinea con la de otras grandes empresas del sector como Microsoft, OpenAI y Mistral AI, que buscan una vía colaborativa y de diálogo con la recién creada Oficina de Inteligencia Artificial de la UE.

Diferencias Clave en el Enfoque

La posición de Meta es radicalmente distinta. La compañía de Mark Zuckerberg argumenta que la regulación excesiva de la UE podría frenar la innovación y perjudicar a las empresas locales que construyen servicios sobre modelos avanzados. Para Kaplan, la UE está tomando el «rumbo equivocado» en la regulación de la IA, lo que podría crear una desventaja competitiva frente a otras regiones.

La disputa entre Meta y la UE subraya un debate más amplio: ¿es la regulación un freno necesario para un desarrollo seguro y ético de la IA, o es una traba burocrática que impide a las empresas europeas competir en la carrera tecnológica global? Este choque de visiones pone en relieve la grieta transatlántica, donde Europa prioriza la protección de los derechos fundamentales y la seguridad, mientras Estados Unidos aboga por la agilidad comercial.

Este escenario, con la entrada en vigor de la AI Act a la vuelta de la esquina, obliga a las grandes tecnológicas a adaptarse a un nuevo entorno normativo. Las empresas que, como Google, optan por la colaboración, se comprometen a un camino de cumplimiento y transparencia que podría beneficiar a los usuarios europeos con mayor control y protección. En cambio, la postura de Meta plantea preguntas sobre cómo la IA continuará evolucionando en un contexto de regulación fragmentada, y si su negativa podría marcar el inicio de una batalla legal más amplia entre Silicon Valley y Bruselas.