El riesgo oculto de la IA no se esconde en una película de ciencia ficción, sino en la centralización de un poder sin precedentes en manos de un puñado de gigantes tecnológicos. La Inteligencia Artificial, que se presenta como la solución a casi todos los problemas, está redefiniendo las reglas del juego en sectores clave como la salud, la educación, la justicia y la seguridad. Y, lo que es más importante, la dinámica actual del mercado, basada en la premisa de «más talento, más poder», solo está acelerando esta tendencia. Nos enfrentamos a un escenario en el que la innovación y el desarrollo de la IA están cada vez más monopolizados, con empresas como Microsoft, Google, Meta y Amazon a la cabeza, marcando el ritmo y decidiendo el futuro.
La narrativa de que «más IA equivale a menos problemas» no es una conclusión natural, sino un discurso cuidadosamente construido e impulsado por aquellos que controlan la infraestructura: los datos, las nubes, los chips, el talento y, por supuesto, el capital. Esta concentración es el resultado de décadas de desregulación y políticas que han confundido la eficiencia con la justicia. Si no cuestionamos esta dinámica, estamos delegando el diseño de herramientas públicas y el destino de nuestra sociedad a las juntas directivas de corporaciones privadas. La pregunta clave no es si la IA es buena o mala, sino quién la controla y con qué reglas.
El control de la IA ya es una realidad cotidiana
Los efectos de esta centralización ya se sienten en nuestro día a día. Plataformas automatizadas evalúan solicitudes, priorizan riesgos o filtran el acceso a ayudas sociales, operando con algoritmos opacos de los que no podemos apelar. Estamos normalizando decisiones automatizadas sin una rendición de cuentas clara, y ese es el verdadero riesgo que a menudo pasamos por alto. La promesa de la IA suena grandiosa en los titulares, pero la «letra pequeña» tiene un impacto directo y tangible en nuestras vidas.
Otro punto crucial es el paradigma que guía el desarrollo de la IA, que equipara «más grande» con «más inteligente». Este enfoque requiere una inversión masiva de recursos, lo que solo un puñado de empresas puede permitirse. Esto ahoga las alternativas y obliga a proyectos que nacieron con una visión diferente, como OpenAI o Anthropic, a atarse a la infraestructura y los cheques de las grandes corporaciones. Incluso la investigación académica se ve afectada, ya que su financiación se alinea cada vez más con las agendas comerciales de estas empresas. En lugar de una IA diversa y descentralizada, avanzamos hacia un oligopolio tecnológico que decide por nosotros.
El impacto de la IA en el trabajo y la democracia
La creciente influencia de la IA en el ámbito laboral es innegable. La automatización permite realizar más tareas en menos tiempo, pero a menudo a costa de la autonomía del trabajador. Profesionales como docentes, abogados o periodistas se ven obligados a trabajar dentro de flujos donde las herramientas dictan el ritmo y las métricas, mientras aumenta la vigilancia sobre su «productividad». En lugar de eliminar empleos de golpe, la automatización está precarizando el trabajo y haciéndonos dependientes de servicios web que no controlamos.
En el sector público, la IA ya clasifica solicitudes y distribuye recursos. A diferencia de un dispositivo que podemos apagar, aquí no hay un botón de salida. Si un modelo te etiqueta como «riesgo alto» en un expediente, no puedes ver los criterios ni corregir el error. La exclusión y la opacidad se convierten en problemas sistémicos, ya que los ciudadanos no pueden intervenir ni entender el sistema que los regula.
El alto coste y los riesgos sistémicos de la centralización
El modelo de negocio de muchas empresas de IA no es tan sólido como parece, quemando efectivo y dependiendo de subsidios y contratos de defensa. Los modelos actuales, a pesar de su sofisticación, aún «alucinan» datos, arrastran sesgos y necesitan una constante supervisión humana. Implementarlos en sectores críticos como la sanidad o la justicia sin la debida supervisión añade riesgos sistémicos.
El coste ambiental es un elefante en la habitación. Entrenar y servir modelos gigantes consume enormes cantidades de electricidad y agua. Según la Agencia Internacional de la Energía, en su informe de 2024, se estima que los centros de datos podrían consumir entre 620 y 1.050 TWh para 2026. Este salto monumental choca de frente con cualquier plan serio de sostenibilidad, un coste que al final pagamos todos.
Frente a estas críticas, la respuesta suele ser una cortina de humo mediática. Presentaciones grandilocuentes y promesas de una «IA general» llenan los titulares, desviando la atención del verdadero problema: la falta de gobernanza democrática sobre cómo se diseña y usa la IA. La retórica apocalíptica sobre superinteligencias futuras es un espectáculo que nos distrae del problema central de hoy.

Alternativas para una IA al servicio del bien común
Afortunadamente, existe un movimiento creciente que busca construir una alternativa más equitativa. En Europa, los debates sobre soberanía tecnológica y las demandas antimonopolio están ganando terreno. Las propuestas para crear infraestructuras digitales públicas y auditables, que implican la creación de centros de computación pública y consorciada, repositorios de datos con gobernanza ciudadana y modelos abiertos, son clave para cambiar esta dinámica. También se discute la necesidad de cambiar las reglas del juego: establecer límites de energía por servicio, exigir la trazabilidad de los datasets y obligar a realizar auditorías externas para sistemas de alto impacto. Los derechos laborales también deben adaptarse para que la «asistencia» de la IA no sea una excusa para reducir salarios o aumentar la vigilancia.
La Inteligencia Artificial no es un destino inevitable, sino una construcción política. Para que sirva al bien común, no basta con usar bien una aplicación; es necesario disputar el diseño, abrir las «cajas negras» de los algoritmos y recuperar el control democrático sobre los datos, el hardware y las reglas. Si observamos que los reguladores frenan compras y exclusividades en la nube, que los contratos públicos exigen auditorías y que se establecen límites de consumo energético en los centros de datos, sabremos que estamos avanzando en la dirección correcta. Este es el camino para que la historia de la Inteligencia Artificial que usamos cada día, y la que usaremos mañana, empiece a cambiar.