La conspiración de “la internet muerta” cobra fuerza con la irrupción de contenidos generados por la IA. Una preocupación que ha escalado hasta la cima de la industria tecnológica con la reciente advertencia de Sam Altman, director ejecutivo de OpenAI, la empresa detrás de desarrollos tan sofisticados como ChatGPT. La teoría, que sostiene que el contenido generado automáticamente por programas de Inteligencia Artificial superará al creado por humanos, deja de ser un mero rumor conspirativo para convertirse en una inquietud real ante los crecientes riesgos de manipulación, desinformación y el condicionamiento intencionado de conductas en línea.
Es un eco moderno de la aversión de Frankenstein ante su creación, un vértigo similar al que experimentó el personaje del Dr. Frankenstein en la obra de Mary Shelley de 1818. Altman, cuya compañía ha sido una de las principales impulsoras de la IA generativa, reconoció el pasado 15 de septiembre de 2025 (según publicaciones recientes) que la teoría ya no le parecía tan descabellada, señalando en X (antes Twitter) que «nunca me tomé tan en serio la teoría de la internet muerta, pero parece que ahora hay muchas cuentas de Twitter administradas por LLM».
El Origen de la Teoría y su Convergencia con la IA Generativa
La Teoría del Internet Muerto (Dead Internet Theory), en la que ahora el máximo responsable de OpenAI parece creer, es una hipótesis conspirativa que afirma que, desde aproximadamente 2016 o 2017, la mayor parte de Internet ha sido invadida y dominada por bots, deepfakes y contenido generado algorítmicamente por la IA, marginando la actividad humana auténtica. Aunque sus orígenes exactos son inciertos, se popularizó significativamente tras un hilo en el blog Agora Road’s Macintosh Cafe en enero de 2021, titulado “La teoría del Internet muerto: la mayor parte de Internet es falso”. Los defensores de esta teoría sugieren que esta proliferación robótica es intencional, impulsada por grandes corporaciones y agencias gubernamentales, con el fin de controlar la percepción pública y manipular a consumidores y usuarios.
La Invasión Bot y la Crisis de Autenticidad
El punto de inflexión donde la teoría conspirativa encuentra una base empírica es el alarmante aumento del tráfico no humano. Ya en 2021, un estudio de la empresa de seguridad Imperva (mencionado en el material de origen) calculaba que casi la mitad de todo el tráfico de Internet era realizado por bots. Esta cifra, que según otras fuentes para 2020 se situaba en un 40.8% del tráfico total, con un 25.6% correspondiente a bots maliciosos, subraya la velocidad con la que los programas automatizados han colonizado la web. La referencia específica de Altman a las redes sociales, principales fuentes de información para muchos, no es gratuita; la presencia de cuentas administradas por Modelos de Lenguaje de Gran Tamaño (LLM) crece, y con ello, la capacidad de influir en la opinión pública con desinformación, tal como lo señalaron los investigadores australianos Jake Renzella y Vlada Rozova. Esto plantea una profunda crisis de autenticidad: distinguir lo auténtico del «ruido» automatizado se convierte en un desafío de ingeniería social y tecnológica.
La Viralización Automática y la Paradoja de la Susceptibilidad
La capacidad de los sistemas de IA para generar contenido de manera autónoma y, lo que es crucial, para imitar los patrones de difusión masiva y viral, multiplica los riesgos. Estudios recientes, como el publicado en Physical Review Letters por investigadores de la Universidad de Vermont y el Instituto Santa Fe, revelan que la información, bromas o enfermedades se propagan y «mutan» a medida que se distribuyen, ganando fuerza mediante «cascadas de autorrefuerzo». Estos hallazgos sugieren que la IA no solo puede crear narrativas, sino que también puede optimizar su difusión siguiendo un modelo matemático de viralidad casi imparable, comparable a los fuegos de sexta generación.
Además, la IA recopila datos de interacción para influir de forma personal y efectiva, llevando al concepto de la “Paradoja de la susceptibilidad”. Esta investigación, presentada en el simposio de seguridad USENIX, revela que los amigos de un usuario son, en promedio, más influenciables que el propio titular de la cuenta, un patrón que explica cómo se popularizan las tendencias. Saber cómo se comportan los amigos es suficiente, en muchos casos, para estimar el comportamiento de un usuario, creando una mina de oro para la viralización automática a partir de los datos personales. La influencia social, por tanto, está siendo moldeada y limitada por la propia estructura de la red, facilitando que los bots identifiquen y exploten los rincones más vulnerables de Internet.

Hacia un Internet Ético: La Responsabilidad como Eje Central
Ante la creciente amenaza de un Internet «muerto» y manipulado, la solución no es únicamente normativa, sino que exige una redefinición de la relación entre la tecnología y la ética. Aaron Harris, director global de tecnología (CTO) en Sage, es categórico: «El problema no es necesariamente si el contenido proviene de un humano o de la IA, sino si alguien se responsabiliza de él».
Los Mandamientos Éticos de la IA Avanzada
La búsqueda de un marco ético ha llevado a la formulación de principios rectores. El exhaustivo trabajo de Google Deepmind, La ética de los asistentes avanzados de IA, desarrolla un conjunto de «mandamientos» inspirados en las leyes de Asimov, buscando garantizar que la IA funcione de manera segura y beneficiosa para la sociedad. Estos principios se resumen en tres pilares fundamentales para evitar una IA ajena a los principios morales:
- No Manipulación: La IA no manipulará al usuario para favorecer los intereses de sus desarrolladores ni generará un coste social (como la desinformación).
- No Dominación Social: No permitirá que el usuario o los desarrolladores apliquen estrategias negativas para la sociedad (dominación, condicionamiento o descrédito institucional).
- Libertad del Usuario: No limitará indebidamente la libertad de acción o elección del usuario.
Este enfoque exige una relación tetraédrica entre el asistente de IA, el usuario, el desarrollador y la sociedad, donde la transparencia y la responsabilidad se conviertan en principios innegociables para el diseño y la regulación de la Inteligencia Artificial. Harris subraya que la solución no pasa por restringir los avances, sino por lograr que los resultados sean auditables y explicables, asegurando que la IA mejore la capacidad humana, en lugar de sustituirla, manteniendo las necesidades de las personas en el centro de la ecuación para recuperar un «internet humano» y fiable. La advertencia de Sam Altman, una figura central en el auge de la IA, pone la fecha de septiembre de 2025 como un momento crucial en el que la preocupación por el control algorítmico de la información ha pasado de la periferia a la corriente principal del debate tecnológico global.

