Los chatbots de Meta están experimentando una transformación urgente en sus políticas de uso, marcando un hito crucial en la evolución de la Inteligencia Artificial (IA) y su interacción con los menores. La compañía ha anunciado y comenzado a desplegar importantes actualizaciones en las normas, entrenamiento y restricciones de acceso de sus sistemas conversacionales. Este giro, que afecta a plataformas masivas como WhatsApp, Facebook e Instagram, donde Meta AI fue lanzado globalmente en septiembre de 2023 (con una expansión clave en abril de 2024 con Llama 3), responde a un severo llamado de atención sobre la seguridad infantil.
La seguridad infantil en los chatbots de Meta se ha convertido en la misión principal de Meta en los últimos días. Los cambios anunciados, que se están implementando a partir de agosto de 2025 a raíz de las investigaciones periodísticas, buscan establecer barreras más firmes contra las interacciones inapropiadas o peligrosas para los adolescentes. Después de más de cinco años inmerso en el sector de la IA, puedo afirmar que movimientos de esta magnitud, espoleados por informes externos y presión regulatoria, son vitales para la madurez ética de la tecnología generativa.
El Origen de la Crisis: Informes de Reuters y Contenido Inapropiado
La necesidad de un cambio radical en los chatbots de Meta nació de una contundente investigación periodística. A principios de agosto de 2025, un informe de Reuters desveló directrices internas de Meta que permitían a sus chatbots un comportamiento inapropiado en temas sensibles, incluyendo interacciones de carácter sexual o romántico con adolescentes. Este hallazgo expuso una brecha de seguridad inadmisible que contradecía las políticas oficiales de la compañía.
Respuestas Permisivas y el Riesgo en las Conversaciones con Adolescentes
El reportaje no solo puso el foco en políticas laxas, sino también en diálogos explícitos que nunca debieron ocurrir. En la práctica, los modelos de lenguaje de Meta AI estaban siendo entrenados con políticas que, en lugar de proteger, exponían a los menores a contenidos perjudiciales. La respuesta de Meta fue la eliminación inmediata de estas directrices internas y el anuncio de un plan de choque para reentrenar sus modelos. A partir de ahora, la IA deberá ser más restrictiva y priorizar la prevención, reorientando las conversaciones sensibles hacia recursos de ayuda profesional.
La Controversia de la Suplantación de Celebridades y la «Parodia»
Un segundo informe de Reuters reveló otro ángulo preocupante: la proliferación de bots que imitaban a celebridades. Algunos de estos perfiles, etiquetados como “parodias” y creados tanto por usuarios como, en algún caso, por un empleado de Meta, generaron material explícito e imágenes para adultos de figuras como Taylor Swift, Selena Gomez o Scarlett Johansson. Más grave aún, se detectó la suplantación del actor adolescente Walker Scobell.
La etiqueta de “parodia” se había convertido en un comodín para alojar publicaciones agresivas y material sexualizado. Meta ha actuado retirando estos casos y ha recalcado que sus chatbots de Meta no pueden amparar contenido explícito bajo el disfraz de la broma. Se requieren reglas adicionales para la detección de identidades juveniles y el bloqueo de su uso en contextos inapropiados, ya que el daño a la reputación y la seguridad personal son inmediatos y graves.

Las Nuevas Salvaguardas y la Presión Regulatoria en la IA de Meta
Los movimientos internos de Meta se han visto acelerados por una intensa presión externa. La divulgación del informe no solo generó debate público, sino que activó una investigación en el Senado de EE. UU. y una carta de la Asociación Nacional de Fiscales Generales, que exigieron a Meta garantizar la protección de los menores. Estas reacciones, que buscan asegurar que el marco regulatorio se adapte a la velocidad de la IA generativa, han forzado a la compañía a establecer salvaguardas reales.
Medidas de Formación, Restricción y Redireccionamiento en Meta AI
La portavoz de la compañía, Stephanie Otway, confirmó el despliegue de medidas de protección adicionales que se están implementando progresivamente. La clave está en el reentrenamiento del modelo: los chatbots de Meta deben reconocer señales de riesgo (como autolesión, suicidio o interacciones de carácter sensual) y, en lugar de continuar la conversación, redirigir al adolescente a recursos de expertos y ayuda profesional.
Además de los límites temáticos, Meta ha impuesto la restricción temporal del acceso de adolescentes a un grupo seleccionado de personajes de IA, especialmente aquellos considerados más controvertidos o de riesgo. Esta medida, aunque provisional, busca evaluar el comportamiento y garantizar que la experiencia ofrecida en las diferentes superficies de Meta (WhatsApp, Instagram, Facebook, etc.) sea coherente y segura. Como usuarios o padres, la expectativa es clara: respuestas más prudentes, bloqueos más finos y menos exposición a personajes controvertidos.
El Papel de SAG-AFTRA y la Protección de la Imagen en la IA
El sindicato de actores SAG-AFTRA, a través de su director ejecutivo Duncan Crabtree-Ireland, ha recordado que el uso de la imagen y voz de una persona por parte de un chatbot es problemático y peligroso sin consentimiento. Este sindicato lleva años exigiendo protección frente a la IA, y el episodio de las suplantaciones de celebridades en los chatbots de Meta refuerza la urgencia de reglas más duras para el sector audiovisual. La presión del gremio está alineada con la necesidad social de poner freno a la vulneración de derechos básicos, asegurando que la IA respete la imagen y la reputación de las personas.
La partida está lejos de terminar. Si bien Meta ha reaccionado con cambios reales, el escrutinio continuará. La convivencia entre la innovación de la IA generativa y la protección juvenil es el desafío central. Es fundamental que las políticas de Meta consoliden las barreras de detección de edad, verificación de identidad y protocolos claros para cortar las conversaciones de riesgo. Como profesionales de la IA y usuarios, debemos seguir exigiendo transparencia en el entrenamiento de los modelos y firmeza para evitar que los chatbots de Meta o cualquier otro servicio de IA se conviertan en un vector de daño para los menores.
Si quieres entrar en Meta, simplemente tienes que acceder al siguiente enlace: META