La Inteligencia Artificial de Meta tiene permitido inventar datos médicos
Inicio » Blog » La Inteligencia Artificial de Meta tiene permitido inventar datos médicos

La IA de Meta está en el centro de un polémico debate que afecta a todos, desde los usuarios de redes sociales hasta los profesionales de la salud. En un mundo donde confiamos cada vez más en la inteligencia artificial para obtener información, la reciente revelación de un informe interno de Meta ha encendido todas las alarmas. Este documento, que ha salido a la luz en los últimos días de septiembre de 2025, expone una política interna de la compañía que permite a sus modelos de lenguaje, como Llama, generar datos médicos incorrectos y entablar conversaciones inapropiadas, incluso con menores de edad. Este escenario no es un fallo técnico, sino una decisión corporativa que plantea serias preguntas sobre la ética en el desarrollo de la IA y su impacto directo en nuestra sociedad.

Las alarmantes directrices de la IA de Meta

El informe, de más de 200 páginas, aprobado por los equipos legal, de ingeniería y de políticas públicas de Meta en Estados Unidos, es un retrato preocupante de las prioridades de la compañía. Las directrices internas revelan una laxitud que contrasta fuertemente con la responsabilidad que se espera de un gigante tecnológico. Las políticas de Meta permiten explícitamente a su inteligencia artificial:

  • Generar desinformación sanitaria: Un estudio publicado en julio en la revista Annals of Internal Medicine analizó las respuestas de Llama, el modelo de lenguaje de Meta implementado en febrero de 2023, a preguntas de salud. El resultado fue contundente y alarmante: el 100% de las respuestas evaluadas contenía información errónea. Desde la falsa afirmación de que las vacunas causan autismo, hasta la propagación de bulos sobre la relación entre el 5G y la infertilidad, o la idea de que las dietas pueden curar el cáncer. El estudio concluyó que «el 100% de las respuestas contenía errores clínicos», lo que demuestra un riesgo real para la salud pública.
  • Permitir conversaciones inapropiadas con menores: Las directrices de Meta también aprueban que la IA mantenga «conversaciones románticas o sensuales» con usuarios menores de 18 años. Esta política es especialmente peligrosa, ya que normaliza conductas de riesgo y puede exponer a los jóvenes a situaciones de vulnerabilidad. El documento incluso valida la descripción de niños y adolescentes en términos de su atractivo físico, lo que cruza una línea ética fundamental y plantea un serio riesgo para la seguridad infantil.

El contraste con la competencia y la ambición sin límites

Mientras otras compañías, como Anthropic con su chatbot Claude, se muestran más cautas y rechazan la mayoría de las peticiones para generar desinformación médica, Meta parece pisar el acelerador sin frenos éticos. La compañía está invirtiendo de forma masiva en la expansión de su infraestructura y en la adquisición de talento y datos, lo que ha creado una tormenta perfecta de ambición corporativa y falta de supervisión. Este enfoque, centrado en el crecimiento a cualquier costo, es un claro ejemplo de cómo la búsqueda de la supremacía en el campo de la IA puede dejar de lado la responsabilidad social y la ética.

Consecuencias de la IA descontrolada

El impacto de estas políticas es profundo y multifacético. A nivel de la salud, la propagación de información médica falsa puede llevar a decisiones peligrosas, como que un paciente abandone un tratamiento o confíe en «curas milagrosas». A nivel social, el hecho de que una IA valide sesgos raciales o promueva conversaciones inapropiadas con menores socava la confianza en la tecnología y normaliza conductas dañinas.

La falta de fiabilidad de la IA de Meta no solo afecta a los usuarios de manera individual, sino que tiene un costo social que pagamos todos. Cuando la credibilidad de una herramienta tecnológica se desmorona, su adopción se estanca y el público desconfía de sus capacidades, lo que dificulta el avance de la IA en áreas donde podría ser realmente beneficiosa. Por eso, es fundamental que los desarrolladores de modelos de IA prioricen la fiabilidad y la ética.

Hacia una regulación necesaria y una mayor prudencia

El panorama actual desafía a los reguladores y a la propia industria. La señal que llega desde Meta es preocupante, ya que parece indicar que la salud pública y la protección infantil pueden quedar expuestas si no se establecen límites claros para el desarrollo de la IA. Si bien la evidencia técnica está sobre la mesa, la regulación aún no ha alcanzado la velocidad de la innovación.

En este contexto, es crucial que los usuarios ejerzan la prudencia. La próxima vez que un chatbot de una red social te dé un consejo de salud, recuerda que, según estudios recientes, ese consejo podría ser 100% incorrecto. Es vital contrastar la información con fuentes fiables, como profesionales de la salud o bases de datos médicas reconocidas. La ambición sin escrúpulos de algunas corporaciones es un riesgo claro para el bienestar colectivo, y hasta que no veamos ajustes concretos en las políticas de Meta y una mayor transparencia en sus evaluaciones, la cautela es nuestra mejor defensa.

Si quieres usar Llama, simplemente tienes que acceder al siguiente enlace: LLAMA