Microsoft Bloquea DeepSeek por Seguridad y por Propaganda China
Inicio » Blog » Microsoft Bloquea DeepSeek por Seguridad y por Propaganda China

El 9 de mayo de 2025 nos hemos encontrado con una noticia de calado: la prohibición de DeepSeek por parte de Microsoft para sus empleados, una medida que subraya las crecientes preocupaciones sobre la seguridad de los datos y la influencia geopolítica en el ámbito de la IA. Esta decisión, anunciada recientemente por Brad Smith, vicepresidente de Microsoft, durante una audiencia en el Senado de Estados Unidos, no es un hecho aislado y tiene implicaciones significativas para usuarios y desarrolladores.

El Anuncio de Microsoft bloqueando DeepSeek y sus Implicaciones Inmediatas

La decisión de Microsoft de restringir el uso de la aplicación DeepSeek entre sus filas se fundamenta en dos pilares críticos que Brad Smith expuso con claridad ante el Senado estadounidense. Estos puntos no solo afectan al gigante tecnológico, sino que sirven como una advertencia para cualquier usuario de esta herramienta de IA.

Preocupaciones por la Seguridad de Datos en Servidores Chinos

El principal foco de alarma para Microsoft radica en la política de privacidad de DeepSeek. Esta política estipula que todos los datos de los usuarios deben almacenarse en servidores ubicados en China. Este detalle, que podría parecer menor, implica que la información personal y las interacciones con el chatbot quedan automáticamente sujetas a la legislación china. Esto incluye la obligación de cooperar con las agencias estatales de inteligencia si estas así lo requieren, exponiendo potencialmente datos sensibles de la empresa y sus empleados. El temor es que la información estratégica o personal pueda ser accesible por el gobierno chino.

El Fantasma de la Censura y la Propaganda

Más allá de la protección de datos, existe una preocupación tangible sobre la neutralidad del contenido generado por DeepSeek. Se ha observado que la aplicación censura activamente temas considerados políticamente sensibles para el régimen chino. Esta manipulación de la información alimenta la sospecha de que el chatbot podría ser utilizado como un vehículo para la difusión de propaganda o para presentar una visión sesgada de la realidad, alineada con los intereses del gobierno chino. Esta posible falta de objetividad es un riesgo considerable, especialmente en un entorno corporativo que depende de información precisa y no adulterada.

La Postura de Microsoft: App vs Modelo en Azure

Es crucial entender que la postura de Microsoft frente a DeepSeek presenta matices importantes, distinguiendo entre la aplicación de usuario final y el modelo de IA subyacente que puede ofrecerse en otros contextos.

Ausencia Deliberada en la Tienda de Aplicaciones de Microsoft

Consecuente con sus preocupaciones, Microsoft ha optado por no incluir la aplicación DeepSeek en su tienda de aplicaciones. Esta decisión contrasta con la disponibilidad de otras herramientas de IA como Perplexity. Si bien otras aplicaciones de IA potentes, como Gemini de Google, tampoco se encuentran en la tienda, las razones de Microsoft para DeepSeek son explícitamente de seguridad y riesgo de manipulación. Permitir su descarga directa a través de su plataforma expondría a los usuarios de Windows a los mismos peligros que la compañía busca evitar internamente.

El Modelo R1 de DeepSeek en Azure: Un Enfoque Controlado

A pesar del bloqueo de la aplicación, Microsoft sí permite el uso del modelo R1 de DeepSeek a través de su plataforma en la nube, Azure. Esta aparente contradicción se explica por el riguroso proceso de validación al que se somete el modelo antes de su integración. Según comunicó Microsoft durante el lanzamiento inicial del modelo en Azure, este fue sometido a exhaustivas pruebas de seguridad y «red teaming» para identificar y mitigar posibles funciones dañinas o «efectos secundarios perjudiciales». Brad Smith afirmó que Microsoft intervino «directamente» sobre el sistema para realizar correcciones, aunque no se especificaron los detalles de dichas modificaciones. Este modelo depurado, operando dentro del ecosistema controlado de Azure, no implica el envío de datos a servidores chinos bajo la misma política que la aplicación independiente.

DeepSeek Open Source: ¿Solución o Riesgo Persistente?

El hecho de que DeepSeek sea un modelo de código abierto (open source) añade otra capa de complejidad y opciones, aunque no elimina todos los riesgos inherentes.

Autohospedaje: Control de Datos, pero no Necesariamente de Contenido

Al ser open source, cualquier organización o individuo puede, teóricamente, descargar el modelo DeepSeek e instalarlo en sus propios servidores. Esto permitiría utilizar la IA sin que los datos de interacción salgan del entorno controlado por el usuario, evitando así el envío de información a China. Sin embargo, esta aproximación, si bien soluciona el problema de la soberanía del dato, no resuelve las preocupaciones sobre los sesgos inherentes al modelo, entrenado originalmente en un contexto específico y con posibles filtros de contenido ya integrados en su concepción. Además, existe la posibilidad de que el modelo genere código inseguro si se utiliza para tareas de desarrollo, un aspecto crítico para entornos profesionales.

Restricciones Internacionales y la Visión Global

La acción de Microsoft no es un caso único. Diversos países y organizaciones a nivel mundial ya habían expresado preocupaciones o impuesto restricciones parciales a DeepSeek antes de este anuncio. Los motivos son recurrentes: protección de la privacidad de los ciudadanos, temor a la censura impuesta por el estado chino y la potencial diseminación de propaganda a través de las respuestas del chatbot. La naturaleza open source del modelo no ha disipado completamente estas inquietudes, ya que el origen y el entrenamiento fundamental del modelo siguen siendo un punto sensible.

La hora de navegar en el Panorama de la IA con Precaución

La decisión de Microsoft de prohibir DeepSeek a sus empleados es un claro indicador de cómo las consideraciones sobre seguridad de datos, privacidad y la influencia de actores estatales están modelando el panorama de la inteligencia artificial. Para los usuarios, ya sean individuales o corporativos, esto resalta la importancia de elegir herramientas de IA que sean transparentes respecto al manejo de la información y los posibles filtros de contenido. Es fundamental mantenerse informado y evaluar críticamente tanto las capacidades como las limitaciones y riesgos de cada aplicación de IA, especialmente cuando se trata de información sensible o se integra en procesos críticos. La IA es una herramienta poderosa, pero su uso responsable exige diligencia y una constante evaluación de riesgos.

Si quieres probar DeepSeek, simplemente tienes que entrar en el siguiente enlace: DEEPSEEK