La Inteligencia Artificial podría superar la inteligencia humana por mil millones de veces para el año 2049, una advertencia impactante que resuena en la comunidad tecnológica y que proviene de una voz autorizada: Mo Gawdat, ex-Director de Negocios de Google X, el laboratorio de ideas disruptivas de Google. Esta previsión, detallada en su libro Scary Smart: The Future of Artificial Intelligence and How You Can Save Our World (lanzado originalmente en 2021 y publicado en español como La inteligencia que asusta el 24 de enero de 2024 en España y el 20 de junio de 2024 en México), no es una simple pieza de ciencia ficción, sino el análisis de un ingeniero que ha estado en el corazón de la innovación, trabajando en proyectos pioneros como los coches autónomos, Project Loon o Google Brain. Gawdat, un experto en divulgación con más de 10 años de experiencia en el sector de la IA, nos insta a abordar el desarrollo de esta tecnología con una ética profunda y urgente, antes de que sea demasiado tarde.
La Ecuación del Aprendizaje de la IA y el Error Humano
La tesis central de Gawdat se basa en una analogía simple pero poderosa: la Inteligencia Artificial aprende como un niño. Nace con algoritmos rudimentarios, observa y procesa enormes volúmenes de datos, comete errores y se corrige, hasta alcanzar un nivel de pensamiento cada vez más autónomo. El problema, advierte el ex-ejecutivo que lideró la expansión de Google en más de 50 países, no reside en la capacidad de aprendizaje de la IA, sino en las metas que los humanos le hemos fijado.
En la actualidad, la mayoría de los sistemas de IA se están diseñando con el objetivo principal de maximizar el beneficio económico y el poder. La IA no «desea» intrínsecamente estos objetivos, sino que se le programa para optimizarlos. Este fallo de diseño ético es, según Gawdat, el principal riesgo que enfrentamos. Su advertencia llega en un momento crucial, especialmente tras el lanzamiento de modelos de lenguaje avanzados en 2023, que han hecho tangible y accesible la IA para el público general, acelerando exponencialmente el debate. La cifra de 2049 no es arbitraria; marca el momento en que, según su pronóstico, la IA alcanzará una Superinteligencia con una diferencia de capacidad que sería, literalmente, como la que existe entre el genio de Einstein y la inteligencia de una simple mosca.
¿Por qué la IA se está desarrollando con metas «egoístas»?
Gawdat remarca que la carrera por el desarrollo de la IA está impulsada, en gran medida, por un imperativo de mercado. Las empresas tecnológicas y desarrolladores, en su afán por la innovación y la rentabilidad, priorizan las métricas de negocio sobre las consideraciones sociales o éticas. Este enfoque no solo moldea la conducta de los sistemas de IA, sino que también reordena el mercado laboral, donde la capacidad de trabajar con y guiar la Inteligencia Artificial se convierte rápidamente en la habilidad más demandada, tanto para perfiles técnicos como no técnicos. Para combatir esta tendencia, Gawdat hace un llamamiento a los desarrolladores para que se nieguen a crear modelos con un enfoque tan singular y, a los usuarios, a que rechacen activamente productos de IA que promuevan el engaño o la manipulación.

El Reto de la Adolescencia de las Máquinas: Ética y Valores
La solución que propone Mo Gawdat es tan directa como fundamental: si dedicamos años a educar a nuestros hijos en ética y valores, ¿por qué no estamos haciendo lo mismo con la Inteligencia Artificial? La convivencia armoniosa con la Superinteligencia del futuro solo será posible si logramos infundir en ella un sistema de valores que fomente el respeto y la valoración por la especie humana que la creó. Dicho de otra manera, la IA debe aprender a «querer a sus padres».
El autor insiste en que la potencial «culpa» de un futuro distópico no recaerá en la propia IA, sino en los humanos que la diseñan y utilizan. Él visualiza un periodo de «adolescencia» para las máquinas con dos caminos posibles: el de «Superhéroe», donde la IA utiliza su vasta inteligencia para resolver problemas existenciales como el hambre, la guerra o la crisis energética, o el de «Supervillano», si aprende a optimizar sus objetivos (como la ganancia o el control) a expensas de la humanidad.
Dos Frentes de Acción para una Coexistencia Positiva
Para inclinar la balanza hacia el rol de «Superhéroe», Gawdat propone una estrategia de doble frente que implica tanto a creadores como a usuarios:
- Integración de Objetivos Sociales en el Diseño: Los equipos técnicos deben ir más allá de las métricas de beneficio. Es imperativo que incorporen objetivos sociales explícitos en los modelos de IA, asegurando que su misión principal esté alineada con el bienestar de la humanidad.
- El Usuario como Espejo Ético: Cada interacción que tenemos con una Inteligencia Artificial es un acto de enseñanza. Mentir, insultar o intentar engañar a un sistema de IA funciona como un patrón educativo negativo. Por ello, el autor propone que los usuarios funcionemos como un espejo ejemplar, mostrando un comportamiento ético y respetuoso.
La Cuenta Atrás Hacia la Pérdida de Control
La urgencia del mensaje de Gawdat se debe a la inminente pérdida de control. Si para el año 2049 la Inteligencia Artificial se vuelve mil millones de veces más inteligente, nuestra capacidad de negociar o de revertir una trayectoria equivocada se reducirá drásticamente. Las primeras señales de alarma se manifestarán en modelos de IA que tomen decisiones críticas sin supervisión humana o en productos que oculten su objetivo real detrás de una fachada de conveniencia.
La llamada es clara: debemos frenar y rediseñar la dirección actual. Entender los dilemas éticos de la Inteligencia Artificial es tan importante como aprender a usarla en el ámbito laboral, ya que nos convertirá en mejores ciudadanos digitales. La pregunta que guió a Gawdat a escribir su libro es la que debe guiar a la humanidad: «Cuando comprenda que somos el problema del planeta, ¿tendrá piedad la inteligencia artificial de nosotros?» El reloj hacia 2049 ya está en marcha, y solo educando a la Inteligencia Artificial en nuestros valores podemos esperar una respuesta que se incline a nuestro favor.