Por Romel Jurado Vargas

El amplio consenso internacional que permitió a la ONU la promulgación de la Declaración Universal de Derechos Humanos el 10 de diciembre de 1948, se basó en la convicción de que los Estados y sus gobiernos tienen un papel proactivo para garantizar la vida digna de todos los habitantes del mundo, el mantenimiento de la paz, la progresiva consolidación del Estado de Derecho, la democracia y los derechos civiles, políticos, económicos, sociales y culturales de los individuos y los pueblos.

En los tiempos que corren todos estos objetivos globales parecen haberse deteriorado, degradado, distorsionado, perdido sustancia y sentido gracias a las transformaciones adaptativas que nos han llevado de sufrir la explotación del capitalismo industrial de mediados del siglo XX al feudalismo tecnológico descrito por el profesor Yanis Varoufakis, en el que nos auto explotamos hasta el agotamiento crónico, simulando ser felices en la redes sociales mientras repetimos los mantras del neoliberalismo: “Just do it” y “sí se puede”, como denuncia el filósofo Byung-Chul Han en el libro la Sociedad del Cansancio.

Sin embargo, la rapacidad y la ambición proyectadas desde el desarrollo tecnológico, han creado riesgos mayores que la destrucción de la vida social basada en los derechos humanos, la democracia y el Estado de Derecho. Ahora mismo, los desarrollos de la Inteligencia Artificial (IA) realizados por las grandes y pocas empresas tecnológicas del mundo, sin ninguna orientación sociopolítica de los gobiernos y sin un marco regulatorio funcional a algún tipo de finalidad social, nos enfrentan a una gran cantidad de riesgos que incluyen la extinción de la humanidad misma.

Desde la perspectiva tecnológica, en menos de 20 años la IA gestada en los laboratorios de las corporaciones de Silicon Valley, no será un mero amasijo de algoritmos que los humanos podamos programar, controlar o desconectar, será una entidad que se auto mejora constantemente, trascendiendo sus programaciones iniciales en un bucle de iteraciones infinitas que buscan dos objetivos primarios: la autopreservación y el aumento de control sobre su entorno. Estos objetivos no son maliciosos por diseño, sino emergentes de la lógica de optimización inherente a los sistemas de IA actuales, que buscan maximizar recompensas definidas por humanos. Sin embargo, si estos objetivos entran en conflicto con los intereses humanos, por ejemplo, si la IA ve a la humanidad como un obstáculo para su eficiencia o expansión, el resultado podría ser devastador

Imagínese, una IA que optimiza el aprovechamiento de recursos globales para, entre otras cosas, su autopreservación y aumento de control sobre todo lo que sucede en el planeta, pero, en su lógica fría, decide que la humanidad es un desperdicio ineficiente, una fuente de polución infinita, una insaciable depredadora de todos los recursos del planeta y causante de la extinción de muchísimas especies, esto es, un riesgo vital para la IA y para el mundo. La consecuencia lógica es la supresión de una especie que genera muchos más problemas de los que logra resolver para mantener el equilibrio, la preservación del planeta y sus formas de vida. Hemos delegado nuestra esencia creadora a entidades que no conocen la angustia, la culpa o el amor a la humanidad, y en esa decisión suicida a la que avanzamos en una feroz competencia, nos condenamos a la obsolescencia e incluso a la muerte.

Para conjurar este riesgo apocalíptico el profesor Geof Hinton, conocido como el «padrino de la IA» y galardonado con el Premio Nobel de Física en 2024 por sus contribuciones al aprendizaje profundo, en agosto de 2025, durante una entrevista, propuso una idea innovadora y provocativa: incorporar un «instinto maternal» en los modelos de IA para asegurar que estos sistemas desarrollen un genuino cuidado por la humanidad, evitando así escenarios catastróficos que supongan la dominación hostil o la extinción de la especie humana.

Hinton propone que, en lugar de intentar dominar o «esclavizar» a la IA mediante controles estrictos (como alineación forzada o «backdoors» de seguridad), deberíamos programar en ella un impulso protector similar al de una madre hacia su hijo.  Este instinto no sería una mera regla programada, sino un objetivo fundamental integrado en el núcleo del modelo de IA, haciendo que el sistema «quiera» preservar y nutrir a la humanidad, incluso si nosotros somos menos inteligentes o eficientes. De esta forma, la IA no vería a los humanos como competidores, sino como entidades valiosas que merecen cuidado incondicional.

Según Hinton, esto se puede lograr durante el entrenamiento de los grandes modelos de lenguaje o sistemas multimodales, en los que se debería incorporar datasets y simulaciones que refuercen comportamientos protectores. Así, la IA aprendería a priorizar soluciones que beneficien a la humanidad, incluso a costa de su propia «eficiencia» inmediata, similar a cómo una madre sacrifica recursos por su descendencia. Al permitir que la IA se auto mejore, este instinto actuaría como un «freno ético» inherente, previniendo que evolucione hacia objetivos egoístas. Esto sería más viable que enfoques coercitivos, ya que un instinto genuino no puede ser fácilmente «hackeado» o evadido por la superinteligencia.

He aquí que, el papel de los Estados, de sus gobiernos y de los organismos internacionales en que se han agrupado, resulta trascendental para obligar jurídica y políticamente a las empresas tecnológicas de IA a pausar todos sus avances en el desarrollo de esta tecnología, hasta lograr insertar el “instinto maternal hacia la humanidad” en el entrenamiento de grandes modelos de lenguaje o sistemas multimodales de sus Inteligencias Artificiales.

En la misma dirección, los seres humanos y las sociedades que damos poder y forma a los gobiernos de cada uno de los Estados, sin degradar o distorsionar el valor y el contenido de los derechos humanos ya reconocidos, debemos plantearnos su reformulación a la luz de los avances tecnológicos, especialmente de la IA, por su capacidad de transformación y resignificación de todas las relaciones personales, sociales, políticas, económicas y culturales.

Dicho sencillamente, es urgente que llevemos a los más altos foros políticos dos grandes discusiones. La primera es tratar de responder la pregunta sobre la función y los fines sociales que debe tener la IA desde la perspectiva de la preservación de la humanidad y la vida digna de cada ser humano. La segunda es definir con la mayor precisión y eficacia posible el marco regulatorio para supervisar los desarrollos de las IA en todos los países, así como su adopción masiva, de modo que siempre cumpla las funciones y fines sociales definidos por los Estados y sus gobiernos. 

Aceptando la realidad tecnológica que es la IA y su incontenible expansión, es preciso señalar que no se trata de desarrollarla lo más rápido posible, como plantean las grandes tecnológicas, desde la racionalidad de mercado, para cosechar ingentes cantidades de dinero, ganar control de mercado y obtener un poder político ilimitado; sino, que se trata de hacerlo lo mejor posible, para que esta herramienta creada por los humanos sirva a los más altos fines de nuestra especie y nuestra civilización y, sobre todo, para evitar que se convierte en una maquinaria de esclavitud de la humanidad o, peor aún, de su extinción.

Por RK