If you want to read or share the Article in English.
Sólo con la verdad se puede construir. No solo porque tiene raíces, sino también porque tiene conexiones y puede resistir las inclemencias del tiempo, la adversidad y la mentira. Está conectada con la realidad; por eso, de la verdad brota la fuerza necesaria para crear cosas sostenibles, al igual del impulso para inspirar y ser creativo. Se expande y puede motivar corazones y voluntades, de modo que otros sigan su ejemplo y sus frutos se desarrollen en algo real y duradero: algo humano.
La mentira, en cambio, carece de todo lo que pueda sostenerla, salvo el consenso relacional o los sistemas manipuladores que ella misma diseña. Su propósito es hacer creer que es verdad; pero carece de coherencia, siembra ilusión y cosecha desaliento cuando queda al descubierto… y ¡quedará al descubierto! En España decimos: “las mentiras tienen patas cortas”, es decir, su vida útil es limitada. Cuando nace una mentira, necesita alimentarse de otras mentiras y falsedades, porque no tiene vida ni conexiones propias. Es una construcción humana.
Lo más importante es que, cuando nos apoyamos en una mentira, nos encontramos en arenas movedizas y vivimos pendientes de que la verdad que intentamos ocultar no nos desenmascare. Cuando nos apoyamos en la verdad, todas las demás verdades la sostienen y siempre crece hacia algo mayor.
¿Qué implica, para la agencia humana y la toma de decisiones, que la verdad crezca y la mentira colapse?
Un ejemplo del dilema ético de la IA en nuestro mundo
No cabe duda de que la IA puede exacerbar todos los males de nuestro mundo; pero lo que tememos no es la IA en sí, sino esta prodigiosa herramienta en manos de personas sin escrúpulos o de tontos útiles. Igual que mi hija de nueve años teme a los monstruos de las películas —no porque sean reales, pues sabe que no lo son— sino porque siente que pueden adueñarse de su imaginación.
OpenAI, la empresa líder en IA, trabaja ahora bajo un contrato de defensa de 200 millones de dólares con el Pentágono. El acuerdo pretende desarrollar capacidades prototipo de “IA de frontera” para afrontar desafíos críticos de seguridad nacional. Estos desafíos incluyen aplicaciones bélicas (uso militar estratégico) y ámbitos empresariales (funciones administrativas, logísticas y de apoyo). [Reuters; contrato oficial en PDF — 16 de junio de 2025]
OpenAI ha declarado públicamente —y en sus políticas— que sus modelos deben cumplir limitaciones estrictas de uso, especialmente en contextos militares o de seguridad nacional. Es decir, la empresa sigue un código ético que el Pentágono debe aceptar. Aquí un breve resumen de su política:
Usos Prohibidos en Contextos Militares
La Política de Casos de Uso vigente de OpenAI incluye prohibiciones claras, incluso después de haber levantado en 2024 su veto general a las asociaciones militares. Concretamente, los modelos no pueden emplearse para:• Desarrollo de armas.
• Sistemas de selección o puntería de objetivos.
• Sistemas letales autónomos.
• Vigilancia o rastreo de personas sin el debido proceso.
• Cualquier uso destinado a causar daño directo o la pérdida de vidas.
Estas restricciones se reiteraron en la iniciativa “OpenAI for Government”. Allí la empresa enfatizó: “Solo asumiremos oportunidades alineadas con nuestra misión y donde el uso de nuestras herramientas esté regido por salvaguardas adecuadas” (Introducing OpenAI to Government).
La mayoría de los estadounidenses —y de los occidentales— se sienten legítimamente orgullosos de estas limitaciones; incluso los más cínicos admiten que es mejor contar con estos filtros que carecer de ellos. Sin embargo, aquí surge un problema fundamental: no es que falten políticas éticas, sino que confundimos las reglas que limitan con el desempeño moral. No hemos reflexionado sobre las últimas consecuencias de fondo de esta postura, y lo que llamamos ética podría ser nuestro punto ciego más peligroso.
Tenemos la responsabilidad de “defender lo correcto”
La alianza occidental, con todos sus defectos y debilidades, es lo mejor que han producido las civilizaciones del mundo. Defiende los derechos inalienables de las personas y su capacidad para vivir la vida como cada cual decida; también la libertad de expresión, extensión natural de ese primer derecho. Otras alianzas actuales no respetan estos derechos básicos, y sus sociedades reflejan las consecuencias de los valores que practican, usando todos los medios para controlar y perpetuar su poder. La migración masiva hacia Occidente es prueba irrefutable de ese contraste.
Con la IA, no solo las empresas la emplean para reforzar sus valores; lo más crítico es que los gobiernos la utilizan para consolidar sus metas y agendas. Y si la historia nos enseña algo, es que el único realmente disuasivo para la guerra es el enorme costo de afrontarla. Si se abre una brecha de poder entre los dos polos de alianzas mundiales, y el más fuerte calcula que arrasar con el otro tiene un coste que puede afrontar, lo hará, y nada lo detendrá.
Confiamos en que estar “del lado correcto” nos mantendrá a salvo, pero la verdad por sí sola no puede protegernos de ser superados, a menos que vaya acompañada de sabiduría y fuerza. Si frenamos nuestro desarrollo en IA mientras otros regímenes avanzan sin ética ni transparencia, podemos perder el suelo mismo que nos sostiene. La verdad es que una mentira armada con poder todavía puede ganar… temporalmente.
Enfrentamos en un verdadero lio… y ¡no va a desaparecer!
Hay una solución dura… y otra blanda
Los seres humanos somos una especie peculiar: a veces nos arrinconamos a nosotros mismos en una situación límite y, acto seguido, clamamos indignados por justicia esperando que alguien venga a sacarnos del rincón en que nos hemos puesto nosotros mismos.
Occidente ha avanzado hacia una visión de futuro sin considerar sus complejas consecuencias. Hemos usado la ciencia, creado tecnología y avanzado en un mundo sin preguntarnos quiénes éramos ni cómo llegamos allí; hemos dejado las consecuencias cómodamente en el asiento trasero. El dinero y el poder conducen el vehículo desde el final de la Segunda Guerra Mundial, y las voces conscientes que nos advirtieron de las inconveniencias fueron silenciadas, atropelladas o ridiculizadas. Y no son solo los gobiernos: todos valoramos el dinero, el estatus y el reconocimiento por encima de la verdad, la integridad y la sabiduría social en nuestras decisiones.
La Solución Blanda plantea un dilema serio
Occidente puede intentar mantener el “terreno moral” sin desarrollar ciertas aplicaciones, o limitar los usos no éticos de la IA, mientras la emplea para generar riqueza y poder que preserven su posición estratégica y disuadan a la “otra alianza” de ir a la guerra. Es un movimiento arriesgado: si fallamos en el cálculo, tal vez no haya tiempo de reaccionar y una nueva era oscura, reforzada por la IA, se imponga durante generaciones.
La Solución Dura no ofrece garantías, pero, y si funcionara…?
Durante siglos, los valores de sacrificio, de “hacer lo correcto” y de enfrentarse a la injusticia alimentaron el carácter y la resiliencia. Aun así, las sociedades nunca se moldearon del todo con esos ideales: las élites fueron cínicas y egoístas, y fracasamos en forjar sociedades donde esos valores sostuvieran la prosperidad y la cohesión social. Los Padres Fundadores de EE. UU. lo intentaron en el S.XVIII, pero no seguimos su guía.
La IA nos obliga a reconocer quiénes somos y hacia dónde queremos ir, cómo llegaremos y en quiénes nos convertiremos. Sé, dolorosamente, que en Occidente no estamos listos para una IA sin barandas de seguridad; pero el precio a pagar es enorme tanto si avanzamos como si nos detenemos.
¿Cómo construir nuevos ideales colectivos? ¿Cómo promover los valores de justicia, templanza, valentía y sabiduría para asegurar el buen uso de la IA? No tengo idea.
La ética es una capacidad exclusivamente humana; la IA no se vuelve ética sólo porque le impongamos salvaguardas. Incluso las restricciones más estrictas no impedirán que un necio o un mal intencionado convierta la tecnología en algo devastador. Debemos volvernos éticos nosotros mismos; solo entonces, incluso un sistema letal autónomo podrá contenerse, y únicamente si quienes lo operan comprenden las consecuencias de usarlo mal.
La ética de la IA no puede codificarse, solo encarnarse
Nos tememos a nosotros mismos; tememos materializar nuestras pesadillas. Tememos que nuestro “malcriado” interior controle algo más poderoso que una bomba atómica. Ningún “papá” gobierno nos sacará de este dilema. Debemos afrontarlo, aprender y seguir esforzándonos por mejorar… y los políticos y poderosos harían bien en darse cuenta de que la música se detendrá —quizá antes de lo que creen— y todos quedaremos sin asiento donde posar nuestros huesos.
Al final, cada persona es responsable de sí misma y de su familia. Debemos encarnar los valores de la verdad como parte esencial del autoconocimiento, la determinación y el carácter en nuestras vidas y obras… la sabiduría y la fuerza llegarán después.
Las limitaciones éticas no sustituyen la necesidad del crecimiento moral.
En última instancia, la ética no puede externalizarse —ni a algoritmos, ni a políticas, ni a gobiernos—. Debe vivirse y encarnarse, o se perderá.