¿Puedo usar la IA como Coach en Aprender a Pensar?
If you want to read or share this Article in English <LINK>
Tal como el sentido común es el menos común de los sentidos, igualmente el saber pensar es mucho más que observar las ideas pasar por el teatro de nuestra consciencia. Mi mentor en la universidad decía que “si en los colegios enseñaran a contar, leer y escribir ya sería mucho… pero ni eso enseñan”.
La realidad es que aprender a pensar es desarrollar la habilidad del discernimiento sobre lo que es verdad y real para poder actuar en consecuencia; y ese es uno de los problemas que nos lleva a enfrentarnos unos a otros, a no saber lo que en realidad queremos; y a pelearnos por tener y alcanzar metas que no tienen la capacidad de beneficiarnos a ningún nivel. Sí, hablo de la guerra de la cultura, la polaridad entre derechas e izquierdas y la pretendida urgencia de salvar el medio ambiente; pero también de algo mucho más acuciante, la batalla por nuestra propia forma de vida.
Quizás esté siendo muy crítico y esperando mucho de las personas. El discernimiento de lo que es verdad y real es otra manera de definir la sabiduría; pedirles a universitarios, altos ejecutivos de empresas, o políticos que sean sabios es pedir demasiado. ¿O no?
Sabiduría es la capacidad de tamizar lo que es eterno y permanece a través de las edades de lo que es simplemente conveniente e inmediato.
Ya lo dice el Dr. Jordan Peterson: “no hay diferencia entre escribir y pensar”. Ambos conjugan el primer y mayor potencial humano, porque en el lenguaje reside muy especialmente una de nuestras mayores fortalezas: discernir lo significativo. No es casual que la manera en que hemos saltado el umbral de las limitaciones en la inteligencia artificial haya sido con el lenguaje. Del mismo modo que lo hacemos con la IA, si vemos a una persona que ‘parece’ ser hábil con la palabra, sentimos que es inteligente.
El dilema de un auxiliar más preparado que yo
La reflexión que esbozamos la semana pasada en el artículo Ser o No Ser, ¿Nos Increpa la IA para Avanzar? <LINK> revela el gran problema que enfrentamos en la cultura contemporánea. ¿Seremos capaces de superar esta coyuntura que viene tejiéndose probablemente desde el Siglo XIX, donde comenzó esta insistencia en que ‘sólo yo defino qué es verdad y que es mentira para mí’ y ‘yo soy el señor creador de mi mundo’? Eso es en realidad lo que en verdad nos pone a merced de las fuerzas de nuestro subconsciente, y ese no es un lugar bonito o seguro para habitar. Esperemos que historiadores dentro de 200 años puedan decir: “pudieron superar las mentiras que convirtieron en dioses de su cultura.”
¿Cómo empezamos a enfrentar esas contradicciones?
Ya en el artículo anterior mencionamos como profesionales muy capaces mostraban incertidumbre al usar la IA. Verás, la inseguridad es el fruto de ‘internamente saber’ que estás mordiendo más de lo que puedes masticar. Aunque hay profesionales en todos los ámbitos que son aptos y están increíblemente bien formados, la prueba de un ‘auxiliar más preparado’ nos demuestra cuán inseguros estamos. ¿Seremos capaces de reconocerlo?
Todo esto se conjuga con la realidad de que todos hemos mamado, ‘yo soy el señor creador de mi mundo’ y aquí estoy con algo mucho más “inteligente” que yo… ¿Seré capaz de gestionar a este auxiliar o terminará él liderando mi vida?
Para muestra un botón.
Aunque por más de un año ya trabajaba con IA, la primera vez que tuve la tentación de utilizar ChatGPT para ‘ayudarme’ a generar un artículo fue en mayo de este año con Armas de Destrucción Matemática <LINK>. Yo necesitaba investigar casos reales de situaciones donde la IA hubiera causado injusticias y estragos sociales para validar mi visión de ética sobre su uso. Le pedí a la IA que me ofreciera artículos científicos o libros donde hubiera casos reales de IA que hubieran causado estragos. Cribé algunos de los resultados y me centré en el libro de Cathy O’Neil, Weapons of Math Destruction (2016).
Mi interés era validar si mis discernimientos y criterios de ética desarrollados por medio de lógica y disciplina filosófica se sostenían realmente frente a casos reales. Mi disciplina de publicación semanal, junto con mis otras responsabilidades, me impedía estudiar las casi 300 páginas del libro para realizar el artículo. Así que tiré de la IA.
Primero le pedí que hiciera un resumen del libro de 2000 palabras y realizara, por separado, segmentos de los casos reales con resumen de 500 palabras cada uno. Luego detallé aparte la coyuntura del problema, el criterio de la autora para discernir cuál era el origen de la injusticia y su propuesta de solución. Luego le pedí a ChatGPT que analizara también para validarlo. Esto me permitió hacer una evaluación detallada de en qué me iba a enfocar para expandir en el artículo. Escogí dos casos, pero rápidamente me di cuenta de que había mucha carne para asar en la parrilla de un solo artículo.
¿Sabes cómo cada vez que le pides a ChatGPT, o cualquier otro modelo, que te haga un resumen o le pides te analice un texto, te ofrece además generar una redacción o darte todo ya ‘masticado’? Pues a cada paso que profundizaba en el libro, me ofrecía esto precisamente. Pues yo caí en la tentación y le pedí que me hiciera un resumen que expusiera cada caso escogido con la voz de la autora y que tuvieran unas 120-150 palabras.
Hubo otro instante, luego de redactar la introducción y presentar el marco conceptual, caí en la tentación de su oferta de generar un segmento de análisis. Tenía curiosidad por ver lo que podía hacer. Su propuesta era correcta, pero le faltaba algo. Lo descarté y seguí peleándome con el artículo. Concedo, uno no puede dejar de saber lo que ha leído. Probablemente ChatGPT si condicionó mi escrito. Cuando llegué a las conclusiones con un producto final bastante completo, le pedí comparara las conclusiones de la autora del libro con mis conclusiones. La coyuntura de mi tesis agregaba al diagnóstico que la autora había hecho algo que yo estaba completamente seguro la IA no lo hubiera descifrado por sí mismo: el reducto del problema está en la intención del usuario en el uso de la herramienta – sea consciente o inconsciente. La pregunta clave era: ¿A qué propósito sirve la solución que estoy implementando en este modelo? – aquí es donde el subconsciente, de quien empuña la herramienta, omite y no reconoce que juega un papel determinante.
La premisa del filósofo y matemático francés Blaise Pascal (1623-1662) aplica con mucha crudeza en esta coyuntura: “El corazón tiene razones que la razón no conoce.”
La disciplina en el uso de la IA es crucial
Durante la escritura del artículo de O’Neil estuve en alta tensión sobre si usar o no usar los textos generados por ChatGPT. Usé los resúmenes de los casos con ligeras modificaciones, una que otra idea que me aportó claridad para proporcionar el aterrizaje de un argumento… pero me di cuenta de que, sin mi proceso para discernir el dilema, IAgo (nombre que le asigné a mi ChatGPT) es un instrumento sin música. Fue cuando por primera vez enuncié la frase: La “i” de la inteligencia artificial (IA) eres tú.
En los meses subsiguientes he establecido una disciplina clara: yo desarrollo por completo la idea o el argumento y utilizo a IAgo como un editor-coach que aporta criterio y análisis, pero nunca argumento o dirección. Corrige mi gramática en inglés, en los artículos más técnicos me asiste con coherencia histórica e integridad técnica y muy ocasionalmente le consulto una estrategia para concluir un artículo. Pero hay algo que sucede cuando recibo su imput en algo como “la conclusión del artículo”, si uso su texto necesito revisarlo mucho más que lo usual, porque muchas veces su respuesta es superficialmente adecuada, pero le falta profundidad, le falta ese picante que sólo la intuición y la creatividad humana pueden darle a una idea. Así que hoy no uso su texto, como mucho uso su estrategia, pero escribiendo soy capaz de profundizar mucho más y revelar lo que en verdad yo quiero descubrir.
Creo firmemente que los creadores y artistas, sea del lenguaje o cualquier otro género artístico, somos usados por fuerzas mucho más grandes que nosotros; más bien, nosotros somos canales de expresión que buscan exponer ideas y posibilidades para expandir la potencialidad humana.
Atinar a la diana es una facultad humana
Es cierto que hay momentos que la IA realiza ciertas proezas que nos dejan boquiabiertos, la capacidad que ha desarrollado con el lenguaje es cercano a lo milagroso. Sin embargo, y hay un enorme PERO: la IA no puede apuntar a la diana.
Discernir una meta es lo que precisamente nos hace humanos… y el trayecto para llegar a ella es lo que hace la diferencia entre perdernos y caer en un infierno o alcanzar con éxito la meta y avanzar. Tenemos milenios debatiendo qué significa el objetivo correcto y la buena manera de llegar a él.
Si utilizamos la IA para trampear nuestra manera de llegar al objetivo, o peor aún, si dejamos que la IA defina el objetivo, nos perderemos en el laberinto de lo que es valioso, bello y bueno… Ese es el objetivo de la vida y por ende de todas nuestras empresas.




