IA y la tecnología de producir capital humano (por Sebastián Galiani)
#74
¡Hola! ¿Cómo estás?
Sí, sí, voy a hablar de AI.
Bueno, yo no. Un invitado especial, que está por sacar un libro sobre inteligencia artificial y su relación con algo que seguro le interesa a todo lector de este espacio: el proceso de aprendizaje. Y le pedí que nos diera un adelanto.
¿Querés saber quién es? Seguí scrolleando.
Espero que te guste. Gracias por leer.
Las preguntas de hoy
¿Cómo nos adaptamos el aprendizaje en tiempos de IA?
Segunda vez que invito a alguien a que escriba en este espacio. No pasa seguido, porque solamente escribe gente crack (para leer a los medio boludos me lees a mí). La primera vez el guest post lo escribió Maia Mindel. El envío de hoy es de Sebastián Galiani.
Sebas es un invitado especial. Mi primer trabajo académico fue como su asistente de investigación, no quiero recordar cuántos años atrás, pero muchos. La primera vez que puse en práctica el tipo de cosas que lees en este espacio fue trabajando con él, así que se podría decir que es uno de los responsables que estés leyendo esto.
No creo que necesite mucha introducción (especialmente para los lectores de este News) pero, para los distraídos, SG es uno de los economistas académicos argentinos más reconocidos internacionalmente por su producción científica. Publicó en las mejores revistas y en temas varios (mucho de desarrollo económico, bastante de economía política, pero también cosas de mercados de trabajo e incluso temas de economía internacional). Hoy es Profesor de la Universidad de Maryland, pero también fue profesor en varias otras universidades (incluida San Andrés, donde lo conocí). Y si eso no te alcanza, también tuvo un paso importante por la gestión pública, como Secretario de Política Económica en Argentina (entre 2017 y mediados de 2018). Te preguntarás si ya hablamos de él acá. Obvio, por ejemplo acá cuando hablamos del servicio militar obligatorio y su efecto sobre el crimen y el mercado de trabajo.
SG está por publicar un libro con Oxford University Press (en coautoría con Raul Sosa) que promete: AI at Your Side: The Student’s Guide to Smarter Learning.
Desde hace un tiempo en cualquier ámbito educativo se discute constantemente cómo hacemos para adaptar la forma de producción de evidencia de que el alumno aprendió algo. Fijate que no dije “cómo hacemos para adaptar la enseñanza”. No, no, algo más simple: cómo hacemos para poder saber cuánto aprendió un alumno en función de lo que produce; porque, si sabemos eso, entonces los incentivos a acumular conocimiento están alineados. Si escribir un ensayo es demasiado fácil, la producción de un ensayo no me va a permitir distinguir entre el que sabe y el que no y por lo tanto los incentivos de “saber” para el alumno, terminarán siendo demasiado bajos.
Mi reacción a la AI desde el punto de vista de la docencia viene siendo bastante conservadora: todos vamos a morir (y nadie va a aprender nada), pero, mientras tanto se acabaron los take-home, todo examen en papel y sin dispositivos electrónicos. Y decí que tengo demasiados estudiantes, que sino iría al examen oral y listo. En medio de mi conservadurismo pesimista sobre el futuro del aprendizaje, me crucé con que SG estaba escribiendo sobre el tema, desde un punto de vista un poco más optimista (o, cuando menos, más propositivo).
Y le pedí que nos adelante un poco. Es un adelanto nomás. Pero un buen puntapie para iniciar el debate. ¿Cómo adaptamos el aprendizaje en tiempos de IA?
No te molesto. Dale nomás. Lo de abajo lo firma Sebas (las negritas son mías).
Durante décadas, los economistas pensamos el capital humano como el resultado de una inversión costosa en tiempo, esfuerzo y atención. Aprender implicaba leer lentamente, equivocarse, reescribir, depurar código, revisar literatura hasta entender dónde estaba realmente la contribución. Era un proceso friccional. Y justamente por eso generaba acumulación.
La inteligencia artificial (IA) altera esa dinámica de manera abrupta. No porque reemplace al estudiante, sino porque reduce de forma dramática el costo de producir ciertos outputs observables: ensayos, resúmenes, código funcional, borradores de papers. Lo que antes tomaba diez o quince horas puede ahora hacerse en dos o tres.
Pero aquí aparece una distinción que me parece central: reducir el costo de producir un ensayo no es lo mismo que aumentar el capital humano del estudiante que lo firma.
Si pensamos el aprendizaje como una función de producción, el output relevante no es el documento entregado sino la comprensión internalizada. La IA modifica los precios relativos. Hace más barato el producto visible. Pero no necesariamente abarata, ni sustituye de manera equivalente, los insumos que generan comprensión profunda: la definición precisa de conceptos, el contraste de hipótesis, la identificación de mecanismos, la detección de inconsistencias.
Bajo una restricción de tiempo, es natural que el estudiante tienda a delegar. El modelo produce texto fluido, coherente, persuasivo. Acepta premisas si no se le exige lo contrario. Optimiza por plausibilidad. El resultado puede ser un documento más pulido que el que el estudiante hubiera producido solo. Pero nada garantiza que el stock de capital humano haya aumentado en la misma proporción.
El riesgo educativo de la IA no es el error grotesco que todos detectan, sino la degradación silenciosa del esfuerzo cognitivo.
Ahora bien, la conclusión obvia, prohibirla, es intelectualmente pobre e inviable. En otro ensayo argumenté que, a nivel civilizatorio, el debate sobre la IA oscila entre el alarmismo que quiere frenar todo y el entusiasmo que delega todo. En educación ocurre algo parecido. O se la excluye, o se la deja operar sin reflexión. Ninguna de las dos posiciones entiende el verdadero punto.
La pregunta no es si la IA debe usarse, sino cómo usarla de manera que aumente el aprendizaje en lugar de sustituirlo.
Ese es el núcleo de nuestro libro con Raul A. Sosa, AI at Your Side: The Student’s Guide to Smarter Learning (forthcoming, Oxford University Press). No proponemos controlar el uso de la IA. No podemos. Tampoco proponemos un diseño institucional que garantice un equilibrio óptimo. Lo que ofrecemos es una pedagogía de uso: una forma de interactuar con la herramienta que preserve, e incluso intensifique, la inversión cognitiva.
La distinción fundamental no es técnica sino conceptual: potenciación versus delegación.
Delegar es pedirle al modelo que piense por uno.
Potenciar es usarlo para pensar mejor.
En el primer caso, el estudiante externaliza el razonamiento. En el segundo, estructura la interacción para que el modelo funcione como andamiaje cognitivo. No se trata de reducir esfuerzo sino de redistribuirlo: automatizar lo mecánico para invertir atención en interpretación, contraste, diseño de tests, formulación de mejores preguntas.
Para sostener esa lógica de potenciación, el libro ofrece instrumentos concretos. Uno es lo que llamamos harness: un conjunto de reglas y restricciones que se incorporan al prompt para que el modelo defina términos antes de argumentar, no confirme premisas sin examinarlas y señale los límites de lo que sabe. Pero el libro también propone estrategias que cambian la dinámica de la interacción. En una de ellas, en lugar de pedirle al modelo que explique un concepto, el estudiante se lo explica y deja que el modelo detecte errores, haga preguntas y lo obligue a revisar lo que creía entender. En otra, el estudiante le pide al modelo que genere explicaciones alternativas de un mismo fenómeno y después evalúa las diferencias e identifica los supuestos de cada una. En ambos casos, el trabajo cognitivo queda del lado del estudiante.
El libro además enseña a usar herramientas que van más allá del chatbot (es decir, más allá de conversar con ChatGPT, Claude o Gemini como la mayoría hace hoy) y que siguen evolucionando. Trabajar vía APIs permite procesar información a una escala que el uso manual no alcanza: revisar decenas de papers, estructurar notas, limpiar datos. Los agentes supervisados, como Claude Code o Codex, ejecutan secuencias complejas mientras el usuario mantiene el control de cada paso. A medida que las herramientas se vuelven más potentes, saber usarlas con criterio importa más, no menos.
Los instrumentos varían, pero la pregunta de fondo es siempre la misma: ¿estoy delegando el razonamiento o lo estoy usando para razonar mejor? Esa pregunta atraviesa todo el libro, desde la formulación de ideas hasta la escritura, la investigación, el análisis de datos y la programación.
La tecnología no impone un único equilibrio. Cambia las restricciones. Lo que ocurre dentro de ese nuevo espacio depende de cómo los individuos aprendan a usarla.
Y aquí aparece una implicancia que va más allá de la pedagogía. Si la IA altera la tecnología de producir capital humano, es plausible que también altere la distribución de retornos. Las habilidades metacognitivas (formular buenas preguntas, estructurar procesos, identificar supuestos ocultos) pueden volverse relativamente más valiosas que la capacidad de producir texto correcto. La complementariedad humano-máquina no es homogénea: favorece a quienes saben diseñar la interacción. La desigualdad futura puede depender menos del acceso a la herramienta que de la capacidad para usarla de manera productiva.
Nuestro libro no pretende resolver ese problema estructural. No podemos garantizar que los estudiantes elijan la potenciación sobre la delegación. Lo que podemos hacer es mostrar que existe un modo de uso que lleva a aprender más, y ofrecer un marco para navegar un ecosistema tecnológico que cambia rápido sin perder de vista lo que importa: que la IA esté a tu lado, no en tu lugar.
Las tecnologías de propósito general nunca han sido neutras, pero tampoco son deterministas. Modifican precios relativos y abren posibilidades. Lo que emerge depende de cómo decidimos usarlas.
La calidad del capital humano de la próxima generación no la va a decidir la IA por sí sola, sino la forma en que aprendamos a convivir con ella. La tecnología cambia las restricciones; la acumulación de capital humano depende de nuestras decisiones.
Si querés más material como el de este envío para quedar como el capo intelectual del grupo, tenés que ir corriendo a comprar #EstoTambiénEsEconomía en tu librería amiga. La primera edición ya se agotó, ¿y vos como un boludo no la compraste? Que no te pase lo mismo con la 2da.
Mientras tanto te dejo otras cosas que podés hacer para bancar este proyecto popular sin gastar ni un peso fuerte.
Apretá el botoncito que dice “me gusta”.
Compartir este post por Twitter, Instagram, Facebook. Mandalo por Whatsapp, TikTok, corré la voz.
Ah y dejame tu mail si aún no lo hiciste y querés recibir grandes envíos como este una vez cada algunas semanas:
Te puede interesar
SG tiene un interesantísimo newsletter en donde escribe sobre estas cosas acá.
Otro excelente académico que viene escribiendo cosas super interesantes sobre AI es Alex Imas.
El premio nobel Daron Acemoglu viene también produciendo cosas muy buenas (otro pesimista). Por ejemplo, este paper.
Nada que ver, pero…
Acá dicen que cuando sube el salario mínimo, aumenta fuerte la cantidad de robots en fábricas
Hablando de servicio militar. Parece que la conscripción de Vietnam (que mezcló gente distinta que de otro modo no se hubiera mezclado) generó más matrimonios inter-raciales e inter-grupos ideológicos. Mirá vos.

