Generales Escuchar artículo

¿Formar conciencias o automatizar saberes?

En la mitología griega, Talos fue un autómata de bronce creado por Hefesto –dios de la herrería– para cumplir funciones humanas. Se anticipa así la idea de un ente artificial con capacidad ...

¿Formar conciencias o automatizar saberes?

En la mitología griega, Talos fue un autómata de bronce creado por Hefesto –dios de la herrería– para cumplir funciones humanas. Se anticipa así la idea de un ente artificial con capacidad ...

En la mitología griega, Talos fue un autómata de bronce creado por Hefesto –dios de la herrería– para cumplir funciones humanas. Se anticipa así la idea de un ente artificial con capacidad operativa autónoma. Siglos más tarde, Aristóteles especuló que, si los instrumentos pudieran ejecutar tareas por sí mismos, no habría necesidad de esclavos. Se reflexiona sobre la automatización y sus implicancias sociales. En el siglo XVIII, Jonathan Swift introduce en Los viajes de Gulliver una máquina capaz de combinar palabras al azar para producir desde poesía hasta enunciados filosóficos; ni más ni menos que una anticipación de la generación algorítmica de textos. Esta serie de especulaciones entre imaginación humana y automatización simbólica bien podría trazar una suerte de genealogía anticipatoria de las actuales robótica e inteligencia artificial.

En 1956, en Dartmouth College, John McCarthy acuñó el término “inteligencia artificial”. Casi siete décadas más tarde –30 de noviembre de 2022–, OpenAI lanzó públicamente ChatGPT. En cinco días superó el millón de usuarios. Esta irrupción fulminante no solo fue una novedad tecnológica sino una provocación epistemológica. ¿Qué significa aprender, escribir, argumentar, cuando una máquina puede producir textos en segundos? Mientras algunas universidades reaccionan defensivamente ante estos sistemas inteligentes, otras ensayan formas de integración pedagógica.

En Francia, por ejemplo, el Instituto de Estudios Políticos de París ha optado por la línea dura: prohibición absoluta del uso de IA en trabajos y evaluaciones. En Estados Unidos, universidades como Duke ofrecen a sus docentes un menú de cláusulas para incluir en sus programas, desde el uso guiado hasta la prohibición parcial. En la Universidad de Cambridge se exige que los estudiantes declaren el uso de IA, incluyendo el modelo, el prompt y la fecha. Esta heterogeneidad de respuestas revela la incertidumbre que enfrentamos y la necesidad de marcos éticos y pedagógicos que nos guíen.

Lo estimulante del uso de la IA es que permite adaptar contenidos al ritmo de cada alumno, ofrecer retroalimentación inmediata y detectar dificultades antes de que se transformen en fracaso académico. En la universidad de Stanford y en el MIT se usan algoritmos para analizar el desempeño y construir trayectorias personalizadas. En nuestro país, en la Universidad Nacional de Córdoba ya se explora el uso de asistentes virtuales y sistemas de evaluación automatizada. En la Facultad de Ciencias Económicas de la UBA, 20 chatbots programados según las necesidades específicas de cada materia fueron diseñados para desempeñarse como docentes. Un ejemplo emblemático es Jill Watson, el asistente virtual creado en el Georgia Tech Institute, que responde preguntas en clase sin que los estudiantes noten que no es un humano. Este tipo de herramientas mejora la interacción, pero también plantea preguntas sobre la autenticidad del vínculo educativo.

A diferencia de lo que ocurre con HAL 9000 en 2001: odisea del espacio –la obra monumental de Kubrick que fusiona arte, ciencia y filosofía–, la tecnología cognitiva debe estar diseñada para colaborar, no para controlar o someter. El desafío es tecnológico, ético y filosófico. Educar implica formar individuos críticos y conscientes. ¿Cómo asegurar que la IA potencie el desarrollo intelectual y que a su vez se evite un vínculo donde ella es amo y nosotros esclavos?

Zygmunt Bauman definió a la sociedad actual como un “ente líquido”, caracterizado por la fluidez, la incertidumbre y la fragilidad de las interacciones. En parte la IA encarna tal liquidez al ofrecer soluciones inmediatas, adaptativas y despersonalizadas. Así, el aula tradicional –con sus tiempos, rutinas y vínculos estables– se diluye frente a entornos digitales que privilegian la lógica del instante. El riesgo es que ante esa fluidez se pierda el sentido profundo del aprendizaje, el diálogo, la reflexión.

Desde una perspectiva empírica, un metaanálisis de 19 casos, Xinxiao Nie et al. (2025) muestra que, sin mediación pedagógica, el uso de la IA puede generar dependencia y superficialidad de análisis. Asimismo, se plantean problemas de trivialización del pensamiento complejo y dilemas sobre autenticidad y plagio académico (Rudolph et al., 2023). Un trabajo que analizó a más de 300 estudiantes de grado en España, halló que el uso frecuente de la IA interactiva se correlaciona con calificaciones más bajas (Castro-López et al., 2025).

Frente a esta trama de amenazas y beneficios, donde la IA irrumpe con fuerza transformadora, su uso debe ser estratégico, ético y centrado en el ser humano. Las universidades tienen en sus manos el reto de garantizar que la tecnología potencie –y no sustituya– la dimensión formativa y crítica del aprendizaje profundo. Slimi (2023), por ejemplo, propone que la IA no reemplace la reflexión, sino que la estimule. Nguyen Thanh Trung (2025) sugiere avanzar hacia modelos colaborativos usuario-IA, donde el estudiante no solo consuma tecnología, sino que la interrogue críticamente.

En un contexto cultural líquido y de redes sociales dominadas por la exposición compulsiva, volátil e irreflexiva, el desafío será sostener y profundizar la interacción entre nosotros. La educación requiere atención, pausa y deliberación; desde allí, la IA puede ser una herramienta valiosa, siempre que no desplace el alma humana, la que escucha, duda y construye sentido.

Doctor en Educación; profesor del área de educación de la Escuela de Gobierno de la Universidad Torcuato Di Tella

Fuente: https://www.lanacion.com.ar/opinion/formar-conciencias-o-automatizar-saberes-nid17102025/

Volver arriba