Un chat sacudió hace dos años el tablero educativo (y más allá). Como toda nueva tecnología, enseguida se puso en función la ley del péndulo: los que veían en la inteligencia artificial la salvación a todos los males y aquellos que percibían el comienzo del apocalipsis. Para María Florencia Ripani no es una ni la otra: a la larga el péndulo pasa más veces por la zona de equilibrio que por los extremos.
Por eso esta experta en tecnologías creativas y exdirectora de la Fundación Ceibal ve en el reto una oportunidad. Y para ello insiste en apuntalar los aprendizajes más básicos que le permiten al humano seguir siendo humano. A continuación, parte de la entrevista que mantuvo con El Observador.
En un reciente artículo suyo, concluye: “Pese a la inteligencia artificial, necesitamos conocimientos profundos en la memoria a largo plazo”. ¿Qué significa?
Cuando surge una tecnología nueva se producen dos fenómenos. Primero hay una suerte de exitismo, se piensa que la tecnología va a solucionar todos los problemas. Y enseguida viene el gran temor. Son reacciones naturales ante los cambios. El punto es que la inteligencia artificial no es artificial per se, sino que la producen los humanos. La inteligencia artificial no viene del más allá. Porque producir tecnología es parte de nuestra cultura, de nuestras capacidades mentales y, a veces, físicas. Y en ese sentido, a la inteligencia artificial generativa (esa que explotó y se masificó con ChatGPT) hay que entenderla como un complemento a las capacidades humanas y no una sustitución. El ChatGPT no va a reemplazar las capacidades humanas que lo crearon. Pero para mantener esas capacidades humanas, es necesario seguir aprendiendo. Para evaluar la respuesta que da un chat, hay que saber. Para hacer las preguntas correctas, también. Para entender los sesgos que tiene el chat en sus respuesta, hay que tener un conocimiento generado. Entonces parte de la meta del sistema educativo formal es generar esa base de conocimiento profundo que permite buscar y entender.
¿Eso implica una vuelta a las disciplinas más clásicas como el lenguaje y la matemática?
No necesariamente. Hoy la educación formal son las dos cosas: las competencias llamadas del siglo XXI y las disciplinas más clásicas. Todo ello en interacción con los sistemas inteligentes. Por ejemplo: un estudiante universitario que ya atravesó la enseñanza básica se supone que está en condiciones de darse cuenta mejor cuándo el ChatGPT le da una respuesta errónea o alucia. O cómo mejorar la consigna. O como justificar un uso de la tecnología. Debería ser capaz de explicar por qué se equivocó el chat y en qué. La educación básica tiene que garantizar ese piso básico de conocimiento sobre el que pararse e interactuar con la tecnología.
¿Qué rol tiene que jugar el docente?
El docente puede favorecerse con estas tecnologías. Ahorra tiempo de corrección, ahorra en tareas administrativas y hasta se obliga a pensar consignas que enseñen a pensar. Por eso, dice la bibliografía y la práctica, pasan a tener un rol clave en el apoyo y la supervisión. No se les puede dejar a los estudiantes el libre albedrío el uso de estas tecnologías. Tiene que haber un acompañamiento que integre varias áreas del conocimiento. Ese rol es clave más que nunca, porque una característica de la inteligencia artificial es su capacidad de emular el lenguaje humano y parecerse, en sus respuestas, al humano. Eso puede engañar. Puede que una verdad sea falseada y al revés. Antes este tipo de tecnologías estaban reducidas a una comunidad científica. Ahora son masivas. Y el docente también tiene que estar formado para ese acompañamiento. Si la consigna de clase es solo redactar un texto (del estilo qué hiciste en la primavera), eso lo resuelve un chat.
WhatsApp Image 2024-11-07 at 16.18.48.jpeg
¿Tiene que haber un tiempo de desconexión de tecnología para, justamente, aprender a redactar ese texto sin un chat?
Por supuesto. En eso va el complemento. Todas las personas tenemos que conservar los aprendizajes básicos. Tenemos que seguir teniendo nuestro criterio propio, como humanos. Sí tengo que tener en claro que las herramientas existen. Entonces no hay que hacerles el vacío, pero tampoco dejar que se apoderen de todo el tiempo de aprendizaje. En la escuela tiene que haber un tiempo de desconexión, sin celulares ni computadoras. Es positivo que haya un tiempo (de clase) offline. Es positivo un tiempo para aprender a hacer un resumen, de manera tal que el día de mañana se pueda corregir el resumen que hace un chat. Darse cuenta si está escribiendo un robot o un humano. Contrarrestar. Pensar.
¿Es un problema que sean pocos los dueños de esas tecnologías en las que van a estudiar y trabajar los estudiantes?
Es un problema que sean pocos los dueños, sobre todo ante la falta de información sobre cómo funcionan los algoritmos que hay detrás. Se haba de la idea de caja negra sobre la que no se tiene un real conocimiento. Tampoco está del todo claro qué se hace con la información que compartimos. El otro problema son los sesgos. ¿Quiénes entrenan a ChatGPT? ¿La mayoría de información es en inglés? ¿En qué países se produce?
¿La prohibición es una opción a seguir?
Llevo muchos años en políticas educativas y discrepo con la prohibición como opción. Es bueno que hayan tiempos offline, pero también tiempos en que se fomente el uso, se enseñe su uso, se evalúe. Sobre todo porque la prohibición total lo único que hace es agrandar la brecha entre los más vulnerables y quienes tienen más acceso a la tecnología. Y eso es un riesgo.