“La inteligencia artificial generativa irrumpió con los parámetros de la educación”, aseguró la Mag. Laura Manolakis. Por ese motivo, advirtió que ya no importa tanto qué tecnología se utiliza en las aulas, sino que lo primordial es discutir cómo y qué se enseña, cómo se evalúa, y qué estrategias y actividades se desarrollan con las herramientas digitales para el aprendizaje de los estudiantes.
Durante junio y julio, la directora de Innovación Tecnológica y Pedagógica de la Universidad Católica Argentina estuvo a cargo de los talleres La Inteligencia Artificial en la Educación Superior: la Creación de Prompts, La Inteligencia Artificial en la Educación Superior: la Elaboración de Actividades de Aprendizaje y La Inteligencia Artificial en la Educación Superior: la Evaluación y las Rúbricas, organizados por el Centro de Actualización en la Enseñanza Superior (CAES) para docentes de la Universidad ORT Uruguay.
En dichas instancias, además de presentar ejemplos y aplicaciones de inteligencia artificial de interés para la enseñanza y el aprendizaje, Manolakis detalló los beneficios y los desafíos de integrar este tipo de herramientas en las clases.
Inteligencia artificial: el abordaje en las aulas
Si bien hay instituciones que han tenido la política de prohibir el uso de las herramientas de inteligencia artificial, para Manolakis es clave no evitarlo, sino reflexionar en cómo se usa dicha tecnología y discutir el sentido de las prácticas desde el punto de vista pedagógico.
“Los estudiantes utilizan las herramientas de inteligencia artificial y las exploran. Lo importante es promover un comportamiento profesional, vinculado con la disciplina y con las necesidades de cada área”, subrayó.
“Hay una idea, por parte de algunos estudiantes, de que como la información la devuelve una herramienta de inteligencia artificial, es así y es válida”, alertó. A pesar de que, muchas veces, “se fascinan con el uso de una determinada aplicación”, para ella, lo interesante es mostrarles a los estudiantes cuáles son los riesgos y cuáles son las estrategias de validación de la información, de forma de dar cuenta de que no todo lo que se presenta es correcto.
“Tenemos que empezar a formar competencias sobre cómo trabajar con la inteligencia artificial: cómo manejar los datos que nos arroja, las cuestiones éticas, los riesgos que conlleva y los cambios que va a ocasionar a futuro”, resumió.
Manolakis, quien en la actualidad se encuentra cursando el Doctorado en Educación de la Universidad ORT Uruguay, manifestó que estos cambios requieren del acompañamiento de los docentes y de otro tipo de enseñanza y aprendizaje. “Ya no es el docente que expone: son otras estrategias, otros tiempos, otro tipo de planificación y otra forma de pensar el currículum, que se deben empezar a dar lugar”, precisó.
Los desafíos de la inteligencia artificial
A pesar de que existe una enorme cantidad de herramientas de inteligencia artificial, Manolakis se centró en ChatGPT, una de las aplicaciones que más sobresalió en el último tiempo y que se hizo sumamente popular entre los estudiantes.
Uno de los principales riesgos tiene que ver con la veracidad de los datos proporcionados. Por un lado, suele tener problemas con la actualización de datos. Por otro, el usuario no tiene conocimiento desde dónde el programa está tomando la información brindada.
Cuando se le solicita a ChatGPT que detalle bibliografía o autores sobre algún tema de referencia, da información referenciada de forma académica. Pero, cuando uno la va a buscar, Manolakis especificó que, a veces, no existe.
“Cuando uno especifica algo demasiado obvio que la herramienta no la puede tener por cuestiones que son sumamente recientes, te dice ‘no tengo información al respecto’. También sucede cuando se le pregunta algo muy específico, por ejemplo, sobre un familiar: identifica rápidamente que no te puede dar la respuesta”, explicó y advirtió que, si no tiene la respuesta, en ocasiones, la inventa.
Por ello, recalcó que es imprescindible brindarles a los estudiantes estrategias para que puedan analizar y validar la información que les devuelven las herramientas de inteligencia artificial generativa. También es necesario trabajar las competencias de orden superior y desarrollar el pensamiento crítico para que los estudiantes no crean todo lo que leen y para que sepan dónde ir a buscar fuentes confiables.
"Es nuestro rol advertirles sobre estas cuestiones; hacer el ejercicio con nuestros estudiantes para que visualicen los errores y vayan ensayando este proceso de ver qué información me está dando, por qué me la está dando, de dónde la valida y si es tan así”, especificó Manolakis.
Asimismo, también sugirió retomar las discusiones sobre la ética respecto al uso de la información y a los temas de autoría en las herramientas de inteligencia artificial generativa. ¿Quién es el autor?, ¿la inteligencia artificial o aquel que crea los prompts? “Hay toda una discusión, que no está resuelta y que es el debate que se viene”, afirmó.
Cómo diseñar un prompt efectivo
Los prompts, según explicó Manolakis, refieren a “frases o preguntas que se utilizan para dar direcciones o para que se produzca una respuesta” en una aplicación de inteligencia artificial.
Para obtener resultados más efectivos, de acuerdo a los temas de interés de los usuarios, esos prompts deben ser claros, concisos y precisos, al tiempo que es necesario evitar utilizar un lenguaje ambiguo o complicado.
La directora de Innovación Tecnológica y Pedagógica de la Universidad Católica Argentina puso el ejemplo de que en la educación o la comunicación hay “ciertos vocabularios polisémicos”, entonces, se vuelve fundamental ser muy específico sobre las categorías que se quieren buscar.
Además, indicó que, cuando uno trabaja con herramientas de inteligencia artificial para la elaboración de imágenes, se debe brindar una gran cantidad de información, para que efectivamente genere lo que uno desea.
Durante los talleres, Manolakis dio una serie de recomendaciones para elaborar prompts efectivos. En su opinión, hay elementos que necesariamente se deberían incluir, como ser el tema, un estilo, un tono, e información de contexto.
¿Qué tipos de verbos son los más adecuados para generar prompts? “Muchas veces le decimos: ‘Por favor, me podrías indicar…’”, aseguró Manolakis. No obstante, para ella, no es lo más adecuado: “Hay que ser muy precisos: para que el chat nos devuelva la información que nosotros requerimos es necesario estructurar una oración donde se realice una acción”.
Por tanto, para finalizar, destacó que la elección de los verbos de los prompts es fundamental. Lo ideal es que sean bien específicos y operativos, por ejemplo: argumentar, comparar, describir, diferenciar, explicar, listar, recomendar, entre otros. La razón está en que, en función del verbo introducido, la herramienta va a proporcionar la información necesaria, organizada de determinada manera.