Con cada día que pasa, la inteligencia artificial (IA) toma más fuerza y se apodera de espacios y tareas que solo eran realizadas por humanos. El pasado 30 de noviembre de 2022, la empresa OpenAI, fundada por el empresario, inversor y magnate, Elon Musk, hizo público el ChatGPT, un sistema de IA diseñado para mantener conversaciones mediante un chat escrito.
Según refiere la página principal del ChatGPT, este es un sistema de chat basado en el modelo del lenguaje por IA GPT-3 con más de 175 millones de parámetros entrenados y diseñados para realizar actividades relacionadas con el lenguaje, que van desde la traducción hasta la creación de textos de cualquier naturaleza.
El principal atractivo de este chatbot es que es capaz de ofrecer respuestas muy precisas y completas de cualquier tema, bien sea sobre política, economía, educación, música, tecnología, entretenimiento, cultura. Sin embargo, un problema se presenta en escuelas y universidades, y es que con la precisión de las respuestas que ofrece, resulta difícil distinguir si el texto fue creado por el estudiante o por inteligencia artificial.
Para evaluar los riesgos y potencialidades del uso del ChatGPT en las universidades, el profesor y director de la Escuela de Educación de la Universidad Católica Andrés Bello (ucab), Carlos Calatrava, apuntó que hay que tener en consideración que una cosa es plagio de información y otra es el fraude académico.
Calatrava ejemplifica la situación con un caso que ocurrió en los Estados Unidos en donde se le pidió a un estudiante que hiciera un ensayo con ciertas características. El estudiante hizo la solicitud al bot y este le formuló la actividad, tal y como se lo habían indicado y lo hizo pasar como un texto propio.
Sin embargo, Calatrava aclaró que este bot de inteligencia artificial no solo se está empleando con “fines más allá de entretenimiento y de distracción”, sino también para proponer algo asociado al fraude académico.