31
Hernández M. et al. Experiencias docentes de evaluación enfocadas en competencias con apoyo en el ChatGPT
Experiencias docentes de evaluación enfocadas
en competencias con apoyo en el ChatGPT
Mario Hernández Nodarse*
https://orcid.org/0000-0002-4501-0689
mhernandez@upse.edu.ec
Universidad Estatal Península de Santa Elena
La Libertad, Ecuador
Alex Ricardo López Ramos
https://orcid.org/0009-0006-7247-969X
alopezr@upse.edu.ec
Universidad Estatal Península de Santa Elena
La Libertad, Ecuador
Recibido (18/12/2024), Aceptado (02/02/2025)
Teaching experience in competency-based assessment supported by ChatGPT
Abstract.- In this work, the evaluations of university students on the integration of artificial intelligence (AI)
with ChatGPT in evaluation activities developed in different subjects and its contribution to the development of
competencies with an ethical approach were analyzed. A quantitative, exploratory and descriptive
methodology was used. The information was collected with a Likert scale survey applied to 494 students of the
Basic Education career, whose answers were processed with Excel and SPSS. The results obtained show a
predominant positive impact, highlighting the management of scientific information, feedback and the
improvement of learning. Critical areas are collaboration, interlearning, clear expression of ideas, and academic
dishonesty, indicating the need to strengthen AI-assisted assessment practices. It is concluded that its use is
subject to improvement and should be oriented towards training purposes, promoting ethical, collaborative
and contextualized learning.
Keywords: educational assessment, artificial intelligence, ChatGPT, competencies.
Resumen: En este trabajo se analizaron las valoraciones de estudiantes universitarios sobre la integración de
la inteligencia artificial (IA) con ChatGPT en actividades evaluativas desarrolladas en distintas asignaturas y su
contribución al desarrollo de competencias con enfoque ético. Se empleó una metodología cuantitativa, de
tipo exploratorio y descriptivo. La información fue recolectada con una encuesta con escala de Likert aplicada
a 494 estudiantes de la carrera de Educación Básica, cuyas respuestas fueron procesadas con Excel y SPSS.
Los resultados obtenidos evidencian un impacto positivo predominante, destacando la gestión de información
científica, la retroalimentación y la mejora del aprendizaje. Las áreas críticas son la colaboración, el
interaprendizaje, la expresión clara de ideas y la deshonestidad académica, lo que indica la necesidad de
fortalecer las prácticas evaluativas asistidas por IA. Se concluye que su uso está sujeto a mejoras y debe
orientarse hacia fines formativos, promoviendo aprendizajes éticos, colaborativos y contextualizados.
Palabras clave: evaluación educativa, inteligencia artificial, ChatGPT, competencias.
Tipo de artículo: artículo de investigación
*Autor de correspondencia: mhernandez@upse.edu.ec
ISSN-E: 2542-3401, ISSN-P: 1316-4821
PERÍODO: ABRIL-JUNIO
Universidad, Ciencia y Tecnología,
Vol. 29, Núm. 127, (pp. 31-40)
Lenin Mauricio Iñiguez Apolo
https://orcid.org/0000-0002-3856-1319
liniguez@upse.edu.ec
Universidad Estatal Península de Santa Elena
La Libertad-Ecuador
Javier Antonio García Morales
https://orcid.org/0000-0001-6452-8072
jgarcia@upse.edu.ec
Universidad Estatal Península de Santa Elena
La Libertad-Ecuador
Maritza Guisella Paula Chica
https://orcid.org/0000-0001-7435-7959
gpaula@upse.edu.ec
Universidad Estatal Península de Santa Elena
La Libertad, Ecuador
https://doi.org/10.47460/uct.v29i127.959
32
ISSN-E: 2542-3401, ISSN-P: 1316-4821
PERÍODO: ABRIL-JUNIO
Universidad, Ciencia y Tecnología,
Vol. 29, Núm. 127, (pp. 31-40)
I. INTRODUCCIÓN
En la última década, la educación superior ha experimentado un cambio paradigmático debido al auge de
las tecnologías emergentes, destacando entre ellas la inteligencia artificial generativa (IAG). Herramientas
como ChatGPT han trascendido los límites tradicionales de la enseñanza y el aprendizaje, permitiendo una
interacción más dinámica y personalizada. Este avance plantea nuevos desafíos y oportunidades,
particularmente en el ámbito de la evaluación educativa, un componente esencial para garantizar la calidad
del aprendizaje.
Las experiencias docentes de evaluación enfocadas en competencias con apoyo en ChatGPT han generado
nuevas dinámicas en el proceso educativo, transformando las estrategias tradicionales de enseñanza y
evaluación. El uso de ChatGPT como herramienta de apoyo en la evaluación por competencias ha permitido a
los docentes diseñar actividades más personalizadas y adaptativas, enfocadas en medir no solo el
conocimiento teórico, sino también la capacidad de análisis, resolución de problemas y pensamiento crítico de
los estudiantes. Esta tecnología ha facilitado la retroalimentación inmediata, ofreciendo a los estudiantes la
oportunidad de reflexionar y mejorar en tiempo real. Además, la posibilidad de generar preguntas, evaluar
respuestas y ofrecer orientación específica ha permitido una evaluación más detallada y ajustada a las
necesidades individuales de cada estudiante, promoviendo así una experiencia de aprendizaje más dinámica y
centrada en el desarrollo de competencias.
Sin embargo, estas experiencias también han planteado desafíos importantes para los docentes. La
integración de ChatGPT en la evaluación ha requerido una adaptación metodológica para garantizar que las
respuestas generadas por la IA no solo reflejen un aprendizaje superficial, sino que fomenten la construcción
de conocimiento genuino y la reflexión profunda. La tentación de recurrir a respuestas automáticas o
prefabricadas ha obligado a los docentes a diseñar evaluaciones que promuevan el pensamiento crítico y la
capacidad de argumentación, en lugar de la simple repetición de datos. Asimismo, ha surgido la necesidad de
establecer criterios claros para el uso ético de la IA en la evaluación, asegurando que los resultados obtenidos
reflejen el esfuerzo y la comprensión real de los estudiantes. En este contexto, el uso de ChatGPT en la
evaluación por competencias ha abierto un espacio para la innovación educativa, pero también ha destacado
la importancia de un acompañamiento docente que guíe el proceso hacia un aprendizaje auténtico y
significativo.
Este trabajo se centra en la implementación de actividades evaluativas apoyadas por ChatGPT en la carrera
de Educación Básica de la Universidad Estatal Península de Santa Elena. A través de un enfoque cuantitativo,
de tipo exploratorio y descriptivo, se examina el impacto de estas herramientas en el desarrollo de
competencias estudiantiles fundamentales, tales como la gestión de información científica, el pensamiento
crítico, la colaboración y la ética académica. Los resultados evidencian logros significativos en áreas como la
retroalimentación y la mejora del aprendizaje, al tiempo que destacan desafíos críticos relacionados con el
plagio y la honestidad académica.
Este estudio contribuye a la creciente discusión sobre el papel de la inteligencia artificial en la transformación
de las prácticas evaluativas en la educación superior, ofreciendo una perspectiva crítica y práctica para su
integración ética y efectiva. A través de esta experiencia, se busca no solo innovar en los procesos de
evaluación, sino también aportar al debate sobre cómo estas herramientas pueden fomentar un aprendizaje
más profundo y autónomo en un contexto educativo cada vez más tecnológico.
Hernández M. et al. Experiencias docentes de evaluación enfocadas en competencias con apoyo en el ChatGPT
33
ISSN-E: 2542-3401, ISSN-P: 1316-4821
PERÍODO: ABRIL-JUNIO
Universidad, Ciencia y Tecnología,
Vol. 29, Núm. 127, (pp. 31-40)
II. DESARROLLO
En los últimos años, la inteligencia artificial (IA) ha impactado en numerosas áreas, incluida la educación [1].
Numerosos sitios de internet, revistas científicas y empresas tecnológicas divulgan de forma creciente
información actualizada e instrucciones acerca del empleo y de las posibilidades educativas de estas
herramientas [2]. También reportes que aportan numerosos datos, estadísticas y orientaciones para el uso
efectivo de estas en los contextos educativos [3], destacando en popularidad las diversas herramientas de
inteligencia artificial generativa (IAG), como el ChatGPT.
Estos poderosos sistemas de IA generativa, como ChatGPT, si bien generan aún ciertas dudas, interrogantes,
resistencias e inquietudes relativas a su empleo ético, asuntos de seguridad, por parte de la comunidad
educativa [4], también en ya un centro de interés en estudiantes y docentes de educación superior, de donde
se vienen generando algunos estudios, experiencias pedagógicas y demostrando sus posibilidades y sus
aplicaciones en los procesos de enseñanza-aprendizaje y evaluación [5].
Uno de los temas que ha generado mayor controversia e inquietud, y que presenta una creciente demanda
de estudios y nuevas experiencias, es el uso de herramientas de inteligencia artificial generativa (IAG), como
ChatGPT. Este desafío se intensifica en el contexto de uno de los procesos históricamente más complejos y
debatidos: la evaluación de los aprendizajes. A pesar de los avances, persisten diversos problemas e
insatisfacciones debido al arraigo en concepciones y prácticas evaluativas tradicionales [6], [7]. A esto se suma
el reto de integrar la IA de manera formativa y educativa, lo que plantea nuevas oportunidades y desafíos para
la mejora del proceso evaluativo. Ciertamente, el uso de la IA en educación y en particular del ChatGPT, no es
un fenómeno reciente [8], pero su aplicación en la evaluación de aprendizajes ha sido menos explorada,
pudiendo y debiendo ser un área tal vez más estudiada, por las posibilidades y diferencias que puede
establecer con el uso del ChatGPT en la evaluación de los aprendizajes, como demuestran estudios recién
publicados [9], que marcan una diferencia y brinda nuevas oportunidades respecto a las prácticas
tradicionales.
Sobre esta cuestión, una de las mayores inquietudes del profesorado es la dificultad para poder distinguir y
verificar la legitimidad de las realizaciones estudiantiles, lo que puede afectar la integridad evaluativa, asunto
que revela un estudio realizado en la Universidad de Barcelona, que apunta a la necesidad de que el docente
esté familiarizado con el estilo de redactado del ChatGPT y el uso de sistemas de detección de plagio ante la
estructuración algo típica, ser neutral y acrítico de dicha herramienta [10].
Lo señalado indica que, toca aprender y enseñar a los docentes y estudiantes a utilizarla de forma
provechosa, productiva y ética: con una mayor orientación al estudiantado sobre la evaluación formativa,
explicarles en qué consiste, cómo aplicarla con apoyo de la IAG y por qué es importante, fomentándose una
cultura de evaluación que permita sacar el máximo provecho con actividades evaluativas e instrumentos
innovadores y diversos capaces de generar aprendizajes responsables y genuinamente provechosos [11].
Esto conlleva a repensar, reconfigurar y modificar la forma en que se evalúa y qué merece ser evaluado,
proponiéndoles a los estudiantes actividades novedosas y orientaciones para aprender de forma autónoma y
autorregulada, recibir una retroalimentación inmediata, personalizada y ajustada a sus necesidades
particulares. De hecho, el ChatGPT puede actuar como un asistente pedagógico, capaz solventar dudas, de
generar ejemplos y de modelar situaciones de aprendizaje en tiempo real [12].
Hernández M. et al. Experiencias docentes de evaluación enfocadas en competencias con apoyo en el ChatGPT
En este sentido, uno de los asuntos que pueden ser más atendidos son las competencias que son puestas en
acción por los estudiantes y que son realmente trascendentales para su formación, como la autonomía, el
trabajo en equipo, la cognición, la autorregulación, el pensamiento crítico, el uso efectivo y ético de las
tecnologías, la resolución de problemas y otras, en lo que las IA generativas, y dentro de estas, el ChatGPT,
centrándose la atención en sus motivaciones e intereses diversos, cambiándose la tendencia evaluativa
tradicional de estandarizar y priorizar la reproducción de contenidos de los programas de asignaturas,
cuestionados desde hace años [13].
La revisión de la literatura científica deja ver varios estudios y experiencias pedagógicas valiosas y las
realidades de otros contextos educativos, observándose posibilidades, falencias y desafíos asociada al uso de
la IA. En Perú, por ejemplo, se observó un interés de los estudiantes en el empleo de dichas herramientas,
recociéndose su utilidad para la redacción de textos, para la comprensión, la generación de ideas y motivación
en las tareas, según informaron los propios estudiantes [14].
En Argentina, las percepciones de las estudiantes recogidas en una encuesta sobre el uso del ChatGPT,
mostró que la gran mayoría de estos lo utilizan en sus actividades docentes, el 64 % de estos lo valoran
positivamente, considerando que influye favorablemente en sus aprendizajes, aunque consideran importante
utilizarlo con cautela, responsabilidad y ética para que realmente promueva el pensamiento crítico y un bien
real [15].
En México, sin embargo, en un estudio efectuado los estudiantes manifestaron tener un escaso uso (33 %) y
el 79% no percibieron mejoras en sus competencias investigativas. Mientras que el 83 % consideró que el
profesorado no estaba suficientemente preparado para incorpóralas en sus clases de modo productivo [16].
En otros casos [17] se ha explorado el grado de aceptación y valoraciones del estudiantado sobre el apoyo y
la utilidad que da el ChatGPT, apreciándose un 92,50 % de aceptación por la agilidad, ayuda y orientación que
toman, aunque la mayoría consideró necesario verificar la veracidad de la información y no utilizarlo de modo
total, sino complementario; mientras que por parte también fueron positivas, pero algo menor (80 %) [18].
La universidades ecuatorianas también se han direccionado hacia este tema, en algunos trabajos con
trabajos de sistematización teórica [19], y en otros se ha indagado sobre el uso de la IAG por los actores del
proceso, resultando llamativo uno relativo a al uso de dichas herramientas como motor de búsqueda,
revelándose que el 77% de los docentes conocía la IA, pero que únicamente el 47% comprendía bien su
aplicabilidad en los procesos educativos, aunque el 75 % consideró su uso variable y probablemente valioso
en la evaluación [20].
En todo caso, resulta imperativo el desarrollo de mayor indagación sobre dicho tema, dada la expansión
acelerada de la Inteligencia Artificial Generativa (IAG) y las distintas manifestaciones e impactos que están
teniendo en los contextos educativos específicos, para desde una perspectiva crítica y contextualizada poder
mejorar su uso en los procesos evaluativos, adaptados a las diferentes asignaturas y campos del
conocimiento, potenciando asuntos trascendentales desde el punto de vista formativo, como el desarrollo de
competencias, el logro de aprendizajes productivos, responsables y éticos, razones por la cuales se desplegó
este estudio en la Carrera de Educación Básica de la Universidad Estatal Península de Santa Elena, a partir de
la implementación de varias actividades evaluativas en las que los estudiantes tuvieran que utilizar
herramientas de IAG y valoraran críticamente el impacto de estas en sus competencias.
34
ISSN-E: 2542-3401, ISSN-P: 1316-4821
PERÍODO: ABRIL-JUNIO
Universidad, Ciencia y Tecnología,
Vol. 29, Núm. 127, (pp. 31-40)
Hernández M. et al. Experiencias docentes de evaluación enfocadas en competencias con apoyo en el ChatGPT
En todo caso, se hace imperativo profundizar en la investigación sobre el uso de la inteligencia artificial
generativa (IAG), dada su acelerada expansión y los diversos impactos que tiene en los contextos educativos
específicos. Es menester abordar este fenómeno desde una perspectiva científica, crítica y contextualizada
que permita mejorar su uso en los procesos evaluativos, adaptándola a las particularidades de las asignaturas
y campos del conocimiento, con el fin de fortalecer aspectos fundamentales desde el punto de vista formativo,
como el desarrollo de competencias, el logro de aprendizajes significativos, responsables y éticos. En
consonancia con esto, se desarrolló el presente estudio en la carrera de Educación Básica de la Universidad
Estatal Península de Santa Elena, mediante la implementación de actividades evaluativas que exigieron a los
estudiantes el uso de herramientas de IAG y una valoración crítica de su impacto en el desarrollo de sus
competencias.
35
ISSN-E: 2542-3401, ISSN-P: 1316-4821
PERÍODO: ABRIL-JUNIO
Universidad, Ciencia y Tecnología,
Vol. 29, Núm. 127, (pp. 31-40)
III. METODOLOGÍA
En la experiencia pedagógica evaluativa efectuada se optó por un enfoque cuantitativo con un estudio
exploratorio y descriptivo. Se aplicó el método de la encuesta mediante un cuestionario de preguntas cerradas
para recoger las precepciones y las valoraciones de los estudiantes sobre el impacto o grado de contribución
que estimaron tenían las actividades evaluativas implementadas con apoyo en herramientas de inteligencia
artificial (IA), específicamente del ChatGPT, en el desarrollo de sus competencias de aprendizaje.
Para recoger las percepciones/ las valoraciones de los estudiantes y medir el impacto o grado de
significatividad de las actividades evaluativas en sus competencias de aprendizajes, se apli mediante la
herramienta Google Form de forma anónima y libre el cuestionario de preguntas cerradas (Q) que se muestra
seguidamente (tabla 1), estableciéndose la escala de Likert: 1. Nulo, 2. Mínimo, 3. Moderado, 4. Significativo y 5.
Extremadamente significativo.
Las preguntas demandaron la valoración de los siguientes aspectos y competencias:
Competencias investigativas: Búsqueda y gestión de la información (Q1)
Competencias cognitivas-metacognitivas: involucran la interpretación, la reflexión, el análisis y organización
de ideas (Q2)
Competencias tecnológicas: uso de plataformas, recursos educativos, aplicaciones o herramientas de IA,
específicamente del ChatGPT (Q3)
Trabajo en equipo: interaprendizaje, colaboración, comunicación asertiva y respeto (Q4)
Competencias comunicativas: expresión con claridad y precisión, ya sea de manera oral, escrita, gráfica o
audiovisual, pudiendo aportar evidencias (Q5)
Estado de ánimo y competencias actitudinales: interés, motivación, compromiso con el proceso de
aprendizaje, autonomía (Q6)
Criticidad sobre la deshonestidad académica: Posicionamiento ante el fraude (Q7)
Utilidad de la retroalimentación: efectividad de la ayuda recibida, empleo de rúbricas, criterios e
indicadores (Q8)
Competencia evaluativa: para valorar y elaborar un juicio valorativo general (Q9)
Para la validación del cuestionario se calculó el Alpha de Cronbach, obteniéndose un valor de 0,907
originalmente. El valor estandarizado para las 9 preguntas fue 0,911. La similitud entre estos indica que los
ítems tienen escalas similares y que no hubo un impacto significativo al estandarizar, lo que es un buen
indicador de homogeneidad. Por tanto, el cuestionario final quedó con las mismas preguntas y la misma
escala Likert.
Hernández M. et al. Experiencias docentes de evaluación enfocadas en competencias con apoyo en el ChatGPT
En cuanto a la muestra, de una población total de 1061 estudiantes de la carrera de Educación Básica de la
UPSE, fueron encuestados 494 estudiantes en las distintas asignaturas, lo que representa el 46,56 %. Se
realizó un muestreo probabilístico al azar y en tanto representativo. Los semestres involucrados en la
investigación fueron: 2do., 3ro., 4to., 5to. y 7mo.
Los datos obtenidos del cuestionario se procesaron y analizaron mediante técnicas estadísticas descriptivas,
utilizando la herramienta Excel y el software SPSS 26. Se calcularon las cantidades, porcentajes, las frecuencias
y desviaciones estándar para cada uno de los ítems del cuestionario, con el propósito de identificar
tendencias generales de las valoraciones de los estudiantes acerca de la significatividad/ impacto de las
actividades evaluativas en las competencias involucradas. Con esto se realizó análisis por asignaturas y
semestre.
A. Actividades evaluativas realizadas
Se diseñaron y aplicaron ocho actividades evaluativas formativas en distintos semestres y asignaturas:
Teorías del aprendizaje, Didácticas específicas (de las matemáticas, de estudios sociales y del descubrimiento
del entorno natural y social), Diseño y planificación curricular, Teatro, Taller de arte y Evaluación educativa. Se
trabajó por grupos pequeños de cinco integrantes como máximo. Cada uno de los participantes seleccionó o
se le asignó un tópico diferente, evitándose que las realizaciones fueran semejantes, con lo cual se buscó
asegurar las distintas motivaciones e intereses.
Se emplearon distintas herramientas de inteligencia artificial generativa (IAG) como: ChatGPT, Perplexity,
Copilot, You.com, Dall-E 2, Midjourney, Jasper, Chatbot generadores de imágenes y de texto; estas sirvieron a
los docentes para generar ideas novedosas y diseñar estas actividades diferente a las habituales, crear
contextos reales e imaginarios, elaborar criterios evaluativos y rúbricas y brindar retroalimentación
personalizada y específica. También se empleó plataformas interactivas como PADLET.
Para los estudiantes, la inclusión de dichas herramientas de IA devino en mediadores y vías para indagar,
aprender y potenciar competencias curriculares formativas (genéricas) fundamentales, constituyendo desafíos
y retos no habituales
36
ISSN-E: 2542-3401, ISSN-P: 1316-4821
PERÍODO: ABRIL-JUNIO
Universidad, Ciencia y Tecnología,
Vol. 29, Núm. 127, (pp. 31-40)
IV. RESULTADOS
Los resultados obtenidos del procesamiento estadístico se muestran seguidamente (Tabla 1):
Tabla 1. Resultados obtenidos del procesamiento estadísticos de valores por preguntas en cada asignatura.
Hernández M. et al. Experiencias docentes de evaluación enfocadas en competencias con apoyo en el ChatGPT
En la figura 1 se presenta un resumen de las preguntas analizadas durante la investigación, se puede
observar que las respuestas se concentraron en las categorías de "significativo" y "moderado", reflejando una
tendencia clara hacia valoraciones medias y altas en la percepción de los encuestados.
Las respuestas con la categoría "nulo" fueron las menos frecuentes en todas las preguntas, con valores que
oscilaron entre 0,13% y 2,6%, lo que indicó que la mayoría de los encuestados no consideró las cuestiones
como irrelevantes o sin efecto. La categoría "mínimo" también presentó valores bajos, pero con una ligera
variación dependiendo de la pregunta; por ejemplo, en la pregunta Q7, el porcentaje alcanzó el valor más alto
de 10,91%, mientras que, en otras preguntas, como Q1 y Q2, se mantuvo por debajo del 2%.
El nivel "moderado" mostró una mayor presencia, con porcentajes que variaron entre aproximadamente 29%
y 35%. La pregunta Q7 destacó por tener el valor más alto en esta categoría con un 44,81%, lo que sugirió una
percepción de impacto o relevancia moderada por parte de los encuestados en este aspecto específico.
La categoría "significativo" fue la que presentó los valores más elevados y constantes en todas las preguntas,
con porcentajes superiores al 45% en la mayoría de los casos. La pregunta Q4 alcanzó el valor más alto en
esta categoría con un 50,39%, lo que sugirió que esta fue percibida como especialmente relevante por los
encuestados.
Además, la categoría "extremadamente significativo" presentó una variabilidad moderada entre las
preguntas, con valores que oscilaron entre 8,44% y 20,26%. La pregunta Q6 destacó en este nivel con un
20,26%, indicando que una parte significativa de los encuestados consideró esa cuestión como altamente
relevante.
El patrón general reflejó una percepción predominante de impacto significativo o moderado, con una baja
frecuencia de respuestas en las categorías de nulo y mínimo. La estabilidad en las categorías de "significativo"
y "moderado" sugirió que los encuestados tendieron a valorar las preguntas como importantes y relevantes,
aunque con diferencias en el grado de intensidad percibida entre las diferentes cuestiones.
37
ISSN-E: 2542-3401, ISSN-P: 1316-4821
PERÍODO: ABRIL-JUNIO
Universidad, Ciencia y Tecnología,
Vol. 29, Núm. 127, (pp. 31-40)
Fig. 1. Resultados generales obtenidos por ítems (Q) de la aplicación del cuestionario.
En la figura 2 se muestra el comportamiento de las categorías por asignatura, reflejando una clara tendencia
hacia las categorías de "significativo" y "moderado" en la mayoría de las asignaturas. Las respuestas en la
categoría "nulo" fueron consistentemente bajas en todas las asignaturas, situándose generalmente por debajo
del 5 %, lo que indicó que la mayoría de los encuestados no percibió las asignaturas como irrelevantes o sin
impacto.
Hernández M. et al. Experiencias docentes de evaluación enfocadas en competencias con apoyo en el ChatGPT
La categoría "mínimo" también presentó valores bajos en todas las asignaturas, manteniéndose por debajo
del 10 % en la mayoría de los casos. La asignatura de "Didáctica de estudios sociales" alcanzó el valor más alto
en esta categoría, aunque aún se mantuvo por debajo de los valores predominantes de otras categorías.
La categoría "moderado" mostró una presencia notable en todas las asignaturas, con valores que oscilaron
entre aproximadamente el 20 % y el 35 %. Las asignaturas de "Teatro" y "Diseño y planificación curricular"
destacaron en esta categoría con valores cercanos al 35 %, lo que sugirió una percepción de impacto
intermedio en estas áreas.
La categoría "significativo" fue claramente la más dominante en el gráfico, con valores que superaron el 45 %
en casi todas las asignaturas. La asignatura "Diseño y planificación curricular" alcanzó uno de los valores más
altos en esta categoría, superando el 50 %, lo que reflejó una percepción generalizada de relevancia e impacto
en este ámbito.
La categoría "extremadamente significativo" presentó una variabilidad moderada, con valores que oscilaron
entre el 10 % y el 20 %. La asignatura "Didáctica de las matemáticas" destacó en esta categoría, alcanzando el
valor más alto registrado en el gráfico.
La tendencia general mostró una percepción predominantemente "significativa" y "moderada" en la valoración
de las asignaturas, con una baja representación de respuestas en las categorías "nulo" y "mínimo". Esto sugirió
que los encuestados valoraron positivamente el impacto de las asignaturas, especialmente en términos de
relevancia y utilidad.
38
ISSN-E: 2542-3401, ISSN-P: 1316-4821
PERÍODO: ABRIL-JUNIO
Universidad, Ciencia y Tecnología,
Vol. 29, Núm. 127, (pp. 31-40)
Hernández M. et al. Experiencias docentes de evaluación enfocadas en competencias con apoyo en el ChatGPT
Fig. 2. Resultados por asignaturas en base a la escala de Likert aplicada.
39
ISSN-E: 2542-3401, ISSN-P: 1316-4821
PERÍODO: ABRIL-JUNIO
Universidad, Ciencia y Tecnología,
Vol. 29, Núm. 127, (pp. 31-40)
CONCLUSIONES
El comportamiento de las respuestas mostró una consistencia en la percepción positiva hacia las asignaturas,
lo que podría indicar una alineación entre los objetivos curriculares y las expectativas o necesidades de los
estudiantes, reflejando una percepción de valor y utilidad en la formación recibida.
La baja frecuencia de respuestas en las categorías "nulo" y "mínimo" sugirió que las asignaturas abordadas
lograron captar el interés y la atención de los estudiantes, lo que podría estar relacionado con la efectividad de
las metodologías empleadas o con la relevancia de los contenidos para el contexto académico y profesional de
los participantes.
Puede considerarse que el fortalecimiento de la retroalimentación, junto con la promoción de la integridad
académica, la colaboración efectiva y el desempeño honesto, contribuirá a que las evaluaciones sean
percibidas no solo como una medición, sino como una herramienta formativa transformadora para los
estudiantes y que potencie su carácter formativo.
Los resultados sugieren que las actividades evaluativas desarrolladas están bien alineadas con las
expectativas generales de los estudiantes, aunque algunas asignaturas pueden aún beneficiarse de mayores
ajustes para alcanzar un impacto más uniforme y significativo.
Desde esta experiencia se puede sugerir o recomendar, pensar, modelar y diseñar actividades evaluativas
que establezcan desafíos, situaciones específicas y problemas reales y variados a los estudiantes, que no
puedan ser resueltas fácilmente y propulsen su creatividad y el desarrollo del pensamiento complejo, crítico y
les comprometa ante sí mismo y los demás bajo principios éticos y morales. La variedad, diversidad y novedad
de las tareas puede motivar y propiciar del desarrollo de múltiples competencias y dar atención a las
diferencias estudiantiles. En ocasiones una misma tarea para todos con apoyo de la IAG, puede limitar y
persuadir a los aprendices de copiar y cometer fraude haciendo uso de dichas herramientas, pues las
respuestas pueden ser más fácilmente contrastadas, al ser muy similares a las de otros compañeros que
utilicen la IAG.
REFERENCIAS
[1] I. Roll y R. Wylie, «Evolution and revolution in artificial intelligence in education», International Journal of
Artificial Intelligence in Education., vol. 26, pp. 582-599., 2016.
[2] F. Flores, D. Sánchez, R. Urbina, M. Coral, S. Medrano, y D. Gonzales, «Inteligencia artificial en educación:
una revisión de la literatura en revistas científicas internacionales.», Apuntes universitarios, vol. 12, no 1, pp.
353-372, 2022.
[3] Microsoft Education, «AI in Education Report.», Microsoft Education. [En línea]. Disponible en:
https://www.microsoft.com/en-us/education
[4] F. Vera, «Integración de la Inteligencia Artificial Generativa en la Educación Superior», REVISTA
ELECTRÓNICA TRANSFORMAR, vol. 4, no 4, pp. 36-47, 2023.
[5] N. Francis y D. Smith, «Using Generative Artificial Intelligence for Assessment: A Student Guide.», Edge Hill
University.
[En línea]. Disponible en:
https://figshare.edgehill.ac.uk/articles/educational_resource/Using_Generative_Artificial_Intelligence_A_Student_
Guide_pdf/24259597.
[6] M. Hernández, «¿Por qué ha costado tanto transformar las prácticas evaluativas del aprendizaje en el
contexto educativo? Ensayo crítico sobre una patología pedagógica pendiente de tratamiento», Revista
Electrónica Educare, vol. 21, no 1, pp. 1-27, 2017, doi: https://doi.org/10.15359/ree.21-1.21.
[7] M. Prieto y G. Contreras, «Concepciones que orientan las prácticas evaluativas de los profesores: Un
problema a develar», Estudios Pedagógicos, vol. XXXIV, no 2, pp. 245-262, 2008.
Hernández M. et al. Experiencias docentes de evaluación enfocadas en competencias con apoyo en el ChatGPT
[8] Ö. Aydın y E. Karaarslan, «OpenAI ChatGPT Generated Literature Review: Digital Twin in Healthcare», en
Emerging Computer Technologies 2, İzmir Akademi Dernegi, 2022, pp. 22-31.
[9] J. Rudolph, S. Tan, y S. Tan, «ChatGPT: Bullshit spewer or the end of traditional assessments in higher
education?», Journal of Applied Learning & Teaching, vol. 6, n.o 1, 2023, doi:
Https://doi.org/10.37074/jalt.2023.6.1.9.
[10] N. Anderson, D. L. Belavy, S. M. Perle, S. Hendricks, L. Hespanhol, y E. Verhagen, «AI did not write this
manuscript, or did it? Can we trick the In, AI text detector into generated texts? The potential future of ChatGPT
and AI Sports & Exercise Medicine manuscript generation. BMJ», Open Sp Ex Med, vol. 9, n.o
Https://doi.org/10.1136/bmjsem-2023-001568, p. 1568, 2023.
[11] ProFuturo, «Integrando la IA en educación: recursos y experiencias», Fundación Telefónica La Caixa. [En
línea]. Disponible en:
https://profuturo.education/observatorio/enfoques/integrando-la-ia-en-educacion-recursos-y-experiencias/
[12] T. Farrelly y N. Baker, «Generative Artificial Intelligence: Implications and Considerations for Higher
Education Practice.», Education Science, vol. 13, n.o 11, p. 1109, 2023, doi:
https://doi.org/10.3390/educsci13111109.
[13] M. E. C. García, «La evaluación por competencias en la educación superior. Profesorado.», Revista de
curriculum y formación de profesorado, vol. 12, n.o 3, pp. 1-16., 2008.
[14] R. Larico, «Impacto de la inteligencia artificial generativa ChatGPT en la enseñanza universitaria», Chakiñan
Revista de Ciencias Sociales y Humanidades, 2024.
[15] S. A. Zuber, «Chat GPT en la educación: percepciones de estudiantes universitarios acerca de su uso y
recaudos», en Memorias de las Jornadas Nacionales y Congreso Internacional en Enseñanza de la Biología,
2023, pp. 56-56.
[16] O. García, «Uso y Percepción de ChatGPT en la Educación Superior», Revista de Investigación en
Tecnologías de la Información, vol. 11, n.o 23, pp. 98-107, 2023, doi: https://doi.org/10.36825/RITI.11.23.009.
[17] M. Segarra, R. Grangel, y O. Belmonte, «ChatGPT como herramienta de apoyo al aprendizaje en la
educación superior: una experiencia docente», Tecnología, Ciencia y Educación, n.o 28, pp. 7-44, 2024, doi:
https://doi.org/10.51302/tce.2024.19083.
[18] F. J. Pérez, J. Morales, N, y J. X. Bajaña, «La incidencia de la inteligencia artificial en la educación superior del
Ecuador», Revista Polo del Conocimiento, vol. 9, n.o 5, pp. 822-837, 2024.
[19] F. X. Juca-Maldonado, «Inteligencia artificial en motores de búsqueda: percepciones de los docentes
universitarios y su impacto en el proceso de enseñanza y aprendizaje.», INNOVAResearch Journal, vol. 8, n.o
3.1, pp. 45-58, 2023, doi: https://doi.org/10.33890/innova.v8.n3.1.2023.2336.
[20] M. Gonzalez-Mohino, M. Rodriguez-Domenech, A. I. Callejas-Albiñana, y V. Castillo-Canalejo, «Empowering
Critical Thinking: The Role of Digital Tools in Citizen Participation», Journal of New Approaches in Educational
Research, vol. 12, n.o 2, pp. 258-275., 2023, doi: 10.7821/naer.2023.7.1385.
40
ISSN-E: 2542-3401, ISSN-P: 1316-4821
PERÍODO: ABRIL-JUNIO
Universidad, Ciencia y Tecnología,
Vol. 29, Núm. 127, (pp. 31-40)
Hernández M. et al. Experiencias docentes de evaluación enfocadas en competencias con apoyo en el ChatGPT