Construct validity of a questionnaire to evaluate online courses: students’ perspective
Efrén Raúl Ponce-Rosas[1], Rocío Dávila-Mendoza[2],
Irma Jiménez-Galván[3] y María Esther Urrutia-Aguilar[4]
División de Estudios de Posgrado, Facultad de Medicina, UNAM
Objetivo: Determinar la validez de constructo de un cuestionario para evaluar un curso en línea de nivel maestría. El método fue un estudio transversal, descriptivo, multivariado exploratorio. Participaron 110 alumnos durante siete ciclos escolares (2016 – 2022) de la materia Métodos de Investigación Educativa. Se diseñó un cuestionario, con 37 preguntas tipo Likert y diferencial semántico para evaluar el entorno virtual del curso. Se utilizó análisis factorial para determinar la validez de constructo. Apego a normas éticas. Los resultados mostraron una varianza explicada por el modelo, y fue de 72 % con rotación de factores varimax; la prueba de esfericidad de Bartlett fue significativa (p< 0.0001); el valor del Índice Kaiser-Meyer-Olkin fue de 0.683; se retuvieron ocho factores y la confiabilidad alfa de Cronbach fue 0.908. Las conclusiones fueron que la confiabilidad del cuestionario fue muy alta; siete criterios del análisis factorial rebasaron los valores mínimos de referencia esperados. La evaluación global del modelo de validez de constructo fue adecuada.
Palabras clave: Evaluación de cursos en línea, perspectiva de los alumnos, validez de constructo, análisis factorial.
Abstract
Objective: To determine the construct validity of a questionnaire designed to assess an online course for a master’s degree subject. The method was a cross-sectional, observational, exploratory multivariate study. 110 students participated over seven academic cycles (2016 – 2022) of the subject Educational Research Methods. A questionnaire was designed, with 37 Likert-type questions and semantic differential to evaluate the virtual environment of the course. Factor analysis was used to determine the construct validity of the questionnaire. Was adhered to ethical guidelines in educational research. The results shown the variance explained by the model, and it was 72% with varimax factor rotation; the Bartlett’s test of sphericity was significant (p<0.0001); the Kaiser-Meyer-Olkin index value was 0.683; eight factors were retained, and the Cronbach’s alpha reliability was 0.908. The conclusions were that the reliability of the questionnaire was very high; seven criteria from the factor analysis surpassed the expected reference minimum values. The overall assessment of the construct validity model was adequate.
Keywords: Online course evaluation, student perspective, construct validity, factor analysis.
Introducción
La Universidad Nacional Autónoma de México (UNAM), ofrece a sus aspirantes de posgrados, el Programa de Maestría en Docencia para la Educación Media Superior (MADEMS), que comprende a 14 campos del conocimiento y participan 15 entidades académicas de la UNAM (nueve Facultades, tres Escuelas Nacionales y tres Institutos).
El Plan de estudios de MADEMS inició desde 2003, en 2016 se incluyó la asignatura Métodos de Investigación Educativa (MIE); esta materia es de elección optativa del área socio-ético-educativa y se ubica en el primer semestre de cuatro en total (UNAM, 2019).
La asignatura de MIE se ha impartido en forma ininterrumpida y la han cursado siete generaciones de maestrantes de MADEMS desde 2016 a 2022 en los formatos b‑learning y e‑learning: este último por la emergencia sanitaria por COVID-19.
La evaluación de los cursos en línea ha sido objeto de interés creciente por diversos autores; el vertiginoso avance de las tecnologías de información y comunicación (TIC) de las dos últimas décadas, sus aplicaciones en la educación y el desarrollo de plataformas educativas, entre otros factores, han hecho posible que actualmente, se ofrezcan infinidad de cursos en este formato.
El trabajo considerado pionero para el propósito de evaluar los cursos en línea es el de Mancebo y Tornos (1998) quien propone una lista de cotejo de 86 ítems distribuidos en cuatro secciones; todas las preguntas tienen como opciones de respuesta una escala tipo Likert de 5 opciones. El autor no utilizó algún procedimiento de validación de constructo; reconoció que se construyó con base en su experiencia y orienta a la evaluación desde la perspectiva del profesor y los alumnos. Por su parte, Sandia et al., (2005) señalan que en la estructura de los cursos en línea existen tres componentes importantes: humano, tecnológico e instruccional. Los autores proponen siete áreas de la evaluación de este tipo de cursos en las que se integran 32 actividades. Además, enfocan a la evaluación desde la perspectiva de los diseñadores y no proponen algún instrumento específico. Concluyen que los evaluadores deben definir sus propios criterios de evaluación desde diferentes perspectivas en su contexto educativo.
Otra propuesta es el cuestionario para la evaluación de cursos apoyados en tecnologías de la información y la comunicación, para la evaluación de cursos apoyados en TIC, contiene 166 ítems distribuidos en 5 áreas; utiliza escalas de respuesta tipo Likert, su enfoque es orientado a las opiniones de los alumnos; no hay evidencia de tipo alguno de validación.
En España, Rodríguez et al., (2010) propone un modelo de evaluación multidimensional en las áreas: pedagógica, tecnológica, diseño de interfaz, gestión, apoyo y evaluación; en esta propuesta se incluye la labor tutorial. El instrumento consta de 29 ítems, escala Likert y diseñado para la evaluación desde la perspectiva de los alumnos. Este trabajo reportó la confiabilidad del cuestionario y utilizó análisis factorial para determinar la validez de constructo. Los autores solo reportan coeficientes de correlación inter-ítems, un resumen de la varianza explicada y el coeficiente de confiabilidad alfa de Cronbach de 0.90.
Al parecer, las tendencias en la evaluación de estos tipos de cursos, inicialmente se enfocaron desde la perspectiva de los profesores y diseñadores instruccionales y posteriormente, se consideró la de los alumnos (Mancebo y Tornos, 1998; Sandia et al., 2005; Rodríguez et al., 2010; Acón y Trujillo, 2011; García-Cabrero et al., 2018; Flores y López de la Madrid, 2019; Baldwin y Ching, 2019a; Baldwin y Ching, 2019b; California Community Colleges. Online Education Initiative, 2018; Santiago, 2022; Flores y López de la Madrid, 2011). Estos autores señalan y puntualizan en forma general las dimensiones o áreas que deben evaluarse en los cursos en línea; la mayoría de los comunicados son propuestas para la evaluación desde la visión o perspectiva de los alumnos; algunos proponen indicadores específicos adecuados a su entorno propio y particular de trabajo docente. Son escasos los reportes en los que se proponen instrumentos específicos (cuestionarios, rúbricas, listas de cotejo, etc.) para evaluar este tipo de cursos. Baldwin y Ching (2019a) proponen una lista de cotejo para la evaluación de cursos en línea desde la perspectiva de los diseñadores instruccionales.
En los trabajos revisados, los autores fundamentan los aspectos que consideran importantes, con base en su experiencia, conocimiento y trabajo empírico para evaluar los cursos en línea; sin embargo, se encontró escasa evidencia objetiva de que hayan utilizado algún procedimiento de validez de constructo.
Objetivo
Determinar la validez de constructo de un cuestionario para la evaluar el entorno virtual de aprendizaje diseñado para la asignatura Métodos de Investigación Educativa, del Programa de Maestría en Docencia para la Educación Media Superior de la UNAM.
Método
Estudio transversal, observacional, multivariado exploratorio. Participaron 110 alumnos pertenecientes a 7 generaciones durante el periodo 2016–2022 de la materia MIE. Las sesiones presenciales frente a grupo se impartieron en las instalaciones de la Unidad de Posgrado de la UNAM; excepto en los años 2020 y 2021 en los cuales se realizó a distancia mediante video conferencia. Se diseño un aula virtual como apoyo complementario para los alumnos con las siguientes características:
- Alojamiento del curso: https://docencia.tic.unam.mx/
- Aula virtual: https://tuaulavirtual.educatic.unam.mx/course/view.php?id=17004
- Sistema de gestión de aprendizaje: Moodle
- Características y formato del curso:
- Modalidad: b‑learning (2016 – 2019 y 2022)
- Modalidad: e‑learning (2020 – 2021)
- Organización: 8 módulos, 106 Recursos didácticos, 16 sesiones presenciales; 3 horas cada semana durante 4 meses
- Tutoría: Síncrona y asíncrona
- Trasmisión a distancia: Zoom Video Communications©
- Número de docentes titulares: 2
- Número de alumnos: 20 por cada ciclo escolar
Se diseño un instrumento que incluyó 37 preguntas con respuestas tipo Likert y diferencial semántico; además de algunas variables sociodemográficas y escolares. La aplicación del cuestionario se realizó al final de cada ciclo escolar, en forma asíncrona y después de haber emitido las calificaciones finales de los alumnos.
Análisis estadístico: multivariado (análisis factorial exploratorio), para determinar la validez de constructo de las preguntas que integraron el cuestionario. La información obtenida se almacenó en una base de datos diseñada en el programa estadístico SPSS© v.25
Consideraciones éticas. La evaluación y aprobación del proyecto fue otorgado por la Coordinación General del Programa de Maestría en Docencia para la Educación Media Superior (MADEMS) de la UNAM. Se solicitó el consentimiento voluntario y anónimo. La investigación se apegó a las recomendaciones de privacidad y confidencialidad de los documentos rectores en investigación en educación (American Educational Research Association, 2011; National Council on Measurement in Education, 1995; Join Committee on Testing Practice.)
Resultados
Participaron 110 alumnos pertenecientes a 7 generaciones durante el periodo 2016–2022. En la Tabla 1 se muestran el perfil general y características de los alumnos.
El promedio de edad fue de 34.39 años ± 7.773 de. con rango de 33 a 55.
Tabla 1. Perfil general de los alumnos de la asignatura
Métodos de Investigación Educativa
Variable | Categorías | Frecuencia | Porcentaje |
Sexo | Femenino | 67 | 60.9 |
Masculino | 43 | 39.1 | |
Estado civil | Sin pareja | 74 | 67.2 |
Con pareja | 36 | 32.8 | |
Grado de escolaridad | Licenciatura | 96 | 87.3 |
Maestría y/o especialidad | 14 | 12.7 | |
Tiempo completopara la maestría | Si | 82 | 74.5 |
No | 28 | 25.5 | |
Beca económica | Si | 82 | 74.5 |
No | 28 | 25.5 |
Validez de constructo
Se utilizó la técnica de análisis factorial exploratorio, se incluyeron 37 variables incluidas en el modelo.
Paso 1. Se calculó la matriz de correlación múltiple y se evaluaron los resultados obtenidos de los coeficientes de correlación entre las 37 variables. En este paso, el determinante de la matriz de correlación múltiple, la prueba de esfericidad de Bartlett y el índice Kaiser-Meyer-Olkin, mostraron valores superiores a los establecidos como mínimos. Estos tres parámetros indicaron que la solución de factores latentes fue adecuada.
Paso 2. Se obtuvo la varianza explicada por el modelo que fue 72.5 % obtenida con 10 componentes principales; asimismo, se calcularon los autovalores y las cargas de extracción y rotación perpendicular Varimax con normalización Kaiser para optimizar las cargas de las variables en los factores obtenidos (Tabla 2).
Paso 3. En la Tabla 3 se muestra la retención de factores, la conceptualización de estos y sus valores de las cargas factoriales para la solución final.
Tabla 2. Varianza total explicada del del modelo de análisis factorial calculado.
Varianza total explicada | |||||||||
Compo-nente | Autovalores iniciales | Sumas de cargas al cuadrado | |||||||
Extracción | Rotación Varimax | ||||||||
Total | % de varianza | % acumulado | Total | % de varianza | % acumulado | Total | % de varianza | % acumulado | |
1 | 9.129 | 24.023 | 24.023 | 9.129 | 24.023 | 24.023 | 5.154 | 13.563 | 13.563 |
2 | 4.669 | 12.286 | 36.309 | 4.669 | 12.286 | 36.309 | 4.296 | 11.305 | 24.868 |
3 | 2.758 | 7.258 | 43.567 | 2.758 | 7.258 | 43.567 | 3.603 | 9.483 | 34.351 |
4 | 2.290 | 6.025 | 49.592 | 2.290 | 6.025 | 49.592 | 3.272 | 8.611 | 42.961 |
5 | 2.042 | 5.374 | 54.966 | 2.042 | 5.374 | 54.966 | 2.409 | 6.339 | 49.300 |
6 | 1.576 | 4.147 | 59.113 | 1.576 | 4.147 | 59.113 | 2.266 | 5.964 | 55.264 |
7 | 1.513 | 3.981 | 63.094 | 1.513 | 3.981 | 63.094 | 2.109 | 5.550 | 60.814 |
8 | 1.348 | 3.547 | 66.640 | 1.348 | 3.547 | 66.640 | 1.789 | 4.709 | 65.523 |
9 | 1.159 | 3.051 | 69.691 | 1.159 | 3.051 | 69.691 | 1.335 | 3.514 | 69.037 |
10 | 1.081 | 2.844 | 72.535 | 1.081 | 2.844 | 72.535 | 1.330 | 3.499 | 72.535 |
Método de extracción: análisis de componentes principales. |
Tabla 3. Retención y conceptualización de los factores en la solución final
En la Tabla 4 de la siguiente página se muestra la evaluación global del modelo de validación de constructo que consideramos adecuada y con muy alta confiabilidad.
En el Anexo 1, se muestra la propuesta final del instrumento con base en los resultados obtenidos.
Tabla 4. Evaluación global de la validez de constructo del modelo de análisis factorial
Discusión
En esta investigación, se enfatizan, por su importancia metodológica, los criterios de referencia y los valores obtenidos del modelo de validación de constructo para que la interpretación sea más objetiva.
Acón y Trujillo (2011) proponen un modelo de evaluación de la calidad de los cursos en línea que contempla cuatro áreas (tecnología, formación, diseño instruccional, servicios y soporte), se integra con 27 estándares y 72 indicadores. Este instrumento utiliza respuestas dicotómicas (si – no) de cumplimiento para cada criterio y está diseñado con enfoque de diseñadores y administradores en educación. En este trabajo no hay evidencia del tipo de validez para la construcción de su propuesta de evaluación.
En el estudio mixto (cuantitativo y cualitativo) realizado por Flores y López de la Madrid (2019), se evalúa un curso en línea desde la perspectiva del alumno; el instrumento incluyó seis dimensiones, 28 reactivos tipo Likert. Obtuvieron confiabilidad de 0.95 y se reportaron las especificaciones técnicas del modelo de análisis factorial utilizado para la validez de constructo en forma similar a las utilizadas en nuestro estudio, aunque con algunas diferencias técnicas no consideradas (valores mínimos de referencia esperados de la Tabla 3).
Gutiérrez (2019b) publicó un trabajo para identificar las tendencias en la evaluación de cursos en línea; realizó una revisión de los diferentes enfoques para la evaluación y además identificó nueve estudios en los que se usaron cuestionarios adaptados a los factores o características propias de los cursos que fueron evaluados. Gutiérrez (2019a), en otro trabajo, realizó un estudio acerca de las percepciones de los alumnos sobre los cursos en línea en el área de las matemáticas.
Baldwin y Ching (2019a) analizaron las percepciones de los instructores-diseñadores de los cursos en línea; utilizaron una lista de cotejo con 16 criterios que se evalúan antes, durante y después del proceso de diseño del curso; a los diseñadores se les solicitó su percepción de los criterios mediante un cuestionario de preguntas abiertas y cerradas en escalas tipo Likert. Los autores mencionan que la lista de cotejo de las variables estudiadas que se integraron se realizó mediante la revisión de la literatura acerca del tema (validez de contenido).
Baldwin y Ching (2019b), realizaron una revisión muy amplia de las plataformas educativas para el aprendizaje en línea; encontraron que las más frecuentes en Estados Unidos son Blackboard, Canvas y Moodle. Los autores sostienen que, para brindar calidad educativa, la evaluación de los cursos en línea es un paso importante.
La Iniciativa de Educación en Línea del Campus Virtual de California (2018), desarrolló una rúbrica para evaluar 44 criterios de los cursos en línea distribuidos en cuatro secciones: presentación del contenido, interacción, evaluación y accesibilidad. La rúbrica, especifica con detalle y claridad las características de la escala de evaluación; no se informó de su procedimiento de validación.
Santiago (2022), destaca la importancia de la relación entre la idoneidad para que el estudiante aprenda en línea (aprendizaje autodirigido, motivación académica y control del alumno entre otros) y la usabilidad del curso, fundamentalmente en los aspectos del contenido, interactividad, presencia del instructor y diseño del curso. En nuestro trabajo la conceptualización de los factores obtenidos (Tabla 3), coincide con el autor consultado. Por su parte, Flores et al., orientan su estudio a la dimensión pedagógica, evalúan aspectos que coinciden en nuestro trabajo en los factores 3 y 8; la validación del instrumento se realizó mediante una prueba piloto aplicada a 30 alumnos y obtuvieron un coeficiente alfa de Cronbach de 0.90.
Actualmente, la Universidad Estatal Sam Houston de Texas, (Sam Houston State University, 2023) en los Estados Unidos, ofrece a los diseñadores e instructores educativos de cursos en línea, apoyo humano, servicios y herramientas digitales para el diseño, desarrollo e implantación de este tipo de cursos; tanto en formato en línea como en forma combinada (b‑learning). Esta Universidad ha creado guías que incluyen los aspectos de planeación, organización, objetivos de aprendizaje del estudiante, elementos multimedia, actividades de colaboración, comunicación y evaluación.
Lo importante de estas guías, es que son útiles para fundamentar con más objetividad los aspectos que pueden evaluarse desde la visión de los profesores e incluye los aspectos de evaluación del aprendizaje de los alumnos partiendo del principio de mejores prácticas para el diseño de cursos y la instrucción básica en línea. Los autores proponen una rúbrica dirigida a los diseñadores instruccionales e instructores-profesores para evaluar los aspectos básicos de los cursos en línea.
Acerca de las limitaciones de este estudio se consideran las relacionadas con el tipo y tamaño de la muestra. El muestreo utilizado, no fue aleatorio; lo cual impide generalizar los resultados obtenidos a la población de referencia; sin embargo, en las siete generaciones que han cursado la materia MIE, aproximadamente la han tomado 120 alumnos y en el estudio se obtuvieron 110 respuestas lo que representa el 91.6%, cifra considerada como representativa. Otra limitante fue que, para la planeación y construcción del instrumento, el diseño final se adecuó y dispuso para las características propias de la materia en formato presencial y apoyo complementario en aula virtual.
En la revisión de la literatura se encontró que existe una gran diversidad de propuestas para la evaluación de cursos en línea desde diferentes visiones o perspectivas (diseñadores, pares académicos, profesores y alumnos). La mayoría de los autores consultados destacan la importancia y utilidad de la evaluación desde la visión de los alumnos; esta fue la intención en este trabajo.
Otra fortaleza fue que, a diferencia de las diversas propuestas consultadas, no se especifican los métodos estadísticos robustos para la validación de constructo de instrumentos de evaluación de cursos en línea; algunos son construidos por la experiencia empírica docente, otros solamente indican las áreas o componentes que se deben evaluar y pocos usan procedimientos objetivos y verificables como lo fue el caso del presente estudio.
Conclusiones
Existe una gran variedad de herramientas de evaluación de cursos para guiar a los profesores, instructores y diseñadores, sin embargo, son escasos los instrumentos, listas de cotejo, cuestionarios o rúbricas en los que se especifican los detalles o características técnicas de los diferentes procesos de validación.
En este trabajo se propone un instrumento para la evaluación de los cursos en línea. Los factores obtenidos conceptualizados fueron: Actividad tutorial, manejo de herramientas de ofimática, características de los recursos didácticos, usabilidad del aula virtual, motivación del alumno, responsabilidad del alumno, búsqueda, gestión y análisis de información y planeación didáctica.
El estudio contribuye a la necesidad de diseñar, elaborar y validar instrumentos en el área de la psicometría para evaluar los cursos en línea, para ello, se utilizó un método estadístico multivariado potente y robusto (análisis factorial). El cuestionario validado se anexa para aquellos interesados en la evaluación del diseño y desarrollo de cursos en línea considerando la opinión de los alumnos.
Referencias
Acón-Matamoros, A. G., y Trujillo-Cotera, A. (2011). Evaluación de un curso en línea: Criterios de calidad. Revista Electrónica Calidad en la Educación Superior, 2(1), 89–104.
AERA Code of Ethics: American Educational Research Association Approved by the AERA Council February 2011. (2011). Educational Researcher, 40(3), 145–156. https://journals.sagepub.com/doi/abs/10.3102/0013189X11410403?journalCode=edra#:~:text=Education%20researchers%20are%20honest%2C%20fair,jeopardize%20the%20welfare%20of%20others.
Baldwin, S.J., y Ching, Y. H. (2019a). An online course design checklist: development and users’ perceptions. Journal of Computing in Higher Education, 31(1), 156–172.
Baldwin, S.J., y Ching, Y. H. (2019b). Online Course Design: A Review of the Canvas Course Evaluation Checklist. International Review of Research in Open and Distributed Learning, 20(3), 268–82.
California Community Colleges. Online Education Initiative. (2018). Course Design Rubric. The California Virtual Campus-Online Education Initiative (CVC-OEI). https://cvc.edu/wp-content/uploads/2018/10/CVC-OEI-Course-Design-Rubric-rev.10.2018.pdf
Cuestionario para la evaluación de cursos apoyados en tecnologías de la información y la comunicación. https://www.tdx.cat/bitstream/handle/10803/8909/Ncuestionariofinal.pdf
Flores Guerrero, K., López de la Madrid, M. C., Rodríguez Hernández, M. A. (2011). La dimensión pedagógica en el Modelo de Evaluación de Cursos en Línea del Centro Universitario del Sur. Organización de los Estados Americanos. Portal Educativo de las Américas. https://recursos.educoas.org/sites/default/files/1908.pdf
Flores Guerrero, K., y López de la Madrid, M. C. (2019). Evaluación de cursos en línea desde la perspectiva del estudiante: un análisis de métodos mixtos. Perspectiva Educacional, 58(1), 92–114.
García-Cabrero, B., Luna Serrano, E., Ponce-Ceballos, S., Cisneros-Cohernour, E. J., Cordero Arroyo, G., Espinosa Díaz, Y., y García Vigil, M. H. (2018). Las competencias docentes en entornos virtuales: un modelo para su evaluación. Revista Iberoamericana de Educación a Distancia, 21(1), 343–365.
Gutiérrez-Moreno, L. I. (2019a). Evaluación de un curso en línea de Matemática Remedial. HETS Online Journal. 10(1)58–89.
Gutiérrez-Moreno, L. I. (2019b). Tendencias en la evaluación de cursos en línea. HETS Online Journal. 9(2), 101–121.
Join Committee on Testing Practice. Code of Fair Testing Practices in Education. https://www.apa.org/science/programs/testing/fair-testing.pdf
Mancebo-Alemany, F. M., y Tornos-Tortajada, M. J. (1998). La evaluación de cursos en línea: Una propuesta aplicada a casos reales. En: F. Alcantud-Marín, Teleformación: Diseño para todos. (pp. 206 ‑227). https://www.academia.edu/85254205/Teleformaci%C3%B3n_Dise%C3%B1o_para_todos
National Council on Measurement in Education. (1995). Code of Professional Responsibilities in Educational Measurement. Evaluation and Testing in Nursing Education, 5th Edition, Springer Publishing Company, New York, 379–386. https://doi.org/10.1891/9780826194893.ap04
Rodríguez Hernández, M. A., Flores Guerrero, K., y López de la Madrid, M. C. (2010). Modelo multidimensional para la evaluación de cursos en línea desde la perspectiva del estudiante. Apertura, 2(2).
Sandia, B., Montilva, J., y Barrios, J. (2005). Cómo evaluar cursos en línea. Educere, 9(31), 523–530.
Santiago Ramos, L. N. (2022). Relación entre la idoneidad del estudiante para aprender en línea y la evaluación de usabilidad de los cursos en línea [Tesis de doctorado]. Universidad Interamericana de Puerto Rico. https://ponce.inter.edu/cai/Tesis_Graduado/Linda-Santiago/index.pdf
SHSU online. Blended Rubric for Course Design. Sam Houston State University. https://online.shsu.edu/campus/faculty-services/documents/rubrics/Hybrid-Blended+Rubric.pdf
SHSU online. Online-Live Rubric for Course Design. Sam Houston State University. https://online.shsu.edu/campus/faculty-services/documents/rubrics/Online-Live-Rubric.pdf
SHSU Online. Rubric for Online Course Design with Feedback. Sam Houston State University. https://online.shsu.edu/campus/faculty-services/documents/rubrics/online-rubric-with-feedback.pdf
SHSU Online. Rubric for Online Course Design. Sam Houston State University [internet]. [citado 2023 mayo 27] Disponible en: https://online.shsu.edu/campus/faculty-services/documents/rubrics/Online-Rubric.pdf
SHSU Online. Guidelines for Creating a Blended Course. Sam Houston State University [internet]. [citado 2023 mayo 27] Disponible en: https://online.shsu.edu/campus/faculty-services/documents/GuidelinesForCreatingaBlendedRubric2021.pdf?language_id=1
Universidad Nacional Autónoma de México. (2019). Proyecto de modificación del Programa de Maestría en Docencia para la Educación Media Superior. https://madems.posgrado.unam.mx/alumnos/plan.pdf
Anexo 1
Cuestionario para la evaluación de cursos en línea
Las siguientes preguntas tienen la finalidad de evaluar el desempeño de la actividad tutorial de tu profesor durante el desarrollo de la materia; considera la siguiente escala y su equivalencia numérica:
Desempeñodel profesor | Puntuación |
Pésimo | 1 |
Malo | 2 |
Regular | 3 |
Bueno | 4 |
Muy bueno | 5 |
Excelente | 6 |
Marca con una equis (x) la puntuación que consideres apropiada. (No marques doble respuesta).
Factor 1. Actividad tutorial | 1 | 2 | 3 | 4 | 5 | 6 |
El asesor me informó y orientó sobre técnicas para mejorar mi aprendizaje | ||||||
Las dudas sobre mi desempeño en el aula fueron aclaradas acertadamente | ||||||
El asesor tuvo la disposición de atenderme cuando lo requerí | ||||||
La comunicación con el asesor, en el aula virtual, me dio confianza | ||||||
Me sentí cómodo en las sesiones de asesoría en el ambiente del aula virtual | ||||||
La orientación recibida mediante la asesoría me comprometió a participaractivamente para desarrollar mi proyecto de investigación | ||||||
Mi asesor revisó mis actividades y me proporcionó retroalimentación de maneraoportuna (no mayor a 72 horas después de enviar mis tareas) | ||||||
Los resultados para desarrollar el proyecto de investigación se deben al apoyode la asesoría | ||||||
Considero que el trabajo y la labor de tutoría realizada por mi asesor fue: |
Para cada programa o aplicación de Internet, marca en los espacios con una equis (x), del 1 al 6, el grado de habilidad que consideras tener. (No marques doble respuesta).
Para cada característica del aula virtual, marca con una equis (x) en los espacios del 1 al 4, según tu percepción (No marques doble respuesta).
Factor 4. Usabilidad del aula virtual | Mala 1 | Regular 2 | Buena 3 | Excelente 4 |
Facilidad para acceder al aula | ||||
Desplazamiento entre los módulos y temas | ||||
Facilidad para acceder a los contenidos de los temas | ||||
Comodidad dentro del aula |
Selecciona con una equis (x), el espacio correspondiente, según el grado de tu sentir personal que mostraste durante las sesiones presenciales en aula; estas preguntas tienen grado de polaridad, es decir, tus respuestas pueden o no acercarse a los extremos. (No marques doble respuesta).
Factor 5. Motivación del alumno | |||||||
Comprometido | No Comprometido | ||||||
No interesado | Interesado | ||||||
Atento | Distraído |
Factor 6. Responsabilidad del alumno | |||||||
Responsable | No Responsable | ||||||
Participativo | No participativo |
Para cada programa o aplicación de Internet, marca en los espacios con una equis (x), del 1 al 6, el grado de habilidad que consideras tener. (No marques doble respuesta).
Factor 7. Búsqueda, gestión y análisis de información | ||||||
Programa o aplicación | Nula 1 | Mala 2 | Regular 3 | Buena 4 | Muy buena 5 | Excelente 6 |
Gestores de referencias (Mendeley, Zotero) | ||||||
ERIC | ||||||
Programas de análisis estadístico |
Para cada característica de los recursos didácticos, marca con una equis (x) en los espacios del 1 al 4 según tu percepción. (No marques doble respuesta).
Factor 8. Planeación didáctica | Nunca 1 | Casi nunca 2 | Casisiempre 3 | Siempre 4 |
Las actividades (lecturas, tareas, etc.) fueron congruentescon los objetivos de aprendizaje | ||||
La tutoría impartida evidenció una planeación de actividades |
Notas
- Efrén Raúl Ponce-Rosas, Subdivisión de Medicina Familiar, División de Estudios de Posgrado, Facultad de Medicina, UNAM. Ciudad de México. Correo: iprenator@gmail.com ↑
- Rocío Dávila-Mendoza, Subdivisión de Medicina Familiar, División de Estudios de Posgrado, Facultad de Medicina, UNAM. Ciudad de México. Correo: roci.dm31@gmail.com ↑
- Irma Jiménez-Galván, Subdivisión de Medicina Familiar, División de Estudios de Posgrado, Facultad de Medicina, UNAM. Ciudad de México. Correo: irmaj@unam.mx ↑
- María Esther Urrutia-Aguilar, Subdivisión de Especializaciones Médicas, División de Estudios de Posgrado, Facultad de Medicina, UNAM. Ciudad de México. Correo: mariau@unam.mxFinanciamiento: ninguno. Conflicto de interés: ninguno ↑