Ir al menú de navegación principal Ir al contenido principal Ir al pie de página del sitio

Artículos de Investigación

Vol. 6 Núm. 11 (2026): Revista Simón Rodríguez

Validación de un cuestionario sobre el uso de herramientas tecnológicas en la evaluación del aprendizaje en educación primaria

Validation of a questionnaire on the use of technological tools in learning assessment in primary education
Publicado
2026-02-06

La integración de herramientas tecnológicas en la evaluación del aprendizaje ha transformado prácticas pedagógicas en la educación primaria. En República Dominicana, docentes del Distrito Educativo 08-08 de Licey al Medio enfrentan desafíos para aprovechar efectivamente estas herramientas por la falta de instrumentos validados que midan su uso en la evaluación.  Este estudio tuvo como objetivo validar un cuestionario que mide el uso de tecnologías en la evaluación del aprendizaje por parte de docentes de educación inicial y primaria. Se empleó un diseño metodológico cuantitativo, no experimental y transversal. El proceso incluyó tres fases: revisión teórica, juicio de expertos (n = 5) y prueba piloto con 44 docentes del Distrito Educativo 08-09, seleccionado por su similitud contextual. Se calculó la validez de contenido mediante el coeficiente de validez de contenido (CVC = 0,928) y la confiabilidad mediante el alfa de Cronbach (α = 0,911). Además, se realizó un análisis factorial de componentes principales que identificó ocho factores que explican el 73,5 % de la varianza total. Los resultados confirman que el instrumento posee evidencias sólidas de validez y confiabilidad. Este cuestionario representa una herramienta útil para investigaciones futuras y para el diseño de políticas de formación docente centrados en la evaluación digital.

The integration of technological tools into the evaluation of learning has transformed pedagogical practices in primary education. In the Dominican Republic, teachers from the 08-08 Educational District of Licey al Medio face challenges in effectively using these tools due to the lack of validated instruments that support their use in evaluation. This study aims to validate a questionnaire that measures the use of technologies in the evaluation of learning by initial and primary education teachers. A quantitative methodological design was implemented, experimentally and transversally. The process included three phases: theoretical review, expert judgment (n = 5) and pilot test with 44 teachers from the Educational District 08-09, selected for their contextual similarity. Content validity was calculated using the content validity coefficient (CVC = 0.928) and reliability using Cronbach's alpha (α = 0.911). Furthermore, a factorial analysis of principal components was carried out which identified eight factors that explained 73.5% of the total variance. The results confirm that the instrument poses solid evidence of validity and reliability. This questionnaire represents a useful tool for future investigations and for the design of teacher training policies focused on digital evaluation

Sección:
Artículos de Investigación

Referencias

  1. Amini, M. A., Kruger, C. G., and Nel, C. (2022). Developing and validating an instrument to measure EFL teachers’ self-reported use of productive feedback. System, 110, 102919. https://doi.org/10.1016/j.system.2022.102919
  2. Ashipala, D. O., Mazila, B., and Pretorius, L. (2022). A qualitative descriptive enquiry of nursing students’ experiences of utilising a portfolio as an assessment tool in nursing and midwifery education. Nurse Education Today, 109, 105259. https://doi.org/10.1016/j.nedt.2021.105259
  3. Barberà, E. (2016). Aportaciones de la tecnología a la e-Evaluación. Revista de Educación a Distancia (RED), 50. https://doi.org/10.6018/red/50/4
  4. Bisquerra, R. (2019). Metodología de la investigación educativa. La Muralla, S.A. https://ideice.gob.do/documentacion/publicaciones-msg-set-id-5-art-166-metodologia-de-la-investigacion-educativa
  5. Cancino-Santizo, J. P., Vázquez Antonio, J. M., y Chávez Herting, D. (2023). Escala de Estimación Socioformativa (EES): validez de contenido y constructo para valorar ensayos académicos en Educación Normal. Revista Fuentes, 1–11. https://doi.org/10.12795/revistafuentes.2023.21776
  6. Cook, V., Warwick, P., Vrikki, M., Major, L., and Wegerif, R. (2019). Developing material-dialogic space in geography learning and teaching: Combining a dialogic pedagogy with the use of a microblogging tool. Thinking Skills and Creativity, 31, 217–231. https://doi.org/10.1016/j.tsc.2018.12.005
  7. De la Orden Hoz, A., & Pimienta Prieto, J. H. (2016). Instrumento para determinar los tipos de evaluación utilizados por los profesores universitarios. Revista Electrónica de Investigación Educativa, 18(2), 40–52. https://www.scielo.org.mx/pdf/redie/v18n2/1607-4041-redie-18-02-00040.pdf
  8. DeVellis, R. F., & Thorpe, C. T. (2021). Scale development: Theory and applications. Sage publications. https://www.scirp.org/reference/referencespapers?referenceid=2323603
  9. Fardoun, H., González, C., Collazos, C. A., and Yousef, M. (2020). Exploratory study in iberoamerica on the teaching-learning process and assessment proposal in the pandemic times. Education in the Knowledge Society, 21, 171–179. https://doi.org/https://doi.org/10.14201/eks.23537
  10. Field, A. (2018). Discovering statistics using IBM SPSS statistics 5th ed. UK: University of Sussex. https://www.scirp.org/reference/referencespapers?referenceid=3504991
  11. García García, N., y Nicolás Mora, R. M. (2013). Las estrategias y los instrumentos de evaluación desde el enfoque formativo. http://148.202.167.116:8080/jspui/bitstream/123456789/2648/1/Estrategias%20instrumentos%20evaluacion.pdf
  12. Hernández Nieto, R. (2002). Instrumentos de recolección de datos en Ciencias Sociales y Ciencias Biomédicas. https://www.academia.edu/37886946/Instrumentos_de_recoleccion_de_datos_en_ciencias_sociales_y_ciencias_biomedicas_Rafael_Hernandez_Nieto_pdf
  13. Hernández-Sampieri, R., Fernández-Collado, C. y Baptista-Lucio, P. (2014). Selección de la muestra. En Metodología de la Investigación (6ª ed., pp. 170-191). México: McGraw-Hill.https://maestrias.clavijero.edu.mx/cursos/MPPGEE/MPPGEET7IE2/modulo1/documentos/m1-Doc13-SistemaSorteoTombola.pdf
  14. Herrera, I. R. (2018). Evaluación para el aprendizaje. Revista Educación las Américas, 6, 13-28. https://revistas.udla.cl/index.php/rea/article/view/22/20
  15. Jihuallanca Ruelas, I., Arenas Figueroa, M., y Jihuallanca Ruelas, J. A. (2023). La evaluación formativa en estudiantes de educación primaria: una revisión sistemática. Ciencia Latina Revista Científica Multidisciplinar, 7(1), 752–770. https://doi.org/10.37811/cl_rcm.v7i1.4428
  16. Marques-Oliveira, M.-J., y Montanero, M. (2022). Criterios de evaluación referidos, percibidos y utilizados por el profesorado de matemáticas de la educación primaria. Revista Electrónica Educare, 26(3), 1–24. https://doi.org/10.15359/ree.26-3.1
  17. Muddle, L., O’Malley, C. J., and Stupans, I. (2023). Evaluating the impact of a curriculum intervention using an assessment rubric for communication skill development of osteopathy students. International Journal of Osteopathic Medicine, 47, 100656. https://doi.org/10.1016/j.ijosm.2022.12.003
  18. Muñoz Cortés, P., Henríquez D’Aquino, E., y Kunakov Pérez, N. (2023). Retroalimentación como evaluación formativa desde la perspectiva docente en odontología: estudio de caso. Educación Médica, 24(2), 100785. https://doi.org/10.1016/j.edumed.2022.100785
  19. Nowlan, N., Arya, A., Qorbani, H. S., and Abdinejad, M. (2023). Higher-order thinking skills assessment in 3D virtual learning environments using motifs and expert data. Computers & Education: X Reality, 2, 100012. https://doi.org/10.1016/j.cexr.2023.100012
  20. Polanía Reyes, C. L., Cardona Olaya, F. A., Castañeda Gamboa, G. I., Vargas, I. A., Calvache Salazar, O. A., y Abanto Vélez, W. I. (2020). Metodología de investigación Cuantitativa & Cualitativa. https://repositorio.uniajc.edu.co/bitstream/handle/uniajc/596/LIBRO%20METODOLOGI?A%20DE%20INVESTIGACIO?N%20CUALITATIVA%20Y%20CUANTITATIVA.pdf?sequence=1
  21. Roblero, G. (2020). Validación de cuestionario sobre gestión del tiempo en universitarios mexicanos. Revista Electrónica de Investigación Educativa, 22, 1–11. https://doi.org/10.24320/redie.2020.22.e01.2136
  22. Rodríguez Gómez, G., e Ibarra Sáiz, M. S. (2012). Evaluación orientada al aprendizaje estrategico. Estudios sobre educación, 221-247. https://moodle4vz.unsl.edu.ar/moodle/pluginfile.php/37367/mod_resource/content/1/e-Evaluaci%C3%B3n%20orientada%20al%20e-Aprendizaje%20estrat%C3%A9gico%20en%20educaci%C3%B3n%20superior.pdf
  23. Sánchez-Sánchez, G. I., y Jara-Amigo, X. E. (2022). Habitus en torno a la evaluación. (Des) encuentro entre medición y comprensión. Revista Electrónica Educare, 26(1), 1–20. https://doi.org/10.15359/ree.26-1.2
  24. Santos, J. M., and Castro, R. D. R. (2021). Technological Pedagogical content knowledge (TPACK) in action: Application of learning in the classroom by pre-service teachers (PST). Social Sciences & Humanities Open, 3(1), 100110. https://doi.org/10.1016/j.ssaho.2021.100110
  25. Vega-Angulo, H. E., Rozo-García, H., & Dávila-Gilede, J. (2021). Estrategias de evaluación mediadas por las tecnologías de la información y comunicación (TIC): Una revisión de bibliografía. Revista Electrónica Educare, 25(2), 1–22. https://doi.org/10.15359/ree.25-2.16
  26. Walss Aurioles, M. E. (2021). Diez herramientas digitales para facilitar la evaluación formativa. Revista Tecnología, Ciencia y Educación, 127–139. https://doi.org/10.51302/tce.2021.575