SciELO - Scientific Electronic Library Online

 
vol.9 número especial 1Implementación de una red neuronal artificial como módulo de dominio de un sistema de tutoría inteligenteUso de las TIC en docentes de una universidad pública del sur de Veracruz índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


Dilemas contemporáneos: educación, política y valores

versión On-line ISSN 2007-7890

Dilemas contemp. educ. política valores vol.9 no.spe1 Toluca de Lerdo oct. 2021  Epub 31-Ene-2022

https://doi.org/10.46377/dilemas.v9i.2931 

Artículos

Diseño y validación de un instrumento para medir la pertinencia de un software de simulación en la enseñanza de la electrónica

Design and validation of an instrument to measure the relevance of a simulation software in the teaching of electronics

René Pérez-Martínez1 

Josemanuel Luna-Nemecio2 

1Maestro en Educación con Enfoque en la Innovación de la Práctica Docente. Centro Universitario CIFE, Profesor Investigador. México. Correo electrónico: rperez@itstlaxco.edu.mx

2Doctor en Geografía. Centro Universitario CIFE, Profesor Investigador. México. Correo electrónico: josmaluna2@gmail.com


Resumen

En diferentes niveles escolares y de conocimiento, hay avances respecto a la proliferación de software educativo basados en la simulación virtual; sin embargo, existe una necesidad por determinar el impacto que éstos tienen sobre el proceso de aprendizaje en los estudiantes que lo utilizan. El propósito del presente estudio fue determinar el diseño y la validación de un instrumento para medir la pertinencia del uso de un software de simulación en la enseñanza de la electrónica. La metodología contempló un juicio de jueces expertos, a partir del cual, se evaluó la pertinencia de la redacción de 12 ítems que conforman el instrumento. Los resultados muestran la importancia de la validación del instrumento para asegurar que éste cumpla con su objetivo.

Palabras claves: aprendizaje; electrónica; instrumento; pertinencia; software de simulación

Abstract

At different school and knowledge levels, there are advances regarding the proliferation of educational software based on virtual simulation; however, there is a need to determine the impact that these have on the learning process in the students who use it. The purpose of this study was to determine the design and validation of an instrument to measure the relevance of the use of simulation software in the teaching of electronics. The methodology included a judgment of expert judges, from which the relevance of the writing of 12 items that make up the instrument was evaluated. The results show the importance of the validation of the instrument to ensure that it meets its objective.

Key words: learning; electronics; instrument; relevance; simulation software

Introducción

El aprendizaje experimental es muy importante para la adquisición y comprobación de conocimientos teóricos, prácticos y para el fortalecimiento del aprendizaje, en general (Saleheen, et al., 2018; Tobajas, et al., 2019; Zheng, et al., 2018). Sobre todo, en campos en los que abunda la presencia de conceptos abstractos, como es el caso de las ingenierías, la experimentación juega un papel fundamental para su estudio (Coble, et al., 2010; Feisel & Rosa, 2005; Garcia-Loro, et al., 2018; Losada, et al., 2016; Pirker, et al., 2016; Rodriguez-Andina, et al., 2010).

Con la llegada de la pandemia del Covid-19, surgió la necesidad de implementar estrategias que permitieran mantener la impartición de la educación de manera no presencial, y con ellos, los retos para poder atender a estas nuevas condiciones (Cárdenas & Luna-Nemecio, 2020).

En ese sentido, la simulación de prácticas de laboratorio surge como una alternativa a la realización de prácticas convencionales (Bojović, et al., 2020; Borreguero, et al., 2019; Cañas, et al., 2020; Fu et al., 2019; Garcia-Loro, et al., 2018; Núñez, et al., 2019; Vachharajani & Pareek, 2020).

Los softwares de simulación, en el contexto educativo, permiten al estudiante, entre otras cosas, llevar a cabo prácticas de laboratorio de forma virtual, facilitando la comprensión y aumentando la motivación al mejorar la experiencia del aprendizaje (Campos, et al., 2020). Para áreas como las ingenierías es importante la realización de prácticas de laboratorio para la adquisición de conocimientos y habilidades (Feisel & Rosa, 2005; Losada, et al., 2016; Pirker, et al., 2016).

Para la rama de la electrónica, existen diversos softwares que apoyan su estudio y que son utilizados en distintos programas educativos; entre los más utilizados a nivel superior están Multisim y Proteus (Pérez, 2021). En este contexto, Multisim es un software de computación que permite simular prácticas de laboratorio de diversos tópicos de ingeniería eléctrica y electrónica, y a pesar de que se ha utilizado en diversas aplicaciones prácticas con éxito (Kavianpour, 2019; Marianoga & Palczynska, 2018; Saleheen et al., 2018; Srikanth et al., 2019), no existen datos sobre la efectividad y satisfacción de su uso para fines didácticos, por lo que su aplicación en escuelas para suplir un laboratorio físico, sobre todo en tiempos en los que como ahora, no se puede acudir presencialmente a ellos, eso no garantiza la competitividad práctica que los alumnos deberían adquirir.

Es importante resolver los vacíos señalados en esta área, porque esto permitirá establecer relaciones que faciliten la medición de la efectividad y satisfacción que tienen los estudiantes hacia el uso del software de simulación como sustituto de un laboratorio físico. A su vez, esto puede ayudar a mejorar o adecuar las funcionalidades propias del software para hacerlo más afín a fines didácticos aplicados a la enseñanza de la electrónica.

Acorde con lo expuesto, el presente estudio se orienta en torno a los siguientes propósitos:

  • 1) Diseñar un instrumento pertinente y práctico para evaluar la pertinencia del software de simulación respecto a los programas temáticos de electrónica digital en licenciatura.

  • 2) Realizar la validación de contenido del instrumento con un grupo de jueces, para determinar su grado de relevancia.

  • 3) Determinar la pertinencia y comprensión de las preguntas mediante un grupo piloto.

  • 4) Ejecutar un análisis factorial para valorar sus dimensiones.

Metodología

Tipo de Estudio

Se realizó un estudio instrumental, a través de la construcción, validez y confiabilidad respecto a un instrumento (Aliaga Pacora et al., 2021), para medir la pertinencia del software de simulación en la enseñanza de la electrónica. La validez permite determinar la correspondencia entre la información obtenida con las variables e indicadores a analizar (Del Cid Pérez, et al., 2007); es decir, el grado de confianza que proporcionan los resultados del formulario (Hernández, et al., 2014).

La confiabilidad hace referencia a la consistencia de las respuestas obtenidas de un cuestionario cuando éste se realiza en diversas ocasiones a las mismas personas (Bernal, 2010); es decir, la estimación de la congruencia de los datos que se obtienen a partir de la encuesta (Del Cid Pérez, et al., 2007).

Participantes

Para el proceso de validez y confiabilidad del instrumento, se entrevistaron a 10 expertos, con experiencia en la docencia universitaria y en la investigación y publicación de artículos.

Procedimiento

El estudio de validez y confiabilidad del instrumento se llevó a cabo mediante las siguientes fases:

1. Diseño y revisión por expertos

Se diseño el instrumento mediante una encuesta. Participaron diez expertos en la mejora del instrumento (Tabla 1). El instrumento está compuesto las siguientes dimensiones: estilos de aprendizaje, aprendizaje de la pertinencia del software de simulación, satisfacción del uso de simulador en la electrónica y posee 12 ítems (en la Tabla 2 se describen de manera sintética las dimensiones y el número de los ítems por dimensión). La forma de evaluación es mediante una valoración de una escala de intervalos, misma que permite la agrupación de los valores por rangos (Bernal, 2010). Los datos obtenidos permitieron la determinación de pertinencia y relevancia de los ítems; de acuerdo a su constructo y redacción (Aliaga Pacora, et al., 2021; Koller, et al., 2017).

Tabla 1 Datos sociodemográficos de los Expertos. 

Frecuencia Porcentaje
Género Hombres 8 80%
Mujeres 2 20%
Doctorado completo 2 20%
Educación Doctorado incompleto 3 30%

  • Maestría

  • Especialización

  • Licenciatura

4 40%
0 1 0% 10%
Media D.E.
Edad 45.60 9.09
Conferencia por invitación 1.70 1.27
Grado de experiencia como revisor(1-4)) 2.00 1.00
Año de experiencia Docencia 10.60 7.75
Investigación 4.90 5.87
Publicaciones Artículos 5.70 8.12
Libros 0.50 1.02
Capítulos 0.40 1.20
Ponencias 3.80 4.19
Educación continuada Cursos 8.60 5.59

Fuente: Elaboración de los autores para la presente investigación.

Tabla 2 Dimensiones y Preguntas del Instrumento. 

Dimensiones Preguntas
Dimensión 1. Estilos de aprendizaje

  • ¿Qué tanto te ayuda observar una imagen para obtener un aprendizaje?

  • ¿Qué tanto te ayuda escuchar una explicación para obtener un aprendizaje?

  • ¿Qué tanto te ayuda asociar una explicación a un conocimiento o sentimiento previo para obtener un aprendizaje?

  • ¿Qué tanto consideras que el repetir varias veces algo te ayuda para tu aprendizaje?

  • ¿Qué tanto consideras que el escribir algo te ayuda para tu aprendizaje?

  • ¿Qué tanto consideras que el relacionar un conocimiento con algo divertido te ayuda para tu aprendizaje?

Dimensión 2. Pertinencia del software de simulación de acuerdo a los estilos de aprendizaje de cada estudiante

  • ¿Qué impacto consideras que tiene la elaboración de prácticas de laboratorio en el aprendizaje de la electrónica?

  • ¿Qué tanto consideras que puede suplir la simulación virtual de prácticas de electrónica a la elaboración real de las mismas?

  • ¿Cuál es la facilidad del uso de software de simulación de electrónica?

  • ¿Cuál fue el grado de pertinencia del uso del software de simulación de acuerdo a los temarios de las materias de electrónica en la ingeniería?

Dimensión 3. Satisfacción con el uso del software

  • ¿Qué tanto te ayudó el uso de software de simulación en la comprensión de los temas de electrónica?

  • ¿Cuál es tu nivel de satisfacción con el software de simulación utilizado en la materia de electrónica?

Fuente: Elaboración de los autores para la presente investigación.

2.Estudio de la validez de contenido

La validez de contenido es uno de los pasos más importantes, y por ende, de los primeros que deben realizarse en la generación de una herramienta de investigación (Perales, et al., 2020; Zamora-de-Ortiz, et al., 2020).

Una vez que la rúbrica fue elaborada y revisada con el apoyo de un grupo de expertos, se hizo un estudio sobre la validez de contenido mediante la evaluación por parte de 10 jueces. Esto se hizo por medio de la V de Aiken, herramienta que permite determinar la validez de contenido tomando en cuenta el número de participantes a través de una plantilla de Excel (Aliaga Pacora, et al., 2021; Escobar-Pérez & Cuervo-Martínez, 2008; Galicia Alarcón, et al., 2017). Esta técnica considera valores mínimos para la aceptación de un ítem como válido, mismos que van desde un mínimo de 0.75 (Acosta-Banda, et al., 2021; Aliaga Pacora, et al., 2021; Ocana, et al., 2020; Ponce Lopez, et al., 2020).

3. Aspectos éticos

Para la realización de esta investigación, se informó a los participantes sobre las consideraciones éticas que se seguirían para dar seguridad al empleo de sus datos; dado que éstos comprenden información de carácter privado. En este sentido, se garantizó el respeto a la privacidad de todos los participantes, así como el compromiso de confidencialidad sobre sus datos personales. Se les indicó también la finalidad de su participación y del instrumento a evaluar y se siguieron los siguientes aspectos éticos de la investigación:

  • 1) Todos los participantes dieron su consentimiento antes de completar los instrumentos.

  • 2) Los participantes podían abandonar el cuestionario en cualquier momento.

  • 3) Se les garantizó de forma escrita la confidencialidad del uso de sus datos personales.

Resultados

Validez de contenido

A partir de las respuestas del grupo de expertos, se obtuvieron datos que permitieron realizar la validez de contenido del instrumento mediante la prueba V de Aiken. En la Tabla 3 se pueden observar los resultados de dicha validez.

Tabla 3 Resultados de la validez de contenido por los jueces (n = 10). 

Ítem Variable Media DE V de Aiken Intervalo de confianza al 95%
Límite Inferior Límite superior
1. ¿Qué tanto te ayuda observar una imagen para obtener un aprendizaje? Pertinencia 3.40 0.80 0.800 0.727 0.905
Redacción 3.20 1.17 0.733 0.556 0.858
2. ¿Qué tanto te ayuda escuchar una explicación para obtener un aprendizaje? Pertinencia 3.20 1.25 0.733 0.556 0.856
Redacción 3.70 0.46 0.900 0.744 0.965
3. ¿Qué tanto te ayuda asociar una explicación a un conocimiento o sentimiento previo para obtener un aprendizaje? Pertinencia 3.40 0.92 0.888 0.627 0.905
Redacción 3.00 0.89 0.667 0.488 0.808
4. ¿Qué tanto consideras que el repetir varias veces algo te ayuda para tu aprendizaje? Pertinencia Redacción 3.30 3.30 1.19 0.90 0.767 0.769 0.591 0.591 0.882 0.882
5. ¿Qué tanto consideras que el escribir algo te ayuda para tu aprendizaje? Pertinencia 3.40 0.66 0.800 0.627 0.905
Redacción 3.50 0.50 0.833 0.664 0.927
6. ¿Qué tanto consideras que el relacionar un conocimiento con algo divertido te ayuda para tu aprendizaje? Pertinencia 3.60 0.66 0.867 0.703 0.947
Redacción 3.50 0.67 0.833 0.664 0.927
7. ¿Qué impacto consideras que tiene la elaboración de prácticas de laboratorio en el aprendizaje de la electrónica? Pertinencia 4.00 0.00 1.000 0.886 1.000
Redacción 3.70 0.90 0.900 0.744 0.965
8. ¿Qué tanto consideras que puede suplir la simulación virtual de prácticas de electrónica a la elaboración real de las mismas? Pertinencia Redacción 3.00 3.10 1.00 0.94 0.667 0.700 0.488 0.521 0.808 0.833
9. ¿Cuál es la facilidad del uso de software de simulación de electrónica? Pertinencia 3.40 0.66 0.800 0.627 0.905
Redacción 3.00 1.00 0.667 0.488 0.808
10. ¿Cuál fue el grado de pertinencia del uso del software de simulación de acuerdo a los temarios de las materias de electrónica en la ingeniería? Pertinencia 3.40 0.66 0.800 0.627 0.905
Redacción 3.30 0.64 0.767 0.591 0.882
11. ¿Qué tanto te ayudó el uso de software de simulación en la comprensión de los temas de electrónica? Pertinencia 3.60 0.49 0.867 0.703 0.947
Redacción 3.60 0.49 0.867 0.703 0.0947
12. ¿Cuál es tu nivel de satisfacción con el software de simulación utilizado en la materia de electrónica? Pertinencia 3.40 0.49 0.800 0.627 0.905
Redacción 3.50 0.50 0.833 0.664 0.927
Rúbrica en general Pertinencia 3.40 0.49 0.800 0.627 0.905
Redacción 3.30 0.46 0.767 0.591 0.882
Satisfacción 4.42 0.87 0.834 0.745 0.899

Nota: DE=desviación estándar. Fuente: Elaboración de los autores para la presente investigación.

Con los datos obtenidos, a partir de la obtención de la V de Aiken; se obtuvieron valores comprendidos entre 0 y 1, mismos que permiten cuantificar la relevancia, pertinencia y redacción de los ítems. Para este análisis, se determinó un valor mínimo de 0.7. Los ítems que no alcanzaron este valor se corrigieron, de acuerdo a las recomendaciones de los expertos.

Una vez dictaminados los ítems menores a 0.7, respecto a la V de Aiken, se procedió a corregir la redacción de los mismos. Los ítems finales quedaron como se expresa en la Tabla 4.

Tabla 4 Dimensiones y Preguntas Corregidas del Instrumento. 

Dimensiones Preguntas
Dimensión 1. Estilos de aprendizaje

  • ¿Qué tanto te ayuda observar una imagen para obtener un aprendizaje?

  • ¿Qué tanto te ayuda escuchar una explicación para obtener un aprendizaje?

  • ¿En qué medida te ayuda asociar una explicación a un conocimiento o sentimiento previo para obtener un aprendizaje?

  • ¿Qué tanto consideras que el repetir varias veces algo te ayuda para tu aprendizaje?

  • ¿Qué tanto consideras que el escribir algo te ayuda para tu aprendizaje?

  • ¿Qué tanto consideras que el relacionar un conocimiento con algo divertido te ayuda para tu aprendizaje?

Dimensión 2. Pertinencia del software de simulación de acuerdo a los estilos de aprendizaje de cada estudiante

  • ¿Qué impacto consideras que tiene la elaboración de prácticas de laboratorio en el aprendizaje de la electrónica?

  • ¿Consideras que la simulación virtual puede suplir a la elaboración de prácticas físicas en la materia de electrónica?

  • ¿Qué tan fácil es el uso de software de simulación de electrónica?

  • ¿Cuál fue el grado de pertinencia del uso del software de simulación de acuerdo a los temarios de las materias de electrónica en la ingeniería?

Dimensión 3. Satisfacción con el uso del software

  • ¿Qué tanto te ayudó el uso de software de simulación en la comprensión de los temas de electrónica?

  • ¿Cuál es tu nivel de satisfacción con el software de simulación utilizado en la materia de electrónica?

Fuente: Elaboración de los autores para la presente investigación.

Conclusiones

Una primera conclusión es, que la elaboración de un instrumento para investigación científica, necesita ser validado por un grupo de expertos para garantizar la pertinencia y redacción de los ítems de dicho instrumento. Esta validación se puede realizar mediante la V de Aiken; a partir de la revisión, se pueden mejorar los ítems, y de esta manera, asegurar que las personas a entrevistar tengan una mejor comprensión hacia las preguntas y que la información obtenida del instrumento sea de mayor relevancia para el estudio.

Con la revisión por parte del grupo de expertos, se halló que el 75% de los ítems contenidos en el instrumento para medir la pertinencia de un software de simulación en la enseñanza de la electrónica posee estas características; lo anterior se determinó al obtener valores por encima de 0.7, parámetro que se considera como válido para V de Aiken. Cabe mencionar, que el 25% restante fue corregido tomando en cuenta las recomendaciones y sugerencias realizadas por el grupo de expertos que lo evaluó.

La investigación nos permitió obtener un instrumento para determinar la pertinencia del uso de un software de simulación en la enseñanza de la electrónica. Lo anterior medido mediante 3 dimensiones: dimensión 1. Estilos de aprendizaje; dimensión 2. Pertinencia del software de simulación de acuerdo a los estilos de aprendizaje de cada estudiante, y 3. Satisfacción con el uso del software. Cada dimensión contiene ítems o preguntas que aportan información a la dimensión correspondiente.

La limitante de este estudio radica en que el uso de este instrumento se limita solo para la obtención de información de estudiantes de ingeniería electromecánica que han cursado las materias de electrónica, correspondientes a su plan de estudios, por lo que para poder obtener información sobre otros programas de estudio, es necesario diseñar un instrumento particular; sin embargo, esto puede ser una oportunidad para un análisis, a partir del actual, en el que se incluyan otras materias del mismo programa educativo e incluso de programas educativos de otras licenciaturas e instituciones.

Referencias bibliográficas

1. Acosta-Banda, A., Aguilar-Esteva, V., Ortiz, M. P., & Ortiz, J. P. (2021). Construction and validity of an instrument to evaluate renewable energies and energy sustainability perceptions for social consciousness. Sustainability (Switzerland), 13(4), 1-13. https://doi.org/10.3390/su13042333 [ Links ]

2. Aliaga Pacora, A. A., Juárez Hernández, L. G., & Herrera Meza, R. (2021). Diseño y validez de contenido de una rúbrica analítica socioformativa para evaluar competencias investigativas en posgrado. Apuntes Universitarios, 11(2), 62-82. https://doi.org/10.17162/au.v11i2.632 [ Links ]

3. Bernal-García, M. I., Salamanca Jiménez, D. R., Perez Gutiérrez, N., & Quemba Mesa, M. P. (2020). Content validity by expert judgment of an instrument to measure physico-emotional perceptions in anatomical dissection practice. Educacion Medica, 21(6), 349-356. https://doi.org/10.1016/j.edumed.2018.08.008 [ Links ]

4. Bernal, C. A. (2010). Metodología de la investigación. Tercera edición (O. Fernánde-Palma (ed.)). PEARSON EDUCACIÓN. [ Links ]

5. Bojović, Ž., Bojović, P. D., Vujošević, D., & Šuh, J. (2020). Education in times of crisis: Rapid transition to distance learning. Computer Applications in Engineering Education. https://doi.org/10.1002/cae.22318 [ Links ]

6. Borreguero, A. M., Valverde, J. L., García-Vargas, J. M., & Sánchez-Silva, L. (2019). Simulator-based learning in the teaching of chemical engineering. Computer Applications in Engineering Education, 27(5), 1267-1276. https://doi.org/10.1002/cae.22150 [ Links ]

7. Campos, N., Nogal, M., Caliz, C., & Juan, A. A. (2020). Simulation-based education involving online and on-campus models in different European universities. International Journal of Educational Technology in Higher Education, 17(1). https://doi.org/10.1186/s41239-020-0181-y [ Links ]

8. Cañas, J. M., Perdices, E., García-Pérez, L., & Fernández-Conde, J. (2020). A ROS-based open tool for intelligent robotics education. Applied Sciences (Switzerland), 10(21), 1-20. https://doi.org/10.3390/app10217419 [ Links ]

9. Cárdenas Cabello, F., & Luna Nemecio, J. (2020). On line evaluation ahead of covid-19 pandemic: Challenges and opportunities for mexican universities. Universidad y Sociedad, 12 (6), 393-403. [ Links ]

10. Catherine, R. J., & Mayor-Ruiz, C. (2019). To explore the construction of teaching identity in health professionals: Design and validation of instrument. Formacion Universitaria, 12(1), 13-24. https://doi.org/10.4067/S0718-50062019000100013 [ Links ]

11. Coble, A., Smallbone, A., Bhave, A., Watson, R., Braumann, A., & Kraft, M. (2010). Delivering authentic experiences for engineering students and professionals through e-labs. 2010 IEEE Education Engineering Conference, EDUCON 2010, 1085-1090. https://doi.org/10.1109/EDUCON.2010.5492454 [ Links ]

12. Del Cid Pérez, A., Méndez, R., & Sandoval Recinos, F. (2007). Investigación. Fundamentos y metodología (H. Rivera (ed.)). PEARSON EDUCACIÓN. [ Links ]

13. Escobar-Pérez, J., & Cuervo-Martínez, Á. (2008). VALIDEZ DE CONTENIDO Y JUICIO DE EXPERTOS: UNA APROXIMACIÓN A SU UTILIZACIÓN (Vol. 6). [ Links ]

14. Feisel, L. D., & Rosa, A. J. (2005). The Role of the Laboratory in Undergraduate Engineering Education. Journal of Engineering Education, 94(1), 121-130. https://doi.org/10.1002/j.2168-9830.2005.tb00833.x [ Links ]

15. Galicia Alarcón, L. A., Balderrama Trápaga, J. A., & Edel Navarro, R. (2017). Content validity by experts judgment: Proposal for a virtual tool. Apertura, 9(2), 42-53. https://doi.org/10.32870/ap.v9n2.993 [ Links ]

16. Garcia-Loro, F., Sancristobal, E., Diaz, G., & Castro, M. (2018, August 29). Remote laboratories integration into electronics engineer curricula. EDUNINE 2018 - 2nd IEEE World Engineering Education Conference: The Role of Professional Associations in Contemporaneous Engineer Careers, Proceedings. https://doi.org/10.1109/EDUNINE.2018.8450972 [ Links ]

17. Hernández, R., Fernández, C., & Baptista, P. (2014). Metodología de la Investigación (6a ed.). McGraw-Hill. [ Links ]

18. Kavianpour, A. (2019, June 15). Simulation software for online teaching of ECE courses. ASEE Annual Conference and Exposition, Conference Proceedings. https://doi.org/10.18260/1-2--33267 [ Links ]

19. Koller, I., Levenson, M. R., & Glück, J. (2017). What do you think you are measuring? A mixed-methods procedure for assessing the content validity of test items and theory-based scaling. Frontiers in Psychology, 8(FEB). https://doi.org/10.3389/fpsyg.2017.00126 [ Links ]

20. Losada, C., Espinosa, F., Santos, C., Galvez, M., Bueno, E. J., Marron, M., & Rodriguez, F. J. (2016). An Experience of CACSD for Networked Control Systems: From Mechatronic Platform Identification to Control Implementation. IEEE Transactions on Education, 59(4), 299-306. https://doi.org/10.1109/TE.2016.2550586 [ Links ]

21. Marianoga, K., & Palczynska, B. (2018). The Simulation Laboratory Platform Based on Multisim for Electronic Engineering Education. 2018 International Conference on Signals and Electronic Systems, ICSES 2018 - Proceedings, 269-274. https://doi.org/10.1109/ICSES.2018.8507313 [ Links ]

22. Núñez, A., Mañoso, C., de Madrid, Á. P., & Pickin, S. (2019). SIMCAN: A simulator to improve the learning of distributed and high-performance computing systems in engineering degrees. Computer Applications in Engineering Education, 27(5), 1126-1138. https://doi.org/10.1002/cae.22141 [ Links ]

23. Ocana, J. M., Morales-Urrutia, E. K., Perez-Marin, D., & Pizarro, C. (2020). Can a Learning Companion Be Used to Continue Teaching Programming to Children Even During the COVID-19 Pandemic? IEEE Access, 8, 157840-157861. https://doi.org/10.1109/access.2020.3020007 [ Links ]

24. Perales, R. G., Ruiz, A. P., & Martínez, A. C. (2020). Design and validation of an instrument to evaluate bullying at the end of primary education. Revista Espanola de Orientacion y Psicopedagogia, 31(2), 78-96. https://doi.org/10.5944/REOP.VOL.31.NUM.2.2020.27987 [ Links ]

25. Pérez, R. (2021). El software como apoyo didáctico en la enseñanza de la electrónica digital en la educación superior en México. Researchgate.Net. https://doi.org/10.46652/runas.v2i3.45 [ Links ]

26. Pirker, J., Gutl, C., & Astatke, Y. (2016). Enhancing online and mobile experimentations using gamification strategies. Exp.at 2015 - 3rd Experiment International Conference: Online Experimentation, 224-229. https://doi.org/10.1109/EXPAT.2015.7463270 [ Links ]

27. Ponce Lopez, I., Juárez Hernández, L. G., & Tobón Tobón, S. (2020). Construcción y validación de un instrumento para evaluar el abordaje de la sociedad del conocimiento en docentes. Apuntes Universitarios, 10(1), 40-65. https://doi.org/10.17162/au.v10i1.417 [ Links ]

28. Saleheen, F., Wang, Z., Picone, J., Butz, B. P., & Won, C. H. (2018). Efficacy of a virtual teaching assistant in an open laboratory environment for electric circuits. Advances in Engineering Education, 6(3), 1-27. [ Links ]

29. Srikanth, M., Kumar, S., Gireesh, N., Manideep, T. V. N., Harichandana, B., & Sangeetha, K. (2019, March 1). A Different way of Level measurement for PBL in Education of Students using NI-LabVIEW, Multisim and MyRIO. 2019 Innovations in Power and Advanced Computing Technologies, i-PACT 2019. [ Links ]

30. Tobajas, M., Molina, C. B., Quintanilla, A., Alonso-Morales, N., & Casas, J. A. (2019). Development and application of scoring rubrics for evaluating students’ competencies and learning outcomes in Chemical Engineering experimental courses. Education for Chemical Engineers, 26, 80-88. https://doi.org/10.1016/j.ece.2018.11.006 [ Links ]

31. Vachharajani, V., & Pareek, J. (2020). Effective structure matching algorithm for automatic assessment of use-case diagram. International Journal of Distance Education Technologies, 18(4), 31-50. https://doi.org/10.4018/IJDET.2020100103 [ Links ]

32. Zamora-de-Ortiz, M. S., Serrano-Pastor, F. J., & Martínez-Segura, M. J. (2020). Content validity of the A-SIWT (ask, see, interpret, walk, tell) teaching model by expert judgment. Formacion Universitaria, 13(3), 43-54. https://doi.org/10.4067/S0718-50062020000300043 [ Links ]

33. Zheng, W., Shi, J., Qiao, J., Xu, T., Feng, L., & Fu, P. (2018). Virtual laboratory application development for mobile terminal. International Journal of Online Engineering, 14(2), 76- 89. https://doi.org/10.3991/ijoe.v14i02.7779 [ Links ]

Recibido: 14 de Agosto de 2021; Aprobado: 18 de Septiembre de 2021

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons