INTRODUCCIÓN
La educación virtual ha emergido como una estrategia innovadora en el ámbito educativo, transformando la manera en que los estudiantes acceden y participan en el proceso de aprendizaje. A diferencia de la educación en línea, que se centra exclusivamente en la entrega de contenido a través de plataformas digitales, la educación virtual combina experiencias interactivas y contextos de aprendizaje, integrando componentes sincrónicos y asincrónicos (Garrison & Vaughan, 2008).
Pan (2023) amplía esta discusión al describir la educación virtual no solo como una alternativa a la educación tradicional, sino como una opción que democratiza el acceso a una amplia gama de recursos y espacios de aprendizaje. Este autor destaca que, además de enriquecer la experiencia educativa a través de la interactividad, la educación virtual también proporciona un método más seguro y conveniente para que los estudiantes accedan a cursos relevantes, lo que puede modificar aún más su participación y compromiso en el proceso de aprendizaje
A medida que la educación virtual se convierte en una opción cada vez más popular, el diseño instruccional se presenta como un factor crítico que determina la calidad educativa en estos entornos, por lo que su estructura debe ser cuidadosamente planificada para asegurar que las experiencias de aprendizaje sean efectivas y coherentes. Para crear estas experiencias, Karthik et al. (2019) señalan que en el diseño instruccional se considera un proceso estratégico basado en la comprensión de las teorías del aprendizaje y en la identificación de las necesidades de los estudiantes.
Además de una planificación detallada, un diseño instruccional de alta calidad exige incorporar metodologías que promuevan la colaboración y la comunicación efectiva entre estudiantes y docentes. Como subraya Debattista (2018), el diseño instruccional debe ser flexible y adaptable a las necesidades del aprendizaje virtual, considerando la naturaleza digital del contenido, la viabilidad de la interacción entre participantes y educadores, así como la importancia de la retroalimentación. Redmond et al. (2018) refuerzan esta idea al sostener que la implementación de herramientas interactivas y el diseño de actividades pedagógicas que promuevan el trabajo colaborativo son fundamentales para preservar la motivación de os estudiantes y fortalecer su conexión con el contenido y sus pares.
Los principios y metodologías clave del diseño instruccional están orientados a optimizar las experiencias de aprendizaje a través de enfoques que combinan marcos teóricos y aplicaciones prácticas. Un diseño instruccional efectivo no se limita a transmitir información, también tiene que crear experiencias de aprendizaje significativas, relevantes y personalizadas, adaptándose al estudiante y al contexto educativo. Para lograrlo, debe considerar elementos que fomenten la motivación y el compromiso del estudiante, haciendo que el aprendizaje sea más estimulante y pertinente para su desarrollo personal y profesional (Abuhassna et al., 2024).
El marco metodológico del diseño instruccional frecuentemente sigue modelos por fases (análisis, diseño, implementación y evaluación), lo que permite un desarrollo y una evaluación sistemática de los programas educativos (Senadheera et al., 2024). Aunque estos principios y metodologías ofrecen un marco sólido, la rápida evolución de las tecnologías educativas acentúa la necesidad de adaptación e innovación continua en las prácticas de diseño para satisfacer las diversas necesidades de los estudiantes.
Senadheera et al. (2024)1 enfatizan que la innovación creativa en el diseño instruccional no solo busca mejorar la calidad de la experiencia de aprendizaje, sino que también pretende establecer un entorno educativo que prepare a los estudiantes para un futuro profesional donde la adaptabilidad, la creatividad y el uso de tecnologías sean imprescindibles.
Investigaciones actuales señalan la importancia de reevaluar las prácticas de diseño tradicionales con el fin de fomentar una participación significativa, resaltando la necesidad de incluir las voces delos estudiantes en el proceso de toma de decisiones (Kingsley & Cheatham, 2024). En este contexto, la integración de herramientas de inteligencia artificial generativa se consolida como una fuerza transformadora que optimiza tanto la redacción de contenido como las evaluaciones, permitiendo a los diseñadores instruccionales enfocarse en tareas más complejas y estratégicas (McNeill, 2024).
La Universidad Autónoma de Occidente (UAdeO) ha reconocido la importancia del diseño instruccional en la oferta de posgrados virtuales, respondiendo a la creciente demanda educativa y buscando innovar en términos de calidad y diseño. Este compromiso se traduce en la búsqueda de formas de evaluar cómo estos programas pueden ofrecer un valor agregado a la experiencia educativa de los estudiantes y en la identificación de áreas de oportunidad para la mejora continua.
Al respecto, el objetivo de este proyecto ha sido evaluar la calidad del diseño instruccional en dos programas de posgrado virtuales de la UAdeO, mediante la validación de un instrumento de diseño instruccional para plataformas en línea.
Esta investigación es fundamental para la UAdeO, ya que sus esfuerzos por desarrollar posgrados virtuales innovadores y de alta calidad requieren una evaluación rigurosa que permita identificar sus fortalezas y debilidades, y determinar áreas de mejora para optimizar la experiencia educativa de sus estudiantes. Más allá del contexto pragmático, este estudio tiene un impacto significativo en la construcción de conocimiento sobre el diseño instruccional en el ámbito de la educación virtual, especialmente en posgrados, además de contribuir en el desarrollo de mejores prácticas en este campo. La validación del instrumento de evaluación, un proceso crucial para asegurar la confiabilidad de la medición de la calidad del diseño instruccional, permitirá identificar las áreas de fortaleza y de oportunidad para la mejora continua de la experiencia educativa virtual. Asimismo, el estudio analiza la posibilidad de incorporar elementos de innovación en el diseño y la evaluación de los cursos virtuales, lo que podría contribuir a generar modelos más efectivos y atractivos de aprendizaje.
La relevancia de la educación virtual y su continua evolución hacia modelos más efectivos e innovadores está respaldada por un creciente número de investigaciones que analizan las mejores prácticas en diseño instruccional. Estas aportan un marco valioso para comprender cómo los elementos del diseño instruccional pueden elevar la calidad educativa en programas de posgrado virtuales. En la tabla 1 se presenta una selección de artículos científicos que exploran diferentes enfoques y tendencias en la innovación del diseño instruccional en el ámbito de la educación virtual.
Tabla 1 Resumen de artículos científicos sobre el diseño instruccional y su impacto en la educación virtual
| Autor y año | Enfoque sobre el diseño instruccional |
|---|---|
| Karthik et al. (2019) | El diseño instruccional para experiencias de aprendizaje en línea efectivas implica integrar seis elementos claves: asistencia técnica, aprendizaje basado en problemas, soporte social, juegos, narración y estética. Esto asegura una experiencia de aprendizaje accesible, atractiva e interactiva, que estimula la participación activa del alumno |
| Losada-Cárdenas y Peña-Estrada (2022) | El diseño instruccional es un proceso sistemático que se utiliza para crear experiencias de aprendizaje efectivas. Implica analizar las necesidades de los alumnos, definir objetivos de aprendizaje, seleccionar recursos y métodos, diseñar actividades y evaluaciones, e implementar y evaluar el proceso de aprendizaje |
| Kerimbayev et al. (2023) | El diseño instruccional debe considerar la naturaleza de las tecnologías utilizadas y cómo estas pueden apoyar la participación activa del estudiante, la personalización del aprendizaje y la creación de un entorno de aprendizaje atractivo e interactivo |
| Brunett-Zarza et al. (2024) | El diseño instruccional es un proceso que, en esencia, busca garantizar que los materiales y actividades de aprendizaje se adapten a las características del estudiante, de la plataforma educativa y del contexto institucional en el que se implementa. Es un proceso que debe ser flexible, adaptable y que puede ajustarse en función de los resultados obtenidos en la evaluación |
| Purwaningsih et al. (2024) | El diseño instruccional es la planificación sistemática de la enseñanza, considera las necesidades del estudiante, define objetivos de aprendizaje, selecciona recursos y métodos, diseña actividades y evaluaciones, e implementa y evalúa el proceso para asegurar una experiencia de aprendizaje efectiva |
| Ho (2024) | El diseño instruccional debe considerar las características de las plataformas digitales, las estrategias de interacción entre estudiantes y docentes, y las herramientas disponibles para facilitar la colaboración y la construcción de conocimientos en un espacio virtual |
Fuente: elaboración propia a partir de los autores.
Como se aprecia en estas definiciones, el diseño instruccional se caracteriza por una serie de elementos comunes que buscan optimizar la experiencia de aprendizaje. Estos consideran desde el análisis de las necesidades del estudiante hasta la evaluación del aprendizaje, y se basan en la premisa de que el proceso de aprendizaje es planificado, flexible y centrado en el estudiante. Desde una perspectiva epistemológica, estos elementos reflejan un enfoque constructivista que reconoce al estudiante como agente activo en su propio aprendizaje, buscando generar experiencias significativas, relevantes y personalizadas.2
En resumen, esta investigación se propone profundizar en la valoración del diseño instruccional de dos posgrados virtuales en la UAdeO, enfatizando que sin una evaluación rigurosa, la innovación en la educación virtual no puede prosperar. Para ello, se valida un instrumento de diseño instruccional para plataformas en línea, con el fin de analizar su utilidad para identificar áreas de oportunidad y proponer estrategias que impulsen la efectividad de la educación virtual, alineándose con la premisa fundamental de que la evaluación es un motor esencial para la innovación en el contexto educativo contemporáneo.
METODOLOGÍA
El presente estudio se fundamenta en la metodología de prueba de concepto (PoC), la cual refiere a la validación del caso de uso propuesto, es decir, una demostración práctica de cómo funciona un sistema o una idea en un contexto real para comprobar si cumple con los requisitos y expectativas (Rubio, 2022). Una PoC para un diseño instruccional virtual, realizada con expertos, es una especie de prueba piloto que se utiliza para validar el diseño del curso antes de implementarlo con estudiantes. Al presentar el diseño a un grupo de profesionales para que puedan analizar su calidad, identificar posibles problemas y sugerir mejoras, se asegura que el diseño cumpla con las mejores prácticas de diseño, pedagogía, accesibilidad y usabilidad, antes de que los estudiantes lo experimenten. Esta retroalimentación experta ayuda a optimizar el diseño y a garantizar que los estudiantes tengan una experiencia de aprendizaje efectiva y de calidad (Prasanna et al., 2021).
La metodología PoC Design es un enfoque estructurado y estratégico para desarrollar pruebas de concepto que maximicen el valor. Esta metodología, aunque concebida para el desarrollo de software, puede ser aplicada al diseño instruccional virtual, con la adaptación correspondiente a las necesidades de este contexto educativo. La clave es definir el problema, evaluar las posibles soluciones, diseñar un prototipo y validarlo antes de implementar la solución final, a través de un proceso de desarrollo en etapas (ver tabla 2).
Tabla 2 Etapas de PoC
| Etapa | Descripción | Detalles |
|---|---|---|
| 1) Problema | Identificar el problema o la necesidad que se quiere resolver | Definir el problema o la necesidad del proyecto, con base en el valor comercial y no solo en la tecnología |
| 2) Solución óptima | Definir la mejor solución posible que se ajuste a la necesidad y ofrezca un valor comercial | Determinar las diferentes opciones de solución y elegir la que parece ser la más adecuada |
| 3) Potencialidad | Evaluar si la solución propuesta tiene potencial, si es factible y si genera suficiente valor | Analizar la viabilidad del proyecto, los recursos disponibles, los riesgos y las posibles consecuencias |
| 4) Diseño de PoC | Diseñar y construir el prototipo de la solución (PoC) | Se divide en cuatro subetapas: diseño, construcción, evaluación y aprendizaje |
| 5) Diseño variable | Implementar la solución final, adaptándola a las necesidades reales y validando su funcionamiento | Ajustar la solución a partir de la experiencia obtenida durante la PoC, incorporando mejoras y aprendiendo de los errores |
Fuente: elaboración propia con información de Prasanna et al. (2021).
La tabla 3 muestra la aplicación de esta metodología al diseño instruccional virtual para posgrados virtuales en la UAdeO, con un enfoque específico que integra las etapas de la metodología PoC Design con la participación de expertos en cursos virtuales. De esta forma, se presenta una metodología general y su aplicación práctica en un contexto educativo, demostrando su utilidad en diferentes ámbitos.
Tabla 3 Metodología de PoC aplicada al diseño instruccional para los posgrados virtuales de la UAdeO
Fuente: elaboración propia.
RESULTADOS
La educación virtual se ha convertido en una innovación imprescindible en la oferta educativa, la cual debe brindar un alto nivel de experiencia positiva a través de la calidad del servicio educativo, la creatividad de su oferta y la implementación de un diseño instruccional adecuado (Al-Husseini & Elbeltagi, 2016). Es fundamental un diseño instruccional bien elaborado para asegurar un aprendizaje significativo, motivador y adaptado a las necesidades del entorno virtual. Por estas razones, la UAdeO concretó la integración de la Unidad de Educación Virtual (UEV) a través de la estrategia institucional de Universidad Virtual en 2020. Un año más tarde, en 2021, se dio un paso significativo con la creación de dos programas de posgrado modalidad virtual: la Maestría en Administración (MA) y el Doctorado en Innovación y Administración de las Organizaciones (DIAO).
Con el objetivo de evaluar la calidad de estos nuevos diseños instruccionales, se aplicó la prueba de concepto (PoC) a seis cursos del DIAO y a ocho cursos de la MA, utilizando un instrumento que integraba las dimensiones de: Orientación, Contenidos, Materiales, Tareas, Tutoría y Funcionalidad. Los resultados de la evaluación permitieron calcular un índice porcentual de valoración para cada dimensión, proporcionando una evaluación comparativa que identifica cuáles dimensiones del diseño instruccional presentan una mayor calidad y adecuación a los objetivos del curso. Debido a que se evaluaron dos programas de posgrado distintos, el índice fue calculado de manera diferenciada para cada programa. La figura 1 muestra los resultados correspondientes al programa de DIAO, mientras que los datos obtenidos para el programa MA se presentan en la figura 2.

Fuente: elaboración propia a partir del procesamiento de los datos recabados por el instrumento.
Figura 1 Resultados de evaluación por dimensión del programa DIAO.

Fuente: elaboración propia a partir del procesamiento de los datos recabados por el instrumento.
Figura 2 Resultados preliminares de evaluación por dimensión del programa MA.
En términos generales, se observa que todas las dimensiones recibieron una evaluación positiva, con un índice promedio de calidad de 83.33% para el programa de doctorado y de 77.66% para el programa de maestría. No obstante, es importante destacar que las dimensiones de Tutoría, Materiales y Funcionalidad han sido identificadas como áreas de oportunidad, donde podrían implementarse mejoras para incrementar su alineación con los objetivos educativos y mejorar la experiencia de los usuarios en la plataforma.
A partir de los resultados obtenidos, emergen varias preguntas clave que requieren un análisis más profundo para mejorar la efectividad del instrumento de evaluación utilizado. Entre estas interrogantes destacan las siguientes:
1) ¿Qué aspectos específicos deben mejorarse en las áreas identificadas como oportunidades de mejora? Se detectó que las dimensiones Tutoría, Materiales y Funcionalidad presentan áreas de oportunidad, por lo que es fundamental profundizar en los componentes específicos que contribuyen a estas evaluaciones más bajas. Para abordar esta cuestión, es pertinente aplicar un análisis de componentes principales (ACP), que permite descomponer las dimensiones en sus elementos constitutivos y analizar cuáles de estos tienen mayor peso en la percepción de los evaluadores. Este enfoque ha sido ampliamente utilizado en investigaciones educativas para identificar y priorizar áreas de intervención (Jolliffe, 2002).
2) ¿El instrumento diseñado permite evaluar adecuadamente las dimensiones consideradas? La validación de un instrumento de evaluación no solo implica verificar la relevancia de sus dimensiones, sino asegurarse de que cada dimensión esté correctamente representada por los reactivos seleccionados. El ACP es una técnica estadística eficaz para evaluar la validez estructural del instrumento, al identificar las correlaciones entre los reactivos y determinar si estos se agrupan de manera coherente en las dimensiones teóricas propuestas (Tabachnick & Fidell, 2019). De esta manera, el ACP puede revelar si algunos reactivos podrían estar midiendo aspectos no contemplados en las dimensiones originales, o si existen dimensiones que podrían combinarse o ser subdivididas para mejorar la precisión del instrumento.
3) ¿Cómo puede mejorarse o simplificarse el instrumento para futuras evaluaciones del diseño instruccional en plataformas en línea? La simplicidad y eficacia de un instrumento de evaluación son cruciales para su aplicación práctica. A través del ACP es posible identificar los reactivos que contribuyen de manera significativa a la varianza explicada por cada dimensión y aquellos que, por el contrario, tienen una influencia mínima o redundante. Este análisis permite simplificar el instrumento eliminando reactivos innecesarios o fusionando dimensiones altamente correlacionadas, sin comprometer la calidad de la evaluación (Kline, 2015). Además, el ACP puede sugerir nuevas agrupaciones de reactivos que reflejen mejor la estructura subyacente de la percepción de los evaluadores.
Con esto en consideración, al aplicar el ACP en el contexto de este estudio se busca validar la estructura del instrumento de evaluación y optimizar su diseño para futuras evaluaciones, asegurando que capture los aspectos más relevantes de la calidad del diseño instruccional en plataformas educativas en línea.
PROCEDIMIENTO ESTADÍSTICO: ANÁLISIS DE COMPONENTES PRINCIPALES (ACP)
El análisis de componentes principales (ACP) es una técnica estadística multivariante que permite reducir la dimensionalidad de un conjunto de datos, identificando los componentes principales que explican la mayor parte de la variabilidad observada. Este procedimiento ha sido ampliamente utilizado en la investigación educativa para identificar patrones en conjuntos de datos complejos (Jolliffe, 2002), y es en especial útil cuando se desea simplificar y mejorar la precisión y eficiencia de un instrumento de evaluación, al identificar las variables que contribuyen de manera significativa a la medición de los constructos teóricos.
En este estudio, el ACP se utilizó para analizar la estructura subyacente del instrumento de evaluación diseñado para medir la calidad del diseño instruccional en plataformas educativas en línea, con el objetivo de determinar si los reactivos incluidos en el instrumento se agrupan de manera coherente en las dimensiones propuestas y, en determinado caso, identificar posibles redundancias o áreas de mejora en el instrumento.
Para el análisis se utilizó el software estadístico R. La base de datos se cargó en un data frame denominado “datos_encuesta”, el cual contiene las respuestas obtenidas a través de una escala Likert convertida a valores numéricos. Las variables que integran estas respuestas se encuentran almacenadas en un vector llamado “variables_num”. A continuación, se describe el procedimiento seguido para realizar el ACP en este contexto.
Procedimiento en R
En principio, se cargó la base de datos en R y se realizaron las conversiones necesarias de las respuestas Likert a valores numéricos. Se utilizó la función prcomp() de R para realizar el ACP, especificando que los datos deben ser escalados para garantizar que todas las variables contribuyan de manera equitativa al análisis, independientemente de su escala original. Posterior a esto se extrajeron las cargas factoriales de los componentes principales generados para identificar qué reactivos estaban más fuertemente asociados con cada componente. Además, se calculó el número de reactivos que tenían cargas significativas en cada componente.
Las instrucciones principales aplicadas en R fueron:
# 1. Realizar el ACP acp_result <- prcomp(datos_encuesta[ , variables_num], scale. = TRUE)
# 2. Obtener las cargas factoriales cargas <- acp_result$rotation
# 3. Filtrar las cargas significativas (mayores a 0.3 o menores a -0.3) cargas_significativas <- cargas[apply(abs(cargas) > 0.3, 1, any), ]
# 4. Contar el número de reactivos significativos por componente count_significativas <- colSums(abs(cargas) > 0.3)
# 5. Ordenar los componentes por la cantidad de reactivos con cargas significativas sorted_count <- sort(count_significativas, decreasing = TRUE)
El resultado de las instrucciones mencionadas se presenta en la tabla 4. Es fundamental destacar que el método de ACP genera un conjunto de N componentes principales, donde N corresponde al número total de reactivos en la encuesta. Este procedimiento asume que los reactivos pueden agruparse en N grupos según su correlación. Mediante la aplicación de un filtro que considera solo las cargas factoriales superiores a 0.3 (Jolliffe, 2002), es posible identificar qué reactivos están más estrechamente relacionados entre sí.
Tabla 4 Cantidad de reactivos con cargas significativas por componente
| Componente Principal (PC) | Número de reactivos con cargas significativas |
|---|---|
| PC5 | 5 |
| PC11 | 5 |
| PC15 | 5 |
| PC20 | 5 |
| PC3 | 4 |
| PC7 | 4 |
| PC9 | 4 |
| PC16 | 4 |
| PC17 | 4 |
| PC18 | 4 |
| PC21 | 4 |
| PC2 | 3 |
| PC4 | 3 |
| PC10 | 3 |
| PC12 | 3 |
| PC13 | 3 |
| PC14 | 3 |
| PC19 | 3 |
| PC6 | 2 |
| PC8 | 2 |
| PC22 | 2 |
| PC23 | 2 |
| PC1 | - |
Fuente: elaboración propia.
En otras palabras, cuando un evaluador experto en diseño instruccional otorga una valoración específica a un reactivo, ya sea positiva o negativa, esa respuesta tiende a ser similar a la de otros reactivos que se agrupan bajo el mismo componente principal. Esto sugiere que solo ciertos reactivos han sido redactados de manera efectiva para capturar con precisión aspectos subyacentes relacionados con la calidad de la plataforma educativa.
La importancia de la tabla 4 radica en que permite discernir cuáles reactivos están midiendo constructos similares o relacionados, lo que a su vez puede indicar que estos reactivos son los que mejor logran captar las dimensiones de calidad del diseño instruccional evaluadas. Los componentes principales que agrupan el mayor número de reactivos con cargas significativas son los más representativos de las dimensiones evaluadas, lo que resalta su relevancia en la evaluación general del instrumento.
Con base en el análisis de la tabla 4, se obtuvieron los nombres de los reactivos que integran la mayor cantidad de reactivos, los cuales son el PC5, PC11, PC15 y PC20.
# Filtrar los reactivos con cargas significativas en PC5, PC11, PC15 y PC20
reactivos_pc5 <- rownames(cargas_ significativas[abs(cargas_significativas[, “PC5”]) > 0.3, ])
reactivos_pc11 <- rownames(cargas_ significativas[abs(cargas_significativas[, “PC11”]) > 0.3, ]) reactivos_pc15 <- rownames(cargas_ significativas[abs(cargas_significativas[, “PC15”]) > 0.3, ])
reactivos_pc20 <- rownames(cargas_ significativas[abs(cargas_significativas[, “PC20”]) > 0.3, ])
Finalmente, se listaron los nombres de estos reactivos con la instrucción que se detalla.
# 6. Listar los nombres de los reactivos más correlacionados en los componentes principales de interés reactivos_interes
<- rownames(cargas_ significativas[abs(cargas_significativas[, “PC5”]) > 0.3 |
abs(cargas_significativas[, “PC11”]) > 0.3 |
abs(cargas_significativas[, “PC15”]) > 0.3 |
abs(cargas_significativas[, “PC20”]) > 0.3, ])
# 7. Ordenar los nombres de los reactivos seleccionados reactivos_ordenados <- sort(unique(reactivos_interes))
El resultado es el siguiente:
“NP11” “NP12” “NP13” “NP22” “NP23” “NP24” “NP31” “NP32” “NP51” “NP52” “NP54” “NP62” “NP63” “NP71” “NP72” “NP73”
Estos 16 reactivos se acentúan por haber demostrado, a través de sus cargas factoriales, que capturan de manera efectiva los aspectos más relevantes del diseño instruccional de la plataforma; lo que sugiere que estos reactivos son los que mejor reflejan las dimensiones clave de calidad que el instrumento se propuso evaluar. Todos se contestan en una escala Likert de cuatro valores: 1 = En desacuerdo, 2 = Mejorable, 3 = Adecuado, y 4 = Excelente.
La redacción de estos 16 reactivos es la siguiente:
Dimensión Orientación
NP11) Se brinda a los estudiantes desde el inicio una guía con las especificaciones del curso.
NP12) Desde el inicio se describen los medios de comunicación alumno-profesor.
NP12) El objetivo general está redactado de manera que pueda ser comprendido por los estudiantes.
Dimensión Contenidos
NP22) Los contenidos están organizados por módulos o unidades temáticas y presentan una secuencia lógica.
NP23) Los contenidos están actualizados.
NP24) Los contenidos están redactados con rigor científico, en un lenguaje claro y comprensible para el estudiante.
Dimensión Materiales (de Evaluación)
NP31) Se les expone a los estudiantes los criterios de evaluación de cada una de las tareas.
NP32) La evaluación corresponde a los objetivos del curso.
Dimensión Tareas
NP51) Las tareas tienen coherencia con los objetivos del curso.
NP52) Las tareas pueden ser realizadas con los materiales propuestos.
NP54) Las indicaciones para realizar cada tarea se presentan en un lenguaje claro y preciso.
Dimensión Tutoría
NP62) Los estudiantes reciben la orientación necesaria para interactuar adecuadamente en los foros, chat, etcétera.
NP63) Los profesores o tutores muestran su presencia constante en el foro moderando, respondiendo comentarios y orientando la discusión.
Dimensión Funcionalidad
NP71) La plataforma SiGAL es fácil de utilizar.
NP72) Tiene un diseño gráfico atractivo.
NP73) La experiencia de uso de la plataforma es satisfactoria.
Lo anterior indica que con estos 16 reactivos, distribuidos en las cinco dimensiones señaladas, es posible aplicar una evaluación de calidad de diseño instruccional a una plataforma de aprendizaje en línea.
DISCUSIÓN
La educación virtual exige un enfoque estratégico que combine la calidad del servicio educativo, la creatividad de la oferta y, sobre todo, un diseño instruccional bien elaborado. Como lo resaltan Cocunubo-Suárez et al. (2018), el diseño instruccional juega un papel crucial en la creación de cursos de educación virtual, como es el caso de la plataforma SiGAL abordada en este estudio. Un diseño instruccional eficaz asegura un aprendizaje significativo, motivador y adaptado a las necesidades del entorno virtual, brindando experiencias enriquecedoras y atractivas para el estudiante.
La validación de instrumentos que midan la calidad del diseño instruccional en cursos de posgrado presenta un desafío importante, con pocas experiencias documentadas que demuestren la efectividad de estas herramientas. Los resultados de este estudio comprueban que el instrumento aplicado permite evaluar positivamente estos dos programas de posgrado, y contribuye de manera significativa al desarrollo de un instrumento de evaluación validado, que identifica los componentes esenciales de un diseño instruccional de calidad. Esta validación representa un avance importante en la evaluación del diseño instruccional, ayudando a mejorar la calidad de la educación virtual.
El estudio de Singh et al. (2023) resalta la importancia fundamental de la validación de instrumentos de evaluación en el ámbito de la educación virtual, donde la validación es crucial para confirmar que los instrumentos están midiendo lo que se pretende medir y para asegurar la calidad y la confiabilidad del proceso de evaluación del diseño instruccional. Un instrumento validado permite identificar los elementos esenciales de un diseño instruccional de calidad, lo que contribuye a mejorar la calidad de la educación en línea y a garantizar la consistencia y fiabilidad de los resultados.
Dentro de las dimensiones estudiadas en el diseño instruccional de los posgrados virtuales de la UAdeO, se identifican como áreas de oportunidad: Tutoría, Materiales y Funcionalidad, destacando los reactivos de Tutoría NP62 y NP63. Estos hallazgos confirman la importancia de la tutoría virtual en el diseño instruccional de los programas de posgrado virtuales, subrayando la importancia crítica del componente humano en una plataforma. La percepción de los estudiantes de que hay un tutor o un profesor que esté disponible para responder a sus dudas, moderar discusiones y proporcionar retroalimentación es fundamental para la experiencia educativa, como lo han señalado diversos estudios (Alonso & Casalino, 2019; Kerimbayev et al., 2020; Ouyang et al., 2022; Sadaf & Olesova, 2022).
La innovación en la educación virtual requiere una constante evaluación y actualización para atender las necesidades y expectativas de los estudiantes (Adams Becker et al., 2017; Rayens & Ellis, 2018). Para lograr un enfoque más efectivo, se propone incorporar procesos innovadores en el acompañamiento tutorial, como herramientas de inteligencia artificial (IA) y aprendizaje adaptativo (Kerimbayev et al., 2020; Ouyang et al., 2022; Choi et al., 2024). El reto radica en lograr que la IA emule de manera efectiva la presencia y el apoyo humano, lo cual será clave para mantener la percepción de calidad y el compromiso de los estudiantes en los programas educativos virtuales.
De igual manera, es primordial evaluar la calidad y accesibilidad de los materiales didácticos, asegurando que sean relevantes, actualizados y que promuevan una participación activa del estudiante (Espinoza-Colón y Medina-Gual, 2021; Domínguez-Pérez et al., 2018). También se deben analizar las funcionalidades de la plataforma y buscar nuevas herramientas tecnológicas que mejoren la experiencia de aprendizaje y promuevan la interacción y la colaboración entre estudiantes (Alonso & Casalino, 2019; Ouyang et al., 2022). Las plataformas de aprendizaje virtual deben facilitar la comunicación, permitiendo que los estudiantes compartan ideas, trabajen en colaboración y reciban retroalimentación del profesor o de sus compañeros (Kerimbayev et al., 2020).
CONCLUSIONES
Los resultados de validación, que incluyen la evaluación de las dimensiones Orientación, Contenidos, Materiales, Tareas, Tutoría y Funcionalidad, revelan que el instrumento utilizado es una herramienta válida para evaluar la calidad de los diseños instruccionales de los posgrados virtuales de la UAdeO. La fuerza metodológica del instrumento se demuestra en la forma en que se validaron los reactivos mediante un proceso rigoroso de revisión, por parte de expertos en diseño instruccional y en las temáticas de los posgrados. Este proceso, basado en la metodología PoC, permitió identificar las fortalezas y debilidades del instrumento a través de la participación de estos expertos, asegurando así que el instrumento sea efectivo para evaluar la calidad del diseño instruccional en futuras investigaciones. Estos resultados son cruciales para generar valor en la oferta de los posgrados virtuales de la UAdeO, ya que brindan una medición objetiva de la calidad del diseño instruccional, lo que permite identificar áreas de mejora y optimizar la experiencia de aprendizaje de los estudiantes.
La investigación también evidenció que, si bien los programas de posgrado virtual de la UAdeO presentan un buen nivel de calidad general, existen áreas de mejora en relación a la tutoría virtual, los materiales didácticos y la funcionalidad. Esto confirma que la innovación en la educación virtual no es un proceso estático, sino que requiere de una constante evolución para atender las necesidades cambiantes de los estudiantes, junto con la integración de nuevas tecnologías que permitan la construcción de experiencias de aprendizaje más interactivas y personalizadas. Las herramientas de inteligencia artificial y el aprendizaje adaptativo representan un gran potencial para optimizar la experiencia de aprendizaje en los posgrados virtuales y para avanzar hacia modelos de aprendizaje más flexibles y adaptados al contexto actual. La metodología de PoC utilizada en esta investigación ha demostrado ser una herramienta valiosa para el desarrollo de instrumentos de evaluación de calidad para el diseño instruccional, y se puede aplicar a otros contextos educativos para mejorar la experiencia de aprendizaje de los estudiantes.
Las futuras líneas de investigación podrían centrarse en profundizar el análisis del diseño instruccional y la validación de instrumentos para evaluar su calidad en el contexto de la educación virtual. Es necesario explorar más a fondo cómo se pueden optimizar los instrumentos de evaluación para medir de forma más precisa los aspectos clave del diseño instruccional que contribuyen a la eficacia y la calidad del aprendizaje en entornos virtuales. Además, se debería investigar cómo se puede integrar la IA en el proceso de validación de instrumentos para mejorar la eficiencia y la precisión de este proceso, así como para generar herramientas más innovadoras y eficaces para evaluar el diseño instruccional.










nueva página del texto (beta)



