SciELO - Scientific Electronic Library Online

 
vol.8 issue16Application of the PLS-SEM technique in Knowledge Management: a practical technical approachThe e-portfolio as a transversal tool for planning and evaluating autonomous learning for sustainable development author indexsubject indexsearch form
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • Have no similar articlesSimilars in SciELO

Share


RIDE. Revista Iberoamericana para la Investigación y el Desarrollo Educativo

On-line version ISSN 2007-7467

RIDE. Rev. Iberoam. Investig. Desarro. Educ vol.8 n.16 Guadalajara Jan./Jun. 2018

http://dx.doi.org/10.23913/ride.v8i16.337 

Artículos científicos

Modelo de la aceptación de evaluaciones en línea de matemáticas: percepciones de los estudiantes de licenciaturas en ciencias sociales

Acceptance’s model of on-line math assessments: perceptions from undergraduate social science students

Modelo de aceitação de avaliações de matemática on-line: percepções de estudantes de graduação em ciências sociais

Elizabeth Acosta Gonzaga1 
http://orcid.org/0000-0001-5413-1063

Aldo Ramírez Arellano2 
http://orcid.org/0000-0002-6782-9847

Jesús Antonio Álvarez Cedillo3 
http://orcid.org/0000-0003-0823-4621

Igor Rivera González4 

Gibran Rivera González5 
http://orcid.org/0000-0003-2805-5524

1Instituto Politécnico Nacional, Unidad Profesional Interdisciplinaria de Ingeniería y Ciencias Sociales y Administrativas, Ciudad de México, México, eacostag@ipn.mx

2Instituto Politécnico Nacional, Escuela Nacional de Ciencias Biológicas, Ciudad de México, México, aramirezar@ipn.mx

3Instituto Politécnico Nacional, Unidad Profesional Interdisciplinaria de Ingeniería y Ciencias Sociales y Administrativas, Ciudad de México, México, jaalvarez@ipn.mx

4Instituto Politécnico Nacional, Unidad Profesional Interdisciplinaria de Ingeniería y Ciencias Sociales y Administrativas, Ciudad de México, México, iariverag@ipn.mx

5Instituto Politécnico Nacional, Unidad Profesional Interdisciplinaria de Ingeniería y Ciencias Sociales y Administrativas, Ciudad de México, México, griverag@ipn.mx

Resumen

Aunque se han realizado estudios en la aceptación de las evaluaciones en línea, no se han explorado para la enseñanza de las matemáticas en estudiantes de licenciaturas en ciencias sociales. Este estudio analiza los efectos de un grupo de factores que afectan la actitud, la aceptación y la intención del uso de las evaluaciones de matemáticas en línea, en estudiantes de la modalidad a distancia de la escuela de Comercio y Administración del Instituto Politécnico Nacional en México. Para ello se utilizó un instrumento con 15 reactivos aplicado a 23 estudiantes. Comprender los factores tratados requirió del modelo para la aceptación de la tecnología (TAM, por sus siglas en inglés), el cual ha probado ser un modelo robusto para determinar la actitud e intención de uso de la tecnología en diversos contextos, incluyendo el educativo. El análisis se realizó mediante la técnica de ecuaciones estructurales, usando mínimos cuadrados parciales, propia para estudios exploratorios y muestras pequeñas. Los resultados sugieren que los factores facilidad de condiciones e influencia social son los principales determinantes de una actitud y aceptación favorable para usar exámenes de matemáticas en línea, por lo se puede concluir que el proporcionar a los alumnos la infraestructura tecnológica y servicio técnico adecuado es importante, y que el mantener una comunicación continua y eficiente de autoridades y maestros puede influenciar favorablemente a la actitud de los estudiantes para usar la plataforma.

Palabras clave: Adopción de tecnología; educación a distancia; educación superior; evaluación electrónica; exámenes de matemáticas en línea

Abstract

This study analyzes the effects of a group of factors that affecting the attitude, acceptance and intention to use on-line financial mathematics assessments on students on a distance education course for a School of Commerce and Management at the National Polytechnic Institute in Mexico. To understand these factors, we used the technology acceptance model (TAM), which has proven to be a theoretical model to determine the attitude and intention to use technology. For the analysis, the structural equations model was used to measure hypothetical variables. Results suggest that perceived ease of use and social influence are the main determinants of students' favorable attitude and acceptance to using on-line mathematics test; so, we can conclude that providing the students with the technological infrastructure and adequate technical support is very important, as well as keeping continuous and efficient communication from authorities and teachers to positively influence students’ attitude to use the platform.

Keywords: Technology adoption; distance education; higher education; electronic assessments; mathematical on-line exams

Resumo

Embora tenha havido estudos na aceitação de avaliações on-line, eles não foram explorados para o ensino de matemática em estudantes de graduação em ciências sociais. Este estudo analisa os efeitos de um grupo de fatores que afetam a atitude, aceitação e intenção do uso de avaliações de matemática on-line, em estudantes da modalidade à distância da Escola de Comércio e Administração do Instituto Nacional Politécnico do México. Para isso, utilizou-se um instrumento com 15 reagentes aplicados a 23 alunos. Compreender os fatores tratados exigiu o modelo de aceitação de tecnologia (TAM), que provou ser um modelo robusto para determinar a atitude e a intenção de usar a tecnologia em vários contextos, inclusive educacionais. A análise foi realizada utilizando a técnica de equações estruturais, utilizando mínimos quadrados parciais, próprios para estudos exploratórios e pequenas amostras. Os resultados sugerem que os fatores de facilidade de condições e influência social são os principais determinantes de uma atitude e aceitação favorável para usar exames de matemática on-line, pelo que pode-se concluir que proporcionar aos alunos a infra-estrutura tecnológica e o serviço técnico adequado é importante, e que manter uma comunicação contínua e eficiente de autoridades e professores pode influenciar favoravelmente a atitude dos alunos para usar a plataforma.

Palavras-chave: Adoção de tecnologia; educação a distância; ensino superior; avaliação eletrônica; exames de matemática on-line

Introducción

El auge del uso de la tecnología ofrece nuevas oportunidades que abarcan todos los campos del quehacer humano, incluyendo el contexto educativo (Taylor, 1995, p. 1). Bajo esa perspectiva se han realizado estudios que muestran los beneficios que la tecnología ha traído a los procesos de enseñanza-aprendizaje. Por ejemplo, los estudios de Wang y Wang (2009), Bucheli (2015) y Cisneros (2017) señalan que la tecnología habilita la comunicación entre maestros y estudiantes al servir como una plataforma para facilitar la enseñanza y el aprendizaje. Asimismo, los autores Gunasekaran, McNeil y Shaul (2002); Torrealba (2008), y Salazar y Flores (2016) afirman que la tecnología fomenta la interacción y la comunicación entre estudiantes y profesores.

El impacto de la tecnología se ha extendido ampliamente a todas las áreas de la enseñanza, incluyendo las matemáticas, tal como lo evidencia el trabajo de Gunasekaran, et al. (2002), que aborda la eficacia de la tecnología para facilitar su enseñanza. Así mismo, en el estudio de Larson y Bruning (1996) se examina las percepciones en un curso de matemáticas de colaboración interactiva. Sus conclusiones demuestran que el formato de aprendizaje a distancia da a los maestros acceso a más recursos, es útil para los estudiantes de bajo rendimiento y es una manera eficaz de poner en práctica planes de estudios nacionales y estándares de instrucción. Del mismo modo, McCollum (1997) describe cómo la división de los alumnos de un curso de estadística en dos grupos (a un grupo se le enseñó de una manera tradicional y al otro en una versión en línea del curso) tuvo un efecto en el desempeño: los estudiantes que tomaron la opción en línea realizaron mejor el curso que el otro grupo.

La evaluación electrónica

La evaluación electrónica o e-evaluación (e-assessment) es el proceso donde la tecnología es usada para cualquier actividad relacionada con la evaluación, desde el diseño de las tareas hasta el almacenamiento de los resultados (Joint Information Systems Committee, 2007, p. 6) El proceso de evaluación educativa es el punto central del proceso de enseñanza-aprendizaje y un componente esencial del aprendizaje eficaz (Gikandi, Morrow y Davis, 2011; Freitas, 2016). El proceso de evaluación es considerado el factor clave que estimula el pensamiento de orden superior, las habilidades sociales y el trabajo en equipo (Buzetto-More y Alade, 2006 p. 256,), como lo remarcan Brown, Bull, y Pendlebury: "si deseas cambiar el aprendizaje del estudiante, cambia entonces los métodos de evaluación" (1997: 7). Por lo tanto, estos métodos deben colocarse en el lugar correcto, reconociendo su papel crucial en la enseñanza-aprendizaje.

La literatura divide a la evaluación (ya sea tradicional o en línea) en dos categorías principales: formativa y sumativa. La retroalimentación formativa alerta a los estudiantes de sus errores durante el curso, lo que les permite mejorar sus áreas de debilidad y evitar repetir los mismos errores (Gill y Greenhow, 2008, p. 207 ). La evaluación formativa ha sido reconocida en los últimos años como una estrategia para mejorar el aprendizaje de los estudiantes. Los investigadores Black y Wiliam dan evidencia de que mejorar la evaluación formativa en el aula conduce a un mayor rendimiento en los estudiantes (1998, p. 10). La evaluación sumativa es la forma convencional de la práctica de evaluación y es la evaluación final del aprendizaje del estudiante durante un curso, frecuentemente con una calificación adjunta.

En el ámbito de la evaluación en línea, la tecnología juega un rol importante para construir un vínculo entre los estudiantes y la evaluación de su aprendizaje, tal y como lo menciona Bennett, la evaluación por computadora ofrece perspectivas innovadoras para la evaluación de exámenes (1998, p. 5). Asimismo, la investigación de Heinrich, Milne y Moore (2009) menciona los beneficios que la tecnología educativa ha aportado al proceso de evaluación, tales como la mejora de la calidad y la retroalimentación del proceso de evaluación, proporciona apoyo para la calificación manual, da una visión de la comprensión del alumno a través de pruebas y exámenes, proporciona ventajas de envío electrónico y del manejo de las tareas. Whitelock y Watt señalan que la tecnología también ha contribuido de manera significativa al proceso de evaluación educativa (2008, p.151). Ellos mencionan que "los beneficios obtenidos incluyen la retención de estudiantes, una mayor calidad de la información, la flexibilidad para el aprendizaje a distancia, las estrategias para hacer frente a grupos grandes de estudiantes, la objetividad en la calificación y la utilización más eficaz de los entornos virtuales de aprendizaje” (151). El trabajo de Centeno & Lira (2015) muestra cómo el desarrollo de un sistema web para la elaboración de exámenes en línea para escuelas de bachillerato trae beneficios, como el ahorro de tiempo para los profesores, y con ello, poder dedicarse a mejorar el aprendizaje del estudiante.

Asimismo, la investigación de Terzis, Moridis y Economides menciona que la tecnología educativa basada en la web, ya sea formativa o sumativa, ofrecen ventajas, tales como "(a) alta interacción y adaptación con los examinados, (b) retroalimentación en tiempo real, (c) informes de resultados en tiempo real, (d) gestión, configuración y entrega de exámenes más eficiente, (e) manejo más fácil de datos, (f) reducción de costos, (g) auto-evaluación y reconocimiento de las fortalezas y debilidades de los estudiantes" (2012a: 1986). Dentro del contexto de la enseñanza de las matemáticas, el estudio de Whitelock y Raw (2003) menciona que las matemáticas son adecuadas para una estrategia de evaluación en línea, y puede proporcionar retroalimentación valiosa a alumnos que estudian solos en una universidad a distancia. Resumiendo, Dreher, Reiners, y Dreher (2011), y Wang (2013) sostienen que las evaluaciones electrónicas son herramientas tecnológicas que llevan el potencial de mejorar el proceso de evaluación para todos los interesados.

Aunque el papel de la evaluación educativa ha sido más reconocido, se requiere hacer mayores esfuerzos para enriquecer las prácticas de evaluación, tal como lo menciona el informe anual de los estudiantes: “nos gustaría ver que todas las universidades implementen una política sistemática para proporcionar métodos innovadores de evaluación” (Joint Information Systems Committee, citado en National Student Forum-Annual Report, 2009: 6). Esta percepción coincide con los resultados encontrados por Iannone y Simpson (2013), en donde se explora la percepción de los estudiantes de matemáticas sobre las prácticas de evaluación en la educación superior y revelan que los estudiantes perciben a la evaluación tradicional (exámenes de libro cerrado) como el principal discriminador de la capacidad matemática.

Sin embargo, el uso de la tecnología educativa también plantea serios desafíos (Andersson y Grönlund, 2009; Aroyo y Dicheva, 2004; Sife, Lwoga y Sanga, 2007). Dentro del contexto educativo, lo atractivo de lo nuevo y el ahorro en costos han conducido con frecuencia a diseñar estrategias de adopción de tecnología educativa que no son del todo exitosas (Gonçalves y Pedro, 2012; Levy, 2007).

Muchas de estas estrategias han ignorado importantes factores actitudinales que pueden afectar el uso de la tecnología para el aprendizaje, por lo que analizar los factores que pueden garantizar la satisfacción del alumno para usar las evaluaciones en línea es el punto clave de inicio de esta investigación. Así lo han confirmado investigadores del área de sistemas de información, quienes han reconocido la importancia de factores personales, tales como actitudes, creencias, cultura y comportamiento para la aceptación de la tecnología en las últimas décadas (Davis, Bagozzi y Warshaw, 1992; Reátegui Guzmán, et al., 2015; Sun, et at., 2008). Estos factores también se están investigando debido al rol que juega la aceptación de la tecnología educativa en la educación superior (Cheung y Vogel, 2013; Liu, Liao y Pratt, 2009; Teo, 2009; Terzis y Economides, 2011).

Por otro lado, es importante mencionar que se han realizado estudios previos en la aceptación de las evaluaciones en línea (Dermo, 2009; McCann, 2010; Miller, 2009; Terzis y Economides, 2011; Terzis, et al., 2012b; Terzis, Moridis y Economides, 2013). Sin embargo, no se han explorado aún las aceptaciones de las evaluaciones en línea para la enseñanza de las matemáticas.

Es por ello, que este estudio pretende entender cuáles son los factores que afectan la actitud, la aceptación y la intención de uso de las evaluaciones en línea en un contexto de enseñanza de las matemáticas para estudiantes de licenciaturas en ciencias sociales. Conociendo estos factores se podría contar con los elementos propicios para dar a conocer lo que los estudiantes consideran crucial para un diseño satisfactorio de las evaluaciones de matemáticas en línea.

Modelo de aceptación de tecnología

Para entender los factores involucrados en la aceptación de tecnología, investigadores se han valido de diversos modelos para estudiar la actitud, la aceptación, la percepción de utilidad y el sentimiento de una persona hacia la tecnología. Uno de estos es el modelo para la aceptación de la tecnología (TAM), propuesto por Davis (1989), el cual ha probado ser un modelo robusto para determinar la actitud e intención de uso de la tecnología en el contexto educativo.

El TAM tuvo su fundamento en la teoría de la acción razonada (TRA, por sus siglas en inglés) de Fishbein y Ajzen (1975). Esta describe cómo creencias y actitudes se relacionan con las intenciones individuales para realizar algo. De acuerdo con la TRA, las actitudes hacia una conducta están determinadas por las creencias acerca de las consecuencias de la conducta (basada en la información disponible o presentada al individuo) y la evaluación afectiva de esas consecuencias por parte de la persona. Las creencias se definen como la probabilidad estimada de un individuo a realizar una conducta determinada, que resultará en una consecuencia dada.

La TRA propone que el comportamiento real de una persona puede ser explicado por sus intenciones y creencias y que las intenciones pueden ser explicadas por su actitud y sus normas subjetivas (SN, por sus siglas en inglés). Fishbein y Ajzen definen actitud como "el grado de evaluación o valoración favorable o desfavorable de una persona a conducta en cuestión" (1975, p. 287), es decir, la actitud hacia el uso de la tecnología es definida como una reacción afectiva general del individuo a la utilización de tecnología. El modelo TRA también establece que la actitud juega un rol importante en la intención de uso. En años recientes, los investigadores han utilizado el modelo TAM para examinar las actitudes de los usuarios a diferentes aplicaciones de la tecnología, como un portal de aprendizaje en línea (Drennan, Kennedy y Pisarski, 2005; Pando-García, 2015), mostrando que tener una actitud positiva hacia las computadoras es beneficioso para la integración de la tecnología en las prácticas educativas (Sang, Valcke, Braak y Tondeur, 2010; Mueller, Wood, Willoughby, Ross y Specht, 2008). Fishbein y Ajzen definen a las normas subjetivas como “la percepción de una persona de que la mayoría de la gente que es importante para él o ella piensa que él o ella debe o no debe realizar la conducta de que se trate” (1975, p. 302). Los efectos de SN en la intención de uso son directos. Hemos incluido actitud y normas subjetivas en este estudio, la segunda con el nombre influencia social.

El TAM propone principalmente dos variables o constructos como los principales factores que influyen (antecedente) en la actitud de una persona para que esta adopte o use tecnología: utilidad percibida (PU, por sus siglas en inglés) y facilidad de uso percibida (PEU, por sus siglas en inglés). Davis define la primera como “el grado en el cual una persona cree que usando un sistema en particular enriquecería su rendimiento en el trabajo” (1989, p. 320) y la segunda como “el grado en que una persona cree que usando un sistema en particular sería libre de esfuerzo físico y mental” (Davis, 1989, p. 320).

El modelo TAM usa la TRA como fundamento teórico para la especificación de los vínculos causales entre la percepción de utilidad, facilidad de uso percibida, actitudes de las personas, las intenciones y el comportamiento real hacia la adopción de un sistema.

El TAM propone que la intención de uso está influenciada por la actitud hacia el uso, así como los efectos directos e indirectos de la utilidad percibida y facilidad de uso percibida. Ambas variables afectan de forma conjunta la actitud hacia el uso, mostrando que la facilidad de uso percibida tiene un impacto directo en la utilidad percibida. Es decir, el TAM sugiere que los usuarios formulan una actitud positiva a la tecnología cuando perciben la tecnología útil y fácil de usar (Davis, 1989, p. 320). Hemos adaptado también ambas variables para estudiar los efectos de la utilidad percibida y la facilidad de uso percibida en la actitud del alumno hacia el uso de evaluaciones de matemáticas en línea.

Existen otros estudios en diferentes áreas que han extendido la utilización del TAM mediante la inclusión de diferentes variables. Dentro del contexto educativo, el TAM ha sido ampliamente utilizado para predecir la aceptación y uso de la tecnología educativa. Por ejemplo, Teo (2009) examina el grado de aceptación de la tecnología en profesores en formación mediante el análisis de las variables “complejidad tecnológica” y “facilidad de condiciones”. La investigación propuesta por Cheung y Vogel (2013) incorpora variables adicionales como “recursos, compatibilidad”, “intercambio de conocimientos” y extiende la variable “normas subjetivas”, representada por compañeros, profesores y medios de comunicación para explicar los factores que influyen en las intenciones de los estudiantes para usar aplicaciones de Google (Google Applications) para el aprendizaje colaborativo. Para la evaluación educativa, Terzis y Economides (2011) analizan el efecto de la intención de comportamiento de los estudiantes para utilizar evaluaciones basadas en computadora (CBA, por sus siglas en inglés), añadiendo “contenido” y “expectativas de metas” como dos nuevas variables.

Dado que factores externos pueden tener influencia en las actitudes, en este contexto consideramos incluir la accesibilidad a servicios de tecnología, o como ya se mencionó, “facilidad de condiciones” como un factor potencial. Esto es similar a lo que Venkatesh, et al. (2003, p. 453) llamaron “tecnología y condiciones que facilitan los recursos”. En este sentido, Venkatesh explica que “en el contexto del uso de la tecnología en el lugar de trabajo, cuestiones específicas tales como la disponibilidad de personal de apoyo, es una respuesta de la organización, para ayudar a los usuarios a superar las barreras y obstáculos para el uso de la tecnología, especialmente en las primeras etapas de aprendizaje y uso” (2000, p. 187). En otras palabras, las condiciones que facilitan el uso de la tecnología incluyen los factores del entorno que dan forma a la percepción de una persona de facilidad o dificultad de realizar una tarea (Teo, 2012, p. 7). Abarca factores tales como el soporte técnico (suministro de mesas de ayuda en línea y servicios de apoyo), el cual se ha citado como uno de los factores importantes en la aceptación de la tecnología educativa y en la satisfacción de los usuarios (Williams, 2002; Teo, 2012).

De acuerdo con la estructura del TAM y a los factores involucrados en esta investigación se propone el siguiente modelo e hipótesis. El resto del artículo presenta, en primera instancia, los materiales y métodos, luego los resultados del modelo de investigación propuesto. Finalmente, se discuten los resultados y se presentan las conclusiones.

Materiales y métodos

Modelo de investigación e hipótesis

La Figura 1 muestra el modelo de investigación con las relaciones hipotéticas entre los diferentes constructos, de donde se desprenden las siguientes hipótesis:

  • H1: Existe una relación causal entre actitud (AT) e intención de usar evaluaciones en línea (BI).

  • H2: Existe una relación causal entre utilidad percibida (PU) y actitud a usar evaluaciones en línea (AT).

  • H3: Existe una relación causal entre facilidad de condiciones (FC) y utilidad percibida a usar evaluaciones en línea (PU).

  • H4: Existe una relación causal entre facilidad de condiciones (FC) y facilidad de uso percibida de las evaluaciones en línea (PEU).

  • H5: Existe una relación causal entre facilidad de uso percibida (PEU) y utilidad percibida a usar evaluaciones en línea (PU).

  • H6: Existe una relación causal entre influencia social (SI) y actitud a usar evaluaciones en línea (AT).

  • H7: Existe una relación causal entre influencia social (SI) e intención a usar evaluaciones en línea (BI).

Las flechas representan relaciones hipotéticas entre las variables latentes. PU: Utilidad Percibida, PEU: Facilidad de Uso Percibida, FC: Facilidad de Condiciones, SI: Influencia Social, AT: Actitud, BI: Intención de uso. Fuente: Elaboración propia

Figura 1 Representación visual del modelo para las respuestas del estudiante. 

Método de investigación

Para probar el modelo propuesto se aplicó un cuestionario que incluyó 15 ítems (Tabla 6), los cuales están basados y adaptados de investigaciones anteriores (Davis, 1989; Ajzen, 1991; Bandura, 1986). El cuestionario fue aplicado en línea a los alumnos de la Escuela Superior de Comercio y Administración Unidad Tepepan del Instituto Politécnico Nacional, en la Ciudad de México, durante el periodo polivirtual de marzo a junio del 2014. Los estudiantes encuestados estaban cursando una de las siguientes licenciaturas del área de ciencias sociales: Contador Público, Negocios Internacionales o Relaciones Comerciales. Asimismo, estaban cursando alguna de las asignaturas de matemáticas que imparte la institución (Matemáticas para Negocios, Matemáticas Financieras, Estadísticas para Negocios, Estadística Descriptiva e Inferencial, Método Estadístico y Estadística Aplicada).

Cada ítem se evaluó en una escala Likert de cinco puntos con opciones de respuesta entre el totalmente en desacuerdo (1) a totalmente de acuerdo (5). Se obtuvieron un total de 26 respuestas, de las cuales se retiraron tres, ya que una era respuesta incompleta y dos repetían una sola respuesta (desviación estándar=0) lo que resulta en un conjunto de datos de 23 encuestados.

Con este conjunto de 23 encuestas se usó el método estadístico Modelos de Ecuaciones Estructurales (SEM, por sus siglas en inglés), el cual se evalúa siguiendo un método de dos capas. La primera implica estimar el modelo de senderos o exterior (measurement model) para todas las variables latentes. En este se determina qué tan bien las variables observadas (indicadores) se ajustan a las variables no observadas (latentes). En la segunda capa, el modelo estructural (causal) o interno incluye las relaciones entre variables latentes hipotéticas, también llamadas constructos. Estas variables representan actitudes, sentimientos y opiniones de una persona. De las relaciones entre los constructos se establecen las hipótesis de acuerdo con el razonamiento lógico y teórico (Götz, Liehr-Gobbers y Krafft, 2010).

Para evaluar ambos modelos, se utilizó el análisis PLS-SEM (SmartPLS 2.0) (Ringle, Wende y Will, 2005). Terzis y Economides (2011), y Hair, Sarstedt, Ringle y Mena (2012) señalan que este método es particularmente apropiado para: a) muestras de tamaño pequeño, b) probar teorías en etapas tempranas de desarrollo (Fornell y Bookstein, 1982; Hair, et al., 2012) y c) predecir mejor (cuando es comparado con técnicas basadas en la covarianza, CB-SEM). En el campo de la aceptación de la tecnología educativa hay varios estudios que aplican el análisis PLS-SEM, tales como Gong, Xu y Yu (2004); Terzis, et al., (2012b), y Sánchez-Franco, Peral-Peral y Villarejo-Ramos (2014).

Según la literatura existen diversos criterios para validar un modelo de ecuaciones estructurales. En relación al tamaño de la muestra, PLS-SEM trabaja eficientemente con muestra pequeñas y modelos complejos, y prácticamente no hace supuestos acerca de los datos subyacentes [distribución] (Hair, Ringle, & Sarstedt, 2013; Hair, Hult, Ringle, & Sarstedt, 2014). En PLS-SEM, la guía es que el tamaño de la muestra debe ser diez veces el número de flechas que apuntan a un constructor (Hair et al., 2014). Dado que el modelo propuesto tiene dos variables independientes que impactan a una variable dependiente, el modelo propuesto cumple con lo sugerido por estos autores.

El modelo exterior especifica la relación entre las variables observadas y su constructo subyacente con el propósito de evaluar su calidad. Con tal fin, se evalúan diversos criterios mencionados a continuación:

  1. Validez del constructo. Es el índice de fiabilidad compuesto (composite reliability index) que se usa para probar el ajuste de un constructo medido por sus variables observadas asignadas (Götz, et al., 2010, p. 695). Este índice puede variar entre 0 y 1. valores mayores a 0.6 son considerados aceptables (Bagozzi y Yi, 1988). El índice de fiabilidad compuesto es similar al índice alpha de Cronbach.

  2. Validez convergente. Esto muestra cuando cada indicador se correlaciona fuertemente con los indicadores del mismo constructo teórico. Una medida aceptada para analizar la validez convergente es la varianza promedio extraída (AVE, por sus siglas en inglés), definida por Fornell y Larcker (1981). La AVE explica la varianza de los indicadores que es capturada por el constructo subyacente. Un AVE de más de 0.5 se considera suficiente (Götz, et al., 2010, 696).

  3. Fiabilidad del indicador. Muestra cuánto la variación de un indicador puede ser explicado por el constructo teórico. Un criterio usual es que más del 50% de la varianza de un indicador debe ser explicado por el constructo subyacente, lo cual significa que las cargas del indicador mayores a 0.7 son aceptables. La investigación empírica puede incluir cargas débiles, sobre todo cuando se aplican nuevas escalas (Hulland, 1999).

  4. Validez discriminante. Se muestra cuando cada indicador se correlaciona débilmente con todos los demás constructos, excepto con aquel que está asociado teóricamente y se confirma cuando la raíz cuadrada de AVE de un constructo es mayor a cualquier otra correlación (de cualquier otro constructo con el que no esté asociado teóricamente), también conocido como criterio Fornell y Larcker (1981).

Resultados

En este apartado se darán a conocer, en primera instancia, los coeficientes de validez del constructo, enseguida los coeficientes de las cargas de los indicadores, para después dar a conocer las pruebas de hipótesis. Después de ejecutar tanto el modelo interno como el modelo externo, la Tabla 1 muestra los resultados de los coeficientes de validez de los constructos.

Tabla 1 Coeficientes de validez del constructo convergente y discriminante para el modelo exterior. 

En la diagonal principal, la raíz cuadrada de AVE de cada constructo. Fuente: Elaboración propia

La Tabla 1 muestra los coeficientes para la fiabilidad compuesta de cada constructo, los cuales son mayores de 0.5. Para todos los constructos también se muestran los coeficientes de la varianza promedio extraída (AVE) y puede observarse que todos los casos superan el valor adecuado (0.5). Todos los valores de las raíces cuadradas de AVE son más altos que cualquier valor de correlación. El rango para los valores de AVE se encuentra entre 0.671 a 0.928, lo que confirma la validez convergente. Los índices para la fiabilidad compuesta oscilaron entre 0.803 a 0.963 demostrando fiabilidad para todos los constructos, por lo que este modelo cumple con el criterio de fiabilidad compuesta.

Los resultados presentados indican que los constructos son fiables. Sin embargo, como dato adicional se incluye el alfa de Cronbach de toda la escala con un valor de 0.947, lo cual muestra un valor muy adecuado de fiabilidad. Asimismo, en la Tabla 2 se incluyen los índices alfa de Cronbach para cada variable o constructo que muestra valores adecuados, incluyendo el constructo FC que muestra un valor (α = .60), que según Hair, Black, Babin y Anderson (2010), es un valor aceptable (0.6 ≤ α < 0.7) para un estudio exploratorio como el presente.

Tabla 2 Estadística descriptiva y alfa de Cronbach. 

Fuente: Elaboración propia

Los valores que cumplen con los índices mínimos recomendados para lograr la validez discriminante se obtuvieron siguiendo el criterio Fornell y Larcker (1981). La Tabla 1 muestra las raíces cuadradas de los valores de AVE (valores en la diagonal de la tabla) y las correlaciones de las variables latentes (valores a la derecha de la diagonal). Se puede observar que todas las raíces cuadradas de los valores AVE son más altos que cualquier otro valor de correlación. Por lo tanto, la validez discriminante se cumple en este análisis.

La Tabla 3 muestra los coeficientes de fiabilidad de los indicadores, los resultados muestran valores por encima del criterio recomendado. Por lo tanto, las cargas de los indicadores son valores que validan que más de 50% de la varianza de cada indicador se explica por el constructo latente subyacente.

Tabla 3 Coeficientes de las cargas de los indicadores. 

Fuente: Elaboración propia

La fiabilidad y la validez del modelo exterior se confirmaron por su consistencia interna, validez convergente y validez discriminante. Por lo tanto, el modelo exterior está dentro de los rangos recomendados, logrando un buen ajuste. En otras palabras, se ha probado que el modelo es una buena representación de los datos.

La significancia de las relaciones causales se probó dados los coeficientes de trayectoria estimada, por medio de la prueba t-student, que pueden obtenerse por el procedimiento de bootstrapping, el cual trata la muestra observada como si representara a la población. El procedimiento crea un número grande, pre-especificado de muestras bootstrap. Cada muestra tiene el mismo número de casos que la muestra original. Cada muestra se crea obteniendo casos aleatorios con reemplazo de la muestra original. Una vez obtenidas la media y el error estándar de cada relación se realiza una prueba de t-student para comprobar su significancia (Henseler, Ringle y Sinkovics, 2009, p. 306).

Después de que los constructos se han confirmado como fiables y válidos, el siguiente paso es evaluar el modelo estructural, con el objetivo de identificar patrones en las relaciones entre los datos. La Figura 2 muestra los coeficientes de las trayectorias y los niveles de significación.

Las significancias de los coeficientes de las trayectorias mostrados son: * p<0.05, ** p<0.01, ***p<0.001.

Fuente: Elaboración propia

Figura 2 Modelo estructural usado para las pruebas de las hipótesis (coeficientes de la trayectoria). 

Análisis de las hipótesis

H1 predice una relación causal entre actitud e intención de uso. Los resultados arrojan que la actitud muestra efectos en la intención de uso con un coeficiente de trayectoria (β: 0.536, t=2.014, p=0.045), por lo tanto, esta hipótesis es aceptada. La relación causal entre utilidad percibida y actitud (H2) no es significativa en (β: 0.283, t=1.096, p=0.274). H3 muestra que la facilidad de condiciones no es determinante significativo de utilidad percibida (β: -0.328, t=0.362, p=0.362), por lo que esta hipótesis no es aceptada. La relación causal entre facilidad de condiciones y facilidad de uso percibida (H4) es fuertemente aceptada en (β: 0.794, t=6.658, p=0.732E-11). H5 predice una relación causal entre la facilidad de uso percibida y utilidad percibida (β: 0.797, t=2.75, p=0.006), entonces esta hipótesis es aceptada. La relación causal entre la influencia social y la actitud (H6) es significativa en (β: 0.551, t=3.038, p=0.003), por lo tanto, esta hipótesis es aceptada. H7 muestra que la influencia social no es determinante significativo de intención de uso (β: 014, t=0.384, p=0.701), por lo que se concluye que esta hipótesis no es aceptada.

Los coeficientes de determinación (R2) son valores entre 0 y 1; valores más altos indican un mayor nivel de precisión de la predicción. El constructo facilidad de uso percibida se predijo por facilidad de condiciones, éste explica el 62% (R2 = 0.629) de la varianza de facilidad de uso percibida, lo que indica un valor general R2. La utilidad percibida se predijo por facilidad de condiciones y facilidad de uso percibida, ambos constructos explican un efecto moderado (Chin, 1998) de cerca del 32% (R2 = 0.319) de la varianza en utilidad percibida. La actitud se predijo por utilidad percibida e influencia social, ambas explicando el 42% (R2 = 0.420) de la varianza en actitud, un efecto moderado. Intención de uso se predijo por actitud e influencia social, ambas explicando un efecto moderado del 39% de la varianza (R2 = 0.392).

Discusión

Las evaluaciones en línea son parte de la tecnología educativa. El objetivo de este estudio es extender el conocimiento previo del modelo de aceptación de tecnología y adaptarlo al contexto de las evaluaciones en línea para asignaturas de matemáticas financieras para la educación superior.

Los resultados revelan que el constructo facilidad de condiciones muestra un fuerte efecto, lo que significa que la relación causal entre la facilidad de condiciones y facilidad de uso percibida es muy significativa. Esto podría implicar que cuando los alumnos tienen recursos tecnológicos (apoyo técnico, como mesas de ayuda, servicios de apoyo en línea y orientación por parte del personal de soporte técnico) perciben que es más fácil usar la tecnología. Proporcionar asistencia técnica hace que sea más fácil utilizar el entorno en línea. Esto puede indicar que es muy importante para los alumnos contar con las facilidades de comunicación tecnológicas, tales como la velocidad de internet, un entorno funcionando adecuadamente y que tengan asistencia técnica. Este resultado es comparable con los hallazgos de Venkatesh y Davis (2000), Lim y Khine (2006), Zhang (2016) y Acosta-Gonzaga y Walet (2017), cuyos resultados exponen que los aspectos relacionados con las estructuras de apoyo (un concepto central dentro del constructo facilidad de condiciones) están incluidos en gran medida dentro de facilidad de uso percibida. Asimismo, los resultados también revelan que el constructo facilidad de condiciones no muestra efectos directos sobre utilidad percibida, pero sí a través de la facilidad de uso como ya se explicó. Esto podría implicar que es importante que el alumno primeramente perciba la facilidad en el uso de la tecnología, otorgándole las facilidades tecnológicas adecuadas, para que después pueda percibir utilidad.

La facilidad de uso percibida muestra efectos en utilidad percibida (PEU -> PUS = 0.791). Este hallazgo implica que el alumno percibe que es fácil usar la plataforma para hacer exámenes en línea, lo cual fomenta que también lo considere útil.

Los resultados también muestran que la utilidad percibida no tiene influencia en el constructo actitud. Esto podría significar que se deben rediseñar las estrategias de evaluación donde se muestren beneficios tangibles y sistemáticos, incluyendo métodos innovadores de evaluación y prácticas de evaluación formativa en línea, con el fin de fomentar la actitud más favorable en los alumnos.

De acuerdo con los investigadores Venkatesh y Davis (2000) y Venkatesh, Morris, Davis y Davis (2003), la influencia social tiene un efecto significativo cuando (el contexto de estudio) es de forma obligatoria, pero no cuando es de forma voluntaria. Los resultados revelan que este constructo tiene un efecto importante sobre la actitud, lo cual corrobora que en este estudio el uso de la tecnología es obligatorio, ya que los alumnos están cursando una licenciatura en línea (Contador Público, Negocios Internacionales o Relaciones Comerciales). Los hallazgos también revelan que los alumnos sienten de alguna manera influencia de las autoridades (maestros) y pares (compañeros de clase) para utilizar el entorno en línea.

Los resultados muestran que el constructo actitud tiene influencia sobre intención de uso (AT -> BI = 0.536). Esto es consistente con investigaciones previas que sugieren que la actitud hacia el uso es un predictor significativo de la intención a utilizar la tecnología, principalmente bajo condiciones obligatorias (Venkatesh, Morris, Davis y Davis, 2003; Teo y Noyes, 2011). Tomando en cuenta estos resultados, podemos considerar que fomentar una actitud positiva en los estudiantes es el camino idóneo para el uso de tecnologías, a través de la creación de estrategias efectivas de comunicación entre autoridades, maestros y compañeros de clase.

En un examen más extenso de este hallazgo, el constructo actitud es significativo solo cuando los constructos relacionados con rendimiento y expectativas de esfuerzo no están incluidos en el modelo (Davis, et al., 1989). Por lo tanto, la inclusión de estos conceptos es motivo para investigaciones subsecuentes.

Con base en los hallazgos, la actitud de los estudiantes incrementa la intención de uso de los exámenes en línea. Similarmente, un aumento en la facilidad de condiciones conlleva a un aumento en la facilidad de uso percibida y esta última incrementa la utilidad percibida por los estudiantes. Lo cual muestra que factores como facilidad de condiciones y facilidad de uso percibida influyen positivamente en la utilidad de la herramienta. Finalmente, el aumento en la influencia social contribuye claramente a que el alumno tenga una buena disposición a usar la tecnología para realizar exámenes de matemáticas. Por otro lado, las hipótesis H2, H3 y H7 no fueron significativas.

Conclusiones

Este estudio exploró los factores que influyen en la intención conductual para utilizar evaluaciones en línea dentro de una escuela de educación superior que imparte licenciaturas en línea en áreas de ciencias sociales. Ambos modelos (interior y exterior) fueron apoyados por los datos recolectados, por lo tanto, esta investigación deriva en las siguientes conclusiones.

El constructo actitud mostró ser un determinante de la intención conductual a usar evaluaciones en línea, esto es consistente con investigaciones anteriores que sugieren que la actitud hacia el uso es un predictor significativo de la intención de utilizar la tecnología, principalmente en condiciones obligatorias del uso de la misma (Venkatesh, et al., 2003).

Dado que la influencia social juega un papel importante, las autoridades escolares podrían idear estrategias para poner en marcha estructuras efectivas de apoyo, que incluyan a las mismas autoridades y a los maestros donde los alumnos obtengan experiencias exitosas en el uso de tecnología, lo que contribuiría a cultivar una actitud positiva para garantizar su uso continuo en el tiempo.

Asimismo, es importante asegurar que los estudiantes cuenten con infraestructura tecnológica idónea, que incluya el soporte técnico adecuado (ayuda en línea y servicios de apoyo) además de las facilidades tecnológicas tales como la velocidad de internet y el entorno funcionando adecuadamente. En este sentido, las autoridades administrativas juegan un papel importante, tal y como Whitelock, Mackenzie, Whitehouse, Ruedel y Rae (2006, p. 508) señalan, una implementación exitosa de evaluación electrónica depende del apoyo institucional y administrativo.

Este estudio también proporciona resultados útiles para los tomadores de decisiones en la implementación de la tecnología educativa. La investigación pone en evidencia factores importantes que una plataforma de evaluación en línea tiene que considerar para poder ser utilizada eficazmente por los estudiantes. Los resultados muestran que el entorno social y las condiciones que facilitan los recursos tecnológicos juegan un papel muy importante en fomentar una actitud positiva en los estudiantes y garantizar su uso a través del tiempo. Dado que autoridades y maestros pueden influir en su actitud, es importante mantener una estrecha comunicación con los estudiantes, con el fin de promover el uso de tecnología educativa y contribuir a formar una imagen aceptable de una asignatura considerada difícil. Por lo tanto, este estudio ofrece un primer paso hacia el análisis de la aceptación de las evaluaciones en línea con contenido de matemáticas para estudiantes de licenciaturas en ciencias sociales.

Agradecimientos

Los autores agradecen las facilidades otorgadas para realizar este trabajo al Instituto Politécnico Nacional a través de la Secretaría de Investigación y Posgrado, Proyecto SIP20170742. Igualmente a la Escuela Superior de Comercio y Administración, Unidad Tepepan y al Programa de Estímulo al Desempeño de los Investigadores

Referencias

Acosta-Gonzaga, E. y Walet, N.R. (2017). The role of attitudinal factors in mathematical on-line assessments: a study of undergraduate STEM students. Assessment & Evaluation in Higher Education. 43(3), 1-17. DOI: 10.1080/02602938.2017.1401976. [ Links ]

Ajzen, I. (1991). The theory of planned behavior. Organizational Behavior and Human Decision Processes, 50(2), 179-211. DOI: 10.1016/0749-5978(91)90020-T. [ Links ]

Andersson, A. S. y Grönlund, Å. (2009). A conceptual framework for e-learning in developing countries: A critical review of research challenges. The Electronic Journal of Information Systems in Developing Countries, 38(8), 1-16. [ Links ]

Aroyo, L. y Dicheva, D. (2004). The new challenges for e-learning: The educational semantic web. Educational Technology & Society, 7(4), 59-69. [ Links ]

Bagozzi, R. P. y Yi, Y. (1988). On the Evaluation of Structural Equation Models. Journal of the Academy of Marketing Science, 16(1), 74-94. DOI: 10.1177/009207038801600107. [ Links ]

Bandura, A. (1986). Social Foundations of Thought and Action: A Social Cognitive Theory. Nueva Jersey: Prentice Hall. [ Links ]

Black, P. y Wiliam, D. (1998). Assessment and Classroom Learning. Assessment in Education: Principles, Policy & Practice, 5(1), 7-74. DOI: 10.1080/0969595980050102. [ Links ]

Bennett, R. E. (1998). Reinventing Assessment. Speculations on the Future of Large-Scale Educational Testing. A Policy Information Perspective. Policy Information Center, Educational Testing Service, 1-20 Princeton. Recuperado de http://www.eric.ed.gov/ERICWebPortal/detail?accno=ED424254. [ Links ]

Brown, G., Bull, J., y Pendlebury, M. (1997). Assessing student learning in higher education. Londres: Routledge. [ Links ]

Bucheli, M. G. V. (2015). Manejo de herramientas de la web 2.0 como base para fortalecer procesos de mediación tecnológica. Revista Iberoamericana para la Investigación y el Desarrollo Educativo, 6(11), 588-604. Recuperado de https://www.ride.org.mx/index.php/RIDE/article/view/140. [ Links ]

Buzetto-More, N. A. y Alade, A. J. (2006). Best Practices in e-Assessment. Journal of Information Technology Education, 5, 251-269. [ Links ]

Centeno, B. D. A. y Lira, O. A. (2015). Sistema de evaluaciones en línea como herramienta para los niveles de educación media superior. Revista Iberoamericana para la Investigación y el Desarrollo Educativo, 6(11). 1-34 Recuperado de https://www.ride.org.mx/index.php/RIDE/issue/view/11. [ Links ]

Cheung, R. y Vogel, D. (2013). Predicting user acceptance of collaborative technologies: An extension of the technology acceptance model for e-learning. Computers & Education, 63(2013), 160-175. DOI: 10.1016/j.compedu.2012.12.003. [ Links ]

Chin, W. W. (1998). The partial least squares approach for structural equation modeling. Modern methods for business research, 295(2) 295-336. Nueva Jersey: Lawrence Erlbaum Associates Publishers. [ Links ]

Cisneros, L. V. (2017). Las Tecnologías de la Comunicación. ¿Incorporación/Exclusión Educativa en Guanajuato? Revista Iberoamericana para la Investigación y el Desarrollo Educativo, 7(14), 325-344. DOI: 10.23913/ride.v7i14.287. [ Links ]

Davis, F. D. (1989). Perceived Usefulness, Perceived Ease of Use, and User Acceptance of Information Technology. MIS Quarterly, 13(3), 319-340. DOI: 10.2307/249008. [ Links ]

Davis, F. D., Bagozzi, R. P., y Warshaw, P. R. (1992). Extrinsic and Intrinsic Motivation to Use Computers in the Workplace. Journal of Applied Social Psychology, 22(14), 1111-1132. DOI: 10.1111/j.1559-1816.1992.tb00945.x. [ Links ]

Dermo, J. (2009). e-Assessment and the student learning experience. A survey of student perceptions of e-assessment. British Journal of Educational Technology, 40(2), 203-214. DOI: 10.1111/j.1467-8535.2008.00915.x. [ Links ]

Dreher, C., Reiners, T., y Dreher, H. (2011). Investigating Factors Affecting the Uptake of Automated Assessment Technology. Journal of Information Technology Education, 10(2011), 161-181. [ Links ]

Drennan, J., Kennedy, J., y Pisarski, A. (2005). Factors Affecting Student Attitudes Toward Flexible Online Learning in Management Education. The Journal of Educational Research, 98(6), 331-338. DOI: 10.3200/JOER.98.6.331-338. [ Links ]

Fishbein, M. y Ajzen, I. (1975). Belief, attitude, intension and behavior: An introduction to theory and research. Massachusetts: Addison Wesley. [ Links ]

Freitas, D. A., Santos, E. M. D. S., Lima, L. V. D. S., Miranda, L. N., Vasconcelos, E. L., y Nagliate, P. D. C. (2016). Teachers’ knowledge about teaching-learning process and its importance for professional education in health. Interface-Comunicação, Saúde, Educação, 20(57), 437-448. [ Links ]

Fornell, C. y Bookstein, F. L. (1982). Two Structural Equation Models: LISREL and PLS Applied to Consumer Exit-Voice Theory. Journal of Marketing Research, 19(4), 440-452. DOI: 10.2307/3151718. [ Links ]

Gikandi, J. W., Morrow, D., y Davis, N. E. (2011). Online formative assessment in higher education: A review of the literature. Computers & Education, 57(4), 2333-2351. DOI: 10.1016/j.compedu.2011.06.004. [ Links ]

Gill, M. y Greenhow, M. (2008). How effective is feedback in Computer Aided Assessments? Learning. Media and Technology, 33(207-220). DOI: 10.1080/17439880802324145. [ Links ]

Gonçalves, A. y Pedro, N. (2012). Innovation, e-learning and higher education: an example of a University’LMS adoption process. WASET, Proceedings of the International Conference in Higher Education, 1075-1082. [ Links ]

Gong, M., Xu, Y., y Yu, Y. (2004). An enhanced technology acceptance model for web-based learning. Journal of Information Systems Education, 15(4), 365-374. [ Links ]

Götz, O., Liehr-Gobbers, K., y Krafft, M. (2010). Evaluation of Structural Equation Models Using the Partial Least Squares (PLS) Approach. En V. Esposito Vinzi, W. W. Chin, J. Henseler, y H. Wang (Eds.), Handbook of Partial Least Squares, 691-711. DOI: 10.1007/978-3-540-32827-8_30. [ Links ]

Gunasekaran, A., McNeil, R. D., y Shaul, D. (2002). E-learning: research and applications. Industrial and Commercial Training, 34(2), 44-53. DOI: 10.1108/00197850210417528. [ Links ]

Hair, J. F., Black, W. C., Babin, B. J., y Anderson, R. E. (2010). Multivariate Data Analysis. Nueva Jersey: Prentice Hall. [ Links ]

Hair, J. F., Hult, G. T. M., Ringle, C., y Sarstedt, M. (2014). A Primer on Partial Least Squares Structural Equation Modeling (PLS-SEM). Thousand Oaks: California. SAGE Publications. [ Links ]

Hair, J. F., Ringle, C. M., y Sarstedt, M. (2013). Partial Least Squares Structural Equation Modeling: Rigorous Applications, Better Results and Higher Acceptance. Long Range Planning, 46(1-2), 1-12. DOI: 10.1016/j.lrp.2013.01.001. [ Links ]

Hair, J. F., Sarstedt, M., Ringle, C. M., y Mena, J. A. (2012). An assessment of the use of partial least squares structural equation modeling in marketing research. Journal of the Academy of Marketing Science, 40(3), 414-433. DOI: 10.1007/s11747-011-0261-6. [ Links ]

Heinrich, E., Milne, J., y Moore, M. (2009). An Investigation into E-Tool Use for Formative Assignment Assessment-Status and Recommendations. Educational Technology & Society, 12(4), 176-192. [ Links ]

Henseler, J., Ringle, C. M., y Sinkovics, R. R. (Eds.). (2009). The use of partial least squarespath modeling in international marketing. Advances in International Marketing, 20. Bingley: Emerald Group Publishing. Recuperado de https://www.escholar.manchester.ac.uk/uk-ac-man-scw:89555. [ Links ]

Hulland, J. (1999). Use of partial least squares (PLS) in strategic management research: a review of four recent studies. Strategic Management Journal, 20(2), 195-204. DOI: 10.1002/(SICI)1097-0266(199902)20:2<195::AID-SMJ13>3.0.CO;2-7. [ Links ]

Iannone, P. y Simpson, A. (2013). Students’ perceptions of assessment in undergraduate mathematics. Research in Mathematics Education, 15(1), 17-33. DOI: 10.1080/14794802.2012.756634. [ Links ]

Joint Information Systems Committee. (2007). Effective practice with e-assessment. The Higher Education Funding Council for England (HEFCE) on behalf of JISC. Recuperado de http://www.jisc.ac.uk/publications/programmerelated/2007/pub_eassesspracticeguide.aspx. [ Links ]

_______ (2010). Effective Assessment in a Digital Age. The Higher Education Funding Council for England (HEFCE) on behalf of JISC. Recuperado de http://www.jisc.ac.uk/digiassess. [ Links ]

Larson, M. R. y Bruning, R. (1996). Participant perceptions of a collaborative satellite‐based mathematics course. American Journal of Distance Education, 10(1), 6-22. DOI: 10.1080/08923649609526906. [ Links ]

Levy, Y. (2007). Comparing dropouts and persistence in e-learning courses. Computers & Education, 48(2), 185-204. DOI: 10.1016/j.compedu.2004.12.004. [ Links ]

Lim, C. P. y Khine, M. (2006). Managing Teachers’ Barriers to ICT Integration in Singapore Schools. Journal of Technology and Teacher Education, 14(1), 97-125. [ Links ]

Liu, S. H., Liao, H. L., y Pratt, J. A. (2009). Impact of media richness and flow on e-learning technology acceptance. Computers & Education, 52(3), 599-607. DOI: 10.1016/j.compedu.2008.11.002. [ Links ]

McCann, A. L. (2010). Factors affecting the adoption of an e-assessment system. Assessment & Evaluation in Higher Education, 35(7), 799-818. DOI: 10.1080/02602930902981139. [ Links ]

McCollum, K. (1997). A Professor Divides His Class in Two to Test Value of On-Line Instruction. Chronicle of Higher Education, 43(24), A23-A45. Recuperado de http://www.eric.ed.gov/ERICWebPortal/detail?accno=EJ541256. [ Links ]

Miller, T. (2009). Formative computer-based assessment in higher education: the effectiveness of feedback in supporting student learning. Assessment & Evaluation in Higher Education, 34(2), 181-192. DOI: 10.1080/02602930801956075. [ Links ]

Mueller, J., Wood, E., Willoughby, T., Ross, C., y Specht, J. (2008). Identifying discriminating variables between teachers who fully integrate computers and teachers with limited integration. Computers & Education, 51(4), 1523-1537. DOI: 10.1016/j.compedu.2008.02.003. [ Links ]

National Student Forum Annual Report. (2009). Recuperado de http://webarchive.nationalarchives.gov.uk/20100519174430/nationalstudentforum.com/report2009/. [ Links ]

Pando-Garcia, J., Periañez-Cañadillas, I., y Charterina, J. (2015). Business simulation games with and without supervision: An analysis based on the TAM model. Journal of Business Research. DOI: 10.1016/j.jbusres.2015.10.046. [ Links ]

Reátegui Guzmán, L. A., Izaguirre Sotomayor, M. H., Mori Ramirez, H., Castro Tamayo, R. S., y Aguedo Sussan, N. (2015). Actitud de estudiantes y profesores del Departamento de Pediatría hacia las tecnologías de la información y comunicación (TICs). Anales de la Facultad de Medicina, 76(3), 261-264. [ Links ]

Ringle, C., Wende, S., y Will, A. (2005). SmartPLS 2.0.M3. Recuperado de http:// www.smartpls.de. Recuperado de http://www.pls-sem.com/. [ Links ]

Salazar, R. L. C. y Flores, S. G. T. (2016). Diagnóstico del uso de las tecnologías en el proceso de enseñanza y aprendizaje en la educación superior. Revista Iberoamericana para la Investigación y el Desarrollo Educativo, 7(13), 273-292. Recuperado de https://www.ride.org.mx/index.php/RIDE/article/view/249. [ Links ]

Sánchez-Franco, M. J., Peral-Peral, B., y Villarejo-Ramos, A. F. (2014). Users’ intrinsic and extrinsic drivers to use a web-based educational environment. Computers & Education, 74 (2014), 81-97. DOI: 10.1016/j.compedu.2014.02.001. [ Links ]

Sang, G., Valcke, M., van Braak, J., y Tondeur, J. (2010). Student teachers’ thinking processes and ICT integration: predictors of prospective teaching behaviors with educational technology. Computers & Education, 54(1), 103-112. DOI: 10.1016/j.compedu.2009.07.010. [ Links ]

Sife, A., Lwoga, E., y Sanga, C. (2007). New technologies for teaching and learning: Challenges for higher learning institutions in developing countries. International Journal of Education and Development using ICT, 3(2), 250-260. [ Links ]

Sun, P. C., Tsai, R. J., Finger, G., Chen, Y. Y., y Yeh, D. (2008). What drives a successful e-Learning? An empirical investigation of the critical factors influencing learner satisfaction. Computers & Education, 50(4), 1183-1202. DOI: 10.1016/j.compedu.2006.11.007. [ Links ]

Taylor, J. C. (1995). Distance education technologies: The fourth generation. Australasian Journal of Educational Technology, 11(2), 1-7. [ Links ]

Teo, T. (2009). Modelling technology acceptance in education: A study of pre-service teachers. Computers & Education, 52(2), 302-312. DOI:10.1016/j.compedu.2008.08.006. [ Links ]

_______ (2012). Examining the intention to use technology among pre-service teachers: an integration of the Technology Acceptance Model and Theory of Planned Behavior. Interactive Learning Environments, 20(1), 3-18. DOI: 10.1080/10494821003714632. [ Links ]

Teo, T. y Noyes, J. (2011). An assessment of the influence of perceived enjoyment and attitude on the intention to use technology among pre-service teachers: A structural equation modeling approach. Computers & Education, 57(2), 1645-1653. DOI: 10.1016/j.compedu.2011.03.002. [ Links ]

Terzis, V. y Economides, A. A. (2011). The acceptance and use of computer based assessment. Computers & Education, 56(4), 1032-1044. DOI: 10.1016/j.compedu.2010.11.017. [ Links ]

Terzis, V., Moridis, C. N., y Economides, A. A. (2012a). How student’s personality traits affect Computer Based Assessment Acceptance: Integrating BFI with CBAAM. Computers in Human Behavior, 28(5), 1985-1996. DOI: 10.1016/j.chb.2012.05.019. [ Links ]

_______ (2012b). The effect of emotional feedback on behavioral intention to use computer based assessment. Computers & Education, 59(2), 710-721. DOI: 10.1016/j.compedu.2012.03.003. [ Links ]

_______ (2013). Continuance acceptance of computer based assessment through the integration of user’s expectations and perceptions. Computers & Education, 62(0), 50-61. DOI: 10.1016/j.compedu.2012.10.018. [ Links ]

Torrealba, G. (2008). Las TIC y la metodología de proyectos de aprendizaje: algunas experiencias en formación de docentes. Educere, 12(40), 71-78. [ Links ]

Venkatesh, V. y Davis, F. D. (2000). A Theoretical Extension of the Technology Acceptance Model: Four Longitudinal Field Studies. Management Science, 46(2), 186-204. DOI: 10.1287/mnsc.46.2.186.11926. [ Links ]

Venkatesh, V., Morris, M. G., Davis, G. B., y Davis, F. D. (2003). User Acceptance of Information Technology: Toward a Unified View. MIS Quarterly, 27(3), 425-478. [ Links ]

Wang, W. T. y Wang, C. C. (2009). An empirical study of instructor adoption of web-based learning systems. Computers & Education, 53(3), 761-774. DOI: 10.1016/j.compedu.2009.02.021. [ Links ]

Wang, N., Xu, L., Li, L. Y., y Xu, L. X. (2013). Design and Implementation of an Automatic Scoring Subjective Question System Based on Domain Ontology. Advanced Materials Research, 753 (2013), 3039-3042. [ Links ]

Whitelock, D. M., Mackenzie, D., Whitehouse, C., Ruedel, C., y Rae, S. (2006). Identifying innovative and effective practice in e-assessment: findings from seventeen UK case studies. En M. Danson (Ed.), Proceedings of the 10 th CAA International Computer Assisted Assessment Conference, 505-511. Loughborough. Recuperado de http://oro.open.ac.uk/11949/. [ Links ]

Whitelock, D. M. y Brasher, A. (2006). Developing a Roadmap for e-Assessment: Which Way Now? En M. Danson (Ed.), Proceedings of the 10 th CAA International Computer Assisted Assessment Conference, 487-501. Loughborough. Recuperado de. http://oro.open.ac.uk/11950/. [ Links ]

Whitelock, D. y Raw, Y. (2003). Taking an electronic mathematics examination from home: what the students think. Computer Based Learning in Science , New Technologies and their Applications in Education 1, 701-713. Nicosia: Department of Educational Sciences, University of Cyprus. Recuperado de http://citeseerx.ist.psu.edu/viewdoc/summary;jsessionid=BB0BD94AD163923F458E4E8E255C6C17?doi=10.1.1.372.3458. [ Links ]

Whitelock, D. M. y Watt, S. (2008). Reframing e‐assessment: adopting new media and adapting old frameworks. Learning, Media and Technology, 33(3), 151-154. DOI: 10.1080/17439880802447391. [ Links ]

Williams, P. (2002). The Learning Web The Development, Implementation and Evaluation of Internet-Based Undergraduate Materials for the Teaching of Key Skills. Active Learning in Higher Education, 3(1), 40-53. DOI: 10.1177/1469787402003001004. [ Links ]

Zhang, J. (2016). Can MOOCs be interesting to students? An experimental investigation from regulatory focus perspective. Computers & Education, 95(2016) 340-351. DOI: 10.1016/j.compedu.2016.02.003. [ Links ]

Recibido: Enero de 2017; Aprobado: Julio de 2017

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons