SciELO - Scientific Electronic Library Online

 
vol.3 número9Aptitud clínica en la interpretación de electrocardiograma en una muestra de médicos becariosEl pensamiento mágico: diseño y validación de un instrumento índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


Investigación en educación médica

versión On-line ISSN 2007-5057

Investigación educ. médica vol.3 no.9 Ciudad de México ene./mar. 2014

 

Artículo original

 

Modelación psicométrica de las habilidades de cómputo en estudiantes universitarios de nuevo ingreso

 

Psychometric modeling of computer abilities in first-year university students 

 

Iwin Leenen,1 Israel Martínez-Franco,2 Adrián Martínez-González,1 Melchor Sánchez-Mendiola3

 

1 Departamento de Evaluación Educativa, Facultad de Medicina, Universidad Nacional Autónoma de México, México D.F., México.

2 Departamento de Informática Biomédica, Facultad de Medicina, Universidad Nacional Autónoma de México, México D.F., México.

3 Secretaría de Educación Médica, Facultad de Medicina, Universidad Nacional Autónoma de México, México D.F., México.

 

Correspondencia:
Iwin Leenen.
Secretaría de Educación Médica,
Facultad de Medicina, Universidad Nacional Autónoma de México,
Circuito Interior, Edificio B, 3er. Piso, Ciudad Universitaria,
Delegación Coyoacán, C.P. 04510, México D.F., México.
Teléfono: (+5255) 5623 2300, ext. 45177. Fax: (+5255) 5616 2346.
Correo electrónico: iwin.leenen@gmail.com.

 

Recepción 2 de agosto de 2013;
Aceptación 4 de octubre de 2013

 

Resumen

Se describen el proceso y resultado de una validación psicométrica de un instrumento para estimar el nivel de las competencias de informática en estudiantes universitarios de nuevo ingreso. El nuevo instrumento, que se construyó a partir de un cuestionario existente (para una población anglófona), mide seis competencias a través de 45 ítems en los cuales los estudiantes expresan su grado de familiaridad con tareas concretas de cómputo. Los datos incluyeron las respuestas de dos cohortes de estudiantes de medicina (2 389 participantes, en total): la primera cohorte sirvió para seleccionar los ítems de la versión final del cuestionario; la segunda para una validación cruzada del nuevo instrumento. Se realizaron (a) análisis psicométricos basados en una variante del modelo del factor común y una nueva variante del modelo de crédito parcial generalizado, que da cuenta de dependencias locales entre los ítems y (b) análisis de ecuaciones estructurales para investigar las relaciones entre sí de las seis competencias. Los resultados psicométricos indicaron un buen ajuste a los modelos y mostraron adecuados valores para la fiabilidad y validez. El análisis estructural reveló relaciones de prerrequisito entre las habilidades. Los resultados fomentan el uso del instrumento para la evaluación formativa de los estudiantes.

Palabras clave: Habilidades de cómputo; validez de pruebas; teoría de respuesta al ítem; ecuaciones estructurales; análisis bayesiano; México.

 

Abstract

This article informs on the process and the results of an instrument aimed at measuring the level of computer competencies in first-year university students. The new instrument, which was constructed from an existing questionnaire (originally for an English-speaking population), measures six competencies using 45 items in which students express their familiarity with specific computer tasks. Data included responses from two cohorts of medical students (for a total of 2 389 participants): Based on the results for the first cohort, items were selected for the questionnaire's final version, which subsequently was evaluated in a cross-validation study on the second cohort. The analyses were based on (a) a variant of the common factor model and a novel variant of the generalized partial credit model that accounts for local item dependencies, and (b) structural equation modeling which examines the relations among the six abilities measured by the instrument. The psychometric results showed good fit of the models to the data and adequate reliability and validity indices. The structural analysis revealed prerequisite relations among the abilities. The results lend support to the instrument as a functional tool in the students' formative evaluation process.

Keywords: Computer literacy; test validity; item response theory; structural equation modeling; Bayesian analysis; Mexico.

 

Introducción

La competencia en computación se le considera fundamental en la formación profesional de prácticamente todas las disciplinas académicas. Un nivel superior de competencia en informática facilita al estudiante la búsqueda y aplicación efectiva de información y conlleva el uso racional de la tecnología para la solución de problemas.1,2 Es en este contexto que varios autores advierten que un grado insuficiente de conocimientos y habilidades sobre computación puede convertirse en un obstáculo para los estudiantes y puede llevar a un bajo rendimiento académico.3,4

Las variables que se han asociado con el nivel de competencias en computación incluyen, entre otras, aspectos relacionados con el nivel socioeconómico como el ingreso familiar y el tener computadora propia en casa.5,6 Especialmente en las universidades públicas en los países en vías de desarrollo, que atraen estudiantes de distintos estratos socioeconómicos, existe el riesgo que una parte significativa de la población estudiantil carezca de las habilidades de cómputo requeridas para emprender y terminar exitosamente una carrera académica.

La Facultad de Medicina de la Universidad Nacional Autónoma de México (UNAM) constituye un ejemplo típico de la situación anteriormente descrita: Los aproximadamente 1 200 estudiantes que ingresan cada año académico a la facultad provienen de bachilleratos que exhiben una enorme variabilidad, tanto geográficamente como respecto al tipo y nivel de competencias que promueven y los estratos socioeconómicos de los estudiantes que reclutan. A pesar de que el perfil de los aspirantes a ingresar a la Facultad de Medicina contempla, entre otros requisitos, conocimientos y habilidades básicas de computación e informática —y por lo tanto se puede suponer que todos los estudiantes durante su educación preparatoria fueron formados en este tema—, las experiencias de los profesores del primer año han enseñado que un grupo pequeño, pero significativo, de los estudiantes no dominan las herramientas informáticas elementales.

Por lo anterior, se considera conveniente disponer de un instrumento que permita conocer las habilidades de cómputo de cada estudiante de nuevo ingreso. Conforme al resultado proporcionado por tal instrumento, se puede ofrecer al estudiante un curso para remediar las carencias detectadas o, como mínimo, señalarle la necesidad de atender estas deficiencias. Varios autores han utilizado mediciones de las competencias relacionadas con el uso adecuado de la computadora y algunas fueron validadas en un estudio enfocado en la calidad psicométrica del instrumento.7,13 No obstante, dichos instrumentos se dirigen a poblaciones de habla inglesa (con excepción del instrumento de Joly y Ximenes-Martins,11 que está en portugués); instrumentos recientes para evaluar el nivel de las habilidades tecnológicas en estudiantes universitarios de habla hispana son escasos. En este artículo presentaremos el proceso y los resultados de la validación psicométrica de un nuevo instrumento que tiene este objetivo.

 

Método

Participantes

Dos cohortes de estudiantes participaron en el estudio: 1 132 estudiantes (94%) de los que iniciaron la licenciatura en la Facultad de Medicina de la UNAM en el año académico 2010-2011 y 1 257 (85%) de los que iniciaron en el 2011-2012. La composición de la muestra de ambas cohortes resultó muy similar respecto del sexo (el 64% es mujer; el 36% hombre) y del tipo de escuela de procedencia (el 38% viene de un Colegio de Ciencias y Humanidades y el 43% de una Escuela Nacional Preparatoria, que pertenecen al subsistema de Educación Media Superior de la UNAM; el 19% proviene de una escuela privada o no incorporada a la UNAM). Respecto de la edad al momento de participar, los estudiantes de la primera cohorte fueron, en promedio, unos meses más jóvenes que los de la segunda (18 años y 10 meses vs. 19 años y 6 meses), lo cual se debe en gran parte a que la aplicación al primer grupo se realizó más temprano en el año académico que al segundo grupo (véase la sección de Procedimientos).

Materiales

Como punto de partida utilizamos el instrumento diseñado por Duvel y Pate,9 el cual se adaptó en varios aspectos para el presente estudio: (a) se realizó una traducción al español y posteriormente una retrotraducción al inglés, para verificar que se preservase el significado de los reactivos. (b) Un grupo de expertos revisó el instrumento traducido para evaluar su adecuación a nuestro medio; decidieron eliminar una de las siete escalas del instrumento original (el manejo de diskettes) debido a su obsolescencia y agregaron dos nuevas escalas: la elaboración de presentaciones y el mantenimiento y seguridad del sistema. (c) Se cambiaron el número de opciones de respuesta y se etiquetaron como "nada familiarizado", "poco familiarizado", "familiarizado", "muy familiarizado". Como resultado de este proceso, se obtuvo un instrumento conformado por ocho escalas y 130 reactivos (Tabla 1), el cual se aplicó a la muestra total de estudiantes (ambas cohortes).

Procedimiento

Para ambas cohortes, el instrumento se aplicó en la primera clase de la asignatura Informática Biomédica I. En el año académico 2010-2011 dicha asignatura se impartió en el primer semestre, por lo cual los estudiantes de la primera cohorte contestaron el instrumento en agosto del 2010; el siguiente año, la asignatura se impartió en el segundo semestre, de tal suerte que los datos de los estudiantes de la cohorte 2011-2012 se recopilaron en diciembre 2011. Previo a la administración del instrumento, se les informó a los estudiantes sobre el objetivo de su participación. El instrumento se aplicó en línea a través del módulo Cuestionario del software Moodle.14

Análisis de datos

Análisis previos. Al examinar la distribución de respuestas en cada ítem, se detectaron varios ítems con una distribución muy sesgada en el sentido de que casi todos los respondientes indicaron estar (muy) familiarizados con la tarea planteada. Por varias razones (incluyendo la escasa información que contribuyen y la violación de los supuestos de normalidad en los análisis con modelos lineales), decidimos eliminar de los análisis subsecuentes 47 de los 130 ítems que recibieron menos del 8% de respuestas (de las dos cohortes combinadas) en las dos categorías de respuesta más bajas. La columna "Revisión 1" de la Tabla 1 muestra más detalles.

Separación de cohortes para la validación cruzada. El proceso de validación de un instrumento típicamente implica una serie de decisiones tomadas en función de resultados de análisis intermedios de los datos (p. e., la eliminación/selección de ítems, modificaciones al modelo estadístico, etc.). Para reducir el peligro de la capitalización del azar, decidimos llevar a cabo el análisis en dos fases: en la primera, analizamos los datos de la cohorte de 2010-2011 de forma exploratoria; en función de los resultados obtenidos se seleccionaron los ítems para la versión final del instrumento y se decidió sobre algunas modificaciones en los modelos estadísticos. En la segunda fase (validación cruzada), se evaluó el instrumento final con los datos de la cohorte de 2011-2012. A menos que se indique lo contrario, todos los resultados que se presentan en la sección de Resultados se obtuvieron con la cohorte de 2011-2012.

Análisis psicométricos. Se llevaron a cabo análisis psicométricos para cada escala (excepto para Edición de gráficos, puesto que el número de preguntas en esta escala es insuficiente para cualquier análisis psicométrico, lo cual puede observarse en la Tabla 1). En particular, se realizaron dos tipos de análisis: (a) Después de asignar un valor numérico a las respuestas observadas de cada ítem ("nada familiarizado" = 0; "poco familiarizado" = 0.25; "familiarizado" = 0.75; "muy familiarizado" = 1), se aplicó el modelo del factor común, lo cual se considera una variante del modelo básico de la teoría clásica de los tests (TCT).15 Dentro de este enfoque, se calcularon índices de validez y fiabilidad de toda la escala tanto como índices psicométricos para cada ítem por separado. (b) Se ajustó el modelo de crédito parcial generalizado,16 el cual es un modelo en el marco de la Teoría de la Respuesta al Ítem (TRI). Mediante comprobaciones predictivas posteriores,17 se evaluó la bondad de ajuste del modelo y se identificaron ítems con mal ajuste. Nótese que el modelo del factor común es un modelo lineal, mientras que los modelos TRI especifican relaciones no lineales entre el constructo subyacente y las respuestas en los ítems.

Tanto el modelo del factor común como el modelo de crédito parcial suponen que no existan covarianzas residuales (significativas) entre los ítems, una vez eliminada la influencia del factor latente. Sin embargo, puesto que existen grupos de preguntas que se refieren a una misma subárea (p. e., los ítems en la escala de Hojas de cálculo que se refieren al uso de fórmulas), resultó necesario ampliar los modelos para tomar en cuenta dependencia local. Para remediar este problema, se amplió el modelo del factor común con parámetros de covarianza entre los términos residuales de pares de ítems particulares. El modelo de crédito parcial se amplió según las líneas sugeridas por Hoskens y De Boeck18 Anexo 1.

Análisis de ecuaciones estructurales. Con el fin de investigar las relaciones entre las habilidades validadas en el análisis psicométrico, se realizaron análisis de ecuaciones estructurales.19,20 Como modelo de medida, el cual relaciona las variables latentes con las variables observadas, se especificaron los mismos modelos mencionados arriba para el análisis psicométrico (lo cual entonces lleva a dos variantes de análisis). La parte estructural describe las relaciones de las variables latentes entre sí mediante funciones lineales y es idéntica en ambos análisis. La especificación del modelo -en la fase exploratoria- se guió por la plausibilidad de relaciones de prerrequisito entre las habilidades.

Cabe señalar que para los análisis lineales utilizamos el procedimiento PROC CALIS de SAS versión 9.2, con la estimación por máxima verosimilitud.21 Los análisis que incluyen el modelo de crédito parcial generalizado se realizaron dentro de un marco bayesiano (para una introducción de la evaluación y estimación de modelos psicométricos en una marco bayesiano, véase Revuelta).22 Para su ajuste se implementó un algoritmo de Metrópolis.23,24 En el Anexo 1 se provee más detalles sobre dicho procedimiento bayesiano.

 

Resultados

Análisis psicométricos

El análisis de los datos de la cohorte 2010-2011 (fase exploratoria) para los ocho ítems de Presentaciones mostró un mal ajuste al modelo del factor común tanto como al modelo de crédito parcial (utilizando los mismos criterios que se discuten a continuación para las otras escalas). Puesto que tampoco la eliminación de una parte de los ítems mejoró la bondad de ajuste de la escala, decidimos eliminar la escala completa del instrumento final. Para las seis escalas restantes seleccionamos los ítems que combinaron valores aceptables en los índices psicométricos y una justificación teórica más pertinente. En consideración de la funcionalidad ofrecida por un instrumento breve, decidimos limitar el número de ítems en la escala de Interacción básica a 12 y en las otras escalas a máximo ocho. El número de ítems en la versión final de cada escala, se muestra en la última columna de la Tabla 1 . Los ítems, junto con algunos índices psicométricos, se encuentran en el Anexo 2.

La Tabla 2 resume la información sobre la bondad de ajuste de las seis escalas retenidas y presenta índices de fiabilidad y validez basados en el modelo del factor común. En consideración de que la prueba de ji cuadrada, al evaluar la bondad de ajuste de un modelo de análisis factorial confirmatorio, casi siempre —y especialmente en muestras grandes— lleva a un rechazo (debido a que es un índice de ajuste exacto y ningún modelo estadístico es capaz de tomar en cuenta todos los aspectos de la realidad), es común presentar unos índices de bondad de ajuste aproximado: (a) el SRMSR (Standardized Root Mean Square Residual), para el cual se consideran aceptables valores menores de .08, y un valor de .05 o menor indica un excelente ajuste; (b) el CFI,25 para el cual se recomienda valores mayores a .95 para poder hablar de buen ajuste; (c) el TLI (Tucker-Lewis Index),26,27 donde un buen ajuste requiere un valor mayor a .95; (d) el RMSEA,28 que con valores menores de .08 indica una bondad de ajuste aceptable y valores menores de .05 un ajuste excelente.29

Dichos cuatro índices, evaluados en la muestra de validación cruzada, muestran un ajuste muy satisfactorio al modelo del factor común para las seis escalas. También el coeficiente α de Cronbach,30 que usualmente se interpreta como un índice de fiabilidad, tiene valores altos. La Tabla 2 incluye, además del coeficiente α, el coeficiente ω propuesto por McDonald,15 el cual goza de una interpretación más clara y que, si el modelo del factor común se ajusta, simultáneamente es un índice de fiabilidad y de validez interna. Los valores en estos dos índices son similares y cercanos o mayores a .80, lo cual se considera indicador de una fiabilidad/validez alta.

El ajuste al modelo de crédito parcial se evaluó a través de gráficas del tipo que se presentan en la Figura 1. Estas gráficas muestran, para un ítem en particular, la curva característica de las cuatro categorías de respuesta. Para evaluar la bondad de ajuste de los datos a estas curvas teóricas, dividimos los participantes en 10 grupos, conforme su decil para θ en la escala, y calculamos para cada grupo la proporción de respuestas en cada categoría. Por ejemplo, para la gráfica del panel izquierdo de la Figura 1 , que muestra el ajuste para el ítem 5 de la escala Hojas de cálculo, calculamos que 79% de las personas del decil 1 (es decir, el grupo de nivel más bajo con un valor promedio de θ = -1.83) contesta "muy poco familiarizado", 18% "poco familiarizado", 3% "familiarizado" y 0.1% "muy familiarizado". Dichas proporciones se representan mediante puntos gruesos, posicionadas en la abscisa según la media de θ del grupo. Evaluando las diferencias entre estas proporciones observadas y las probabilidades teóricas correspondientes (es decir, las distancias entre los puntos gruesos y las curvas características), se aprecia la bondad de ajuste del modelo a los datos. Para el ítem 5 de Hojas de cálculo, observamos que los puntos se encuentran por encima o muy cercanos a las curvas, lo cual es un argumento que apoya la hipótesis de buen ajuste.

Como alternativa a la inspección visual de la bondad de ajuste llevamos a cabo contrastes estadísticos formales a través de comprobaciones predictivas posteriores (PPC);17,22 para el caso actual definimos un estadístico que sigue la lógica que se acaba de describir en el párrafo anterior (en el Anexo 1 pueden observarse los detalles formales). Para el ítem representado en el panel izquierdo de la Figura 1, la PPC genera un valor p de .61, lo cual es evidencia a favor del modelo ajustado.

En el Anexo 2 se presenta para cada ítem, junto con sus parámetros de discriminación y de posición, el valor p resultado de la PPC. Con algunas excepciones, los valores p no resultan "significativos" y por lo tanto apoyan la hipótesis de un buen ajuste. Una de las excepciones es el primer ítem de la escala Mantenimiento y seguridad, (véase el panel derecho de la Figura 1 ). Su valor p es bajo (entre .01 y .02, el más bajo de todos los ítems) y efectivamente observamos en la gráfica que algunas de las proporciones observadas se encuentran fuera del intervalo de credibilidad de 90% de las curvas características. Al mismo tiempo, sin embargo, la inspección visual en este y otros ítems enseña que las discrepancias, aunque resultan formalmente significativas según la PPC, son pequeñas y no implican violaciones fuertes del modelo.

La Figura 2 muestra la distribución (posterior) del nivel estimado de las personas para las seis escalas, situándola en el mismo continuo que los grados de dificultad de los ítems. En este caso, definimos el grado de dificultad como el nivel θ que corresponde con una probabilidad de 50% de contestar en una de las dos categorías más altas (en letra normal), o bien, en la categoría más alta de "muy familiarizado" (letra cursiva). Es interesante señalar que las escalas Interacción básica, Correo electrónico, Procesador de textos y Uso de Internet son relativamente fáciles: Para cualquier ítem en estas escalas, una persona de nivel promedio tiene una probabilidad mayor de 50% para contestar que está familiarizada o muy familiarizada con la tarea planteada. Las escalas Hojas de cálculo y Mantenimiento y seguridad, al contrario, son más difíciles: los ítems se encuentran más en el centro de la distribución y una parte considerable de las personas no dominan las tareas en estos ítems.

Para evaluar la fiabilidad en el contexto de modelos TRI, se examina la función de información, !(θ). La Figura 3 representa la función de información de cada una de las seis escalas en la versión final del instrumento. Se observa que para las escalas Interacción básica, Correo electrónico, Procesador de textos y Uso de Internet la función de información llega a su máximo cuando el nivel de la persona es bajo, mientras que la información en las escalas Hojas de cálculo y Mantenimiento y seguridad es máxima para niveles de habilidad promedio. Recuérdese que, al interpretar los resultados para la función de información, el error estándar de medida de θ es el inverso de la raíz cuadrada de ^θ). Por ejemplo, para las tres escalas con mayor número de ítems (Interacción básica, Hojas de cálculo y Uso de Internet), la información excede 10 en una parte importante del continuo, lo cual corresponde con un error estándar de medida de ± 0.3 (al estimar el nivel de la persona dentro de una distribución aproximadamente normal estandarizada). La información proveída por la escala de Mantenimiento y seguridad, aunque tiene solo cinco ítems, también es adecuada. Para las escalas de Correo electrónico y Procesador de textos, la función de información no alcanza la misma altura; sin embargo, todavía estiman el nivel de la persona en las zonas sensibles (para -2 < θ < 0) con un error estándar menor de 0.4.

 

 

 

Análisis de ecuaciones estructurales

La Figura 4 representa la parte estructural del modelo de ecuaciones estructurales ajustado a los 45 ítems de la versión final del instrumento (cohorte 2011-2012). Este modelo explica las correlaciones entre las seis habilidades asumiendo que (a) la habilidad Interacción básica influye directamente en las habilidades Procesador de texto, Uso de Internet y Mantenimiento y seguridad, (b) Procesador de texto influye directamente en Hojas de cálculo, Uso de Internet y Correo electrónico, y (c) Uso de Internet influye directamente en Correo electrónico y Mantenimiento y seguridad. Lo que llama la atención son los efectos fuertes de Interacción básica en Procesador de texto, y de Procesador de texto en Hojas de cálculo.

 

 

 

Los índices de bondad de ajuste aproximado para el modelo completo —el modelo de medida (en este caso, el modelo del factor común para cada escala) más el modelo estructural que se presenta en la Figura 4 resultan favorables (Tabla 3). También los índices parciales, que evalúan únicamente la bondad de ajuste de la parte estructural, apuntan a un ajuste aproximado satisfactorio. Este resultado se confirma en la Tabla 4 donde se aprecia que las correlaciones entre las habilidades derivadas del modelo en la Figura 4 son muy similares a las correlaciones en un modelo que no las restringe (la única excepción siendo la correlación entre Hojas de cálculo y Mantenimiento y seguridad, con una diferencia de .09 entre ambos tipos de correlaciones).

La Figura 4 no sólo representa las estimaciones de los efectos cuando se utiliza el modelo del factor común como modelo de medida, sino también bajo el supuesto de que las respuestas en las preguntas siguen el modelo de crédito parcial. Aunque existen algunas diferencias entre las estimaciones en ambos modelos, las tendencias básicas son las mismas.

 

Discusión

En este trabajo realizamos estudios psicométricos con el fin de evaluar la validez interna de un instrumento para estimar el nivel de habilidades de cómputo de estudiantes que se encuentran en el primer año de su carrera académica. La versión inicial del instrumento se construyó a partir de un instrumento existente9 y aspiró medir ocho distintas habilidades a través de 130 ítems. Sin embargo, el análisis de los datos recopilados en una primera cohorte de estudiantes nos obligó a eliminar la medición de dos de las ocho habilidades, debido a que la escala incluyó pocos ítems o que la calidad psicométrica de los ítems era dudosa. La versión final del instrumento, que incluye seis escalas para un total de 45 ítems, mostró adecuados índices de fiabilidad y validez, los cuales posteriormente se confirmaron en una nueva cohorte de estudiantes, especialmente reservada para una validación cruzada.

El nuevo instrumento será utilizado para una evaluación diagnóstica de los estudiantes de nuevo ingreso en la Facultad de Medicina, con el fin de ofrecerles un curso remedial voluntario a aquellos que sean detectados con habilidades de cómputo insuficientes. De tal forma, el cuestionario contribuye a que todos los estudiantes cuenten con los prerrequisitos informáticos para los estudios de medicina.

Los análisis involucraron modelos de las dos corrientes principales de la psicometría. Aunque los resultados en grandes líneas convergen, el modelo de crédito parcial parece ser más exigente para los datos que el modelo del factor común, considerando que las PPCs para algunos ítems resultaron en un valor p significativo (mientras que los índices clásicos apuntaron a un buen ajuste). Sin embargo, con base en la inspección visual de la bondad de ajuste al modelo PCM (mediante gráficas como las en la Figura 1 ) decidimos conservar estos ítems en el cuestionario. En algún sentido, la aceptación del ítem en este caso es similar a la aceptación de un modelo de ecuaciones estructurales con una ji cuadrada que formalmente lo rechaza: en ambos casos se reconoce que el modelo no se ajusta perfectamente, pero que el ajuste aproximado es satisfactorio.

Llama la atención que el instrumento es relativamente poco sensible para los niveles altos de habilidad computacional: para la mayoría de las escalas, los grados de dificultad de los ítems son bajos (como muestra la Figura 2) y la función de información alcanza su máximo cuando la habilidad de la persona se encuentra por debajo de la media (Figura 3). Si el interés fuese discriminar entre sí estudiantes con habilidades sobresalientes, definitivamente el instrumento no sería el más adecuado. Sin embargo, como se mencionó anteriormente, el objetivo principal del instrumento es detectar a estudiantes con escasas habilidades computacionales, con el fin de remediar tempranamente posibles problemas, por lo cual es muy oportuno que el instrumento tenga máxima información para el lado negativo de la dimensión latente.

Una aportación interesante del presente estudio es que se examinaron las relaciones entre las seis habilidades medidas por la versión final del instrumento. Aunque en general es aventurado interpretar un modelo de ecuaciones estructurales en términos causales, es plausible interpretar las relaciones representadas en la Figura 4 como relaciones de prerrequisito: un alto nivel en una habilidad consecuente requiere un alto nivel en la(s) habilidad(es) antecedente(s). De esta forma, Interacción básica es un prerrequisito directo o indirecto de las otras habilidades; asimismo, dominar el Procesador de texto es prerrequisito para las cuatro habilidades restantes. Enfatizamos que este estudio es una primera aproximación al tema; hasta donde llega nuestro conocimiento, no existen otros estudios que han investigado o caracterizado las relaciones entre habilidades de cómputo en estos términos.

Cabe mencionar que, durante el periodo de investigación de este estudio, Peinado de Briceño y Ramírez31 publicaron los resultados de una validación de un instrumento similar dirigido a estudiantes de una universidad a distancia venezolana. Consideramos conveniente mencionar dos diferencias entre el enfoque de Peinado de Briceño y Ramírez y el nuestro. Primero, el instrumento que proponen estos autores venezolanos es el Inventario de Autoeficacia Computacional (originalmente de Torkzadeh y Koufteros).32 Autoeficacia refiere a la creencia o percepción de una persona sobre sus propias habilidades y juega un papel significativo en (el cambio de) la conducta en un rango amplio del funcionamiento humano.33,34 Por un lado, el diseño y el formato para responder a nuestro instrumento, lo convierte a una medición de autoeficacia, tal como el instrumento de Peinado de Briceño y Ramírez; por otro lado, aspiramos con nuestro instrumento detectar el nivel real de las habilidades de cómputo para que los estudiantes con un nivel insuficiente consideren actualizarse. Algunos estudios han investigado hasta qué grado la autoevaluación refleja diferencias reales entre habilidades tecnológicas; sin embargo, llegaron a hallazgos desacordes: McCourt-Larres, Ballantine, y Whittington35 y Sieber36 concluyeron que la relación es nula o insignificante, mientras que Katz y Macklin37 encontraron una correlación moderada. Los autores planeamos una investigación posterior en una nueva cohorte de estudiantes con el fin de comparar los niveles de cómputo estimados por el instrumento con observaciones directas en el aula de informática.

Una segunda diferencia con la validación por Peinado de Briceño y Ramírez31 se refiere al tipo de modelos psicométricos utilizados. Donde estos autores analizaron los datos con un modelo factorial exploratorio (de componentes principales), nosotros adoptamos un enfoque confirmatorio (aunque permitimos en la fase exploratoria modificaciones a los modelos psicométricos), examinando (a) la estructura interna de las escalas incluidas a priori en el instrumento a través de índices psicométricos clásicos y de la TRI y (b) las relaciones entre las seis competencias con modelos de ecuaciones estructurales. Además, la evaluación final del instrumento se cimentó en datos de una nueva muestra, aportando evidencia en el contexto de una validación cruzada.

 

Conclusión

Las habilidades computacionales son esenciales en el desarrollo del proceso de aprendizaje, porque es un saber transversal que impacta en todas las disciplinas e inclusive en la educación continua a lo largo de la vida profesional que conlleva una práctica reflexiva que favorezca el mejoramiento continuo en las ciencias de la salud. Además, son indispensables en asignaturas que utilizan una metodología de e-learning (aprendizaje electrónico) o blended learning (aprendizaje semipresencial) ya que sin habilidades mínimas en computación no es posible participar en ellas.

Como puede apreciarse, la estrecha relación entre las habilidades de computación y los aprendizajes que los estudiantes desarrollarán en su formación universitaria hacen evidente su inclusión en la estructura curricular. El progresivo dominio del manejo de información y las nuevas tecnologías permiten que los estudiantes cuenten con herramientas para hacer más efectivos sus aprendizajes en la totalidad de las asignaturas.

En este sentido, el presente trabajo aporta un instrumento con evidencia de validez, adaptado al español, que permite la evaluación formativa y sistemática de los estudiantes de primer ingreso a las Instituciones de Educación Superior. En particular, puede ser utilizado para realimentar a los estudiantes en su desempeño, así como a los profesores, a la propia institución y a las escuelas de Educación Media Superior.

 

Contribución de cada uno de los autores

IL realizó el análisis de datos y la elaboración de la parte mayor del manuscrito (texto y gráficos).

IMF y AMG participaron en el diseño del cuestionario aplicado, la recopilación y análisis descriptivos de los datos y la elaboración de algunas secciones del manuscrito (parte de la introducción y las conclusiones).

MSM enriqueció el texto con varios comentarios.

 

Financiamiento

Ninguno.

 

Conflicto de intereses

Los autores declaran no tener ningún conflicto de intereses.

 

Presentaciones previas

Ninguna.

 

Referencias

1. Althaus SL. Computer-mediated communication in the university classroom: An experiment with on-line discussions. Communication Education 1997;46:158-174.         [ Links ]

2. Seago BL, Schlesinger JB, Hampton CL. Using a decade of data on medical student computer literacy for strategic planning. Journal of the Medical Library Association 2002;90:202-209.         [ Links ]

3. McNulty JA, Sonntag B, Sinacore JM. Evaluation of computer-aided instruction in a gross anatomy course: A six-year study. Anatomical Sciences Education 2009;2:2-8.         [ Links ]

4. Morán-Álvarez C, Cruz-Licea V. Uso de la computadora en estudiantes de medicina. Revista de la Facultad de Medicina UNAM 2001;44:195-197.         [ Links ]

5. Bozionelos N. Socio-economic background and computer use: The role of computer anxiety and computer experience in their relationship. International Journal of Human-Computer Studies 2004;61:725-746.         [ Links ]

6. van Dijk J, Hacker K. The digital divide as a complex and dynamic phenomenon. The Information Society 2003;19:315-326.         [ Links ]

7. Arning K, Ziefle M. Development and validation of a computer expertise questionnaire for older adults. Behavioral & Information Technology 2008;27:89-93.         [ Links ]

8. Cork RD, Detmer WM, Friedman CP. Development and initial validation of an instrument to measure physicians' use of, knowledge about, and attitudes toward computers. Journal of the American Medical Informatics /Association 1998;5:164-176.         [ Links ]

9. Duvel C, Pate SS. Computer knowledge: Report from a student self evaluation. Journal of Industrial Technology 2003;20(1).         [ Links ]

10. Gross M, Latham D. Undergraduate perceptions of information literacy: Defining, attaining, and self-assessing skills. College and Research Libraries 2009;70:336-350.         [ Links ]

11. Joly MC, Ximenes-Martins R. Estudo de validade de uma escala de desempenho em tecnologias para estudantes. Revista Semestral de la /Asociación Brasilera de Psicología Escolar y Educacional 2006;10:41-52.         [ Links ]

12. Katz IR. Testing information literacy in digital environments: ETS's iSkills assessment. Information Technology and Libraries 2007;26(3):3-12.         [ Links ]

13. Link TM, Marz R. Computer literacy and attitudes towards e-learning among first year medical students. BMC Medical Education 2006;6:34.         [ Links ]

14. Myrick J. Moodle 1.9: Testing and assessment. Birmingham, Reino Unido: Packt Publishing; 2010.         [ Links ]

15. McDonald RP. Test theory: A unified treatment. Mahwah, NJ: Erlbaum; 1999.         [ Links ]

16. Muraki E. A generalized partial credit model: Application of an EM algorithm. Applied Psychological Measurement 1992;16:159-176.         [ Links ]

17. Gelman A, Meng XL, Stern H. Posterior predictive assessment of model fitness via realized discrepancies (con discusión). Statisti-ca Sinica 1996;6:733-807.         [ Links ]

18. Hoskens M, De Boeck P. A parametric model for local dependence among test items. Psychological Methods 1997;2:261-277.         [ Links ]

19. Bollen KA. Structural equations with latent variables. Nueva York, NY: Wiley; 1989.         [ Links ]

20. Kline RB. Principles and practice of structural equation modeling. 2a edición. Nueva York, NY: The Guilford Press; 2005.         [ Links ]

21. SAS Institute. SAS/STAT 9 user's guide. Cary, NC. SAS. 2002.         [ Links ]

22. Revuelta J. Estimación y evaluación de modelos psicométricos mediante simulaciones posteriores bayesianas. Metodología de las Ciencias del Comportamiento 2001;3:1-18.         [ Links ]

23. Gelman A, Carlin JB, Stern HS, et al. Bayesian data analysis. 2a edición. Londres, Reino Unido: Chapman & Hall; 2004        [ Links ]

24. Tanner ΑΛΑ. Tools for statistical inference: Methods for the exploration of posterior distributions and likelihood functions. 3a edición. Nueva York, NY: Springer; 1996.         [ Links ]

25. Bentler PM. Comparative fit indexes in structural models. Psychological Bulletin 1990;107:238-246.         [ Links ]

26. Bentler PM, Bonett DG. Significance tests and goodness of fit in the analysis of covariance structures. Psychological Bulletin 1980;88:588-606.         [ Links ]

27. Tucker LR, Lewis C. A reliability coefficient for maximum likelihood factor analysis. Psychometrika 1973;38:1-10.         [ Links ]

28. Steiger JH. Structural model evaluation and modification: An interval estimation approach. Multivariate Behavioral Research 1990;25:173-180.         [ Links ]

29. Hu L, Bentler PM. Cutoff criteria for fit indexes in covariance structure analysis: Conventional criteria versus new alternatives. Structural Equation Modeling 1999;6:1-55.         [ Links ]

30. Cronbach LJ. Coefficient alpha and the internal structure of tests. Psychometrika 1951;16:297-334.         [ Links ]

31. Peinado de Briceño SE, Ramírez JJ. Adaptación de un instrumento para evaluar la autoeficacia computacional en estudiantes venezolanos. Enseñanza e Investigación en Psicología 2010;15:21-30.         [ Links ]

32. Torkzadeh G, Koufteros X. Factorial validity of a computer self-efficacy scale and the impact of computer training. Educational and Psychological Measurement 1994;54:813-821.         [ Links ]

33. Bandura A. Self-efficacy: Toward a unifying theory of behavioral change. Psychological Review 1977;84:191-215.         [ Links ]

34. Bandura A. Self-efficacy: The exercise of control. Nueva York, NY: Freeman; 1997.         [ Links ]

35. McCourt-Larres P, Ballantine JA, Whittington M. Evaluating the validity of self-assessment: Measuring computer literacy among entry-level undergraduates within accounting degree programmes at two UK universities. Accounting Education 2003;12:97-112.         [ Links ]

36. Sieber V. Diagnostic online assessment of basic IT skills in 1st-year undergraduates in the Medical Sciences Division, University of Oxford. British Journal of Educational Technology 2009;40:215-226.         [ Links ]

37. Katz IR, Macklin AS. Information and communication technology (ICT) literacy: Integration and assessment in higher education. Journal of Systemics Cybernetics and Informatics 2007;5(4):50-55.         [ Links ]

38. Gelman A, Rubin DB. Inference from iterative simulation using multiple sequences. Statistical Science 1992;7:457-511.         [ Links ]

Creative Commons License Todo el contenido de esta revista, excepto dónde está identificado, está bajo una Licencia Creative Commons