SciELO - Scientific Electronic Library Online

 
vol.15 número45Entornos virtuales de aprendizaje: un enfoque alternativo para la enseñanza y aprendizaje de la inferencia estadísticaApropiación tecnológica en profesores que incorporan recursos educativos abiertos en educación media superior índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Journal

Artigo

Indicadores

Links relacionados

  • Não possue artigos similaresSimilares em SciELO

Compartilhar


Revista mexicana de investigación educativa

versão impressa ISSN 1405-6666

RMIE vol.15 no.45 Ciudad de México Abr./Jun. 2010

 

Investigación

 

La pericia de los estudiantes como diferenciador del desempeño en un curso en línea

 

Eduardo Peñalosa Castro*, Patricia Landa Durán** y Sandra Castañeda Figueiras***

 

* Profesor investigador de la Universidad Autónoma Metropolitana, unidad Cuajimalpa. Av. Constituyentes 1054, colonia Lomas Altas, 11950, México, DF. CE: eduardop@correo.cua.uam.mx

** Profesora investigadora de la Facultad de Estudios Superiores Iztacala, de la Universidad Nacional Autónoma de México.

*** Profesora investigadora del departamento de Posgrado de la Facultad de Psicología de la Universidad Nacional Autónoma de México.

 

Artículo recibido: 20 de abril de 2009
Dictaminado: 20 de julio de 2009
Segunda versión: 15 de septiembre de 2009
Aceptado: 20 de septiembre de 2009

 

Resumen

En este trabajo se propone que en el campo educativo es preciso considerar la existencia de estudiantes con diferente nivel de pericia en relación con el dominio de habilidades y conocimientos propios de la disciplina bajo estudio. Se discute la posibilidad de que los novatos requieran de una estructura instruccional más prescriptiva en los ambientes de aprendizaje en línea, dadas sus características cognitivas. El estudio compara a un grupo de estudiantes novatos versus uno de expertos en términos de algunos parámetros de su desempeño académico en un curso en línea de Psicología. Los resultados muestran que los expertos son más eficientes y efectivos en el curso. Se discute la necesidad de considerar este tipo de variables en el diseño de cursos en línea.

Palabras clave: estudiantes, habilidades, educación virtual, diseño instruccional, educación superior, México.

 

Abstract

This study proposes that within the educational field, consideration must be given to the existence of students with different levels of expertise in the skills and knowledge of the discipline at hand. The idea is presented that novices may require an instructional structure that is more prescriptive in settings of online learning, given their cognitive characteristics. The study compares a group of novice students with a group of expert students in terms of certain parameters of their academic performance in an online psychology course. The results show that the experts are more efficient and effective in the course. The need to consider this type of variables in the design of online courses is discussed.

Keywords: students, skills, virtual education, instructional design, higher education, Mexico.

 

Introducción

El aprendizaje en línea es un subconjunto del aprendizaje en general y podríamos esperar que los aspectos que son relevantes en situaciones presenciales, en términos generales, también lo serán en el contexto en línea (Anderson, 2004). Esto implica que lo que promueve el aprendizaje son los métodos y no los medios (Clark, 1994), pero también es preciso reconocer que existen ciertas prestaciones (affordances) de los medios y las tecnologías que matizarían las posibilidades de la comunicación (Kozma, 1994; Kirschner, 2006); o bien, reconocer que existen características simbólicas o semióticas que las tecnologías ponen a disposición del aprendiz (Coll, 2004), y que es preciso investigar.

El cuerpo disponible de investigación acerca del aprendizaje en línea ha analizado los efectos de diversos métodos, así como la influencia de medios y representaciones de información en Internet, lo cual ha conducido a identificar prácticas efectivas, como la presentación flexible de escenarios o situaciones auténticas como guía para el aprendizaje; el uso de recursos gráficos y animados para activar los conocimientos previos de los estudiantes; el diseño de situaciones que conducen a la construcción de conocimiento mediante indagación entre bancos de recursos, el acceso a productos expositivos audiovisuales, a espacios de discusión y colaboración; la aplicación de herramientas para programar prácticas, ejercicios o simulaciones, o el diseño de espacios para la reflexión acerca de lo que se aprende, entre otros.

Los ejemplos anteriores forman parte de una importante área de interés en la investigación del aprendizaje en línea: la que enfatiza los efectos de los ambientes, sus herramientas, interacciones o funciones. Sin embargo, también consideramos necesaria la exploración del papel de las variables del estudiante en estos entornos. Al respecto, diversos estudios han analizado la importancia de las estrategias de aprendizaje, motivacionales o de autorregulación, como condiciones que influyen en los resultados al aprender en línea (Lynch y Dembo, 2004; Azevedo y Cromley, 2004; Dembo, Junge y Lynch, 2006).

Sin embargo, un tipo de variables del estudiante cuya participación en el aprendizaje en línea no ha sido estudiada suficientemente es su nivel de pericia, entendida como un conjunto de patrones cognitivos que, a partir de contar con una trayectoria importante de experiencia en un campo, conduce a los sujetos a conformar estructuras complejas y organizadas de conocimiento y habilidades que los hacen actuar de una manera oportuna y acertada en situaciones de solución de problemas. Es importante estudiar las interacciones entre la pericia de los estudiantes y sus patrones de desempeño en cursos en línea, con el fin de identificar condiciones que nos podrían llevar a mejorar en el diseño de ambientes y cursos.

La experiencia del trabajo intenso en un campo conduce a la conformación de perfiles de pericia independientemente del campo de que se trate. De especial importancia para este trabajo es el caso del desarrollo de pericia entre estudiantes. Al respecto, y de acuerdo con la literatura especializada en el tema, se ha identificado que los estudiantes expertos podrían tener rasgos como los siguientes:

1) advertir características y patrones significativos de información que los novatos no observan, dada la capacidad que desarrollan después de varios cientos o miles de horas de estudio y práctica en un campo, de esquematizar el conocimiento, agrupar elementos que juntos adquieren un significado importante para la aplicación del conocimiento o la solución de problemas (Chi, Glaser y Rees, 1982; Castañeda, 2004);

2) contar con un volumen importante de conocimientos del dominio o tema, organizados de manera que reflejan una comprensión profunda del campo (Glaser, 1996; Ericsson, 2005);

3) su conocimiento no puede reducirse a conjuntos de hechos aislados o proposiciones, sino debe reflejar contextos de aplicabilidad o principios de aplicación en la forma de relaciones de si... entonces (Bransford, Brown y Cockings, 2004);

4) capacidad de recuperar flexiblemente aspectos importantes de su conocimiento con poco esfuerzo de atención (Anderson, 2000, 2001);

5) a pesar de que conocen sus disciplinas exhaustivamente, esto no garantiza que puedan enseñarle a otros, pues el proceso de enseñanza implica otra serie de elementos de pericia (Castañeda, 2004); y

6) contar con niveles variables de flexibilidad en la manera como se enfrentan a nuevas situaciones, lo que implica que no necesariamente transfieren conocimientos o habilidades aprendidos en un contexto hacia otro campo (Wineburg, 1991; Castañeda, 2004).

De acuerdo con Castañeda (2006), identificamos grandes dimensiones que dan cuenta de las diferencias entre el comportamiento de aprender en un estudiante experto versus un novato. La primera dimensión es la estructura de conocimientos, que en los expertos está organizada e integrada coherentemente, es accesible y flexible. La segunda es la representación de problemas, que en los expertos implica el planteamiento de teorías explicativas basadas en conceptos y principios abstractos, mientras que los novatos proponen ante los problemas teorías ingenuas, analizan características superficiales que inducen errores. La tercera es la eficiencia procedimental, que en la medida en que cuenta con un mayor grado de pericia las habilidades disponibles incrementan la probabilidad de una solución correcta y pronta. Lajoie (2003) coincide con lo anterior y resume las diferencias entre estudiantes novatos y expertos, indicando que los últimos tienen conocimiento más profundo y altamente estructurado, mejor reconocimiento de patrones, mejor memoria para la información de su dominio, más conciencia de lo que saben y de lo que no saben, y ejecutan soluciones más rápidas y precisas.

Características como las anteriores son responsables de que estudiantes principiantes y expertos tengan patrones de comportamiento diferentes en el proceso de estudio escolar. De hecho, se han encontrado diferencias entre los comportamientos de estudiantes expertos y novatos en dominios como la Física (Larkin, 1983; Kohl y Finkelstein, 2007), las Matemáticas (Sweller, Mawer y Ward, 1983; Yarlas y Sloutski, 2000) o la Química (Heyworth, 1999). En estos contextos, se ha observado que los expertos ensayan soluciones "hacia adelante" de los problemas; esto es, parten de la información con la que ya cuentan en el planteamiento del problema y trabajan hacia adelante realizando operaciones que saben les permitirán llegar a la meta. Estas estrategias se derivan de la experiencia de los estudiantes en situaciones similares y son eficientes, puesto que permiten el ahorro de tiempo en el proceso de solución. Las soluciones de los principiantes se basan en estrategias de análisis de medios–fines, que son formas de razonamiento "hacia atrás", que incluyen: a) identificar el planteamiento de la meta; b) encontrar diferencias entre el estado de meta y el actual; c) encontrar una operación que reduzca esta diferencia; d) intentar poner en marcha esta operación; en caso de que no funcione, repetir los pasos b a d recursivamente hasta encontrar la solución (Heyworth, 1999).

Sin embargo, consideramos que con los cambios en las condiciones para el aprendizaje en entornos de la era de la información y del conocimiento, es importante valorar las implicaciones para el desempeño de los estudiantes. El hecho de que la oferta académica en el mundo esté adoptando el uso de Tecnologías de la Información y la Comunicación podría implicar cambios en las condiciones de desempeño de la pericia. Existen demostraciones de que Internet es un medio instruccional complejo, ya que permite el acceso a múltiples fuentes de información, tiene una estructura no lineal, y se relaciona con múltiples sistemas y herramientas. En tanto, implica exigentes demandas para los aprendices, quienes deben demostrar el dominio de ciertas estrategias, pues de lo contrario quedan en riesgo de distraerse de sus objetivos de aprendizaje, o perderse en el ciberespacio (Körndle, Narciss y Proske, 2002).

Al respecto, se ha demostrado que el nivel de conocimientos previos de los estudiantes se asocia con la capacidad de adaptación a ambientes complejos de aprendizaje, en los que su pericia en los temas de aprendizaje les funciona como guía para aprovechar los recursos que le son de utilidad, aun cuando los ambientes de aprendizaje no tengan una estructura que los guía paso a paso (Doherty, 1998; Niemiec, Sikorski y Walberg, 1996; Lin y Hsieh, 2001). Estudiantes novatos, por el contrario, muestran decrementos en su desempeño cuando se les expone a ambientes de aprendizaje no estructurados. Cuando los cursos en línea dirigen la secuenciación, las condiciones de aprendizaje, las tareas, así como las estrategias de aprendizaje que se desean fomentar en los estudiantes, y permiten sólo un control limitado del proceso por parte del aprendiz, entonces el aprendizaje incrementará sensiblemente (Clark, 2003). Ante diseños instruccionales prescriptivos, de aprendizaje dirigido, tanto estudiantes novatos como expertos demuestran tener niveles altos de aprovechamiento (Shin, Schallert y Sanvenye, 1994; Clark, 2003).

Algunos autores sugieren que en ambientes de aprendizaje en línea no estructurados cada estudiante puede construir su propio conocimiento con base en estrategias idiosincrásicas, y que imponer una guía es interferir con los procesos naturales por los cuales ellos cumplen con sus metas de aprendizaje (Jonassen, 1999). Por otro lado, existen opiniones en favor de los ambientes estructurados, dado que se diseñan tomando en cuenta estructuras de la arquitectura cognitiva y sus funciones de construcción de conocimiento demostradas en la literatura (Kirschner, Sweller y Clark, 2006). El nivel de pericia podría constituir una especie de "guía" que ayuda a los estudiantes a desempeñarse exitosamente en ambientes estructurados y no estructurados. Aun así, existe evidencia de que incluso a estudiantes con considerable conocimiento previo la guía estricta del aprendizaje es igualmente efectiva que el uso de enfoques no estructurados (Kirschner et al., 2006).

Hasta aquí, tenemos evidencias de que la disponibilidad de una estructura sólida de conocimientos, así como de estrategias exitosas para solucionar problemas conducen a los estudiantes expertos a desempeños eficientes, en los que demuestran resultados de aprendizaje de máximo nivel, obtenidos a partir de una inversión apropiada de tiempo y esfuerzo.

En el contexto del aprendizaje en línea, Peñalosa (2007) identificó que el conocimiento previo, la autorregulación y el nivel de interactividad explican el desempeño de los estudiantes en línea. En el estudio citado, en la primera unidad de aprendizaje (de tres) de un curso en Internet, el elemento que tuvo un mayor impacto en la ejecución fue la interactividad, definida como "las acciones recíprocas entre el estudiante y otros agentes del curso, que se dirigen a la construcción de conocimiento pertinente" (p. 127). En las dos unidades siguientes, el conocimiento que iban adquiriendo explicaba la mayor porción del desempeño en evaluaciones objetivas avaladas por jueces. En el estudio de Peñalosa (2007) se validó lo anterior mediante un modelo de ecuaciones estructurales.

Dadas evidencias que aseguran que las diferencias en la estructura del conocimiento y en las estrategias de solución de problemas propician una diferenciación en el proceso de aprendizaje en estudiantes novatos y expertos, y otras que sugieren que variables como el nivel de actividad de los estudiantes en cursos en línea y su conocimiento previo explican el desempeño en estos contextos, en el presente trabajo se comparó el desempeño de estudiantes de Psicología principiantes y expertos en un curso en línea estructurado, con un diseño instruccional prescriptivo, de un tema teórico de Psicología Clínica. Se compararon: los desempeños en una evaluación sumativa, las acciones de los estudiantes en el proceso del curso, así como los resultados de evaluaciones formativas, que constituían evidencias del proceso de construcción de estructuras de conocimiento del dominio del curso. Adicionalmente, se puso a prueba un modelo de ecuaciones estructurales para explicar el desempeño de los estudiantes en el curso; dicho modelo incluyó las variables exógenas: 1) nivel de actividad en el ambiente, o el trabajo del estudiante en la plataforma; 2) conocimiento previo de los estudiantes, que se mide a través de las evaluaciones formativas en el curso, y como variable endógena o explicada; y 3) el desempeño en una prueba objetiva final, validada por jueces expertos. El modelo se ilustra en la figura 1.

Propósito del estudio, preguntas e hipótesis

Para lograr la comparación, se decidió exponer a dos grupos de estudiantes de programas de diferente nivel (licenciatura y maestría) en el área de Psicología Clínica teórica, a un curso de esa temática, en el mismo ambiente de aprendizaje en línea, ante un diseño instruccional que prescribe actividades precisas y delimitadas, pero que permite la ejecución libre de tareas relacionadas con el planteamiento de metas, toma de notas, auto–monitoreo del desempeño y consulta de recursos (acciones para el aprendizaje autorregulado). El ambiente de aprendizaje se llama Meta–tutor y ha sido reportado en otros sitios (Peñalosa y Castañeda, 2007; 2008).

En este ambiente es posible tener evidencias de los procesos de estructuración del conocimiento declarativo y el registro de las acciones ejecutadas por los estudiantes. Por lo tanto, ofrece evidencias para la comparación de los procesos que ellos siguen cuando se orientan hacia una meta de aprendizaje.

De acuerdo con lo anterior, el presente trabajo tuvo como propósito la comparación de estudiantes de licenciatura y maestría en Psicología, a través de las evidencias derivadas de su trabajo en asignaturas de sus respectivos planes de estudios. Las preguntas planteadas en este estudio fueron las siguiente:

1) ¿El nivel de pericia de los estudiantes se relaciona con la presencia de resultados diferenciales de ambos grupos en una evaluación sumativa?

2) ¿El nivel de pericia de los estudiantes se asocia con un patrón diferente de comportamientos para la estructuración del conocimiento?

3) ¿El nivel de pericia de los estudiantes conduce a diferencias en la eficiencia procedimental en el curso, a juzgar por la cantidad de trabajo y tiempo invertidos comparados con los resultados del curso?

4) ¿El nivel de pericia en ambos grupos puede relacionarse con un uso diferencial de funciones para el aprendizaje autorregulado por parte de los estudiantes?

5) ¿Existe un modelo de ecuaciones estructurales que se ajuste a los datos del proceso de aprendizaje de un curso en línea de estudiantes novatos y expertos?

En función de las preguntas anteriores —y dadas las evidencias de la literatura acerca de la disponibilidad de estructuras y estrategias más complejas desarrolladas en estudiantes expertos con respecto a novatos— se proponen las siguientes hipótesis:

1) Los resultados de aprendizaje en una evaluación sumativa serán superiores en el grupo de los expertos.

2) Ambos grupos diferirán en los patrones de comportamiento en el ambiente de aprendizaje. Especialmente se espera que los expertos tengan: a) un mayor grado de efectividad, entendido como la obtención de altos puntajes en las evaluaciones formativas y sumativa, y b) un mayor grado de eficiencia, a juzgar por la cantidad de trabajo y tiempo invertidos en el curso.

3) Se espera encontrar un nivel más alto de estrategias aprendizaje autorregulado en los expertos; esto es, un uso eficiente de los recursos que para este efecto están disponibles en el ambiente de aprendizaje.

4) La última hipótesis plantea que existe un modelo de ecuaciones estructurales que describe la comparación entre estudiantes novatos y expertos en el ambiente de aprendizaje, que ilustra las diferencias en efectividad y eficiencia de los estudiantes con diferentes niveles de experiencia.

De acuerdo con lo expuesto hasta aquí, en el presente trabajo se realiza una evaluación empírica del desempeño de estos dos grupos de estudiantes en un curso de evaluación en Psicología Clínica realizado en un ambiente de aprendizaje en línea. A continuación se describe la estrategia metodológica para este efecto.

Método

Participantes

El estudio se realizó con 49 estudiantes de la licenciatura y maestría de Psicología (32 mujeres y 17 hombres) que recibieron, por su participación, crédito parcial de asignaturas de sus planes de estudios. Las edades promedio de los estudiantes era de 25.3 años de edad.

Los participantes conformaban dos grupos, que identificaremos como principiantes y expertos. El de principiantes estaba compuesto por 24 estudiantes de quinto semestre de la carrera de Psicología de la FES Iztacala, con un promedio de 21.8 años (16 mujeres y 8 hombres); el grupo de expertos se conformaba por 25 estudiantes de primer año de la maestría en Medicina Conductual que imparte la Universidad Nacional Autónoma de México, con un promedio de 29.8 años (19 mujeres y 6 hombres).

Los criterios de clasificación de los grupos fueron: los principiantes eran estudiantes que recién terminaban el segundo año de la carrera, que en el plan de estudios que cursaban habían revisado durante los primeros cuatro semestres conocimientos básicos en Psicología, especialmente procesos básicos (por ejemplo, aprendizaje, memoria, percepción, pensamiento, lenguaje). Este curso forma parte del acercamiento inicial a los contenidos de Psicología Aplicada, y el campo de la clínica es totalmente novedoso para ellos. Los expertos, por otro lado, son egresados titulados de Psicología o disciplinas afines que, en muchos casos, cuentan con experiencia profesional en áreas de clínica aplicada, que aprobaron un riguroso examen de admisión y son estudiantes de posgrado becados de tiempo completo, este hecho los hace más experimentados en el desempeño de procesos de construcción de conocimiento. Una diferencia importante entre ambos grupos se da por el número de años de experiencia en el campo que, en el caso de los principiantes, es prácticamente nula pues se inician en el conocimiento del dominio del estudio, mientras que en los expertos es al menos de cuatro o cinco años, dadas experiencias académicas y laborales realizadas y comentadas informalmente a los investigadores.

La tabla 1 se conforma con información obtenida antes de iniciar el estudio y describe las características de los participantes de ambos grupos, de acuerdo con el reporte de cada uno en conversaciones con los investigadores.

En la tabla 1 se aprecia que los estudiantes clasificados como principiantes difieren de los clasificados como expertos en términos de que los primeros no cuentan con experiencia alguna en temas de Psicología Clínica; de evaluación psicológica, ni de Psicología Aplicada. Por otro lado, los expertos sí contaban con experiencia en las tres áreas mencionadas. Ambos grupos coincidían en el conocimiento de procesos básicos en Psicología. Asimismo, era común a ambos grupos la falta total de experiencia en el curso que tomarían: la evaluación desde el enfoque cognitivo conductual en Psicología Clínica. Ninguno de los participantes había tomado este curso con anterioridad, y es el mismo para licenciatura y maestría, con la misma profesora (coautora de este trabajo).

Materiales

El curso en línea se desarrolla en el ambiente de aprendizaje en Internet Meta–Tutor (Peñalosa y Castañeda, 2007; 2008). En resumen, esta aplicación de Internet permitió a los estudiantes ingresar con una clave y contraseña individuales y participar en el curso mencionado.

Para desarrollar los contenidos de aprendizaje y las evaluaciones se realizó un Análisis Cognitivo de Tareas (ACT) del dominio educativo del curso (Castañeda, 2004; 2006) para extraer información acerca de las demandas cognitivas y habilidades requeridas para cumplir con los objetivos. Este análisis fue necesario para desarrollar todos los contenidos y evaluaciones y condujo a la construcción de la estructura del curso a partir del programa oficial desarrollado por una comisión oficial conformada por profesores del área de Psicología Clínica teórica de la Facultad de Estudios Superiores Iztacala de la UNAM.

Para realizar el ACT, primero se identificaron las competencias implícitas en el curso y esto constituyó la macro–estructura de lo que se deseaba evaluar. Posteriormente se identificaron los micro–componentes que constituían a cada competencia y los gradientes de complejidad basados en las demandas de procesamiento generadas en la situación de evaluación. El procedimiento analizó la tarea mediante pasos en los que se identificaron en una secuencia progresiva, de mayor detalle y precisión, los conocimientos, habilidades y las disposiciones asociados a cada paso. En este proceso es importante identificar la complejidad cognitiva (comprensión, aplicación, solución de problemas) y el tipo de modelo mental (conceptual, estructural, causal). Peñalosa y Castañeda (2009) describen este procedimiento con detalle.

Después de identificar los contenidos del curso, se procedió a construir instrumentos de evaluación, que fueron validados por diez jueces expertos (profesores del área de Psicología Clínica de la FESI UNAM con una antigüedad mayor a veinte años), cuyas opiniones se recabaron en una hoja de registro, después se conformaron bases de datos con sus acuerdos y desacuerdos para, finalmente, realizar un análisis de confiabilidad estadística para validar los instrumentos. Lo anterior condujo a la construcción de un conjunto de materiales que fueron utilizados como insumos del curso. Los materiales fueron validados con un valor de confiabilidad mayor a .97 (prueba Kuder–Richardson 20). Posteriormente, las evaluaciones fueron objeto de calibración con el uso de dos herramientas: un software para análisis de reactivos desarrollado de acuerdo con la teoría clásica de tests, de la casa Assessment Systems Corporation (ITEMAN, 1993), y otro software de calibración de reactivos de acuerdo con el modelo Rasch de un parámetro (RASCAL, 1992). Las evaluaciones se calibraron y se eliminaron los reactivos que no cumplieron con criterios de complejidad y discriminabilidad. Estos procedimientos permitieron considerar que los instrumentos cumplieron con criterios de validez y fiabilidad.

Los materiales utilizados en este estudio fueron:

• un instrumento de evaluación sumativa con 36 reactivos acerca del tema del curso;

• 4 materiales digitalizados de lectura, del programa autorizado en el plan de estudios;

• 3 casos clínicos animados (flash) para análisis durante el curso;

• 2 casos clínicos adicionales en documentos digitales (PDF) para análisis final de integración de conocimiento;

• 8 bancos de ejercicios interactivos, para las diferentes etapas instruccionales;

• programas para calibración de reactivos: ITEMAN y RASCAL; y

• para contrastar el modelo teórico mediante un análisis de ecuaciones estructurales, se utilizó el programa de modelamiento estructural EQS versión 6.1 para Windows (EQS, 2007), distribuido por Multivariate Software, adquirido en http://www.mvsoft.com.

El ambiente de aprendizaje se ejecutaba en Internet, y el contenido se presentaba en un navegador. Todos los materiales interactivos se desarrollaron con Adobe Flash®, incluían animaciones e interacciones diversas como ejercicios de opciones, de arrastrar y soltar, de selección de elementos con el ratón, simulaciones, casos mediante diálogos paciente–terapeuta, entre otros. Todas las interacciones del curso se realizaron con base en materiales, no se incluyeron actividades tutoriales ni colaborativas.

El diseño del curso se basó en el modelo Merrill (2002), que incluye cinco componentes que organizan la instrucción efectiva: 1) aprender con base en problemas; 2) activar el conocimiento previo; 3) demostrar el nuevo conocimiento; 4) aplicar el nuevo conocimiento, y 5) reflexionar acerca del conocimiento aprendido.

Al ingresar, los estudiantes veían un menú con las siguientes opciones:

1) Guía de aprendizaje para el curso. Incluía la información general del curso, como los objetivos, temas a abordar, mecánica de trabajo, referencias, sugerencias para tomar el curso.

2) Antecedentes de los temas cubiertos en el curso. Incluía un tutorial básico en el que se exponía información requerida para iniciar con el curso, desarrollado con base en un guión validado por profesores del área de Psicología Clínica de la FESI (activación del conocimiento).

3) Introducción al tema y planteamiento de casos. Materiales interactivos en los que se exponían tres casos clínicos en los que paciente y terapeuta interactúan y exponen cierta información relevante del caso, el estudiante revisaba esto y resolvía ejercicios interactivos relacionados (aprendizaje basado en casos o problemas).

4) Desarrollo del tema. Lectura de materiales digitalizados del curso, así como una serie de ejercicios que permitían al estudiante construir un esquema de conocimientos útiles para el tema, orientados al análisis de los casos (demostración del conocimiento).

5) Actividades de aprendizaje. Los estudiantes tenían acceso a un banco de ejercicios programados de acuerdo con el análisis cognitivo de tareas, que tenían diferente nivel de complejidad: desde la comprensión de los temas hasta la aplicación de conceptos, procedimientos y solución de problemas sencillos (aplicación del conocimiento).

6) Ejercicios. Los estudiantes tenían acceso a un banco de ejercicios variados relacionados con todo el material cubierto hasta el momento. Estos ejercicios podían ser realizados un número ilimitado de veces y, en todos los casos, los materiales ofrecían retroalimentación acerca del desempeño de los estudiantes (aplicación del conocimiento).

7) Autoevaluaciones. Se incluía un banco más de ejercicios integradores, donde el estudiante ensayaba dar solución a los casos expuestos, tomar decisiones de evaluación y aplicar estructuras de conocimientos construidos en el curso. Este apartado preparaba al estudiante para la evaluación sumativa (aplicación del conocimiento).

8) Actividad final. Se presentaba un nuevo caso clínico para reflexionar acerca de las mejores prácticas de evaluación, y el estudiante podía tomar decisiones ante ejercicios interactivos con retroalimentación (integración del conocimiento).

Estas opciones se presentaban mediante vínculos a nuevas pantallas y permanecían como menú en el margen izquierdo de la pantalla. Como se observa en el texto, las opciones del curso incluían, en diferentes momentos, las etapas del modelo de diseño instruccional de Merrill (se indican en cada caso).

Tareas de autorregulación

En el ambiente de aprendizaje estaban disponibles, en un menú en la parte superior de la pantalla, una serie de opciones que permitían que el estudiante, de manera libre, realizara tareas de:

1) planteamiento de metas de aprendizaje y autoevaluación de su cumplimiento, al elegirla aparecía un espacio para el asentamiento de metas, dados lo objetivos del curso;

2) monitoreo del trabajo, al activar esta opción aparecía una lista con el historial de actividades realizadas por el estudiante (tutoriales, ejercicios, evaluaciones) así como sus resultados;

3) espacio para tomar notas, al activarlo aparecía una colección de notas y un botón para agregar nuevas notas, derivadas de las lecturas y los tutoriales;

4) agenda del estudiante, al elegirla aparecía un calendario y al seleccionar un día era posible asentar compromisos de estudio, y

5) recursos, al seleccionar esta opción aparecía una lista de vínculos a todos los materiales de estudio del curso.

Tanto las actividades de aprendizaje del menú del lado izquierdo de la pantalla de la plataforma de aprendizaje (construcción de conocimiento) como las del menú superior (aprendizaje autorregulado) se utilizaban libremente por parte de los estudiantes y el sistema registraba en una bitácora estas acciones.

Diseño y procedimiento

Se utilizó un diseño preexperimental de comparación de un grupo estático, en el que se deseaba evaluar el efecto de una condición (pericia) existente en un grupo pero no en el otro (Campbell y Stanley, 1966). Esto implicó la realización de una evaluación sumativa del aprendizaje pero, adicionalmente, se obtuvieron y analizaron datos de las acciones de los participantes tanto de construcción de conocimiento como de autorregulación en el proceso de trabajo en el curso.

El estudio se desarrolló en la biblioteca del campus universitario de la Facultad de Estudios Superiores Iztacala, en un laboratorio de cómputo equipado con 30 computadoras conectadas a internet. En la primera sesión se explicó el funcionamiento del ambiente de aprendizaje, se plantearon los objetivos del curso y se expuso el calendario de trabajo. También se les indicó que el ambiente se había diseñado para promover nuevos métodos de estudio, se les entregó la dirección electrónica de la plataforma y sus claves de acceso.

Los estudiantes asistían al laboratorio dos veces a la semana y, en cada sesión, trabajaban dos horas a su ritmo en el curso en línea. En caso de requerir información técnica o dudas en general se recurría al profesor, experto en el tema, y disponible para ayudar a los estudiantes, aunque no daba explicaciones adicionales del contenido para no afectar los resultados del estudio.

Los estudiantes tenían en total cuatro semanas para concluir el curso, existía un calendario para cubrir los temas (los ocho puntos mencionados) del curso en línea, el cual era publicado en la pantalla inicial de la plataforma de aprendizaje.

Medidas

El estudio implicó el registro de dos grandes tipos de medidas: a) del desempeño a lo largo del curso, registradas como evaluaciones formativas durante el trabajo en el ambiente de aprendizaje y b) calificaciones finales a través de resolver una evaluación sumativa.

Como se expuso en la sección de Materiales, las evaluaciones formativas (ejercicios) y sumativas (instrumento de evaluación final) fueron validadas por diez jueces expertos, y condujeron a niveles de fiabilidad superiores a .97 (Kuder Richardson 20). Tal como se indicó, los instrumentos de evaluación fueron objeto de un proceso de calibración con programas basados en las teorías de respuesta al ítem y de Rasch (ITEMAN y RASCAL).

Registro del desempeño

El ambiente de aprendizaje registraba dos tipos de actividades por parte de los estudiantes: a) las actividades tendientes a la construcción de conocimiento, que implicaban la revisión de materiales y la realización de ejercicios diversos, y b) las acciones de aprendizaje autorregulado, que incluían el trabajo con metas, notas, agenda, monitoreo y exploración de recursos.

Evaluación sumativa

Como se ha dicho, después de realizar un análisis cognitivo de tareas con el fin de identificar los niveles de complejidad cognitiva y de contenidos del curso dadas las temáticas a abordar, se detectaron áreas de evaluación y fomento de conocimientos y habilidades. Se identificaron contenidos para los niveles cognitivos de comprensión, aplicación de conocimiento y habilidades, así como de solución de problemas para tareas conceptuales, teóricas y procedimentales. A partir de esta estructura se construyó y validó con procedimientos ya indicados un examen objetivo de 36 reactivos que se aplicó al final del curso.

Trabajo en el curso

Como se dijo, los estudiantes trabajaron en las sesiones en el laboratorio de cómputo en la biblioteca del campus durante cuatro semanas, pero con sus claves de acceso podían ingresar ilimitadamente al curso desde cualquier computadora enlazada a Internet.

Después de estas cuatro semanas de trabajo, el profesor citó al grupo para la evaluación sumativa final, les asignó una PC y cada estudiante resolvió su examen, al final del cual se dio por concluida su participación en el curso.

 

Resultados

Se exponen los resultados siguiendo la siguiente lógica: en primera instancia se presentan datos de estadística descriptiva de los participantes; a continuación las comparaciones entre el desempeño de los dos grupos y las gráficas que las ilustran; para finalizar se presentan los resultados de la realización de un análisis de ecuaciones estructurales donde se puso a prueba un modelo de los procesos de estudio en línea en estudiantes principiantes y expertos. A lo largo de la exposición de los resultados se establecerá la contrastación de las hipótesis enunciadas para este estudio.

Estadística descriptiva

La tabla 2 presenta las estadísticas de las siguientes categorías de datos: 1) ingreso al ambiente, representa el número de veces que los estudiantes entraban al curso; 2) frecuencia de ejercicios, se refiere a las veces que realizaban ejercicios en promedio ante cada uno de los ocho apartados del menú; 3) promedio en ejercicios, es la calificación de todos los ejercicios realizados en el curso; 4) monitoreo del desempeño, representa la frecuencia de revisión de actividades y resultados obtenidos por parte de los estudiantes; 5) explorar recursos, se refiere a las consultas realizadas a los materiales del curso; 6) aprendizaje autorregulado, incluye la suma de acciones relacionadas con el trabajo con metas, notas y en la agenda electrónica del curso, y 7) evaluación sumativa, es el resultado de la calificación final ante el examen objetivo realizado.

Los grupos muestran en general el siguiente efecto, con base en el análisis de promedios grupales: los estudiantes expertos tienen valores más altos que los principiantes en los datos relacionados con el desempeño, como: a) la calificación en la evaluación sumativa (8.44 vs 6.75) y b) el promedio obtenido en las calificaciones de los ejercicios realizados en el curso (8.29 vs 7.21). Asimismo, los expertos muestran una frecuencia ligeramente mayor de realización de acciones de aprendizaje autorregulado (2.33 vs 0.83).

Por otro lado, los estudiantes principiantes tienen valores más altos en la ejecución de acciones de trabajo en plataforma. Entre ellas podemos observar que ingresan con mayor frecuencia al ambiente de aprendizaje (6.54 vs. 3.44), realizan más ejercicios (2.41 vs. 1.73), tienen una mayor frecuencia de monitoreo del desempeño (13.71 vs. 11.96), y exploran más los recursos de aprendizaje disponibles en la plataforma (5.63 vs 4.32).

Los datos anteriores se muestran en las gráficas de la figura 2, donde se agrupan las categorías de trabajo en plataforma. En las cuatro gráficas se observa que los principiantes invierten un mayor esfuerzo en estas tareas.

En la figura 3 se muestra un grupo de tres gráficas, de las categorías que se consideraron como construcción de conocimiento. En las tres gráficas de este grupo se observa que los principiantes tienen un resultado inferior en estas categorías.

Comparaciones entre grupos

Si bien identificamos estas diferencias de manera gruesa con base en las medias de cada categoría, en este punto presentamos los resultados de una comparación con base en la prueba t para muestras independientes (tabla 3).

En la tabla 3 se observan en negritas las categorías en las que los datos de ambos grupos difieren significativamente. Las categorías en las que los datos de los principiantes son significativamente superiores son: a) la frecuencia de ingreso a la plataforma (t=286, p<=000), y b) la frecuencia de realización de ejercicios en la plataforma (t=3.41, p< = .001); las categorías en las que los datos de expertos son significativamente superiores son: a) el promedio obtenido en ejercicios realizados en plataforma (t=–4.488, p< = .000), y b) la calificación final (t=–5.869, p< = .000).

Los datos que se ilustran en la tabla 2 muestran la superioridad del grupo de expertos, cuyo promedio en la evaluación final fue más alto; estos datos se observan gráficamente en la figura 3, que compara el desempeño de principiantes y expertos en relación con categorías de construcción de conocimiento. Concretamente, la tercera gráfica de la figura 3 compara los grupos en relación con sus evaluaciones finales, y visualmente se observa la superioridad del grupo de expertos. Esto se confirma con base en los análisis recién expuestos, por lo cual decidimos aceptar como válida la primera hipótesis enunciada en este estudio: el grupo de estudiantes expertos demostró un desempeño significativamente superior que el grupo de principiantes, a juzgar por las diferencias observadas en las evaluaciones finales.

Los resultados hasta aquí expuestos muestran tendencias opuestas en ambos grupos en cuanto a lo siguiente: a) los estudiantes principiantes realizan una mayor cantidad de trabajo en plataforma, a juzgar por un mayor número de ingresos y de ejercicios realizados; b) los mismos principiantes tienen datos inferiores en evaluaciones formativas (ejercicios) y sumativas (examen final) con respecto a los expertos.

El argumento anterior nos conduce a la decisión de aceptar la segunda hipótesis de este estudio, que proponía que los expertos tendrían un mayor grado de efectividad y un mayor grado de eficiencia en el curso. La mayor efectividad de los expertos se observa concretamente en las evaluaciones formativas y sumativas realizadas a los estudiantes: esto es, la evaluación final y los promedios obtenidos en los ejercicios en la plataforma, respectivamente. La figura 3 muestra las diferencias entre grupos en estas categorías, y el análisis estadístico descrito muestra que dichas diferencias son significativas a favor del grupo de estudiantes expertos. El mismo grupo de estudiantes demostró una mayor eficiencia en el trabajo en la plataforma, a juzgar por el menor número de ingresos, y una menor frecuencia en los ejercicios realizados en el curso. La figura 2 y la tabla 2 muestran este efecto, y el análisis expuesto confirma la significatividad de estas diferencias.

Acerca de la tercera hipótesis del presente trabajo, que planteaba la expectativa de encontrar un nivel más alto de estrategias aprendizaje autorregulado en los expertos a través de un uso eficiente de los recursos que para este efecto están disponibles en el ambiente de aprendizaje, no se encontró diferencia estadística, a juzgar por los datos de la tabla 3. Los expertos utilizaron con mayor frecuencia una serie de funciones de aprendizaje autorregulado disponibles en el ambiente de aprendizaje (planteamiento de metas de aprendizaje, autoevaluación de su cumplimiento, auto–monitoreo del desempeño, toma de notas, uso de agenda, acceso a recursos), pero la diferencia no fue significativa estadísticamente. En las condiciones de este estudio, que ofrece funciones de aprendizaje autorregulado integradas al ambiente de aprendizaje (ver Peñalosa y Castañeda, 2007; 2008 para una explicación teórica de estas funciones), no es posible concluir que existan diferencias entre grupos en el uso de dichas funciones, lo cual probablemente sugiera que las estrategias de los estudiantes no se instrumentan mediante estas herramientas, sino a través de acciones fuera del ambiente, habituales o idiosincrásicas.

Análisis de regresión

Se realizó un análisis de regresión múltiple stepwise para evaluar la contribución de variables para explicar la variable dependiente Calificación, y se encontró que un modelo conformado por las variables: a) promedio en ejercicios, b) exploración de recursos y c) ingreso al ambiente de aprendizaje explican la varianza de la calificación (F = 8.616, p=0.000), con una R2 de .365 (tabla 4).

En ambos grupos, ingresar al ambiente de aprendizaje, realizar las actividades programadas (ejercicios), y utilizar los materiales (recursos) de aprendizaje explicaron el desempeño en la evaluación final. Las pruebas t demuestran que hay diferencias entre grupos en relación con estas categorías, pero el análisis de regresión comprueba que éstas siempre participan en la explicación del resultado.

Aun cuando el análisis de regresión sugiere que las funciones de aprendizaje autorregulado incluidas en el ambiente de aprendizaje no forman parte de los elementos que explican el desempeño de los estudiantes, el modelo de ecuaciones estructurales plantea un escenario diferente, como se muestra a continuación.

Modelo de ecuaciones estructurales

Un análisis adicional de los datos permitió identificar un modelo de ecuaciones estructurales que explica el desempeño de estudiantes principiantes y expertos en un curso en línea. El modelo inicial propuesto se muestra en la figura 1. Incluye dos constructos (factores) que explican el desempeño en la evaluación sumativa: a) por un lado, las actividades de trabajo en la plataforma, representadas por la frecuencia de ingreso al ambiente de aprendizaje, la exploración de recursos, el monitoreo del desempeño y las tareas de autorregulación; b) por otro lado, los resultados de las evaluaciones formativas, constructo compuesto por la frecuencia de actividades de aprendizaje y el promedio obtenido en ellas. En el modelo propuesto, ambos factores explican a la variable Calificación.

Después de ejecutar el análisis, se obtuvo un modelo con algunas variantes. El modelo validado puede observarse en la figura 4 y no es estadísticamente significativo, lo cual implica que no hay diferencias entre el modelo y el fenómeno que representa (X2=1 1 Al, p=0.25, CFI=0.97, RMSEA=0.07).

La cuarta hipótesis de este trabajo planteaba la posibilidad de construir un modelo de ecuaciones estructurales para dar cuenta de la comparación entre estudiantes novatos y expertos en el ambiente de aprendizaje, que ilustra las diferencias en efectividad y eficiencia de los estudiantes con distintos niveles de experiencia. Los parámetros presentados en el párrafo anterior conducen a la aceptación del modelo, pues la X2 debe ser no significativa para ser representativa de los datos que modela; y los parámetros de ajuste CFI (que debe ser cercano a 1) y RMSEA (que debe ser cercano a cero) permiten aceptar la cuarta hipótesis de este trabajo: se demostró que existe un modelo de ecuaciones estructurales que se ajusta a los datos del curso, y dicho modelo conserva en esencia lo propuesto por la teoría, aunque se hayan realizado algunas modificaciones leves en el proceso de búsqueda de un ajuste práctico. El modelo se describe a continuación.

En el modelo se comprobó la existencia de dos factores: trabajo en plataforma y evaluaciones formativas, y ambos explican el desempeño en el curso. El cambio en el modelo consistió en ubicar las acciones de aprendizaje autorregulado fuera de estos dos factores, como una variable que no forma parte de ninguno de ellos, pero que sí tiene participación en la explicación de la varianza del desempeño de los alumnos en el curso. Es importante observar que este análisis demuestra tener una mayor potencia que la regresión, pues suma los efectos de todas las variables del modelo, que integralmente da cuenta de los procesos registrados en el curso.

El factor Evaluaciones Formativas impacta a la calificación con un coeficiente de 0.89, el factor Trabajo en Plataforma con un coeficiente de 0.31 y la variable de autorregulación con un coeficiente de 0.25. El modelo tiene una R2 de .643, que es la varianza de la evaluación sumativa explicada por todas las variables del modelo, lo cual habla de que las variables identificadas explican una gran porción de la varianza.

Un aspecto importante a notar es que existe una correlación negativa entre los factores de Trabajo en Plataforma y Evaluaciones Formativas, lo cual habla de una relación inversa entre el esfuerzo y el resultado en estos ejercicios. Esta relación plantea que a mayor esfuerzo en el trabajo en plataforma, menor calificación en los ejercicios y viceversa: esfuerzos menores conducen a resultados mejores. Esta relación aparentemente contradictoria es explicada por la existencia de dos niveles de pericia mezclados en estos datos.

Estos datos sugieren que los principiantes realizan más esfuerzo para consolidar su estructura de conocimientos, para desarrollar las habilidades de aplicación de los mismos, dado que no cuentan con esquemas eficientes. Los expertos, por el contrario, cuentan con conocimientos estructurados, habilidades eficientes en términos de estrategias cognitivas y metacognitivas. En suma, los análisis presentados hasta aquí muestran que los principiantes trabajan más que los expertos (falta de eficiencia), y tienen resultados de aprendizaje inferiores que los expertos (falta de efectividad).

 

Discusión

El contraste de las hipótesis con base en el análisis de los datos del presente trabajo fue como sigue:

1) Se acepta la primera hipótesis, que plantea que existen diferencias en los niveles de desempeño que alcanzan los estudiantes expertos con respecto a los principiantes. Los expertos resuelven significativamente mejor las evaluaciones sumativas, que están integradas por un conjunto validado de reactivos que mapean de manera exhaustiva los niveles de complejidad cognitiva, los modelos mentales y los niveles de complejidad del contenido revisado en el curso.

2) El análisis de los datos también permite tomar la decisión de aceptar la segunda hipótesis planteada, ya que los expertos fueron más efectivos, a juzgar por los puntajes obtenidos en las evaluaciones formativas y la sumativa, y más eficientes, a juzgar por una inversión significativamente menor de esfuerzo, tiempo y trabajo en el curso.

3) Las condiciones del estudio no permitieron obtener datos para confirmar la tercera hipótesis, que proponía encontrar un nivel más alto de estrategias aprendizaje autorregulado en los expertos que en los principiantes. Si bien esto pudo haber ocurrido, el estudio no contó con las medidas sensibles para confirmarlo. Los indicadores con los que se realizó la comparación fueron las acciones realizadas por los participantes mientras trabajaban en el ambiente de aprendizaje. En consecuencia, se sugiere definir algunos escenarios alternativos de evaluación de las estrategias de aprendizaje y autorregulación desempeñadas por los estudiantes mientras realizan cursos en línea, ya que estas acciones podrían ser totalmente personalizadas y arraigadas en los hábitos de estudio de los participantes, y en tanto la alternativa de utilizar funciones del ambiente de aprendizaje en línea para realizar acciones como plantear y evaluar metas, tomar notas, monitorear el desempeño, o agendar actividades de estudio en el ambiente de aprendizaje, no necesariamente serían elegidas por los estudiantes al ser una condición optativa para ellos; otra sugerencia para investigación futura consiste en evaluar el desempeño de habilidades de aprendizaje autorregulado en contextos donde el estudiante adquiere un mayor control, como ambientes más abiertos a la investigación, al trabajo libre de construcción de conocimiento por parte del estudiante, menos estructurados.

4) También se aceptó la cuarta hipótesis, dada la confirmación de la existencia de un modelo de ecuaciones estructurales que se ajusta a los datos del desempeño de estudiantes principiantes y expertos en un curso en línea, que ilustra las diferencias en efectividad y eficiencia de los estudiantes con diferentes niveles de experiencia. El modelo propuesto a priori se construyó con base en una estructura teórica derivada de la literatura acerca de los procesos cognitivos en la pericia de estudiantes, así como en la literatura acerca de los factores que determinan el desempeño de estudiar en línea (Peñalosa, 2007; Peñalosa y Castañeda, 2007; Peñalosa y Castañeda, 2008).

Para formar estudiantes expertos necesitamos identificar la pericia en el campo de desempeño correspondiente; realizar tareas y hacerlos pensar como los expertos del campo. Es necesario que los estudiantes sean analíticos, creativos y prácticos (Sternberg 2003), para lo cual es preciso que integren elementos de conocimiento útil para la solución de problemas. Algunos estudiosos de este campo, como Ericsson (1996; 2005), enfatizan el rol de la práctica deliberada para adquirir pericia. Al respecto, Ericsson, Krampe y Tesch–Romer (1993) y Ericsson (2005) plantean que el efecto de la práctica en el desempeño es mayor de lo que siempre se ha creído. Una explicación del desempeño excepcional debe especificar circunstancias ambientales como la estructura y duración de actividades que conducen a la adquisición del nivel de desempeño logrado. El desempeño excepcional implica la adquisición de características a partir de la práctica deliberada. Algunos autores han propuesto que un jugador de ajedrez se convierte en experto (gran maestro) en un periodo de alrededor de diez años (Simon y Chase, 1973; Campitelli y Gobet, 2008). En muchos dominios, la primera obra destacada se produce después de diez años de experiencia (Weisberg, 1999).

Otro elemento fundamental de la pericia es la calidad de la estructura de conocimientos, como un conjunto ordenado y altamente integrado de conocimientos acerca del qué, el cómo, el porqué y el cuándo es pertinente aplicar el conocimiento. Varios autores destacan la importancia de esta estructura integrada (Chi, Glaser y Farr, 1988; Sternberg, 2003; Castañeda, 2004).

Los estudiantes expertos cuentan en su historial con extensas horas de práctica que han moldeado sus estrategias y sus bases de conocimientos, y esto conduce a una importante base de conocimientos condicionales, parte de la cual podría formar parte de rutinas, y al no requerir de atención especial a detalles ya dominados, cuentan con una mayor posibilidad de atención en los aspectos centrales de los problemas, los que conducen a la toma de decisiones "hacia adelante".

De acuerdo con la caracterización de la pericia, los estudiantes de Psicología analizados en este estudio podrían diferir en estas dimensiones. Al menos consideramos que podría haber diferencias en los siguientes sentidos: a) horas de estudio, preparación y práctica profesional; b) estructura de conocimientos del tema, ya que los principiantes han tenido solamente una formación general e inicial en aspectos de metodología y procesos básicos en Psicología, y los clasificados aquí como expertos han concluido una carrera y han iniciado la profundización en el campo de la Psicología Clínica, objeto de este trabajo; c) conocimiento aplicado, ya que los expertos han realizado trabajo práctico y en tanto cuentan con un mayor conocimiento condicional; d) la posibilidad de recordar y aplicar conocimientos previos con poco esfuerzo de atención, y e) flexibilidad para aprender.

Cierto tipo de pericia adaptativa podría relacionarse con una capacidad de transferencia del aprendizaje a nuevas situaciones. Los estudiantes expertos de este estudio contaban con conocimientos y habilidades generales en el campo de la Psicología Clínica, mas no con conocimientos específicos acerca del curso que tomaron. Esto implicaba la necesidad de transferencia de ciertos conocimientos previos. Es preciso distinguir entre las visiones tradicionales del "aprender qué", que describe el conocimiento declarativo, y el "aprender como", que describe al conocimiento procedimental, con una nueva visión: el "aprender con", que implica llegar a una nueva situación de aprendizaje con conocimientos que influyen en la nueva situación para disponer al estudiante a dirigir su nuevo aprendizaje (Bransford y Schwartz, 2001). El planteamiento de estos autores, se resume en la siguiente cita: "las personas educadas piensan, perciben y juzgan con todo lo que han estudiado en la escuela, aun cuando no puedan recordar estos aprendizajes bajo demanda" (Bransford y Schwartz, 2001:10).

Al respecto, Schwartz, Bransford y Sears (2005) argumentan que la experiencia en un campo permite la reorganización del pensamiento y del ambiente para el manejo de nuevos tipos de problemas o información. La formación del estudiante debe considerar la posibilidad de que pueda ser eficiente en la aplicación del conocimiento, pues el fomento de estas estructuras balanceadas podría impactar favorablemente en lo que denominan el desempeño experto adaptativo. La transferencia del aprendizaje incluye un conjunto de mecanismos de adaptación, que implican la interpretación de nuevas situaciones, y que requiere también de una fuerte base de conocimientos teóricos y procedimentales. Para que emerja la transferencia es preciso ejercitar cambios en la forma como se enmarca el análisis de los problemas, ensayar reflexiones e interpretaciones alternativas para reorientarlos, ya que esta práctica ofrece otras posibilidades de pensamiento y en tanto puede conducir a soluciones eficientes e innovadoras. Ofrecer a los estudiantes oportunidades para la interpretación de problemas, como paso previo al aprendizaje, permite percibir de manera distinta los problemas.

La investigación acerca de la aplicación del conocimiento derivada de la formación escolar plantea opciones para el fomento de egresados con ventajas competitivas, dada una formación cognitiva sólida que no sólo fomenta conocimiento, sino una serie de aptitudes que le permiten aplicarlo, así como instrumentar estrategias de solución de problemas o manejo de información

Los planteamientos anteriores pueden dar cuenta de las diferencias que se presuponen entre ambos tipos de alumnos, y que en el presente estudio se demuestran. Esto puede conducir a que los expertos, en resumen, demuestren ser: a) más eficientes, a juzgar por menores tiempos invertidos en las tareas, y b) más efectivos, a juzgar por los niveles de desempeño logrados en el aprendizaje del curso.

Las implicaciones más relevantes que podrían tener los resultados de este trabajo se relacionan con la comprensión que las diferencias evidentes en los niveles de pericia que suelen existir deberían ser tomadas en cuenta para diseñar los métodos que se elijan para planear y ejecutar los procesos instruccionales.

Concretamente, esto impacta en la concepción epistemológica de la instrucción, que tradicionalmente ha considerado "dicotomías" (Kirschner, 2006), como la del objetivismo–constructivismo. Una postura instruccional objetivista prescribe situaciones específicas de instrucción, así como un acompañamiento cercano al estudiante en estos procesos; una postura constructivista supone que el conocimiento no existe independientemente del estudiante, y que éste construye a aquél, con implicaciones instruccionales con mayores grados de flexibilidad y libertad para proponer actividades reflexivas, donde la discusión puede tener un papel importante.

Las posturas filosóficas descritas generalmente conducen a la defensa de métodos que son "los que funcionan", porque se ajustan a una idea de la construcción de conocimiento en el ser humano. Y quienes eligen sostener una postura generalmente excluirán la otra. Y consideramos que éste puede ser un error, a la luz de los datos presentados aquí. Los niveles de pericia conducen a la identificación de estudiantes que requieren de una mayor prescripción de actividades de aprendizaje, pues sus estructuras de conocimientos, su experiencia en el campo, su capacidad de resolver problemas y su flexibilidad y reflexividad en el tema no tienen un gran desarrollo y en tanto requieren de un mayor apoyo en procesos instruccionales. Éste es el caso de la necesidad de un diseño instruccional estructurado; sin embargo, cuando los niveles de experiencia mencionados son altos, el estudiante tendrá más posibilidades de desenvolverse en ambientes flexibles, basados en la reflexión y en la compartición de conocimiento experto y en tanto la generación constructiva de conocimientos más complejos.

El diseño de instrucción en línea es un campo que merece atención, ya que existe un gran número de situaciones que no se toman en cuenta para la construcción de programas de aprendizaje. Éste es un ejemplo. Es preciso considerar y evaluar todos los aspectos de la pericia como una tarea de análisis que se debe sumar a la caracterización de los tipos de conocimiento del dominio educativo o de otras condiciones relevantes.

El análisis de variables del estudiante debería ser un área de investigación con actividad intensa, pues se ha demostrado que aspectos como las creencias, las estrategias y el mismo nivel de pericia de los estudiantes determinan el éxito en sus procesos de aprendizaje.

 

Referencias

Anderson, J.R. (2000). Cognitive psychology and its implications. Nueva York: Worth Publishers.         [ Links ]

Anderson, J. R. (2001). Aprendizaje y Memoria. México: McGrawHill.         [ Links ]

Anderson, T. (2004). "Toward a theory of online learning", en T. Anderson y F. Elloumi (Eds). Theory and practice of online learning. Athabasca: Athabasca University, pp. 33–58.         [ Links ]

Azevedo, R. y Cromley, J.G. (2004). "Does training on self regulated learning facilitate students' learning with hypermedia?", Journal of Educational Psychology, 96, 523–535.         [ Links ]

Bransford, J.; Brown, A. L. y Cocking, R. R. (2004). How people learn: Brain, mind, experience, and school. Expanded edition. Washington, D.C.: National Academy Press.         [ Links ]

Bransford, J. D. y Schwartz, D. L. (2001). "Rethinking transfer: A simple proposal with multiple implications", Review of Research in Education, 3, 61–100.         [ Links ]

Campbell, D. y Stanley, J. (1966). Diseños experimentales y cuasiexperimentales en la investigación social. Buenos Aires: Amorrortu.         [ Links ]

Campitelli, G. y Gobet, E (2008). "The role of practice in chess: a longitudinal study", Learning and individual differences, 18, 446–458.         [ Links ]

Castañeda, S. (2004). Educación, aprendizaje y cognición: teoría en la práctica. México: Manual moderno.         [ Links ]

Castañeda, S. (2006). Evaluación del aprendizaje en el nivel universitario: elaboración de exámenes y reactivos objetivos. México: UNAM.         [ Links ]

Chi, M., Glaser, R. y Rees, E. (1982). "Expertise in problem solving", en Stenberg, R. (ed.). Advances in the Psychology of Human Intelligence (Vol. 1). Hillsdale, Nueva Jersey: Erlbaum.         [ Links ]

Clark, R. (1994). "Media will never influence learning", Educational Technology, Research and Development, 42, 21–29.         [ Links ]

Clark, R. E. (2003). "What works in distance learning: Instructional strategies", en H. E O'Neil (Ed.), What works in distance learning. Los Angeles: Center for the Study of Evaluation, 13–31.         [ Links ]

Coll, C. (2004). "Psicología de la educación y prácticas educativas mediadas por las tecnologías de la información y la comunicación: una mirada constructivista", Sinéctica, 25, 1–24.         [ Links ]

Dembo, M. H.; Junge, L. y Lynch, R. (2006). "Becoming a self–regulated learner: Implications for Web–based education", en H. E O'Neil, y S. R. Perez (Eds.), Web–based learning: Theory, research, and practice (pp. 185–202). Mahwah, NJ: Erlbaum.         [ Links ]

Doherty, P. D. (1998). "Learner control in asynchronous learning environments", ALN Magazine, 2(2). Disponible en: http://www.aln.org/alnweb/magazine/vol2_issue2/doherty.htm#1–7 (consultado: 25 de febrero de 2008).         [ Links ]

EQS (2007). Structural Equation Modeling Software. Versión 6.1. Multivariate Software.         [ Links ]

Ericsson, K. A. (1996). "The acquisition of expert performance: An introduction to some of the issues", en K. A. Ericsson (Ed.), The road to excellence: The acquisition of expert performance in the arts and sciences, sports, and games (pp. 1–50). Mahwah, NJ: Erlbaum.         [ Links ]

Ericsson, K. A. (2005). "Recent advances in expertise research: a commentary on the contributions to the special issue", Applied Cognitive Psychology, 19, 233–241.         [ Links ]

Ericsson, K. A.; Krampe, R. T. y Tesch–Romer, C. (1993). "The role of deliberate practice in the acquisition of expert performance", Psychological Review, 100, 3, 363–406.         [ Links ]

Glaser, R. (1996). "Changing the agency for learning: Acquiring expert performance", en K. A. Ericsson (Ed). The road to excellence: The acquisition of expert performance in the arts and sciences, sports and games (pp. 303–311). Hillsdale, NJ: Lawrence Erlbaum.         [ Links ]

Heyworth, R.M. (1999). "Procedural and conceptual knowledge of expert and novice students for the solving of a basic problem in chemistry", International Journal of Science Education, 21, 195–211.         [ Links ]

ITEMAN (1993). Conventional Item Analysis Program (versión 3.5). St. Paul, MN: Assessment Systems Corp.         [ Links ]

Jonassen, D. (1999). "Designing constructivist learning environments", en Reigheluth, C. M. (Ed.), Instructional Design theories and models: An overview of their current status (pp. 250–278). Hillsdale, NJ: Erlbaum.         [ Links ]

Kirschner, P. A. (2006). (Inter)dependent learning: learning is interaction. Disponible en:www.uu.nl/uupublish/content/OratieKirschner–LearningisInteraction–Geheel–A4–FINAL.pdf (consultado: 18 de febrero de 2009).         [ Links ]

Kirschner, P. A.; Sweller, J. y Clark, R.E. (2006). "Why minimal guidance during Instruction does not work: An analysis of the failure of constructivist, discovery, problem–based, experiential and inquiry–based teaching", Educational Psychologist, 41 (2), 75–86.         [ Links ]

Kohl, P. B. y Finkelstein, N.D. (2007). "Expert and novice use of multiple representations during physics problem solving", AIP Conference Proceedings, 951, 132–135        [ Links ]

Körndle, H.; Narciss, S. y Proske, A. (2002). "Promoting self–regulated learning in web–based learning environments", en H. Niegemann, R. Brucken y D. Leutner (Eds.), Instructional design for multimedia learning. Munster: Waxmann.         [ Links ]

Kozma, R. (1994). "Will media influence learning? Reframing the debate", Educational Technology Research and Development, 42, 7–19.         [ Links ]

Lajoie, S. P. (2003). "Transitions and trajectories for studies of expertise", Educational Researcher, 32(8), 21–25.         [ Links ]

Larkin, J.H. (1983). "The role of problem representation in physics", en A. L. Stevens y D. Gentner (eds), Mental Models, Hillsdale, NY: Erlbaum, 75–99.         [ Links ]

Lin, B. y Hsieh, C. (2001). "Web–based teaching and learner control: a research review", Computers & Education, 37, 377–386.         [ Links ]

Lynch, R. y Dembo, M. (2004). "The relationship between self–regulation and online learning in a blended learning context", International Review of Research in Open and Distance Learning, 5, 1–16.         [ Links ]

Merrill, M. D. (2002). "First principles of instruction", Educational Technology Research and Development, 50, 43–59.         [ Links ]

Niemiec, R. P., Sikorski, C. y Walberg, H. J. (1996). "Learner control effects: A review of reviews and a meta–analysis", Journal of Educational Computing Research, 15, 157–174.         [ Links ]

Peñalosa, E. (2007). Evaluación y fomento de la interactividad y el aprendizaje en línea en estudiantes de Psicología: estudio empírico y tecnológico. Disertación doctoral no publicada, Facultad de Psicología, UNAM, México.         [ Links ]

Peñalosa, E. y Castañeda, S. (2007). "Meta–Tutor: construcción, descripción y aplicación de un ambiente de aprendizaje para Internet", Revista Latinoamericana de Tecnología Educativa, 6 (1), 97–127. [http://campusvirtual.unex.es/cala/editio/]         [ Links ]

Peñalosa, E. y Castañeda, S. (2008). "Generación de conocimiento en la educación en línea: un modelo para el fomento de aprendizaje activo y autorregulado", Revista Mexicana de Investigación Educativa, 13, 36, 229–260.         [ Links ]

Peñalosa, E. y Castañeda, S. (2009). "El análisis cognitivo de tareas, base para el diseño de instrumentos de evaluación en el aprendizaje en línea", Revista Iberoamericana de Evaluación Educativa, 2, 162–185. Disponible en: http://www.rinace.net/riee/numeros/vol2–num1/art9.pdf (consultado: 25 de agosto de 2009).         [ Links ]

RASCAL (1992). Rasch Analysis Program (Versión 3.5). St. Paul, MN: Assessment Systems Corp.         [ Links ]

Schwartz, D. L.; Bransford, J. D. y Sears, D. L. (2005). "Efficiency and innovation in transfer", en J. Mestre (Ed.), Transfer of learning from a modern multidisciplinary perspective (pp. 1–51). CT: Information Age Publishing.         [ Links ]

Shin, E.C.; Schallert, D.L. y Savenye, W.C. (1994). "Effects of learner control, advisement, and prior knowledge on young students' learning in a hypertext environment", Educational Technology Research and Development, 42, 33–46        [ Links ]

Simon, H. A. y Chase, W. G. (1973. "Skill in chess", American Scientist, 61: 394–403.         [ Links ]

Sternberg, R. J. (2003). "What is an 'expert student'", Educational Researcher, 32, 8, 5–9.         [ Links ]

Sweller, J.; Mawer, R. E y Ward, M. R. (1983). "Development of expertise in mathematical problem solving", Journal of Experimental Psychology: General, 112, 639–661.         [ Links ]

Weisberg, R. W. (1999). "Creativity and knowledge: a challenge to theories", en R. J. Steinberg (ed). Handbook of Creativity. Cambridge: Cambridge University Press, pp. 226–250.         [ Links ]

Wineburg, S. S. (1991). "Historical problem solving: A study of the cognitive process used in the evaluation of documentary and pictorial evidence", Journal of Educational Psychology, 83, 73–87.         [ Links ]

Yarlas, A. y Sloutsky, V. (2000): "Problem representation in experts and novices: Part 1. Differences in the content or representation", en L. R. Gleitman, y A.K. Joshi (Eds.): XXII Annual Conference of the Cognitive Science Society, 1006–1011. Marhwah, N. J.: Erlbaum. Disponible en: http://cogdev.cog.ohio–state.edu/1–1.pdf (consultado: 25 de agosto de 2009).         [ Links ]

Creative Commons License Todo o conteúdo deste periódico, exceto onde está identificado, está licenciado sob uma Licença Creative Commons