<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>1607-4041</journal-id>
<journal-title><![CDATA[Revista electrónica de investigación educativa]]></journal-title>
<abbrev-journal-title><![CDATA[REDIE]]></abbrev-journal-title>
<issn>1607-4041</issn>
<publisher>
<publisher-name><![CDATA[Universidad Autónoma de Baja California, Instituto de Investigación y Desarrollo Educativo]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S1607-40412012000100001</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Investigación empírica sobre el impacto de la evaluación formativa: Revisión de literatura]]></article-title>
<article-title xml:lang="en"><![CDATA[An Empirical Study on the Impact of Formative Assessment: A Literature Review]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Martínez Rizo]]></surname>
<given-names><![CDATA[Felipe]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Autónoma de Aguascalientes  ]]></institution>
<addr-line><![CDATA[Aguascalientes Aguascalientes]]></addr-line>
<country>México</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>00</month>
<year>2012</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>00</month>
<year>2012</year>
</pub-date>
<volume>14</volume>
<numero>1</numero>
<fpage>1</fpage>
<lpage>15</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_arttext&amp;pid=S1607-40412012000100001&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_abstract&amp;pid=S1607-40412012000100001&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_pdf&amp;pid=S1607-40412012000100001&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[En muchos sistemas educativos hay un creciente interés por el enfoque de la evaluación del aprendizaje que designan expresiones como evaluación formativa, evaluación en aula o evaluación para el aprendizaje. Este interés suele basarse en opiniones muy positivas sobre dicho enfoque difundidas primero por los partidarios del sistema Mastery Learning desarrollado por Benjamin S. Bloom y, desde fines de la década de 1990, por otros estudiosos. El sustento empírico de esas posturas, sin embargo, no siempre es sólido, lo que tampoco debe entenderse como una descalificación del enfoque. En este artículo se presenta una revisión de la literatura al respecto, en la que puede basarse una opinión mejor informada.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[In many educational systems there is a growing interest in the approach to learning assessment referred to as formative assessment, classroom assessment or assessment for learning. This interest is usually based on the very positive opinions spread initially by supporters of the Mastery Learning model developed by Benjamin S. Bloom and, since the 1990s, by other scholars. Empirical support for these views, however, is not always very strong, which does not necessarily mean that the approach is wrong. This article presents a review of the literature on the subject, providing a foundation for a better informed position.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Evaluación del aprendizaje]]></kwd>
<kwd lng="es"><![CDATA[educación básica]]></kwd>
<kwd lng="es"><![CDATA[estado del conocimiento]]></kwd>
<kwd lng="en"><![CDATA[Performance based assessment]]></kwd>
<kwd lng="en"><![CDATA[elementary education]]></kwd>
<kwd lng="en"><![CDATA[state of the art]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="justify"><font face="verdana" size="4">Art&iacute;culos arbitrados</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp; </font></p>     <p align="center"><font face="verdana" size="4"><b>Investigaci&oacute;n emp&iacute;rica sobre el impacto </b><b>de la evaluaci&oacute;n formativa: </b><b>Revisi&oacute;n de literatura</b></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="center"><font face="verdana" size="3"><b>An Empirical Study on the Impact of Formative Assessment: A Literature Review</b></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="center"><font face="verdana" size="2"><b>Felipe Mart&iacute;nez Rizo</b></font>*</p>     <p align="center"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><i>* Universidad Aut&oacute;noma de Aguascalientes. San Cosme 108, C.P. 20010 Aguascalientes, Aguascalientes, M&eacute;xico.</i> <a href="mailto.fmrizo@prodigy.net.mx">fmrizo@prodigy.net.mx</a></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Recibido: 4 de noviembre de 2011.     <br> aceptado para su publicaci&oacute;n: 2 de febrero de 2012</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Resumen</b></font></p>     <p align="justify"><font face="verdana" size="2">En muchos sistemas educativos hay un creciente inter&eacute;s por el enfoque de la evaluaci&oacute;n del aprendizaje que designan expresiones como evaluaci&oacute;n formativa, evaluaci&oacute;n en aula o evaluaci&oacute;n para el aprendizaje. Este inter&eacute;s suele basarse en opiniones muy positivas sobre dicho enfoque difundidas primero por los partidarios del sistema Mastery Learning desarrollado por Benjamin S. Bloom y, desde fines de la d&eacute;cada de 1990, por otros estudiosos. El sustento emp&iacute;rico de esas posturas, sin embargo, no siempre es s&oacute;lido, lo que tampoco debe entenderse como una descalificaci&oacute;n del enfoque. En este art&iacute;culo se presenta una revisi&oacute;n de la literatura al respecto, en la que puede basarse una opini&oacute;n mejor informada.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Palabras clave:</b> Evaluaci&oacute;n del aprendizaje, educaci&oacute;n b&aacute;sica, estado del conocimiento.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Abstract</b></font></p>     <p align="justify"><font face="verdana" size="2">In many educational systems there is a growing interest in the approach to learning assessment referred to as formative assessment, classroom assessment or assessment for learning. This interest is usually based on the very positive opinions spread initially by supporters of the Mastery Learning model developed by Benjamin S. Bloom and, since the 1990s, by other scholars. Empirical support for these views, however, is not always very strong, which does not necessarily mean that the approach is wrong. This article presents a review of the literature on the subject, providing a foundation for a better informed position.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Key words:</b> Performance based assessment, elementary education, state of the art.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>I. Introducci&oacute;n</b></font></p>     <p align="justify"><font face="verdana" size="2">La noci&oacute;n de evaluaci&oacute;n formativa (EF) denota las acciones hechas para valorar el avance de los alumnos en el desarrollo de conocimientos o competencias, buscando aportar elementos al maestro y a los alumnos mismos para adecuar sus esfuerzos para alcanzar las metas de aprendizaje establecidas, y no para emitir un juicio definitivo al respecto. La noci&oacute;n opuesta es la de evaluaci&oacute;n sumativa.</font></p>     <p align="justify"><font face="verdana" size="2">Aunque reciente, la literatura sobre EF comienza a proliferar y, en general, parte del supuesto de que su uso produce beneficios importantes sobre el aprendizaje. Sin embargo los estudios de car&aacute;cter emp&iacute;rico que sometan este supuesto a la prueba de la experiencia son escasos. En estas p&aacute;ginas se revisa la literatura al respecto, con &eacute;nfasis en la producida en los medios anglosajones.</font></p>     <p align="justify"><font face="verdana" size="2">Algunas s&iacute;ntesis de estudios sobre el sistema Mastery Learning que promovi&oacute; Benjam&iacute;n S. Bloom en las d&eacute;cadas de 1960 y 1970, llegaban a la conclusi&oacute;n de que era "una de las estrategias de ense&ntilde;anza m&aacute;s efectivas que los maestros pueden utilizar, en cualquier nivel educativo" (Walberg, 1984, en Guskey 2007, p. 75).</font></p>     <p align="justify"><font face="verdana" size="2">Bloom plantea el tema en t&eacute;rminos de lo que llama el problema de las dos sigmas, en alusi&oacute;n al dato de que la diferencia entre los alumnos de alto y bajo rendimiento suele situarse en el rango de dos desviaciones est&aacute;ndar; esto quiere decir que el reto de reducir las brechas del rendimiento de manera significativa en un sistema educativo consiste en mejorar el desempe&ntilde;o de los alumnos de menor rendimiento en el equivalente a dos desviaciones est&aacute;ndar (dos sigmas).</font></p>     <p align="justify"><font face="verdana" size="2">Seg&uacute;n Bloom es posible conseguir mejoras de esa importancia con sistemas de ense&ntilde;anza que asignan un tutor a cada alumno de bajo rendimiento (ense&ntilde;anza tutorial uno a uno), lo cual es costoso; pero &eacute;l afirma que con su sistema es posible obtener resultados similares, con un costo que no difiere mucho del que implican las formas tradicionales de ense&ntilde;anza (Bloom, 1984a y 1984b).</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>II. Estudios en perspectiva optimista</b></font></p>     <p align="justify"><font face="verdana" size="2">Sin contar las relativas a resultados del modelo Mastery Learning, seguramente la revisi&oacute;n de literatura que m&aacute;s ha influido en las ideas sobre el efecto de la EF es la que publicaron en 1998 Paul Black y Dylan Wiliam, en el n&uacute;mero 1 de 1998 de la revista Assessment in Education: principles, policy &amp; practice. El art&iacute;culo no es el primero en ese sentido, puesto que revisa trabajos publicados antes, entre 1988 y 1997; sin embargo, la conclusi&oacute;n tan positiva a la que llega llam&oacute; la atenci&oacute;n entre los interesados en el tema, algunos de los cuales lo retomaron sin considerar sus alcances y l&iacute;mites, lo que posiblemente dio lugar a que se extendiera una visi&oacute;n acr&iacute;tica de la evaluaci&oacute;n formativa, en un medio que a veces parece &aacute;vido de soluciones milagrosas para los problemas que enfrenta.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Black y Wiliam tomaron como l&iacute;nea de base las revisiones de Natriello (1987) y Crooks (1988) y utilizaron otras revisiones (Black, 1993; Bangert&#150;Drowns, Kulik, Kulik y Morgan, 1991a y 1991b; Kulik, Kulik y Bangert&#150;Drowns, 1990); consultaron el eric (Education Resources Information Center), rastrearon referencias citadas en las ya localizadas (snowball approach); e hicieron una b&uacute;squeda de art&iacute;culos en 76 revistas. De esta manera identificaron 681 publicaciones que parec&iacute;an relevantes a primera vista, que luego se redujeron a unas 250.</font></p>     <p align="justify"><font face="verdana" size="2">La revisi&oacute;n se organiz&oacute; en siete secciones: ejemplos notables; evaluaci&oacute;n por los maestros; perspectiva de los alumnos; papel del maestro; estrategias y t&aacute;cticas usados por los maestros; sistemas en que la evaluaci&oacute;n formativa tiene un papel especial; y retroalimentaci&oacute;n. En cada secci&oacute;n los textos identificados se revisan con diferente amplitud, pero la primera, la de ejemplos notables, atrae la atenci&oacute;n tanto por su ubicaci&oacute;n al inicio del art&iacute;culo como por la naturaleza positiva de las conclusiones a que llegan los autores, que sustentan las afirmaciones reiteradas y enf&aacute;ticas que se hacen. As&iacute;, en el resumen del trabajo, Black y Wiliam dicen:</font></p>     <blockquote>       <p align="justify"><font face="verdana" size="2">Varios estudios muestran evidencia firme de que las innovaciones que se dise&ntilde;an para reforzar la retroalimentaci&oacute;n frecuente que el alumno recibe sobre su aprendizaje produce ganancias substanciales (...) (1998, p. 7)</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">La idea se retoma con fuerza similar al final del trabajo, donde los autores responden la pregunta sobre las implicaciones para las pol&iacute;ticas de sus hallazgos:</font></p>     <blockquote>    <p align="justify"><font face="verdana" size="2">La investigaci&oacute;n reportada muestra en forma concluyente que la EF mejora el aprendizaje. Las ganancias en desempe&ntilde;o parecen muy considerables y son de las m&aacute;s grandes reportadas para una intervenci&oacute;n educativa. Como ejemplo de su importancia, si se alcanzara a escala nacional un efecto de 0.7 <i>(size effect), </i>equivaldr&iacute;a a elevar el puntaje promedio en matem&aacute;ticas de un pa&iacute;s promedio como Inglaterra, Nueva Zelanda o Estados Unidos, al nivel de los cinco mejores, detr&aacute;s de los pa&iacute;ses de la cuenca del Pac&iacute;fico como Singapur, Corea, Jap&oacute;n y Hong Kong (...) (Black y Wiliam, 1998, p. 61)</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">Los estudios seleccionados por Black y Wiliam para incluir en la primera secci&oacute;n de su trabajo, de ejemplos destacados, son ocho: 1) Un proyecto que involucr&oacute; a 25 profesores portugueses de matem&aacute;ticas, con 246 alumnos de ocho y nueve a&ntilde;os de edad y 108 m&aacute;s de 10 a 14 a&ntilde;os. 2) La experiencia de un profesor a lo largo de 18 a&ntilde;os durante los cuales utiliz&oacute; el modelo de <i>Mastery Learning </i>en sus cursos, con unos 7,000 estudiantes. 3) Otro estudio que utiliz&oacute; el modelo de Mastery Learning, con 120 estudiantes universitarios estadounidenses, en cuatro grupos en un dise&ntilde;o 2 x 2. 4) Uno m&aacute;s con 838 ni&ntilde;os de cinco a&ntilde;os de edad de medio desfavorecido, distribuidos en un grupo experimental y uno de control. 5) Un experimento con 48 alumnos de 11 a&ntilde;os de edad, de 12 grupos en cuatro escuelas de Israel, seleccionados de manera que la mitad fueran del cuartil superior y el resto del inferior, en matem&aacute;ticas y lengua. 6) Un estudio con 44 alumnos de 9 o 10 a&ntilde;os de edad en una escuela elemental de los Estados Unidos. 7) Un trabajo con 12 grupos de 30 alumnos cada uno, en dos escuelas estadounidenses de educaci&oacute;n media. 8) Un meta&#150;an&aacute;lisis de 21 estudios con alumnos de preescolar a ense&ntilde;anza media superior con necesidades educativas especiales de importancia media.</font></p>     <p align="justify"><font face="verdana" size="2">Black y Wiliam advierten sobre las limitaciones de los estudios revisados. Como ejemplo, en relaci&oacute;n con una revisi&oacute;n sobre la efectividad de la retroalimentaci&oacute;n (Kluger y De Nisi, 1996) se&ntilde;alan que, de m&aacute;s de 3,000 reportes analizados, la gran mayor&iacute;a debieron descartarse por fallas metodol&oacute;gicas como falta de controles adecuados, mezcla de efectos de la retroalimentaci&oacute;n con otros, n&uacute;mero reducido de sujetos (&lt;10), ausencia de mediciones del rendimiento y datos insuficientes para estimar el tama&ntilde;o del efecto. Solamente se conservaron 131 reportes que no presentaban las fallas anteriores (Black y Wiliam, 1998, p. 48)</font></p>     <p align="justify"><font face="verdana" size="2">Se mencionan efectos de la retroalimentaci&oacute;n en sentidos opuestos, seg&uacute;n se refiera a la tarea o a la persona. Un trabajo reporta que la retroalimentaci&oacute;n que se refiere a la persona parece tener efectos negativos sobre el desempe&ntilde;o y otro que los maestros eficaces elogian menos a sus alumnos que el docente promedio, lo que coincide con otros hallazgos de que los elogios verbales y la retroalimentaci&oacute;n de apoyo a la persona puede aumentar el inter&eacute;s y mejorar actitudes del alumno, pero tiene poco o nulo impacto sobre el desempe&ntilde;o (Black y Wiliam, 1998, p. 49&#150;50).</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">La descripci&oacute;n que hacen Black y Wiliam de los ocho ejemplos notables suscita dudas en cuanto a la solidez de conclusiones tan contundentes como las citadas, pues parece dif&iacute;cil llegar a ellas sin muchas salvedades, a partir de una gama bastante reducida de trabajos diferentes, algunos de los cuales presentan claras debilidades. Pese a ello, la heterogeneidad misma de los ejemplos es manejada por los autores citados como argumento a favor de su punto de vista:</font></p>     <blockquote>    <p align="justify"><font face="verdana" size="2">(...) Pese a la existencia de algunos resultados marginales e incluso negativos, el rango de las condiciones y contextos en los que los estudios revisados han mostrado que se pueden alcanzar tales ganancias debe indicar que los principios que subyacen al logro de mejoras sustanciales en el aprendizaje son robustos (...) (Black y Wiliam, 1998, p. 61)</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">Al final de su revisi&oacute;n, Black y Wiliam (1998) advierten a los lectores sobre la dificultad que supone modificar en profundidad pr&aacute;cticas muy arraigadas:</font></p>     <blockquote>    <p align="justify"><font face="verdana" size="2">(...) de esta revisi&oacute;n no emerge un modelo &oacute;ptimo en que se pueda sustentar una pol&iacute;tica. Lo que emerge son principios orientadores, con la advertencia de que los cambios requeridos en la pr&aacute;ctica docente son centrales y no marginales, y deben ser incorporados por cada docente a su propia pr&aacute;ctica en la manera propia de cada uno. En otras palabras, una reforma de tales dimensiones inevitablemente llevar&aacute; mucho tiempo y requerir&aacute; el continuo apoyo de educadores e investigadores, (p. 62)</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">En forma muy clara, el trabajo citado se&ntilde;ala:</font></p>     <blockquote>    <p align="justify"><font face="verdana" size="2">Ser&iacute;a deseable, y se podr&iacute;a esperar como lo habitual, que una revisi&oacute;n como &eacute;sta tratara de hacer un meta&#150;an&aacute;lisis de los estudios cuantitativos revisados. El que esto dif&iacute;cilmente parezca posible lleva a reflexionar sobre este campo de investigaci&oacute;n. Esta revisi&oacute;n aprovech&oacute; material &uacute;til de varios estudios basados en meta&#150;an&aacute;lisis; &eacute;stos, sin embargo, centraban la atenci&oacute;n en aspectos bastante restringidos de la evaluaci&oacute;n formativa, por ejemplo la frecuencia con la que se formulan preguntas. El valor de sus generalizaciones es tambi&eacute;n dudoso porque se ignoran aspectos clave de los estudios sintetizados, por ejemplo la calidad de las preguntas que se formulan, ya que la mayor&iacute;a de los investigadores no ofrecen evidencias sobre estos puntos.</font></p>       <p align="justify"><font face="verdana" size="2">Hay estudios cuantitativos que exploran la evaluaci&oacute;n formativa de manera m&aacute;s comprensiva, y algunos se discuten en el texto, pero el n&uacute;mero con un rigor cuantitativo adecuado y comparable debe situarse, como m&aacute;ximo, en el orden de 20. Sin embargo, si bien cada estudio es riguroso dentro de su propio marco y en relaci&oacute;n son sus objetivos, y aunque muestran cierta coherencia en lo que se refiere a las ganancias de aprendizaje asociadas con las iniciativas de evaluaci&oacute;n en aula, las diferencias subyacentes entre los estudios son tales que cualquier agregaci&oacute;n de sus resultados tendr&iacute;a poco sentido. (Black y Wiliam, 1998, p. 52&#150;53)</font></p> </blockquote>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Pese a lo anterior, varias lecturas del texto al que se refieren estos comentarios han retomado &uacute;nicamente las conclusiones favorables, sin matiz alguno, e incluso contradiciendo afirmaciones expresas, como en el caso siguiente:</font></p>     <blockquote>    <p align="justify"><font face="verdana" size="2">Con base en su s&iacute;ntesis de m&aacute;s de 250 art&iacute;culos &#91;Black y Wiliam&#93; reportan que la respuesta &#91;a la pregunta sobre si hay evidencias de que mejorar la calidad de la EF eleva el rendimiento de los alumnos&#93; es un rotundo s&iacute;. De esas fuentes, unas 40 responden la pregunta con dise&ntilde;os experimentales suficientemente rigurosos para permitir la agregaci&oacute;n de los datos para hacer un meta&#150;an&aacute;lisis que permita estimar el efecto atribuible a EF mejoradas sobre el puntaje en pruebas sumativas. (Stiggins, 2001, p. 10)</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">La diferencia entre lo que dice el texto de Black y Wiliam y la lectura de Stiggins es notable y hace parecer excesivo el tono optimista de esa y otras interpretaciones.</font></p>     <p align="justify"><font face="verdana" size="2">Un importante trabajo sobre evaluaci&oacute;n formativa publicado por la Organizaci&oacute;n para la Cooperaci&oacute;n y el Desarrollo Econ&oacute;micos (ocde) retoma el texto ya citado de las conclusiones del art&iacute;culo de Black y Wiliam:</font></p>     <blockquote>    <p align="justify"><font face="verdana" size="2">(...) la evaluaci&oacute;n formativa mejora el aprendizaje. Las ganancias en el desempe&ntilde;o parecen muy considerables y, como se ha se&ntilde;alado, son de las m&aacute;s grandes reportadas para una intervenci&oacute;n educativa. (Centre for Educational Research and Innovation, 2005, p. 22)</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">El trabajo de la OCDE, sin embargo, matiza la afirmaci&oacute;n anterior como sigue:</font></p>     <blockquote>    <p align="justify"><font face="verdana" size="2">Si bien la EF no es una soluci&oacute;n m&aacute;gica (silver bullet) que puede resolver todos los retos educativos, es un medio poderoso para alcanzar el objetivo de resultados de alto desempe&ntilde;o y alta equidad, y ofrece a los alumnos el conocimiento y las habilidades para seguir aprendiendo a lo largo de la vida. Los sistemas educativos que enfrenten las tensiones que impiden una pr&aacute;ctica m&aacute;s amplia de la EF y fomenten culturas de evaluaci&oacute;n probablemente avanzar&aacute;n mucho m&aacute;s hacia tales metas, (CERI, 2005, p. 27)</font></p> </blockquote>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En la Conferencia Internacional sobre Evaluaci&oacute;n para el Aprendizaje que tuvo lugar en Chester en 2001, se lleg&oacute; a la conclusi&oacute;n de que las discusiones sobre las prioridades de investigaci&oacute;n en torno al tema:</font></p>     <blockquote>    <p align="justify"><font face="verdana" size="2">(...) se desarrollaron con plena conciencia del hecho de que contamos ya con evidencia convincente, basada en investigaciones, en cuanto al impacto de la "ense&ntilde;anza para el aprendizaje" sobre el rendimiento de los alumnos: se pueden conseguir avances sin precedentes. Tenemos tambi&eacute;n evidencia convincente, basada en investigaciones, sobre la baja calidad de muchas evaluaciones que se hacen en el aula, debido a la persistente falta de oportunidades que tienen los maestros para desarrollar sus competencias de evaluaci&oacute;n <i>(assessment literacy). </i>(Stiggins y Arter, 2002, p. 3)</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">En un texto m&aacute;s reciente, Stiggins (2007) sigue mostrando su perspectiva optimista: "La evidencia recolectada en todo el mundo revela de manera consistente efectos directamente atribuibles a la aplicaci&oacute;n efectiva de EF en aula, que van de media a una y media desviaci&oacute;n est&aacute;ndar" (p. 18).</font></p>     <p align="justify"><font face="verdana" size="2">Stiggins dice que Bloom (1984a) reportaba avances de una a dos desviaciones est&aacute;ndar gracias a la aplicaci&oacute;n de su modelo de mastery learning; menciona las ganancias de 0.5 a una desviaci&oacute;n est&aacute;ndar reportadas por Black y Wiliam seg&uacute;n la revisi&oacute;n mencionada; cita el trabajo de Meisels, Atkins&#150;Burnett, Xue, DiPrima y Son (2003), con ganancias de 1 a 1.5 desviaciones; y retoma el trabajo de Rodr&iacute;guez (2004), con base en los resultados de la aplicaci&oacute;n del Estudio Internacional de Tendencias en Matem&aacute;ticas y Ciencias (timss, por sus siglas en ingl&eacute;s) en los Estados Unidos. Para terminar, dice:</font></p>     <blockquote>    <p align="justify"><font face="verdana" size="2">Seg&uacute;n estos investigadores, los avances esperados en las puntuaciones de desempe&ntilde;o rivalizan con la implementaci&oacute;n de sistemas de ense&ntilde;anza tutorial uno a uno en cuanto a su impacto en el rendimiento de los alumnos, adem&aacute;s de que las mayores ganancias son conseguidas por los de menor desempe&ntilde;o, con lo que las brechas se reducen. (Stiggins, 2007, p. 19)</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">Otras revisiones de las que se extraen conclusiones favorables para la evaluaci&oacute;n formativa se refieren a los efectos de la retroalimentaci&oacute;n. Marzano presenta as&iacute; algunos trabajos sobre el tema:</font></p>     <blockquote>    <p align="justify"><font face="verdana" size="2">Como resultado de revisar casi 8,000 estudios, Hattie (1992) encontr&oacute; que, sin duda, "la modificaci&oacute;n singular m&aacute;s poderosa para mejorar rendimiento es la retroalimentaci&oacute;n". La receta m&aacute;s simple para mejorar la educaci&oacute;n es "cucharadas de retroalimentaci&oacute;n". M&aacute;s recientemente, Hattie y Timperley (2007) actualizaron y ampliaron la revisi&oacute;n sobre retroalimentaci&oacute;n y llegaron a la misma conclusi&oacute;n. Desafortunadamente no todas las formas de retroalimentaci&oacute;n son igualmente efectivas. Un meta&#150;an&aacute;lisis de Bangert&#150;Drowns, Kulik, Kulik y Morgan (1991) que revis&oacute; los hallazgos de 40 estudios sobre evaluaci&oacute;n en aula, encontr&oacute; que decir simplemente al alumno si sus respuestas son correctas o incorrectas ten&iacute;a efecto negativo sobre el aprendizaje, mientras que explicar la respuesta correcta y/o pedir que siguiera mejorando sus respuestas se asociaba con ganancias de 20 puntos percentilares en el desempe&ntilde;o. (Marzano, 2007, p. 103&#150;104)</font></p> </blockquote>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>III. Perspectivas cr&iacute;ticas</b></font></p>     <p align="justify"><font face="verdana" size="2">La experiencia de la complejidad de los fen&oacute;menos educativos y la dificultad de introducir cambios que produzcan consecuencias importantes hace tomar con reservas los textos de la secci&oacute;n anterior, que a veces parecen promover una panacea m&aacute;s que, tras cierto tiempo, provocar&aacute; una desilusi&oacute;n tanto m&aacute;s fuerte cuanto mayores hubieran sido las expectativas inicialmente despertadas.</font></p>     <p align="justify"><font face="verdana" size="2">Esta idea se ve reforzada por las salvedades que contienen los mismos textos citados, que una lectura atenta no deja de advertir, y que en ocasiones se incluyen de manera tan expresa que sorprende que no sean atendidas por algunas lecturas posteriores. Confirma y refuerza la reflexi&oacute;n cr&iacute;tica sobre conclusiones demasiado optimistas un trabajo reciente de dos estudiosos de la Universidad de Arkansas, publicado con el t&iacute;tulo Una revisi&oacute;n cr&iacute;tica de la investigaci&oacute;n sobre evaluaci&oacute;n formativa. La limitada evidencia cient&iacute;fica del impacto de la evaluaci&oacute;n formativa en la educaci&oacute;n. Al principio de su texto los autores se&ntilde;alan que:</font></p>     <blockquote>    <p align="justify"><font face="verdana" size="2">Una creencia casi nunca cuestionada es que la investigaci&oacute;n demuestra en forma concluyente que el uso de evaluaci&oacute;n formativa facilita la mejora de las pr&aacute;cticas de ense&ntilde;anza, identifica lagunas en el curr&iacute;culo y contribuye a aumentar el desempe&ntilde;o de los alumnos. Sin embargo... una revisi&oacute;n de la literatura revel&oacute; la limitada evidencia emp&iacute;rica que demuestra que el uso de evaluaci&oacute;n formativa en el aula resulta directamente en cambios marcados en los resultados educativos. (Dunn y Mulvenon, 2009, p. 1)</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">El texto comienza con una discusi&oacute;n sobre la forma en que se suele definir la noci&oacute;n de EF, los autores indica que la heterogeneidad al respecto es muy considerable, de manera que la tarea de analizar en forma rigurosa su posible impacto se dificulta mucho. El art&iacute;culo analiza en particular la revisi&oacute;n de literatura hecha por Black y Wiliam, a la que se refiere el apartado anterior de este art&iacute;culo, cuya influencia se puede apreciar por el elevado n&uacute;mero de veces que se le cita en la revistas acad&eacute;micas (194 seg&uacute;n el Social Science Index revisado por Dunn y Mulvenon (2009, p. 5).</font></p>     <p align="justify"><font face="verdana" size="2">La revisi&oacute;n de los ocho estudios que Black y Wiliam utilizan para sustentar sus conclusiones muestra serias fallas metodol&oacute;gicas:</font></p>     <p align="justify"><font face="verdana" size="2">El primero, adem&aacute;s de que el grupo de 25 profesores portugueses no es suficiente para conclusiones generalizables, adoleci&oacute; de fallas significativas en cuanto a la calidad del pretest y a la diferencia en la preparaci&oacute;n que se dio a los docentes del grupo control, en comparaci&oacute;n con los del experimental. M&aacute;s dudosa todav&iacute;a es la generalizabilidad del segundo estudio, con un solo profesor a lo largo de 18 a&ntilde;os. El tercer estudio, con 120 universitarios en cuatro grupos, involucr&oacute; s&oacute;lo a dos profesores expertos y dos novatos y analiz&oacute; la frecuencia de las evaluaciones (una o tres) sin considerar en detalle el contenido y la forma de &eacute;stas.</font></p>     <p align="justify"><font face="verdana" size="2">A juicio de Dunn y Mulvenon el dise&ntilde;o del cuarto estudio (con 838 ni&ntilde;os de cinco a&ntilde;os) es bueno, pero no toma en cuenta que, adem&aacute;s de EF, el sistema de trabajo inclu&iacute;a otros aspectos cuya influencia no se puede distinguir de la que haya podido tener la evaluaci&oacute;n misma. Otros tres estudios tienen problemas similares: el quinto, en Israel, adem&aacute;s de una muestra muy chica, se refiere a tareas que no fueron presentadas por el maestro ni se basaban en el curr&iacute;culo; el sexto caso s&oacute;lo trabaj&oacute; con alumnos de cuarto grado, con una muestra muy peque&ntilde;a y con &eacute;nfasis en autoevaluaci&oacute;n; y en el s&eacute;ptimo caso (adem&aacute;s de que los resultados van desde un efecto incre&iacute;ble de tres, hasta de s&oacute;lo una desviaci&oacute;n est&aacute;ndar) no se informa en qu&eacute; consistieron las "discusiones generales" en el grupo control y pareciera que el grupo experimental recibi&oacute; un trato distinto, m&aacute;s all&aacute; de lo que ten&iacute;a que ver con la evaluaci&oacute;n formativa misma.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">El octavo estudio notable de Black y Wiliam, que Dunn y Mulvenon tratan en primer t&eacute;rmino, parecer&iacute;a en principio el m&aacute;s s&oacute;lido, ya que se trata del meta&#150;an&aacute;lisis de 21 estudios, pero incluso en este caso hay serias deficiencias: 83% de los alumnos participantes ten&iacute;an necesidades educativas especiales; 72% de los efectos encontrados se presentaron en estudios que ten&iacute;an "no m&aacute;s de dos problemas metodol&oacute;gicos serios". (Dunn y Mulvenon, 2009, p. 5&#150;7).</font></p>     <p align="justify"><font face="verdana" size="2">El texto de los profesores de Arkansas revisa nueve art&iacute;culos m&aacute;s recientes, que se refieren en general a trabajos de educaci&oacute;n en l&iacute;nea (Thompson, Goe, Paek y Ponte, 2004; Wininger, 2005; Wiliam et al., 2004; Ruiz&#150;Primo y Furtak, 2006; Sly, 1999; Henly, 2003; Buchanan, 2000; Wang, 2007; y Velan EF <i>al., </i>2002). Los autores reconocen que esos trabajos <i>ofrecen apoyo adicional a la evaluaci&oacute;n formativa de manera fragmentada, </i>pero a&ntilde;aden que <i>siguen siendo problem&aacute;ticos temas metodol&oacute;gicos similares a los de los revisados por Black y Wiliam </i>(Dunn y Mulvenon, 2009, p. 7). Aunque subrayan las limitaciones de los trabajos revisados, la conclusi&oacute;n a la que llegan no es totalmente negativa, pero s&iacute; afirman que:</font></p>     <blockquote>    <p align="justify"><font face="verdana" size="2">En cierta medida, las investigaciones discutidas... apoyan el impacto de la EF sobre el rendimiento de los alumnos, pero en una medida mayor apoyan la necesidad de hacer investigaciones en las que dise&ntilde;os y metodolog&iacute;as m&aacute;s eficientes lleven a resultados m&aacute;s concluyentes... no argumentamos que la EF carezca de importancia, sino s&oacute;lo que la evidencia emp&iacute;rica que existe para apoyar "las mejores pr&aacute;cticas" de EF es limitada. (Dunn y Mulvenon, 2009, p. 9)</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">Otros trabajos recientes avanzan en la direcci&oacute;n se&ntilde;alada en el texto anterior, ya que utilizan acercamientos metodol&oacute;gicos m&aacute;s s&oacute;lidos. As&iacute; lo muestra un an&aacute;lisis de investigaciones sobre programas de actualizaci&oacute;n para maestros en servicio que buscan mejorar sus habilidades en EF (Schneider y Randel, 2010).</font></p>     <p align="justify"><font face="verdana" size="2">Las investigaciones que revisa este cap&iacute;tulo se refieren a experiencias de duraci&oacute;n considerable, en que la preparaci&oacute;n de los participantes sobre EF implic&oacute; muchas horas, siempre se incluy&oacute; la variable relativa a los resultados de los alumnos y se manejaron n&uacute;meros importantes de maestros, alumnos y grupos, con dise&ntilde;os de tipo cuasi&#150;experimental, cuidando la comparabilidad de grupos con tratamiento y sin &eacute;l, utilizando t&eacute;cnicas anal&iacute;ticas avanzadas, a falta de dise&ntilde;os experimentales.</font></p>     <p align="justify"><font face="verdana" size="2">El trabajo concluye con reflexiones sobre los retos metodol&oacute;gicos que enfrentan estos estudios, incluyendo la atenci&oacute;n a los est&aacute;ndares para juzgar la calidad de las evidencias (seg&uacute;n el repositorio <i>What Works Clearinghouse,) </i>las dificultades de manejar dise&ntilde;os experimentales con grupos completos <i>(intact classrooms), </i>las de las medidas de los resultados, del tama&ntilde;o de las muestras, la fidelidad de implementaci&oacute;n y la duraci&oacute;n del estudio (Schneider y Randel, 2010, p. 267&#150;272).</font></p>     <p align="justify"><font face="verdana" size="2">En muchos casos los resultados fueron favorables a la hip&oacute;tesis de que las pr&aacute;cticas de EF contribuyen a mejorar el aprendizaje; en un n&uacute;mero menor no se encontraron diferencias significativas. Nuevamente la evidencia no es concluyente, pero s&iacute; parece inclinar la balanza en el sentido de las opiniones favorables a la EF.</font></p>     <p align="justify"><font face="verdana" size="2">Otro ejemplo interesante en el sentido que se comenta es el trabajo sobre EF, motivaci&oacute;n y aprendizaje de las ciencias naturales, de Ma. Araceli Ruiz Primo EF <i>al. </i>(2010), que los autores describen como sigue:</font></p>     <blockquote>    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Un estudio de peque&ntilde;as dimensiones, aleatorizado, para someter a prueba la afirmaci&oacute;n de Black y Wiliam (1998) de que la retroalimentaci&oacute;n basada en EF produce un fuerte efecto positivo en el aprendizaje... el proyecto pon&iacute;a a prueba una gran idea relacionada con la EF, que se podr&iacute;a obtener una gran ganancia en el aprendizaje con una inversi&oacute;n relativamente peque&ntilde;a: incorporar a un curr&iacute;culo de ciencias utilizado en todo el pa&iacute;s EF conceptualmente coherentes. (Ruiz Primo efa/.,2010, p. 143)</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">Despu&eacute;s de explicar las caracter&iacute;sticas del estudio, cuidadosamente dise&ntilde;ado e implementado, los investigadores reportan los resultados relativos a los cambios esperados en los niveles de rendimiento de los alumnos como sigue:</font></p>     <blockquote>    <p align="justify"><font face="verdana" size="2">Sorprendentemente los resultados no corroboraron la hip&oacute;tesis (...) el grupo experimental no obtuvo resultados significativamente mejores que el grupo de comparaci&oacute;n ni en las pruebas de rendimiento ni en las medidas de motivaci&oacute;n. De hecho los alumnos del grupo de comparaci&oacute;n tuvieron resultados promedio ligeramente mejores que los del grupo experimental, aunque no estad&iacute;sticamente significativos (...) la brecha entre los alumnos de alto y bajo rendimiento en el grupo experimental no fue tan grande como en el grupo de comparaci&oacute;n (...) (Ruiz Primo <i>et al., </i>2010, p. 151)</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">La revisi&oacute;n de videos de clases que se grabaron permiti&oacute; buscar una explicaci&oacute;n de esos resultados, revisando la fidelidad de implementaci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">El estudio de implementaci&oacute;n buscaba entender la relaci&oacute;n entre el tratamiento (el curr&iacute;culo prescrito) y las mediciones del aprendizaje (el curr&iacute;culo logrado), para lo cual primero se sistematiz&oacute; el curr&iacute;culo prescrito seg&uacute;n la gu&iacute;a que se hab&iacute;a dado a los maestros participantes, y luego se analizaron las grabaciones de clases para medir en qu&eacute; grado los maestros realizaron las EF como se esperaba lo hicieran. El resultado fue que hab&iacute;a considerables diferencias en cuanto a la forma de hacer las evaluaciones, lo cual parece reflejarse en un impacto diferencial en el rendimiento. La conclusi&oacute;n de los investigadores es la siguiente:</font></p>     <blockquote>    <p align="justify"><font face="verdana" size="2">Black y Wiliam (1998) encontraron que la intervenci&oacute;n que impacta el nivel de aprendizaje de los estudiantes es la retroal i mentaci&oacute;n. Hattie y Timperley (2007) encontraron adem&aacute;s que la calidad de la retroalimentaci&oacute;n impacta el grado en que ayuda a los estudiantes a mejorar. No debe sorprender que los estudiantes con mejores resultados sean los que tuvieron maestros que cierran mejor el ciclo de EF (...) usar informaci&oacute;n para ajustar ense&ntilde;anza no fue bien implementado por muchos maestros del grupo experimental (...) con base en la evidencia recogida durante el estudio de implementaci&oacute;n sabemos que, en general, los maestros consegu&iacute;an que los alumnos compartieran sus ideas, pero que no consegu&iacute;an utilizar la informaci&oacute;n para ajustar su propia ense&ntilde;anza. Obviamente recomendar que se ajuste la ense&ntilde;anza es m&aacute;s f&aacute;cil que hacerlo. (Ruiz Primo <i>et al., </i>2010, p. 154)</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">Conviene precisar que la justificaci&oacute;n del uso de estudios basados en dise&ntilde;os experimentales estrictos (que incluyan la asignaci&oacute;n aleatoria de los sujetos a los grupos experimental y control) como soporte para llegar a conclusiones sobre el impacto de cierta intervenci&oacute;n se justifica plenamente en principio, pues sabemos que, en ausencia de tal tipo de dise&ntilde;o, es problem&aacute;tico sacar conclusiones de tipo causal. Sin embargo, en la investigaci&oacute;n educativa y social deben cuidarse otros aspectos para que un estudio pueda arrojar conclusiones s&oacute;lidas.</font></p>     <p align="justify"><font face="verdana" size="2">En particular, es indispensable cuidar la llamada fidelidad de implementaci&oacute;n a la que han aludido los dos &uacute;ltimos trabajos citados, y cuyo descuido es, al parecer, una de las deficiencias que m&aacute;s influyen para que los resultados de los trabajos sobre el posible impacto de la evaluaci&oacute;n formativa no sean concluyentes. Como ha mostrado Raudenbush (2008), en la investigaci&oacute;n sobre el efecto de ciertos f&aacute;rmacos sobre el organismo es sencillo garantizar que todos los sujetos de un grupo experimental reciban un tratamiento id&eacute;ntico (por ejemplo "X" dosis del f&aacute;rmaco) y que ninguno de los sujetos del grupo control lo reciba. En educaci&oacute;n, en cambio, y aunque se haya dado cierta preparaci&oacute;n a los participantes, es dif&iacute;cil asegurar, por ejemplo, que todos los maestros de un grupo experimental manejen pr&aacute;cticas de EF del mismo tipo y con id&eacute;ntica calidad e intensidad, y que ninguno del grupo control utilice pr&aacute;cticas que puedan llevar a resultados an&aacute;logos.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Por otra parte, un elemento m&aacute;s a tener en cuenta al estudiar el impacto de la EF tiene que ver con la dificultad de introducir pr&aacute;cticas novedosas, que se oponen a tradiciones muy arraigadas, como las que tienen que ver con la forma tradicional de evaluar que prevalece en las aulas desde hace muchos a&ntilde;os. En el caso del sistema educativo mexicano, por ejemplo, si se analiza la normatividad sobre las evaluaciones que deben hacer los maestros se aprecia que casi no ha cambiado desde hace medio siglo, pese a que en ese lapso se puso de moda la pedagog&iacute;a constructivista, surgieron y proliferaron las pruebas en gran escala y se comenz&oacute; a hablar de EF. Por ello no deber&iacute;a sorprender que muchos actores, incluyendo a maestros, pero tambi&eacute;n a alumnos y padres de familia, se sientan inc&oacute;modos cuando se quiere introducir innovaciones como la que es objeto de este trabajo.</font></p>     <p align="justify"><font face="verdana" size="2">El &uacute;ltimo trabajo emp&iacute;rico que se revisa en esta secci&oacute;n tiene que ver justamente con esa resistencia, en el contexto de un sistema educativo en el que las nuevas formas de evaluaci&oacute;n est&aacute; mucho m&aacute;s extendido que en M&eacute;xico.</font></p>     <p align="justify"><font face="verdana" size="2">Smith y Gorard (2005) reportan resultados de un estudio sobre las reacciones de alumnos que participaban en un proyecto que inclu&iacute;a la pr&aacute;ctica de no dar calificaci&oacute;n num&eacute;ricas, como suele hacerse, para desalentar la tendencia a trabajar en funci&oacute;n de la nota, y no por un inter&eacute;s intr&iacute;nseco por el aprendizaje. Cuando se preguntaba a esos estudiantes c&oacute;mo se sent&iacute;an, las respuestas eran diversas, pero:</font></p>     <blockquote>    <p align="justify"><font face="verdana" size="2">(...) un n&uacute;mero considerable de alumnos ten&iacute;an opiniones bastante negativas, particularmente porque, en su opini&oacute;n, el hecho de no recibir calificaciones no les permit&iacute;a saber c&oacute;mo orientar sus esfuerzos... cuando se preguntaba si los comentarios que recib&iacute;an eran &uacute;tiles, la mayor&iacute;a opinaba que no les daban suficiente informaci&oacute;n para saber c&oacute;mo mejorar. Tampoco pensaban que el recibir calificaciones estigmatizar&iacute;a a los de bajo rendimiento... el deseo de recibir calificaciones era tan fuerte que algunos admit&iacute;an que intentaban calcularlas. Esto era particularmente marcado en materias como matem&aacute;ticas y lengua, en relaci&oacute;n con las cuales los chicos admit&iacute;an que sumaban las palabras bien deletreadas en pruebas de vocabulario, para calcular la calificaci&oacute;n que habr&iacute;an recibido. (Smith y Gorard, 2005, p. 31&#150;33)</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>IV. Conclusi&oacute;n</b></font></p>     <p align="justify"><font face="verdana" size="2">La aplicaci&oacute;n en el aula de los principios de la EF no es sencilla, en particular si se trata de habilidades cognitivas complejas y no de simples tareas memor&iacute;sticas, ya que para ello no basta que se modifiquen las pr&aacute;cticas de evaluaci&oacute;n, sino que es todo el enfoque de la ense&ntilde;anza lo que debe cambiar.</font></p>     <p align="justify"><font face="verdana" size="2">El sustento te&oacute;rico de la EF es s&oacute;lido y el resultado de las experiencias de su aplicaci&oacute;n permiten tener expectativas razonablemente optimistas al respecto, pero hay tambi&eacute;n elementos que muestran que se debe proceder con cautela.</font></p>     <p align="justify"><font face="verdana" size="2">Las conclusiones de un trabajo muy reciente coinciden con las que se desprenden de esta revisi&oacute;n de literatura. Kingston y Nash (2011) hicieron una amplia b&uacute;squeda de textos sobre evaluaci&oacute;n formativa y/o evaluaci&oacute;n para el aprendizaje a partir de 1988, incluyendo revistas arbitradas o no, ponencias y tesis, en niveles educativos preuniversitarios.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">ERIC permiti&oacute; localizar 407 art&iacute;culos y Google Scholar dio 17,300 referencias, pero la mayor&iacute;a con deficiencias metodol&oacute;gicas tan serias que impidieron que se les considerara en el an&aacute;lisis. Las que reunieron los criterios necesarios para ser incluidas fueron s&oacute;lo 13, en las que se encontraron 42 medidas del efecto del uso de la evaluaci&oacute;n formativa <i>(effect size). </i>La mayor parte de estas medidas (23) se refer&iacute;an al efecto de programas de actualizaci&oacute;n de maestros en servicio, 7 al impacto de evaluaciones que formaban parte de los materiales curriculares, 6 se refer&iacute;an a evaluaciones por computadora, 3 al efecto de formas particulares de retroalimentaci&oacute;n y 3 a aspectos de autoevaluaci&oacute;n y coevaluaci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">La mediana del tama&ntilde;o del efecto fue de 0.25, menor que la de 0.7 o hasta 1.5 que se ha reportado en otros trabajos. El efecto var&iacute;a de 0.09 a 0.32 dependiendo del &aacute;rea curricular y del tipo de intervenci&oacute;n (Kingston y Nash, 2011, p. 32&#150;35).</font></p>     <p align="justify"><font face="verdana" size="2">Como sugiere la parte final del t&iacute;tulo <i>(A call for research), </i>el trabajo de Kingston y Nash termina con un llamado a los interesados en el tema a realizar estudios con un buen dise&ntilde;o metodol&oacute;gico, que puedan llegar a conclusiones m&aacute;s s&oacute;lidas y superen las limitaciones de muchos trabajos previos. Las recomendaciones de este trabajo (v. gr. evitar centrar la atenci&oacute;n en grupos extremos, no limitarse a ver si hay efecto, sino buscar determinar cu&aacute;les son los factores que influyen en que el efecto sea mayor o menor) se a&ntilde;aden a las que ya se han se&ntilde;alado en esta revisi&oacute;n, en particular el uso de dise&ntilde;os experimentales o cuasi&#150;experimentales y el cuidado de la fidelidad de la implementaci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">Los intentos por introducir un enfoque cuya aplicaci&oacute;n implica cambios importantes en pr&aacute;cticas muy arraigadas pueden ser superficiales, reduci&eacute;ndose a la adopci&oacute;n de una terminolog&iacute;a novedosa, sin modificar los procesos b&aacute;sicos de ense&ntilde;anza y de aprendizaje.</font></p>     <p align="justify"><font face="verdana" size="2">La investigaci&oacute;n deber&aacute; permitir distinguir con claridad los trabajos superficiales de los rigurosos, evitando llegar a conclusiones no matizadas que prometan resultados espectaculares de cualquier esfuerzo, por limitado que sea. Este tipo de conclusiones sin matices provoca expectativas excesivas, a las que seguir&aacute; una decepci&oacute;n m&aacute;s y el abandono de una idea realmente prometedora.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Referencias</b></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Bangert&#150;Drowns, R. L, Kulik, Ch., Kulik, J. A. y Morgan, M. T. (1991a). The instructional effect of feedback on test&#150;like events. <i>Review of Educational Research, 61 (2), </i>213&#150;238.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018827&pid=S1607-4041201200010000100001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Bangert&#150;Drowns, R. L, Kulik, J. A. y Kulik, Ch. (1991b). Effects of frequent classroom testing. <i>Journal of Educational Research, 85, </i>89&#150;99.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018829&pid=S1607-4041201200010000100002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Black, P. J. (1993). Formative and summative assessment by teachers. <i>Studies in Science Education, 21, </i>49&#150;97.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018831&pid=S1607-4041201200010000100003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Black, P. y Wiliam, D. (1998). Assessment and classroom learning. <i>Assessment in Education, 5, 7&#150;74.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018833&pid=S1607-4041201200010000100004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></i></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Bloom, B. S. (1984a). The search for methods of group instruction as effective as one&#150;to&#150;one tutoring. <i>Educational Leadership, 41(8), </i>4&#150;17.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018835&pid=S1607-4041201200010000100005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Bloom, B. S. (1984b). The 2&#150;sigma problem: The search for methods of group instruction as effective as one&#150;to&#150;one tutoring. <i>Educational Researcher, 13(6), </i>4&#150;16.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018837&pid=S1607-4041201200010000100006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Buchanan, T. (2000). The efficacy of a World&#150;Wide Web mediated formative assessment. <i>Journal of Computer Assisted Learning, 16, </i>193&#150;200.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018839&pid=S1607-4041201200010000100007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Centre for Educational Research and Innovation (2005). <i>Formative assessment. Improving learning in secondary classrooms. </i>Paris: OECD.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018841&pid=S1607-4041201200010000100008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Crooks, T. J. (1988). The impact of classroom evaluation practices on students. <i>Review of Educational Research, 58, </i>438&#150;481.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018843&pid=S1607-4041201200010000100009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Dunn, K. E. y Mulvenon, S. W. (2009). A critical review of research on formative assessment: The limited scientific evidence of the impact of formative assessment in education. <i>Practical Assessment Research and Evaluation, 14(1), </i>1&#150;11.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018845&pid=S1607-4041201200010000100010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Guskey, T. R. (2007). Formative classroom sssessment and Benjamin S. Bloom: Theory, research and practice. En J. H. McMillan, <i>Formative classroom assessment: Theory </i>into <i>practice </i>(63&#150;78). Nueva York: Teachers College Press.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018847&pid=S1607-4041201200010000100011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Hattie, J. (1992). Measuring the effects of schooling. <i>Australian Journal of Education, </i>36(1), 5&#150;13.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018849&pid=S1607-4041201200010000100012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Hattie, J. y H. Timperley (2007). The power of feedback. <i>Review of Education Research, </i>77(1), 81&#150;112.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018851&pid=S1607-4041201200010000100013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Henly, D. C. (2003). Use of Web&#150;based formative assessment to support student learning in a metabolism/nutrition unit. <i>European Journal of Dental Education, 7, </i>116&#150;122.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018853&pid=S1607-4041201200010000100014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Kingston, N. y Brooke, N. (2011). Formative assessment: A meta&#150;analysis and a call for research. <i>Educational Measurement: Issues and Practice, 30(4), </i>28&#150;37.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018855&pid=S1607-4041201200010000100015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Kluger, A. N. y Denisi, A. (1996). The effects of feedback interventions on performance: a historical review, a meta&#150;analysis, and a preliminary feedback intervention theory. <i>Psychological Bulletin, 119, </i>254&#150;284.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018857&pid=S1607-4041201200010000100016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Kulik, C. C, Kulik, J. A. y Bangert&#150;Drowns, R. L. (1990). Effectiveness of mastery learning programs: A meta&#150;analysis. <i>Review of Educational Research, 60(2), </i>265&#150;299.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018859&pid=S1607-4041201200010000100017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Marzano, R. (2007). Designing a comprehensive approach to classroom assessment, en D. Reeves (Ed.) <i>Ahead of the curve </i>(pp. pp. 103&#150;125), Bloomington: Solution Tree Press.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018861&pid=S1607-4041201200010000100018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Meisels, S., Atkins&#150;Burnett, S., Xue, Y., DiPrima, D. y Son, S. (2003). Creating a system of accountability: The impact of instructional assessment on elementary children's achievement scores. <i>Educational Policy Analysis Archives, 11(9).    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018863&pid=S1607-4041201200010000100019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></i></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Natriello, G. (1987). The impact of evaluation processes on students. <i>Educational Psychologist, 22, </i>155&#150;175.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018865&pid=S1607-4041201200010000100020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Raudenbush, S. W. (2008). Advancing educational policy by advancing research on instruction. <i>American Educational Research Journal, </i>45(1), 206&#150;230.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018867&pid=S1607-4041201200010000100021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Rodriguez, M. C. (2004). The role of classroom assessment in pupil performance in TIMSS. <i>Applied Measurement in Education, 17(1), </i>1&#150;24.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018869&pid=S1607-4041201200010000100022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Ruiz&#150;Primo, M. A. y Furtak, E. M. (2006). Informal formative assessment and scientific inquiry: Exploring teachers' practices and student learning. <i>Educational Assessment, </i>77(3&#150;4), 205&#150;235.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018871&pid=S1607-4041201200010000100023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Scheneider, M. C. y Randel, B. (2010). Research on characteristics of effective professional development programs for enhancing educators' skills in formative assessment. En Andrade y Cizek (Eds.), <i>Handbook of formative assessment </i>(pp. 251&#150;276). Nueva York&#150;Londres: Routledge.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018873&pid=S1607-4041201200010000100024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Sly, L. (1999). Practice tests as formative assessment improve student performance on computer managed learning assessments. <i>Assessment and Evaluation in Higher Education, 24(3), </i>339&#150;343.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018875&pid=S1607-4041201200010000100025&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Smith, E. y Gorard, S. (2005). They dont't give us our marks: the role of formative feedback in student progress. <i>Assesment in Education: principles, policy &amp; practice, </i>72(1), 21&#150;38.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018877&pid=S1607-4041201200010000100026&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Stiggins, R. J. (2007). Conquering the formative assessment frontier. En J. H. McMillan (Ed.) <i>Formative classroom assessment: Theory into practice </i>(pp. 8&#150;27). Nueva York: Teachers College Press.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018879&pid=S1607-4041201200010000100027&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Stiggins, R. J. (2001). Unfulfilled promise of classroom assessment. <i>Educational Measurement: Issues &amp; Practice, 20(3), </i>5&#150;15.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018881&pid=S1607-4041201200010000100028&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Stiggins, R. J. y Arter, J. (2002). Assessment for learning. International Perspectives. The Proceedings of an International Conference. Documento presentado en la <i>Annual Meeting of the National Council on Educational Measurement, </i>Nueva Orleans.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018883&pid=S1607-4041201200010000100029&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Thompson, M., Goe, L, Paek, P. y Ponte, E. (2004). <i>Study of the California formative assessment and support system for teachers: Relationship of btsa/cfasst and student achievement. </i>Princeton: Educational Testing Service.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018885&pid=S1607-4041201200010000100030&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Velan, G. M., Rakesh, K. K., Mark, D. y Wakefield, D. (2002). Web&#150;based self&#150;assessments in Pathology with questionmark perception. <i>Pathology, 34, </i>282&#150;284.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018887&pid=S1607-4041201200010000100031&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Walberg, H. J. (1984). Improving the productivity of America's schools. <i>Educational Leadership, 41(8), </i>19&#150;27.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018889&pid=S1607-4041201200010000100032&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Wang, T. H. (2007). What strategies are effective for formative assessment in an e&#150;learning environment? <i>Journal of Computer Assisted Learning, 23, </i>171&#150;186.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018891&pid=S1607-4041201200010000100033&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Wiliam, D., Lee, C, Harrison, C. y Black, P. (2004). Teachers developing assessment for learning: Impact on student achievement. <i>Assessment in Education, 11, </i>49&#150;65.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018893&pid=S1607-4041201200010000100034&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Wininger, R. S. (2005). Using your tests to teach: Formative summative assessment. <i>Teaching Psychology, 32(2), </i>164&#150;166.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7018895&pid=S1607-4041201200010000100035&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bangert-Drowns]]></surname>
<given-names><![CDATA[R. L]]></given-names>
</name>
<name>
<surname><![CDATA[Kulik]]></surname>
<given-names><![CDATA[Ch.]]></given-names>
</name>
<name>
<surname><![CDATA[Kulik]]></surname>
<given-names><![CDATA[J. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Morgan]]></surname>
<given-names><![CDATA[M. T.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The instructional effect of feedback on test-like events]]></article-title>
<source><![CDATA[Review of Educational Research]]></source>
<year>1991</year>
<volume>61</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>213-238</page-range></nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bangert-Drowns]]></surname>
<given-names><![CDATA[R. L]]></given-names>
</name>
<name>
<surname><![CDATA[Kulik]]></surname>
<given-names><![CDATA[J. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Kulik]]></surname>
<given-names><![CDATA[Ch.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Effects of frequent classroom testing]]></article-title>
<source><![CDATA[Journal of Educational Research]]></source>
<year>1991</year>
<volume>85</volume>
<page-range>89-99</page-range></nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Black]]></surname>
<given-names><![CDATA[P. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Formative and summative assessment by teachers]]></article-title>
<source><![CDATA[Studies in Science Education]]></source>
<year>1993</year>
<volume>21</volume>
<page-range>49-97</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Black]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
<name>
<surname><![CDATA[Wiliam]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Assessment and classroom learning]]></article-title>
<source><![CDATA[Assessment in Education]]></source>
<year>1998</year>
<volume>5</volume>
<page-range>7-74</page-range></nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bloom]]></surname>
<given-names><![CDATA[B. S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The search for methods of group instruction as effective as one-to-one tutoring]]></article-title>
<source><![CDATA[Educational Leadership]]></source>
<year>1984</year>
<volume>41</volume>
<numero>8</numero>
<issue>8</issue>
<page-range>4-17</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bloom]]></surname>
<given-names><![CDATA[B. S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The 2-sigma problem: The search for methods of group instruction as effective as one-to-one tutoring]]></article-title>
<source><![CDATA[Educational Researcher]]></source>
<year>1984</year>
<volume>13</volume>
<numero>6</numero>
<issue>6</issue>
<page-range>4-16</page-range></nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Buchanan]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The efficacy of a World-Wide Web mediated formative assessment]]></article-title>
<source><![CDATA[Journal of Computer Assisted Learning]]></source>
<year>2000</year>
<volume>16</volume>
<page-range>193-200</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="book">
<collab>Centre for Educational Research and Innovation</collab>
<source><![CDATA[Formative assessment. Improving learning in secondary classrooms]]></source>
<year>2005</year>
<publisher-loc><![CDATA[Paris ]]></publisher-loc>
<publisher-name><![CDATA[OECD]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Crooks]]></surname>
<given-names><![CDATA[T. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The impact of classroom evaluation practices on students]]></article-title>
<source><![CDATA[Review of Educational Research]]></source>
<year>1988</year>
<volume>58</volume>
<page-range>438-481</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Dunn]]></surname>
<given-names><![CDATA[K. E.]]></given-names>
</name>
<name>
<surname><![CDATA[Mulvenon]]></surname>
<given-names><![CDATA[S. W.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A critical review of research on formative assessment: The limited scientific evidence of the impact of formative assessment in education]]></article-title>
<source><![CDATA[Practical Assessment Research and Evaluation]]></source>
<year>2009</year>
<volume>14</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>1-11</page-range></nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Guskey]]></surname>
<given-names><![CDATA[T. R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Formative classroom sssessment and Benjamin S. Bloom: Theory, research and practice]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[McMillan]]></surname>
<given-names><![CDATA[J. H.]]></given-names>
</name>
</person-group>
<source><![CDATA[Formative classroom assessment: Theory into practice]]></source>
<year>2007</year>
<page-range>63-78</page-range><publisher-loc><![CDATA[Nueva York ]]></publisher-loc>
<publisher-name><![CDATA[Teachers College Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hattie]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Measuring the effects of schooling]]></article-title>
<source><![CDATA[Australian Journal of Education]]></source>
<year>1992</year>
<volume>36</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>5-13</page-range></nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hattie]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Timperley]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The power of feedback]]></article-title>
<source><![CDATA[Review of Education Research]]></source>
<year>2007</year>
<volume>77</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>81-112</page-range></nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Henly]]></surname>
<given-names><![CDATA[D. C.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Use of Web-based formative assessment to support student learning in a metabolism/nutrition unit]]></article-title>
<source><![CDATA[European Journal of Dental Education]]></source>
<year>2003</year>
<volume>7</volume>
<page-range>116-122</page-range></nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kingston]]></surname>
<given-names><![CDATA[N.]]></given-names>
</name>
<name>
<surname><![CDATA[Brooke]]></surname>
<given-names><![CDATA[N.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Formative assessment: A meta-analysis and a call for research]]></article-title>
<source><![CDATA[Educational Measurement: Issues and Practice]]></source>
<year>2011</year>
<volume>30</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>28-37</page-range></nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kluger]]></surname>
<given-names><![CDATA[A. N.]]></given-names>
</name>
<name>
<surname><![CDATA[Denisi]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The effects of feedback interventions on performance: a historical review, a meta-analysis, and a preliminary feedback intervention theory]]></article-title>
<source><![CDATA[Psychological Bulletin]]></source>
<year>1996</year>
<volume>119</volume>
<page-range>254-284</page-range></nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kulik]]></surname>
<given-names><![CDATA[C. C]]></given-names>
</name>
<name>
<surname><![CDATA[Kulik]]></surname>
<given-names><![CDATA[J. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Bangert-Drowns]]></surname>
<given-names><![CDATA[R. L.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Effectiveness of mastery learning programs: A meta-analysis]]></article-title>
<source><![CDATA[Review of Educational Research]]></source>
<year>1990</year>
<volume>60</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>265-299</page-range></nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Marzano]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Designing a comprehensive approach to classroom assessment]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Reeves]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<source><![CDATA[Ahead of the curve]]></source>
<year>2007</year>
<page-range>103-125</page-range><publisher-loc><![CDATA[Bloomington ]]></publisher-loc>
<publisher-name><![CDATA[Solution Tree Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Meisels]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[Atkins-Burnett]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[Xue]]></surname>
<given-names><![CDATA[Y.]]></given-names>
</name>
<name>
<surname><![CDATA[DiPrima]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[Son]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Creating a system of accountability: The impact of instructional assessment on elementary children's achievement scores]]></article-title>
<source><![CDATA[Educational Policy Analysis Archives]]></source>
<year>2003</year>
<volume>11</volume>
<numero>9</numero>
<issue>9</issue>
</nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Natriello]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The impact of evaluation processes on students]]></article-title>
<source><![CDATA[Educational Psychologist]]></source>
<year>1987</year>
<volume>22</volume>
<page-range>155-175</page-range></nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Raudenbush]]></surname>
<given-names><![CDATA[S. W.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Advancing educational policy by advancing research on instruction]]></article-title>
<source><![CDATA[American Educational Research Journal]]></source>
<year>2008</year>
<volume>45</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>206-230</page-range></nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rodriguez]]></surname>
<given-names><![CDATA[M. C.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The role of classroom assessment in pupil performance in TIMSS]]></article-title>
<source><![CDATA[Applied Measurement in Education]]></source>
<year>2004</year>
<volume>17</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>1-24</page-range></nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ruiz-Primo]]></surname>
<given-names><![CDATA[M. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Furtak]]></surname>
<given-names><![CDATA[E. M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Informal formative assessment and scientific inquiry: Exploring teachers' practices and student learning]]></article-title>
<source><![CDATA[Educational Assessment]]></source>
<year>2006</year>
<volume>77</volume>
<numero>3</numero><numero>4</numero>
<issue>3</issue><issue>4</issue>
<page-range>205-235</page-range></nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Scheneider]]></surname>
<given-names><![CDATA[M. C.]]></given-names>
</name>
<name>
<surname><![CDATA[Randel]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Research on characteristics of effective professional development programs for enhancing educators' skills in formative assessment]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Andrade]]></surname>
</name>
<name>
<surname><![CDATA[Cizek]]></surname>
</name>
</person-group>
<source><![CDATA[Handbook of formative assessment]]></source>
<year>2010</year>
<page-range>251-276</page-range><publisher-loc><![CDATA[Nueva YorkLondres ]]></publisher-loc>
<publisher-name><![CDATA[Routledge]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B25">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sly]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Practice tests as formative assessment improve student performance on computer managed learning assessments]]></article-title>
<source><![CDATA[Assessment and Evaluation in Higher Education]]></source>
<year>1999</year>
<volume>24</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>339-343</page-range></nlm-citation>
</ref>
<ref id="B26">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Smith]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
<name>
<surname><![CDATA[Gorard]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[They dont't give us our marks: the role of formative feedback in student progress]]></article-title>
<source><![CDATA[Assesment in Education: principles, policy & practice]]></source>
<year>2005</year>
<volume>72</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>21-38</page-range></nlm-citation>
</ref>
<ref id="B27">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Stiggins]]></surname>
<given-names><![CDATA[R. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Conquering the formative assessment frontier]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[McMillan]]></surname>
<given-names><![CDATA[J. H.]]></given-names>
</name>
</person-group>
<source><![CDATA[Formative classroom assessment: Theory into practice]]></source>
<year>2007</year>
<page-range>8-27</page-range><publisher-loc><![CDATA[Nueva York ]]></publisher-loc>
<publisher-name><![CDATA[Teachers College Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B28">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Stiggins]]></surname>
<given-names><![CDATA[R. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Unfulfilled promise of classroom assessment]]></article-title>
<source><![CDATA[Educational Measurement: Issues & Practice]]></source>
<year>2001</year>
<volume>20</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>5-15</page-range></nlm-citation>
</ref>
<ref id="B29">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Stiggins]]></surname>
<given-names><![CDATA[R. J.]]></given-names>
</name>
<name>
<surname><![CDATA[Arter]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Assessment for learning. International Perspectives. The Proceedings of an International Conference]]></article-title>
<source><![CDATA[Annual Meeting of the National Council on Educational Measurement]]></source>
<year>2002</year>
<publisher-loc><![CDATA[Nueva Orleans ]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B30">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Thompson]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Goe]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Paek]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
<name>
<surname><![CDATA[Ponte]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
</person-group>
<source><![CDATA[Study of the California formative assessment and support system for teachers: Relationship of btsa/cfasst and student achievement]]></source>
<year>2004</year>
<publisher-loc><![CDATA[Princeton ]]></publisher-loc>
<publisher-name><![CDATA[Educational Testing Service]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B31">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Velan]]></surname>
<given-names><![CDATA[G. M.]]></given-names>
</name>
<name>
<surname><![CDATA[Rakesh]]></surname>
<given-names><![CDATA[K. K.]]></given-names>
</name>
<name>
<surname><![CDATA[Mark]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[Wakefield]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Web-based self-assessments in Pathology with questionmark perception]]></article-title>
<source><![CDATA[Pathology]]></source>
<year>2002</year>
<volume>34</volume>
<page-range>282-284</page-range></nlm-citation>
</ref>
<ref id="B32">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Walberg]]></surname>
<given-names><![CDATA[H. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Improving the productivity of America's schools]]></article-title>
<source><![CDATA[Educational Leadership]]></source>
<year>1984</year>
<volume>41</volume>
<numero>8</numero>
<issue>8</issue>
<page-range>19-27</page-range></nlm-citation>
</ref>
<ref id="B33">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wang]]></surname>
<given-names><![CDATA[T. H.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[What strategies are effective for formative assessment in an e-learning environment?]]></article-title>
<source><![CDATA[Journal of Computer Assisted Learning]]></source>
<year>2007</year>
<volume>23</volume>
<page-range>171-186</page-range></nlm-citation>
</ref>
<ref id="B34">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wiliam]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[Lee]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Harrison]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
<name>
<surname><![CDATA[Black]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Teachers developing assessment for learning: Impact on student achievement]]></article-title>
<source><![CDATA[Assessment in Education]]></source>
<year>2004</year>
<volume>11</volume>
<page-range>49-65</page-range></nlm-citation>
</ref>
<ref id="B35">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wininger]]></surname>
<given-names><![CDATA[R. S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Using your tests to teach: Formative summative assessment]]></article-title>
<source><![CDATA[Teaching Psychology]]></source>
<year>2005</year>
<volume>32</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>164-166</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
