<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>1607-4041</journal-id>
<journal-title><![CDATA[Revista electrónica de investigación educativa]]></journal-title>
<abbrev-journal-title><![CDATA[REDIE]]></abbrev-journal-title>
<issn>1607-4041</issn>
<publisher>
<publisher-name><![CDATA[Universidad Autónoma de Baja California, Instituto de Investigación y Desarrollo Educativo]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S1607-40412015000100002</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Estudios sobre prácticas de evaluación en el aula: revisión de la literatura]]></article-title>
<article-title xml:lang="en"><![CDATA[Research on Classroom Assessment Practices: A Literature Review]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Martínez-Rizo]]></surname>
<given-names><![CDATA[Felipe]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Mercado]]></surname>
<given-names><![CDATA[Adriana]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Autónoma de Aguascalientes  ]]></institution>
<addr-line><![CDATA[Aguascalientes ]]></addr-line>
<country>México</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>00</month>
<year>2015</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>00</month>
<year>2015</year>
</pub-date>
<volume>17</volume>
<numero>1</numero>
<fpage>17</fpage>
<lpage>32</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_arttext&amp;pid=S1607-40412015000100002&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_abstract&amp;pid=S1607-40412015000100002&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_pdf&amp;pid=S1607-40412015000100002&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Algunos esfuerzos por mejorar la calidad educativa parten de la idea de que el rendimiento de los alumnos mejora si el maestro utiliza evaluaciones de enfoque formativo, pero las investigaciones al respecto no son concluyentes. Sin embargo, en esos estudios muchas veces la práctica de evaluación ha sido caracterizada como formativa o no formativa considerando sólo la presencia o ausencia de ciertas conductas sin considerar aspectos más finos, como el nivel de demanda cognitiva con que se manejan los contenidos o la forma de dar retroalimentación. Este trabajo sintetiza los resultados de algunos de los pocos trabajos que han buscado expresamente estudiar en detalle las prácticas de evaluación en aula de los maestros. Los resultados orientaran el trabajo de diseño de instrumentos que permitan obtener información de mejor calidad que la habitual sobre las prácticas, como busca la línea de investigación de la que forma parte este trabajo.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[Some efforts to improve the quality of education are based on the idea that student performance improves if teacher uses formative assessment, but research is inconclusive about it. However, in many projects assessment practice has been characterized as formative or not considering only the presence or absence of previously specified behaviors, without considering finer aspects, such as the level of cognitive demand of content, or the way teachers give feedback. This paper summarizes the results of projects that explore in detail teachers' classroom assessment practices. The results will guide the design of tools to gather good quality information about teachers' practices.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Práctica educativa]]></kwd>
<kwd lng="es"><![CDATA[evaluación formativa]]></kwd>
<kwd lng="es"><![CDATA[educación básica]]></kwd>
<kwd lng="es"><![CDATA[estado del conocimiento]]></kwd>
<kwd lng="en"><![CDATA[Educational practice]]></kwd>
<kwd lng="en"><![CDATA[formative evaluation]]></kwd>
<kwd lng="en"><![CDATA[elementary education]]></kwd>
<kwd lng="en"><![CDATA[literature review]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[  	    <p align="justify"><font face="verdana" size="4">Art&iacute;culos</font></p>  	    <p>&nbsp;</p>  	    <p align="center"><font face="verdana" size="4"><b>Estudios sobre pr&aacute;cticas de evaluaci&oacute;n en el aula: revisi&oacute;n de la literatura</b></font></p>  	    <p>&nbsp;</p>  	    <p align="center"><font face="verdana" size="3"><b>Research on Classroom Assessment Practices: A Literature Review</b></font></p>  	    <p>&nbsp;</p>  	    <p align="center"><font face="verdana" size="2"><b>Felipe Mart&iacute;nez&#45;Rizo*, Adriana Mercado*</b></font></p>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><i>* Universidad Aut&oacute;noma de Aguascalientes.</i> <a href="mailto:fmrizo@prodigy.net.mx">fmrizo@prodigy.net.mx</a>, <a href="mailto:amercado@correo.uaa.mx">amercado@correo.uaa.mx</a></font></p>  	    ]]></body>
<body><![CDATA[<p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2">Recibido: 30 de mayo de 2013;    <br> 	Aceptado para su publicaci&oacute;n: 8 de octubre de 2014.</font></p>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>Resumen</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Algunos esfuerzos por mejorar la calidad educativa parten de la idea de que el rendimiento de los alumnos mejora si el maestro utiliza evaluaciones de enfoque formativo, pero las investigaciones al respecto no son concluyentes. Sin embargo, en esos estudios muchas veces la pr&aacute;ctica de evaluaci&oacute;n ha sido caracterizada como formativa o no formativa considerando s&oacute;lo la presencia o ausencia de ciertas conductas sin considerar aspectos m&aacute;s finos, como el nivel de demanda cognitiva con que se manejan los contenidos o la forma de dar retroalimentaci&oacute;n. Este trabajo sintetiza los resultados de algunos de los pocos trabajos que han buscado expresamente estudiar en detalle las pr&aacute;cticas de evaluaci&oacute;n en aula de los maestros. Los resultados orientaran el trabajo de dise&ntilde;o de instrumentos que permitan obtener informaci&oacute;n de mejor calidad que la habitual sobre las pr&aacute;cticas, como busca la l&iacute;nea de investigaci&oacute;n de la que forma parte este trabajo.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Palabras clave:</b> Pr&aacute;ctica educativa, evaluaci&oacute;n formativa, educaci&oacute;n b&aacute;sica, estado del conocimiento.</font></p>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>Abstract</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Some efforts to improve the quality of education are based on the idea that student performance improves if teacher uses formative assessment, but research is inconclusive about it. However, in many projects assessment practice has been characterized as formative or not considering only the presence or absence of previously specified behaviors, without considering finer aspects, such as the level of cognitive demand of content, or the way teachers give feedback. This paper summarizes the results of projects that explore in detail teachers' classroom assessment practices. The results will guide the design of tools to gather good quality information about teachers' practices.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>Keywords:</b> Educational practice; formative evaluation, elementary education; literature review.</font></p>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>I. Introducci&oacute;n</b></font></p>  	    <p align="justify"><font face="verdana" size="2">En la revisi&oacute;n de estudios emp&iacute;ricos sobre el impacto de las pr&aacute;cticas de Evaluaci&oacute;n Formativa (EF) en el aprendizaje de los alumnos (Mart&iacute;nez Rizo, 2012a y 2012b) se ha encontrado que algunos de los trabajos m&aacute;s conocidos, que concluyen que dicho impacto es muy grande incluso en per&iacute;odos cortos de tiempo, adolecen de limitaciones metodol&oacute;gicas claras, que ponen en duda sus conclusiones. Esto no implica que el impacto real sea nulo o negativo, pero s&iacute; que se necesitan trabajos m&aacute;s rigurosos para resolver un debate a&uacute;n abierto (Black y Wiliam, 1998; Dunn y Mulvenon, 2009; Kingston y Nash, 2011; Briggs, Ruiz&#45;Primo, Furtak, Shepard y Yin, 2012).</font></p>  	    <p align="justify"><font face="verdana" size="2">La pol&eacute;mica ha centrado la atenci&oacute;n en las limitaciones de las t&eacute;cnicas de meta&#45;an&aacute;lisis utilizadas para integrar los resultados de trabajos previos sobre el tema, pero estos trabajos presentan otra falla a la que se presta poca atenci&oacute;n y podr&iacute;a explicar mejor la escasa consistencia de los estudios sobre el impacto de la EF: el grado en que las pr&aacute;cticas de evaluaci&oacute;n en aula que se manejaron en esos estudios ten&iacute;an o no en realidad los rasgos propios de una EF.</font></p>  	    <p align="justify"><font face="verdana" size="2">Un buen dise&ntilde;o de investigaci&oacute;n para explorar la posible influencia de la EF sobre el aprendizaje no s&oacute;lo debe controlar la influencia de otras variables; debe tambi&eacute;n medir de la manera m&aacute;s precisa posible tanto la variable dependiente &#151;el aprendizaje&#151; como la independiente, el grado en que las pr&aacute;cticas de evaluaci&oacute;n de los docentes tienen realmente los rasgos que permitan catalogarlas como EF. En muchos casos, sin embargo, las pr&aacute;cticas de los docentes no se miden con un m&iacute;nimo de rigor, sino que se les clasifica como EF con base en la declaraci&oacute;n de los mismos maestros, aunque no necesariamente refleja su pr&aacute;ctica real.</font></p>  	    <p align="justify"><font face="verdana" size="2">Los estudios emp&iacute;ricos enfocados a explorar las pr&aacute;cticas de evaluaci&oacute;n de los docentes son escasos, tal vez porque la complejidad de la pr&aacute;ctica docente hace que en muchos casos no se incluya entre los aspectos explorados. Esto llev&oacute; a realizar una revisi&oacute;n de literatura de textos con resultados de un subconjunto de trabajos emp&iacute;ricos sobre las pr&aacute;cticas de evaluaci&oacute;n en aula de los maestros:</font></p>  	    <blockquote> 		    <p align="justify"><font face="verdana" size="2">&bull;&nbsp;Un libro de Stiggins y Conklin (1992) que recoge trabajos realizados en el sistema educativo de Estados Unidos entre 1980 y 1990.</font></p>  		    <p align="justify"><font face="verdana" size="2">&bull;&nbsp;Tres textos derivados de un estudio de 2008 sobre las pr&aacute;cticas de evaluaci&oacute;n en las primarias de ocho pa&iacute;ses de Am&eacute;rica Latina (Loureiro, 2009; Picaroni, 2009; Ravela, Picaroni y Loureiro 2009).</font></p>  		    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&bull;&nbsp;Tres textos de investigaciones de M&eacute;xico: Vidales y Elizondo (2005); Garc&iacute;a Medina et al. (2011), y Ruiz y P&eacute;rez (en prensa).</font></p> 	</blockquote>  	    <p align="justify"><font face="verdana" size="2">Aunque en los &uacute;ltimos a&ntilde;os est&aacute; aumentando el n&uacute;mero de trabajos sobre las pr&aacute;cticas docentes y, en particular, las pr&aacute;cticas de evaluaci&oacute;n en aula, el tema es relativamente reciente y se ha trabajado sobre todo en pa&iacute;ses anglosajones. Los trabajos al respecto realizados en pa&iacute;ses de habla hispana son particularmente escasos, aunque la literatura sobre evaluaci&oacute;n en general sea abundante.</font></p>  	    <p align="justify"><font face="verdana" size="2">Este trabajo pretende contribuir al desarrollo del campo al revisar trabajos relativamente antiguos, pero que ilustran la forma en que se desarroll&oacute; el tema en el medio estadounidense hace un par de d&eacute;cadas (Stiggins, Arter, Chappuis y Chappuis, 2007), as&iacute; como recientemente en Am&eacute;rica Latina y M&eacute;xico.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Los trabajos de Stiggins y Conklin</b></font></p>  	    <p align="justify"><font face="verdana" size="2">En <i>In teachers' hands,</i> Stiggins y Conklin (1992) describen c&oacute;mo evolucionaron los acercamientos para estudiar las pr&aacute;cticas de evaluaci&oacute;n, a medida que se advert&iacute;a la necesidad de captar de manera confiable aspectos cada vez m&aacute;s complejos:</font></p>  	    <blockquote> 		    <p align="justify"><font face="verdana" size="2">&bull;&nbsp;Primero se realiz&oacute; una revisi&oacute;n de los pocos antecedentes que se pudieron identificar en la literatura. (Cap. 2, pp. 9&#45;30).</font></p>  		    <p align="justify"><font face="verdana" size="2">&bull;&nbsp;Luego se hizo una encuesta con 228 maestros de ocho distritos de distintas regiones de Estados Unidos y se pidi&oacute; a 32 de ellos que llevaran un diario durante diez semanas; recogiendo la versi&oacute;n que los docentes dieron de su propia pr&aacute;ctica, con informaci&oacute;n para indagar si corresponde con lo que realmente hacen. (Cap. 3, pp. 31&#45;52).</font></p>  		    <p align="justify"><font face="verdana" size="2">&bull;&nbsp;Una observaci&oacute;n participante del trabajo docente en tres aulas de sexto de primaria, durante 10 semanas del &uacute;ltimo trimestre del a&ntilde;o, de manera que se asegurara observar cada sal&oacute;n durante al menos 20 d&iacute;as y se incluyeran todos los d&iacute;as de la semana. (Cap. 4, pp. 53&#45;77).</font></p>  		    <p align="justify"><font face="verdana" size="2">&bull;&nbsp;Dos estudios m&aacute;s en ocho aulas de educaci&oacute;n media para construir un marco anal&iacute;tico que sistematizara las dimensiones del constructo "pr&aacute;cticas de evaluaci&oacute;n en aula". (Cap. 5, pp. 79&#45;98).</font></p>  		    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&bull;&nbsp;Con ese marco anal&iacute;tico se hicieron perfiles detallados de las actividades de evaluaci&oacute;n en las ocho aulas. El Cap&iacute;tulo 6 contrasta una clase de historia y otra de econom&iacute;a, mientras en el Cap&iacute;tulo 7 se sintetizan las semejanzas y diferencias de los ocho perfiles estudiados.</font></p>  		    <p align="justify"><font face="verdana" size="2">&bull;&nbsp;Otro estudio explor&oacute; el grado en que los maestros evaluaban diariamente habilidades de alto nivel cognitivo. Se trabaj&oacute; con 36 maestros voluntarios, recogiendo de cuatro a seis ejemplos de evaluaciones recientes aplicadas por los maestros y se les entrevist&oacute; en relaci&oacute;n con ellas, adem&aacute;s de observarlos durante un d&iacute;a. (Cap.8, pp. 154&#45;167).</font></p>  		    <p align="justify"><font face="verdana" size="2">&bull;&nbsp;Un trabajo m&aacute;s explor&oacute; las pr&aacute;cticas de calificaci&oacute;n de 15 maestros, a partir del contenido de algunos textos sobre evaluaci&oacute;n que se utilizan en muchos programas de formaci&oacute;n, para contrastar sus recomendaciones con la pr&aacute;ctica real. (Cap.8, pp. 167&#45;175).</font></p> 	</blockquote>  	    <p align="justify"><font face="verdana" size="2">La revisi&oacute;n del cap&iacute;tulo 2 confirm&oacute; que el ambiente de la d&eacute;cada de 1980 estaba dominado por las pruebas estandarizadas en gran escala, al grado que:</font></p>  	    <blockquote> 		    <p align="justify"><font face="verdana" size="2">(...) uno puede especular que las prioridades de la evaluaci&oacute;n en gran escala han dominado el campo tan completamente y durante tanto tiempo, que los acad&eacute;micos no han logrado siquiera percibir o reconocer que puede haber otras prioridades relacionadas con tipos diferentes de evaluaci&oacute;n, como la que tiene lugar en las aulas. (Stiggins y Conklin, 1992, p. 9).</font></p> 	</blockquote>  	    <p align="justify"><font face="verdana" size="2">Los autores se&ntilde;alan que, pese a su propia capacidad para hacer buenas evaluaciones en gran escala, no sab&iacute;an c&oacute;mo apoyar a los maestros <i>a enfrentar las demandas de la medici&oacute;n del rendimiento de sus alumnos d&iacute;a a d&iacute;a,</i> aunque esto es una dimensi&oacute;n fundamental de la ense&ntilde;anza. Despu&eacute;s de revisar informes de estudios sobre pruebas en gran escala y sobre ense&ntilde;anza, concluyeron que pr&aacute;cticamente no se prestaba atenci&oacute;n a las pr&aacute;cticas de evaluaci&oacute;n del docente.</font></p>  	    <p align="justify"><font face="verdana" size="2">Para evaluar a sus alumnos los docentes no dan gran importancia a las pruebas, sino a sus propias observaciones; en primaria una tercera parte elabora pruebas estandarizadas; en educaci&oacute;n media, alrededor de 75%. Los maestros dicen tener dificultad para elaborar ese tipo de instrumentos. (Stiggins y Conklin, 1992, pp. 12&#45;20).</font></p>  	    <p align="justify"><font face="verdana" size="2">Seg&uacute;n la encuesta respondida por 228 maestros, la proporci&oacute;n que informa no usar pruebas elaboradas por ellos mismos era de 34% en los primeros grados de primaria y bajaba a 11% al fin de la ense&ntilde;anza media, en tanto que los que dicen no usar pruebas ajenas, que al principio de primaria era tambi&eacute;n 34%, aumentan hasta 52% al fin de la ense&ntilde;anza media. En todos los casos alrededor de la mitad (49&#45;52%) se sent&iacute;a c&oacute;modo al usar esos instrumentos y de 9 a 14% consideraba dominarlos. Sin embargo 42% dijo estar preocupado por mejorar sus propias pruebas y otro 19% dijo no tener tiempo para desarrollarlas. Un 28% coment&oacute; no tener preocupaciones al respecto. (Stiggins y Conklin, 1992, pp. 35&#45;41).</font></p>  	    <p align="justify"><font face="verdana" size="2">El an&aacute;lisis de diarios de 32 profesores comprendi&oacute; 290 actividades de evaluaci&oacute;n y mostr&oacute; que, en dos terceras partes, el prop&oacute;sito era calificar o determinar si los alumnos dominaban ciertos contenidos, en 18% diagnosticar y retroalimentar s&oacute;lo en 6%. S&oacute;lo en tres casos se evaluaban habilidades de alta complejidad cognitiva. 40% de las evaluaciones fueron pruebas (24% hechas por el docente); el 60% restante consist&iacute;a en observar el comportamiento de los alumnos o sus trabajos. En general los maestros se mostraban dispuestos a aceptar que sus evaluaciones ten&iacute;an puntos d&eacute;biles, pero no pod&iacute;an analizar en detalle esas debilidades. Se manifest&oacute; consenso de que las pruebas eran limitadas y poco &uacute;tiles para dar informaci&oacute;n diagn&oacute;stica alineada al curr&iacute;culo. (Stiggins y Conklin, 1992, pp. 42&#45;52).</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Los estudios cualitativos pusieron en evidencia la complejidad de las pr&aacute;cticas de evaluaci&oacute;n, que los trabajos anteriores no consegu&iacute;an abarcar. Esos trabajos se hicieron en escuelas de educaci&oacute;n media y sus resultados son consistentes con los de trabajos anteriores en los aspectos m&aacute;s gruesos, pero aportaron elementos nuevos, en particular sobre los niveles de demanda cognitiva de las evaluaciones.</font></p>  	    <p align="justify"><font face="verdana" size="2">En el cap&iacute;tulo 6 se describe el trabajo de un maestro de historia que consideraba que los ex&aacute;menes de los textos eran rutinarios y evaluaban memoria, en tanto que los que elaboraba &eacute;l mismo ten&iacute;an preguntas de todos los niveles de demanda cognitiva, pero el an&aacute;lisis de esos ex&aacute;menes mostr&oacute; que casi todas sus preguntas se enfocaban s&oacute;lo a memorizaci&oacute;n. (Stiggins y Conklin, 1992, pp. 105&#45;106 y 115).</font></p>  	    <p align="justify"><font face="verdana" size="2">Los trabajos que pon&iacute;a en clase tambi&eacute;n inclu&iacute;an principalmente cuestiones de memorizaci&oacute;n (70%), 20% implicaban hacer comparaciones y 10% evaluar textos; estaban ausentes actividades que implicaran an&aacute;lisis o inferencia. Esta tendencia era m&aacute;s marcada en preguntas orales. El maestro sol&iacute;a exponer un tema con datos puntuales y despu&eacute;s preguntaba los mismos datos en los ex&aacute;menes. Las tareas tambi&eacute;n se refer&iacute;an a hechos espec&iacute;ficos, sobre todo las que se hac&iacute;an para preparar a los alumnos para un examen. (Stiggins y Conklin, 1992, pp. 109 y 117).</font></p>  	    <p align="justify"><font face="verdana" size="2">Luego se compara el profesor descrito con otros en varios ambientes de trabajo (asignaturas y grados). Los ex&aacute;menes y las tareas de otros maestros en general ten&iacute;an buen nivel, salvo la evaluaci&oacute;n de habilidades de alto nivel cognitivo, que en la mayor&iacute;a de los casos ten&iacute;a criterios de desempe&ntilde;o y procedimientos de calificaci&oacute;n definidos de manera vaga. (Stiggins y Conklin, 1992, pp. 141).</font></p>  	    <p align="justify"><font face="verdana" size="2">Las pruebas estandarizadas tend&iacute;an a ser consideradas confiables y los maestros trataban de imitarlas, en tanto que las evaluaciones basadas en observaci&oacute;n del desempe&ntilde;o y en preguntas de tipo ensayo eran vistas como subjetivas y menos aceptables, y su uso era m&iacute;nimo. Las actividades de evaluaci&oacute;n ocupaban buena parte del tiempo. El docente promedio dec&iacute;a dedicar alrededor de una cuarta parte del tiempo de clase a ellas y el resto a exposici&oacute;n de temas (40%), instrucci&oacute;n individual (25%) y planeaci&oacute;n (10%). (Stiggins y Conklin, 1992, p. 142 y 145).</font></p>  	    <p align="justify"><font face="verdana" size="2">Por lo que se refiere a la retroalimentaci&oacute;n a los alumnos sobre los resultados de las evaluaciones, las tareas en su mayor&iacute;a eran marcadas con un s&iacute;mbolo y los alumnos recib&iacute;an esa informaci&oacute;n oportunamente. (Stiggins y Conklin, 1992, p. 143).</font></p>  	    <p align="justify"><font face="verdana" size="2">La mayor&iacute;a de los maestros consideraba que ense&ntilde;anza y evaluaci&oacute;n eran cosas separadas, sin relaci&oacute;n entre s&iacute; y no sab&iacute;an c&oacute;mo hacer buen uso de la evaluaci&oacute;n durante la ense&ntilde;anza para hacerla m&aacute;s efectiva. Los maestros dijeron pasar poco tiempo reflexionando sobre la naturaleza o calidad (validez, confiabilidad y valor comunicativo) de sus evaluaciones (Stiggins y Conklin, 1992, pp. 148 y 141).</font></p>  	    <p align="justify"><font face="verdana" size="2">En cuanto a la evaluaci&oacute;n de habilidades de alto nivel cognitivo, la revisi&oacute;n de trabajos previos muestra que los maestros encuentran dif&iacute;cil redactar preguntas de alta demanda cognitiva (Carter, 1984). Seg&uacute;n Fleming y Chambers (1983), de cerca de 9,000 preguntas elaboradas por los maestros, m&aacute;s de 90% se enfocaba al recuerdo de hechos puntuales. Seg&uacute;n Reynolds y Menard (1989) los maestros ignoran los niveles taxon&oacute;micos de Bloom. La proporci&oacute;n de preguntas de memorizaci&oacute;n fue de 56% en los primeros grados de primaria y baj&oacute; a 41% en los &uacute;ltimos de ense&ntilde;anza media; las que implicaban inferencias subieron de 19% en el primer caso a 44% en el &uacute;ltimo. De las preguntas orales, en los primeros grados de primaria el 70% fue de memorizaci&oacute;n y el 17% de inferencia, en tanto que en los &uacute;ltimos grados de ense&ntilde;anza media las proporciones respectivas fueron 42% y 18%. (Stiggins y Conklin, 1992, p. 154&#45;155 y 161&#45;163).</font></p>  	    <p align="justify"><font face="verdana" size="2">Los 15 maestros del &uacute;ltimo estudio consideraron que el esfuerzo del alumno se debe tener en cuenta al calificar su trabajo, adem&aacute;s de su desempe&ntilde;o. La mitad manej&oacute; formas de calificar distintas para alumnos m&aacute;s o menos capaces. 9 de los 15 profesores califican todos los trabajos de los alumnos y no se cuida bien la calidad de la calificaci&oacute;n; la forma de combinar resultados parciales y llegar a una puntuaci&oacute;n num&eacute;rica fue muy arbitraria. (Stiggins y Conklin, 1992, pp. 170&#45;171).</font></p>  	    <p>&nbsp;</p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>II. El proyecto latinoamericano</b></font></p>  	    <p align="justify"><font face="verdana" size="2">El estudio fue realizado en ocho pa&iacute;ses e incluy&oacute; 80 escuelas y 160 maestros de 6o. grado, a los que se aplic&oacute; un cuestionario y una entrevista semiestructurada. Se tomaron 4,360 registros fotogr&aacute;ficos de propuestas de evaluaci&oacute;n y trabajos de estudiantes y se hizo un an&aacute;lisis de los curr&iacute;culos nacionales de los ocho pa&iacute;ses que participaron. Los resultados del estudio se han difundido en tres textos:</font></p>  	    <blockquote> 		    <p align="justify"><font face="verdana" size="2">&bull;&nbsp;Bolet&iacute;n N&uacute;m. 12, <i>Observatorio Regional de Pol&iacute;ticas de Evaluaci&oacute;n Educativa</i> (Ravela, Picaroni y Loureiro, 2009), que presenta sint&eacute;ticamente el estudio, sus objetivos y metodolog&iacute;a y los resultados m&aacute;s importantes.</font></p>  		    <p align="justify"><font face="verdana" size="2">&bull;&nbsp;Picaroni (2009) que muestra hallazgos en relaci&oacute;n con el enfoque y discurso del maestro sobre la evaluaci&oacute;n y su pr&aacute;ctica, la retroalimentaci&oacute;n que da a los alumnos y la comunicaci&oacute;n de resultados a sus padres.</font></p>  		    <p align="justify"><font face="verdana" size="2">&bull;&nbsp;Loureiro (2009) que hace un an&aacute;lisis de las interrelaciones o congruencias que hay entre los curr&iacute;culos nacionales, lo que eval&uacute;an los maestros y lo que eval&uacute;an en los pa&iacute;ses con las pruebas externas estandarizadas.</font></p> 	</blockquote>  	    <p align="justify"><font face="verdana" size="2">En cuanto al tipo de evaluaci&oacute;n que realizan, muchos docentes manifiestan hacer una diagn&oacute;stica al inicio del a&ntilde;o lectivo, para tomar decisiones de planificaci&oacute;n, as&iacute; como una evaluaci&oacute;n al final de cada bimestre. (Picaroni, 2009, p. 19).</font></p>  	    <p align="justify"><font face="verdana" size="2">El discurso se centra en las funciones b&aacute;sicas de la evaluaci&oacute;n (sumativa y formativa), pero de manera poco espec&iacute;fica. Los docentes se limitan a caracterizar las evaluaciones de modo general, y en algunos casos incurren en contradicciones a lo largo de la entrevista, situaci&oacute;n que permite suponer poca solidez de los conceptos expresados. (Picaroni, 2009, p. 41).</font></p>  	    <p align="justify"><font face="verdana" size="2">El instrumento m&aacute;s mencionado es la prueba objetiva o examen; es usado todos los meses, o en forma bimensual o trimestral, principalmente para calificar a los alumnos. Se utilizan instrumentos de aplicaci&oacute;n diaria (tareas, ejercicios, hojas de trabajo, actividades escritas u orales) que conforman lo que se denomina "evaluaci&oacute;n continua". En la mayor&iacute;a de los casos, se realizan en el cuaderno de clase o en forma oral, con apoyo del pizarr&oacute;n. (Picaroni, 2009, pp. 29&#45;30).</font></p>  	    <p align="justify"><font face="verdana" size="2">En el contexto educativo mexicano se valora la disposici&oacute;n y el compromiso de los alumnos, la puntualidad, el inter&eacute;s en las actividades realizadas, la disciplina y la limpieza de los trabajos. La mayor&iacute;a de los docentes no explicita la ponderaci&oacute;n de cada uno de estos elementos, pero enfatiza que el examen es lo que tiene m&aacute;s peso a la hora de promediar los puntos obtenidos por el trabajo realizado a lo largo de un bimestre. (Picaroni, 2009, p. 35).</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">La toma de decisiones de calificaci&oacute;n, aprobaci&oacute;n o reprobaci&oacute;n no se fundamenta en criterios homog&eacute;neos entre los docentes, pese a que existen y est&aacute;n plasmados en los objetivos de los programas escolares para cada materia y grado. En M&eacute;xico los profesores tienen libertad para decidir mediante qu&eacute; actividades los alumnos demostrar&aacute;n su dominio de los contenidos vistos en cada materia y su peso, por lo que al fin de a&ntilde;o no es posible garantizar que todos tengan el mismo nivel de conocimientos, aunque tengan el mismo promedio. (Picaroni, 2009, p. 56).</font></p>  	    <p align="justify"><font face="verdana" size="2">Las normas escolares suelen establecer en forma general objetivos program&aacute;ticos pero de manera poco precisa. En ninguno de los pa&iacute;ses estudiados las normas incluyen un respaldo conceptual de car&aacute;cter descriptivo que asegure la relaci&oacute;n entre la calificaci&oacute;n otorgada a un alumno y los desempe&ntilde;os a los que ella refiere. Ni en las normas de evaluaci&oacute;n ni en los curr&iacute;culos se explicitan en detalle los referentes de la evaluaci&oacute;n. (Picaroni, 2009, p. 60).</font></p>  	    <p align="justify"><font face="verdana" size="2">Las consignas empleadas en las propuestas de evaluaci&oacute;n suelen estar cargadas de ambig&uuml;edades y aspectos impl&iacute;citos, que tal vez sean claros para el docente pero seguramente no lo son para el alumno. Por otra parte, la mayor&iacute;a de las propuestas son puramente escolares, descontextualizadas y sin audiencias medianamente plausibles; son excepcionales las propuestas de evaluaci&oacute;n basadas en actividades aut&eacute;nticas. (Picaroni, 2009, pp. 62 y 42).</font></p>  	    <p align="justify"><font face="verdana" size="2">En cuanto a retroalimentaci&oacute;n a los alumnos, pocos docentes hacen devoluciones en sentido estricto, es decir expresiones que permitan al alumno comparar lo efectivamente realizado con lo que se esperaba que lograra, a fin de comprender las insuficiencias de su trabajo y profundizar en el conocimiento cuando los trabajos est&aacute;n bien logrados. Aunque algunos docentes manejan la distinci&oacute;n entre evaluaci&oacute;n formativa y sumativa, y dicen preferir la primera, en la pr&aacute;ctica muchos califican todos los trabajos y no dan otro tipo de devoluci&oacute;n a los alumnos m&aacute;s all&aacute; de la calificaci&oacute;n. En el mejor de los casos reemplazan la calificaci&oacute;n por juicios del tipo "muy bien" o "debes esforzarte m&aacute;s". (Picaroni, 2009, pp. 85 y 100).</font></p>  	    <p align="justify"><font face="verdana" size="2">Las devoluciones que los maestros hacen a los ni&ntilde;os a partir de sus trabajos no los orientan sobre las formas para avanzar. Se limitan a asignar calificaciones con n&uacute;meros o letras sin informar sobre los aspectos involucrados ni indicar formas de mejorar. Muchos se preocupan por estimular a los alumnos para que se esfuercen, pero no les dan pistas sobre c&oacute;mo hacerlo. (Ravela, Picaroni y Loureiro, 2009, p. 5).</font></p>  	    <p align="justify"><font face="verdana" size="2">Adem&aacute;s de orientar los esfuerzos de los estudiantes, la evaluaci&oacute;n debe servir para que los maestros enfoquen mejor su propio trabajo, a partir del avance de sus alumnos, considerando en particular a los que tienen dificultad para aprender. Pocos docentes desarrollan estrategias did&aacute;cticas a partir de las necesidades cognitivas detectadas gracias a los resultados de los alumnos; en general para enfrentar la situaci&oacute;n de los alumnos de resultados m&aacute;s bajos los docentes apelan a factores emocionales y al esfuerzo personal de esos alumnos, sin hacer ajustes en su propia pr&aacute;ctica. (Picaroni, 2009, pp. 101&#45;102).</font></p>  	    <p align="justify"><font face="verdana" size="2">Otros destinatarios de la retroalimentaci&oacute;n son los padres de familia, que deber&iacute;an recibir informaci&oacute;n que permita apoyar mejor a sus hijos. Sin embargo el trabajo mostr&oacute; que hay pocas diferencias en los pa&iacute;ses estudiados en este sentido: las diferencias se refieren a aspectos menos sustantivos, como la forma de expresar la calificaci&oacute;n. Casi siempre la informaci&oacute;n que reciben las familias sobre el logro de sus hijos est&aacute; centrada en la calificaci&oacute;n, que s&oacute;lo dan cuenta de una posici&oacute;n relativa en una escala de valoraci&oacute;n. (Ravela, Picaroni y Loureiro, 2009, p. 5).</font></p>  	    <p align="justify"><font face="verdana" size="2">Los curr&iacute;culos de los pa&iacute;ses estudiados se enfocan al desarrollo de competencias y habilidades; destacan la importancia de no limitar la educaci&oacute;n a la transmisi&oacute;n de conocimientos que deber&iacute;an aplicarse en situaciones varias en la vida diaria; describen a la evaluaci&oacute;n como un proceso que debe ser continuo, permanente y flexible; y se&ntilde;alan la necesidad de elaborar evaluaciones diagn&oacute;sticas, adem&aacute;s de formativas y sumativas. (Loureiro, 2009, p. 14).</font></p>  	    <p align="justify"><font face="verdana" size="2">Los curr&iacute;culos analizados se centran en el desarrollo de competencias, pero la mayor&iacute;a de tareas asignadas no involucra contextos reales y complejos (Loureiro, 2009: 101). En el discurso, los maestros dicen cumplir con lo establecido en el curr&iacute;culo, pero creen que son necesarias algunas adecuaciones para incluir conocimientos no expl&iacute;citos en &eacute;l. Adem&aacute;s, aun cuando los maestros dicen cumplir con el curr&iacute;culo, se encontraron evidencias de que no siempre toman en cuenta metodolog&iacute;as y enfoques did&aacute;cticos sugeridos en el mismo. (Loureiro, 2009, p. 103).</font></p>  	    <p align="justify"><font face="verdana" size="2">Otro aspecto del estudio se refiere al impacto que tienen sobre el trabajo docente las evaluaciones externas.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En unos pa&iacute;ses estudiados las evaluaciones nacionales proponen actividades significativas, con tareas de complejidad cognitiva que pocas veces se encuentra en las propuestas elaboradas por los maestros (Loureiro, 2009, p. 104). Esas evaluaciones en gran escala est&aacute;n m&aacute;s avanzadas y en l&iacute;nea con los desarrollos de la did&aacute;ctica que las propuestas que se implementan en las aulas. Este hallazgo contradice la extendida idea de que las evaluaciones externas son memor&iacute;sticas, est&aacute;n focalizadas en los resultados y desconocen los procesos de aprendizaje de los estudiantes, todo lo cual s&oacute;lo ser&iacute;a contemplado en la evaluaci&oacute;n que hacen los maestros en el aula. Si esto es verdad, las evaluaciones externas podr&iacute;an apoyar la tarea diaria de los docentes, pero los efectos pueden ser ambivalentes: unos maestros pueden apropiarse las evaluaciones externas como herramientas, y aprovecharlas en funci&oacute;n de su propia propuesta educativa, pero para otros pueden servir simplemente para "llenar el tiempo" y entrenar a los alumnos para responder pruebas estandarizadas. (Ravela, Picaroni y Loureiro, 2009, p. 11&#45;12).</font></p>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>III. Estudios mexicanos</b></font></p>  	    <p align="justify"><font face="verdana" size="2"><b>3.1 El trabajo de Vidales y Elizondo</b></font></p>  	    <p align="justify"><font face="verdana" size="2">El texto recoge resultados de un proyecto realizado en el estado de Nuevo Le&oacute;n, sobre pr&aacute;cticas de evaluaci&oacute;n de docentes de primaria. Un an&aacute;lisis documental fue seguido por entrevistas semi&#45;estructuradas con informantes clave, y luego se trabaj&oacute; con una muestra de 313 docentes de primarias p&uacute;blicas del estado.</font></p>  	    <p align="justify"><font face="verdana" size="2">La idea que tienen los maestros sobre la evaluaci&oacute;n es fragmentada y dispersa, limit&aacute;ndose a reproducir la terminolog&iacute;a de los cursos de actualizaci&oacute;n, por lo que las actividades de evaluaci&oacute;n que llevan a cabo en el aula tienen cierto sustento te&oacute;rico, pero no siempre bien entendido o utilizado en forma consciente. Por ello, para elaborar instrumentos o asignar calificaciones, los maestros tienden a guiarse por su experiencia m&aacute;s que por principios te&oacute;ricos, que suelen estar ausentes, en opini&oacute;n de supervisores y jefes de sector. Algunas personas, sin embargo, piensan que no hay tal desconocimiento te&oacute;rico, sino m&aacute;s bien resistencias debido al exceso de carga administrativa. (Vidales y Elizondo, 2005, p. 184).</font></p>  	    <p align="justify"><font face="verdana" size="2">En el discurso muchos maestros coinciden en que <i>se eval&uacute;a para mejorar la pr&aacute;ctica docente y los desempe&ntilde;os de los alumnos en conocimientos, habilidades, actitudes v valores.</i> En la pr&aacute;ctica prevalece la visi&oacute;n de que la evaluaci&oacute;n es un evento temporal (bimestral, mensual o semanal) que sirve para sustentar juicios sobre aprobaci&oacute;n o reprobaci&oacute;n de los alumnos, <i>un requisito para dar resultados num&eacute;ricos a la administraci&oacute;n.</i> Estas opiniones son reforzadas por una cultura en la que padres y autoridades ven la evaluaci&oacute;n como formalismo que da evidencias cuantitativas del avance de sus hijos. (Vidales y Elizondo, 2005, p. 185).</font></p>  	    <p align="justify"><font face="verdana" size="2">Seg&uacute;n la opini&oacute;n de supervisores y jefes de sector, un alto porcentaje de escuelas y maestros compran ex&aacute;menes a editoriales y otras instancias. Para los ex&aacute;menes bimestrales la cifra podr&iacute;a llegar hasta 80%. Sin embargo, una amplia mayor&iacute;a de los directores (72%) sostiene que en sus escuelas los ex&aacute;menes son hechos por los maestros, y s&oacute;lo 28% reconoce que los adquieren de instancias externas.</font></p>  	    <p align="justify"><font face="verdana" size="2">De los maestros que informan que elaboran sus propios ex&aacute;menes, 66% dice hacerlo en forma individual y 34% en parejas o colegialmente. Sin embargo parece haber falta de capacitaci&oacute;n en el manejo de los materiales curriculares en que se deber&iacute;an basar las evaluaciones; pocos maestros los usan y muchos <i>no entienden sus prop&oacute;sitos o consideran que las formas de evaluaci&oacute;n sugeridas son muy complicadas y laboriosas;</i> por ello los ex&aacute;menes se suelen limitar a verificar cu&aacute;ntos datos aprendi&oacute; el ni&ntilde;o.</font></p>  	    <p align="justify"><font face="verdana" size="2">Seg&uacute;n los maestros prevalece el uso de ex&aacute;menes escritos y, al parecer, son los docentes de m&aacute;s antig&uuml;edad en el servicio los que menos utilizan esos recursos. Esto parecer&iacute;a indicio de que la falta de experiencia, o las deficiencias en la formaci&oacute;n de las generaciones m&aacute;s recientes de maestros, podr&iacute;an explicar que los maestros m&aacute;s j&oacute;venes sean quienes m&aacute;s recurren a la adquisici&oacute;n de ex&aacute;menes ya elaborados, dada su falta de preparaci&oacute;n para hacerlos ellos mismos. (Vidales y Elizondo, 2005, p. 189).</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En cuanto a la informaci&oacute;n derivada de las evaluaciones que se entrega a los padres, no hay informes amplios ni se da seguimiento a los resultados del proceso educativo; <i>s&oacute;lo se entregan las boletas de calificaci&oacute;n y las observaciones de apoyo a los hijos, de felicitaci&oacute;n o de descalificaci&oacute;n.</i> (Vidales y Elizondo, 2005, p. 194).</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>3.2 El estudio del Instituto Nacional para la Evaluaci&oacute;n de la Educaci&oacute;n</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Entre 2009 y 2010 se dise&ntilde;&oacute; y aplic&oacute; un cuestionario sobre sus propias pr&aacute;cticas de evaluaci&oacute;n a 3534 profesores de 1193 escuelas de todo M&eacute;xico, otro a 17908 alumnos y otro a los directores de los mismos planteles. La muestra de escuelas fue aleatoria y se calcul&oacute; para que fuera representativa a nivel nacional.</font></p>  	    <p align="justify"><font face="verdana" size="2">Seg&uacute;n el trabajo, la mayor&iacute;a de docentes de primaria dicen utilizar la evaluaci&oacute;n para mejorar el aprendizaje y la ense&ntilde;anza, en forma congruente con un enfoque formativo. El 17% de los maestros encuestados afirm&oacute; que eval&uacute;a para saber c&oacute;mo apoyar a los alumnos y 11% dijo hacerlo para planear y conducir sus clases. Un 43% dice emplear la evaluaci&oacute;n sobre todo como medio para identificar problemas en el aprendizaje de los alumnos. (Garc&iacute;a Medina et al., 2011, p. 28).</font></p>  	    <p align="justify"><font face="verdana" size="2">La mayor&iacute;a de los docentes (68%) aplican ex&aacute;menes escritos bimestralmente (lo que coincide con el periodo establecido en la normativa para emitir calificaciones); 31% de los maestros lo hace mensual, quincenal o semanalmente y menos de 1% no los utiliza. Las preguntas orales son utilizadas frecuentemente por el 61% de los maestros. (Garc&iacute;a Medina et al., 2011, p. 71 &#45;72).</font></p>  	    <p align="justify"><font face="verdana" size="2">En espa&ntilde;ol, la escritura de distintos textos y la lectura en voz alta son acciones de evaluaci&oacute;n utilizadas con frecuencia por un mayor porcentaje de profesores: 67% dijo hacerlo en el bimestre. En cuanto a escritura, los maestros tienden a evaluar con mayor frecuencia la segmentaci&oacute;n de las palabras y menos la claridad de la expresi&oacute;n de las ideas. Y en cuanto a lectura, el respeto de signos de puntuaci&oacute;n y la dicci&oacute;n o pronunciaci&oacute;n de las palabras son los aspectos que m&aacute;s profesores consideraron importantes para valorar. (Garc&iacute;a Medina, Aguilera, P&eacute;rez y Mu&ntilde;oz, 2011, pp. 44, 48&#45;49).</font></p>  	    <p align="justify"><font face="verdana" size="2">En matem&aacute;ticas s&oacute;lo cuatro de cada 10 profesores utilizan problemas con mucha frecuencia para evaluar la asignatura. El 74% usa muy frecuentemente la actividad "resolver operaciones" para evaluar a sus alumnos. La actividad a la que recurren de manera m&aacute;s frecuente la mayor&iacute;a de los docentes (82%) es resolver problemas en los que se tengan que hacer operaciones. (Garc&iacute;a Medina, Aguilera, P&eacute;rez y Mu&ntilde;oz, 2011, pp. 49&#45;50).</font></p>  	    <p align="justify"><font face="verdana" size="2">Por lo que se refiere a los niveles de demanda cognitiva que se manejan en las evaluaciones, algunos resultados del estudio del INEE van en el sentido de un uso considerable de actividades que implican niveles cognitivos altos. Los maestros mexicanos usar&iacute;an con m&aacute;s frecuencia actividades de niveles altos e intermedios de complejidad, y con menor frecuencia las actividades de complejidad baja como memorizaci&oacute;n o razonamiento. Las primarias generales tuvieron porcentajes m&aacute;s bajos en las actividades de demanda cognitiva baja y mayores en casi todas las de nivel de complejidad alta. (Garc&iacute;a Medina, Aguilera, P&eacute;rez y Mu&ntilde;oz, 2011, pp. 52 y 56).</font></p>  	    <p align="justify"><font face="verdana" size="2">Estos resultados no son consistentes con los que se refieren a la calificaci&oacute;n de las evaluaciones, que apuntan en el sentido de que los aspectos m&aacute;s importantes para dar una nota fueron atenci&oacute;n y participaci&oacute;n en clase (71%), y calificaci&oacute;n en los trabajos en clase (48%). Adem&aacute;s 63% de los maestros califica "considerando aciertos y errores" de forma cotidiana. (Garc&iacute;a Medina, Aguilera, P&eacute;rez y Mu&ntilde;oz, 2011, pp. 55 y 77).</font></p>  	    <p align="justify"><font face="verdana" size="2">Menos de 10% de los profesores utilizan ejemplos de malos trabajos para que los alumnos identifiquen lo que no deben hacer. La pr&aacute;ctica m&aacute;s extendida (74%) es que los maestros indiquen a los alumnos las caracter&iacute;sticas requeridas para considerar de buena calidad un trabajo, pero esto no se acompa&ntilde;a por una pr&aacute;ctica de modelamiento. (Garc&iacute;a Medina, Aguilera, P&eacute;rez y Mu&ntilde;oz, 2011, pp. 72 y 75).</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En cuanto a retroalimentaci&oacute;n 70% de los profesores usan con frecuencia firmas o sellos, aunque no digan mucho al alumno. Una evaluaci&oacute;n realmente formativa consiste en explicar c&oacute;mo solucionar los errores cometidos, y algo m&aacute;s de 70% de los maestros dice utilizar esta estrategia de forma cotidiana. Aunque la cifra parece muy alta y su coincidencia con la anterior hace dudar de su validez, la opini&oacute;n de los alumnos parece coincidir, pues cuando se les pregunt&oacute; si sus maestros los apoyaban donde ten&iacute;an m&aacute;s problemas para aprender, y si hablaban con ellos sobre lo que necesitar&iacute;an hacer para mejorar su aprendizaje, en m&aacute;s del 70% de los grupos la mayor&iacute;a de los estudiantes afirm&oacute; que sus profesores hac&iacute;an de forma frecuente ambas actividades. (Garc&iacute;a Medina, Aguilera, P&eacute;rez y Mu&ntilde;oz, 2011, pp. 76&#45;78).</font></p>  	    <p align="justify"><font face="verdana" size="2">Lo anterior es poco congruente con otros resultados del estudio que indican que ense&ntilde;ar a los alumnos a autoevaluarse es actividad poco frecuente de la mayor&iacute;a de los profesores: s&oacute;lo 13% de los maestros suele pedir a sus alumnos que se autoeval&uacute;en y 46% nunca lo hace. S&oacute;lo 20% de los docentes incluye entre sus pr&aacute;cticas cotidianas dar gu&iacute;as o indicaciones para que los alumnos se autoeval&uacute;en o coeval&uacute;en y casi 40% nunca lo hace. (Garc&iacute;a Medina, Aguilera, P&eacute;rez y Mu&ntilde;oz, 2011, pp. 78&#45;79).</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>3.3 Diagn&oacute;stico de pr&aacute;cticas de evaluaci&oacute;n de maestros de Nuevo Le&oacute;n</b></font></p>  	    <p align="justify"><font face="verdana" size="2">El estudio se bas&oacute; en una muestra representativa de primarias p&uacute;blicas, con 96 escuelas, 409 docentes (de 2&deg;, 5&deg; y 6&deg; grado) y 3,358 alumnos de sexto. Se aplic&oacute; un cuestionario estructurado a los maestros y una entrevista semi&#45;estructurada a uno por escuela. Se recogieron evidencias de evaluaciones de Matem&aacute;ticas y Espa&ntilde;ol. A los alumnos de sexto se aplic&oacute; adem&aacute;s un cuestionario estructurado.</font></p>  	    <p align="justify"><font face="verdana" size="2">Casi todos los maestros dijeron haber hecho evaluaci&oacute;n diagn&oacute;stica y siete de cada diez lo hizo en forma inmediata al inicio del ciclo escolar. M&aacute;s de 90% dijo que para ese diagn&oacute;stico observaba trabajar a sus alumnos, aplicaba ex&aacute;menes y revisaba antecedentes acad&eacute;micos; m&aacute;s de 80% dijo haber entrevistado a los alumnos o a sus padres; m&aacute;s de 70% dice que su planeaci&oacute;n se basa en la informaci&oacute;n de esos ejercicios; y m&aacute;s de 50% refiere que entrega a cada alumno sus resultados haciendo recomendaciones.</font></p>  	    <p align="justify"><font face="verdana" size="2">Las pr&aacute;cticas m&aacute;s frecuentes, seg&uacute;n los maestros, son dar retroalimentaci&oacute;n individual a los alumnos (84%); involucrarlos en la autoevaluaci&oacute;n de su avance (78%); y darles oportunidades para tomar decisiones y hacerse cargo de la forma en que aprender&aacute;n un tema (75%). Un n&uacute;mero menor dice que suele fomentar que los alumnos discutan su avance en relaci&oacute;n con objetivos centrales de aprendizaje (53%). S&oacute;lo 32% dice que limita el n&uacute;mero de trabajos a los que asigna puntos para que los alumnos se concentren m&aacute;s en aprender que en la calificaci&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2">En cuanto a los alumnos de menor rendimiento, m&aacute;s del 80% de los maestros dice que les indica las causas de sus errores al menos una vez por semana; 76% que les pide hacer actividades extra de refuerzo; 68% que les da materiales especiales para reforzar contenidos; 62% que lleva un seguimiento detallado de su avance; y 56% que dedica tiempo fuera de la clase para apoyar a esos alumnos.</font></p>  	    <p align="justify"><font face="verdana" size="2">Una proporci&oacute;n alta de maestros informa que realiza dos actividades diaria o casi diariamente para asignar calificaciones: revisar tareas y trabajos y observar el desempe&ntilde;o de los alumnos en el aula. M&aacute;s del 80% dice hacer interrogatorios orales o pedir trabajos desde dos veces a la semana hasta una cada 15 d&iacute;as. Pero el instrumento m&aacute;s claramente asociado a la evaluaci&oacute;n bimestral son las pruebas estructuradas que casi todos los maestros aplican: 82% de los alumnos dice haber presentado el examen bimestral; s&oacute;lo 26% dice haber contestado ex&aacute;menes <i>m&aacute;s o menos cada mes;</i> 21% cada semana y 11% <i>m&aacute;s o menos cada dos semanas.</i></font></p>  	    <p align="justify"><font face="verdana" size="2">En la mayor parte de las escuelas los ex&aacute;menes que se aplican son dise&ntilde;ados por los propios docentes, y los que dicen adquirirlos fuera mencionan las siguientes razones: 62% considera que son acordes a los programas de estudio, en tanto que 51% consider&oacute; que elaborar bien ex&aacute;menes propios lleva mucho tiempo. Siete de cada diez maestros revisa y califica los ex&aacute;menes que aplica; el resto favorece la autoevaluaci&oacute;n y la coevaluaci&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2">Casi todos los maestros dicen usar todos los elementos mencionados para llegar a la calificaci&oacute;n bimestral El aspecto m&aacute;s importante seg&uacute;n un mayor n&uacute;mero de maestros es el desempe&ntilde;o en clase, seguido por los ejercicios en el cuaderno, el portafolio y los ejercicios de los libros de texto. Los resultados de ex&aacute;menes, en cambio, ocupan el quinto lugar entre los puntos considerados para la calificaci&oacute;n. Nueve de cada diez docentes dice informar a sus alumnos sobre los aprendizajes a evaluar en cada bimestre y los criterios de evaluaci&oacute;n. Uno de cada tres dice dar a los padres un reporte escrito con informaci&oacute;n sobre el desempe&ntilde;o de sus hijos.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Seg&uacute;n los alumnos, 45% de los maestros explican en detalle c&oacute;mo van a calificar y 34% lo hacen en forma general. Dos de cada tres alumnos dicen que sus maestros brindan apoyo <i>bastantes veces o casi siempre</i> cuando tienen problemas para aprender, pero uno de cada tres se&ntilde;ala que ese apoyo lo reciben <i>pocas veces</i> o <i>nunca.</i></font></p>  	    <p align="justify"><font face="verdana" size="2">Las formas de apoyo m&aacute;s se&ntilde;aladas son: <i>trabaja con ellos a la hora del recreo o despu&eacute;s de clases</i> (33%); <i>los pone a hacer trabajos extra o diferentes</i> (33%); y <i>los deja trabajando solos a la hora del recreo o despu&eacute;s de clases</i> (26%). Poco m&aacute;s de una cuarta parte de los alumnos (28%) se&ntilde;ala que <i>el maestro no hace nada en especial.</i> Seg&uacute;n 57% de los alumnos, la actividad m&aacute;s frecuente de su maestro a fin de prepararlos para un examen es <i>indicarles temas a estudiar;</i> 38% dice que el maestro <i>indica p&aacute;ginas de los textos comprendidas en el examen.</i> Otras pr&aacute;cticas que implican m&aacute;s trabajo del profesor son menos usadas, seg&uacute;n los alumnos: 42% darles un temario o cuestionario para el examen; 34% repasar con el grupo los temas que ser&aacute;n cubiertos; y 27% repasar las preguntas que vendr&aacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2">La compra de ex&aacute;menes bimestrales, seg&uacute;n los docentes, ocurre s&oacute;lo en una tercera parte de los casos y <i>la relaci&oacute;n de las preguntas que vienen en el examen con los temas vistos en clase</i> es muy alta; 50% opina que <i>casi todas las preguntas</i> muestran correspondencia y 35% que sucede con <i>la mayor parte de preguntas;</i> s&oacute;lo 15% opina que los ex&aacute;menes son en general ajenos a los temas vistos.</font></p>  	    <p align="justify"><font face="verdana" size="2">Un 78% de los alumnos considera que las preguntas <i>en su mayor&iacute;a son f&aacute;ciles, pero hay algunas dif&iacute;ciles</i> y 13% que todas las preguntas son f&aacute;ciles. Los alumnos reportan como pr&aacute;ctica frecuente que los ex&aacute;menes son devueltos ya calificados (58%) y s&oacute;lo 23% dice participar en la calificaci&oacute;n. De las pruebas externas la gran mayor&iacute;a de los alumnos dicen que son preparados para ellas por sus maestros: 15% con m&aacute;s de un mes de anticipaci&oacute;n; 17% un mes antes; 31% dos semanas antes; y 31% una semana o menos antes. La preparaci&oacute;n incluye <i>dedicar tiempo de algunas materias a repasar temas que vendr&aacute;n en la prueba</i> (55%); <i>indicar temas a estudiar</i> (51%); y <i>resolver pruebas de a&ntilde;os anteriores</i> (40%).</font></p>  	    <p align="justify"><font face="verdana" size="2">Casi todos los alumnos reportan la entrega de calificaciones bimestrales, variando la informaci&oacute;n adicional que dan los maestros. La forma m&aacute;s com&uacute;n de devoluci&oacute;n es entregar calificaciones comentando razones (37%) y entregar calificaciones con los ex&aacute;menes o trabajos (25%). Menos usual es dar calificaci&oacute;n sin comentario (12%) y con comentarios escritos (11%). En conjunto, seis de cada diez alumnos dicen recibir alg&uacute;n tipo de devoluci&oacute;n adem&aacute;s de su calificaci&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2">En cuanto al contenido de la devoluci&oacute;n que hacen los docentes, 50% de los alumnos informan que el maestro les dice en qu&eacute; se deben fijar para ver si est&aacute; bien o mal hecho su trabajo; 12% que les ense&ntilde;a otros ex&aacute;menes o trabajos bien hechos para que comparen el suyo; 32% que platica sobre lo que necesitan hacer para mejorar su aprendizaje; 42% que da consejos sobre lo que deben hacer para mejorar; y 10% dice que el maestro no hace nada en especial.</font></p>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>IV. Conclusi&oacute;n</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Stiggins y Conklin (1992, p. 4) afirman que los cimientos de las reformas educativas <i>ser&aacute;n d&eacute;biles como arena si permanecemos mal informados sobre la naturaleza, el papel y la calidad de la evaluaci&oacute;n en aula.</i></font></p>  	    <p align="justify"><font face="verdana" size="2">Buenas investigaciones sobre las pr&aacute;cticas de evaluaci&oacute;n ser&aacute;n el mejor punto de partida de esfuerzos para que los maestros desarrollen su competencia para hacer evaluaciones que apoyen el aprendizaje de sus alumnos. Esta revisi&oacute;n de literatura lleva a formular una hip&oacute;tesis que podr&aacute; guiar trabajos posteriores.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">La revisi&oacute;n de trabajos previos muestra que, por lo general, los maestros dicen estar de acuerdo con la evaluaci&oacute;n formativa, pero varios elementos hacen temer que su pr&aacute;ctica no sea congruente con sus concepciones y creencias:</font></p>  	    <blockquote> 		    <p align="justify"><font face="verdana" size="2">&bull;&nbsp;El que los obst&aacute;culos para implementar pr&aacute;cticas formativas seg&uacute;n los maestros sean principalmente el tama&ntilde;o de los grupos y la falta de tiempo.</font></p>  		    <p align="justify"><font face="verdana" size="2">&bull;&nbsp;La excesiva importancia que al parecer siguen dando los maestros a la calificaci&oacute;n de todos o casi todos los instrumentos de evaluaci&oacute;n que utilizan.</font></p>  		    <p align="justify"><font face="verdana" size="2">&bull;&nbsp;Cierta contradicci&oacute;n en las percepciones de los maestros sobre sus propias competencias para hacer evaluaci&oacute;n formativa: predomina una visi&oacute;n muy positiva sobre las competencias que se tienen, pero la mayor&iacute;a coincide en que es necesario o incluso muy necesario recibir apoyo o formaci&oacute;n para desarrollar mejor esta important&iacute;sima dimensi&oacute;n del quehacer docente.</font></p> 	</blockquote>  	    <p align="justify"><font face="verdana" size="2">Por otra parte, parecer&iacute;a haber una buena alineaci&oacute;n entre ense&ntilde;anza y evaluaci&oacute;n, pero hay tambi&eacute;n bases para plantear una hip&oacute;tesis en cuanto a la predominancia de prop&oacute;sitos educativos de baja demanda cognitiva como posible explicaci&oacute;n. Un indicio es la masiva opini&oacute;n de los alumnos de que los ex&aacute;menes que responden son f&aacute;ciles, que puede indicar que las preguntas tienen bajo nivel de demanda cognitiva.</font></p>  	    <p align="justify"><font face="verdana" size="2">La alineaci&oacute;n entre ense&ntilde;anza y evaluaci&oacute;n puede ser real, con tareas de baja demanda cognitiva en una y otra. De ser as&iacute;, muchos hallazgos cobrar&iacute;an sentido y se confirmar&iacute;a que cambiar las pr&aacute;cticas de evaluaci&oacute;n supondr&aacute; esfuerzos prolongados y consistentes.</font></p>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>Referencias</b></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Black, P. y Wiliam D. (1998). Assessment and classroom learning. <i>Assessment in Education: Principles, Policy and Practice, 5</i>(1), 7&#45;75.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7035817&pid=S1607-4041201500010000200001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Briggs, D., Ruiz&#45;Primo, A., Furtak, E., Shepard L. y Yin, Y. (2012). Meta&#45;analytic methodology and inferences about the efficacy of formative assessment. <i>Educational Measurement: Issues and Practice, 31</i>(4), 13&#45;17.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7035819&pid=S1607-4041201500010000200002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Carter, K. (1984). Do teachers understand the principles for writing test? <i>Journal of Teacher Education, 35</i>(6), 57&#45;60.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7035821&pid=S1607-4041201500010000200003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Dunn, K. y Mulvenon, S. (2009). A critical review of research on formative assessments: The limited scientific evidence of the impact of formative assessments in education. <i>Practical Assessment Research &amp; Evaluation, 14</i>(7). Recuperado de <a href="http://pareonline.net/getvn.asp?v=14&amp;n=7" target="_blank">http://pareonline.net/getvn.asp?v=14&amp;n=7</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7035823&pid=S1607-4041201500010000200004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Fleming, M. y Chambers, B. (1983). Teacher&#45;made tests: Window on the classroom. En W. E. Hathaway (Ed). <i>Testing in the schools. New directions for testing and measurement</i> (pp. 29&#45;38). San Francisco, CA: Jossey Bass.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7035825&pid=S1607-4041201500010000200005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Garc&iacute;a Medina, A., Aguilera, M. A., P&eacute;rez, M. G. y Mu&ntilde;oz, G. (2011). <i>Evaluaci&oacute;n de los aprendizajes en el aula. Opiniones y pr&aacute;cticas de docentes de primaria en M&eacute;xico.</i> M&eacute;xico: Instituto Nacional para la Evaluaci&oacute;n de la Educaci&oacute;n.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7035827&pid=S1607-4041201500010000200006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Kingston, N. y Nash, B. (2012). How many formative assessment angels can dance on the head of a meta&#45;analytic pin. <i>Educational Measurement: Issues and Practice, 31</i>(4), 18&#45;19.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7035829&pid=S1607-4041201500010000200007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Kingston, N. y Nash, B. (2011). Formative assessment: meta&#45;analysis &amp; call for research. <i>Educational Measurement: Issues &amp; Practice,</i> 30(4), 28&#45;37.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7035831&pid=S1607-4041201500010000200008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Loureiro, G. (2009). <i>Evaluaci&oacute;n en el aula, curr&iacute;culo y evaluaciones externas.</i> Universidad Cat&oacute;lica del Uruguay y GTEE&#45;PREAL.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7035833&pid=S1607-4041201500010000200009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Mart&iacute;nez Rizo, F. (2012a). <i>La evaluaci&oacute;n en el aula: promesas y desaf&iacute;os de la evaluaci&oacute;n formativa.</i> M&eacute;xico: Universidad Aut&oacute;noma de Aguascalientes.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7035835&pid=S1607-4041201500010000200010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Mart&iacute;nez Rizo, F. (2012b). La evaluaci&oacute;n formativa del aprendizaje en el aula en la bibliograf&iacute;a en ingl&eacute;s y franc&eacute;s. Revisi&oacute;n de literatura. <i>Revista Mexicana de Investigaci&oacute;n Educativa,</i> 17(54), 849&#45;875.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7035837&pid=S1607-4041201500010000200011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Picaroni, B. (2009). <i>La evaluaci&oacute;n en las aulas de primaria: usos formativos, calificaciones y comunicaci&oacute;n con los padres.</i> Universidad Cat&oacute;lica del Uruguay y Grupo de Trabajo sobre Est&aacute;ndares y Evaluaci&oacute;n &#91;GTEE&#45;PREAL&#93;    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7035839&pid=S1607-4041201500010000200012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->.</font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Ravela, P., Picaroni B. y Loureiro, G. (2009). <i>La evaluaci&oacute;n de aprendizajes en las aulas de 6o. grado en Am&eacute;rica Latina.</i> Observatorio Regional de Pol&iacute;ticas de Evaluaci&oacute;n Educativa. Bolet&iacute;n No. 12, 1&#45;12. GTEE&#45;PREAL.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7035841&pid=S1607-4041201500010000200013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Reynolds, W. M. y Menard, K. A. (1980). <i>An investigation of teachers' test construction practices.</i> Ponencia presentada en la reuni&oacute;n anual del <i>National Council of Measurement in Education.</i> Boston, Massachusetts.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7035843&pid=S1607-4041201500010000200014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Ruiz, G. y P&eacute;rez, G. (en prensa). Creencias y pr&aacute;cticas de evaluaci&oacute;n en aula de maestros de educaci&oacute;n primaria de Nuevo Le&oacute;n. En G. Ruiz (Ed.), <i>La evaluaci&oacute;n en el aula: Diagn&oacute;stico</i> (Cap. 2). M&eacute;xico: Universidad Aut&oacute;noma de Aguascalientes.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7035845&pid=S1607-4041201500010000200015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Stiggins, R. J., Arter, J., Chappuis, J. y Chappuis, S. (2007). <i>Classroom assessment for student learning. Doing it right&#45;using it well.</i> Upper Saddle River, NJ: Pearson.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7035847&pid=S1607-4041201500010000200016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Stiggins, R. y Conklin, N. (1992). <i>In teacher's hands: Investigating practices of classroom assessment.</i> Albany, State University of New York Press.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7035849&pid=S1607-4041201500010000200017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Vidales, I. y Elizondo, M. D. (2005). <i>Pr&aacute;cticas de evaluaci&oacute;n escolar en el nivel de educaci&oacute;n primaria en el Estado de Nuevo Le&oacute;n.</i> M&eacute;xico: CAEIP/Santillana.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7035851&pid=S1607-4041201500010000200018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Black]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
<name>
<surname><![CDATA[Wiliam]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Assessment and classroom learning]]></article-title>
<source><![CDATA[Assessment in Education: Principles, Policy and Practice]]></source>
<year>1998</year>
<volume>5</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>7-75</page-range></nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Briggs]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[Ruiz-Primo]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Furtak]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
<name>
<surname><![CDATA[Shepard]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
<name>
<surname><![CDATA[Yin]]></surname>
<given-names><![CDATA[Y.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Meta-analytic methodology and inferences about the efficacy of formative assessment]]></article-title>
<source><![CDATA[Educational Measurement: Issues and Practice]]></source>
<year>2012</year>
<volume>31</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>13-17</page-range></nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Carter]]></surname>
<given-names><![CDATA[K.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Do teachers understand the principles for writing test?]]></article-title>
<source><![CDATA[Journal of Teacher Education]]></source>
<year>1984</year>
<volume>35</volume>
<numero>6</numero>
<issue>6</issue>
<page-range>57-60</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Dunn]]></surname>
<given-names><![CDATA[K.]]></given-names>
</name>
<name>
<surname><![CDATA[Mulvenon]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A critical review of research on formative assessments: The limited scientific evidence of the impact of formative assessments in education]]></article-title>
<source><![CDATA[Practical Assessment Research & Evaluation]]></source>
<year>2009</year>
<volume>14</volume>
<numero>7</numero>
<issue>7</issue>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Fleming]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Chambers]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Teacher-made tests: Window on the classroom]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Hathaway]]></surname>
<given-names><![CDATA[W. E.]]></given-names>
</name>
</person-group>
<source><![CDATA[Testing in the schools. New directions for testing and measurement]]></source>
<year>1983</year>
<page-range>29-38</page-range><publisher-loc><![CDATA[San Francisco^eCA CA]]></publisher-loc>
<publisher-name><![CDATA[Jossey Bass]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[García Medina]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Aguilera]]></surname>
<given-names><![CDATA[M. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Pérez]]></surname>
<given-names><![CDATA[M. G.]]></given-names>
</name>
<name>
<surname><![CDATA[Muñoz]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<source><![CDATA[Evaluación de los aprendizajes en el aula. Opiniones y prácticas de docentes de primaria en México]]></source>
<year>2011</year>
<publisher-loc><![CDATA[México ]]></publisher-loc>
<publisher-name><![CDATA[Instituto Nacional para la Evaluación de la Educación]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kingston]]></surname>
<given-names><![CDATA[N.]]></given-names>
</name>
<name>
<surname><![CDATA[Nash]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[How many formative assessment angels can dance on the head of a meta-analytic pin]]></article-title>
<source><![CDATA[Educational Measurement: Issues and Practice]]></source>
<year>2012</year>
<volume>31</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>18-19</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kingston]]></surname>
<given-names><![CDATA[N.]]></given-names>
</name>
<name>
<surname><![CDATA[Nash]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Formative assessment: meta-analysis & call for research]]></article-title>
<source><![CDATA[Educational Measurement: Issues & Practice]]></source>
<year>2011</year>
<volume>30</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>28-37</page-range></nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Loureiro]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<source><![CDATA[Evaluación en el aula, currículo y evaluaciones externas]]></source>
<year>2009</year>
<publisher-name><![CDATA[Universidad Católica del UruguayGTEE-PREAL]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Martínez Rizo]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
</person-group>
<source><![CDATA[La evaluación en el aula: promesas y desafíos de la evaluación formativa]]></source>
<year>2012</year>
<month>a</month>
<publisher-loc><![CDATA[México ]]></publisher-loc>
<publisher-name><![CDATA[Universidad Autónoma de Aguascalientes]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Martínez Rizo]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[La evaluación formativa del aprendizaje en el aula en la bibliografía en inglés y francés. Revisión de literatura]]></article-title>
<source><![CDATA[Revista Mexicana de Investigación Educativa]]></source>
<year>2012</year>
<month>b</month>
<volume>17</volume>
<numero>54</numero>
<issue>54</issue>
<page-range>849-875</page-range></nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Picaroni]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
</person-group>
<source><![CDATA[La evaluación en las aulas de primaria: usos formativos, calificaciones y comunicación con los padres]]></source>
<year>2009</year>
<publisher-name><![CDATA[Universidad Católica del UruguayGrupo de Trabajo sobre Estándares y EvaluaciónGTEE-PREAL]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ravela]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
<name>
<surname><![CDATA[Picaroni]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
<name>
<surname><![CDATA[Loureiro]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[La evaluación de aprendizajes en las aulas de 6o. grado en América Latina]]></article-title>
<source><![CDATA[Observatorio Regional de Políticas de Evaluación Educativa]]></source>
<year>2009</year>
<numero>12</numero>
<issue>12</issue>
<page-range>1-12</page-range><publisher-name><![CDATA[GTEE-PREAL]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Reynolds]]></surname>
<given-names><![CDATA[W. M.]]></given-names>
</name>
<name>
<surname><![CDATA[Menard]]></surname>
<given-names><![CDATA[K. A.]]></given-names>
</name>
</person-group>
<source><![CDATA[An investigation of teachers' test construction practices. Ponencia presentada en la reunión anual del National Council of Measurement in Education]]></source>
<year>1980</year>
<publisher-loc><![CDATA[Boston^eMassachusetts Massachusetts]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ruiz]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Pérez]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Creencias y prácticas de evaluación en aula de maestros de educación primaria de Nuevo León]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Ruiz]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<source><![CDATA[La evaluación en el aula: Diagnóstico]]></source>
<year></year>
<publisher-name><![CDATA[Universidad Autónoma de Aguascalientes]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Stiggins]]></surname>
<given-names><![CDATA[R. J.]]></given-names>
</name>
<name>
<surname><![CDATA[Arter]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Chappuis]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Chappuis]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
</person-group>
<source><![CDATA[Classroom assessment for student learning. Doing it right-using it well]]></source>
<year>2007</year>
<publisher-loc><![CDATA[Upper Saddle River^eNJ NJ]]></publisher-loc>
<publisher-name><![CDATA[Pearson]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Stiggins]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Conklin]]></surname>
<given-names><![CDATA[N.]]></given-names>
</name>
</person-group>
<source><![CDATA[In teacher's hands: Investigating practices of classroom assessment]]></source>
<year>1992</year>
<publisher-loc><![CDATA[Albany ]]></publisher-loc>
<publisher-name><![CDATA[State University of New York Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Vidales]]></surname>
<given-names><![CDATA[I.]]></given-names>
</name>
<name>
<surname><![CDATA[Elizondo]]></surname>
<given-names><![CDATA[M. D.]]></given-names>
</name>
</person-group>
<source><![CDATA[Prácticas de evaluación escolar en el nivel de educación primaria en el Estado de Nuevo León]]></source>
<year>2005</year>
<publisher-loc><![CDATA[México ]]></publisher-loc>
<publisher-name><![CDATA[CAEIPSantillana]]></publisher-name>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
