<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>1665-109X</journal-id>
<journal-title><![CDATA[Sinéctica]]></journal-title>
<abbrev-journal-title><![CDATA[Sinéctica]]></abbrev-journal-title>
<issn>1665-109X</issn>
<publisher>
<publisher-name><![CDATA[Instituto Tecnológico y de Estudios Superiores de Occidente, Departamento de Educación y Valores]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S1665-109X2010000200004</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Los indicadores como herramientas para la evaluación de la calidad de los sistemas educativos]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Martínez Rizo]]></surname>
<given-names><![CDATA[Felipe]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Autónoma de Aguascalientes  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>12</month>
<year>2010</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>12</month>
<year>2010</year>
</pub-date>
<numero>35</numero>
<fpage>1</fpage>
<lpage>17</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_arttext&amp;pid=S1665-109X2010000200004&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_abstract&amp;pid=S1665-109X2010000200004&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_pdf&amp;pid=S1665-109X2010000200004&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[En este artículo se presentan, primeramente, algunos antecedentes del desarrollo de los indicadores sociales y educativos, como parte de una tendencia generalizada a la cuantificación, en relación con las políticas sociales; en seguida, se hacen precisiones sobre la noción, en especial cuando se aplica a la evaluación de la calidad de los sistemas educativos. Luego, se incluyen sugerencias para una sistematización de la metodología para la construcción de indicadores, y se hacen consideraciones sobre los alcances y las limitaciones de este tipo de herramientas, para prevenir el peligro de esperar demasiado de los indicadores, o el de ignorar la complejidad de las tareas que implica su desarrollo, al pensar que pueden llevarse a cabo en tiempos muy breves.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[This work presents the background regarding the development of social and educational indicators, as part of a trend to measure social policies. We provide fine points concerning these concepts, in particular when applied to the evaluation of the quality of the educational systems. Proposals are offered for a systematization of the methodology for the construction of indicators, as well as considerations on the possibilities and the restrictions of these tools, to prevent the risk of expecting too much from the indicators, or to ignore the complexity of the tasks that its development implies (i.e. believing they can be carried out in a brief time).]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[indicadores sociales y educativos]]></kwd>
<kwd lng="es"><![CDATA[evaluación]]></kwd>
<kwd lng="es"><![CDATA[sistema educativo]]></kwd>
<kwd lng="en"><![CDATA[social and educational indicators]]></kwd>
<kwd lng="en"><![CDATA[evaluation]]></kwd>
<kwd lng="en"><![CDATA[educational system]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[  	    <p align="justify"><font face="verdana" size="4">Tem&aacute;tico</font></p>         <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>         <p align="center"><font face="verdana" size="4"><b>Los indicadores como herramientas para la evaluaci&oacute;n de la calidad de los sistemas educativos</b></font></p>  	    <p align="center"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="center"><font face="verdana" size="2"><b>Felipe Mart&iacute;nez Rizo</b></font></p>  	    <p align="center"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><i>Licenciado en Ciencias Sociales por la Universidad de Lovaina. Desde 1974 profesor de la Aut&oacute;noma de Aguascalientes.</i></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2">Recibido: 12 de julio de 2010.    ]]></body>
<body><![CDATA[<br> 	Aceptado para su publicaci&oacute;n: 3 de octubre de 2010.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Resumen</b></font></p>  	    <p align="justify"><font face="verdana" size="2">En este art&iacute;culo se presentan, primeramente, algunos antecedentes del desarrollo de los indicadores sociales y educativos, como parte de una tendencia generalizada a la cuantificaci&oacute;n, en relaci&oacute;n con las pol&iacute;ticas sociales; en seguida, se hacen precisiones sobre la noci&oacute;n, en especial cuando se aplica a la evaluaci&oacute;n de la calidad de los sistemas educativos. Luego, se incluyen sugerencias para una sistematizaci&oacute;n de la metodolog&iacute;a para la construcci&oacute;n de indicadores, y se hacen consideraciones sobre los alcances y las limitaciones de este tipo de herramientas, para prevenir el peligro de esperar demasiado de los indicadores, o el de ignorar la complejidad de las tareas que implica su desarrollo, al pensar que pueden llevarse a cabo en tiempos muy breves.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Palabras clave:</b> indicadores sociales y educativos, evaluaci&oacute;n, sistema educativo.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Abstract</b></font></p>  	    <p align="justify"><font face="verdana" size="2">This work presents the background regarding the development of social and educational indicators, as part of a trend to measure social policies. We provide fine points concerning these concepts, in particular when applied to the evaluation of the quality of the educational systems. Proposals are offered for a systematization of the methodology for the construction of indicators, as well as considerations on the possibilities and the restrictions of these tools, to prevent the risk of expecting too much from the indicators, or to ignore the complexity of the tasks that its development implies (i.e. believing they can be carried out in a brief time).</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Keywords:</b> social and educational indicators, evaluation, educational system.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>INTRODUCCI&Oacute;N</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Las discusiones entre partidarios de los acercamientos llamados cuantitativos y los cualitativos, en el campo de las metodolog&iacute;as de investigaci&oacute;n en las ciencias del hombre, parecen interminables. Se pueden encontrar versiones tempranas desde la segunda mitad del siglo XVII (cfr. Mart&iacute;nez Rizo, 1991 y 1993), y todav&iacute;a en el XXI no parecen cerca de acabarse (cfr. Anderson y Herr, 1999; Shavelson y Towne, 2002).</font></p>  	    <p align="justify"><font face="verdana" size="2">A los partidarios de los enfoques cuantitativos suele gustarles la cita de Lord Kelvin, que en 1883 dijo: "Cuando no podemos medir, nuestro conocimiento es pobre e insatisfactorio". A sus oponentes les gusta una r&eacute;plica expresada, en 1929, por Jacob Viner: "...y cuando podemos medir nuestro conocimiento sigue siendo pobre e insatisfactorio" (<i>cfr</i>. Bulmer, 1986, p. 182).</font></p>  	    <p align="justify"><font face="verdana" size="2">Conocer la complejidad del mundo social no es f&aacute;cil y, en efecto, las insuficiencias del conocimiento al respecto no se resuelven sencillamente por asignarles n&uacute;meros mediante procedimientos poco rigurosos, como muchas veces se hace, lo que dar&iacute;a la raz&oacute;n a Viner. Por otro lado, la expresi&oacute;n de Lord Kelvin encierra su parte de verdad, en especial cuando se trata de conocimientos que se pretende sirvan de sustento para tomar decisiones de gran calado, como es el caso de pol&iacute;ticas p&uacute;blicas que involucran recursos tan considerables como los que los pa&iacute;ses dedican a sus sistemas educativos.</font></p>  	    <p align="justify"><font face="verdana" size="2">Ejemplos de tales decisiones son el llevar o no la escolaridad obligatoria hasta el fin de la ense&ntilde;anza secundaria; incrementar los d&iacute;as de clase o la duraci&oacute;n de la jornada escolar; reducir el tama&ntilde;o promedio de los grupos escolares; dar mayor o menor hincapi&eacute; a las matem&aacute;ticas, la lengua materna o una segunda lengua, entre otras. En estos casos, no pueden bastar como sustento las opiniones de sentido com&uacute;n de las autoridades respectivas, o las de las partes involucradas, como los maestros o los padres de familia. Hacen falta bases m&aacute;s s&oacute;lidas que, en una u otra forma, y dada la escala de que se trata, deber&aacute;n incluir informaci&oacute;n precisa, v&aacute;lida y confiable, sobre el costo de una u otra opci&oacute;n, pero tambi&eacute;n sobre sus probables repercusiones.</font></p>  	    <p align="justify"><font face="verdana" size="2">Sin duda, por lo anterior en todos los estados modernos, y en particular en los ministerios de educaci&oacute;n, surgieron desde hace tiempo oficinas a cargo de la producci&oacute;n de estad&iacute;sticas cada vez m&aacute;s complejas. Como una extensi&oacute;n de esta tendencia, las &uacute;ltimas d&eacute;cadas han visto el desarrollo de los llamados indicadores sociales, y los &uacute;ltimos a&ntilde;os el de los indicadores complejos o compuestos.</font></p>  	    <p align="justify"><font face="verdana" size="2">En relaci&oacute;n con estos &uacute;ltimos, y adem&aacute;s de discutir sus ventajas y desventajas, una reciente publicaci&oacute;n especializada se&ntilde;ala que "...se les reconoce cada vez m&aacute;s como una herramienta &uacute;til para el an&aacute;lisis de pol&iacute;ticas", y a&ntilde;ade que cada a&ntilde;o aumenta su n&uacute;mero. Se cita una reciente revisi&oacute;n del tema (Bandura, 2006), que encontr&oacute; m&aacute;s de ciento sesenta indicadores compuestos en uso por diversas organizaciones de todo el mundo para comparar el desempe&ntilde;o de los pa&iacute;ses (OCDE&#150;European Comission, 2008, p. 3).</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>LA CUANTIFICACI&Oacute;N EN RELACI&Oacute;N CON LAS FORMAS POL&Iacute;TICAS SOCIALES</b></font></p>  	    <p align="justify"><font face="verdana" size="2"><i>El desarrollo de los indicadores: perspectiva hist&oacute;rica</i></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En el siglo XVII, el t&eacute;rmino estad&iacute;stica se refer&iacute;a a la informaci&oacute;n sobre alg&uacute;n aspecto de la situaci&oacute;n del Estado, en forma de datos num&eacute;ricos o cualitativos; luego, el sentido se reserv&oacute; a la informaci&oacute;n cuantitativa. El uso de medidas burdas de ciertas cuestiones de la vida p&uacute;blica es antiguo, pero s&oacute;lo en &eacute;pocas recientes la cuantificaci&oacute;n se manifiesta de manera m&aacute;s amplia. Inicialmente, eso ocurri&oacute; en relaci&oacute;n con elementos demogr&aacute;ficos o econ&oacute;micos, que se prestan para un tratamiento num&eacute;rico. El desarrollo de la noci&oacute;n de <i>indicador social</i> es posterior, por la necesidad de complementar cifras de poblaci&oacute;n y datos econ&oacute;micos con informaci&oacute;n sobre otras dimensiones de la vida social.</font></p>  	    <p align="justify"><font face="verdana" size="2">Biderman (1966) muestra que, desde fines del siglo XVIII, los presidentes de Estados Unidos de Am&eacute;rica utilizaron estimaciones num&eacute;ricas en sus mensajes anuales <i>sobre el estado de la Uni&oacute;n</i>. El n&uacute;mero de estas medidas (<i>indicadores</i>) pas&oacute; de un promedio de tres en cada informe de fines del siglo XVIII a once a mediados del siglo XX. La tendencia se afirm&oacute; a partir de 1933: desde entonces, las expresiones oficiales de los objetivos del desarrollo nacional se acompa&ntilde;an por lo regular de medidas num&eacute;ricas.</font></p>  	    <p align="justify"><font face="verdana" size="2">El inter&eacute;s por los indicadores num&eacute;ricos se manifest&oacute; tambi&eacute;n en la preocupaci&oacute;n por la calidad de las escuelas. Seg&uacute;n Shavelson y colaboradores, al terminar la Guerra de Secesi&oacute;n se reflej&oacute; en el Common School Movement; la creaci&oacute;n del Departamento de Educaci&oacute;n, en 1867, se justific&oacute;, entre otras razones, por la necesidad de elaborar indicadores (1989, p. 1).</font></p>  	    <p align="justify"><font face="verdana" size="2">En este sentido, fue importante la iniciativa del presidente Hoover, quien form&oacute;, en 1929, una comisi&oacute;n de especialistas para desarrollar un estudio sobre las tendencias sociales en Estados Unidos. El informe de esa comisi&oacute;n, publicado en 1933 con el t&iacute;tulo <i>Tendencias sociales recientes en los Estados Unidos</i> (Comit&eacute; Presidencial, 1933), es la obra que inaugura la extensa bibliograf&iacute;a sobre indicadores sociales.</font></p>  	    <p align="justify"><font face="verdana" size="2">Una nueva ola de inter&eacute;s se dio en la d&eacute;cada de 1960, en la estela de la lucha por los derechos civiles, y en el marco de los programas de <i>la Gran Sociedad y Lucha contra la Pobreza</i>, del Presidente Lyndon Johnson. La importancia de esta tendencia fue tal que, para designarla, se acu&ntilde;&oacute; la expresi&oacute;n <i>movimiento de los indicadores sociales</i>, que tuvo un componente educativo importante, a consecuencia del impacto del primer sat&eacute;lite artificial, cuya puesta en &oacute;rbita por la URSS fue interpretada como s&iacute;ntoma del retraso de la ense&ntilde;anza de matem&aacute;ticas y ciencias en Estados Unidos.</font></p>  	    <p align="justify"><font face="verdana" size="2">El Special Study Panel on Education Indicators observa que el famoso informe de la National Comisi&oacute;n on Excellence in Education, publicado en 1983 con el t&iacute;tulo de <i>Una naci&oacute;n en peligro</i>, se bas&oacute; en comparaciones internacionales del desempe&ntilde;o de los alumnos de diversos pa&iacute;ses, y que un a&ntilde;o despu&eacute;s el secretario de Educaci&oacute;n comenz&oacute; la difusi&oacute;n de las <i>Wall Charts</i>, que publican cada a&ntilde;o algunos indicadores de los sistemas educativos estatales (1991, p. 11).</font></p>  	    <p align="justify"><font face="verdana" size="2">A partir de la d&eacute;cada de 1980, la preocupaci&oacute;n por la calidad educativa alcanz&oacute; niveles sin precedentes en muchos pa&iacute;ses, ante la creciente competencia econ&oacute;mica internacional. En ese marco adquieren sentido los esfuerzos por tener evaluaciones educativas m&aacute;s completas y confiables, lo que incluye mejores sistemas de indicadores.</font></p>  	    <p align="justify"><font face="verdana" size="2">En Estados Unidos, estas preocupaciones se reflejaron en diversos esfuerzos estatales durante la d&eacute;cada de los ochenta (<i>cfr</i>. Odden, 1990); en las Metas 2000, adoptadas por el presidente tras la Cumbre Educativa de los gobernadores en octubre de 1989; en el establecimiento de est&aacute;ndares nacionales, el reforzamiento de los sistemas de pruebas y, finalmente, en las disposiciones de la ley No Child Left Behind, firmada por el presidente Bush a principios de 2002. En todos los casos el desarrollo de mejores sistemas de indicadores form&oacute; parte destacada de los esfuerzos de evaluaci&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2"><i>Los indicadores y las deficiencias de las estad&iacute;sticas educativas</i></font></p>  	    <p align="justify"><font face="verdana" size="2">La relaci&oacute;n entre indicadores y estad&iacute;sticas es muy clara. Unos y otras representan esfuerzos por concretar nociones abstractas y cuantificar cualitativo. Hoy parece claro que un buen sistema de estad&iacute;sticas es necesario para que las decisiones que se toman en los sistemas educativos tengan base s&oacute;lida. Pese a ello, todav&iacute;a a fines del siglo XX pocos pa&iacute;ses contaban con buenos sistemas de este tipo, en parte por las dificultades t&eacute;cnicas para desarrollarlos, junto con el crecimiento que experimentaron los sistemas escolares en todo el mundo. En 1993, Puryear dec&iacute;a al respecto:</font></p>  	 		    ]]></body>
<body><![CDATA[<blockquote> 		      <p align="justify"><font face="verdana" size="2">...Las estad&iacute;sticas sobre educaci&oacute;n de aproximadamente la mitad de los estados miembros de la UNESCO, incluyendo al menos cinco de los nueve pa&iacute;ses en v&iacute;as de desarrollo m&aacute;s grandes, tienen lagunas y debilidades serias. Con mucha frecuencia las bases de datos sobre el tema carecen de confiabilidad. A&uacute;n en los pa&iacute;ses industriales avanzados los datos sobre costos y gastos educativos son muy deficientes. En casi todos los pa&iacute;ses los datos sobre analfabetismo no son confiables. Y los expertos opinan que las estad&iacute;sticas educativas de 20 o 30 pa&iacute;ses son un verdadero desastre (1993, p. 4).</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">La mayor&iacute;a de los pa&iacute;ses carece de medidas sistem&aacute;ticas sobre resultados educativos y las evaluaciones comparativas internacionales son raras. Puryear se&ntilde;alaba que suele haber estad&iacute;sticas mejores sobre cuestiones econ&oacute;micas, demogr&aacute;ficas o de salud, y precisaba:</font></p>  	 		    <blockquote> 		      <p align="justify"><font face="verdana" size="2">...Las estad&iacute;sticas educativas existentes tienen un enfoque muy estrecho. Dejan fuera las medidas de calidad, de procesos y de productos. Los gobiernos han centrado la atenci&oacute;n en un solo enfoque, bastante estrecho, para monitorear sus sistemas educativos &#9472;los conteos de tipo censo&#9472; y en un solo tipo de datos: los relativos a insumos. Se han concentrado casi enteramente en registrar el n&uacute;mero de profesores, alumnos y edificios en el sistema formal, y en la importancia del gasto p&uacute;blico destinado a la educaci&oacute;n. Casi no han prestado atenci&oacute;n a documentar c&oacute;mo funcionan las escuelas o qu&eacute; aprenden los alumnos &#91;...&#93; Un buen indicador de la existencia de estad&iacute;sticas educativas de muy buena calidad, lo constituye la capacidad de reportar datos sobre la edad de los alumnos, que son indispensables para calcular tasas netas de matr&iacute;cula. &Uacute;nicamente unos 60 de los 175 estados miembros de la UNESCO reportan tales datos en forma consistente (1993, p. 6).</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">Poco antes, los primeros pasos de la OCDE para desarrollar su sistema de indicadores educativos comenzaban con un diagn&oacute;stico semejante:</font></p>  	 		    <blockquote> 		      <p align="justify"><font face="verdana" size="2">Aunque muchos pa&iacute;ses publican impresionantes anuarios estad&iacute;sticos, la cantidad y la calidad (validez, consistencia, etc.) de los datos recolectados es sumamente desigual, no s&oacute;lo de un pa&iacute;s a otro, sino incluso dentro de un mismo pa&iacute;s &#91;&hellip;&#93; aunque la mayor parte de los 24 pa&iacute;ses participantes report&oacute; que recababa datos para construir algunos indicadores educativos, su tipo y uso var&iacute;a mucho y pocos pa&iacute;ses est&aacute;n en condiciones de ofrecer conjuntos completos &#91;&hellip;&#93; muchas presentaciones coincidieron en se&ntilde;alar problemas similares: datos incompletos o faltantes; falta de confiabilidad, debida en parte a t&eacute;cnicas de muestreo deficientes; insuficiente validez de las variables de contexto; dificultad para decidir qu&eacute; datos recoger; problemas en cuanto al control de la informaci&oacute;n y el acceso a ella&hellip;</font></p>               <p align="justify"><font face="verdana" size="2">A&uacute;n los sistemas m&aacute;s completos de estad&iacute;sticas nacionales presentan hoyos negros y lagunas de informaci&oacute;n en temas de los que casi no hay datos, como costos unitarios, gasto educativo privado o la contribuci&oacute;n econ&oacute;mica de empresas y familias al gasto educativo total. La mayor&iacute;a de los sistemas son notablemente d&eacute;biles en cuanto a informaci&oacute;n sobre el conocimiento que tienen los maestros de las materias que deben ense&ntilde;ar, el aprendizaje de los alumnos, en especial en niveles cognitivos altos, o los procesos que tienen lugar dentro de la escuela (CERI&#150;INES 1991, pp. 8&#150;9).</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">En la misma &eacute;poca, expertos encargados, por parte del gobierno de Estados Unidos, del dise&ntilde;o de un sistema de indicadores educativos a escala nacional identificaban problemas semejantes, que muestran que la pobreza y la inconsistencia de las estad&iacute;sticas educativas no son exclusivas de pa&iacute;ses menos desarrollados:</font></p>  	 		    ]]></body>
<body><![CDATA[<blockquote> 		      <p align="justify"><font face="verdana" size="2">Algunos problemas t&eacute;cnicos serios de los indicadores actualmente existentes, junto con grandes lagunas en las fuentes de datos disponibles, plantean problemas formidables a la tarea de construir un sistema de indicadores educativos en el nivel nacional. El Council of Chief State School Officers, a solicitud del National Center for Education Statistics, ha analizado las fallas de medidas de resultados educativos comparables, observando por ejemplo que hasta 1987 los estados americanos empleaban al menos diez maneras distintas de contar sus escuelas y unos doce m&eacute;todos diferentes de reportar las cifras de matr&iacute;cula. Los datos sobre deserci&oacute;n son notoriamente poco confiables y representan unos de los datos m&aacute;s ambiguos que se reportan sobre la educaci&oacute;n norteamericana (Special Study Panel, 1991, p. 15).</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>PRECISIONES TERMINOL&Oacute;GICAS Y CONCEPTUALES</b></font></p>  	    <p align="justify"><font face="verdana" size="2"><i>La noci&oacute;n de indicador</i></font></p>  	    <p align="justify"><font face="verdana" size="2">El t&eacute;rmino indicador se utiliza en sentidos no coincidentes. En la tradici&oacute;n metodol&oacute;gica de Lazarsfeld, es parte del proceso de operacionalizaci&oacute;n: <i>variables, dimensiones e indicadores</i>. El concepto clave es el de variable, que denota un aspecto de la realidad que se quiere explorar que adopta valores distintos en la poblaci&oacute;n que se estudia.</font></p>  	    <p align="justify"><font face="verdana" size="2">Algunas veces, las variables se conceptualizan de tal manera que resulta muy sencillo identificar la realidad a la que corresponden. Es el caso de variables como las de sexo, edad o estado civil, tan utilizadas en muchas investigaciones.</font></p>  	    <p align="justify"><font face="verdana" size="2">En otros casos, las variables son conceptualizadas de modo menos claro, de suerte que, para manejarlas en forma pr&aacute;ctica, es necesario buscar conceptos que se utilicen con mayor precisi&oacute;n y sean equivalentes o representativos del concepto m&aacute;s abstracto. Si interesa, por ejemplo, el aspecto (variable) <i>nivel socioecon&oacute;mico</i>, se podr&aacute; recurrir en su lugar al concepto m&aacute;s f&aacute;cil de manejar: <i>ingresos mensuales</i>. Este &uacute;ltimo es un indicador de la variable anterior. Sin duda, la traducci&oacute;n de ciertas variables a sus indicadores no necesariamente resulta afortunada.</font></p>  	    <p align="justify"><font face="verdana" size="2">En forma relacionada con la anterior, pero con algunas diferencias, desde los a&ntilde;os sesenta se trat&oacute; de identificar conceptos particulares precisos que permitieran concretar y valorar otros tan amplios e imprecisos como <i>desarrollo integral o bienestar social</i>. El concepto de producto interno bruto, tan caro a los economistas, fue durante mucho tiempo el &uacute;nico criterio para apreciar el grado de desarrollo de un pa&iacute;s. Evidentemente, el concepto ignoraba important&iacute;simas dimensiones de una realidad tan compleja. Por ello, se trat&oacute; de concebir otros <i>indicadores</i> de conceptos tan comprehensivos.</font></p>  	    <p align="justify"><font face="verdana" size="2">En la obra colectiva ya citada, editada por Raymond Bauer con el t&iacute;tulo <i>Social Indicators</i> (1966), se puede encontrar una consideraci&oacute;n similar:</font></p>  	 		    ]]></body>
<body><![CDATA[<blockquote> 		      <p align="justify"><font face="verdana" size="2">El problema clave de un sistema de indicadores sociales &#91;&hellip;&#93; es que nunca podemos medir directamente las variables que nos interesan, sino que tenemos que seleccionar substitutos en el lugar de esas variables. Podemos, por ejemplo, estar interesados en saber si una persona es o no ambiciosa. Pero no podemos observar la ambici&oacute;n en s&iacute; misma. Podemos hacer preguntas a la persona, y escuchar sus respuestas, o bien observar qu&eacute; tan intensamente trabaja y en busca de qu&eacute; tipo de retribuci&oacute;n; a partir de ello podemos inferir si la persona es o no ambiciosa (Bauer, 1966, p. 45).</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">Bauer toma de Gross un esquema que ejemplifica el paso de una <i>gran abstracci&oacute;n</i> (abundancia) a conceptos m&aacute;s precisos, <i>indicadores cuantitativos</i> (en la forma de cantidades de bienes y servicios, producidos en ciertos periodos, y expresados en unidades f&iacute;sicas o monetarias), pasando previamente por <i>abstracciones intermedias</i> (riqueza: cantidad, distribuci&oacute;n) (Bauer, 1966, p. 45).</font></p>  	    <p align="justify"><font face="verdana" size="2">En el sentido que ahora nos ocupa la palabra indicador, no se refiere de modo necesario a un aspecto particular de una variable m&aacute;s amplia, sino que, al contrario, puede tener un car&aacute;cter sint&eacute;tico, e integrar varios m&aacute;s particulares, pero siempre con la pretensi&oacute;n de hacerlo de tal suerte que sea posible un tratamiento preciso, cuantitativo. As&iacute; puede entenderse la siguiente definici&oacute;n de indicador: "Estad&iacute;stica sint&eacute;tica (<i>summary</i>) sobre el estado actual de un sistema educativo" (Wyatt, 1994, p. 99).</font></p>  	    <p align="justify"><font face="verdana" size="2">Seg&uacute;n Wyatt, la definici&oacute;n m&aacute;s aceptada hoy se deriva de Oakes, quien expresa que un indicador debe informar acerca, al menos, de uno de los siguientes aspectos:</font></p>  	 		    <blockquote> 		      <p align="justify"><font face="verdana" size="2">&bull; Logros de un sistema educativo para obtener ciertos resultados; el indicador se liga a los objetivos, y es un referente para medir los avances (<i>benchmark</i>).</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; Caracter&iacute;sticas que la investigaci&oacute;n ha mostrado se relacionan con resultados; el indicador tiene valor predictivo, porque su modificaci&oacute;n traer&aacute; consigo otras.</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; Rasgos centrales del sistema educativo para entender c&oacute;mo funciona.</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; Informaci&oacute;n relacionada con problemas o aspectos relevantes para la pol&iacute;tica educativa, que permitan apoyar la toma de decisiones (cfr. Oakes, 1986).</font></p> </blockquote> 		    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Wyatt coincide con Oakes en que un indicador debe:</font></p> 		    <blockquote> 		      <p align="justify"><font face="verdana" size="2">&bull; Medir aspectos que se encuentren en todos los &aacute;mbitos del sistema que se eval&uacute;a (<i>ubiquitous</i>), de suerte que puedan hacerse comparaciones.</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; Medir aspectos duraderos del sistema, de tal modo que puedan analizarse tendencias y cambios en el tiempo.</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; Ser f&aacute;cilmente inteligible para una audiencia amplia.</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; Tener factibilidad, teniendo en cuenta el tiempo, el costo y la capacidad t&eacute;cnica requeridos para su obtenci&oacute;n.</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; Ser en general aceptado por sus cualidades t&eacute;cnicas de validez y confiabilidad (Oakes, 1986, pp. 1&#150;2; Wyatt, 1994, p. 105).</font></p> </blockquote> 		    <p align="justify"><font face="verdana" size="2">De acuerdo con Jaeger, quien muestra la poca consistencia de las definiciones de indicadores en la literatura especializada (1978), Shavelson y colaboradores consideran que conviene adoptar una postura pragm&aacute;tica, y proponen la siguiente definici&oacute;n de trabajo: "Un indicador es una estad&iacute;stica simple o compuesta que se relaciona con un constructo educativo b&aacute;sico y es &uacute;til en un marco de pol&iacute;ticas p&uacute;blicas" (1989, pp. 4&#150;5).</font></p>     <p align="justify"><font face="verdana" size="2">La noci&oacute;n del Special Study Panel on Indicators es similar:</font></p>  	 		    <blockquote> 		      ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Un indicador es una estad&iacute;stica que mide nuestro bienestar colectivo. Un verdadero indicador mide la salud de un sistema, sea econ&oacute;mico, de empleo, de servicios m&eacute;dicos o educativos &#91;&hellip;&#93; A diferencia de otras estad&iacute;sticas, un indicador debe ser relevante para la toma de decisiones, en funci&oacute;n de ciertos problemas; debe ofrecer informaci&oacute;n sobre un rasgo significativo del sistema al que se refiere; y generalmente incluye alg&uacute;n est&aacute;ndar contra el cual pueda juzgarse si hay progreso o retroceso (1991, p. 12).</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">Fuera de Estados Unidos, los esfuerzos por precisar la definici&oacute;n del t&eacute;rmino indicador han seguido caminos similares, y se han inclinado por un acercamiento pragm&aacute;tico. Un reciente documento al respecto de la Comisi&oacute;n Europea establece:</font></p>  	 		    <blockquote> 		      <p align="justify"><font face="verdana" size="2">Un indicador puede definirse como la medici&oacute;n de un objetivo a perseguir, de un recurso a movilizar, de un efecto alcanzado, de una estimaci&oacute;n de calidad, o una variable de contexto. Un indicador ofrece informaci&oacute;n cuantificada con el prop&oacute;sito de ayudar a los participantes en acciones p&uacute;blicas a comunicarse, negociar y tomar decisiones &#91;&hellip;&#93; Un indicador cuantifica un elemento que se considera relevante para el monitoreo o evaluaci&oacute;n de un programa (1999, p. 17).</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2"><i>Tipos de indicadores</i></font></p>  	    <p align="justify"><font face="verdana" size="2">Al igual que Shavelson y otros, Oakes distingue dos tipos b&aacute;sicos de indicador: los que consisten, respectivamente, en estad&iacute;sticas simples o compuestas (1986, p. 3). En una clasificaci&oacute;n m&aacute;s elaborada, la Comisi&oacute;n Europea ofrece una tipolog&iacute;a de indicadores que los cataloga a partir de seis dimensiones, seg&uacute;n:</font></p>  	 		    <blockquote> 		      <p align="justify"><font face="verdana" size="2">&bull; El grado de procesamiento de la informaci&oacute;n: indicadores <i>elementales, derivados o compuestos</i>.</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; La comparabilidad de la informaci&oacute;n: indicadores <i>espec&iacute;ficos o gen&eacute;ricos</i>.</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; El alcance de la informaci&oacute;n: indicadores de <i>programa y de contexto</i>.</font></p> 		      ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&bull; Las fases del programa: de recursos o insumos; de <i>salidas</i> o productos inmediatos; de <i>resultados</i> o productos mediatos; y de <i>impacto</i>, o de largo plazo.</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; El criterio de evaluaci&oacute;n: de <i>relevancia, eficacia, eficiencia o desempe&ntilde;o</i>.</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; Su utilizaci&oacute;n: de <i>monitoreo</i>, para uso inmediato, o de <i>evaluaci&oacute;n</i>, al final del proceso (Comisi&oacute;n Europea, 1999, pp. 19&#150;38).</font></p> </blockquote> 		    <p align="justify"><font face="verdana" size="2"><i>Sistemas de indicadores y enfoques para su desarrollo</i></font></p>     <p align="justify"><font face="verdana" size="2">La complejidad de los sistemas educativos hace que ning&uacute;n indicador particular pueda ofrecer una imagen suficientemente amplia del conjunto. Por ello, es necesario construir un sistema de indicadores teniendo en cuenta que un <i>sistema</i> no es la simple acumulaci&oacute;n o yuxtaposici&oacute;n de indicadores particulares, sino un conjunto articulado de ellos, con base en cierta estructura:</font></p>  	 		    <blockquote> 		      <p align="justify"><font face="verdana" size="2">Otro concepto central en la discusi&oacute;n es el de sistema de indicadores. Sea que se trate de estad&iacute;sticas simples o compuestas, un indicador singular dif&iacute;cilmente podr&aacute; proporcionar informaci&oacute;n &uacute;til sobre fen&oacute;menos tan complejos como los educativos. Los sistemas de indicadores se dise&ntilde;an por lo general para generar informaci&oacute;n m&aacute;s amplia y precisa. Pero debe precisarse que un sistema de indicadores es m&aacute;s que una simple colecci&oacute;n de estad&iacute;sticas. Idealmente, un sistema de indicadores mide diversos componentes del sistema educativo, y ofrece tambi&eacute;n informaci&oacute;n sobre c&oacute;mo interact&uacute;an los componentes singulares para producir el efecto de conjunto. En otras palabras, el conjunto de la informaci&oacute;n que ofrece un sistema de indicadores es m&aacute;s que la suma de sus partes (Shavelson et al., 1989, pp. 5&#150;6).</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">Cuando se trata de dise&ntilde;ar indicadores educativos, puede haber dos enfoques: algunas veces, el prop&oacute;sito ser&aacute; monitorear el grado en que se alcanzan algunas metas de pol&iacute;tica, en cuyo caso bastar&aacute; un n&uacute;mero relativamente peque&ntilde;o de indicadores, que se definir&aacute;n en funci&oacute;n de tales metas. Otras ocasiones, se pretender&aacute; cubrir de manera m&aacute;s completa los aspectos relevantes del sistema educativo para valorar su calidad en sentido amplio, sin limitarse a los aspectos m&aacute;s relacionados con las pol&iacute;ticas vigentes; en este caso se requerir&aacute; un n&uacute;mero mayor de indicadores, organizados de modo que constituyan tambi&eacute;n un verdadero sistema.</font></p>  	    <p align="justify"><font face="verdana" size="2">El segundo de estos dos enfoques tiende a la exhaustividad y se podr&iacute;a considerar m&aacute;s deductivo o te&oacute;rico; el primero se limita conscientemente a algunos aspectos considerados de especial relevancia, puesto que han sido previstos en las metas, y se podr&iacute;a ver como m&aacute;s inductivo o pr&aacute;ctico. Ambos enfoques pueden ser s&oacute;lidos y, de hecho, los dos han dado lugar a sistemas de indicadores interesantes.</font></p>  	    <p align="justify"><font face="verdana" size="2"><i>Los sistemas de indicadores y la noci&oacute;n de calidad en educaci&oacute;n</i></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">No es sencillo ponerse de acuerdo en una definici&oacute;n de calidad educativa. Quiz&aacute; la dificultad se deriva, en parte, del hecho de buscar el consenso en el terreno de los conceptos abstractos. Parece m&aacute;s factible conseguirlo en t&eacute;rminos concretos. La dificultad tambi&eacute;n se debe a la variedad de los objetos a los que puede referirse la noci&oacute;n de calidad, que pueden ser un curr&iacute;culo, un texto escolar, un maestro, un alumno o una escuela.</font></p>  	    <p align="justify"><font face="verdana" size="2">El uso de sistemas de indicadores como herramientas de evaluaci&oacute;n, sin embargo, no suele referirse a esos objetos, sino a uno diferente y muy complejo: un sistema educativo. Por ello, parece m&aacute;s sencillo ponerse de acuerdo en qu&eacute; es un buen sistema educativo, para luego subir de nivel de abstracci&oacute;n y definir el concepto de calidad de un sistema educativo, como paso necesario para el dise&ntilde;o de un sistema de indicadores de la calidad, en ese sentido preciso. Propongo la siguiente definici&oacute;n:</font></p>  	    <p align="justify"><font face="verdana" size="2">Un buen sistema educativo es aquel que re&uacute;ne las siguientes cualidades, que definen dimensiones abstractas de la noci&oacute;n de calidad:</font></p>  	 		    <blockquote> 		      <p align="justify"><font face="verdana" size="2">&bull; Establece un curr&iacute;culo adecuado a las necesidades individuales de los alumnos (<i>pertinencia</i>) y a las de la sociedad (<i>relevancia</i>).</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; Logra que la m&aacute;s alta proporci&oacute;n posible de destinatarios acceda a la escuela, permanezca en ella y egrese alcanzando los objetivos de aprendizaje (eficacia <i>interna y externa</i>).</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; Consigue que los aprendizajes se asimilen duraderamente y den lugar a comportamientos sociales fruct&iacute;feros para la sociedad y los individuos (<i>impacto</i>).</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; Cuenta con recursos suficientes (suficiencia) y los aprovecha bien (<i>eficiencia</i>).</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; Tiene en cuenta la desigualdad de situaciones y apoya a quienes lo requieran, para que los objetivos sean alcanzados por el mayor n&uacute;mero posible (<i>equidad</i>).</font></p> </blockquote>      <p align="justify"><font face="verdana" size="2">Ninguna de las dimensiones anteriores es suficiente por s&iacute; sola para definir la calidad; es la integraci&oacute;n armoniosa de todas ellas lo que la precisa. Por ello, puede proponerse una definici&oacute;n de la noci&oacute;n en t&eacute;rminos abstractos, como sigue: <i>la calidad del sistema educativo es la cualidad que resulta de la integraci&oacute;n de las dimensiones de pertinencia y relevancia; eficacia interna; eficacia externa a corto plazo; eficacia a largo plazo o impacto; suficiencia; eficiencia; y equidad.</i></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><i>Sistemas de indicadores y evaluaci&oacute;n de la calidad de un sistema educativo</i></font></p>  	    <p align="justify"><font face="verdana" size="2">Precisar las dimensiones de la calidad de un sistema educativo tiene una consecuencia importante para su evaluaci&oacute;n: no debe reducirse a la aplicaci&oacute;n de pruebas estandarizadas que midan el grado en que los alumnos de ciertos niveles alcanzan los aprendizajes que se esperan. Un buen sistema de informaci&oacute;n y evaluaci&oacute;n de la calidad de un sistema educativo deber&aacute; comprender, adem&aacute;s de pruebas de rendimiento, indicadores derivados de las estad&iacute;sticas educativas tradicionales y otros estudios sobre aspectos particulares, como los recursos de las escuelas y los procesos que tienen lugar en su interior.</font></p>  	    <p align="justify"><font face="verdana" size="2">El inter&eacute;s por las pruebas de rendimiento no debe llevar a abandonar los indicadores tradicionales, sino a perfeccionarlos y manejarlos junto con los m&aacute;s recientes, adem&aacute;s de seguir explorando el desarrollo de los que todav&iacute;a est&aacute;n mal atendidos, en especial los de <i>relevancia y pertinencia, impacto y equidad.</i></font></p>  	    <p align="justify"><font face="verdana" size="2">Cuando lo que se pretende no es supervisar el cumplimiento de algunas metas estrat&eacute;gicas de pol&iacute;tica, sino evaluar la calidad de un sistema educativo de manera amplia, debe matizarse la frecuente recomendaci&oacute;n de que conviene que el n&uacute;mero de indicadores que se utilice sea reducido, ya que un n&uacute;mero grande dificultar&iacute;a la toma de decisiones basada en ellos. En una direcci&oacute;n opuesta, el Special Study Panel on Education Indicators del National Center for Education Statistics (NCES) se&ntilde;ala:</font></p>  	 		    <blockquote> 		      <p align="justify"><font face="verdana" size="2">&hellip;a medida que nuestro trabajo avanzaba nos convencimos de que la b&uacute;squeda de un n&uacute;mero limitado de indicadores educativos clave era equivocada. Como ning&uacute;n conjunto limitado de indicadores har&iacute;a justicia de la complejidad de la empresa educativa, un conjunto limitado no s&oacute;lo reflejar&iacute;a cierta agenda educativa, sino que definir&iacute;a una agenda as&iacute;. Si, por ejemplo, se establece que la ense&ntilde;anza de las matem&aacute;ticas y la geograf&iacute;a son suficientemente importantes para merecer que se les dedique un indicador, pero no ocurre lo mismo con la ense&ntilde;anza de la m&uacute;sica o de una lengua extranjera, los educadores tomar&aacute;n eso como una se&ntilde;al a seguir (1991, p. 7).</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>METODOLOG&Iacute;A PARA EL DISE&Ntilde;O DE INDICADORES</b></font></p>  	    <p align="justify"><font face="verdana" size="2">A diferencia de lo que ocurre con las pruebas de aprendizaje, la metodolog&iacute;a para dise&ntilde;ar indicadores educativos no est&aacute; sistematizada o codificada con suficiencia. En lo relativo a pruebas, desde hace medio siglo se dispone de manuales que explican con detalle los pasos para elaborar instrumentos adecuados. No es sencillo, desde luego, seguir al pie de la letra todas las indicaciones t&eacute;cnicas, pero si se consigue hacerlo en un grado aceptable, el resultado ser&aacute; un instrumento razonablemente v&aacute;lido y confiable, aun si no se incorporan los desarrollos de las &uacute;ltimas d&eacute;cadas.</font></p>  	    <p align="justify"><font face="verdana" size="2">No se encuentran, en cambio, textos similares para guiar el proceso de construcci&oacute;n de sistemas de indicadores. Los escasos apuntes que hay al respecto deben buscarse en documentos t&eacute;cnicos y art&iacute;culos poco accesibles, pero no puede hablarse todav&iacute;a de un cuerpo est&aacute;ndar de orientaciones en este campo. Lo anterior es uno de los factores que explican que muchos de los sistemas de indicadores existentes en nuestro medio, sobre tema educativo u otro, sean el resultado de procesos poco rigurosos de dise&ntilde;o, y adolezcan de deficiencias graves.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En seguida se presenta la metodolog&iacute;a para el dise&ntilde;o de sistemas de indicadores sistematizada en el Instituto Nacional para la Evaluaci&oacute;n de la Educaci&oacute;n, a partir de la experiencia del autor, y recogiendo elementos de Shavelson et al. (1989 y 1991) y de la Comisi&oacute;n Europea (1999). La metodolog&iacute;a comprende cuatro etapas.</font></p>  	    <p align="justify"><font face="verdana" size="2"><i>Elaboraci&oacute;n de la lista de indicadores</i></font></p>  	    <p align="justify"><font face="verdana" size="2">El punto de partida es la idea de que un sistema de indicadores no se reduce a una lista de ellos, simplemente yuxtapuestos. Para constituir un aut&eacute;ntico sistema, por el contrario, los indicadores deben integrarse de manera l&oacute;gica, seg&uacute;n criterios precisos.</font></p>  	    <p align="justify"><font face="verdana" size="2">Si el prop&oacute;sito que gu&iacute;a la construcci&oacute;n de un sistema de indicadores es evaluar la calidad del sistema educativo con amplitud, precisar esa noci&oacute;n de calidad es fundamental. Como se ha visto, una noci&oacute;n rica de calidad debe incluir dimensiones como relevancia y pertinencia, eficacia interna y externa, impacto, suficiencia y eficiencia y equidad.</font></p>  	    <p align="justify"><font face="verdana" size="2">Un marco de referencia para construir indicadores, que se propone como alternativa al enfoque sist&eacute;mico, es el del derecho a la educaci&oacute;n. No parece que esos dos marcos deban oponerse, sino que m&aacute;s bien se complementan. Un sistema educativo, en efecto, no podr&aacute; ser considerado bueno si no consigue que se cumpla con las exigencias del derecho a una buena educaci&oacute;n. Es necesario, pues, precisar lo que se entiende por una buena educaci&oacute;n, lo que lleva de nuevo a la necesidad de precisar dimensiones como relevancia, eficacia y eficiencia, entre otras, como se hace en el enfoque sist&eacute;mico expuesto en este texto.</font></p>  	    <p align="justify"><font face="verdana" size="2">Si se decide desarrollar un sistema de indicadores a partir de ciertas metas de pol&iacute;tica previamente definidas, este primer paso ser&aacute; muy sencillo, pero no habr&aacute; que perder de vista algunas dimensiones de la calidad educativa que el conjunto de metas de que se trate no incluya, por dar prioridad a otros aspectos. Esa prioridad puede ser justificada, y ser&aacute; razonable centralizar los esfuerzos en cierta direcci&oacute;n, pero no por ello deber&aacute;n olvidarse las dem&aacute;s dimensiones de la calidad.</font></p>  	    <p align="justify"><font face="verdana" size="2">Los enfoques sist&eacute;mico y estrat&eacute;gico tampoco se contraponen. El primero, con su pretensi&oacute;n de (relativa) exhaustividad, siempre ser&aacute; necesario, pero es razonable conceder especial atenci&oacute;n al desarrollo de indicadores que atiendan las metas definidas como prioritarias en las pol&iacute;ticas educativas en un momento determinado.</font></p>  	    <p align="justify"><font face="verdana" size="2">Deber&aacute; evitarse el frecuente error de dise&ntilde;ar un sistema de indicadores utilizando s&oacute;lo la informaci&oacute;n ya existente. Un buen sistema de indicadores convendr&aacute; dise&ntilde;arse a partir de lo que se defina como importante, sist&eacute;mica o estrat&eacute;gicamente, aunque para muchos aspectos no se cuente con datos adecuados y deban realizarse despu&eacute;s todos los esfuerzos para obtener la informaci&oacute;n necesaria.</font></p>  	    <p align="justify"><font face="verdana" size="2">Una vez establecida una primera lista de indicadores a desarrollar, sea con un enfoque o con otro, deber&aacute; pasarse a la siguiente etapa.</font></p>  	    <p align="justify"><font face="verdana" size="2"><i>Desarrollo de cada indicador</i></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Deber&aacute; precisarse el nombre y la definici&oacute;n de cada indicador, y ubic&aacute;rsele en el marco de referencia que se est&eacute; utilizando. Habr&aacute;n de se&ntilde;alarse, adem&aacute;s, las fuentes de obtenci&oacute;n de la informaci&oacute;n de base; la f&oacute;rmula de c&aacute;lculo y, en su caso, los criterios para ello; las posibles formas de desagregar el indicador (v. gr., por g&eacute;nero, entidad, modalidad de escuela, etc&eacute;tera); y aportar elementos para la interpretaci&oacute;n de los resultados.</font></p>  	    <p align="justify"><font face="verdana" size="2">Pese a todos los esfuerzos que se hagan, es seguro que el resultado de esta etapa no ser&aacute; un indicador perfecto, por lo que ser&aacute; necesario llevar a cabo, en la siguiente etapa, un proceso de depuraci&oacute;n y refinamiento.</font></p>  	    <p align="justify"><font face="verdana" size="2"><i>Jueceo inicial</i></font></p>  	    <p align="justify"><font face="verdana" size="2">Antes de proceder a organizar costosos procesos de recolecci&oacute;n de informaci&oacute;n para alimentar un sistema de indicadores, cada uno de los elementos que lo forman deber&aacute; someterse a un cuidadoso escrutinio, mediante un procedimiento de jueceo entre expertos y usuarios, para valorar a priori el grado en que cada indicador parece satisfacer los criterios de calidad aplicables que son, al menos, los siguientes:</font></p>  	 		    <blockquote> 		      <p align="justify"><font face="verdana" size="2">&bull; <i>Validez</i>, cualidad t&eacute;cnica b&aacute;sica, la propiedad del indicador que consiste en que mida realmente lo que se pretende que mida.</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; <i>Confiabilidad</i>, la otra cualidad t&eacute;cnica esencial, consistente en que el indicador se defina conceptual y operacionalmente de forma tal que la informaci&oacute;n que permita obtener sea consistente a lo largo de sucesivas aplicaciones.</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; <i>Comparabilidad</i>, si el indicador es aplicable en contextos (educativos) diferentes de modo tal que permita comparaciones significativas.</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; <i>Estabilidad temporal</i>, si permite comparaciones a lo largo del tiempo.</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; <i>Actualidad</i> de la informaci&oacute;n que ofrece el indicador (freshness), ya que uno que no pueda ofrecer informaci&oacute;n razonablemente reciente, no tiene mucho valor.</font></p> 		      ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&bull; <i>Sensibilidad</i>, que se dar&aacute; si valores distintos de un indicador se asocian, en forma consistente, a diferencias significativas de los sistemas educativos.</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; <i>Factibilidad de implementaci&oacute;n</i> del indicador, si la informaci&oacute;n necesaria para construirlo puede obtenerse. Cuando esa informaci&oacute;n no est&eacute; disponible, deber&aacute; valorarse la importancia del indicador en relaci&oacute;n con el costo que implicar&aacute;.</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; <i>Importancia</i>, en el sentido de que el indicador se refiera a un elemento del sistema educativo que tenga peso significativo en relaci&oacute;n con alguna dimensi&oacute;n de la calidad.</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; <i>Utilidad</i>, como el grado en que el indicador se refiera a un aspecto en el que las decisiones que tomen los responsables puedan impactar de manera significativa.</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; <i>Claridad</i>, en el sentido de que la manera en que presente la informaci&oacute;n deber&aacute; facilitar una adecuada interpretaci&oacute;n por parte de los usuarios.</font></p> </blockquote>      <p align="justify"><font face="verdana" size="2">Adem&aacute;s de los criterios anteriores, aplicables a cada indicador, deber&aacute; valorarse la calidad del conjunto, y juzgar si cubre de manera suficiente y equilibrada el objeto de estudio con un n&uacute;mero razonable de indicadores ni excesivo ni escaso, esto es, los criterios de <i>cobertura, balance y parsimonia</i> del sistema de indicadores como tal.</font></p>  	    <p align="justify"><font face="verdana" size="2">El an&aacute;lisis deber&aacute; involucrar un n&uacute;mero razonable de jueces, de tres tipos: expertos, investigadores o especialistas de los temas cubiertos; <i>usuarios especializados</i>, responsables del sistema educativo con experiencia de nivel alto y medio; y <i>usuarios de base</i>, como directores de escuela, maestros y padres de familia.</font></p>  	    <p align="justify"><font face="verdana" size="2">El proceso de jueceo deber&aacute; comprender al menos tres vueltas, en forma similar a la que se emplea en la t&eacute;cnica <i>delphi</i>. En cada vuelta se solicitar&aacute; a los jueces que califiquen cada indicador seg&uacute;n los criterios de calidad en una escala ordinal de cinco valores, de muy adecuado a muy inadecuado, con las siguientes variantes:</font></p>  	 		    <blockquote> 		      <p align="justify"><font face="verdana" size="2">&bull; En la primera vuelta se solicitar&aacute; simplemente la opini&oacute;n de los participantes sobre cada uno de los aspectos mencionados de cada indicador.</font></p> 		      ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&bull; En la segunda se pedir&aacute; a los participantes que vuelvan a opinar sobre cada aspecto de cada indicador, y se tendr&aacute; a la vista informaci&oacute;n sobre las opiniones de los dem&aacute;s participantes en la primera vuelta, en la forma de medias y desviaciones de las puntuaciones obtenidas por cada indicador en cada criterio. A quienes tengan opiniones que difieran mucho de la tendencia promedio, se les pedir&aacute; que expresen argumentos para defender su posici&oacute;n.</font></p> 		      <p align="justify"><font face="verdana" size="2">&bull; En la tercera se solicitar&aacute; de nuevo la opini&oacute;n de los participantes, pero se les dar&aacute;, adem&aacute;s, informaci&oacute;n sobre los argumentos de los participantes con opiniones extremas o discordantes en la vuelta anterior.</font></p> </blockquote>      <p align="justify"><font face="verdana" size="2">Con base en las opiniones de los jueces se podr&aacute; decidir cu&aacute;les indicadores satisfacen, de manera m&aacute;s o menos amplia, los criterios de calidad antes mencionados. Entre una vuelta y otra, podr&aacute;n modificarse o descartarse los indicadores que, seg&uacute;n el consenso recabado, no satisfagan los criterios de calidad. La opini&oacute;n de los expertos deber&aacute; tener mayor peso en las decisiones sobre los criterios de validez, confiabilidad, comparabilidad y estabilidad temporal, as&iacute; como los de actualidad y sensibilidad; la opini&oacute;n de los <i>usuarios especializados</i> es de especial relevancia para decidir sobre la factibilidad, importancia y utilidad; y la de los usuarios de base, para juzgar sobre la claridad de los indicadores.</font></p>  	    <p align="justify"><font face="verdana" size="2">Teniendo en cuenta que algunos de los participantes en el proceso podr&aacute;n abandonarlo antes de terminar, y el tiempo que implica recoger las opiniones de cada vuelta y procesarlas antes de la siguiente, habr&aacute; que considerar un tiempo razonable para cada una (de dos a cuatro semanas) e incluir, desde el inicio, a un n&uacute;mero de jueces mayor que el que se espera termine el proceso.</font></p>  	    <p align="justify"><font face="verdana" size="2"><i>Prueba piloto o primera aplicaci&oacute;n</i></font></p>  	    <p align="justify"><font face="verdana" size="2">Tras las etapas anteriores podr&aacute; procederse a una primera aplicaci&oacute;n del sistema, y alimentarlo con la informaci&oacute;n necesaria, sea ya existente o generada <i>ex profeso</i>, as&iacute; como realizar los procesos de depuraci&oacute;n y c&aacute;lculo necesarios para obtener los primeros valores de cada indicador.</font></p>  	    <p align="justify"><font face="verdana" size="2">Con los resultados de la primera aplicaci&oacute;n se podr&aacute; hacer un nuevo an&aacute;lisis de la calidad de cada indicador y del sistema en conjunto, esta vez <i>a posteriori</i>, revisando la consistencia de la informaci&oacute;n y contrast&aacute;ndola con otra comparable, por ejemplo derivada de investigaciones independientes. Podr&aacute; tambi&eacute;n valorarse en qu&eacute; medida la informaci&oacute;n que arroja el sistema es interpretada correctamente y utilizada para sustentar acciones de mejora. Tras lo anterior, el sistema podr&aacute; operar con regularidad, con dos procesos adicionales: uno de refinamiento permanente de los indicadores que lo requieran, con base en la experiencia que se ir&aacute; acumulando, y otro de establecimiento y ajuste de par&aacute;metros o est&aacute;ndares de referencia, con los cuales se contrastar&aacute;n los valores de los indicadores, para llegar a un juicio de valor.</font></p>  	    <p align="justify"><font face="verdana" size="2">No debe olvidarse que la evaluaci&oacute;n implica la medici&oacute;n, pero no se reduce a ella. Un indicador captura o mide cierto aspecto o dimensi&oacute;n de la realidad a evaluar, en nuestro caso del sistema educativo, lo cual es necesario, pero no suficiente para evaluar ese aspecto: para llegar a un juicio sobre lo adecuado o inadecuado de la realidad medida hace falta un referente que defina lo que se considera adecuado o inadecuado.</font></p>  	    <p align="justify"><font face="verdana" size="2">Ese referente con que debe contrastarse el resultado de la medici&oacute;n es el <i>par&aacute;metro o est&aacute;ndar</i>. Es normativo; no emp&iacute;rico. Para definirlo, la pregunta que hay que formular es &iquest;con qu&eacute; o con qui&eacute;n debemos compararnos? Los referentes pueden ser de tres tipos: <i>&oacute;ptimos, promedio y m&iacute;nimos.</i></font></p>  	    <p align="justify"><font face="verdana" size="2">Trat&aacute;ndose de juicios de valor sobre sistemas educativos nacionales, los referentes &oacute;ptimos pueden ser los resultados educativos de los pa&iacute;ses m&aacute;s avanzados. Al interior de un sistema educativo, cuando se trate de juicios de valor sobre escuelas, los referentes &oacute;ptimos ser&aacute;n los resultados de las mejores. Usar como punto de comparaci&oacute;n tal tipo de referentes &oacute;ptimos equivale al enfoque conocido como benchmarking, o la identificaci&oacute;n de las llamadas <i>mejores pr&aacute;cticas.</i></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">El uso de referentes promedio implica comparar los resultados de un sistema, una escuela o un alumno con la media de los sistemas, escuelas o alumnos que se eval&uacute;a. Es el tipo de comparaci&oacute;n que se refleja en expresiones como: <i>tal escuela est&aacute; por encima de la media nacional; o bien: la media de M&eacute;xico es inferior a la de los pa&iacute;ses de la OCDE</i>. Cuando se compara a un pa&iacute;s con otros de desarrollo similar, de alguna manera se utiliza este tipo de referente. El uso de referentes m&iacute;nimos implica que se establezca el menor valor aceptable, cuyo cumplimiento permite, por ejemplo, que un alumno sea aprobado, o que una instituci&oacute;n sea acreditada. El uso de los pa&iacute;ses de menor desarrollo como puntos de comparaci&oacute;n podr&iacute;a verse como una aproximaci&oacute;n al uso de referentes m&iacute;nimos.</font></p>  	    <p align="justify"><font face="verdana" size="2">Cada referente (&oacute;ptimo, promedio y m&iacute;nimo) tiene cierto sentido; cada uno arroja luz sobre la realidad evaluada desde cierta perspectiva, y ninguno es suficiente. Parece conveniente usar los tres tipos, para lograr una apreciaci&oacute;n m&aacute;s completa.</font></p>  	    <p align="justify"><font face="verdana" size="2">Tiene sentido comparar la situaci&oacute;n educativa de M&eacute;xico con la de pa&iacute;ses m&aacute;s avanzados. La situaci&oacute;n de estos &uacute;ltimos es diferente de la del nuestro, pero no deja de ser un punto de referencia, una meta a perseguir, aunque sea a mediano o largo plazo; la globalizaci&oacute;n del mundo contempor&aacute;neo lo hace inevitable. Sin embargo, utilizar s&oacute;lo tales referentes envuelve una dosis de injusticia, al no tener en cuenta numerosos factores demogr&aacute;ficos, econ&oacute;micos, sociales y culturales. La equidad implica usar par&aacute;metros que consideren los contextos de las realidades evaluadas, comparando lo realmente comparable. Por ello, el emplear tambi&eacute;n como referentes a los pa&iacute;ses de desarrollo similar, usando referentes <i>promedio</i>, es un complemento deseable en las comparaciones internacionales.</font></p>  	    <p align="justify"><font face="verdana" size="2">La evaluaci&oacute;n de los sistemas educativos de las entidades federativas puede hacerse, de manera similar, en relaci&oacute;n con referentes &oacute;ptimos, promedio o m&iacute;nimos. Como referente &oacute;ptimo puede usarse el nivel de las entidades m&aacute;s desarrolladas, que pueden considerarse referentes de <i>benchmarking</i> para las menos avanzadas. La media nacional es el referente promedio natural. En cuanto a los referentes m&iacute;nimos, las autoridades educativas podr&aacute;n establecerlos. En el &aacute;mbito internacional, organismos como la UNESCO y la OCDE pueden fijar este tipo de par&aacute;metros m&iacute;nimos.</font></p>  	    <p align="justify"><font face="verdana" size="2">Una forma diferente, y sugestiva, de definir referentes es la de emplear como tales la situaci&oacute;n del sistema a evaluar en el pasado, el presente o el futuro. La situaci&oacute;n en cierto momento del pasado puede verse como referente m&iacute;nimo.</font></p>  	    <p align="justify"><font face="verdana" size="2">El futuro puede usarse como punto de referencia, en el sentido de que un sistema, o una escuela, puede valorar si alcanza o no, si se aproxima o se aleja, a mayor o menor velocidad, a las metas que se haya establecido en determinado horizonte temporal. Tal vez, estos par&aacute;metros sean los m&aacute;s pertinentes para valorar la calidad educativa: una escuela o sistema escolar de calidad es, finalmente, aquella o aquel que siempre mejora respecto a s&iacute; mismo, sin idealizar el pasado y con metas ambiciosas, pero realistas para el futuro.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>REFLEXIONES FINALES</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Quienes se dedican a desarrollar indicadores, as&iacute; como los responsables del dise&ntilde;o de pol&iacute;ticas, que los requieren para sustentar mejor sus decisiones, deben tener claro que, contra lo que a menudo se piensa, el proceso de desarrollo de estas herramientas es necesariamente largo, si se quiere que sea s&oacute;lido.</font></p>  	    <p align="justify"><font face="verdana" size="2">No es raro que se piense que la tarea en cuesti&oacute;n puede hacerse en pocas semanas, si ya existen bases de datos con las estad&iacute;sticas que suelen recogerse con periodicidad en todos los sistemas educativos. Se pierde de vista que, para asegurar la solidez del trabajo, los pasos indicados en la metodolog&iacute;a antes presentada se deben seguir con cuidado; que se debe involucrar a grupos de actores calificados; y que los productos del trabajo deben revisarse y corregirse una y otra vez, antes de que se les considere establecidos. En el caso de indicadores educativos, hay que tener en cuenta el ritmo anual de los procesos de recolecci&oacute;n de estad&iacute;sticas que se obtienen de las escuelas al inicio o fin de cada ciclo escolar; as&iacute; podr&aacute; entenderse que el tiempo que implica no s&oacute;lo el primer planteamiento de un indicador, sino su refinamiento hasta alcanzar un grado aceptable de madurez, implica varios a&ntilde;os.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Al sacar las lecciones del <i>movimiento de los indicadores</i> sociales de los a&ntilde;os sesenta, una especialista advert&iacute;a sobre el tiempo que se "necesita para el desarrollo de un concepto satisfactorio, luego para la producci&oacute;n de una medida pr&aacute;ctica y, finalmente, para asegurar que el indicador resultante sea entendido y utilizado", y recordaba que "los indicadores existentes han requerido veinte, treinta o m&aacute;s a&ntilde;os, desde el momento en que aparecieron las primeras demandas p&uacute;blicas y los primeros an&aacute;lisis te&oacute;ricos&hellip;".</font></p>  	    <p align="justify"><font face="verdana" size="2">Precisando las ideas anteriores, esa experta se&ntilde;alaba:</font></p>  	 		    <blockquote> 		      <p align="justify"><font face="verdana" size="2">Hay que contar con que la creaci&oacute;n de un indicador nuevo toma largo tiempo. Este tiempo dif&iacute;cilmente puede abreviarse, dada la naturaleza iterativa de los procesos de formaci&oacute;n de conceptos y de los esfuerzos de medici&oacute;n, as&iacute; como la dificultad de identificar el car&aacute;cter preciso de las preocupaciones p&uacute;blicas antes de producir una medida. Si se debe desarrollar un m&eacute;todo nuevo es necesario adem&aacute;s tener en cuenta el tiempo necesario para los ajustes por ensayo y error. Aun si ya existen algunos antecedentes de investigaci&oacute;n y cierto consenso alrededor de un problema, es probable que pasen al menos 10 a&ntilde;os entre el deseo de contar con una medida y la producci&oacute;n efectiva de esta (De Neufville, 1975, pp. 241&#150;244).</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">Pensando en t&eacute;rminos de <i>sistema de indicadores</i>, y no uno u otro aislado, no debemos esperar a tener perfectamente probado el primero para emprender el desarrollo del siguiente. Los tiempos de que habla De Neufville no deber&aacute;n multiplicarse por el n&uacute;mero de indicadores a desarrollar, pero tampoco podr&aacute;n acortarse. Por ello, el desarrollo de un sistema de indicadores maduro es tarea de, al menos, una d&eacute;cada.</font></p>  	    <p align="justify"><font face="verdana" size="2">Por otra parte, debe estar claro que los indicadores son s&oacute;lo una herramienta que puede apoyar la toma de decisiones, pero que nada puede remplazar el papel de autoridades responsables competentes.</font></p>  	    <p align="justify"><font face="verdana" size="2">Sheldon afirma que "con cada movimiento de indicadores, el entusiasmo creci&oacute; y disminuy&oacute;, a medida que el optimismo sobre lo que podr&iacute;an conseguir los indicadores dej&oacute; el lugar a la realidad de lo que efectivamente consiguieron, tanto en la educaci&oacute;n como, m&aacute;s generalmente, en la sociedad" (seg&uacute;n Shavelson <i>et al</i>., 1989, p. 2).</font></p>  	    <p align="justify"><font face="verdana" size="2">Como muestran esos especialistas, tras varias experiencias frustrantes las expectativas sobre lo que pueden aportar o no los sistemas de indicadores son m&aacute;s realistas. La literatura muestra que se ha llegado a un consenso en cuanto a que los indicadores no pueden, por s&iacute; mismos, fijar objetivos o prioridades, evaluar programas o establecer balances. Todo ello puede apoyarse en la informaci&oacute;n de un buen sistema de indicadores, pero implica otras acciones. Las expectativas sobre los indicadores que hay ahora en los sistemas educativos con mayor experiencia al respecto, son bastante modestas: pueden servir "para describir y plantear problemas con mayor precisi&oacute;n; para detectarlos m&aacute;s tempranamente; para tener pistas sobre programas educativos prometedores y cosas similares" (Shavelson et al., 1989, pp. 7&#150;8).</font></p>  	    <p align="justify"><font face="verdana" size="2">Por otra parte, al presentar la reedici&oacute;n de su obra de 1975, Innes de Neufville (2002) se&ntilde;ala que casi todos los aspectos t&eacute;cnicos de su libro siguen vigentes, pero que ahora se enmarcan en una visi&oacute;n de la relaci&oacute;n entre conocimiento y toma de decisiones m&aacute;s rica que la que prevalec&iacute;a en la d&eacute;cada de 1970, todav&iacute;a marcada por una concepci&oacute;n ingenuamente positivista, en la que los indicadores eran el fruto de un trabajo t&eacute;cnico puro, sin interferencia de intereses de grupo o extraacad&eacute;micos.</font></p>  	    <p align="justify"><font face="verdana" size="2">En 2002, la autora contextualizaba sus ideas t&eacute;cnicas sobre los indicadores en una concepci&oacute;n m&aacute;s compleja de la relaci&oacute;n entre conocimiento y acci&oacute;n, con apoyo en el pragmatismo de principios del siglo XX, las teor&iacute;as interpretativas, las concepciones de Berger y Luckmann, y las de Habermas. En esta perspectiva, el conocimiento &uacute;til no surge s&oacute;lo del trabajo t&eacute;cnico, sino que se mezcla, de modo inexorable, con puntos de vista que privilegian unos aspectos de la realidad y se confrontan o complementan de manera compleja. La utilidad de un sistema de indicadores para apoyar decisiones no depende en forma exclusiva de su solidez t&eacute;cnica, sino tambi&eacute;n de la legitimidad que le d&eacute; la participaci&oacute;n de actores varios en su construcci&oacute;n y de la riqueza del proceso de construcci&oacute;n mismo, con aportes t&eacute;cnicos, discusiones que aclaren puntos dif&iacute;ciles y consensos m&aacute;s o menos amplios laboriosamente alcanzados.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Las reflexiones anteriores sobre la necesidad de invertir recursos y tiempos considerables para desarrollar un buen sistema de indicadores, no deben desalentar a quienes se dediquen a esas tareas. Todo camino, por largo que sea, comienza con los primeros pasos:</font></p>  	    <blockquote> 	      <p align="justify"><font face="verdana" size="2">&hellip;se presta considerable atenci&oacute;n a la imprecisi&oacute;n de muchos datos estad&iacute;sticos, a las distorsiones incorporadas sistem&aacute;ticamente en algunos casos, a los frecuentes errores de interpretaci&oacute;n y a la creciente posibilidad de manipular los datos &#91;&hellip;&#93; se necesitan mejoras tanto en la cantidad como en la calidad de las estad&iacute;sticas &#91;&hellip;&#93; La conclusi&oacute;n parece ser que en vez de no hacer nada, es preferible comenzar con datos malos, advertir a todos sobre sus defectos y limitaciones, y buscar una mejora gradual gracias a su uso (Gross, 1966, p. xvi).</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>REFERENCIAS BIBLIOGR&Aacute;FICAS</b></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Anderson, G. &amp; Herr, K. (1999). The New Paradigm Wars, <i>Educational Researcher</i>, (28) 5, 12&#150;21.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581234&pid=S1665-109X201000020000400001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Bandura, R. (2006). <i>A Survey of Composite Indices Measuring Country Performance: 2006 Update</i>. United Nations Development Programme&#150;Office of Development Studies.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581236&pid=S1665-109X201000020000400002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Bauer, R. (ed.). (1966). <i>Social Indicators</i>. Cambridge: MIT.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581238&pid=S1665-109X201000020000400003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Biderman, A. (1966). <i>Social Indicators and Goals</i>. En Bauer, 1966, pp. 68&#150;153.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581240&pid=S1665-109X201000020000400004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Bulmer, M. (1986). <i>The Chicago School of Sociology</i>. Chicago: The University of Chicago Press.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581242&pid=S1665-109X201000020000400005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">CERI&#150;INES (1991). <i>General Assembly on International Education Indicators Handbook</i>. Par&iacute;s: OCDE.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581244&pid=S1665-109X201000020000400006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Comit&eacute; Presidencial de Investigaci&oacute;n sobre Tendencias Sociales (1933). <i>Recent Social Trends in the United States</i>. New Cork: McGraw Hill.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581246&pid=S1665-109X201000020000400007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Comisi&oacute;n Europea (1999). <i>Selection and use of indicators for monitoring &amp; evaluation. Evaluating socio&#150;economic programmes</i>, (2). Luxembourg: Publications of the European Communities.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581248&pid=S1665-109X201000020000400008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Gross, B. (1966). Preface. A Historical Note on Social Indicators, en Bauer, 1966, ix&#150;xviii.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581250&pid=S1665-109X201000020000400009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Innes de Neufville, J. (2002). <i>Knowledge and Public Policy: The Search for Meaningful Indicators</i>. New Brunswick. Transaction Publ. (2a. ed.) <i>Social Indicators and Public Policy. Interactive Processes of Design and Application</i>. Amsterdam: Elsevier Scientific Publ. Co. 1975.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581252&pid=S1665-109X201000020000400010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Jaeger, R. (1978). About educational indicators: Statistics on the conditions and trends in education. <i>Review of Research in Education</i>, (6), 276&#150;315.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581254&pid=S1665-109X201000020000400011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Mart&iacute;nez Rizo, F. (1993). La pol&eacute;mica sobre la cuantificaci&oacute;n en el campo de las ciencias del hombre. Papers (Univ. Aut&oacute;noma de Barcelona), n&uacute;m. 42, pp.13&#150;34.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581256&pid=S1665-109X201000020000400012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">&#150;&#150;&#150;&#150;&#150;&#150;&#150;&#150;&#150;&#150; (1991). The Controversy about Quantification in Social Research. <i>Educational Researcher</i>, vol. 20 (december), n&uacute;m. 9, 9&#150;12.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581258&pid=S1665-109X201000020000400013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Mart&iacute;nez Rizo, F. <i>et al</i>. (2007). <i>Propuestas y experiencias para desarrollar un sistema de indicadores educativos</i>. M&eacute;xico: INEE.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581260&pid=S1665-109X201000020000400014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Oakes, J. (1986). <i>Educational Indicators: A Guide for Policymakers</i>. New Brunswick Center for Policy Research in Education, Rutgers University; Rand Corporation; Univ. of Wisconsin.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581262&pid=S1665-109X201000020000400015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Odden, A. (june&#150;july, 1990). Educational Indicators in the United States: The Need for Analysis, <i>Educational Researcher</i>, 24&#150;29.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581264&pid=S1665-109X201000020000400016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">OECD&#150;European Comission (2008). <i>Handbook on Constructing Composite Indicators. Methodology and User Guide</i>. Par&iacute;s: OECD.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581266&pid=S1665-109X201000020000400017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Puryear, J. (1993). Status and Problems of International Educational Statistics and Research. CIES Newsletter, (103), 4.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581268&pid=S1665-109X201000020000400018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Shavelson, R. &amp; Towne, L. (eds.) (2002). <i>Scientific research in education</i>. Washington: National Academy Press.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581270&pid=S1665-109X201000020000400019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Shavelson, R., McDonnell, L. &amp; Oakes, J. (1991). Steps in designing an indicator system. <i>Practical Assessment, Resarch &amp; Evaluation</i>. Electronic Journal. ERIC.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581272&pid=S1665-109X201000020000400020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">&#150;&#150;&#150;&#150;&#150;&#150;&#150;&#150;&#150;&#150; (eds.) (1989). <i>Indicators for Monitoring Mathematics and Science Education</i>. A Sourcebook. Santa Monica: Rand.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581274&pid=S1665-109X201000020000400021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Special Study Panel on Education Indicators (1991). Education Counts. <i>An Indicator System to Monitor the Nation's Educational Health</i>. Washington: National Center for Educational Statistics&#150;USA Dpt. of Education.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581276&pid=S1665-109X201000020000400022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Tuijnman, A. &amp; Bottani, N. (eds.) (1994). <i>Making Education Count. Developing and Using International Indicators</i>. Par&iacute;s: OCDE.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581278&pid=S1665-109X201000020000400023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Wyatt, T. (1994). Education indicators: a review of the literature. En Tuijnman y Bottani, 1994, 99&#150;121.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9581280&pid=S1665-109X201000020000400024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>INFORMACI&Oacute;N SOBRE EL AUTOR</b></font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Felipe Mart&iacute;nez Rizo:</b> Licenciado en Ciencias Sociales por la Universidad de Lovaina. Desde 1974 profesor de la Universidad Aut&oacute;noma de Aguascalientes, donde ha sido director general de Planeaci&oacute;n y de Asuntos Acad&eacute;micos, decano del Centro de Ciencias Sociales y rector. Sus l&iacute;neas de investigaci&oacute;n incluyen la educaci&oacute;n superior y la b&aacute;sica, en temas de calidad, planeaci&oacute;n, evaluaci&oacute;n y desigualdad. Investigador nacional nivel II. Miembro de la Academia Mexicana de Ciencias. Director general fundador del Instituto Nacional para la Evaluaci&oacute;n de la Educaci&oacute;n, de 2002 a 2008.</font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Anderson]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Herr]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The New Paradigm Wars]]></article-title>
<source><![CDATA[Educational Researcher]]></source>
<year>1999</year>
<volume>28</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>12-21</page-range></nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bandura]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<source><![CDATA[A Survey of Composite Indices Measuring Country Performance: 2006 Update]]></source>
<year>2006</year>
<publisher-name><![CDATA[United Nations Development Programme-Office of Development Studies]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bauer]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<source><![CDATA[Social Indicators]]></source>
<year>1966</year>
<publisher-loc><![CDATA[Cambridge ]]></publisher-loc>
<publisher-name><![CDATA[MIT]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Biderman]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Bauer]]></surname>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Social Indicators and Goals]]></article-title>
<source><![CDATA[]]></source>
<year>1966</year>
<month>19</month>
<day>66</day>
<page-range>68-153</page-range></nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bulmer]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[The Chicago School of Sociology]]></source>
<year>1986</year>
<publisher-loc><![CDATA[Chicago ]]></publisher-loc>
<publisher-name><![CDATA[The University of Chicago Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="book">
<collab>CERI</collab>
<collab>INES</collab>
<source><![CDATA[General Assembly on International Education Indicators Handbook]]></source>
<year>1991</year>
<publisher-loc><![CDATA[París ]]></publisher-loc>
<publisher-name><![CDATA[OCDE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="book">
<collab>Comité Presidencial de Investigación sobre Tendencias Sociales</collab>
<source><![CDATA[Recent Social Trends in the United States]]></source>
<year>1933</year>
<publisher-loc><![CDATA[New Cork ]]></publisher-loc>
<publisher-name><![CDATA[McGraw Hill]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="book">
<collab>Comisión Europea</collab>
<source><![CDATA[Selection and use of indicators for monitoring & evaluation. Evaluating socio-economic programmes]]></source>
<year>1999</year>
<volume>2</volume>
<publisher-loc><![CDATA[Luxembourg ]]></publisher-loc>
<publisher-name><![CDATA[Publications of the European Communities]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Gross]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Preface. A Historical Note on Social Indicators]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Bauer]]></surname>
</name>
</person-group>
<source><![CDATA[]]></source>
<year>1966</year>
<month>19</month>
<day>66</day>
<page-range>ix-xviii</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Innes de Neufville]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Knowledge and Public Policy: The Search for Meaningful Indicators]]></article-title>
<source><![CDATA[Social Indicators and Public Policy. Interactive Processes of Design and Application]]></source>
<year>2002</year>
<month>19</month>
<day>75</day>
<publisher-loc><![CDATA[Amsterdam ]]></publisher-loc>
<publisher-name><![CDATA[Elsevier Scientific Publ. Co]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Jaeger]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[About educational indicators: Statistics on the conditions and trends in education]]></article-title>
<source><![CDATA[Review of Research in Education]]></source>
<year>1978</year>
<numero>6</numero>
<issue>6</issue>
<page-range>276-315</page-range></nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Martínez Rizo]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[La polémica sobre la cuantificación en el campo de las ciencias del hombre]]></article-title>
<source><![CDATA[Papers]]></source>
<year>1993</year>
<numero>42</numero>
<issue>42</issue>
<page-range>13-34</page-range><publisher-name><![CDATA[Univ. Autónoma de Barcelona]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Martínez Rizo]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The Controversy about Quantification in Social Research]]></article-title>
<source><![CDATA[Educational Researcher]]></source>
<year>1991</year>
<volume>20</volume>
<numero>9</numero>
<issue>9</issue>
<page-range>9-12</page-range></nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Martínez Rizo]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<source><![CDATA[Propuestas y experiencias para desarrollar un sistema de indicadores educativos]]></source>
<year>2007</year>
<publisher-loc><![CDATA[México ]]></publisher-loc>
<publisher-name><![CDATA[INEE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Oakes]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[Educational Indicators: A Guide for Policymakers]]></source>
<year>1986</year>
<publisher-name><![CDATA[New Brunswick Center for Policy Research in Education, Rutgers UniversityRand CorporationUniv. of Wisconsin]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Odden]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Educational Indicators in the United States: The Need for Analysis]]></article-title>
<source><![CDATA[Educational Researcher]]></source>
<year>june</year>
<month>-j</month>
<day>ul</day>
<page-range>24-29</page-range></nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="book">
<collab>OECD^dEuropean Comission</collab>
<source><![CDATA[Handbook on Constructing Composite Indicators. Methodology and User Guide]]></source>
<year>2008</year>
<publisher-loc><![CDATA[París ]]></publisher-loc>
<publisher-name><![CDATA[OECD]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Puryear]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Status and Problems of International Educational Statistics and Research]]></article-title>
<source><![CDATA[CIES Newsletter]]></source>
<year>1993</year>
<numero>103</numero>
<issue>103</issue>
<page-range>4</page-range></nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Shavelson]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Towne]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<source><![CDATA[Scientific research in education]]></source>
<year>2002</year>
<publisher-loc><![CDATA[Washington ]]></publisher-loc>
<publisher-name><![CDATA[National Academy Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Shavelson]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[McDonnell]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
<name>
<surname><![CDATA[Oakes]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Steps in designing an indicator system]]></article-title>
<source><![CDATA[Practical Assessment, Resarch & Evaluation]]></source>
<year>1991</year>
<publisher-name><![CDATA[ERIC]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Shavelson]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<person-group person-group-type="editor">
<name>
</name>
</person-group>
<source><![CDATA[Indicators for Monitoring Mathematics and Science Education. A Sourcebook]]></source>
<year>1989</year>
<publisher-loc><![CDATA[Santa Monica ]]></publisher-loc>
<publisher-name><![CDATA[Rand]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="book">
<collab>Special Study Panel on Education Indicators</collab>
<source><![CDATA[Education Counts. An Indicator System to Monitor the Nation's Educational Health]]></source>
<year>1991</year>
<publisher-loc><![CDATA[Washington ]]></publisher-loc>
<publisher-name><![CDATA[National Center for Educational Statistics-USA Dpt. of Education]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Tuijnman]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Bottani]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
</person-group>
<source><![CDATA[Making Education Count. Developing and Using International Indicators]]></source>
<year>1994</year>
<publisher-loc><![CDATA[París ]]></publisher-loc>
<publisher-name><![CDATA[OCDE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wyatt]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Education indicators: a review of the literature]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Tuijnman]]></surname>
</name>
<name>
<surname><![CDATA[Bottani]]></surname>
</name>
</person-group>
<source><![CDATA[]]></source>
<year>1994</year>
<month>19</month>
<day>94</day>
<page-range>99-121</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
