<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0185-2760</journal-id>
<journal-title><![CDATA[Revista de la educación superior]]></journal-title>
<abbrev-journal-title><![CDATA[Rev. educ. sup]]></abbrev-journal-title>
<issn>0185-2760</issn>
<publisher>
<publisher-name><![CDATA[Asociación Nacional de Universidades e Instituciones de Educación Superior de la República Mexicana A.C.]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0185-27602011000100004</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Los rankings de universidades: una visión crítica]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Martínez Rizo]]></surname>
<given-names><![CDATA[Felipe]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Autónoma de Aguascalientes Departamento de Educación ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>03</month>
<year>2011</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>03</month>
<year>2011</year>
</pub-date>
<volume>40</volume>
<numero>157</numero>
<fpage>77</fpage>
<lpage>97</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_arttext&amp;pid=S0185-27602011000100004&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_abstract&amp;pid=S0185-27602011000100004&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_pdf&amp;pid=S0185-27602011000100004&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Después de repasar la historia de los rankings de universidades y describir la forma en que han proliferado, el trabajo presenta las características de tres de los más importantes en el plano internacional: el de Shanghai, el del Times Higher Education Suplementy el de las universidades en la web, que se contrastan con el sistema del Center for Higher Education Development alemán. Se presentan los criterios que tales ordenamientos deberían satisfacer que para ser considerados consistentes, se aplican a los ordenamientos en general y a dos de los mencionados en particular, y se concluye que sus limitaciones metodológicas son tan graves que no justifican su pretensión de ser confiables para evaluar a las universidades.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[After reviewing the history of university rankings and describing their growth, the characterization of three of the most important rankings internationally is presented, namely: Shanghai, Times Higher Education Supplement and the Web of World Universities, these are contrasted with the German Center for Higher Education Development system. Criteria for such rankings to be considered consistent is then presented, these criteria are applied to rankings in general and to the two above mentioned in particular. Thereupon it is concluded that both rankings show severe methodological limitations and thus are not able to justify their pretense of being reliable methods for evaluating universities.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Educación superior]]></kwd>
<kwd lng="es"><![CDATA[Universidades]]></kwd>
<kwd lng="es"><![CDATA[Evaluación]]></kwd>
<kwd lng="en"><![CDATA[Higher Education]]></kwd>
<kwd lng="en"><![CDATA[Universities]]></kwd>
<kwd lng="en"><![CDATA[Evaluation]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="justify"><font face="verdana" size="4">Ensayos</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="center"><font face="verdana" size="2"><b>Los rankings de universidades: una visi&oacute;n cr&iacute;tica</b></font></p>     <p align="center"><font face="verdana" size="2">&nbsp;</font></p>     <p align="center"><font face="verdana" size="2"><b>Felipe Mart&iacute;nez Rizo*</b></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><i>* Universidad Aut&oacute;noma de Aguascalientes. Departamento de Educaci&oacute;n. </i>Correo e: <a href="mailto:felipemartinez.rizo@gmail.com">felipemartinez.rizo@gmail.com</a></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2">Ingreso: 05/11/10    <br>   Aprobado: 14/12/10</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Resumen</b></font></p>     <p align="justify"><font face="verdana" size="2">Despu&eacute;s de repasar la historia de los <i>rankings </i>de universidades y describir la forma en que han proliferado, el trabajo presenta las caracter&iacute;sticas de tres de los m&aacute;s importantes en el plano internacional: el de Shanghai, el del <i>Times Higher Education Suplementy </i>el de las universidades en la <i>web, </i>que se contrastan con el sistema del <i>Center for Higher Education Development </i>alem&aacute;n. Se presentan los criterios que tales ordenamientos deber&iacute;an satisfacer que para ser considerados consistentes, se aplican a los ordenamientos en general y a dos de los mencionados en particular, y se concluye que sus limitaciones metodol&oacute;gicas son tan graves que no justifican su pretensi&oacute;n de ser confiables para evaluar a las universidades.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Palabras clave:</b> Educaci&oacute;n superior, Universidades, Evaluaci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Abstract</b></font></p>     <p align="justify"><font face="verdana" size="2">After reviewing the history of university rankings and describing their growth, the characterization of three of the most important rankings internationally is presented, namely: Shanghai, <i>Times Higher Education Supplement </i>and the <i>Web of World Universities, </i>these are contrasted with the German Center for Higher Education Development system. Criteria for such rankings to be considered consistent is then presented, these criteria are applied to rankings in general and to the two above mentioned in particular. Thereupon it is concluded that both rankings show severe methodological limitations and thus are not able to justify their pretense of being reliable methods for evaluating universities.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Key words:</b> Higher Education, Universities, Evaluation.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Introducci&oacute;n</b></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">La evaluaci&oacute;n puede ser un est&iacute;mulo poderoso para el mejoramiento institucional, pero si no se hace bien puede llevar tambi&eacute;n a decisiones equivocadas e injustas y a consecuencias negativas. La evaluaci&oacute;n no es un fin en s&iacute; misma. Tiene sentido en la medida en que ofrece informaci&oacute;n que, por su calidad y pertinencia, constituya un elemento que ayude a mejorar, sea por la retroalimentaci&oacute;n que ofrece para reorientar esfuerzos (evaluaci&oacute;n formativa) sea por su uso para asignar est&iacute;mulos o sanciones, con la prudencia debida (evaluaci&oacute;n sumativa). Estas consideraciones son especialmente importantes cuando a los resultados de la evaluaci&oacute;n del desempe&ntilde;o o la calidad institucional se asocian decisiones fuertes, por ejemplo sobre financiamiento, como est&aacute; ocurriendo con las evaluaciones que consisten en los llamados <i>rankings </i>de universidades.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Los ordenamientos de instituciones o programas universitarios en general <i>(rankings)</i></b></font></p>     <p align="justify"><font face="verdana" size="2">Las publicaciones que presentan listas de instituciones de educaci&oacute;n superior (IES), o programas supuestamente ordenadas por su calidad, forman parte del panorama actual de los sistemas de educaci&oacute;n superior en muchos pa&iacute;ses. Como en muchos otros casos, el fen&oacute;meno se present&oacute; con mucha anticipaci&oacute;n en los Estados Unidos pero, al menos desde la d&eacute;cada de 1990, se ha extendido por todo el mundo.</font></p>     <p align="justify"><font face="verdana" size="2">Al hablar de <i>rankings </i>u ordenamientos de instituciones utilizar&eacute; dos definiciones. La primera es la propuesta por el principal estudioso de la historia de este tipo de evaluaciones, David S. Webster, que se refer&iacute;a especialmente a las clasificaciones basadas en el prestigio institucional, y subrayaba el que cada instituci&oacute;n tuviera un lugar distinto. Seg&uacute;n Webster, para que constituya un <i>ranking </i>de calidad acad&eacute;mica, una lista "debe estar ordenada seg&uacute;n alg&uacute;n criterio o conjunto de criterios que los autores de la lista consideren que mide o refleja la calidad acad&eacute;mica, y debe consistir en un listado de las mejores universidades, <i>colleges </i>o departamentos de cierta &aacute;rea de estudio, en orden num&eacute;rico seg&uacute;n su supuesta calidad, de manera que cada escuela o departamento tenga su propio lugar (rank) por s&iacute; solo, y no forme parte simplemente de un grupo con otras escuelas en unas cuantas categor&iacute;as, grupos o niveles" (1986: 5).</font></p>     <p align="justify"><font face="verdana" size="2">La segunda definici&oacute;n, de Morrison, Magennis y Carey (1995), citados por Bowden, se refiere en particular a las tablas de posiciones de instituciones que se comenzaron a publicar a fines de la d&eacute;cada de 1980 en el Reino Unido. Seg&uacute;n esos autores, dichas tablas se basan en "combinaciones ponderadas de puntajes de indicadores de desempe&ntilde;o, en las que el puntaje global se utiliza para ordenar (rank) instituciones como escuelas, universidades y hospitales" (Bowden, 2000: 42).</font></p>     <p align="justify"><font face="verdana" size="2">En la actualidad, los <i>rankings </i>suelen utilizar una combinaci&oacute;n de indicadores de car&aacute;cter "objetivo", muchas veces sobre insumos (profesorado, biblioteca, presupuesto) con opiniones "subjetivas" sobre el prestigio institucional, por lo que la segunda definici&oacute;n se aplica mejor en este sentido, pero de la primera conviene no perder de vista la idea de que un elemento fundamental de cualquier <i>ranking </i>es que cada instituci&oacute;n o programa ocupe un lugar diferente, y no sea simplemente parte de un grupo.</font></p>     <p align="justify"><font face="verdana" size="2">Los <i>rankings </i>no son un fen&oacute;meno nuevo, aunque su proliferaci&oacute;n s&iacute; lo es. La idea surgi&oacute; hace m&aacute;s de un siglo en los Estados Unidos. Con antecedentes desde 1888, la idea de clasificar instituciones basada en alguna apreciaci&oacute;n de su calidad, fue propuesta por el psic&oacute;logo James McKeen Cattell, en 1910, y se apoyaba en la afiliaci&oacute;n institucional de cient&iacute;ficos destacados (Webster, 1986). Seg&uacute;n este autor, en 1925 Hughes public&oacute; un <i>ranking </i>basado en opiniones de un grupo de expertos, metodolog&iacute;a que volvi&oacute; a utilizar, con ajustes, en otro ordenamiento difundido en 1934 (Webster, 1983). La tendencia se consolid&oacute; a partir de 1959 y, sobre todo, de la d&eacute;cada de 1980, extendi&eacute;ndose al nivel de pregrado. La primera edici&oacute;n de la gu&iacute;a <i>America's Best Colleges, </i>que publica la revista <i>US News and World Report, </i>aparece anualmente desde 1983. <i>Time </i>y <i>Newsweek </i>comenzaron a publicar listas semejantes en 1996. Seg&uacute;n Rachel Bowden, "una agencia que asesora a las instituciones en relaci&oacute;n con los rankings ha enlistado 52 publicaciones americanas diferentes que publican listas con ordenamientos de universidades". (2000).</font></p>     <p align="justify"><font face="verdana" size="2">Las listas de <i>US News </i>distinguen a las instituciones seg&uacute;n su ubicaci&oacute;n geogr&aacute;fica y tipo, con base en la clasificaci&oacute;n de la <i>Fundaci&oacute;n Carnegie </i>que, adem&aacute;s de Universidades de Investigaci&oacute;n tipo I y tipo II, con importante proporci&oacute;n de alumnos de posgrado, en el nivel de pregrado distingue instituciones nacionales, regionales, y de artes liberales.</font></p>     <p align="justify"><font face="verdana" size="2">El lugar que ocupa cada instituci&oacute;n depende de su situaci&oacute;n en cuanto a indicadores de recursos financieros y humanos (profesorado), de la selectividad de su alumnado, sus tasas de retenci&oacute;n y graduaci&oacute;n, los donativos que recibe de sus ex alumnos, as&iacute; como su prestigio acad&eacute;mico. El peso de cada indicador var&iacute;a seg&uacute;n el tipo de instituci&oacute;n al que se refiera, pero el prestigio, que se basa en opiniones personales, suele representar un 25% del peso total.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En el Reino Unido el <i>ranking </i>m&aacute;s antiguo fue difundido en 1992 por <i>The Times, </i>que lo hace anualmente desde entonces. A partir de 1998 comenzaron a aparecer varios productos del mismo tipo en otros peri&oacute;dicos <i>(Financial Times, Sunday Times) </i>as&iacute; como en libros especiales, como <i>The PUSH Guide to Which University, NatWest Guide y Virgin Alternative Guide </i>(Bowden, 2000).</font></p>     <p align="justify"><font face="verdana" size="2">La autora de la que se toma la informaci&oacute;n anterior presenta el caso de un <i>ranking </i>alternativo que se difundi&oacute; &uacute;nicamente v&iacute;a internet, en 1998: Red <i>Mole. </i>Este <i>ranking </i>no se basa en indicadores de recursos o prestigio entre acad&eacute;micos o empleadores, sino en la opini&oacute;n de los alumnos mismos, recogida mediante una encuesta voluntaria, igualmente por internet, en la que se les pregunt&oacute; por la calidad de la vida nocturna, los dormitorios, los maestros y las instalaciones deportivas.</font></p>     <p align="justify"><font face="verdana" size="2">Aunque el n&uacute;mero de los que respondieron fue reducido (alrededor de 1% del total), y lo hicieron en forma voluntaria, por lo que existe autoselecci&oacute;n, el resultado no puede menos que llamar la atenci&oacute;n, ya que las instituciones que resultan clasificadas en los primeros lugares no son las que aparecen en esos sitios en todas las otras clasificaciones, que en este caso ocuparon lugares bastante inferiores: <i>Cambridge </i>el 42&deg;, <i>Oxford </i>el 35&deg; y el <i>Imperial College </i>el 31&deg;. (Bowden, 2000).</font></p>     <p align="justify"><font face="verdana" size="2">Los <i>rankings </i>que publica en Canad&aacute; la revista <i>Maclean's </i>comenzaron a aparecer en 1990. En este caso se distinguen las instituciones que ofrecen principalmente estudios de doctorado, incluyendo las escuelas de medicina, las que ofrecen tanto estudios de pregrado como de posgrado <i>(comprehensive), </i>y las que se concentran b&aacute;sicamente en el nivel de pregrado <i>(undergraduate).</i></font></p>     <p align="justify"><font face="verdana" size="2">Se presentan ordenamientos separados para cada una de estas tres categor&iacute;as, con base en indicadores que tienen que ver con los resultados acad&eacute;micos de los estudiantes; la <i>ratio </i>de alumnos por profesor, en general o s&oacute;lo con definitividad <i>(tenured); </i>la calidad del profesorado; el presupuesto total, y la parte que se dedica a servicios estudiantiles y becas; la calidad de la biblioteca; y el prestigio entre egresados, acad&eacute;micos y empresarios.</font></p>     <p align="justify"><font face="verdana" size="2">Seg&uacute;n un recuento reciente, es muy grande el n&uacute;mero de pa&iacute;ses en los que se hacen <i>rankings </i>de instituciones de educaci&oacute;n superior, sea por parte de algunos medios de comunicaci&oacute;n, promovidos por los ministerios de educaci&oacute;n o desarrollados por algunas universidades. Adem&aacute;s de los pa&iacute;ses anglosajones ya considerados, a los que debe a&ntilde;adirse Australia, la lista incluye en Europa a Alemania, Eslovaquia, Espa&ntilde;a, Francia, Italia, los Pa&iacute;ses Bajos, Polonia, Portugal, Rumania, Rusia, Suecia, Suiza y Ucrania; en Asia a China y Hong Kong, Corea del Sur, Jap&oacute;n, Kazajst&aacute;n, la India, Malasia, Pakist&aacute;n y Tailandia, y en &Aacute;frica a Nigeria y T&uacute;nez (Marginson, 2010: 546).</font></p>     <p align="justify"><font face="verdana" size="2">El fen&oacute;meno se presenta tambi&eacute;n en Am&eacute;rica Latina, donde peri&oacute;dicos importantes de Argentina, Brasil, Chile, Colombia y otros pa&iacute;ses difunden <i>rankings. </i>En M&eacute;xico lo han hecho la revista <i>Selecciones </i>y los diarios <i>Reforma </i>y <i>El Universal. </i>La Direcci&oacute;n General de Evaluaci&oacute;n Institucional de la Universidad Nacional Aut&oacute;noma de M&eacute;xico, adem&aacute;s de analizar algunos <i>rankings </i>internacionales (Ordorikay Rodr&iacute;guez, 2008), desarrolla un sistema propio para clasificar las instituciones mexicanas seg&uacute;n su producci&oacute;n de investigaci&oacute;n, el <i>Estudio Comparativo de las Universidades Mexicanas </i>(ECUM) (Ordorika <i>et al., </i>2009; M&aacute;rquez, 2010).</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Los <i>rankings </i>internacionales</b></font></p>     <p align="justify"><font face="verdana" size="2">Los <i>rankings </i>internacionales de universidades tambi&eacute;n tienen antecedentes relativamente antiguos, aunque los que hoy atraen mucho la atenci&oacute;n tienen menos de diez a&ntilde;os. Entre 1967 y 1983 Jack Gourman public&oacute; listados en los que pretend&iacute;a clasificar seg&uacute;n su calidad centenares de programas de unas 1,500 universidades estadounidenses y 700 universidades de todo el mundo. Estos <i>rankings, </i>sin embargo, no explicaban la metodolog&iacute;a utilizada y presentaban rasgos extra&ntilde;os, como distinguir diferencias m&iacute;nimas, de cent&eacute;simas de punto, al calificar instituciones muy diversas.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En un caso se asignaba una puntuaci&oacute;n de 4.73 a La Sorbona, 4.72 a Oxford y 4.71 a la Universidad Lomonosov de Mosc&uacute;. Es inveros&iacute;mil la circunstancia de que se repitiera generalmente un patr&oacute;n similar, seg&uacute;n el cual decenas de instituciones se ordenaban rigurosamente a la distancia de una cent&eacute;sima de punto, sin ning&uacute;n empate o hueco (Webster, 1985; citado en Mart&iacute;nez Rizo, 1992: 43).</font></p>     <p align="justify"><font face="verdana" size="2">En la primera d&eacute;cada del siglo XXI los <i>rankings </i>internacionales de universidades adquirieron una visibilidad sin precedentes, seguramente propiciada por la facilidad de su difusi&oacute;n v&iacute;a internet, en particular en el caso de los tres que se presentan a continuaci&oacute;n, el de Shanghai, el del <i>Times Higher Education Suplement, </i>y el de las universidades en la web.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>El <i>ranking </i>de Shanghai</b></font></p>     <p align="justify"><font face="verdana" size="2">A partir de 2003, el Instituto de Educaci&oacute;n Superior de la Universidad Jiao Tong, de Shanghai, publica anualmente el llamado <i>Academic Ranking of World Universities. </i>Este trabajo recibe gran atenci&oacute;n por parte de los medios de comunicaci&oacute;n del mundo, con crecientes repercusiones en lo relativo a toma de decisiones por parte de dirigentes universitarios y ministerios de educaci&oacute;n, as&iacute; como de la clase pol&iacute;tica y el p&uacute;blico. Pese a las severas cr&iacute;ticas que se le han hecho, su importancia parece aumentar, influyendo en las pol&iacute;ticas educativas de algunos pa&iacute;ses al grado de que una meta importante llega a ser tener cierto n&uacute;mero de las IES de un pa&iacute;s en los lugares m&aacute;s altos del <i>ranking.</i></font></p>     <p align="center"><font face="verdana" size="2"><i><img src="/img/revistas/resu/v40n157//a4c1.jpg"></i></font></p>     <p align="justify"><font face="verdana" size="2">Para una descripci&oacute;n m&aacute;s detallada del <i>Academic Ranking of World Universities </i>pueden verse los trabajos de Billaut <i>et al., </i>2009 y de Ordorika, Rodr&iacute;guez <i>et al, </i>2008.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>El Word <i>University Ranking </i>del <i>Times Higher Education Suplement </i>(THE)</b></font></p>     <p align="justify"><font face="verdana" size="2">En un art&iacute;culo en el que presenta los cambios m&aacute;s recientes que se han hecho a la metodolog&iacute;a de este ranking, Phil Baty plantea, en forma ret&oacute;rica, una pregunta que luego responde de dos formas:</font></p>     ]]></body>
<body><![CDATA[<blockquote>       <p align="justify"><font face="verdana" size="2">&iquest;C&oacute;mo medir algo tan intangible como la calidad de una Universidad? La respuesta corta, por supuesto, es que no se puede. Lo que se puede hacer, sin embargo, lo que tratamos de hacer con estos <i>rankings, </i>es tratar de capturar los elementos m&aacute;s tangibles y medibles que hacen una universidad moderna de clase mundial (Baty, 2009).</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">Baty a&ntilde;ade:</font></p>     <blockquote>       <p align="justify"><font face="verdana" size="2">En 2004, cuando el the concibi&oacute; su primer <i>World University Ranking </i>junto con la firma Quacquarelli Symonds (QS), identificamos cuatro "pilares" que constituyen el fundamento de cualquier instituci&oacute;n l&iacute;der internacionalmente, y que son poco discutibles: investigaci&oacute;n de gran calidad, docencia de gran calidad, destacado acceso al empleo de los egresados y enfoque internacional. Mucho m&aacute;s discutibles son las mediciones usadas en nuestros <i>rankings </i>y el balance entre mediciones cuantitativas y cualitativas (Baty, 2009).</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">Las dimensiones del concepto de calidad del ranking del THE, la forma de medirlas y el peso que recibe cada una en el puntaje total utilizado para hacer los ordenamientos se sintetizan como sigue:</font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/resu/v40n157//a4c2.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">Las cuatro dimensiones y sus seis indicadores se usaron en el <i>ranking </i>del THE desde 2004 hasta 2009. Las listas incluyen instituciones que tengan estudiantes de pregrado y posgrado y cubran al menos dos de cinco &aacute;reas: ciencias naturales; de la vida y la salud; ingenier&iacute;as y tecnolog&iacute;as de la informaci&oacute;n; ciencias sociales; artes y humanidades. Por las limitaciones de los indicadores citados, en noviembre de 2009 el THE anunci&oacute; una importante modificaci&oacute;n de la metodolog&iacute;a para la construcci&oacute;n de su <i>ranking, </i>adem&aacute;s de que ya no trabajar&aacute; con la empresa QS (que seguir&aacute; publicando sus listados como QS <i>World University Rankings), </i>sino con Thomson Reuters, por lo que usar&aacute; las bases de ISI Thomson para informaci&oacute;n sobre los indicadores de productividad de investigaci&oacute;n. El THE anunci&oacute; que consult&oacute; a un grupo de expertos en educaci&oacute;n superior, as&iacute; como a unos 40 rectores, sobre su nueva metodolog&iacute;a. Los factores considerados en la etapa preparatoria aparecen en el cuadro siguiente, y se anuncia que los definitivos se difundir&aacute;n antes de que se publique el primer ejercicio basado en la nueva metodolog&iacute;a, en el oto&ntilde;o de 2010 (Baty, 2010).</font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/resu/v40n157//a4c3.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>El <i>ranking </i>mundial de universidades en la web</b></font></p>     <p align="justify"><font face="verdana" size="2">Estas listas son preparadas y difundidas por el Laboratorio de Cibermetr&iacute;a del Consejo Superior de Investigaciones Cient&iacute;ficas de Espa&ntilde;a, y se basan en la idea de que la importancia que ha adquirido la internet es tal que se puede apreciar qu&eacute; tan buena es una universidad analizando la presencia que tiene en la web la producci&oacute;n de sus acad&eacute;micos y la frecuencia con la que se consultan los productos respectivos y, en general, la p&aacute;gina institucional. En consecuencia, la unidad de an&aacute;lisis en este caso es <i>el dominio web institucional, </i>por lo que s&oacute;lo aquellas universidades y centros de investigaci&oacute;n con un <i>dominio web independiente </i>son considerados. Se dise&ntilde;aron cuatro indicadores a partir de los resultados cuantitativos obtenidos de los principales motores de b&uacute;squeda (Google, Yahoo, Live Searchy Exalead).</font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/resu/v40n157//a4c4.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">El Factor de Impacto Web (WIF por sus siglas en ingl&eacute;s) combina el n&uacute;mero de enlaces externos entrantes con el n&uacute;mero de p&aacute;ginas web de un dominio, siguiendo una relaci&oacute;n 1:1 entre visibilidad y tama&ntilde;o. Esta relaci&oacute;n se usa para hacer el <i>ranking, </i>a&ntilde;adiendo los otros dos indicadores: el n&uacute;mero de <i>archivos ricos </i>que contiene un dominio web, y el n&uacute;mero de publicaciones incluidas en la base de datos de <i>Google Scholar. </i>Por su relevancia en las actividades acad&eacute;micas y de publicaci&oacute;n y su volumen de uso, se consideran <i>archivos ricos </i>los mencionados en el cuadro 4, con terminaciones .pdf, .ps, .doc y .ppt. La informaci&oacute;n fue tomada de la p&aacute;gina web de este sistema (Aguillo <i>et al., </i>2006 y 2008).</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Los <i>rankings </i>del CHE </b></font></p>     <p align="justify"><font face="verdana" size="2">El Center for Higher Education Development se define como "un grupo de trabajo para la reforma de la educaci&oacute;n superior" (a <i>reform think tank for higher education). </i>Fue establecido en mayo de 1994, con recursos de la Fundaci&oacute;n Berteslmann y apoyo de la Conferencia de Rectores Alemanes, y tiene su sede en G&uuml;tersloh, en el estado federal alem&aacute;n del Norte del Rin y Westfalia.</font></p>     <p align="justify"><font face="verdana" size="2">El principal producto del CHE es un <i>ranking </i>de concepci&oacute;n muy diferente de los anteriores, el CHE <i>Hochschul Ranking </i>o CHE <i>University Ranking. </i>Las principales caracter&iacute;sticas que lo hacen distinto se sintetizan a continuaci&oacute;n, con informaci&oacute;n tomada de la p&aacute;gina del CHE (<a href="http://ranking.zeit.de" target="_blank">http://ranking.zeit.de</a>).</font></p>     <p align="justify"><font face="verdana" size="2">El punto central es que no se trata de un ordenamiento global simple sino de un an&aacute;lisis detallado, ya que se evita expresamente agregar datos parciales para producir un puntaje global. Esta decisi&oacute;n se basa en la convicci&oacute;n de que no existe instituci&oacute;n alguna de educaci&oacute;n superior que se pueda considerar sencillamente <i>la mejor, </i>ya que una puede ser m&aacute;s fuerte en unos aspectos o campos y otra en otros. En <i>lugar de coronar a un presunto ganador universal, ofrecemos un ordenamiento multidimensional.</i></font></p>     <p align="justify"><font face="verdana" size="2">Relacionada con lo anterior est&aacute; la decisi&oacute;n de no asignar lugares singulares a cada instituci&oacute;n, sino s&oacute;lo situar a cada una en un grupo: alto, medio o bajo. Se evita as&iacute; el problema de otros <i>rankings, </i>de que el lugar de una instituci&oacute;n cambia mucho de un a&ntilde;o a otro, <i>por fluctuaciones azarosas que se interpretan como si fueran diferencias reales. </i>Las diferencias entre instituciones de uno de los tres grupos y de los otros dos son suficientemente grandes para ser significativas, mientras que no lo son dentro de cada grupo, por lo que en cada uno de estos se presentan en orden alfab&eacute;tico.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Tambi&eacute;n debido a la caracter&iacute;stica mencionada en primer t&eacute;rmino, los ordenamientos del CHE son &uacute;nicamente espec&iacute;ficos por &aacute;rea, y no se da un ordenamiento global, ya que la calidad de las instituciones en disciplinas particulares var&iacute;a mucho, y un <i>ranking </i>agregado no ofrece informaci&oacute;n &uacute;til para orientar a los futuros estudiantes ni toma en cuenta decisiones institucionales de cultivar ciertas &aacute;reas con especial cuidado.</font></p>     <p align="justify"><font face="verdana" size="2">Otro rasgo es la diversidad metodol&oacute;gica, ya que se utiliza informaci&oacute;n de diferentes fuentes y perspectivas, incluyendo datos sobre departamentos y programas, pero tambi&eacute;n opiniones de alumnos, maestros y egresados, lo que permite contrastar las opiniones de diferentes actores y tambi&eacute;n los indicadores basados en datos objetivos.</font></p>     <p align="justify"><font face="verdana" size="2">El sistema considera 34 &aacute;reas de estudios en el nivel universitario, de Administraci&oacute;n a Trabajo Social, pasando por Arquitectura, Biolog&iacute;a, Ciencias del Deporte, Computaci&oacute;n, Comunicaci&oacute;n, Derecho, Econom&iacute;a, Educaci&oacute;n, Enfermer&iacute;a, F&iacute;sica, Geolog&iacute;a, Historia, Ingenier&iacute;a El&eacute;ctrica, Industrial y Mec&aacute;nica, Matem&aacute;ticas, Mecatr&oacute;nica, Medicina, Psicolog&iacute;a, Qu&iacute;mica o Sociolog&iacute;a.</font></p>     <p align="justify"><font face="verdana" size="2">Con los datos sobre diversos aspectos que se obtienen se construyen alrededor de 30 indicadores num&eacute;ricos que pueden usarse para ordenar los programas, y mucha informaci&oacute;n adicional que se ofrece a los interesados sin que se use para los ordenamientos. Los criterios generales que se manejan son nueve; cada uno incluye diversos aspectos particulares, que var&iacute;an seg&uacute;n el &aacute;rea de que se trate. En seguida se dan ejemplos de algunos y se se&ntilde;ala el n&uacute;mero total aproximado.</font></p>     <blockquote>       <p align="justify"><font face="verdana" size="2">&bull; Mercado laboral y orientaci&oacute;n de la carrera (20): relaci&oacute;n teor&iacute;a&#150;pr&aacute;ctica, preparaci&oacute;n para el trabajo, pr&aacute;cticas profesionales...</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Equipamiento (18): instalaciones, laboratorios, computadoras, biblioteca...</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Investigaci&oacute;n (13): publicaciones, citas...</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Opiniones sobre calidad y prestigio del programa (4): de alumnos, profesores y egresados...</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Orientaci&oacute;n internacional (13) estudiantes extranjeros, exigencias de idiomas...</font></p>       ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&bull; Resultados (10): graduados al a&ntilde;o, tiempo para graduarse, calificaciones promedio...</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Ciudad y universidad (26): diversidad de opciones de la instituci&oacute;n, servicios que ofrece la ciudad en que se sit&uacute;a...</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Alumnos (6): requisitos de ingreso, proporci&oacute;n de admitidos, de mujeres...</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Apoyo acad&eacute;mico y docencia (37): tama&ntilde;o de los grupos, <i>ratios </i>alumnos/ profesor, m&eacute;todos de ense&ntilde;anza, asesor&iacute;a individualizada, evaluaci&oacute;n de la docencia...</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">Inicialmente el <i>ranking </i>del CHE consider&oacute; solamente instituciones y programas de Alemania; luego se ha extendido a pa&iacute;ses de lengua germana vecinos, en particular Austria y Suiza. A partir de 1998 se han incluido m&aacute;s de 130 universidades y m&aacute;s de 150 universidades de ciencias aplicadas (Fachhochschulen). En la &uacute;ltima versi&oacute;n se consideraron las opiniones de unos 200,000 estudiantes y 15,000 profesores (<a href="http://ranking.zeit.de" target="_blank">http://ranking.zeit.de</a>).</font></p>     <p align="justify"><font face="verdana" size="2">Los resultados del trabajo del CHE son difundidos por el peri&oacute;dico <i>Die Zeit, </i>pero no en la forma de listados como en los otros <i>rankings, </i>sino en forma consistente con lo expresado antes, mediante un sistema interactivo en l&iacute;nea que permite a cada usuario (futuros estudiantes u otras personas) personalizar los criterios para ordenar las opciones con base en ellos (Marginson, 2010: 547).</font></p>     <p align="justify"><font face="verdana" size="2">A partir de esta experiencia el CHE, con el Center for Higher Education Policy Studies de la Universidad de Twente (Pa&iacute;ses Bajos) y otras, est&aacute; desarrollando un <i>ranking </i>con un concepto similar y mayor alcance internacional, el <i>U&#150;Multirank, </i>que se encuentra en fase piloto en alrededor de 150 instituciones de Estados Unidos y Canad&aacute;, Australia, Asia, &Aacute;frica y Am&eacute;rica Latina.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Hacia una valoraci&oacute;n de los <i>rankings</i></b></font></p>     <p align="justify"><font face="verdana" size="2">En algunos casos los <i>rankings </i>son producidos por instituciones especializadas, en relaci&oacute;n con un medio de comunicaci&oacute;n, como el <i>ranking </i>del THE y el del CHE con <i>Die Zeit. </i>Otras veces los hacen instituciones acad&eacute;micas, como el <i>ranking </i>de Shanghai o el de universidades en la web del Laboratorio de Cibermetr&iacute;a del Consejo Superior de Investigaci&oacute;n Cient&iacute;fica de Espa&ntilde;a.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En muchos casos, sin embargo, son producidos sin apoyo calificado por medios de comunicaci&oacute;n, que aducen como motivaci&oacute;n su pretensi&oacute;n de que contribuyan a que el mercado de la educaci&oacute;n superior funcione con m&aacute;s informaci&oacute;n, dando elementos a padres de familia y futuros estudiantes para escoger una instituci&oacute;n o un programa. Tambi&eacute;n es clara la intenci&oacute;n de aumentar la venta del peri&oacute;dico o revista de que se trate, dado el inter&eacute;s que suscitan los <i>rankings. </i>De hecho las publicaciones que los difunden consiguen jugosas ventas cada a&ntilde;o, al llegar la temporada en que los j&oacute;venes que terminan la ense&ntilde;anza media deben decidir a cu&aacute;l o cu&aacute;les instituciones y programas dirigirse para buscar ser admitidos, en la que para muchos es la primera decisi&oacute;n de repercusiones importantes para la vida.</font></p>     <p align="justify"><font face="verdana" size="2">Pero por encima de posibles intereses m&aacute;s o menos leg&iacute;timos, las preguntas fundamentales a responder para tener una opini&oacute;n sobre los ordenamientos se debe referir a su propia calidad, ya que los juicios al respecto ser&aacute;n muy diferentes si la informaci&oacute;n que difunden es buena o no.</font></p>     <p align="justify"><font face="verdana" size="2">Como toda evaluaci&oacute;n, un <i>ranking </i>implica identificar ciertos <i>evaluandos; </i>definir en qu&eacute; consiste su calidad y precisar el referente con que se contrastar&aacute; la situaci&oacute;n de los <i>evaluandos; </i>operacionalizar el concepto de calidad precisando dimensiones e indicadores y medirlos confiablemente; contrastar el resultado de la medici&oacute;n con el referente y formular un juicio de valor ponderado. En concreto, para que un <i>ranking </i>se pueda considerar de buena calidad, deber&aacute; atender los siguientes puntos:</font></p>     <blockquote>       <p align="justify"><font face="verdana" size="2">&bull; Identificaci&oacute;n clara de los <i>evaluandos: </i>las instituciones, unidades o programas a evaluar.</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Definici&oacute;n precisa de la noci&oacute;n de <i>calidad </i>que se espera tengan los evaluandos para que se les pueda considerar buenos, precisando sus dimensiones y los indicadores de cada dimensi&oacute;n, para que sea posible apreciar si los <i>rankings </i>tienen <i>validez.</i></font></p>       <p align="justify"><font face="verdana" size="2">&bull; Calidad de la informaci&oacute;n que se utilice para cada indicador, identificando las fuentes y formas en que se obtiene, para poder apreciar si las mediciones tienen <i>confiabilidad </i>y si, con base en ellas, se pueden comparar de manera consistente diferentes evaluandos.</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Justificaci&oacute;n s&oacute;lida de la forma en que se agregar&aacute;n las mediciones de los indicadores de modo que se generen puntajes en una sola escala en que se ubicar&aacute;n los evaluandos, para apreciar si se justifica el tratamiento de la calidad como unidimensional y si se hace de manera consistente.</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Suficiente <i>precisi&oacute;n de las mediciones, </i>de manera que sea posible apreciar si la diferencia que distingue a unos evaluandos de otros es o no significativa y consistente, de manera que tenga sentido hacer <i>rankings </i>en los que se distingue uno a uno el lugar que ocupan los evaluandos.</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Identificaci&oacute;n de los <i>est&aacute;ndares de referencia, </i>en comparaci&oacute;n con los que se juzgar&aacute; si un evaluando debe o no ser considerado de buena calidad.</font></p>       ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&bull; Consistencia de los resultados y las tendencias resultantes.</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Correcta formulaci&oacute;n de los juicios a que se llega por el hecho mismo de hacer un <i>ranking, </i>cuidando que se tenga en cuenta el contexto de las instituciones que se comparan para cuidar la equidad, y c&oacute;mo se tienen en cuenta las consecuencias, previstas o no, de los <i>rankings.</i></font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">Los siete primeros puntos de la enumeraci&oacute;n anterior coinciden en tener car&aacute;cter t&eacute;cnico, porque si los ordenamientos est&aacute;n mal hechos, de manera que miden mal lo que pretenden evaluar, o miden algo diferente, por muy buena voluntad que se tenga los resultados no podr&aacute;n sustentar s&oacute;lidamente usos adecuados.</font></p>     <p align="justify"><font face="verdana" size="2">Pero aunque las mediciones est&eacute;n bien hechas, los resultados se pueden usar bien o mal, por lo que es importante considerar el punto incluido en octavo y &uacute;ltimo lugar, que tiene que ver con la contextualizaci&oacute;n de los juicios y los usos de los resultados.</font></p>     <p align="justify"><font face="verdana" size="2">La elecci&oacute;n de estos ocho criterios para juzgar la calidad de un <i>ranking </i>se justifica por una parte con base en la literatura especializada que, de diferentes maneras, coincide en identificar como dimensiones de toda buena evaluaci&oacute;n la validez y confiabilidad de las mediciones en que se base, su unidimensionalidad para justificar agregar datos de diferentes indicadores, su consistencia en el tiempo y su precisi&oacute;n (por ejemplo, Bird, 2005; Goldstein y Spiegelhalter 1996; Shavelson, McDonell y Oakes, 1989); por otra parte, el autor, en el marco del desarrollo de un sistema de indicadores por parte del Instituto Nacional para la Evaluaci&oacute;n de la Educaci&oacute;n, ha sistematizado tambi&eacute;n estos criterios (Mart&iacute;nez Rizo, 2005; 2007a y 2007b).</font></p>     <p align="justify"><font face="verdana" size="2">En los p&aacute;rrafos siguientes los ocho criterios anteriores se aplican a los <i>rankings </i>en general.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Definici&oacute;n del objeto a evaluar</b></font></p>     <p align="justify"><font face="verdana" size="2">Los problemas de los <i>rankings </i>de instituciones completas comienzan con la definici&oacute;n de su objeto. Las universidades son grandes y complejas, y su calidad es eminentemente multidimensional. Tienen fortalezas y debilidades; pueden sobresalir en investigaci&oacute;n y ser d&eacute;biles en docencia; junto a grupos de investigaci&oacute;n muy productivos puede haber otros mediocres; junto a programas con graduados de excelente nivel, otros anquilosados que dan una formaci&oacute;n pobre y obsoleta.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Concepto de calidad subyacente, dimensiones e indicadores</b></font></p>     <p align="justify"><font face="verdana" size="2">Suponiendo bien definido un <i>evaluando, </i>los puntos siguientes se refieren al concepto de calidad, los indicadores que lo operacionalizan y la informaci&oacute;n que los soporta. Es usual que haya informaci&oacute;n sobre unos aspectos de la calidad y no sobre otros y, muchas veces, la m&aacute;s abundante se refiere a aspectos menos importantes, en tanto que la relacionada con aspectos fundamentales es escasa o de calidad dudosa. Eso ocurre en no pocos <i>rankings.</i></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>Calidad de la informaci&oacute;n utilizada y de las mediciones</b></font></p>     <p align="justify"><font face="verdana" size="2">Al valorar la calidad de un <i>ranking </i>se pueden distinguir dos preguntas: una, si se basa en datos objetivos o en opiniones; otra, en uno y otro caso, si la informaci&oacute;n es s&oacute;lida. Los <i>rankings </i>m&aacute;s antiguos se basaban en la calidad del personal acad&eacute;mico que es, sin duda, un elemento central para la calidad de una instituci&oacute;n o programa, de docencia o de investigaci&oacute;n; pero como no se contaba con informaci&oacute;n objetiva al respecto, los logros del profesorado o los investigadores se valoraban con base en la opini&oacute;n que ten&iacute;an unos de otros los acad&eacute;micos de las instituciones evaluadas, por lo que esos ordenamientos se denominaban "clasificaciones de prestigio" <i>(reputational rankings).</i></font></p>     <p align="justify"><font face="verdana" size="2">Las limitaciones de tal acercamiento son evidentes. Incluso en un sistema de educaci&oacute;n superior en el que hay tanta movilidad, informaci&oacute;n y comunicaci&oacute;n como el de Estados Unidos, son obvios los riesgos de alta subjetividad, falta de referentes y "efectos de halo" en la opini&oacute;n de profesores, empresarios u otras personas sobre la calidad de instituciones o programas. Webster menciona el caso de un <i>ranking </i>de escuelas de pregrado en el &aacute;rea de negocios, en el que algunos expertos mencionaron entre las mejores universidades a Harvard, Yale y otras altamente reconocidas, pero que NO tienen pregrado en dicha &aacute;rea. En M&eacute;xico la Universidad Nacional Aut&oacute;noma de M&eacute;xico (UNAM) y el Instituto Tecnol&oacute;gico y de Estudios Superiores de Monterrey (ITESM) suelen ser mencionados como <i>de excelencia </i>en estudios basados en opiniones, pero es claro que, m&aacute;s all&aacute; de la calidad real de esas instituciones y de cada una de sus &aacute;reas, esa reiterada menci&oacute;n tiene mucho que ver con que esas instituciones tienen una visibilidad mucho mayor que otras. Es sintom&aacute;tico que instituciones como el Centro de Investigaciones y Estudios Avanzados (CINVESTAV) o El Colegio de M&eacute;xico son poco mencionadas en esos estudios, aunque algunas de sus &aacute;reas son muy buenas no s&oacute;lo en el plano nacional, sino internacionalmente.</font></p>     <p align="justify"><font face="verdana" size="2">Actualmente, como se ha visto, los <i>rankings </i>tienden a combinar las opiniones subjetivas sobre el prestigio con algunos datos objetivos, en general sobre recursos o insumos institucionales que se pueden obtener con facilidad, como la <i>ratio </i>de alumnos por profesor; la proporci&oacute;n de profesores de tiempo o de asignatura; de personal con doctorado o sin &eacute;l; el n&uacute;mero de vol&uacute;menes en biblioteca; o el puntaje m&iacute;nimo que un aspirante debe obtener en la prueba de ingreso para ser admitido.</font></p>     <p align="justify"><font face="verdana" size="2">Estos datos de car&aacute;cter m&aacute;s objetivo parecen m&aacute;s s&oacute;lidos que los que se basan en opiniones subjetivas, pero tienen el problema de que no miden la calidad de la instituci&oacute;n o programa al que se refieran, sino s&oacute;lo su riqueza, su dotaci&oacute;n de recursos. Sin duda hay cierta asociaci&oacute;n entre la abundancia o escasez de recursos y la calidad de una instituci&oacute;n o programa, pero esa relaci&oacute;n no es un&iacute;voca ni lineal. Hay instituciones bien dotadas pero mediocres o francamente malas, y las hay modestas y excelentes, y para distinguir unas de otras no basta medir insumos. En el caso de la docencia, por ejemplo, para saber si los recursos institucionales, pocos o muchos, son usados eficientemente, ser&iacute;an necesarios datos confiables sobre el nivel de competencia de los egresados, despu&eacute;s de descontar el nivel que ten&iacute;an al entrar a la instituci&oacute;n, y teniendo en cuenta la deserci&oacute;n. Todos estos datos no est&aacute;n disponibles actualmente, desde luego, ni es probable que lo est&eacute;n en una escala que rebase la de unos cuantos proyectos de investigaci&oacute;n bastante complejos.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Justificaci&oacute;n de la agregaci&oacute;n de factores y forma de hacerlo</b></font></p>     <p align="justify"><font face="verdana" size="2">Un principio metodol&oacute;gico b&aacute;sico es que se debe verificar la dimensionalidad de las mediciones que se refieran a cualquier constructo latente, como lo es la calidad. La agregaci&oacute;n de datos de varios indicadores s&oacute;lo se justifica en el caso de que se refieran a una misma dimensi&oacute;n, y en ese caso las formas de hacerlo son varias, todas con pros y contras, pero ninguna tan simple e ingenua como la que se maneja en muchos <i>rankings, </i>con el agravante de que frecuentemente se agregan indicadores de dimensiones claramente distintas, como la calidad de la investigaci&oacute;n y la de la docencia, o la de diferentes unidades dentro de una misma instituci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Precisi&oacute;n de las mediciones</b></font></p>     <p align="justify"><font face="verdana" size="2">La revisi&oacute;n de los <i>rankings </i>muestra que sus autores no suelen tener una buena formaci&oacute;n en medici&oacute;n y que tampoco buscan asesor&iacute;a al respecto. Por ello no sorprende que los procedimientos para cuantificar cada uno de los indicadores, y los que se utilizan para agregar los resultados parciales y construir la escala &uacute;nica en que se basa el ordenamiento, se hagan sin respetar reglas metodol&oacute;gicas b&aacute;sicas. Esta falla se refleja, <i>a fortiori, </i>en la dudosa precisi&oacute;n de las mediciones, evidenciada en que no se ofrece justificaci&oacute;n alguna con base en la cual se pueda defender que el que una instituci&oacute;n tenga una puntuaci&oacute;n menor a otra, sin importar la diferencia, implique una correspondiente diferencia de calidad. No se conoce el margen de error que inevitablemente tienen los resultados y, en consecuencia, es imposible valorar el significado de las diferencias.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Definici&oacute;n de est&aacute;ndares de referencia</b></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">L&oacute;gicamente no suele contarse con este tipo de definici&oacute;n, indispensable para que los juicios de valor a los que se llega no sean solamente relativos, sino absolutos. Los <i>rankings </i>s&oacute;lo permiten llegar a juicios relativos en el sentido de que afirman que un evaluando <i>es mejor o peor </i>que tal otro o tales otros aunque sin saber, como se ha se&ntilde;alado ya, si es significativamente mejor o peor, o s&oacute;lo ligeramente, tanto que la diferencia no es significativa.</font></p>     <p align="justify"><font face="verdana" size="2">Pero mejor que algo/alguien no es necesariamente positivo, ni peor que algo/alguien forzosamente negativo. Ninguna universidad considerar&aacute; malo ser un poco peor &#150;o menos buena&#150; que Harvard, ni ver&aacute; con buenos ojos ser un poco mejor que una instituci&oacute;n claramente deficiente. Todo depende del punto de comparaci&oacute;n, que no deber&iacute;a ser simplemente la situaci&oacute;n de los dem&aacute;s <i>evaluandos, </i>sino alg&uacute;n par&aacute;metro m&aacute;s s&oacute;lido, del que los <i>rankings </i>t&iacute;picamente carecen (Orpee, 2010).</font></p>     <p align="justify"><font face="verdana" size="2"><b>Consistencia de resultados y tendencias</b></font></p>     <p align="justify"><font face="verdana" size="2">A consecuencia de las deficiencias a las que se alude en los puntos anteriores, los <i>rankings </i>de universidades y programas suelen presentar cambios muy importantes en el lugar que ocupan algunas de los evaluandos, sin que haya fundamento para pensar que esos cambios reflejan modificaciones reales de la calidad. Este tipo de instituciones no cambian f&aacute;cilmente de un a&ntilde;o a otro, a no ser que ocurran cat&aacute;strofes o reformas espectaculares. Por ello la existencia de cambios bruscos debe considerarse un claro indicio de la falta de consistencia de los ordenamientos.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Contextualizaci&oacute;n y consecuencias: los usos de los resultados</b></font></p>     <p align="justify"><font face="verdana" size="2">A consecuencia de su fuerte difusi&oacute;n, es cada vez m&aacute;s frecuente que se asocien decisiones fuertes a los resultados de los <i>rankings. </i>Por otra parte, las mediciones en que se basan suelen carecer de las cualidades de validez, confiabilidad y comparabilidad que son indispensables para sustentar juicios de valor objetivos sobre la calidad de las instituciones evaluadas. La conclusi&oacute;n es que el uso de este tipo de ordenamientos llevar&aacute; f&aacute;cilmente a cometer injusticias graves, al no identificar verdaderamente las instituciones o programas que sobresalen realmente por su calidad y merecen est&iacute;mulo; los que, pese a no tener a&uacute;n resultados excelentes, hacen esfuerzos meritorios en situaci&oacute;n desfavorable y necesitan apoyo para despegar; y los que manifiestan fallas graves reiteradas e injustificadas, que justificar&iacute;an medidas correctivas.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Una apreciaci&oacute;n de los <i>rankings </i>de Shanghai y del <i>Times Higher Education Suplement</i></b></font></p>     <p align="justify"><font face="verdana" size="2">Estos <i>rankings </i>son ejemplos de metodolog&iacute;a pobre, que se combina con fuerte impacto medi&aacute;tico, lo que lleva a usos que no pueden sustentar decisiones que lleven a mejoras reales de la calidad. Un repaso de los criterios metodol&oacute;gicos mencionados permitir&aacute; apreciar que los dos <i>rankings </i>m&aacute;s visibles no cumplen con ellos.</font></p>     <p align="justify"><font face="verdana" size="2">No definen bien los objetos a evaluar: Ya se ha dicho que una universidad es un todo complejo, cuya valoraci&oacute;n no parece razonable reducir a un lugar &uacute;nico en un listado unidimensional. Pero adem&aacute;s, en el caso de los <i>rankings </i>de Shanghai y el THE, no es claro qu&eacute; debe considerarse una universidad ni c&oacute;mo se elabora el listado de las que se consideran en el <i>ranking. </i>&iquest;C&oacute;mo saber si Berkeley y la UCLA, con otras ocho instituciones, que forman el <i>sistema </i>de la Universidad de California, deben considerarse por separado o como un todo? La misma pregunta procede en cuanto al tratamiento de las facultades de estudios profesionales de la UNAM, las unidades de la Aut&oacute;noma Metropolitana y la Universidad de Guadalajara o los campus del Tecnol&oacute;gico de Monterrey, o las universidades en que se dividi&oacute; la Universidad de Par&iacute;s. Por lo que toca a las instituciones mexicanas es interesante se&ntilde;alar que en las en cuestas de opini&oacute;n entre acad&eacute;micos y empleadores que constitu&iacute;an el 50% del peso total del <i>ranking </i>del THE &uacute;nicamente se preguntaba a las personas consultadas sobre la UNAM, el ITESM y la Universidad Iberoamericana. Ninguna otra universidad pod&iacute;a ser considerada por los consultados.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Supone un concepto de calidad parcial y operacionalizado en forma sesgada: Al parecer se entiende por "universidad de clase mundial" la que produzca m&aacute;s investigaci&oacute;n, pero dado que &eacute;sta es s&oacute;lo una de tres o cuatro funciones b&aacute;sicas de las instituciones de educaci&oacute;n superior, es leg&iacute;timo preguntarse por qu&eacute; se privilegia esa en el grado en que lo hace el <i>ranking </i>en cuesti&oacute;n. Por otra parte, las dimensiones y los indicadores que se utilizan tienen obviamente sesgos muy fuertes a favor de ciertos campos del conocimiento y ciertas regiones geogr&aacute;ficas y ling&uuml;&iacute;sticas.</font></p>     <p align="justify"><font face="verdana" size="2">Maneja informaci&oacute;n de baja calidad y mide mal: Aunque todos los indicadores utilizados son de tipo objetivo, las mediciones son muy pobres, por las limitaciones de las bases de datos de las que se toma la informaci&oacute;n, as&iacute; como por decisiones no justificadas sobre la manera de atribuir la producci&oacute;n de un premio Nobel y otros cient&iacute;ficos destacados a determinada instituci&oacute;n, la manera de tener en cuenta la antig&uuml;edad de los trabajos, entre otras razones.</font></p>     <p align="justify"><font face="verdana" size="2">Agregaci&oacute;n arbitraria y deficiente de factores: Un punto d&eacute;bil especialmente obvio. Considerar los cinco primeros factores en forma global, sin relativizar por el tama&ntilde;o de la instituci&oacute;n, hace que las m&aacute;s grandes por ese s&oacute;lo hecho tengan una considerable ventaja, que no se corrige por el hecho de manejar ese criterio en el sexto factor, pero adem&aacute;s el que este &uacute;ltimo parta de la agregaci&oacute;n de los anteriores sin que se justifique el peso de cada uno resulta inadmisible metodol&oacute;gicamente.</font></p>     <p align="justify"><font face="verdana" size="2">Muy deficiente precisi&oacute;n de las mediciones: No se ofrece justificaci&oacute;n alguna con base en la cual se pueda defender que el hecho de que una instituci&oacute;n obtenga una puntuaci&oacute;n menor a otra, sin importar la diferencia, necesariamente implique una correspondiente diferencia de calidad. No se respetan los principios metodol&oacute;gicos elementales de toda medici&oacute;n, no se sabe el margen de error que haya en los resultados y, en consecuencia, es imposible valorar el significado de las diferencias.</font></p>     <p align="justify"><font face="verdana" size="2">Ausencia de definici&oacute;n de est&aacute;ndares de referencia: Ninguno de los dos <i>rankings </i>en cuesti&oacute;n explican si algunos valores de la escala que utilizan pueden interpretarse como indicativos de buena o mala calidad, lo que permitir&iacute;a ir m&aacute;s all&aacute; de saber si una instituci&oacute;n es mejor o peor que otra u otras, ya que esto no necesariamente es en s&iacute; mismo positivo o negativo.</font></p>     <p align="justify"><font face="verdana" size="2">Consistencia de resultados y tendencias: Adem&aacute;s, seg&uacute;n estos <i>rankings, </i>unas instituciones podr&iacute;an ser mucho mejores que otras un a&ntilde;o y mucho peores el siguiente. Algunos ejemplos bastar&aacute;n para evidenciar las debilidades al respecto.</font></p>     <p align="justify"><font face="verdana" size="2">En el <i>ranking </i>de Shanghai, en 2004 la Universidad de Buenos Aires ocup&oacute; el lugar 295 y en 2005 el 279; una mejora de 16 lugares en un a&ntilde;o es bastante sorprendente, pero en 2006 alcanz&oacute; el lugar 159, en un salto de 120 lugares que, simplemente, no es cre&iacute;ble. Tampoco lo es el descenso de 58 puestos que sufri&oacute; la Universidad Aut&oacute;noma de Madrid entre 2005 y 2006, al pasar del puesto 198 al 256 (Ordorika, Rodr&iacute;guez <i>et al., </i>2009: 28). Por lo que se refiere al <i>ranking </i>del THE, la UNAM ocup&oacute; el lugar 195 en 2004; subi&oacute; al 95 en 2005 y al 74 en 2006, para caer al 192 en 2007, subir al 150 en 2008 y bajar de nuevo al 190 en 2009 (Ordorika y Rodr&iacute;guez, 2010: 20).</font></p>     <p align="justify"><font face="verdana" size="2">Contextualizaci&oacute;n y consecuencias: los usos de los resultados. Los <i>rankings </i>internacionales est&aacute;n teniendo un gran impacto medi&aacute;tico, al grado que decisiones importantes tienden a basarse en ellos, con la inequidad que implica su falta de confiabilidad, tanto para las instituciones penalizadas injustamente como para las beneficiadas sin fundamento real. La gravedad del impacto negativo de los <i>rankings </i>puede apreciarse si se piensa que instituciones y ministerios de educaci&oacute;n de pa&iacute;ses importantes tienden a basar sus pol&iacute;ticas en estos ordenamientos. Como ejemplos se pueden citar en M&eacute;xico la Universidad de Guanajuato, que en su Plan de Desarrollo recientemente aprobado se propone llegar a estar <i>entre las </i>1<i>00 mejores del mundo, </i>y en Francia el anuncio del gobierno de que se propone que, en un futuro cercano, el pa&iacute;s cuente con cuatro instituciones entre las 20 mejores.</font></p>     <p align="justify"><font face="verdana" size="2">Otros an&aacute;lisis llegan a conclusiones similares. Billaut se&ntilde;ala que el primer an&aacute;lisis serio del <i>ranking </i>de Shanghai, hecho en 2005 (Van Raan, 2005a y 2005b y Liu, Cheng y Liu, 2005) concluy&oacute; que no deber&iacute;a tratarse como una verdadera evaluaci&oacute;n, y que el problema m&aacute;s serio de los <i>rankings </i>consiste en que se les ve como si lo fueran "lo que es absolutamente inaceptable" (Billaut <i>et al, </i>2009: 33). Utilizando el enfoque de Toma de Decisiones con M&uacute;ltiples Criterios <i>(M&uacute;ltiple Criteria Decisi&oacute;n Making), </i>un grupo encabezado por el autor citado revis&oacute; los criterios del <i>ranking </i>de Shanghai y el m&eacute;todo de agregaci&oacute;n empleado. Su principal conclusi&oacute;n es que los criterios son irrelevantes y que el m&eacute;todo de agregaci&oacute;n tiene problemas graves, por lo que el <i>ranking </i>"no es una herramienta adecuada para analizar la calidad de las instituciones" (Billaut <i>et al., </i>2009). De estos autores se retoman dos p&aacute;rrafos que ilustran, de manera elocuente, las consecuencias a las que puede llevar un uso acr&iacute;tico de esos listados.</font></p>     <blockquote>       ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">"Aparentemente, el <i>ranking </i>de Shanghai pretende responder la pregunta de cu&aacute;l es la mejor universidad del mundo. Para algunos lectores la pregunta misma puede parecer infantil y sin mucho inter&eacute;s. Nosotros estamos de acuerdo. Sin embargo, esos lectores deben tener presente que tal vez hay tomadores de decisiones perezosos que sencillamente pueden usar los resultados de un <i>ranking </i>que est&aacute; a su alcance. Y m&aacute;s importante, tomadores de decisiones estrat&eacute;gicas que pueden usar los resultados para promover sus propias ideas de c&oacute;mo reorganizar un sistema de educaci&oacute;n superior. M&aacute;s a&uacute;n, como sucede con toda herramienta de gesti&oacute;n, la existencia misma de un <i>ranking </i>contribuye a modificar la conducta de los agentes involucrados, produciendo cambios a veces indeseables" (2009: 2).</font></p>       <p align="justify"><font face="verdana" size="2">"Suponga que administra una universidad y quiere mejorar su posici&oacute;n en el <i>ranking. </i>Es bastante sencillo. Hay &aacute;reas importantes de su universidad que no aportan para la posici&oacute;n en el <i>ranking, </i>como el derecho, las humanidades y la mayor&iacute;a de las ciencias sociales. Elimine esas &aacute;reas, seguramente ahorrar&aacute; mucho dinero. &Uacute;selo para formar grupos de investigaci&oacute;n que s&iacute; contribuyan a mejorar su posici&oacute;n. Algunos &iacute;ndices de Thomson Scientific son bastante &uacute;tiles para ese prop&oacute;sito; despu&eacute;s de todo la lista de los probables siguientes cinco premios Nobel en medicina no es tan larga y, de todas formas, si los que usted contrata no reciben el Nobel sin duda publicar&aacute;n mucho en revistas arbitradas que cuentan en el <i>ranking, </i>y muy probablemente estar&aacute;n en la lista de investigadores muy citados. Lo anterior tiende a promover una manera de ver la ciencia que se parece mucho a los deportes profesionales, en los que unos cuantos equipos ricos compiten por atraer a los mejores jugadores del mundo. No estamos muy convencidos de que esta sea la mejor manera de incrementar el conocimiento humano, por decir lo menos" (2009: 32).</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">En cuanto al <i>ranking </i>del <i>Times Higher Education Suplement, </i>hace m&aacute;s de diez a&ntilde;os un an&aacute;lisis mencionaba los siguientes puntos, como s&oacute;lo algunos de los desaf&iacute;os metodol&oacute;gicos que se han hecho contra las tablas de posiciones:</font></p>     <blockquote>       <p align="justify"><font face="verdana" size="2">&bull; Estatus t&eacute;cnico de algunas variables;</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Inadecuada validez de constructo;</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Escalamiento de las variables;</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Cambios de un a&ntilde;o a otro en las variables y sus pesos;</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Manipulaci&oacute;n de los datos;</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Inconsistencia de los cambios;</font></p>       ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&bull; Falta de correspondencia entre el puntaje global y la calidad de cada unidad acad&eacute;mica; y</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Distorsi&oacute;n del prop&oacute;sito institucional (Yorke, 1997: 62).</font></p>       <p align="justify"><font face="verdana" size="2">&nbsp;</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2"><b>Conclusi&oacute;n</b></font></p>     <p align="justify"><font face="verdana" size="2">El an&aacute;lisis de los criterios utilizados por algunos de los <i>rankings </i>de universidades m&aacute;s importantes en el plano internacional, y la coincidencia con an&aacute;lisis similares, llevan a la conclusi&oacute;n de que las serias deficiencias metodol&oacute;gicas que tienen los hace sumamente inapropiados como herramientas para evaluar de manera confiable la calidad global de las instituciones a las que se refieren.</font></p>     <p align="justify"><font face="verdana" size="2">Incluso limit&aacute;ndose a la pretensi&oacute;n menos ambiciosa de evaluar solamente la calidad de la funci&oacute;n de investigaci&oacute;n, las deficiencias son tan serias que ni siquiera con dicha acotaci&oacute;n los resultados son confiables y no son una buena base para sustentar decisiones por parte de las autoridades, a las que pueden inducir a errores que resulten ser muy costosos para las instituciones.</font></p>     <p align="justify"><font face="verdana" size="2">Contra lo que pretenden los medios de comunicaci&oacute;n que patrocinan muchas de estas iniciativas, los <i>rankings </i>de programas particulares tampoco son apropiados para orientar a los futuros estudiantes en la delicada tarea de escoger la instituci&oacute;n y programa en que tratar&aacute;n de ser admitidos. Si se tiene en cuenta que no existe la mejor universidad ni el mejor programa <i>en absoluto, </i>sino que hay programas m&aacute;s o menos adecuados para ciertos aspirantes, se entender&aacute; que los <i>rankings </i>m&aacute;s conocidos no sustituyen a un buen sistema de orientaci&oacute;n vocacional. Los <i>rankings </i>elaborados por el CHE resultan mucho mejores para esa funci&oacute;n, lo que consiguen justamente porque tienen pretensiones menos ambiciosas y caracter&iacute;sticas apropiadas a esos prop&oacute;sitos.</font></p>     <p align="justify"><font face="verdana" size="2">Ninguna metodolog&iacute;a podr&aacute; valorar bien en una sola dimensi&oacute;n instituciones cuya calidad, en sentido global, es eminentemente multidimensional. M&aacute;s factible ser&aacute; evaluar unidades, funciones o aspectos de una universidad cuya calidad se pueda definir razonablemente como unidimensional. Suponiendo que se haga con una metodolog&iacute;a adecuada no parece absurdo comparar entre s&iacute;, por ejemplo, carreras de medicina o de trabajo social, doctorados en astronom&iacute;a o en antropolog&iacute;a, o grupos de investigaci&oacute;n sobre c&aacute;ncer pulmonar o sobre las metodolog&iacute;as de ense&ntilde;anza de la lectura.</font></p>     <p align="justify"><font face="verdana" size="2">En ausencia de evaluaciones se tiende a tratar a todas las instituciones por igual, lo que no parece correcto; pero con base en evaluaciones no adecuadas ocurre algo peor: las diferencias de trato no tienen qu&eacute; ver con m&eacute;ritos objetivos, sino ilusorios. El resultado podr&aacute; ser que lo bueno tienda a deteriorarse, lo consolidable no madure y lo deficiente permanezca y empeore.</font></p>     <p align="justify"><font face="verdana" size="2">Evaluar bien la calidad de las instituciones de educaci&oacute;n superior no es imposible, pero implica acercamientos que no se reduzcan al simplismo de los <i>rankings </i>comunes. S&oacute;lo con una gama de acercamientos complementarios podr&aacute; tenerse una aproximaci&oacute;n razonablemente completa a algo tan complejo como la calidad de una universidad.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Referencias</b></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Aguillo, I. F., J. L. Ortega y M. Fern&aacute;ndez (2008). "Webometric Ranking of World Universities: Introduction, Methodology, and Future Developments", en <i>Higher Education in Europe, </i>Vol. 33 N&deg; 2&#150;3:234&#150;244.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834617&pid=S0185-2760201100010000400001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Aguillo, I. F., B. Granadino, J. L. Ortega y J. A. Prieto (2006). "Scientific research activity and communication measured with cybermetric indicators" en <i>Journal ofthe Amer&iacute;can Society of Information Science and Technology, </i>Vol. 57, N&deg; 10: 1296&#150;1302.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834619&pid=S0185-2760201100010000400002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Baty, Phil (2010). <i>The unveih broad, r&iacute;gorous new rankings methodology. </i>June 3. Consulta en <a href="http://www.timeshighereducation.co.uk/storyasp?sectioncode=26%20&%20storycode=411907%20&%20c=1" target="_blank">http://www.timeshighereducation.co.uk/storyasp?sectioncode=26 &amp; storycode=411907 &amp; c=1</a> en 2010&#150;08&#150;10.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834621&pid=S0185-2760201100010000400003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Baty, Phil (2009). <i>Rankings 09: Talking Points. The 2009 world ranking methodology. </i>October 8. Consulta en <a href="http://www.timeshighereducation.co.uk/storyasp?storycode=4o8562" target="_blank">http://www.timeshighereducation.co.uk/storyasp?storycode=4o8562</a> en 2010&#150;08&#150;10.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834623&pid=S0185-2760201100010000400004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">Billaut, Jean&#150;Charles, D. Bouyssou y Ph. Vincke (2009). Should you believe in the Shanghai ranking? A M&uacute;ltiple Criteria Decisi&oacute;n Making view. 29 May.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834625&pid=S0185-2760201100010000400005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Bird, Sheila M. <i>et al. </i>(2005). "Performance indicators: good, bad and ugly", en <i>Journal of the Royal Statistical Society A, </i>Vol. 168, Part 1, pp. 1&#150;27.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834627&pid=S0185-2760201100010000400006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Bowden, Rachel (2000). "Fantasy Higher Education: university and college league tables", en <i>Quality in Higher Education, </i>Vol. 6, N &deg; 1, pp. 41&#150;60.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834629&pid=S0185-2760201100010000400007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Center For Higher Education Development (CHE) <i>Hochschul Ranking o University Ranking <a href="http://ranking.zeit.de" target="_blank">http://ranking.zeit.de</a> Consulta en 2010&#150;08&#150;10</i></font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834631&pid=S0185-2760201100010000400008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Goldstein, Harvey y D. J. Spiegelhalter (1996). "League tables ad their limitations: statistical issues in comparisons of institutional performance", <i>en Journal of the Royal Statistical Society </i>A, Vol. 159:385&#150;443.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834632&pid=S0185-2760201100010000400009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Liu, N. C, Y. Chengy L. Liu (2005). "Academic ranking of world universities using scientometrics: A comment to the 'fatal attraction'", en <i>Scientometrics, </i>64: 101&#150;109.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834634&pid=S0185-2760201100010000400010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Marginson, Simon (2010). "National and International Rankings of Higher Education", en Peterson, P., E. Bakery B. McGaw, <i>International Enciclopedia of Education, 3<sup>rd</sup> Ed. </i>Amsterdam, Elsevier&#150;Academic Press. Vol. 4, pp. 546&#150;553.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834636&pid=S0185-2760201100010000400011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">M&aacute;rquez J <i>., </i>Alejandro (2010). "Estudio comparativo de universidades mexicanas (ECUM): otra mirada a la realidad universitaria", en <i>Revista Iberoamericana de Educaci&oacute;n Superior </i>(RIES). M&eacute;xico, USUE&#150;UNAM/Universia, Vol. 1 N&deg; 1 pp. 148&#150;156. <a href="http://ries.universia.net" target="_blank">http://ries.universia.net</a></font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834638&pid=S0185-2760201100010000400012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Mart&iacute;nez Rizo, Felipe <i>et al. </i>(2007a). <i>Propuestas y experiencias para desarrollar un sistema de indicadores educativos. </i>M&eacute;xico, INEE.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834639&pid=S0185-2760201100010000400013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Mart&iacute;nez Rizo, Felipe (2007b). "Propuesta metodol&oacute;gica para desarrollar un sistema de indicadores para evaluar la calida de la educaci&oacute;n en M&eacute;xico", en Varios. <i>Seminario Internacional de Indicadores Educativos. </i>Memoria. M&eacute;xico, INEE. Julio 9.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834641&pid=S0185-2760201100010000400014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Mart&iacute;nez Rizo, Felipe (2005). "El dise&ntilde;o de sistemas de indicadores educativos: consideraciones te&oacute;rico&#150;metodol&oacute;gicas", en <i>Cuadernos de Investigaci&oacute;n, </i>N&deg; 14. M&eacute;xico, INEE.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834643&pid=S0185-2760201100010000400015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">Mart&iacute;nez Rizo, Felipe (1992). La <i>calidad de las instituciones de educaci&oacute;n superior. Su evaluaci&oacute;n y su promoci&oacute;n. </i>Cuadernos de Planeaci&oacute;n Universitaria, 3<sup>a</sup> &eacute;poca. A&ntilde;o 6, N&deg; 2. M&eacute;xico, UNAM.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834645&pid=S0185-2760201100010000400016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Morrison, H. G., S. P. Magennis y L. J. Carey (1995). "Performance indicators and league tables: a call for standards", en <i>Higher Education Quarterly, </i>49(2), pp. 128&#150;45.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834647&pid=S0185-2760201100010000400017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Observatorio Regional de Pol&iacute;ticas de Evaluaci&oacute;n Educativa (2010). <i>Los rankings de escuelas como forma de entregar informaci&oacute;n sobre calidad educativa. </i>Bolet&iacute;n monogr&aacute;fico N &deg; 17, agosto, 11 p&aacute;gs.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834649&pid=S0185-2760201100010000400018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Ordorika, Imanol y R. Rodr&iacute;guez G&oacute;mez (2010). "El <i>ranking </i>Times en el mercado del prestigio universitario, en <i>Perfiles Educativos, </i>Vol. XXXII, N&deg; 129, pp. 8&#150;25.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834651&pid=S0185-2760201100010000400019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Ordorika Imanol <i>et al. </i>(2009). Desempe&ntilde;o de universidades mexicanas en la funci&oacute;n de investigaci&oacute;n: estudio comparativo. Datos b&aacute;sicos 2007. <i>Cuadernos de Trabajo de la Direcci&oacute;n General de Evaluaci&oacute;n Institucional, </i>N &deg; 1. UNAM&#150;DGEI, 37 p&aacute;gs.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834653&pid=S0185-2760201100010000400020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">Ordorika, Imanol, R. Rodr&iacute;guez G&oacute;mez <i>et al. </i>(2008). Comentarios al <i>Academic Ranking of World Universities </i>2008. <i>Cuadernos de Trabajo de la Direcci&oacute;n General de Evaluaci&oacute;n Institucional, </i>N&deg; 2. UNAM&#150;DGEI, 97 p&aacute;gs.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834655&pid=S0185-2760201100010000400021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Shavelson, Richard J., L. McDonell y J. Oakes, Eds. (1989). <i>Indicators for Monitoring Mathematics and Science Education. A Sourcebook. </i>Santa Monica, Rand.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834657&pid=S0185-2760201100010000400022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Van Raan, A. F. J. (2005a). "Fatal attraction: Ranking of universities by bibliometric methods", en <i>Scientometrics, </i>62: 133&#150;145.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834659&pid=S0185-2760201100010000400023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Van Raan, A. F. J. (2005b). "Reply to the comments of Liu <i>et al, </i>en Scientometrics, 64: 111&#150;112.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834661&pid=S0185-2760201100010000400024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Webster, David S. (1986). <i>Academic Quality Rankings of American Colleges and Universities. </i>Springfield, III., Charles C. Thomas Publ.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834663&pid=S0185-2760201100010000400025&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">Webster, David S. (1985). "How not to rank universities", en <i>Higher Education, </i>Vol. 14, N &deg; 1, pp. 71&#150;79.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834665&pid=S0185-2760201100010000400026&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Webster, David S. (1983). "America's Higher&#150;Ranked Graduate Schools, 1925&#150;1982", en <i>Change, </i>May&#150;June, pp. 13&#150;24.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834667&pid=S0185-2760201100010000400027&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Yorke, M. (1997). "A good league guide?, en <i>Quality Assurance in Education, </i>5(2), pp. 61&#150;72.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6834669&pid=S0185-2760201100010000400028&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Aguillo]]></surname>
<given-names><![CDATA[I. F.]]></given-names>
</name>
<name>
<surname><![CDATA[Ortega]]></surname>
<given-names><![CDATA[J. L.]]></given-names>
</name>
<name>
<surname><![CDATA[Fernández]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Webometric Ranking of World Universities: Introduction, Methodology, and Future Developments]]></article-title>
<source><![CDATA[Higher Education in Europe]]></source>
<year>2008</year>
<volume>33</volume>
<numero>2-3</numero>
<issue>2-3</issue>
<page-range>234-244</page-range></nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Aguillo]]></surname>
<given-names><![CDATA[I. F.]]></given-names>
</name>
<name>
<surname><![CDATA[Granadino]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
<name>
<surname><![CDATA[Ortega]]></surname>
<given-names><![CDATA[J. L.]]></given-names>
</name>
<name>
<surname><![CDATA[Prieto]]></surname>
<given-names><![CDATA[J. A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Scientific research activity and communication measured with cybermetric indicators]]></article-title>
<source><![CDATA[Journal ofthe Amerícan Society of Information Science and Technology]]></source>
<year>2006</year>
<volume>57</volume>
<numero>10</numero>
<issue>10</issue>
<page-range>1296-1302</page-range></nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Baty]]></surname>
<given-names><![CDATA[Phil]]></given-names>
</name>
</person-group>
<source><![CDATA[The unveih broad, rígorous new rankings methodology]]></source>
<year>2010</year>
</nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Baty]]></surname>
<given-names><![CDATA[Phil]]></given-names>
</name>
</person-group>
<source><![CDATA[Rankings 09: Talking Points. The 2009 world ranking methodology]]></source>
<year>2009</year>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Billaut]]></surname>
<given-names><![CDATA[Jean-Charles]]></given-names>
</name>
<name>
<surname><![CDATA[Bouyssou]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[Vincke]]></surname>
<given-names><![CDATA[Ph.]]></given-names>
</name>
</person-group>
<source><![CDATA[Should you believe in the Shanghai ranking? A Múltiple Criteria Decisión Making view]]></source>
<year>2009</year>
</nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bird]]></surname>
<given-names><![CDATA[Sheila M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Performance indicators: good, bad and ugly]]></article-title>
<source><![CDATA[Journal of the Royal Statistical Society A]]></source>
<year>2005</year>
<volume>168</volume>
<page-range>1-27</page-range></nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bowden]]></surname>
<given-names><![CDATA[Rachel]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Fantasy Higher Education: university and college league tables]]></article-title>
<source><![CDATA[Quality in Higher Education]]></source>
<year>2000</year>
<volume>6</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>41-60</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="">
<collab>Center For Higher Education Development</collab>
<source><![CDATA[Hochschul Ranking o University Ranking]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Goldstein]]></surname>
<given-names><![CDATA[Harvey]]></given-names>
</name>
<name>
<surname><![CDATA[Spiegelhalter]]></surname>
<given-names><![CDATA[D. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[League tables ad their limitations: statistical issues in comparisons of institutional performance]]></article-title>
<source><![CDATA[Journal of the Royal Statistical Society A]]></source>
<year>1996</year>
<volume>159</volume>
<page-range>385-443</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Liu]]></surname>
<given-names><![CDATA[N. C]]></given-names>
</name>
<name>
<surname><![CDATA[Chengy]]></surname>
<given-names><![CDATA[Y.]]></given-names>
</name>
<name>
<surname><![CDATA[Liu]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Academic ranking of world universities using scientometrics: A comment to the 'fatal attraction]]></article-title>
<source><![CDATA[Scientometrics]]></source>
<year>2005</year>
<volume>64</volume>
<page-range>101-109</page-range></nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Marginson]]></surname>
<given-names><![CDATA[Simon]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[National and International Rankings of Higher Education]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Peterson]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
<name>
<surname><![CDATA[Bakery]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
<name>
<surname><![CDATA[McGaw]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
</person-group>
<source><![CDATA[International Enciclopedia of Education]]></source>
<year>2010</year>
<volume>4</volume>
<edition>3</edition>
<page-range>546-553</page-range><publisher-loc><![CDATA[Amsterdam ]]></publisher-loc>
<publisher-name><![CDATA[ElsevierAcademic Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Márquez J .]]></surname>
<given-names><![CDATA[Alejandro]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Estudio comparativo de universidades mexicanas (ECUM): otra mirada a la realidad universitaria]]></article-title>
<source><![CDATA[Revista Iberoamericana de Educación Superior]]></source>
<year>2010</year>
<volume>1</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>148-156</page-range><publisher-name><![CDATA[USUE-UNAMUniversia]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Martínez Rizo]]></surname>
<given-names><![CDATA[Felipe]]></given-names>
</name>
</person-group>
<source><![CDATA[Propuestas y experiencias para desarrollar un sistema de indicadores educativos]]></source>
<year>2007</year>
<publisher-name><![CDATA[INEE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Martínez Rizo]]></surname>
<given-names><![CDATA[Felipe]]></given-names>
</name>
</person-group>
<source><![CDATA[Propuesta metodológica para desarrollar un sistema de indicadores para evaluar la calida de la educación en México]]></source>
<year>2007</year>
<conf-name><![CDATA[ Seminario Internacional de Indicadores Educativos]]></conf-name>
<conf-loc> </conf-loc>
</nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Martínez Rizo]]></surname>
<given-names><![CDATA[Felipe]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[El diseño de sistemas de indicadores educativos: consideraciones teórico-metodológicas]]></article-title>
<source><![CDATA[Cuadernos de Investigación]]></source>
<year>2005</year>
<volume>14</volume>
<publisher-name><![CDATA[INEE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Martínez Rizo]]></surname>
<given-names><![CDATA[Felipe]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[La calidad de las instituciones de educación superior. Su evaluación y su promoción]]></article-title>
<source><![CDATA[Cuadernos de Planeación Universitaria]]></source>
<year>1992</year>
<numero>2</numero>
<issue>2</issue>
<publisher-name><![CDATA[UNAM]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Morrison]]></surname>
<given-names><![CDATA[H. G.]]></given-names>
</name>
<name>
<surname><![CDATA[Magennis]]></surname>
<given-names><![CDATA[S. P.]]></given-names>
</name>
<name>
<surname><![CDATA[Carey]]></surname>
<given-names><![CDATA[L. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Performance indicators and league tables: a call for standards]]></article-title>
<source><![CDATA[Higher Education Quarterly]]></source>
<year>1995</year>
<volume>49</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>128-45</page-range></nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="">
<collab>Observatorio Regional de Políticas de Evaluación Educativa</collab>
<source><![CDATA[Los rankings de escuelas como forma de entregar información sobre calidad educativa]]></source>
<year>2010</year>
<volume>17</volume>
<page-range>11</page-range></nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ordorika]]></surname>
<given-names><![CDATA[Imanol]]></given-names>
</name>
<name>
<surname><![CDATA[Rodríguez Gómez]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[El ranking Times en el mercado del prestigio universitario]]></article-title>
<source><![CDATA[Perfiles Educativos]]></source>
<year>2010</year>
<volume>XXXII</volume>
<numero>129</numero>
<issue>129</issue>
<page-range>8-25</page-range></nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ordorika]]></surname>
<given-names><![CDATA[Imanol]]></given-names>
</name>
</person-group>
<source><![CDATA[Desempeño de universidades mexicanas en la función de investigación: estudio comparativo. Datos básicos 2007]]></source>
<year>2009</year>
<volume>1</volume>
<page-range>37</page-range><publisher-name><![CDATA[UNAM-DGEI]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ordorika]]></surname>
<given-names><![CDATA[Imanol]]></given-names>
</name>
<name>
<surname><![CDATA[Rodríguez Gómez]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<source><![CDATA[Comentarios al Academic Ranking of World Universities 2008]]></source>
<year>2008</year>
<volume>2</volume>
<page-range>97</page-range><publisher-name><![CDATA[UNAM-DGEI]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Shavelson]]></surname>
<given-names><![CDATA[Richard J.]]></given-names>
</name>
<name>
<surname><![CDATA[McDonell]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
<name>
<surname><![CDATA[Oakes]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<source><![CDATA[Indicators for Monitoring Mathematics and Science Education. A Sourcebook]]></source>
<year></year>
<publisher-loc><![CDATA[Santa Monica ]]></publisher-loc>
<publisher-name><![CDATA[Rand]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Van Raan]]></surname>
<given-names><![CDATA[A. F. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Fatal attraction: Ranking of universities by bibliometric methods]]></article-title>
<source><![CDATA[Scientometrics]]></source>
<year>2005</year>
<volume>62</volume>
<page-range>133-145</page-range></nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Van Raan]]></surname>
<given-names><![CDATA[A. F. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Reply to the comments of Liu et al]]></article-title>
<source><![CDATA[Scientometrics]]></source>
<year>2005</year>
<volume>64</volume>
<page-range>111-112</page-range></nlm-citation>
</ref>
<ref id="B25">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Webster]]></surname>
<given-names><![CDATA[David S.]]></given-names>
</name>
</person-group>
<source><![CDATA[Academic Quality Rankings of American Colleges and Universities]]></source>
<year>1986</year>
<volume>III</volume>
<publisher-loc><![CDATA[Springfield ]]></publisher-loc>
<publisher-name><![CDATA[Charles C. Thomas]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B26">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Webster]]></surname>
<given-names><![CDATA[David S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[How not to rank universities]]></article-title>
<source><![CDATA[Higher Education]]></source>
<year>1985</year>
<volume>14</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>71-79</page-range></nlm-citation>
</ref>
<ref id="B27">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Webster]]></surname>
<given-names><![CDATA[David S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[America's Higher-Ranked Graduate Schools, 1925-1982]]></article-title>
<source><![CDATA[Change]]></source>
<year>1983</year>
<page-range>13-24</page-range></nlm-citation>
</ref>
<ref id="B28">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Yorke]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A good league guide?]]></article-title>
<source><![CDATA[Quality Assurance in Education]]></source>
<year>1997</year>
<volume>5</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>61-72</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
