<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0185-2760</journal-id>
<journal-title><![CDATA[Revista de la educación superior]]></journal-title>
<abbrev-journal-title><![CDATA[Rev. educ. sup]]></abbrev-journal-title>
<issn>0185-2760</issn>
<publisher>
<publisher-name><![CDATA[Asociación Nacional de Universidades e Instituciones de Educación Superior de la República Mexicana A.C.]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0185-27602013000200003</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[La calidad de las universidades públicas estatales en México desde la perspectiva de un multi-ranking]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[López Leyva]]></surname>
<given-names><![CDATA[Santos]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Autónoma de Baja California Facultad de Economía y Relaciones Internacionales ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>06</month>
<year>2013</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>06</month>
<year>2013</year>
</pub-date>
<volume>42</volume>
<numero>166</numero>
<fpage>57</fpage>
<lpage>80</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_arttext&amp;pid=S0185-27602013000200003&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_abstract&amp;pid=S0185-27602013000200003&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_pdf&amp;pid=S0185-27602013000200003&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[El trabajo integra a las universidades públicas de México en un multi-ranking, instrumento que resulta de la combinación de tres rankings. Como producto de este ejercicio se concluye que es adecuada la elaboración de este tipo de instrumentos, ya que complementan la evaluación institucional que de forma tradicional se lleva a cabo. La perspectiva de un multi-ranking disminuye los efectos perversos de los rankings al lograr la combinación de propósitos, métodos, indicadores e intereses de los usuarios de la educación superior y mejora la eficiencia de la evaluación institucional. El multi-ranking funciona como un promedio de los rankings considerados.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[This paper develops a multi-ranking for public state universities in Mexico, it is elaborated blending three different rankings. This exercise concludes that is appropriate to advance in instruments to complement the institutional forms of evaluation. Using a multi-ranking for university evaluation decreases the adverse effects of rankings as it associates purposes, methods, indicators and stakeholders in higher education. The multi-ranking works as an average of the rankings involved.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Calidad de la educación]]></kwd>
<kwd lng="es"><![CDATA[Evaluación institucional]]></kwd>
<kwd lng="es"><![CDATA[Evaluación de las universidades]]></kwd>
<kwd lng="es"><![CDATA[Métodos de evaluación]]></kwd>
<kwd lng="es"><![CDATA[Ranking de universidades]]></kwd>
<kwd lng="en"><![CDATA[Quality of education]]></kwd>
<kwd lng="en"><![CDATA[Institutional evaluation]]></kwd>
<kwd lng="en"><![CDATA[Evaluation of universities]]></kwd>
<kwd lng="en"><![CDATA[Evaluation methods]]></kwd>
<kwd lng="en"><![CDATA[Ranking of universities]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[  	    <p align="justify"><font face="verdana" size="4">Ensayos</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="center"><font face="verdana" size="4"><b>La calidad de las universidades p&uacute;blicas estatales en M&eacute;xico desde la perspectiva de un multi&#45;ranking</b></font></p>  	    <p align="center"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="center"><font face="verdana" size="2"><b>Santos L&oacute;pez Leyva*</b></font></p>  	    <p align="center"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2">* <i>Profesor de tiempo completo de la Facultad de Econom&iacute;a y Relaciones Internacionales de la Universidad Aut&oacute;noma de Baja California, campus Tijuana. Correo e:</i> <a href="mailto:slleyva@uabc.edu.mx">slleyva@uabc.edu.mx</a>.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2">Ingreso: 01/04/13    ]]></body>
<body><![CDATA[<br> 	Aprobado: 17/05/13</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Resumen</b></font></p>  	    <p align="justify"><font face="verdana" size="2">El trabajo integra a las universidades p&uacute;blicas de M&eacute;xico en un multi&#45;ranking, instrumento que resulta de la combinaci&oacute;n de tres rankings. Como producto de este ejercicio se concluye que es adecuada la elaboraci&oacute;n de este tipo de instrumentos, ya que complementan la evaluaci&oacute;n institucional que de forma tradicional se lleva a cabo. La perspectiva de un multi&#45;ranking disminuye los efectos perversos de los rankings al lograr la combinaci&oacute;n de prop&oacute;sitos, m&eacute;todos, indicadores e intereses de los usuarios de la educaci&oacute;n superior y mejora la eficiencia de la evaluaci&oacute;n institucional. El multi&#45;ranking funciona como un promedio de los rankings considerados.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Palabras clave:</b> Calidad de la educaci&oacute;n, Evaluaci&oacute;n institucional, Evaluaci&oacute;n de las universidades, M&eacute;todos de evaluaci&oacute;n, Ranking de universidades.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Abstract</b></font></p>  	    <p align="justify"><font face="verdana" size="2">This paper develops a multi&#45;ranking for public state universities in Mexico, it is elaborated blending three different rankings. This exercise concludes that is appropriate to advance in instruments to complement the institutional forms of evaluation. Using a multi&#45;ranking for university evaluation decreases the adverse effects of rankings as it associates purposes, methods, indicators and stakeholders in higher education. The multi&#45;ranking works as an average of the rankings involved.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Key words:</b> Quality of education, Institutional evaluation, Evaluation of universities, Evaluation methods, Ranking of universities.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>Introducci&oacute;n</b></font></p>  	    <p align="justify"><font face="verdana" size="2">El presente trabajo cumple con dos prop&oacute;sitos fundamentales, por una parte lleva a cabo un an&aacute;lisis del comportamiento que sigue el subsistema de Universidades P&uacute;blicas Estatales en M&eacute;xico en un listado ponderado, mediante la combinaci&oacute;n de tres rankings, para construir lo que se denomina un multi&#45;ranking; adem&aacute;s, resalta la importancia de atender la evaluaci&oacute;n de las instituciones de educaci&oacute;n superior desde esta perspectiva, es decir, mediante la combinaci&oacute;n de indicadores de calidad en los que se sustentan los rankings seleccionados.</font></p>  	    <p align="justify"><font face="verdana" size="2">El primero de ellos es un ranking aparecido en la revista <i>Regional and Sectoral Economic Studies</i> 12(3), publicado por la Euro&#45;American Association of Economic Development Studies (EAAEDS), el cual se elabora con indicadores del comportamiento de las instituciones de educaci&oacute;n superior ante las principales variables que considera el Programa de Mejoramiento del Profesorado en M&eacute;xico (PROMEP), al que se denomina ranking (EAAEDS). El segundo es el ranking Iberoamericano sir, calculado y promovido por el SCImago Research Group, cuya principal variable de atenci&oacute;n la constituye la funci&oacute;n de investigaci&oacute;n que realizan las instituciones. Por &uacute;ltimo, se considera el ranking web de universidades (Webometrics), desarrollado desde 2004 por el laboratorio de Cibermetr&iacute;a del Consejo Superior de Investigaciones Cient&iacute;ficas de Espa&ntilde;a, el cual se basa en la presencia que tienen las instituciones de educaci&oacute;n superior en la web. Mediante la combinaci&oacute;n de estos tres instrumentos se construye un multi&#45;ranking.<sup><a href="#nota">1</a></sup></font></p>  	    <p align="justify"><font face="verdana" size="2">A partir de una elaboraci&oacute;n de este tipo se llega a la conclusi&oacute;n de que las instituciones de educaci&oacute;n superior en M&eacute;xico, al revisar sus pol&iacute;ticas para mejoramiento de la calidad y, por ende, su posici&oacute;n en los rankings, tendr&iacute;an que hacerlo desde la perspectiva de un multi&#45;ranking, ya que de esta forma ser&iacute;a mayor el n&uacute;mero de variables e indicadores a tomar en cuenta en la evaluaci&oacute;n tanto en el contexto nacional como internacional. Existen autores que recomiendan la realizaci&oacute;n de agrupamientos de instituciones de acuerdo a su calidad y sus funciones para llevar a cabo ejercicios de evaluaci&oacute;n comparada, o bien mediante la construcci&oacute;n de conglomerados (cl&uacute;steres), con la finalidad de potencializar los ejercicios de evaluaci&oacute;n institucional (Baraibar y Luna, 2012; Garc&iacute;a&#45;Aracil y Palomares&#45;Montero, 2012; Ordorika, Rodr&iacute;guez, Lozano y M&aacute;rquez, 2009; Palomares&#45;Montero y Garc&iacute;a&#45;Aracil, 2011; Horstschr&auml;er, 2012).</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Los rankings y su desarrollo</b></font></p>  	    <p align="justify"><font face="verdana" size="2">En la actualidad los rankings han logrado popularidad como instrumentos para clasificar las instituciones de educaci&oacute;n superior de acuerdo a criterios de calidad, pero estos procesos de jerarquizaci&oacute;n no son nada nuevos. Shin y Toutkoushian (2011) se&ntilde;alan que tienen su origen en 1925, cuando Donald Hughes elabor&oacute; un ranking mediante la evaluaci&oacute;n por pares para los programas de graduados en los Estados Unidos. Por otra parte, Hazelkorn (2011), recurriendo a Webster (1986), se&ntilde;ala que el hombre quien invent&oacute; los rankings fue James Mckeen Cattell con su trabajo <i>American Men of Science</i> publicado en 1910.</font></p>  	    <p align="justify"><font face="verdana" size="2">En el presente, seg&uacute;n Morphew y Swanson (2011), los rankings deben ser atendidos por las universidades ya que aportan varias lecciones a considerar, entre ellas, las siguientes: <i>a)</i> este sistema de evaluaci&oacute;n es una realidad y resulta dif&iacute;cil que se abandone ya que se ha vuelto muy popular, por lo que las universidades deben atender su participaci&oacute;n con el mismo cuidando que vigilan el mejoramiento de su calidad; <i>b)</i> si las universidades, por determinadas circunstancias, no pueden mejorar su posici&oacute;n en los listados, cuando menos, deben aspirar a no perder lugares; <i>c)</i> las t&eacute;cnicas utilizadas para participar en estos procesos se equiparan a las t&eacute;cnicas manejadas en las justas deportivas, las universidades han movido todo lo que tienen a su alcance para incorporase a los rankings o bien para mejorar su posicionamiento, y <i>d)</i> toda universidad que participa en estos modelos no debe desatender elementos como la equidad, la cual constituye una dimensi&oacute;n importante en los diferentes mecanismos de evaluaci&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2">Los rankings presentan dos grandes dificultades, tanto en su elaboraci&oacute;n como en su aplicaci&oacute;n, seg&uacute;n establecen Van Vught, Westerhejden y Ziegele (2012), la primera proviene de la gran diversidad de modelos de instituciones de educaci&oacute;n superior, la variedad de misiones que &eacute;stas cumplen en la sociedad y de la pluralidad de actividades que desarrollan; por otra parte, se encuentra la dificultad derivada de los intereses de los diferentes sujetos involucrados, donde se hallan estudiantes, acad&eacute;micos, empleadores, l&iacute;deres institucionales, responsables y dise&ntilde;adores de pol&iacute;ticas.</font></p>  	    <p align="justify"><font face="verdana" size="2">M&aacute;rquez (2010) reconoce que estos instrumentos parecen brindar respuesta al prop&oacute;sito de establecer comparaciones, bajo criterios de competencia, entre las instituciones de educaci&oacute;n superior, sin embargo, presentan una serie de problemas, entre ellos: la parcialidad de los elementos que se consideran para jerarquizar las instituciones; el ignorar las diferentes trayectorias hist&oacute;ricas y diversidad de caracter&iacute;sticas que guardan las instituciones, y las limitaciones que presentan las metodolog&iacute;as que sirven de base a la jerarquizaci&oacute;n.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Aunque se menciona que no existen evidencias claras de que los rankings contribuyan en la calidad institucional, de mejor manera, parecen tener efectos negativos en las conductas de las instituciones (Shin, 2011). El mismo autor menciona que se deben estudiar de forma adecuada con la finalidad de minimizar los problemas y mejorar sus resultados en la clasificaci&oacute;n de las universidades. Estos instrumentos han proliferado y seguir&aacute;n aumentando debido a la masificaci&oacute;n de la educaci&oacute;n superior, en matr&iacute;cula e instituciones, al incremento de la competencia entre las instituciones y al fen&oacute;meno de internacionalizaci&oacute;n de este nivel educativo (Teichler, 2011).</font></p>  	    <p align="justify"><font face="verdana" size="2">Ante este tipo de dificultades han surgido propuestas que tienen el prop&oacute;sito de concertar y regular la construcci&oacute;n de los rankings, por ejemplo Logden (2011), establece siete etapas a seguir en la elaboraci&oacute;n de un instrumento de este tipo: <i>1)</i> definir las razones y motivos para la construcci&oacute;n de un ranking; <i>2)</i> seleccionar las medidas adecuadas y el comportamiento de los indicadores; <i>3)</i> establecer los mecanismos para la recolecci&oacute;n de los datos; <i>4)</i> especificar el comportamiento de los indicadores conforme a la escala establecida; <i>5)</i> constituir criterios de estandarizaci&oacute;n de las medidas antes de aplicarlas a nivel agregado; <i>6)</i> precisar el peso que tendr&aacute; cada &iacute;ndice antes de considerarlo en el valor general, y <i>y)</i> creaci&oacute;n del &iacute;ndice que refleje el comportamiento general de cada universidad. Por &uacute;ltimo, estar&iacute;a la tarea de elaborar el listado de acuerdo al valor alcanzado por cada instituci&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2">Por su parte, Mart&iacute;nez Rizo (2011) se&ntilde;ala que, para que un ranking se pueda considerar de buena calidad, debe contar con los siguientes elementos: <i>1)</i> identificaci&oacute;n clara de los evaluados; <i>2)</i> definici&oacute;n precisa de la noci&oacute;n de calidad que se espera tengan los evaluandos; <i>3)</i> calidad de la informaci&oacute;n que se utilice para cada indicador; <i>4)</i> justificaci&oacute;n s&oacute;lida de la forma en que se agregar&aacute;n las mediciones de los indicadores; <i>5)</i> suficiente precisi&oacute;n en las mediciones; <i>6)</i> identificaci&oacute;n de los est&aacute;ndares de referencia; <i>y)</i> consistencia de los resultados y las tendencias resultantes, y <i>8)</i> correcta formulaci&oacute;n de los juicios a los que se llega por el hecho mismo de hacer un ranking.</font></p>  	    <p align="justify"><font face="verdana" size="2">Tambi&eacute;n se encuentran esfuerzos institucionales encaminados a lograr un mejoramiento de estos instrumentos tanto desde su construcci&oacute;n como en su uso, en tal sentido, en 2004 el Centro Europeo para la Educaci&oacute;n Superior de la UNESCO y el Instituto para las Pol&iacute;ticas en Educaci&oacute;n Superior de Washington, D. C. fundaron el Grupo Internacional de Expertos en Rankings, el cual trabaj&oacute; en la preparaci&oacute;n de un reglamento para la elaboraci&oacute;n y diseminaci&oacute;n de estos instrumentos, dando a conocer, el 20 de mayo de 2006, <i>The Berlin Principles on Rankings of Higher Education Institutions.</i> En total son diecis&eacute;is principios estructurados en cuatro partes, que se presentan a continuaci&oacute;n (Buela&#45;Casal <i>et al.,</i> 2010; Institute for Higher Education Policy, 2006; McCormick, 2008).</font></p>  	    <p align="justify"><font face="verdana" size="2">Parte A). Prop&oacute;sitos y metas de los rankings, que se expresan en los siguientes principios: <i>1)</i> constituirse en uno de los diversos enfoques de evaluaci&oacute;n de la educaci&oacute;n superior que considera insumos, procesos y resultados; <i>2)</i> tener claridad sobre sus prop&oacute;sitos y sus grupos objetivo; <i>3)</i> reconocer la diversidad de instituciones y considerar las diferentes misiones y metas de las instituciones en el reporte; <i>4)</i> proporcionar claridad acerca de las fuentes de informaci&oacute;n que se disponen y el mensaje que cada una de las fuentes suministra, y <i>5)</i> especificar el contexto ling&uuml;&iacute;stico, cultural, econ&oacute;mico e hist&oacute;rico del sistema que se observa.</font></p>  	    <p align="justify"><font face="verdana" size="2">Parte B). Dise&ntilde;o y ponderaci&oacute;n de los indicadores, que atienden los principios de: <i>6)</i> ser transparente en relaci&oacute;n con la metodolog&iacute;a utilizada para la construcci&oacute;n del ranking; <i>y)</i> seleccionar indicadores por su relevancia y validez; <i>8)</i> medir los resultados de forma preferente sobre los insumos, siempre que esto sea posible, <i>9)</i> establecer los pesos de cada uno de los indicadores usados y los l&iacute;mites entre los que se pueden mover.</font></p>  	    <p align="justify"><font face="verdana" size="2">Parte C). Recolecci&oacute;n y procesamiento de la informaci&oacute;n, con los principios: <i>10)</i> atender las normas &eacute;ticas y las recomendaciones de buenas pr&aacute;cticas declaradas en estos principios; <i>11)</i> utilizar datos debidamente comprobados o cuya comprobaci&oacute;n sea posible; <i>12)</i> incluir solo datos que se recojan mediante la utilizaci&oacute;n de procedimientos cient&iacute;ficos; <i>13)</i> aplicar medidas de aseguramiento de la calidad en el proceso de construcci&oacute;n de estos rankings, y <i>14)</i> aplicar medidas organizacionales que mejoren la credibilidad de los rankings.</font></p>  	    <p align="justify"><font face="verdana" size="2">Parte D). Presentaci&oacute;n de los resultados de los rankings, bajo los principios: <i>15)</i> proporcionar a los consumidores un entendimiento claro de los factores usados para desarrollar los rankings, y ofrecer una muestra sobre el comportamiento de los mismos, y <i>16)</i> ser compilado o agrupado de tal manera que elimine o disminuya los errores que presentan los datos originales y organizados de tal manera que los errores o fallas se puedan corregir.</font></p>  	    <p align="justify"><font face="verdana" size="2">Existen opiniones en torno a que pese a todas estas recomendaciones e instrumentos para mejorar los rankings, no constituyen una buena medida de la calidad de la instituci&oacute;n, en este sentido, P&eacute;rez&#45;Esparrels y L&oacute;pez (2009, p. 328) se&ntilde;alan que:</font></p>  	    <blockquote> 		    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">"...los rankings llevan impl&iacute;cito una posici&oacute;n para cada instituci&oacute;n lo que hace inevitable las comparaciones. El problema surge cuando se identifica una mejor posici&oacute;n con una mejor calidad, dado el amplio espectro que abarca este concepto".</font></p> 	</blockquote>  	    <p align="justify"><font face="verdana" size="2">Sin embargo, con el avance en la informaci&oacute;n en el tratamiento de los datos y en general en el trabajo de investigaci&oacute;n institucional, es posible relacionar de mejor manera estos listados de instituciones con el aseguramiento de la calidad y con los mecanismos de rendici&oacute;n de cuentas. En un trabajo desarrollado por Federkeil (2008), se relaciona en forma adecuada los sistemas de rankings con el aseguramiento de la calidad en educaci&oacute;n superior.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Los beneficios de un multi&#45;ranking</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Las universidades, al atender el mejoramiento de su calidad mediante la designaci&oacute;n de su posicionamiento en un tipo de ranking, deben pensar en la utilizaci&oacute;n de un proceso multi&#45;ranking, ya que ello les puede reportar m&uacute;ltiples beneficios. Los frutos provenientes de utilizar un instrumento de este tipo pueden aparecer desde diferentes perspectivas, una de ellas es que, al ser una herramienta plurifuncional, puede atender las diferentes funciones y misiones de una instituci&oacute;n. Es multinivel porque considera la calidad que observa la instituci&oacute;n en los diferentes niveles educativos que integra; multidimensional al reflexionar la dimensi&oacute;n interna de la instituci&oacute;n, as&iacute; como los espacios regionales, nacionales e internacionales donde se involucra la instituci&oacute;n. Puede atender a diferentes visiones de la calidad, tanto como a distintos indicadores desde el enfoque cuantitativo como cualitativo de la investigaci&oacute;n institucional. Tambi&eacute;n es posible ensayar diferentes m&eacute;todos de evaluaci&oacute;n de la calidad de las instituciones. Otro elemento para reflexionar la calidad de una universidad por medio de un multi&#45;ranking es la atenci&oacute;n de los usuarios, ya que estos cuentan con diferentes perfiles e intereses.</font></p>  	    <p align="justify"><font face="verdana" size="2">Van Vught y Westerheijden (2012) hacen una revisi&oacute;n de algunos rankings que se utilizan en la actualidad; derivado de &eacute;sta, formulan una serie de cr&iacute;ticas a estos instrumentos y expresan la necesidad de una perspectiva desde el multi&#45;ranking para observar la calidad de una instituci&oacute;n de educaci&oacute;n superior. Establecen doce puntos de partida, los cuales dirigen la atenci&oacute;n hacia la utilizaci&oacute;n de un multi&#45;ranking. 1) atendiendo a los principios de Berlin, un multi&#45;ranking facilita la definici&oacute;n de los grupos objetivo, el tipo de indicadores a utilizar y la forma de presentar los resultados; 2) los rankings y el aseguramiento de la calidad constituyen dos mecanismos que se deben complementar, pero tambi&eacute;n se pueden integrar con ejercicios de rendici&oacute;n de cuentas; 3) los grupos objetivo presentan diferentes motivaciones al consultar un ranking, lo cual se puede enfocar de mejor manera desde la perspectiva de un multi&#45;ranking; 4) resulta m&aacute;s f&aacute;cil hacer comparaciones entre los campos disciplinarios que practican las universidades; 5) desde esta perspectiva se atiende la multidimensionalidad; 6) la posible diversidad en la utilizaci&oacute;n de indicadores; 7) una mayor posibilidad de analog&iacute;as internacionales; 8) se tiene la oportunidad de hacer comparaciones robustas por grupos de instituciones y no en forma de tablas jerarquizadas desde 1 hasta n; 9) se cuenta con mayores posibilidades en la utilizaci&oacute;n de datos, as&iacute; como el establecimiento de relaciones funcionales entre estos datos; 10) se consiguen mejores reflexiones en cuanto a los posibles efectos perversos en la utilizaci&oacute;n de rankings; 11) se puede involucrar a los diferentes interesados en el dise&ntilde;o de los instrumentos, y 12) existe la posibilidad de utilizar mecanismos que permitan una mejor y m&aacute;s amplia evaluaci&oacute;n de la calidad de las instituciones.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Ranking EAAEDS</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Este ranking es presentado por la revista <i>Regional and Sectoral Economic Studies</i> publicada por la Euro&#45;American Association of Economic Development Studies (L&oacute;pez&#45;Leyva, 2012).</font></p>  	    <p align="justify"><font face="verdana" size="2">El instrumento trabaja con siete variables, las cuales son: <i>1)</i> profesores de tiempo completo (PTC); <i>2)</i> PTC con reconocimiento vigente de perfil deseable en el Programa de Mejoramiento del Personal Acad&eacute;mico (PROMEP); <i>3)</i> PTC con reconocimiento en el Sistema Nacional de Investigadores (SNI); <i>4)</i> PTC con estudios de posgrado; <i>5)</i> n&uacute;mero de programas de posgrado en el Programa Nacional de Posgrados de Calidad (PNPC); <i>6)</i> cuerpos acad&eacute;micos consolidados reconocidos por PROMEP, y <i>y)</i> cuerpos acad&eacute;micos en consolidaci&oacute;n.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Para la elaboraci&oacute;n del &iacute;ndice que refleja el comportamiento general de la instituci&oacute;n, primero se elaboraron tres &iacute;ndices, los cuales se expresan a continuaci&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2">&Iacute;ndice de Potencialidad Acad&eacute;mica General (IPAG), el cual se elabor&oacute; con el n&uacute;mero de PTC con perfil deseable, el n&uacute;mero de PTC miembros del SNI y los PTC con nivel de posgrado.</font></p>      <p align="justify"><font face="verdana" size="2">El &Iacute;ndice de Potencialidad Acad&eacute;mica Individual es calculado para cada universidad y resulta de la divisi&oacute;n del &iacute;ndice anterior entre el n&uacute;mero de profesores tiempo completo de cada instituci&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2">Un tercer es el &Iacute;ndice de Competitividad Acad&eacute;mica de los profesores con posgrado de cada instituci&oacute;n, el cual result&oacute; de la siguiente ecuaci&oacute;n:</font></p>  	    <blockquote> 		    <p align="justify"><font face="verdana" size="2">CA= 3D + 2M + E + 2(CAC) + CAEC</font></p>  		    <p align="justify"><font face="verdana" size="2">CA= Competitividad Acad&eacute;mica</font></p>  		    <p align="justify"><font face="verdana" size="2">D= N&uacute;mero de programa de Doctorado en el PNPC</font></p>  		    <p align="justify"><font face="verdana" size="2">M= N&uacute;mero de programas de Maestr&iacute;a en el PNPC</font></p>  		    <p align="justify"><font face="verdana" size="2">E= N&uacute;mero de programas de Especializaci&oacute;n en el PNPC</font></p>  		    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">CAC= Cuerpos Acad&eacute;micos Consolidados</font></p>  		    <p align="justify"><font face="verdana" size="2">CAEC= Cuerpos Acad&eacute;micos en Consolidaci&oacute;n</font></p> 	</blockquote>  	    <p align="justify"><font face="verdana" size="2">Mediante la estandarizaci&oacute;n de estos tres &iacute;ndices se elabor&oacute; un &iacute;ndice general en el cual se basa la construcci&oacute;n del mencionado ranking. (<a href="/img/revistas/resu/v42n166/html/a3t.html" target="_blank">Tabla tres</a>).</font></p>  	    <p align="center"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Ranking Iberoamericano SIR</b></font></p>  	    <p align="justify"><font face="verdana" size="2">La primera edici&oacute;n de este ranking fue en 2010, actualmente es calculado y promovido por el SCImago Research Group, fundado en 2008; la informaci&oacute;n que maneja proviene de SCOPUS. En 2010 integr&oacute; a 607 universidades, para 2011 este n&uacute;mero se increment&oacute; a 1,369 y en 2012 a 1,401 instituciones.</font></p>  	    <p align="justify"><font face="verdana" size="2">El mayor peso de este ranking se encuentra en la funci&oacute;n de investigaci&oacute;n de las instituciones, pues su funci&oacute;n es mostrar un perfil detallado de la actividad investigadora de las universidades bas&aacute;ndose en datos cuantitativos.</font></p>  	    <p align="justify"><font face="verdana" size="2">Los indicadores que maneja son los siguientes:</font></p>  	    <blockquote> 		    <p align="justify"><font face="verdana" size="2">Producci&oacute;n cient&iacute;fica. Es medida por el n&uacute;mero de publicaciones de la instituci&oacute;n en revistas cient&iacute;ficas.</font></p>  		    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Colaboraci&oacute;n internacional. Se mide por la proporci&oacute;n de publicaciones cient&iacute;ficas de una instituci&oacute;n que han sido elaboradas por sus acad&eacute;micos conjuntamente con profesores de instituciones de otros pa&iacute;ses.</font></p>  		    <p align="justify"><font face="verdana" size="2">Calidad Cient&iacute;fica Promedio. Impacto cient&iacute;fico de una instituci&oacute;n despu&eacute;s de eliminar la influencia del tama&ntilde;o y el perfil tem&aacute;tico de la instituci&oacute;n.</font></p>  		    <p align="justify"><font face="verdana" size="2">Porcentaje de publicaciones en revistas del primer cuartil del SCImago Journal Rank (SJR). Indica el porcentaje de publicaciones que una instituci&oacute;n ha publicado en revistas que se encuentren en el primer 25% del indicador SJR.</font></p>  		    <p align="justify"><font face="verdana" size="2">Raz&oacute;n de Excelencia. Es el porcentaje del producto de una instituci&oacute;n que se encuentra incluido en el 10% de los trabajos m&aacute;s citados del mundo en sus respectivos campos cient&iacute;ficos. La participaci&oacute;n de las universidades mexicanas en este ranking se presenta en las columnas IV, V y VI de la <a href="/img/revistas/resu/v42n166/html/a3t.html#t3" target="_blank">tabla tres</a>.</font></p> 	</blockquote>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Ranking Web de Universidades (Webometrics).</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Los autores de este instrumento empiezan por reconocer que, en la actualidad, la web acad&eacute;mica se ha convertido en una fuente de conocimiento, incluso, en un medio poderoso para la comunicaci&oacute;n cient&iacute;fica y cultural, tambi&eacute;n los sitios web constituyen el instrumento m&aacute;s eficiente y barato para el impulso a las tres actividades sustantivas de las instituciones de educaci&oacute;n superior: docencia, investigaci&oacute;n y transferencia de conocimiento (Aguillo, Ortega y Fern&aacute;ndez, 2008).</font></p>  	    <p align="justify"><font face="verdana" size="2">El prop&oacute;sito de este ranking es motivar a instituciones y acad&eacute;micos para que tengan una presencia en la red que refleje adecuadamente sus actividades. Si las instituciones no manifiestan en forma apropiada sus actividades en la web, la invitaci&oacute;n es para que reconsideren su pol&iacute;tica en estos espacios promoviendo un incremento sustancial en la calidad y volumen de sus publicaciones electr&oacute;nicas. Reporta una calificaci&oacute;n por dominio institucional en la Web, si las instituciones cuentan con m&aacute;s de un dominio, &eacute;stas son calificadas de acuerdo con el n&uacute;mero de dominios de que disponen.</font></p>  	    <p align="justify"><font face="verdana" size="2">Aguillo <i>et al.,</i> (2008) establecen que existen tres aspectos claves a medir en una red acad&eacute;mica: el tama&ntilde;o, que se refiere al volumen de la informaci&oacute;n publicada; la visibilidad, el n&uacute;mero de enlaces externos que recibe el dominio, y la popularidad, el monto de visitas o visitadores que tiene la p&aacute;gina.</font></p>  	    <p align="justify"><font face="verdana" size="2">El Factor de Impacto de la Web (WIF) est&aacute; compuesto por cuatro indicadores:</font></p>  	    ]]></body>
<body><![CDATA[<blockquote> 		    <p align="justify"><font face="verdana" size="2">Tama&ntilde;o (S). N&uacute;mero de p&aacute;ginas recuperadas de Google (10%)</font></p>  		    <p align="justify"><font face="verdana" size="2">Visibilidad (V). Se cuenta por el n&uacute;mero de enlaces externos recibidos, multiplicado por los dominios de referencia a estos enlaces, de acuerdo con los datos hist&oacute;ricos de Majestic seo. (50%).</font></p>  		    <p align="justify"><font face="verdana" size="2">Archivos Ricos (R). Se consideran s&oacute;lo los archivos en los siguientes formatos: Adobe Acrobat, Adobe PostScript, Microsoft Word y Microsoft Power Point (10%).</font></p>  		    <p align="justify"><font face="verdana" size="2">Acad&eacute;micos (Sc). Art&iacute;culos publicados en Google Scholar y los reconocidos por Scimago sir (30%).</font></p> 	</blockquote>  	    <p align="justify"><font face="verdana" size="2">Aunque el peso de estos indicadores puede cambiar, Aguillo <i>et al.,</i> (2008) establecen una f&oacute;rmula para el c&aacute;lculo de este ranking:</font></p>  	    <blockquote> 		    <p align="justify"><font face="verdana" size="2">WR=2xRank (S) + ixRank (R) +ixRank (Sc) + 4xRank (V)</font></p>  		    <p align="justify"><font face="verdana" size="2">Donde S=Tama&ntilde;o R=Archivos ricos Sc=N&uacute;mero de art&iacute;culos V=Visibilidad</font></p> 	</blockquote>  	    <p align="justify"><font face="verdana" size="2">Una de las limitaciones que se&ntilde;alan Aguillo <i>et al.,</i> (2008) es que, desafortunadamente, las instituciones cuentan con m&aacute;s de un dominio principal en la red y usan diferentes nombres para cada dominio, lo cual entorpece la elaboraci&oacute;n del instrumento.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En el comportamiento de este ranking se demuestra que los resultados m&aacute;s sobresalientes, es decir, las mejores ubicaciones en el listado, se las adjudican las universidades europeas y norteamericanas, en contraste con otros rankings donde se observa el dominio de las instituciones de los Estados Unidos (Aguillo <i>et al.,</i> 2008). El comportamiento de las instituciones de nuestro inter&eacute;s se encuentra en las columnas VII, VIII y IX de la <a href="/img/revistas/resu/v42n166/html/a3t.html" target="_blank">tabla tres</a>.</font></p>  	    <p align="justify"><font face="verdana" size="2">Un resumen de los indicadores que presenta cada ranking se aprecian en la <a href="#t1">tabla uno</a>.</font></p>  	    <p align="center"><font face="verdana" size="2"><a name="t1"></a></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/resu/v42n166/a3t1.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">La <a href="#t1">tabla uno</a> presenta los indicadores de cada uno de los rankings, el EAAEDS contiene siete indicadores cuyo centro es el n&uacute;cleo acad&eacute;mico que forman los profesores de tiempo completo de la universidad, de ello se deriva nuestro inter&eacute;s, pero adem&aacute;s es desarrollado en forma exclusiva para las universidades p&uacute;blicas de los estados en M&eacute;xico. El ranking Iberoamericano tiene su centro de atenci&oacute;n en la producci&oacute;n cient&iacute;fica, esto se puede observar en los cinco indicadores; por otra parte, el Webometrics pone atenci&oacute;n en la difusi&oacute;n del quehacer cient&iacute;fico de la universidad a trav&eacute;s de un instrumento que ella misma puede elaborar y controlar, que es su p&aacute;gina web. Se seleccionaron estos tres rankings ya que presentan distintos objetivos e indicadores, pero adem&aacute;s, en ellos aparecen las 39 instituciones que tiene en su lista el PROMEP en la categor&iacute;a de universidades p&uacute;blicas de los estados.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>M&eacute;todos y datos</b></font></p>  	    <p align="justify"><font face="verdana" size="2">El espacio de trabajo est&aacute; constituido por el sistema de universidades p&uacute;blicas de los estados en M&eacute;xico que, en 2011, seg&uacute;n el PROMEP, eran 39 instituciones. Los nombres de &eacute;stas, los acr&oacute;nimos utilizados y el n&uacute;mero de profesores aparecen en la <a href="#t2">tabla 2</a>.</font></p>  	    <p align="center"><font face="verdana" size="2"><a name="t2"></a></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/resu/v42n166/a3t2.jpg"></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">La <a href="/img/revistas/resu/v42n166/html/a3t.html#t3" target="_blank">tabla 3</a> presenta tres rankings donde participan las universidades p&uacute;blicas estatales de M&eacute;xico. Primero aparece el ranking desarrollado por la revista <i>Regional and Sectoral Economic Studies</i> 12 (3) (L&oacute;pez&#45;Leyva, 2012). El segundo es el ranking Iberoamericano y, por &uacute;ltimo, se presenta el ranking Webometrics.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>La construcci&oacute;n del multi&#45;ranking</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Para la construcci&oacute;n de este instrumento se tom&oacute; primero el ranking Iberoamericano considerando la posici&oacute;n de cada una de las 39 instituciones, este lugar se tradujo a proporciones dividiendo el lugar de cada universidad entre el n&uacute;mero de instituciones, para 2011 inclu&iacute;a a 1,369. En este sistema de proporciones, las universidades con posici&oacute;n baja en el ranking alcanzan una proporci&oacute;n mayor por lo que, para invertir estos valores, se les rest&oacute; la unidad, dando como resultado valores negativos; por ello, se multiplicaron por (&#45;1) y estos n&uacute;meros se multiplicaron por 100. Los resultados aparecen en la columna IV de la <a href="/img/revistas/resu/v42n166/html/a3t.html#t4" target="_blank">tabla 4</a>.</font></p>  	    <p align="justify"><font face="verdana" size="2">En cuanto al ranking Webometric, la proporci&oacute;n se encontr&oacute; mediante la divisi&oacute;n del lugar de cada universidad entre 19,403 que era el total de universidades a nivel mundial incluidas este ranking en 2011. Se present&oacute; el mismo fen&oacute;meno que las universidades mejor ubicadas alcanzaron una proporci&oacute;n menor, ya que el listado es de n&uacute;meros ordinales donde los primeros lugares son n&uacute;meros m&aacute;s peque&ntilde;os, por tanto, al contar con un numerador menor, la proporci&oacute;n tambi&eacute;n es m&aacute;s reducida, por lo que se sigui&oacute; el mismo procedimiento que para el ranking Iberoamericano, se le rest&oacute; uno, se multiplic&oacute; por (&#45;1) y despu&eacute;s se multiplic&oacute; por i00. Los resultados aparecen en la columna V de la <a href="/img/revistas/resu/v42n166/html/a3t.html#t4" target="_blank">tabla 4</a>. En la columna tres aparece el multi&#45;ranking, el cual es resultado de sumar las columnas IV, V y VI.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>An&aacute;lisis y discusi&oacute;n</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Los tres rankings utilizados atienden, en lo fundamental, a los principios de Berlin al contemplar los indicadores que dichos principios establecen; para su elaboraci&oacute;n atienden las etapas que Logden (2011) sugiere para la construcci&oacute;n de un instrumento de este tipo. Sin embargo, de manera espec&iacute;fica, cada uno de los tres contempla un espacio reducido del quehacer de una instituci&oacute;n de educaci&oacute;n superior, por lo que, de forma particular, s&oacute;lo atienden una perspectiva corta de la evaluaci&oacute;n de una universidad, de la cual proviene la conveniencia de utilizar un multi&#45;ranking, o bien otras formas de agrupamiento de las instituciones.</font></p>  	    <p align="justify"><font face="verdana" size="2">El ranking EAAEDS fluye bajo una representaci&oacute;n muy conectada a la actividad acad&eacute;mica al tener en el centro de su construcci&oacute;n a los profesores de tiempo completo de la instituci&oacute;n, pues de la cantidad de profesores con que se cuente y de la habilitaci&oacute;n que &eacute;stos tengan dependen, en gran medida, las otras variables del ranking. Esto se debe a que un acad&eacute;mico, para obtener el reconocimiento de perfil deseable de parte de PROMEP, necesita contar con la categor&iacute;a de PTC pero, adem&aacute;s, mostrar buena disposici&oacute;n en la docencia, la investigaci&oacute;n y la difusi&oacute;n del conocimiento, as&iacute; como en la realizaci&oacute;n de tareas relacionadas con la administraci&oacute;n y gesti&oacute;n de la academia. Lo mismo sucede con el SNI: para ser miembro de este sistema se debe ser profesor de tiempo completo, pero adem&aacute;s mostrar resultados en las tareas de investigaci&oacute;n y en la formaci&oacute;n de nuevos investigadores. Algo similar acontece con la adscripci&oacute;n de programas de posgrado al PNPC, donde la principal variable para que un posgrado sea considerado de calidad es la habilitaci&oacute;n de un n&uacute;cleo b&aacute;sico que constituya el sost&eacute;n acad&eacute;mico del programa. En el mismo sentido, quienes participan en la conformaci&oacute;n de cuerpos acad&eacute;micos son los PTC, para ello deben contar con la habilitaci&oacute;n suficiente pero, adem&aacute;s, tener la disposici&oacute;n para la realizaci&oacute;n de trabajo acad&eacute;mico en equipo. Por lo tanto, en el centro de este ranking se encuentra la planta de profesores de tiempo completo tanto en su n&uacute;mero como en la habilitaci&oacute;n y los logros alcanzados por &eacute;stos.</font></p>      <p align="justify"><font face="verdana" size="2">En el listado de las universidades que est&aacute;n bajo este esquema se encuentran instituciones que tienen buen desempe&ntilde;o por el n&uacute;mero de profesores, tal es el caso de la Universidad de Guadalajara que, en 2011, contaba con 3,608 acad&eacute;micos de este tipo; este n&uacute;mero de acad&eacute;micos y el desempe&ntilde;o de los mismos llevan a esta instituci&oacute;n a aparecer en primer lugar en todos los rankings; en el mismo caso se encuentran las universidades UANL, con 2,291 profesores de tiempo completo; UV con 1,929 profesores y la BUAP con 1,946 acad&eacute;micos. Todas ellas aparecen en los primeros lugares en los rankings. Otro ejemplo es la Universidad Aut&oacute;noma del Estado de Morelos que, con 475 profesores en el mismo a&ntilde;o, aparece en segundo lugar en el multi&#45;ranking y en el EAAEDS y en el cuarto lugar en el ranking Iberoamericano. Esta &uacute;ltima instituci&oacute;n es la que presenta el mayor rendimiento de sus acad&eacute;micos, lo cual se observa en el &Iacute;ndice de Potencialidad Acad&eacute;mica Individual (IPAI) (L&oacute;pez&#45;Leyva, 2012), en el cual la UDG figura en el lugar n&uacute;mero 12.</font></p>      ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En cuanto al ranking Iberoamericano, como sus autores lo mencionan, su centro de atenci&oacute;n es la investigaci&oacute;n en la universidad, pues los cinco indicadores que contempla est&aacute;n relacionados con esta funci&oacute;n. Su primer indicador es el n&uacute;mero de art&iacute;culos cient&iacute;ficos publicados por los investigadores en revistas indexadas en el contexto internacional. El segundo se refiere a la colaboraci&oacute;n internacional y tambi&eacute;n mide la colaboraci&oacute;n que se establece con investigadores de otros pa&iacute;ses para la publicaci&oacute;n de art&iacute;culos cient&iacute;ficos; lo central sigue siendo la publicaci&oacute;n, pero ahora en forma de grupo con investigadores extranjeros. En el tercer indicador se elimina el &aacute;rea donde la instituci&oacute;n sobresale; constituye una media de las publicaciones pero sin atender el tama&ntilde;o de la instituci&oacute;n, por eso es un promedio.</font></p>  	    <p align="justify"><font face="verdana" size="2">El siguiente indicador tambi&eacute;n est&aacute; referido a publicaciones cient&iacute;ficas, pero ahora en el ranking de revistas cient&iacute;ficas que el mismo grupo SCImago elabora; solamente toma en cuenta las publicaciones aparecidas en el primer cuartil del ranking de revistas elaborado por este grupo. El &uacute;ltimo indicador, denominado raz&oacute;n de excelencia, se refiere al porcentaje de publicaciones que se encuentra incluido en el 10% de los trabajos m&aacute;s citados en cada uno de los campos cient&iacute;ficos. Como se puede observar, los cinco indicadores en que se basa este ranking est&aacute;n relacionados con la producci&oacute;n de art&iacute;culos cient&iacute;ficos en revistas indexadas. La informaci&oacute;n con la que trabaja este listado de instituciones proviene de SCOPUS, por ende, las revistas cient&iacute;ficas que toman en cuenta deben pertenecer a este banco de informaci&oacute;n cient&iacute;fica.</font></p>  	    <p align="justify"><font face="verdana" size="2">El tercer ranking, Webometrics, se sustenta en la evaluaci&oacute;n de las p&aacute;ginas web de las instituciones de educaci&oacute;n superior; en 2011 inclu&iacute;a 19,403 instituciones y, para febrero de 2013, 21,250. El factor dominante en este ranking es la visibilidad de la p&aacute;gina institucional, medida por el n&uacute;mero de enlaces externos que tenga dicha p&aacute;gina; los datos son tomados de Majestic seo, el mayor proveedor de informaci&oacute;n sobre p&aacute;ginas y enlaces en el mundo. Cabe aclarar que, para 2013, cambi&oacute; el peso de los factores, pero este art&iacute;culo se basa en la metodolog&iacute;a presentada en 2011. El siguiente indicador, por su porcentaje en el peso para la evaluaci&oacute;n, es el de acad&eacute;micos, que toma en cuenta los art&iacute;culos cient&iacute;ficos aparecidos en Google Scholar y los reconocidos por SCImago; aqu&iacute; de nueva cuenta aparece la investigaci&oacute;n, pues en ambos casos los art&iacute;culos provienen de revistas indexadas. Otro indicador m&aacute;s es el tama&ntilde;o, medido por el n&uacute;mero de p&aacute;ginas, dominios y subdominios, reconocidos por Google, con que cuenta la instituci&oacute;n; este indicador se conoce como presencia. El &uacute;ltimo indicador es el de archivos ricos, en el cual s&oacute;lo figuran los archivos aparecidos en Acrobat, Post Script, Word y Power Point.</font></p>  	    <p align="justify"><font face="verdana" size="2">En este ranking se pueden encontrar universidades que tienen buen comportamiento acad&eacute;mico en los otros listados, pero que aqu&iacute; no aparecen en los primeros lugares, como la UAMOR que llega a ocupar el segundo lugar en el EAAEDS y en el multi&#45;ranking y aqu&iacute; parece en lugar n&uacute;mero 13; esta instituci&oacute;n, sin duda, ha descuidado su lugar en el ranking. La UNISON, en cambio, ocupa posiciones abajo en los otros rankings y en este aparece en tercer lugar. Otro elemento que se observa es la gran distancia que hay en el ranking entre las universidades mexicanas: la UDG, por ejemplo, aparece en el lugar 493, mientras que la UDO se encuentra en el lugar 9,010.</font></p>  	    <p align="justify"><font face="verdana" size="2">Como se observa en los apartados anteriores, cada uno de los rankings muestra sus criterios, funciones, indicadores y grupos objetivo; lo m&aacute;s recomendable, entonces, es trabajar en la realizaci&oacute;n de agrupamientos.</font></p>  	    <p align="justify"><font face="verdana" size="2">Otro elemento que posibilita el uso del multi&#45;ranking son las comparaciones robustas entre grupos de universidades; es posible agrupar instituciones que han manifestado &eacute;xito en el posgrado, en la formaci&oacute;n de cuerpos acad&eacute;micos, e instituciones que han mejorado sus publicaciones o que han logrado difundir mejor sus actividades y que han llevado a cabo ejercicios comparativos de evaluaci&oacute;n. Para ilustrar este caso se encuentra el trabajo desarrollado por un equipo acad&eacute;mico de la Direcci&oacute;n General de Evaluaci&oacute;n Institucional de la Universidad Nacional Aut&oacute;noma de M&eacute;xico (Ordorika <i>et al.,</i> 2009). Este reporte hace una comparaci&oacute;n de la funci&oacute;n de investigaci&oacute;n de universidades mexicanas en cinco rubros: <i>1)</i> Informaci&oacute;n general de cada universidad donde se presentan datos de la matr&iacute;cula, personal acad&eacute;mico y subsidio; <i>2)</i> participaci&oacute;n de las instituciones en el Sistema Nacional de Investigadores; <i>3)</i> art&iacute;culos cient&iacute;ficos en revistas indexadas; <i>4)</i> programas en el Padr&oacute;n Nacional de Posgrados de Calidad y <i>5)</i> cuerpos acad&eacute;micos consolidados y el total de cuerpos acad&eacute;micos. Este no constituye un ranking pero si un buen ejercicio de comparaci&oacute;n de universidades mexicanas, de tal manera que las evaluaciones y acreditaciones tradicionales de las instituciones de educaci&oacute;n superior que se realizan en M&eacute;xico, para una evaluaci&oacute;n m&aacute;s integral, deber&iacute;an de acompa&ntilde;arse de este tipo ejercicios.</font></p>  	    <p align="justify"><font face="verdana" size="2">La construcci&oacute;n de un multi&#45;ranking y los ejercicios de evaluaci&oacute;n comparada constituyen elementos que aminoran los efectos perversos que llevan, en s&iacute;, los rankings y brindan espacios para que se sientan incluidos diferentes tipos de interesados en observar la calidad de las universidades.</font></p>  	    <p align="justify"><font face="verdana" size="2">Concebir la evaluaci&oacute;n de la calidad de una instituci&oacute;n desde la perspectiva de un multi&#45;ranking es tener un acercamiento a las otras dos formas de evaluaci&oacute;n de una universidad: por un lado, al aseguramiento de la calidad por la v&iacute;a de los indicadores y, por otro, a la rendici&oacute;n de cuentas por la v&iacute;a de presentaci&oacute;n de resultados.</font></p>  	    <p align="justify"><font face="verdana" size="2">En M&eacute;xico, el Comit&eacute; de Administraci&oacute;n y Gesti&oacute;n Institucional, perteneciente a los Comit&eacute;s Interinstitucionales de Evaluaci&oacute;n de la Educaci&oacute;n Superior (CIEES), en su marco de referencia, considera 16 categor&iacute;as con 158 indicadores, lo cual constituye un espacio amplio para la evaluaci&oacute;n de una instituci&oacute;n; no obstante, &eacute;sta constituye una evaluaci&oacute;n cargada hacia los procesos y muy reducida en ponderaci&oacute;n de los resultados, por lo que la aplicaci&oacute;n de un criterio de multi&#45;ranking de manera conjunta con la evaluaci&oacute;n de procesos, constituye un mecanismo de evaluaci&oacute;n m&aacute;s amplio y m&aacute;s integral.</font></p>  	    <p align="justify"><font face="verdana" size="2">Es posible encontrar otras pr&aacute;cticas de agrupamientos, por ejemplo, para el caso de las universidades espa&ntilde;olas existen estudios a los que denominan agrupaciones alternativas (Garc&iacute;a&#45;Aracil y Palomares&#45;Montero, 2012; Palomares&#45;Montero y Garc&iacute;a&#45;Aracil, 2011). Estas autoras se&ntilde;alan que los rankings est&aacute;n m&aacute;s centrados en lo que se puede medir y no en lo que es importante para las universidades. Mediante el uso de conglomerados (cl&uacute;steres) ofrecen una clasificaci&oacute;n integradora de las misiones de las tres principales funciones universitarias con el fin de saber si el Sistema Universitario Espa&ntilde;ol tiende a ser m&aacute;s homog&eacute;neo y permite que las universidades puedan ser comparables en entre s&iacute; o, por el contrario, se trata de un sistema que se ha especializado de acuerdo a estrategias particulares de cada instituci&oacute;n. Trabajar la evaluaci&oacute;n de universidades a trav&eacute;s de la formaci&oacute;n de cl&uacute;steres constituye una buena alternativa para la valoraci&oacute;n de su calidad.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Otra forma de evaluaci&oacute;n de la instituciones es por medio del mecanismo de rendici&oacute;n de cuentas, el cual se puede compaginar con los resultados de un ranking, como en el caso del trabajo desarrollado por Baraibar y Luna (2012) que relaciona la reputaci&oacute;n de 74 universidades espa&ntilde;olas, medida por la posici&oacute;n que tienen en el ranking webometrics, a trav&eacute;s del impulso a la actividad social y preocupaci&oacute;n por la transparencia.</font></p>  	    <p align="justify"><font face="verdana" size="2">La <a href="#g1">gr&aacute;fica 1</a> se construye alrededor del multi&#45;ranking, considerado como un promedio; all&iacute; se observa que los tres primeros rankings, el multi&#45;ranking, el AEEADS y el Iberoamericano, presentan tendencias muy similares hasta la posici&oacute;n n&uacute;mero 20, para admitir despu&eacute;s, los dos &uacute;ltimos, un comportamiento de mayor dispersi&oacute;n; de la posici&oacute;n 35 en adelante alinean su tendencia de nueva cuenta al multi&#45;ranking, lo que significa que las instituciones que presentan mejor comportamiento lo hacen en los tres rankings y las de peor comportamiento tambi&eacute;n lo hacen en los tres listados.</font></p>  	    <p align="center"><font face="verdana" size="2"><a name="g1"></a></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/resu/v42n166/a4g1.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">En el ranking Iberoamericano los mayores desfases los presentan la UQROO que aparece en el lugar 35 y se encuentra en el lugar 24 en el multi&#45;ranking; otro caso es el de la UNICACH que se encuentra en el lugar 36 en este ranking y en el 25 en el multi&#45;ranking. Estas instituciones se benefician del hecho de ser consideradas en un agrupamiento.</font></p>  	    <p align="justify"><font face="verdana" size="2">En la serie 4 se observa que el ranking Webometrics presenta un comportamiento irregular con respecto al multi&#45;ranking. Por ejemplo, el primer gran salto en el gr&aacute;fico pertenece a la UAEMOR, que llega a ubicarse en segundo lugar en el multi&#45;ranking y en el EAAEDS y cuarto en el Iberoamericano, en tanto que en el Webometrics aparece hasta el lugar n&uacute;mero 13; el siguiente pico es de la UASLP que, del sexto lugar en el mult&#45;ranking, se va a hasta el 12 en el Webometrics. Otras universidades que presentan picos son las UAQ, UUA y UACOAH. Estas instituciones deben poner m&aacute;s atenci&oacute;n para que su trabajo acad&eacute;mico se refleje de mejor manera en sus p&aacute;ginas web. Por otra parte, existen instituciones que ocupan mejores lugares en este ranking que en el listado general, por ejemplo, la UNISON aparece en tercer lugar, cuando en el muti&#45;ranking est&aacute; en el lugar 11; lo mismo sucede con la UTMIX que, en este listado, alcanza el lugar 17 y, en el multi&#45;ranking, se va a lugar n&uacute;mero 30. Para fortalecer la participaci&oacute;n de las universidades en este ranking la primera recomendaci&oacute;n es que cuenten con solamente una p&aacute;gina institucional y que todos los enlaces &#151;por funciones, por departamentos, por unidades, etc.&#151;, se hagan a esta p&aacute;gina.</font></p>      <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Conclusiones</b></font></p>  	    <p align="justify"><font face="verdana" size="2">En el trabajo se reportan varios esfuerzos por mejorar las metodolog&iacute;as en la construcci&oacute;n de los rankings para las instituciones de educaci&oacute;n superior, con el fin de facilitar su uso, convirti&eacute;ndolos en instrumentos m&aacute;s adecuados y pr&oacute;ximos a la calidad que ostentan las universidades. Una de esas formas es la elaboraci&oacute;n de un multi&#45;ranking.</font></p>  	    <p align="justify"><font face="verdana" size="2">Mediante la elaboraci&oacute;n de instrumentos de este tipo, o bien a trav&eacute;s de otras metodolog&iacute;as de agrupamiento de las universidades para la pr&aacute;ctica de ejercicios de evaluaci&oacute;n, se fortalece el desempe&ntilde;o en la evaluaci&oacute;n institucional, porque esto posibilita compaginar las cualidades de los diferentes indicadores y m&eacute;todos y constituye una posibilidad de conjuntar los intereses de los involucrados. Esta forma de evaluaci&oacute;n se puede combinar de manera m&aacute;s adecuada con los sistemas de evaluaci&oacute;n existentes, tanto desde el aseguramiento de la calidad como desde la rendici&oacute;n de cuentas.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Tanto en el muti&#45;ranking como en el ranking EAAEDS y en el Iberoamericano, el comportamiento de las instituciones que aparecen arriba de media tabla es similar, es decir, se alinea en los indicadores acad&eacute;micos; lo mismo pasa con las que se inscriben en los &uacute;ltimos lugares. Las instituciones consideradas de buena calidad en estos rankings mantienen este nivel de calidad en todos sus indicadores. Por otra parte, el ranking Webometrics presenta mayor dispersi&oacute;n con respecto a los tres anteriores y, en este, es posible encontrar casos como los de las UAEMOR, UASLP, UAQ, UUA y UACOAH que observan posiciones desfasadas de acuerdo a los lugares que ocupan en los otros rankings; es aconsejable que estas instituciones mejoren su presencia mediante sus p&aacute;ginas web.</font></p>  	    <p align="justify"><font face="verdana" size="2">Un trabajo pendiente para los organismos evaluadores y acreditadores de universidades en M&eacute;xico, pero tambi&eacute;n para los estudiosos de estas tem&aacute;ticas, los dise&ntilde;adores e instrumentadores de pol&iacute;ticas en este campo y los administradores de las universidades, es la b&uacute;squeda de nuevos esquemas para la evaluaci&oacute;n institucional y la mejor&iacute;a de los existentes, ya que se han vuelto muy tradicionales y repetitivos.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Referencias</b></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Aguillo, Isidro F., Ortega, J. L. y Fern&aacute;ndez, M. (2008). Webometrics Ranking of World Universities: Introduction, Methodology, and Future Developments. <i>Higher Education in Europe,</i> 33 (2), 233&#45;244.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847865&pid=S0185-2760201300020000300001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Baraibar Diez, Elisa y Luna Sotorr&iacute;o, Ladislao (2012). The Influence of Transparency of University Social Responsibility in the Creation of Reputation. <i>Regional and Sectoral Economic Studies,</i> 12 (3), 21&#45;30.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847867&pid=S0185-2760201300020000300002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Buela&#45;Casal, Gualberto, Berm&uacute;dez, Ma. Paz, Sierra, Juan Carlos, Quevedo&#45;Blasco, Ra&uacute;l y Castro, &Aacute;ngel (2010). Ranking de 2009 en investigaci&oacute;n de las universidades p&uacute;blicas espa&ntilde;olas. <i>Psicothema,</i> 22 (2), 171&#45;179.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847869&pid=S0185-2760201300020000300003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">Federkeil, Gero (2008). Rankings and Quality Assurance in Higher Education. <i>Higher Education in Europe,</i> 33 (2, 3), 209&#45;231. Obtenido de: <a href="http://dx.doi.org/10.1080/03797720802254023" target="_blank">http://dx.doi.org/10.1080/03797720802254023</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847871&pid=S0185-2760201300020000300004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Garc&iacute;a&#45;Aracil, Adela y Palomares&#45;Montero, Davinia (2012). Agrupaci&oacute;n alternativa para la evaluaci&oacute;n de las universidades p&uacute;blicas espa&ntilde;olas. <i>Regional and Sectoral Economic Studies,</i> 12 (3), 179&#45;194.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847873&pid=S0185-2760201300020000300005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Hazelkorn, Ellen (2011). <i>Rankings and the Reshaping of Higher Education. The Battle for World&#45;Class Excellence,</i> London: Palgrave Macmillan.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847875&pid=S0185-2760201300020000300006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Horstschr&auml;er, Julia (2012). University Rankings in Action? The Importance of Rankings and an Excellence Competition for University Choice&#45;Ability Students. <i>Economics of Education Review,</i> 31, 1162&#45;1176.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847877&pid=S0185-2760201300020000300007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Institute for Higher Education Policy (2006). Berlin Principles on Ranking of Higher Education Institutions. Obtenido de: <a href="http://www.ihep.org/Publications/publications-detail.cfm?id=3" target="_blank">http://www.ihep.org/Publications/publications&#45;detail.cfm?id=3</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847879&pid=S0185-2760201300020000300008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">Longden, Bernard (2011). Rankings indicators and weights. En Shin, Jung, Toutkoushian, Robert K. y Teichler, Ulrich (Eds.), <i>University Rankings. Theoretical Basis, Methodology and Impacts on Global Higher Education,</i> London y New York: Springer, 73&#45;104.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847881&pid=S0185-2760201300020000300009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">L&oacute;pez&#45;Leyva, S. (2012). Fortaleza acad&eacute;mica de las universidades p&uacute;blicas estatales en M&eacute;xico expresada en un ranking nacional. <i>Regional and Sectoral Economic Studies,</i> 12 (3), 143&#45;160.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847883&pid=S0185-2760201300020000300010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Mart&iacute;nez Rizo, Felipe (2011). Los rankings de universidades. Una visi&oacute;n cr&iacute;tica. <i>Revista de la Educaci&oacute;n Superior,</i> XL (157), 77&#45;97.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847885&pid=S0185-2760201300020000300011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">McCormick, Alexander C. (2008). The Complex Interplay Between Classification and Ranking of College and Universities: Should the Berlin Principles Apply Equally to Classification? <i>Higher Education in Europe,</i> 33 (3), 209&#45;218.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847887&pid=S0185-2760201300020000300012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">M&aacute;rquez Jim&eacute;nez, Alejandro (2010). Estudio comparativo de las universidades mexicanas (ECUM). Otra mirada a la realidad universitaria. <i>Revista Iberoamericana de Educaci&oacute;n Superior (RIES),</i> 1 (1), 148&#45;156. Obtenido de: <a href="http://ries.universia.net" target="_blank">http://ries.universia.net</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847889&pid=S0185-2760201300020000300013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">Morphew, Christopher C. y Swanson, Christopher (2011). On the Efficacy of Raising Your University's Rankings. En Shin, Jung, Toutkoushian, Robert K. y Teichler, Ulrich (Eds.), <i>University Rankings. Theoretical Basis, Methodology and Impacts on Global Higher Education,</i> London y New York: Springer, 185&#45;199.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847891&pid=S0185-2760201300020000300014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Ordorika Sacrist&aacute;n, Imanol, Rodr&iacute;guez G&oacute;mez, Roberto, Lozano Espinoza, Francisco Javier, M&aacute;rquez Jim&eacute;nez, Alejandro (2009). Desempe&ntilde;o de universidades mexicanas en la funci&oacute;n de investigaci&oacute;n: Estudio comparativo. <i>Cuadernos de Trabajo de la Direcci&oacute;n General de Evaluaci&oacute;n Institucional,</i> 1 (2).    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847893&pid=S0185-2760201300020000300015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Palomares&#45;Montero, Davinia y Garc&iacute;a&#45;Aracil, Adela (2011). Utilizaci&oacute;n de indicadores para la evaluaci&oacute;n de las universidades p&uacute;blicas espa&ntilde;olas. &iquest;Existe consenso? <i>Investigaciones en econom&iacute;a de la educaci&oacute;n,</i> 6, 460&#45;473. Obtenido de: <a href="http://ideas.repec.org/b/aec/ebooks/06.html" target="_blank">http://ideas.repec.org/b/aec/ebooks/06.html</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847895&pid=S0185-2760201300020000300016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">P&eacute;rez&#45;Esparrells, Carmen y L&oacute;pez Garc&iacute;a, Ana Mar&iacute;a (2009). Los rankings de las instituciones de educaci&oacute;n superior: una revisi&oacute;n del panorama internacional. <i>Calidad de la educaci&oacute;n,</i> 30, 328&#45;343.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847897&pid=S0185-2760201300020000300017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Shin, Jung Cheol (2011). Organizational Effectiveness and University Rankings. En Shin, Jung, Toutkoushian, Robert K. y Teichler, Ulrich (Eds.), <i>University Rankings. Theoretical Basis, Methodology and Impacts on Global Higher Education,</i> London y New York: Springer, 19&#45;34.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847899&pid=S0185-2760201300020000300018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">Shin, J. Ch. y Toutkoushian, R. K. (2011). The Past, Present, and Future of University Rankings. En Shin, Jung, Toutkoushian, Robert K. y Teichler, Ulrich (Eds.), <i>University Rankings. Theoretical Basis, Methodology and Impacts on Global Higher Education,</i> London y New York: Springer, 1&#45;16.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847901&pid=S0185-2760201300020000300019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Teichler, Ulrich (2011). The Future of University Rankings. En Shin, Jung, Toutkoushian, Robert K. y Teichler, Ulrich (Eds.), <i>University Rankings. Theoretical Basis, Methodology and Impacts on Global Higher Education,</i> London y New York: Springer, 259&#45;265.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847903&pid=S0185-2760201300020000300020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Van Vught, F., Westerhijden, D. F. y Ziegele, F. (2012). Introduction: Towards a New Ranking Approach in Higher Education and Research. En Van Vught, F. A. y Ziegele, F. (Eds.), <i>Multidimensional Ranking. The Design and Development of U&#45;Multirank,</i> London y New York: Springer, 1&#45;7.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847905&pid=S0185-2760201300020000300021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Van Vught, F., Westerhijden, D. F. (2012). Impact of rankings. En Van Vught, F. A. y Ziegele, F. (Eds.), <i>Multidimensional Ranking. The Design and Development of U&#45;Multirank,</i> London y New York: Springer, 71&#45;81.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847907&pid=S0185-2760201300020000300022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Van Vught, F.A y Ziegele, F. (Eds.). (2012). Multidimensional Ranking. The Design and Development of U&#45;Multirank, London y New York: Springer.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847909&pid=S0185-2760201300020000300023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">Webster, D. S. A. (1986). <i>Academic Quality Rankings of American Colleges and Universities,</i> Springfield IL: Charles C. Thomas.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=6847911&pid=S0185-2760201300020000300024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><a name="nota"></a><b>Notas</b></font></p>  	    <p align="justify"><font face="verdana" size="2"><sup>1</sup> Este concepto fue tomado de Van Vught y Ziegele (2012).</font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Aguillo]]></surname>
<given-names><![CDATA[Isidro F.]]></given-names>
</name>
<name>
<surname><![CDATA[Ortega]]></surname>
<given-names><![CDATA[J. L.]]></given-names>
</name>
<name>
<surname><![CDATA[Fernández]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Webometrics Ranking of World Universities: Introduction, Methodology, and Future Developments]]></article-title>
<source><![CDATA[Higher Education in Europe]]></source>
<year>2008</year>
<volume>33</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>233-244</page-range></nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Baraibar Diez]]></surname>
<given-names><![CDATA[Elisa]]></given-names>
</name>
<name>
<surname><![CDATA[Luna Sotorrío]]></surname>
<given-names><![CDATA[Ladislao]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The Influence of Transparency of University Social Responsibility in the Creation of Reputation]]></article-title>
<source><![CDATA[Regional and Sectoral Economic Studies]]></source>
<year>2012</year>
<volume>12</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>21-30</page-range></nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Buela-Casal]]></surname>
<given-names><![CDATA[Gualberto]]></given-names>
</name>
<name>
<surname><![CDATA[Bermúdez]]></surname>
<given-names><![CDATA[Ma. Paz]]></given-names>
</name>
<name>
<surname><![CDATA[Sierra]]></surname>
<given-names><![CDATA[Juan Carlos]]></given-names>
</name>
<name>
<surname><![CDATA[Quevedo-Blasco]]></surname>
<given-names><![CDATA[Raúl]]></given-names>
</name>
<name>
<surname><![CDATA[Castro]]></surname>
<given-names><![CDATA[Ángel]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Ranking de 2009 en investigación de las universidades públicas españolas]]></article-title>
<source><![CDATA[Psicothema]]></source>
<year>2010</year>
<volume>22</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>171-179</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Federkeil]]></surname>
<given-names><![CDATA[Gero]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Rankings and Quality Assurance in Higher Education]]></article-title>
<source><![CDATA[Higher Education in Europe]]></source>
<year>2008</year>
<volume>33</volume>
<numero>2</numero><numero>3</numero>
<issue>2</issue><issue>3</issue>
<page-range>209-231</page-range></nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[García-Aracil]]></surname>
<given-names><![CDATA[Adela]]></given-names>
</name>
<name>
<surname><![CDATA[Palomares-Montero]]></surname>
<given-names><![CDATA[Davinia]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Agrupación alternativa para la evaluación de las universidades públicas españolas]]></article-title>
<source><![CDATA[Regional and Sectoral Economic Studies]]></source>
<year>2012</year>
<volume>12</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>179-194</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hazelkorn]]></surname>
<given-names><![CDATA[Ellen]]></given-names>
</name>
</person-group>
<source><![CDATA[Rankings and the Reshaping of Higher Education. The Battle for World-Class Excellence]]></source>
<year>2011</year>
<publisher-loc><![CDATA[London ]]></publisher-loc>
<publisher-name><![CDATA[Palgrave Macmillan]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Horstschräer]]></surname>
<given-names><![CDATA[Julia]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[University Rankings in Action? The Importance of Rankings and an Excellence Competition for University Choice-Ability Students]]></article-title>
<source><![CDATA[Economics of Education Review]]></source>
<year>2012</year>
<volume>31</volume>
<page-range>1162-1176</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="">
<collab>Institute for Higher Education Policy</collab>
<source><![CDATA[Berlin Principles on Ranking of Higher Education Institutions]]></source>
<year>2006</year>
</nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Longden]]></surname>
<given-names><![CDATA[Bernard]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Rankings indicators and weights]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Shin]]></surname>
<given-names><![CDATA[Jung]]></given-names>
</name>
<name>
<surname><![CDATA[Toutkoushian]]></surname>
<given-names><![CDATA[Robert K.]]></given-names>
</name>
<name>
<surname><![CDATA[Teichler]]></surname>
<given-names><![CDATA[Ulrich]]></given-names>
</name>
</person-group>
<source><![CDATA[University Rankings. Theoretical Basis, Methodology and Impacts on Global Higher Education]]></source>
<year>2011</year>
<page-range>73-104</page-range><publisher-loc><![CDATA[London^eNew York New York]]></publisher-loc>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[López-Leyva]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Fortaleza académica de las universidades públicas estatales en México expresada en un ranking nacional]]></article-title>
<source><![CDATA[Regional and Sectoral Economic Studies]]></source>
<year>2012</year>
<volume>12</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>143-160</page-range></nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Martínez Rizo]]></surname>
<given-names><![CDATA[Felipe]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Los rankings de universidades. Una visión crítica]]></article-title>
<source><![CDATA[Revista de la Educación Superior]]></source>
<year>2011</year>
<volume>XL</volume>
<numero>157</numero>
<issue>157</issue>
<page-range>77-97</page-range></nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[McCormick]]></surname>
<given-names><![CDATA[Alexander C.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The Complex Interplay Between Classification and Ranking of College and Universities: Should the Berlin Principles Apply Equally to Classification?]]></article-title>
<source><![CDATA[Higher Education in Europe]]></source>
<year>2008</year>
<volume>33</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>209-218</page-range></nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Márquez Jiménez]]></surname>
<given-names><![CDATA[Alejandro]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Estudio comparativo de las universidades mexicanas (ECUM). Otra mirada a la realidad universitaria]]></article-title>
<source><![CDATA[Revista Iberoamericana de Educación Superior (RIES)]]></source>
<year>2010</year>
<volume>1</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>148-156</page-range></nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Morphew]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
<name>
<surname><![CDATA[Swanson]]></surname>
<given-names><![CDATA[Christopher]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[On the Efficacy of Raising Your University's Rankings]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Shin]]></surname>
<given-names><![CDATA[Jung]]></given-names>
</name>
<name>
<surname><![CDATA[Toutkoushian]]></surname>
<given-names><![CDATA[Robert K.]]></given-names>
</name>
<name>
<surname><![CDATA[Teichler]]></surname>
<given-names><![CDATA[Ulrich]]></given-names>
</name>
</person-group>
<source><![CDATA[University Rankings. Theoretical Basis, Methodology and Impacts on Global Higher Education]]></source>
<year>2011</year>
<page-range>185-199</page-range><publisher-loc><![CDATA[London^eNew York New York]]></publisher-loc>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ordorika Sacristán]]></surname>
<given-names><![CDATA[Imanol]]></given-names>
</name>
<name>
<surname><![CDATA[Rodríguez Gómez]]></surname>
<given-names><![CDATA[Roberto]]></given-names>
</name>
<name>
<surname><![CDATA[Lozano Espinoza]]></surname>
<given-names><![CDATA[Francisco Javier]]></given-names>
</name>
<name>
<surname><![CDATA[Márquez Jiménez]]></surname>
<given-names><![CDATA[Alejandro]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Desempeño de universidades mexicanas en la función de investigación: Estudio comparativo]]></article-title>
<source><![CDATA[Cuadernos de Trabajo de la Dirección General de Evaluación Institucional]]></source>
<year>2009</year>
<volume>1</volume>
<numero>2</numero>
<issue>2</issue>
</nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Palomares-Montero]]></surname>
<given-names><![CDATA[Davinia]]></given-names>
</name>
<name>
<surname><![CDATA[García-Aracil]]></surname>
<given-names><![CDATA[Adela]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Utilización de indicadores para la evaluación de las universidades públicas españolas. ¿Existe consenso?]]></article-title>
<source><![CDATA[Investigaciones en economía de la educación]]></source>
<year>2011</year>
<volume>6</volume>
<page-range>460-473</page-range></nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Pérez-Esparrells]]></surname>
<given-names><![CDATA[Carmen]]></given-names>
</name>
<name>
<surname><![CDATA[López García]]></surname>
<given-names><![CDATA[Ana María]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Los rankings de las instituciones de educación superior: una revisión del panorama internacional]]></article-title>
<source><![CDATA[Calidad de la educación]]></source>
<year>2009</year>
<volume>30</volume>
<numero>328-343</numero>
<issue>328-343</issue>
</nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Shin]]></surname>
<given-names><![CDATA[Jung Cheol]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Organizational Effectiveness and University Rankings]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Shin]]></surname>
<given-names><![CDATA[Jung]]></given-names>
</name>
<name>
<surname><![CDATA[Toutkoushian]]></surname>
<given-names><![CDATA[Robert K.]]></given-names>
</name>
<name>
<surname><![CDATA[Teichler]]></surname>
<given-names><![CDATA[Ulrich]]></given-names>
</name>
</person-group>
<source><![CDATA[University Rankings. Theoretical Basis, Methodology and Impacts on Global Higher Education]]></source>
<year>2011</year>
<page-range>19-34</page-range><publisher-loc><![CDATA[London^eNew York New York]]></publisher-loc>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Shin]]></surname>
<given-names><![CDATA[J. Ch.]]></given-names>
</name>
<name>
<surname><![CDATA[Toutkoushian]]></surname>
<given-names><![CDATA[R. K.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The Past, Present, and Future of University Rankings]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Shin]]></surname>
<given-names><![CDATA[Jung]]></given-names>
</name>
<name>
<surname><![CDATA[Toutkoushian]]></surname>
<given-names><![CDATA[Robert K.]]></given-names>
</name>
<name>
<surname><![CDATA[Teichler]]></surname>
<given-names><![CDATA[Ulrich]]></given-names>
</name>
</person-group>
<source><![CDATA[University Rankings. Theoretical Basis, Methodology and Impacts on Global Higher Education]]></source>
<year>2011</year>
<page-range>1-16</page-range><publisher-loc><![CDATA[London^eNew York New York]]></publisher-loc>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Teichler]]></surname>
<given-names><![CDATA[Ulrich]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The Future of University Rankings]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Shin]]></surname>
<given-names><![CDATA[Jung]]></given-names>
</name>
<name>
<surname><![CDATA[Toutkoushian]]></surname>
<given-names><![CDATA[Robert K.]]></given-names>
</name>
<name>
<surname><![CDATA[Teichler]]></surname>
<given-names><![CDATA[Ulrich]]></given-names>
</name>
</person-group>
<source><![CDATA[University Rankings. Theoretical Basis, Methodology and Impacts on Global Higher Education]]></source>
<year>2011</year>
<page-range>259-265</page-range><publisher-loc><![CDATA[London^eNew York New York]]></publisher-loc>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Van Vught]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
<name>
<surname><![CDATA[Westerhijden]]></surname>
<given-names><![CDATA[D. F.]]></given-names>
</name>
<name>
<surname><![CDATA[Ziegele]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Introduction: Towards a New Ranking Approach in Higher Education and Research]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Van Vught]]></surname>
<given-names><![CDATA[F. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Ziegele]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
</person-group>
<source><![CDATA[Multidimensional Ranking. The Design and Development of U-Multirank]]></source>
<year>2012</year>
<page-range>1-7</page-range><publisher-loc><![CDATA[LondonNew York ]]></publisher-loc>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Van Vught]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
<name>
<surname><![CDATA[Westerhijden]]></surname>
<given-names><![CDATA[D. F.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Impact of rankings]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Van Vught]]></surname>
<given-names><![CDATA[F. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Ziegele]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
</person-group>
<source><![CDATA[Multidimensional Ranking. The Design and Development of U-Multirank]]></source>
<year>2012</year>
<page-range>71-81</page-range><publisher-loc><![CDATA[LondonNew York ]]></publisher-loc>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Van Vught]]></surname>
<given-names><![CDATA[F. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Ziegele]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
</person-group>
<source><![CDATA[Multidimensional Ranking. The Design and Development of U-Multirank]]></source>
<year>2012</year>
<publisher-loc><![CDATA[LondonNew York ]]></publisher-loc>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Webster]]></surname>
<given-names><![CDATA[D. S. A.]]></given-names>
</name>
</person-group>
<source><![CDATA[Academic Quality Rankings of American Colleges and Universities]]></source>
<year>1986</year>
<publisher-loc><![CDATA[Springfield^eIL IL]]></publisher-loc>
<publisher-name><![CDATA[Charles C. Thomas]]></publisher-name>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
