<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0185-2698</journal-id>
<journal-title><![CDATA[Perfiles educativos]]></journal-title>
<abbrev-journal-title><![CDATA[Perfiles educativos]]></abbrev-journal-title>
<issn>0185-2698</issn>
<publisher>
<publisher-name><![CDATA[Universidad Nacional Autónoma de México, Instituto de Investigaciones sobre la Universidad y la Educación]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0185-26982011000100004</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Cultura de evaluación en instituciones educativas: Comprensión de indicadores, competencias y valores subyacentes]]></article-title>
<article-title xml:lang="en"><![CDATA[The culture of evaluation in educational institutions: Understanding of indicators, competencies and underlying values]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Valenzuela González]]></surname>
<given-names><![CDATA[Jaime Ricardo]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Ramírez Montoya]]></surname>
<given-names><![CDATA[María Soledad]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Alfaro Rivera]]></surname>
<given-names><![CDATA[Jorge Antonio]]></given-names>
</name>
<xref ref-type="aff" rid="A03"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Tecnológico de Monterrey Escuela de Graduados en Educación ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
<country>México</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Tecnológico de Monterrey Escuela de Graduados en Educación ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
<country>México</country>
</aff>
<aff id="A03">
<institution><![CDATA[,Escuela Normal Superior Oficial de Guanajuato  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>00</month>
<year>2011</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>00</month>
<year>2011</year>
</pub-date>
<volume>33</volume>
<numero>131</numero>
<fpage>42</fpage>
<lpage>63</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_arttext&amp;pid=S0185-26982011000100004&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_abstract&amp;pid=S0185-26982011000100004&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_pdf&amp;pid=S0185-26982011000100004&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Este artículo presenta los resultados de una investigación orientada a estudiar la cultura de evaluación en cinco instituciones públicas de educación media superior y superior. Se empleó un método de estudio de casos instrumental con información de 30 representantes de dichas instituciones. Los resultados obtenidos se presentan alrededor de tres componentes de una cultura de evaluación: 1) la forma en que los distintos actores educativos comprenden la evaluación y, en particular, el empleo de indicadores institucionales; 2) las competencias que tienen ciertas personas clave dentro de cada institución para realizar procesos de evaluación, así como la capacitación que deben recibir para que la evaluación se lleve a cabo de una forma adecuada; y 3) los valores subyacentes que determinan el uso que se le da a los resultados de la evaluación, la manera de manejar posibles conflictos éticos y el valor que se le da a la evaluación misma.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[This article presents the results of a research study of the evaluation culture in five public institutions: high schools and higher education. An instrumental case study methodology was done with data from 30 representatives institutions. The results are presented around the three components of the evaluation culture: 1) how different educational actors understand the evaluation and, especially, the use of the institutional indicators; 2) the competencies that key people need in each institution in order to participate in the evaluation process; as well as the training they must receive to make an appropriate evaluation; and, 3) the underlying values that determine the use of the evaluation results, how to handle possible ethnic conflicts and the value that is given to the evaluation itself.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Cultura de evaluación]]></kwd>
<kwd lng="es"><![CDATA[evaluación institucional]]></kwd>
<kwd lng="es"><![CDATA[indicadores de evaluación]]></kwd>
<kwd lng="en"><![CDATA[Culture of evaluation]]></kwd>
<kwd lng="en"><![CDATA[institutional evaluation]]></kwd>
<kwd lng="en"><![CDATA[evaluation indicators]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="justify"><font face="verdana" size="4"><b>Claves</b></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="center"><font face="verdana" size="4"><b>Cultura de evaluaci&oacute;n en instituciones educativas. Comprensi&oacute;n de indicadores, competencias y valores subyacentes<sup><a href="#notas">1</a></sup></b></font></p>     <p align="center"><font face="verdana" size="2">&nbsp;</font></p>     <p align="center"><font face="verdana" size="3"><b>The culture of evaluation in educational institutions. Understanding of indicators, competencies and underlying values</b></font></p>     <p align="center"><font face="verdana" size="2">&nbsp;</font></p>     <p align="center"><font face="verdana" size="2"><b>Jaime Ricardo Valenzuela Gonz&aacute;lez*, Mar&iacute;a Soledad Ram&iacute;rez Montoya** y Jorge Antonio Alfaro Rivera***</b></font></p>     <p align="center"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><sup>*</sup> <i>Doctor en Psicolog&iacute;a Educativa por la Universidad de Texas. Profesor&#150;investigador de la Escuela de Graduados en Educaci&oacute;n del Tecnol&oacute;gico de Monterrey. Miembro del Sistema Nacional de Investigadores. Entre sus publicaciones est&aacute;: (2004), Evaluaci&oacute;n de instituciones educativas, M&eacute;xico, Trillas.</i> CE: <a href="mailto:jrvg@itesm.mx">jrvg@itesm.mx</a></font></p>     <p align="justify"><font face="verdana" size="2"><sup>**</sup> <i>Doctora en Filosof&iacute;a y Ciencias de la Educaci&oacute;n por la Universidad de Salamanca (Espa&ntilde;a). Profesora&#150;investigadora de la Escuela de Graduados en Educaci&oacute;n del Tecnol&oacute;gico de Monterrey. Miembro del Sistema Nacional de Investigadores. Entre sus publicaciones est&aacute;: (2001, en coautor&iacute;a con A. Mill&aacute;n y R. Rivera), Calidad y efectividad en instituciones educativas, M&eacute;xico, Trillas.</i>CE: <a href="mailto:solramirez@itesm.mx">solramirez@itesm.mx</a></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><sup>***</sup> <i>Maestro en Pedagog&iacute;a por la Escuela Normal Superior Oficial de Guanajuato (M&eacute;xico), donde es profesor&#150;investigador. Actualmente se encuentra realizando estudios de doctorado en Educaci&oacute;n en la Universidad Pedag&oacute;gica Nacional. L&iacute;neas de investigaci&oacute;n: formaci&oacute;n de profesores y evaluaci&oacute;n educativa.</i> CE: <a href="mailto:jalfa21@gmail.com">jalfa21@gmail.com</a></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2">Recepci&oacute;n: 9 de julio de 2009    <br> Aceptaci&oacute;n: 30 de enero de 2010</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Resumen:</b></font></p>     <p align="justify"><font face="verdana" size="2">Este art&iacute;culo presenta los resultados de una investigaci&oacute;n orientada a estudiar la cultura de evaluaci&oacute;n en cinco instituciones p&uacute;blicas de educaci&oacute;n media superior y superior. Se emple&oacute; un m&eacute;todo de estudio de casos instrumental con informaci&oacute;n de 30 representantes de dichas instituciones. Los resultados obtenidos se presentan alrededor de tres componentes de una cultura de evaluaci&oacute;n: 1) la forma en que los distintos actores educativos comprenden la evaluaci&oacute;n y, en particular, el empleo de indicadores institucionales; 2) las competencias que tienen ciertas personas clave dentro de cada instituci&oacute;n para realizar procesos de evaluaci&oacute;n, as&iacute; como la capacitaci&oacute;n que deben recibir para que la evaluaci&oacute;n se lleve a cabo de una forma adecuada; y 3) los valores subyacentes que determinan el uso que se le da a los resultados de la evaluaci&oacute;n, la manera de manejar posibles conflictos &eacute;ticos y el valor que se le da a la evaluaci&oacute;n misma.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Palabras clave: </b>Cultura de evaluaci&oacute;n, evaluaci&oacute;n institucional, indicadores de evaluaci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Abstract:</b></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">This article presents the results of a research study of the evaluation culture in five public institutions: high schools and higher education. An instrumental case study methodology was done with data from 30 representatives institutions. The results are presented around the three components of the evaluation culture: 1) how different educational actors understand the evaluation and, especially, the use of the institutional indicators; 2) the competencies that key people need in each institution in order to participate in the evaluation process; as well as the training they must receive to make an appropriate evaluation; and, 3) the underlying values that determine the use of the evaluation results, how to handle possible ethnic conflicts and the value that is given to the evaluation itself.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Keywords: </b>Culture of evaluation, institutional evaluation, evaluation indicators.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="right"><font face="verdana" size="2">La evaluaci&oacute;n persuade m&aacute;s que    <br>   convence, argumenta m&aacute;s que demuestra,    <br>   es m&aacute;s cre&iacute;ble que cierta,    <br>   la aceptaci&oacute;n que suscita es m&aacute;s variable    <br> que necesaria. Esto no significa    <br> que la evaluaci&oacute;n se reduzca a    <br> mera oratoria o sea completamente    ]]></body>
<body><![CDATA[<br> arbitraria. El hecho de que no se    <br> limite al razonamiento deductivo e    <br> inductivo no supone que sea irracional.    <br> La racionalidad no equivale a la l&oacute;gica</font></p>     <p align="right"><font face="verdana" size="2">House, 1994: 2</font></p>     <p align="right"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2">"&iquest;Para qu&eacute; nos van a evaluar si no se hace nada con los resultados?", "&iexcl;otra evaluaci&oacute;n m&aacute;s!; &iexcl;qu&eacute; manera de hacernos perder el tiempo!", "&iquest;es an&oacute;nima la encuesta o tenemos que poner nombre?", "&iexcl;ahora s&iacute; me voy a vengar del profesor!", "&iquest;en realidad s&iacute; podr&eacute; decir lo que pienso del director?", "el examen conten&iacute;a muchas cosas que ni vimos en clase". &Eacute;stas y muchas otras expresiones m&aacute;s son frecuentes en los ambientes educativos y reflejan el pensar y el sentir de los distintos actores educativos (alumnos, profesores, personal administrativo, directivos, etc.), que forman parte de una comunidad educativa. A su vez, esas formas de pensar y de sentir se traducen en valoraciones que hacemos del mismo proceso de evaluaci&oacute;n y en acciones que tomamos al dise&ntilde;ar el sistema de evaluaci&oacute;n, implementarlo y usar sus resultados. Todo esto tiene que ver con el concepto de cultura de evaluaci&oacute;n y sobre este concepto trata el presente art&iacute;culo. Su objetivo es presentar los resultados de una investigaci&oacute;n orientada a estudiar la cultura de evaluaci&oacute;n en cinco instituciones p&uacute;blicas de educaci&oacute;n media&#150;superior y superior, en el marco de un proyecto de evaluaci&oacute;n institucional.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Marco conceptual</b></font></p>     <p align="justify"><font face="verdana" size="2">El vocablo <i>cultura </i>tiene diversas connotaciones. Es un concepto complejo, polis&eacute;mico y multidimensional. En el contexto de grupos, Rey y Santa Mar&iacute;a (2000) definen cultura como las relaciones entre personas, los acuerdos t&aacute;citos que establecen entre ellas y los valores subyacentes que los determinan. Johnson y Nissenbaum (1995) definen una cultura como una mezcla de tradiciones, creencias, valores, pensamientos, acciones y procesos cooperativos comunes de participaci&oacute;n, para la creaci&oacute;n de significados que conllevan a la caracterizaci&oacute;n de modos de vida y costumbres donde se valorizan el conocimiento y el desarrollo de un grupo social en determinada &eacute;poca y situaci&oacute;n. Los elementos que abarca el concepto de cultura var&iacute;an en n&uacute;mero seg&uacute;n el autor que se consulte, y en muchos casos, &eacute;stos se traslapan entre s&iacute;. Para los prop&oacute;sitos de este art&iacute;culo, el t&eacute;rmino cultura puede quedar definido en t&eacute;rminos de los elementos siguientes: formas de pensar y de sentir de los individuos que conforman al grupo, las relaciones que &eacute;stos mantienen entre s&iacute;, los acuerdos expl&iacute;citos e impl&iacute;citos que existen entre los miembros del grupo, aquellos factores de identidad (historia y tradiciones) que permiten que una persona se sienta identificada con el grupo, los valores subyacentes que definen las prioridades del grupo y el comportamiento individual y colectivo que se manifiesta en cada una de sus acciones.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Muchas veces pensamos en el concepto de cultura en t&eacute;rminos "macro": la cultura de un pa&iacute;s, la cultura de un grupo ind&iacute;gena, la cultura de una regi&oacute;n. El concepto, sin embargo, tambi&eacute;n se aplica en el contexto de grupos peque&ntilde;os como pueden ser la cultura de un equipo de f&uacute;tbol, la cultura dentro de un restaurante de comida r&aacute;pida o la cultura dentro de una empresa. El tema de cultura organizacional ha sido abundantemente estudiado desde los enfoques de la administraci&oacute;n de empresas y el comportamiento de las organizaciones (e.g., Chiavenato, 2004; y Morgan, 1998). Las instituciones educativas, como organizaciones que son, tambi&eacute;n han sido estudiadas desde distintas perspectivas, pero es claro que existen diferencias importantes entre una instituci&oacute;n educativa y una organizaci&oacute;n con fines de lucro (Laval, 2004).</font></p>     <p align="justify"><font face="verdana" size="2">En el marco de una organizaci&oacute;n escolar, la cultura se refiere a las creencias y convicciones b&aacute;sicas que mantienen los miembros de la comunidad educativa en relaci&oacute;n con la ense&ntilde;anza, el aprendizaje, la evaluaci&oacute;n y, en general, con el funcionamiento institucional. Marchesi y Mart&iacute;n (1998) definen cultura como las relaciones (formales e informales) entre grupos, sus normas, procesos de ense&ntilde;anza y aprendizaje, sistemas de comunicaci&oacute;n y tipo de colaboraci&oacute;n que se producen entre los actores del sistema educativo. Por su parte, P&eacute;rez G&oacute;mez (1998) se&ntilde;ala que la instituci&oacute;n educativa es un encuentro de culturas, una encrucijada que provoca tensiones, restricciones y contrastes en la construcci&oacute;n de significados.</font></p>     <p align="justify"><font face="verdana" size="2">Dentro de las muchas actividades que se realizan en una instituci&oacute;n educativa, una que ocupa un lugar central (tanto para la instituci&oacute;n como para este art&iacute;culo) es la relativa a la evaluaci&oacute;n educativa. Hay muchos tipos de evaluaci&oacute;n educativa y se usa este t&eacute;rmino como el gran "paraguas" que cubre o incluye la evaluaci&oacute;n del aprendizaje, la evaluaci&oacute;n del proceso de ense&ntilde;anza&#150;aprendizaje, la evaluaci&oacute;n curricular y la evaluaci&oacute;n de las instituci&oacute;n educativas, entre otras.</font></p>     <p align="justify"><font face="verdana" size="2">El concepto de evaluaci&oacute;n puede estudiarse desde dos perspectivas. Una de ellas, atomista o anal&iacute;tica, considera que la evaluaci&oacute;n debe realizarse a trav&eacute;s del estudio de objetos concretos, como pueden ser el aprendizaje de los alumnos, los programas educativos, el curr&iacute;culo y las instituciones educativas (Elola y Toranzos, 2000). La otra de ellas, hol&iacute;stica o sint&eacute;tica, parte del principio Gestalt de que el todo es m&aacute;s que la suma de las partes, y que un verdadero entendimiento de un sistema educativo ocurre cuando consideramos a todos los elementos que lo conforman de una manera integral (Valenzuela, 2004). Esta visi&oacute;n dual de la evaluaci&oacute;n tiene implicaciones en c&oacute;mo asumen este proceso los diferentes sujetos en una instituci&oacute;n educativa. Por ejemplo, un profesor puede centrarse en la evaluaci&oacute;n de los aprendizajes de sus estudiantes y un director de programa puede enfocarse al trabajo de una evaluaci&oacute;n curricular; ambos sin considerar el trabajo que otros puedan estar realizando en el &aacute;mbito institucional (visi&oacute;n atomista). Cuando en la instituci&oacute;n educativa priva una conciencia de lo que implica una visi&oacute;n hol&iacute;stica de la evaluaci&oacute;n, esa conciencia es el preludio de una cultura de evaluaci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">Al respecto, Reyes (2006) se&ntilde;ala que la evaluaci&oacute;n no debe permanecer anclada en una concepci&oacute;n tradicional que persiga tan s&oacute;lo la evaluaci&oacute;n de resultados de los estudiantes y que se a&iacute;sle del resto de los elementos del proceso de ense&ntilde;anza&#150;aprendizaje, para quedar relegada al momento final de dicho proceso. En el mismo sentido, D&iacute;az Barriga y Pacheco (2007) apuntan que los sistemas educativos, las pr&aacute;cticas institucionales, las organizaciones y los procesos de aprendizaje constituyen algunos de los posibles referentes desde los cuales la problem&aacute;tica de la evaluaci&oacute;n puede ser abordada. Por su parte, Dochy, Segers y Dierick (2002) destacan que las nuevas formas de concebir la educaci&oacute;n exigen tambi&eacute;n nuevos criterios de evaluaci&oacute;n, y la innovaci&oacute;n educativa no es posible sin plantear importantes cambios en la evaluaci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">El presente art&iacute;culo se enfoca a la evaluaci&oacute;n institucional, entendida &eacute;sta como aquella en la cual se determina la efectividad y eficiencia de una instituci&oacute;n educativa, como centro de trabajo y como prestadora de servicios a la sociedad (Valenzuela, 2004). Son muchos los actores que intervienen en una evaluaci&oacute;n institucional. Normalmente pensamos en el director como el principal responsable de la evaluaci&oacute;n interna de la instituci&oacute;n. Cuando de acreditaci&oacute;n se habla, los procesos de autoevaluaci&oacute;n con frecuencia son acompa&ntilde;ados por una evaluaci&oacute;n externa hecha por evaluadores de otras instituciones educativas (Gago, 2002). Y, dentro de cada instituci&oacute;n tambi&eacute;n pensamos en distintas dependencias que generan informaci&oacute;n para procesos de evaluaci&oacute;n y toma de decisiones: los responsables de los programas acad&eacute;micos, las &aacute;reas de registro escolar, las &aacute;reas administrativas y de finanzas, etc. Estos actores determinan la manera en que se conforma una cultura de evaluaci&oacute;n en la instituci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">No s&oacute;lo en los alumnos, sino en cualquier persona, los procesos de evaluaci&oacute;n generan temores. M&aacute;s all&aacute; de verse expuestos por el resultado de una evaluaci&oacute;n, los miedos se refieren tambi&eacute;n al impacto que puedan tener esas evaluaciones. Los profesores, personal administrativo, directivos y otros actores no son la excepci&oacute;n, y en m&aacute;s de una ocasi&oacute;n podemos apreciar ejemplos de situaciones en que ciertas iniciativas de evaluaci&oacute;n son frenadas por dichos miedos (Conley y Glasman, 2008). La falta de control de estas emociones determina, en buena medida, la forma en que se constituye una cultura de evaluaci&oacute;n en la instituci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">Desde luego, en este proceso intervienen muchos m&aacute;s factores que meros temores personales. La cultura de evaluaci&oacute;n se va conformando con la suma de experiencias pasadas, el uso de buenos y malos instrumentos de evaluaci&oacute;n, las competencias e incompetencias de quienes realizan los procesos evaluativos, la madurez y formaci&oacute;n que tengan los evaluadores y evaluados, y qu&eacute; tan expl&iacute;citos o impl&iacute;citos son los criterios que se emplear&aacute;n para generar juicios de valor y tomar decisiones. Esta cultura evaluativa es construida por cada actor en lo individual y en lo colectivo, ya que cada persona crea y recrea, a trav&eacute;s de interpretaciones de situaciones espec&iacute;ficas y a trav&eacute;s de su comportamiento, el mundo en el que vive (Schein, 1992).</font></p>     <p align="justify"><font face="verdana" size="2">Una cultura de evaluaci&oacute;n podr&iacute;a definirse, entonces, como el conjunto de valores, acuerdos, tradiciones, creencias y pensamientos que una comunidad educativa asigna a la acci&oacute;n de evaluaci&oacute;n. Bolsegu&iacute; y Fuguet (2006) se&ntilde;alan que la cultura de evaluaci&oacute;n es un concepto en desarrollo que alude a la necesidad de evaluar de manera permanente. Para ellos, la evaluaci&oacute;n es un proceso complejo y multidimensional que comprende distintos componentes: visi&oacute;n, valores, comportamientos, rutinas, contexto organizacional y social, experiencias pasadas y presentes, aspectos epistemol&oacute;gicos, te&oacute;ricos y metodol&oacute;gicos. Desde luego, no siempre es f&aacute;cil encontrar una visi&oacute;n unificada de lo que significa cultura de evaluaci&oacute;n; los marcos sociales, institucionales y personales tienen una fuerte influencia en su configuraci&oacute;n y en las concepciones sobre qu&eacute; es la evaluaci&oacute;n, c&oacute;mo se lleva a cabo, qu&eacute; usos se le puede dar, etc. A manera de representaci&oacute;n gr&aacute;fica de estos conceptos, la <a href="#f1">Fig. 1</a> muestra distintos elementos vinculados con el concepto de cultura de evaluaci&oacute;n en contextos educativos.</font></p>     <p align="center"><font face="verdana" size="2"><a name="f1"></a></font></p>     ]]></body>
<body><![CDATA[<p align="center"><font face="verdana" size="2"><img src="/img/revistas/peredu/v33n131/a4f1.jpg" ></font></p>     <p align="justify"><font face="verdana" size="2">Al hablar de cultura de evaluaci&oacute;n es preciso distinguir entre una cultura existente y una cultura deseable (Bustelo, 2006). Cuando pensamos que en una instituci&oacute;n se aprecia a la evaluaci&oacute;n como "un mal necesario" o como "una carga burocr&aacute;tica", y cuando los comentarios que se escuchan entre los actores educativos tienden a menospreciar (justificada o injustificadamente) distintas iniciativas de evaluaci&oacute;n interna o externa, todo esto nos refleja una cultura de evaluaci&oacute;n que no necesariamente coincide con lo que muchos considerar&iacute;amos "ideal".</font></p>     <p align="justify"><font face="verdana" size="2">Por otra parte, al abordar el t&eacute;rmino cultura de evaluaci&oacute;n es preciso tambi&eacute;n distinguir entre lo que ser&iacute;a una cultura expl&iacute;cita <i>vs. </i>una impl&iacute;cita de evaluaci&oacute;n (Neirotti y Brown, 2001). En forma expl&iacute;cita, la cultura evaluativa se expresa a partir de elementos estructurales y formales (normas, reglamentos y procesos establecidos) que definen la libertad y la racionalidad de las acciones que ejecutan las personas en relaci&oacute;n con la evaluaci&oacute;n, pero a la vez los diferentes sujetos actuamos en una arena de poder signada por nuestros propios intereses (acci&oacute;n individual) y los de la instituci&oacute;n (acci&oacute;n colectiva) (Vargas&#150;Porras, 2001). M&aacute;s a&uacute;n, en ciertos casos la cultura se impone desde el curr&iacute;culo oficial, estableciendo en forma m&aacute;s o menos expl&iacute;cita las relaciones de poder dentro de la educaci&oacute;n (Aboites, 1999). En contraste, aunque se reconozca la existencia de estos elementos, no siempre es posible inferir, a partir de conductas observadas, aquellos valores subyacentes en el grupo social que constituye a la comunidad educativa. Esas creencias, tradiciones y pr&aacute;cticas no siempre son homog&eacute;neas y es dif&iacute;cil identificar comunes denominadores que nos permitan precisar las caracter&iacute;sticas de una cultura de evaluaci&oacute;n predominante en la organizaci&oacute;n. El hacer expl&iacute;cita una cultura de evaluaci&oacute;n deseable para una instituci&oacute;n no necesariamente garantiza que la cultura se vaya a desarrollar "por decreto". Reyes (2006) afirma que desarrollar una cultura de la evaluaci&oacute;n no supone, exclusivamente, cambiar los m&eacute;todos o instrumentos de evaluaci&oacute;n sino, lo que es m&aacute;s importante, la filosof&iacute;a que subyace en la misma.</font></p>     <p align="justify"><font face="verdana" size="2">El tema de cultura de evaluaci&oacute;n ha sido estudiado emp&iacute;ricamente por diversos autores (e.g., Bolsegu&iacute; y Fuguet, 2006; Rutty, 2003; y Vargas&#150;Porras, 2001). A nivel "macro", destaca el trabajo de McAnally&#150;Salas (2006), quien compara lo que ocurre en las instituciones de educaci&oacute;n superior de los pa&iacute;ses desarrollados con lo que sucede en las naciones emergentes. En este mismo nivel, resulta interesante un estudio de la Direcci&oacute;n Nacional de Informaci&oacute;n y Evaluaci&oacute;n de la Calidad Educativa del Ministerio de Educaci&oacute;n (2009) de Argentina, que recupera la visi&oacute;n de funcionarios, supervisores y directores de escuelas de educaci&oacute;n media sobre el tema de la evaluaci&oacute;n con la intenci&oacute;n de contribuir, por un lado, a enriquecer los marcos te&oacute;ricos y metodol&oacute;gicos sobre el tema, y por otro, a presentar los debates m&aacute;s significativos que se est&aacute;n dando en el &aacute;mbito internacional en torno a la necesidad de generar una nueva cultura de la evaluaci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">En el &aacute;mbito mexicano, en torno al Programa Integral de Fortalecimiento Institucional (PIFI), Nieto&#150;Caraveo (2006) se&ntilde;ala las dificultades, los riesgos y la complejidad de un proceso de cambio en donde las instituciones asuman una nueva cultura de planeaci&oacute;n y evaluaci&oacute;n institucional. El autor comenta que no es f&aacute;cil cambiar el papel meramente instrumental que tiene la evaluaci&oacute;n de premiar o castigar el logro de metas o de controlar el financiamiento. La relaci&oacute;n entre la planeaci&oacute;n, la evaluaci&oacute;n y el financiamiento debe ser muy clara. Las dos primeras tienen un valor intr&iacute;nseco en s&iacute; mismas, como procesos de construcci&oacute;n social y aprendizaje, adem&aacute;s de sus funciones orientadoras sobre el quehacer universitario y de seguimiento de logros.</font></p>     <p align="justify"><font face="verdana" size="2">El tema de cultura de evaluaci&oacute;n ha estado intr&iacute;nsecamente vinculado con el de evaluaci&oacute;n del desempe&ntilde;o docente (Ibarra, 2000; Tirado, 2003; Tirado, Miranda y S&aacute;nchez, 2007). Por ejemplo, Tirado (2003) afirma que existe una natural resistencia de la mayor&iacute;a de los docentes hacia la evaluaci&oacute;n, lo cual resulta comprensible, dado que es m&aacute;s c&oacute;modo y tranquilo no tener que rendir cuentas. El problema no es la creaci&oacute;n o el actuar de ciertos organismos evaluadores, sino la evaluaci&oacute;n y sus posibles consecuencias. Ante ello, hace falta generar una nueva cultura de la evaluaci&oacute;n, lo que implica tener valores socialmente compartidos, dar cuenta de nuestras responsabilidades y afrontarlas; es decir, estar abiertos y promover que se eval&uacute;e el producto de nuestros compromisos. Por otra parte, en un estudio donde se recopilaron 26 mil 010 cuestionarios de evaluaci&oacute;n de 1 mil 011 docentes, Tirado, Miranda y S&aacute;nchez (2007) destacan la importancia de legitimar la gesti&oacute;n institucional en las organizaciones educativas, tomando en cuenta que uno de los elementos estriba en el derecho de los alumnos a opinar sobre el desempe&ntilde;o docente de sus profesores. Los autores discuten el problema para trasparentar de manera continua y sistem&aacute;tica la expresi&oacute;n social de comunidades amplias, contribuyendo as&iacute; a una cultura de la legitimidad en cuanto a la evaluaci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">Dentro de este universo complejo al que se refiere la cultura de evaluaci&oacute;n, este art&iacute;culo tiene como objetivo explorar tres elementos de dicha cultura: 1) la forma en que los distintos actores educativos comprenden la evaluaci&oacute;n y, en particular, el empleo de indicadores institucionales; 2) las competencias (muchas o pocas) que tienen ciertas personas clave dentro de cada instituci&oacute;n para realizar procesos de evaluaci&oacute;n, as&iacute; como la capacitaci&oacute;n que deben recibir para que la evaluaci&oacute;n se lleve a cabo de una forma adecuada; y 3) los valores subyacentes que determinan el uso que se le da a los resultados de la evaluaci&oacute;n, la manera de manejar posibles conflictos &eacute;ticos y el valor que se le da a la evaluaci&oacute;n misma.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Marco contextual</b></font></p>     <p align="justify"><font face="verdana" size="2">El estudio cuyos resultados se presentan en este art&iacute;culo se circunscribe en el contexto de un proyecto m&aacute;s amplio que se llev&oacute; a cabo en el estado de Guanajuato. El nombre del proyecto fue "Modelo sist&eacute;mico de evaluaci&oacute;n institucional para el mejoramiento de la calidad educativa", el cual fue financiado por el Fondo Mixto de Fomento a la Investigaci&oacute;n Cient&iacute;fica y Tecnol&oacute;gica del Consejo Nacional de Ciencia y Tecnolog&iacute;a (CONACyT) y del Gobierno del Estado de Guanajuato. Dicho proyecto parti&oacute; del problema de identificar cu&aacute;les son las caracter&iacute;sticas que debe tener un modelo de evaluaci&oacute;n que proporcione informaci&oacute;n a los cuadros directivos de una instituci&oacute;n educativa para mejorar los procesos de toma de decisiones, la gesti&oacute;n de la instituci&oacute;n y, eventualmente, la calidad del servicio educativo que ofrece. El problema as&iacute; planteado llev&oacute; a los investigadores a proponer un proyecto consistente en tres etapas: 1) un diagn&oacute;stico de necesidades de evaluaci&oacute;n institucional; 2) la propuesta y validaci&oacute;n del modelo de evaluaci&oacute;n institucional; y 3) la transferencia del modelo a trav&eacute;s de procesos de formaci&oacute;n de evaluadores. Como resultado fundamental de este proyecto se desarroll&oacute; un modelo de evaluaci&oacute;n institucional compuesto por 54 indicadores agrupados en 10 categor&iacute;as: formaci&oacute;n integral y calidad, capital humano, capital social, investigaci&oacute;n, consultor&iacute;a, servicio social, promoci&oacute;n cultural, patrimonio f&iacute;sico, prestigio social y sustentabilidad econ&oacute;mica.<sup><a href="#notas">2</a></sup> El presente art&iacute;culo se desprende concretamente de la Etapa 3 del proyecto antes descrito, cuyo prop&oacute;sito fue promover la transferencia del modelo de evaluaci&oacute;n institucional por medio de procesos de formaci&oacute;n de evaluadores. Esto se hizo con cinco instituciones de educaci&oacute;n media&#150;superior y superior localizadas en cuatro localidades del estado de Guanajuato: Silao, Le&oacute;n, Guanajuato y San Luis de la Paz.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">El t&iacute;tulo del curso fue "Competencias b&aacute;sicas para el evaluador institucional". Se imparti&oacute; en la modalidad de <i>e&#150;learning, </i>e implic&oacute; a los participantes una dedicaci&oacute;n total de 40 horas. La oferta de este curso fue una forma de dar un valor agregado al proyecto, respondiendo a una necesidad manifestada por muchas instituciones: formar evaluadores institucionales en lo que implica la correcta aplicaci&oacute;n del modelo propuesto.</font></p>     <p align="justify"><font face="verdana" size="2">Para los investigadores, el objetivo del curso iba m&aacute;s all&aacute; de la mera formaci&oacute;n de evaluadores; la idea era aprovechar la experiencia formativa para explorar el concepto de cultura de evaluaci&oacute;n a trav&eacute;s de poner en contacto a profesores y directivos en un ambiente distinto al institucional y que resultara menos "amenazador", como ocurri&oacute; en el curso de capacitaci&oacute;n ofrecido.</font></p>     <p align="justify"><font face="verdana" size="2">El curso tuvo dos grandes grupos de actividades: uno orientado a ejecutar un proyecto de evaluaci&oacute;n en la propia instituci&oacute;n educativa a trav&eacute;s de un conjunto de indicadores; y otro orientado a socializar las experiencias o vivencias que, como evaluadores institucionales, tuvieron en el proceso de evaluaci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">En relaci&oacute;n con la ejecuci&oacute;n del proyecto de evaluaci&oacute;n, los participantes tuvieron que responder a un conjunto de preguntas asociadas con algunos de los 54 indicadores que hab&iacute;an sido generados en el modelo de evaluaci&oacute;n institucional. Las preguntas fueron: 1) &iquest;cu&aacute;l es el valor del indicador en su instituci&oacute;n educativa y c&oacute;mo lo est&aacute; calculando?; 2) &iquest;de qu&eacute; otra forma se puede calcular este indicador? O, dicho de otra manera, &iquest;qu&eacute; otra definici&oacute;n de ese indicador tendr&iacute;a mejor sentido para la situaci&oacute;n particular de esta instituci&oacute;n educativa que se est&aacute; evaluando?; 3) &iquest;podr&iacute;a describir paso a paso el mecanismo (proceso) que seguir&iacute;a usted en esta instituci&oacute;n para generar el indicador solicitado?; 4) &iquest;qu&eacute; dificultades (o posibilidades) ver&iacute;a usted para calcular este indicador de manera peri&oacute;dica? (pensando en el tiempo de obtenci&oacute;n de datos, el costo de obtenerlos o la falta de personal que haga el trabajo, como posibles dificultades); 5) &iquest;qu&eacute; tanto este indicador ha sido tomado en cuenta anteriormente en esta instituci&oacute;n educativa y qu&eacute; han hecho con &eacute;l?; 6) &iquest;con qu&eacute; frecuencia se deber&iacute;a calcular este indicador? O, dicho de otra manera, &iquest;cu&aacute;l frecuencia ser&iacute;a la &oacute;ptima?; 7) &iquest;qu&eacute; personas o instancias (departamentos, &aacute;reas) dentro de la instituci&oacute;n ser&iacute;an las indicadas para pasarle al director el valor de este indicador y qu&eacute; tanto dichas personas o instancias ven actualmente esta tarea como parte de sus obligaciones?; 8) teniendo usted este indicador, &iquest;qu&eacute; cosas cree que podr&iacute;a hacer para mejorar la instituci&oacute;n a su cargo?; 9) &iquest;qu&eacute; tanto considera que este indicador es importante y &uacute;til para el trabajo que desempe&ntilde;a como director?; y 10) &iquest;hay alguna observaci&oacute;n adicional acerca de este indicador? Estas preguntas tuvieron el prop&oacute;sito de poner a prueba el modelo y validar su uso a partir de cuatro criterios: precisi&oacute;n, utilidad, factibilidad y &eacute;tica. Los resultados de este proceso de validaci&oacute;n se presentan en otras publicaciones, pero se menciona aqu&iacute; el proceso porque fue la base para la actividad de aprendizaje cuyos resultados competen a este art&iacute;culo.</font></p>     <p align="justify"><font face="verdana" size="2">En relaci&oacute;n con las actividades de socializaci&oacute;n de las experiencias o vivencias que, como evaluadores institucionales, tuvieron en el proceso de evaluaci&oacute;n, los participantes trabajaron en tres foros de discusi&oacute;n asincr&oacute;nica. No es posible hablar de cultura de evaluaci&oacute;n en lo abstracto; es preciso haber vivido una experiencia de evaluaci&oacute;n para comprender mejor los obst&aacute;culos y opiniones de las personas ante acciones evaluativas. Los participantes en este estudio tuvieron que determinar diversos indicadores institucionales y ello les permiti&oacute; compartir sus vivencias en experiencias estructuradas que se dise&ntilde;aron para tal fin. Las participaciones fueron agrupadas en tres temas congruentes con el prop&oacute;sito de este estudio: comprensi&oacute;n del uso de indicadores institucionales, competencias que los evaluadores deben tener y valores subyacentes en los distintos procesos evaluativos. Cada tema fue abordado por los participantes en el curso a lo largo de un periodo de una semana. La discusi&oacute;n se llev&oacute; a cabo en la modalidad de educaci&oacute;n a distancia usando las herramientas para discusi&oacute;n asincr&oacute;nica de que dispone la plataforma tecnol&oacute;gica Blackboard. A trav&eacute;s de estos foros de discusi&oacute;n, los participantes ten&iacute;an la oportunidad de compartir con sus compa&ntilde;eros sus propias experiencias durante el proceso de evaluaci&oacute;n, as&iacute; como aprender de las vivencias que los compa&ntilde;eros tuvieron.</font></p>     <p align="justify"><font face="verdana" size="2">Para fines de la investigaci&oacute;n, toda la discusi&oacute;n gir&oacute; en torno al tema de cultura de evaluaci&oacute;n. Los mensajes en cada uno de los foros se convirtieron en un rico repositorio de informaci&oacute;n por ser analizada. La <a href="#f2">Fig. 2 </a>muestra, en forma esquem&aacute;tica, las actividades que los participantes realizaron, as&iacute; como los espacios que se tomaron como fuente de informaci&oacute;n para los prop&oacute;sitos de esta investigaci&oacute;n.</font></p>     <p align="center"><font face="verdana" size="2"><a name="f2"></a></font></p>     <p align="center"><img src="/img/revistas/peredu/v33n131/a4f2.jpg"></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>M&eacute;todo</b></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Esta investigaci&oacute;n fue realizada con un enfoque de estudio de casos instrumental (Stake, 1998). Por lo general, la investigaci&oacute;n con estudio de casos consiste en referir una situaci&oacute;n real tomada en su contexto y analizarla para ver c&oacute;mo se manifiestan y evolucionan los fen&oacute;menos de un sistema social que tiene sus propias din&aacute;micas. Yin (2002) la define como una investigaci&oacute;n emp&iacute;rica que estudia un fen&oacute;meno contempor&aacute;neo en su contexto de vida real, en el que los l&iacute;mites entre el fen&oacute;meno y el contexto no son claramente evidentes y en el que se utilizan m&uacute;ltiples fuentes de informaci&oacute;n. Por su parte, Stake (1998) hace una distinci&oacute;n entre dos tipos de investigaci&oacute;n de estudio de casos: intr&iacute;nsecos e instrumentales. En un estudio intr&iacute;nseco "El caso viene dado. No nos interesa porque con su estudio aprendamos sobre otros casos o sobre alg&uacute;n problema general, sino porque necesitamos aprender sobre ese caso particular. Tenemos un inter&eacute;s intr&iacute;nseco en el caso" (Stake, 1998: 16). En un estudio instrumental</font></p>     <p align="right"><font face="verdana" size="2">...nos encontramos con una cuesti&oacute;n que    <br>   se debe investigar, una situaci&oacute;n parad&oacute;jica,    <br>   una necesidad de comprensi&oacute;n general,    <br> y consideramos que podemos entender la    <br> cuesti&oacute;n mediante el estudio de un caso    <br> particular... Aqu&iacute; el estudio de casos es un    <br> instrumento para conseguir algo diferente    <br> a la comprensi&oacute;n &#91;de un caso&#93; concreto    <br> (Stake, 1998: 16&#150;17).</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Para el estudio que aqu&iacute; se presenta, el fen&oacute;meno por estudiar fue el de cultura de evaluaci&oacute;n, y para ello se tomaron cinco casos de instituciones educativas, en forma instrumental.</font></p>     <p align="justify"><font face="verdana" size="2"><i>Participantes. </i>En este estudio podemos hablar de tres niveles de participantes. En un primer nivel se encuentran cinco instituciones educativas participantes en el curso de formaci&oacute;n de evaluadores que se dise&ntilde;&oacute; como parte de la Etapa 3 del proyecto. La selecci&oacute;n de estas instituciones corresponde a un muestreo intencional hecho a partir del contacto que los investigadores tuvieron, en etapas previas, con 31 instituciones educativas del estado de Guanajuato. La elecci&oacute;n de las cinco instituciones para la Etapa 3 se llev&oacute; a cabo con base en los criterios siguientes: diversidad geogr&aacute;fica, representaci&oacute;n de los dos niveles educativos (educaci&oacute;n media&#150;superior y superior), inter&eacute;s de las instituciones por participar en cada una de las tres etapas del proyecto, y que tuvieran un tama&ntilde;o superior a los 500 estudiantes.</font></p>     <p align="justify"><font face="verdana" size="2">En un segundo nivel se encuentran los representantes de las instituciones educativas que participaron en el curso al que se les convoc&oacute;. Fueron seis personas invitadas por cada instituci&oacute;n: un director y cinco personas clave dentro de la instituci&oacute;n educativa. La designaci&oacute;n de esas personas clave no estuvo bajo el control de los investigadores, sino que dependi&oacute; de los directores. La sugerencia que se le hizo a estos &uacute;ltimos fue que eligieran a personas comprometidas con sus instituciones, que actualmente realizaran procesos de evaluaci&oacute;n (o potencialmente los fueran a realizar) y que tuvieran disponibilidad para llevar a cabo las 40 horas de capacitaci&oacute;n que duraba el curso.</font></p>     <p align="justify"><font face="verdana" size="2">En un tercer nivel se encuentran las contribuciones que fueron generadas en las actividades de socializaci&oacute;n de vivencias mediante tres foros de discusi&oacute;n sobre el tema de cultura de evaluaci&oacute;n. En este punto, los "participantes" no son instituciones o personas, sino todos aquellos mensajes que fueron colocados en los foros de discusi&oacute;n, y que constituyen la unidad de an&aacute;lisis del presente proyecto.</font></p>     <p align="justify"><font face="verdana" size="2"><i>Instrumentos. </i>El proceso de colecci&oacute;n de datos estuvo alineado con las actividades del curso de capacitaci&oacute;n, en particular aqu&eacute;llas vinculadas a los foros de discusi&oacute;n que se abrieron en torno a la cultura de evaluaci&oacute;n. Cada foro sirvi&oacute; para que los participantes compartieran sus experiencias en procesos de evaluaci&oacute;n, a la vez que permitieron que los facilitadores del curso (e investigadores en este estudio) intervinieran solicitando explicaciones adicionales que clarificaran cada vivencia y que permitieran recabar informaci&oacute;n rica para su an&aacute;lisis posterior. Congruente con los objetivos de investigaci&oacute;n (y del curso de capacitaci&oacute;n mismo), fueron tres los temas que se abordaron:</font></p>     <blockquote>       <p align="justify"><font face="verdana" size="2">1. Comprensi&oacute;n de los indicadores: su prop&oacute;sito fue discutir sobre las dificultades que los evaluadores encontraron en las instituciones educativas respecto a la forma en que los directivos encuestados comprend&iacute;an los indicadores. Las preguntas detonadoras para este foro fueron: a) &iquest;qu&eacute; dificultades tienen las personas entrevistadas para comprender los indicadores?; &iquest;ustedes, como evaluadores, tratan de clarificar el significado de los indicadores?; y &iquest;creen que las personas a cargo de la instituci&oacute;n tienen claridad al momento de definir los indicadores?</font></p>       <p align="justify"><font face="verdana" size="2">2. Competencias del evaluador: su prop&oacute;sito fue hacer una autoevaluaci&oacute;n sobre el tipo de competencias que esta tarea requiere y sobre el grado en que los evaluadores (los alumnos participantes en el curso) pose&iacute;an esas competencias. Las preguntas detonadoras para este foro fueron:&iquest;cu&aacute;les competencias se ponen en juego para el trabajo de campo que est&aacute;n realizando?; &iquest;c&oacute;mo se siente usted en esas competencias?; &iquest;en cu&aacute;les se siente fuerte y en cu&aacute;les cree que no est&aacute; capacitado?; y &iquest;qu&eacute; capacitaci&oacute;n cree que les hace falta a los responsables de la evaluaci&oacute;n en la instituci&oacute;n para que, como parte de su diario quehacer, puedan ellos cumplir con este tipo de funciones?</font></p>       <p align="justify"><font face="verdana" size="2">3. Valores subyacentes en los procesos de evaluaci&oacute;n: muchas veces se observa en las instituciones educativas que la evaluaci&oacute;n es, para algunos, algo "secundario", al mismo tiempo que otras personas desconf&iacute;an sobre el uso que se le pueda dar a los resultados de la evaluaci&oacute;n; por ello, el prop&oacute;sito de este foro fue hacer una reflexi&oacute;n sobre los valores subyacentes en la cultura de evaluaci&oacute;n existente (o inexistente) en las instituciones que los participantes estaban evaluando. Las preguntas de&#150;tonadoras para este foro fueron: &iquest;por qu&eacute; cree que hay, o no, una cultura de evaluaci&oacute;n en la instituci&oacute;n que est&aacute; evaluando?; &iquest;qu&eacute; valor se le da a las acciones de evaluaci&oacute;n dentro de la instituci&oacute;n?; &iquest;estos valores se hacen expl&iacute;citos o est&aacute;n impl&iacute;citos en las acciones del personal dentro de la instituci&oacute;n?; en la determinaci&oacute;n de los indicadores &iquest;se ha enfrentado a alg&uacute;n dilema &eacute;tico o a un conflicto de intereses?; y &iquest;cree que hay alg&uacute;n indicador que por su naturaleza puede llegar a tener implicaciones "pol&eacute;micas" en cuanto a su uso y/o interpretaci&oacute;n?</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">Los instrumentos, entendidos como los medios que usa un investigador para colectar datos, fueron en este caso los foros de discusi&oacute;n asincr&oacute;nica descritos previamente. Aunque las preguntas detonadoras sirvieron de base para motivar la discusi&oacute;n inicial, conviene se&ntilde;alar que la discusi&oacute;n que se dio en cada foro sucedi&oacute; de manera natural y espont&aacute;nea. Congruente con una metodolog&iacute;a cualitativa, los investigadores tomaron la decisi&oacute;n de que esto ocurriera as&iacute; con el fin de que los datos fueran fluyendo libremente sin mayor influencia por parte de los investigadores. S&oacute;lo en aquellos casos en que alguna participaci&oacute;n ameritaba una mejor explicaci&oacute;n, los investigadores, en su papel de facilitadores del curso, recurrieron a un conjunto de preguntas que sirvieran para validar la informaci&oacute;n recabada y asegurar que realmente se estaba entendiendo el pensar y sentir de los participantes en su papel de evaluadores.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><i>An&aacute;lisis de datos. </i>Para llevar a cabo el an&aacute;lisis de los datos que aportaron los participantes en los foros de discusi&oacute;n, se emple&oacute; la t&eacute;cnica de an&aacute;lisis de contenido, con dos tipos de elementos estructurales: referencias y rasgos (Bard&iacute;n, 2004). Las referencias se dieron a partir de las opiniones, respuestas y relatos que los participantes hicieron sobre el sentido que ha tenido y tiene para ellos la cultura de evaluaci&oacute;n; en tanto que, como rasgos, se consideraron las incidencias o frecuencias que resultaron significativas en dichos relatos.</font></p>     <p align="justify"><font face="verdana" size="2">Por otra parte, el an&aacute;lisis de contenido establece un v&iacute;nculo entre tres tipos de lenguaje: descriptivo, anal&iacute;tico e interpretativo (Krippendorf, 1990). En este estudio, el nivel descriptivo incluy&oacute; la informaci&oacute;n aportada por los informantes en los tres foros de discusi&oacute;n; el nivel anal&iacute;tico orden&oacute; dichos aportes a partir de criterios de afinidad o diferenciaci&oacute;n, constituyendo categor&iacute;as para clasificar y organizar la informaci&oacute;n; y el nivel interpretativo gener&oacute; juicios de valor sobre el fen&oacute;meno de inter&eacute;s para su mejor comprensi&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Resultados</b></font></p>     <p align="justify"><font face="verdana" size="2">Los resultados se presentan en esta secci&oacute;n a partir de un an&aacute;lisis de contenido de los mensajes plasmados en los foros de discusi&oacute;n, agrupados en tres categor&iacute;as: comprensi&oacute;n de los indicadores, competencias del evaluador y valores subyacentes en los procesos de evaluaci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2"><i>Comprensi&oacute;n de los indicadores. </i>El primer foro trat&oacute; sobre las dificultades que los evaluadores encontraron en las instituciones educativas respecto a la forma en que los distintos actores comprenden el concepto de indicador. Uno de los puntos de discusi&oacute;n estuvo en referencia al entendimiento de los indicadores por parte de los informantes, como una funci&oacute;n de la formaci&oacute;n acad&eacute;mica de &eacute;stos, pero tambi&eacute;n de la terminolog&iacute;a empleada por los encargados de recabar la informaci&oacute;n. Las experiencias compartidas apuntan a que a mayor nivel acad&eacute;mico del informante, mayor entendimiento del indicador; y a mayor claridad por parte de los evaluadores para comunicar la informaci&oacute;n que quer&iacute;an colectar, mayor facilidad para determinar el valor del indicador.</font></p>     <p align="justify"><font face="verdana" size="2">Complementando lo anterior, otro punto que se abord&oacute; tuvo que ver con el perfil de informantes y evaluadores, no s&oacute;lo en t&eacute;rminos de su experiencia en temas de evaluaci&oacute;n institucional, sino tambi&eacute;n en t&eacute;rminos de su perfil profesional. En educaci&oacute;n media&#150;superior y superior (niveles en que se llev&oacute; a cabo el estudio), muchos de los docentes y directivos carecen de formaci&oacute;n pedag&oacute;gica y, por consiguiente, de una capacitaci&oacute;n espec&iacute;fica sobre evaluaci&oacute;n institucional. No es inusual encontrar en cargos directivos a ingenieros, administradores, m&eacute;dicos o abogados con competencias pedag&oacute;gicas m&aacute;s de naturaleza emp&iacute;rica (por la experiencia), que de naturaleza te&oacute;rica. Desde luego, el concepto de indicador no es del todo ajeno a estas profesiones, y en muchos casos se apreciaba el ejercicio de procesos de transferencia para tratar de entender a qu&eacute; se refer&iacute;a un indicador de evaluaci&oacute;n institucional, desde la perspectiva desde la cual cada quien lo hab&iacute;a manejado en su esfera profesional.</font></p>     <p align="justify"><font face="verdana" size="2">Aunque capacitaci&oacute;n y competencias fue un tema discutido en otro foro posterior a &eacute;ste que aqu&iacute; se discute, se comentaron ampliamente el pensar y sentir de los participantes sobre sus competencias como evaluadores y como responsables de colectar informaci&oacute;n. Recu&eacute;rdese que previo a la discusi&oacute;n en foros asincr&oacute;nicos, los participantes debieron acudir con distintos informantes de la instituci&oacute;n en que trabajaban para recabar informaci&oacute;n sobre un conjunto de indicadores dado por un modelo propuesto por los autores de este art&iacute;culo. Al asumir esta tarea, los participantes reconocieron ciertas limitaciones en sus habilidades para entrevistar a los informantes, para entender ellos mismos el significado de cada indicador y, por consiguiente, para comunicarles a los informantes el tipo de datos que el indicador requer&iacute;a. Por ello, un punto recurrente en esta discusi&oacute;n fue el de destacar la importancia de la formaci&oacute;n de evaluadores para ellos mismos y para personas clave dentro de cada instituci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">Una cosa es la competencia que pueda traer de entrada un evaluador, y otra muy distinta es la preparaci&oacute;n que haya hecho para realizar el estudio. Uno de los puntos que fueron abordados en este foro se orient&oacute; a la importancia de planear adecuadamente cada entrevista o proceso de colecci&oacute;n de datos. Los participantes en el curso pronto se dieron cuenta de que no pod&iacute;an llegar con la m&aacute;xima autoridad de una instituci&oacute;n educativa para que &eacute;sta proporcionara todos y cada uno de los datos que requer&iacute;a cada uno de los 54 indicadores del modelo de evaluaci&oacute;n: mientras que algunas preguntas pod&iacute;an ser respondidas con mayor precisi&oacute;n por directores de escuela, otras correspond&iacute;an m&aacute;s a jefes de departamento. De igual forma, los responsables de servicios escolares pod&iacute;an proporcionar ciertos datos, as&iacute; como lo hac&iacute;an los encargados de las &aacute;reas administrativas. Cada una de estas personas tiene un perfil distinto y era fundamental que los evaluadores realizaran una preparaci&oacute;n previa de sus entrevistas para seleccionar, en primer lugar, qu&eacute; persona responder&iacute;a a qu&eacute; indicador; y en segundo lugar, para adecuar el lenguaje al perfil de cada informante. Sin importar qu&eacute; tan competente es un evaluador, la adecuada planeaci&oacute;n del proceso de colecci&oacute;n de datos pareci&oacute; ser un factor clave para asegurar un entendimiento com&uacute;n del concepto de cada indicador y para colectar los datos que permitieran determinarlo.</font></p>     <p align="justify"><font face="verdana" size="2">No es posible generalizar acerca del mucho o poco entendimiento que cada persona (informante o evaluador) o instituci&oacute;n tuvo sobre el concepto de indicador. En muchos casos, ciertos indicadores les eran muy familiares a los informantes porque son frecuentemente solicitados por instancias superiores. As&iacute;, reportar un &iacute;ndice de deserci&oacute;n o un promedio de la evaluaci&oacute;n del desempe&ntilde;o de los profesores son tareas frecuentes en las instituciones educativas. A pesar de ello, los participantes (evaluadores) observaron cierta dificultad al plantear preguntas que buscaran justificar el c&aacute;lculo de ciertos indicadores. Algo tan "simple" como un &iacute;ndice de deserci&oacute;n pod&iacute;a resultar tremendamente complejo si se cuestionaban aspectos tales como su determinaci&oacute;n a trav&eacute;s del seguimiento de <i>cohortes </i>o a trav&eacute;s de cortes transversales en cada semestre (entre muchos otros procedimientos que se podr&iacute;an citar). Los participantes reportaron que una supuesta comprensi&oacute;n de alg&uacute;n indicador no era tal cuando se realizaba este tipo de cuestionamientos. Ni qu&eacute; decir cuando se planteaban indicadores que jam&aacute;s hab&iacute;an sido siquiera considerados por los informantes; ejemplo de ello eran aqu&eacute;llos sobre capital social y sobre la importancia que tienen las redes en el trabajo acad&eacute;mico de los profesores. En esos casos, muchos informantes reconocieron que jam&aacute;s hab&iacute;an recibido solicitudes para reportar dichos indicadores, y mostraron inter&eacute;s por tratar de comprenderlos mejor.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Otra l&iacute;nea de discusi&oacute;n se dio en el caso de algunos participantes que, adem&aacute;s de trabajar en escuelas p&uacute;blicas, llegaron a colaborar tambi&eacute;n en instituciones privadas. Se se&ntilde;alaba, por ejemplo, que ciertos tipos de indicadores eran m&aacute;s frecuentemente empleados en instituciones privadas, dada una pr&aacute;ctica habitual de rendici&oacute;n de cuentas. Aunado a lo anterior, muchas de estas instituciones buscan ser acreditadas como una forma de posicionarse en el mercado educativo y, por consiguiente, se ven sujetas a la determinaci&oacute;n de aquellos indicadores solicitados por los organismos acredita&#150;dores. Estas pr&aacute;cticas aparentemente facilitan la comprensi&oacute;n de ciertos indicadores. El contraste entre instituciones p&uacute;blicas y privadas puede explicarse, de acuerdo con Cardozo (2009), por el limitado desarrollo de la cultura evaluativa en la administraci&oacute;n p&uacute;blica mexicana durante el siglo pasado, y los pocos trabajos publicados para analizar dicha situaci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2"><i>Capacitaci&oacute;n de los evaluadores. </i>El segundo foro trat&oacute; sobre el tipo de competencias que un proceso de evaluaci&oacute;n institucional requiere y sobre el grado en que los evaluadores (los alumnos participantes en el curso) y los informantes en cada instituci&oacute;n poseen esas competencias.</font></p>     <p align="justify"><font face="verdana" size="2">En primera instancia, los participantes en el foro reflexionaron acerca del concepto mismo de competencia. Mientras que algunos mencionaron que no estaban seguros del significado de este t&eacute;rmino, otros lo definieron desde su punto de vista y otros m&aacute;s incluyeron citas de autores diversos. Tal como ocurre siempre que se habla de competencias, el t&eacute;rmino elude una definici&oacute;n precisa y lo mismo puede abarcar un conjunto de conocimientos, habilidades y actitudes (lo que ser&iacute;a una definici&oacute;n amplia del t&eacute;rmino), hasta acotarlo simplemente a aquellas habilidades que le permiten a alguien hacer algo (definici&oacute;n restringida del t&eacute;rmino). Asimismo, al hablar de competencias surgi&oacute; en el foro el contraste entre demostrar competencias a trav&eacute;s del desempe&ntilde;o diario <i>vs. </i>ver a la competencia como un "potencial" para hacer algo. Quienes apuntaban a la segunda idea argumentaban que no hay que confundir competencia con desempe&ntilde;o, y que no siempre una persona competente quiere o cuenta con un contexto tal que le permita llevar al terreno de la pr&aacute;ctica aquello que sabe hacer. Esta l&iacute;nea de discusi&oacute;n fue relevante para entender el concepto de cultura de evaluaci&oacute;n, ya que en muchas ocasiones se atribuye la "poca" cultura de evaluaci&oacute;n a malas experiencias previas debidas a la supuesta incompetencia de los evaluadores.</font></p>     <p align="justify"><font face="verdana" size="2">En relaci&oacute;n con la experiencia que los participantes tuvieron como evaluadores, se coment&oacute; que las competencias para realizar este tipo de trabajo se ponen en juego en todas y cada una de las actividades que tuvieron que realizar en el trabajo de campo: planeaci&oacute;n de actividades, procesos de recolecci&oacute;n de datos, an&aacute;lisis de informaci&oacute;n y comunicaci&oacute;n de los resultados, entre otras. Los listados sobre situaciones de evaluaci&oacute;n fueron variados, y en no pocas ocasiones se entraba a cierto detalle para profundizar sobre competencias muy concretas que algunos tuvieron que emplear; por ejemplo, en la selecci&oacute;n adecuada de las fuentes de informaci&oacute;n, en la log&iacute;stica involucrada para programar las entrevistas, en el empleo de alg&uacute;n paquete estad&iacute;stico para procesar datos o hasta en la elaboraci&oacute;n de un informe ejecutivo o de una presentaci&oacute;n en Power Point para comunicar los resultados. Procurando un ejercicio de s&iacute;ntesis, hay quienes identificaron al menos tres dimensiones o categor&iacute;as de competencias que son indispensables para poder conducir un buen trabajo de evaluaci&oacute;n institucional: 1) competencias del &aacute;rea te&oacute;rica y conceptual (planeaci&oacute;n, m&eacute;todos de recolecci&oacute;n de datos, desarrollo de instrumentos, an&aacute;lisis de informaci&oacute;n, etc.); 2) competencias del &aacute;rea de habilidades interpersonales y de comunicaci&oacute;n oral y escrita; y 3) competencias del &aacute;rea de &eacute;tica (para realizar evaluaciones con apego al respeto absoluto de las personas y para el manejo de conflictos de intereses).</font></p>     <p align="justify"><font face="verdana" size="2">Un aspecto que a los participantes les pareci&oacute; importante, y que incluso gener&oacute; un cuestionamiento acerca de si pudiera o no considerarse como una competencia, fue el conocimiento previo de los evaluadores acerca de aquello que se quiere evaluar. Se coment&oacute; que si un evaluador no est&aacute; familiarizado con el objeto de la evaluaci&oacute;n, el mismo evaluador tiende a divagar y puede incluso generar dificultades para conseguir el valor de un indicador o para ayudar a personas clave de la instituci&oacute;n para determinarlo. Esto se hizo patente cuando los participantes, muchos de ellos profesores en ejercicio, solicitaban informaci&oacute;n sobre cuestiones que les eran ajenas, como podr&iacute;a ser un informe contable o un inventario de recursos materiales de la instituci&oacute;n. La evaluaci&oacute;n institucional es algo complejo y exige conocimientos de muy diversas &aacute;reas disciplinares, raz&oacute;n por la que es dif&iacute;cil para un evaluador llegar a dominar cada una de ellas.</font></p>     <p align="justify"><font face="verdana" size="2">Otra l&iacute;nea de discusi&oacute;n fue la de ver el proceso de evaluaci&oacute;n como algo m&aacute;s que un mero acto mec&aacute;nico. Teor&iacute;a y experiencia pr&aacute;ctica son dos requisitos importantes que con frecuencia se vinculan con las competencias del evaluador; pero tambi&eacute;n se habl&oacute; de la importancia de ser creativo en la realizaci&oacute;n de cada tarea, al grado de ver el proceso de evaluaci&oacute;n como un arte y no s&oacute;lo como una t&eacute;cnica. En este sentido, mucho se habl&oacute; sobre la conciencia que debe tener el evaluador del entorno donde realiza la evaluaci&oacute;n, de la sensibilidad requerida para conseguir cierta informaci&oacute;n dependiendo de la forma de ser de cada informante, y hasta de la intuici&oacute;n que el evaluador debe poseer para identificar situaciones at&iacute;picas que pudieran pasar desapercibidas. Mientras que algunos afirmaban que todo esto caracteriza al evaluador competente, otros opinaban que las competencias se quedaban cortas respecto de lo que significa ser un evaluador eficaz.</font></p>     <p align="justify"><font face="verdana" size="2">El contenido de las aportaciones de los participantes se refiri&oacute; en no pocas ocasiones hacia el reconocimiento de que los procesos de evaluaci&oacute;n son indispensables y deben llevarse a cabo como una pr&aacute;ctica continua dentro de las instituciones educativas. Esto llev&oacute; tambi&eacute;n a destacar la necesidad del desarrollo del talento humano en las instituciones educativas, para llevar a cabo procesos de evaluaci&oacute;n al interior de &eacute;stas. Las competencias son algo que tarda en desarrollarse, y m&aacute;s que dejar que &eacute;stas se desarrollen en forma "espont&aacute;nea", se habl&oacute; mucho de la importancia de contar con cursos de capacitaci&oacute;n que permitieran el desarrollo de esas competencias en forma sistem&aacute;tica.</font></p>     <p align="justify"><font face="verdana" size="2">Muchos profesores, y otros actores dentro de las instituciones educativas, reconocen que pocas veces (o tal vez nunca) llevaron cursos sobre evaluaci&oacute;n institucional. A pesar de reconocer esta carencia, los participantes argumentaron que ellos anticipar&iacute;an ciertas reticencias por parte del personal a ser capacitados, por lo que pudiera implicarles m&aacute;s adelante, en sus trabajos, tener que realizar procesos de evaluaci&oacute;n dentro de sus &aacute;reas de influencia.</font></p>     <p align="justify"><font face="verdana" size="2">Al realizar una autoevaluaci&oacute;n sobre sus propias competencias, varios patrones fueron identificados. Un patr&oacute;n recurrente fue el de se&ntilde;alar el desconocimiento de herramientas estad&iacute;sticas para el manejo cuantitativo de datos. Aunado a esto, algunos se&ntilde;alaban tambi&eacute;n un gran desconocimiento de herramientas tecnol&oacute;gicas que les permitieran procesar datos o, incluso, facilitar los procesos de difusi&oacute;n de los resultados. Hay quienes han o&iacute;do hablar de herramientas como SPSS, pero ignoran totalmente su funcionamiento; hay quienes ni siquiera conocen el nombre de <i>software </i>especializado para el an&aacute;lisis cualitativo de datos; y hay quienes conocen un poco de herramientas tales como Power Point, pero que al mismo tiempo reconocen que las subu&#150;tilizan. Otro caso recurrente fue el relativo al desarrollo de instrumentos de medici&oacute;n: mientras que a algunos les puede parecer relativamente "simple" desarrollar un cuestionario con las preguntas que les puedan venir a su mente, otros reconocen que requieren mucho m&aacute;s sustento te&oacute;rico para proponer instrumentos que realmente aporten informaci&oacute;n que sea v&aacute;lida y confiable en el c&aacute;lculo de indicadores institucionales.</font></p>     <p align="justify"><font face="verdana" size="2">En contraste, en esta autoevaluaci&oacute;n de competencias muchos coincidieron en que su formaci&oacute;n como docentes constitu&iacute;a un factor fundamental al momento de entablar relaciones con autoridades e informantes de las instituciones educativas. Hay cierto tipo de inteligencia interpersonal que les facilita comunicarse con personas clave y obtener informaci&oacute;n de ellas. De igual manera, aun cuando pudieran tener limitaciones para generar informes con el uso de recursos tecnol&oacute;gicos, muchos de los participantes afirmaban sentirse competentes para procesos de comunicaci&oacute;n de resultados.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En este ejercicio de autoevaluaci&oacute;n, un tipo de competencia que gener&oacute; debate entre los participantes fue el relativo al manejo de los tiempos. Mientras que algunos sintieron que llevaban buen control del tiempo en el manejo de entrevistas, otros reportaron deficiencias en esta &aacute;rea. Y lo mismo ocurr&iacute;a en un nivel log&iacute;stico, cuando los participantes deb&iacute;an compaginar las agendas propias con las de los directivos que iban a entrevistar o las de los informantes a quienes les aplicar&iacute;an instrumentos. Experiencias como cambios en la agenda y cancelaciones de citas por parte de los directivos generaron, en no pocas ocasiones, cierto estr&eacute;s en los participantes, que ten&iacute;an fechas l&iacute;mite que cumplir para reportar avances en el curso.</font></p>     <p align="justify"><font face="verdana" size="2">Si bien la discusi&oacute;n sobre competencias y capacitaci&oacute;n gir&oacute; primordialmente en torno a cuestiones t&eacute;cnicas u operacionales de la evaluaci&oacute;n, en algunos momentos tambi&eacute;n se sugiri&oacute; que la formaci&oacute;n de los evaluadores abarcara el desarrollo de competencias de otra &iacute;ndole. Por ejemplo, se dijo que un evaluador competente debe ser capaz de: comprender la relevancia del contexto de cada instituci&oacute;n en los procesos de evaluaci&oacute;n; tener un entendimiento profundo de los marcos te&oacute;ricos que rigen a la evaluaci&oacute;n institucional desde distintas perspectivas; y tener una conciencia clara acerca de las virtudes y defectos, y alcances y limitaciones, de distintas perspectivas metodol&oacute;gicas.</font></p>     <p align="justify"><font face="verdana" size="2">Tal como se anticipaba, el tema de las competencias de un evaluador desemboc&oacute; en el tema de una cultura de evaluaci&oacute;n. Un tema abordado en este foro fue el de los miedos que genera una evaluaci&oacute;n institucional entre los distintos actores educativos y c&oacute;mo esos miedos no son m&aacute;s que el producto de un enorme desconocimiento sobre la evaluaci&oacute;n misma y sobre el impacto que &eacute;sta puede tener para mejorar a la instituci&oacute;n. De nada sirve que evaluadores expertos traten de "convencer" al personal de una instituci&oacute;n acerca del valor de una evaluaci&oacute;n; si no se comprenden los procesos vinculados a una evaluaci&oacute;n, dif&iacute;cilmente se valorar&aacute; &eacute;sta. Incluso, la reacci&oacute;n que a veces se anticipa es la de sabotear los trabajos de evaluaci&oacute;n en aras de evitar "persecuciones" y consecuencias indeseables que se deriven de los resultados de esas evaluaciones. El argumento que prevaleci&oacute; en esta discusi&oacute;n fue que una cultura que realmente propicie una evaluaci&oacute;n sana de las instituciones educativas se lograr&iacute;a capacitando a todos los actores al parejo: lo mismo a aquellos a cargo de un proceso de evaluaci&oacute;n, que a quienes simplemente act&uacute;an como informantes.</font></p>     <p align="justify"><font face="verdana" size="2">Finalmente, para los participantes en el curso el trabajo desarrollado en la plataforma electr&oacute;nica evidenci&oacute; el hecho de que compartir experiencias con sus compa&ntilde;eros les signific&oacute; un enorme aprendizaje. Al estar viviendo ellos un proceso de capacitaci&oacute;n, pod&iacute;an valorar m&aacute;s la importancia de &eacute;sta y destacar el impacto que tendr&iacute;a en la instituci&oacute;n el que este esfuerzo de capacitaci&oacute;n se extendiera a todos los niveles. Estos hallazgos coinciden con los de Rutty (2003), cuando se&ntilde;ala que un discurso recurrente de agentes capacitadores es la falta de una "cultura de la evaluaci&oacute;n" como requisito previo para el establecimiento de pr&aacute;cticas de evaluaci&oacute;n de impacto de programa de capacitaci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2"><i>Valores subyacentes en los procesos de evaluaci&oacute;n. </i>El tercer foro tuvo por objetivo reflexionar sobre los valores subyacentes en la cultura de evaluaci&oacute;n existente (o inexistente) en las instituciones que los participantes estaban evaluando.</font></p>     <p align="justify"><font face="verdana" size="2">El tema de la evaluaci&oacute;n, en s&iacute; mismo, sigue resultando pol&eacute;mico entre los actores educativos. Su sola menci&oacute;n genera tensiones y desconfianza. Este sentir se manifest&oacute; en los datos que emergieron del an&aacute;lisis de las respuestas en este foro, donde los participantes comentaron que muchas personas son recelosas sobre el uso que se le pueda dar a los resultados de la evaluaci&oacute;n. El temor de que una persona ajena a nuestro diario quehacer pueda emitir un juicio de valor acerca de nuestro propio desempe&ntilde;o, en una labor cualquiera, fue considerado por la mayor&iacute;a de los participantes como el gran obst&aacute;culo a vencer para lograr implantar una cultura de evaluaci&oacute;n a nivel institucional y nacional.</font></p>     <p align="justify"><font face="verdana" size="2">Sin embargo, los participantes tambi&eacute;n coincidieron en la idea de que, para trabajar en pro de una cultura de evaluaci&oacute;n, se deber&iacute;an vencer los intereses de todo tipo que se oponen a la implementaci&oacute;n de los sistemas de evaluaci&oacute;n. Se coment&oacute; que la cultura de la evaluaci&oacute;n va m&aacute;s all&aacute; de los ex&aacute;menes que presentan los alumnos para obtener una calificaci&oacute;n, de las encuestas que se llevan a cabo para determinar el clima laboral o de los instrumentos para valorar el desempe&ntilde;o de los profesores. Se trata de trabajar en procesos sistem&aacute;ticos que lleven a elevar el nivel educativo de los estudiantes. Cuando la evaluaci&oacute;n se aprecia como un medio y no como un fin, se est&aacute; realmente promoviendo una cultura de evaluaci&oacute;n. El valor subyacente de la evaluaci&oacute;n no est&aacute; tanto en la calidad de los procesos (que es importante, sin duda), sino en verla como un medio para mejorar la calidad acad&eacute;mica de los estudiantes.</font></p>     <p align="justify"><font face="verdana" size="2">Aun reconociendo el valor que tiene la evaluaci&oacute;n en los procesos institucionales, se coment&oacute; que para muchas escuelas p&uacute;blicas (salvo contadas excepciones), la cultura de evaluaci&oacute;n simplemente es inexistente. Una raz&oacute;n de esto radica en la "seguridad" que el personal tiene de la permanencia en su puesto. El puesto de trabajo no se siente "amenazado" porque buen n&uacute;mero de profesores, personal administrativo y directivos tiene un nombramiento "de planta" (de base) que establece una relativa permanencia de la persona dentro de la instituci&oacute;n. Otra raz&oacute;n radica en que los directivos de dichas instituciones en muchos casos no consideran necesario llevar a cabo procesos propios de evaluaci&oacute;n porque existen instancias superiores que los realizan en forma independiente de la instituci&oacute;n (por ejemplo, la aplicaci&oacute;n de las pruebas del Centro Nacional de Evaluaci&oacute;n, CENEVAL, como una forma de pol&iacute;tica generalizada para distintas instituciones).</font></p>     <p align="justify"><font face="verdana" size="2">Situaci&oacute;n contraria se pudo apreciar cuando los participantes citaban sus experiencias dentro de instituciones privadas. En &eacute;stas, los procesos de evaluaci&oacute;n son cuestiones casi de rutina. Se valora la competencia entre los distintos centros educativos, en especial cuando se refieren a cuestiones acad&eacute;micas. El hecho de contar con el visto bueno de un organismo acreditador, o el hecho de que los egresados logren un puntaje alto en las pruebas del CENEVAL, son elementos de juicio que las instituciones emplean para promoverse y para captar una mayor cantidad de alumnos de cierto nivel. A trav&eacute;s de este tipo de evaluaciones, las instituciones demuestran que pueden ofrecer un mejor servicio educativo para sus "clientes", quienes est&aacute;n en posici&oacute;n de buscar la mejor opci&oacute;n que responda por el dinero que est&aacute;n pagando.</font></p>     <p align="justify"><font face="verdana" size="2">Por otra parte, cuando se abord&oacute; la tem&aacute;tica sobre posibles dilemas &eacute;ticos o conflictos de intereses en pr&aacute;cticas evaluativas, hubo una clara manifestaci&oacute;n de dos posturas. Por una parte, algunos participantes llegaron a la conclusi&oacute;n de que el simple hecho de llevar a cabo una evaluaci&oacute;n conlleva una responsabilidad &eacute;tica, que debe estar presente tanto en los juicios de valor que se emiten, en el manejo confidencial de informaci&oacute;n, o en las consecuencias que se derivan de sus resultados. En contraste, muchos de estos mismos participantes tambi&eacute;n manifestaron que la determinaci&oacute;n de indicadores no les implic&oacute;, en realidad, mayor conflicto &eacute;tico. Cuando el evaluador es visto como un profesional t&eacute;cnico, encargado de recabar informaci&oacute;n y ordenarla, sin emitir juicios de valor sobre &eacute;sta, los conflictos &eacute;ticos son pr&aacute;cticamente inexistentes y se "transfieren" m&aacute;s bien a quienes deben interpretar los resultados de la evaluaci&oacute;n y tomar decisiones a partir de ellos.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Adicionalmente, en este foro se discuti&oacute; sobre la naturaleza "pol&eacute;mica" que pueden tener ciertos indicadores, dada la forma en que se les puede interpretar o el uso que se les puede dar. Numerosos ejemplos fueron comentados sobre este tema.</font></p>     <p align="justify"><font face="verdana" size="2">Un ejemplo de un indicador que result&oacute; pol&eacute;mico por su interpretaci&oacute;n fue el que calculaba el "&iacute;ndice de mejora del nivel de calidad de vida de los trabajadores en funci&oacute;n de su retribuci&oacute;n econ&oacute;mica". El consenso general fue que se trataba de un indicador dif&iacute;cil de medir. Se cuestion&oacute; qui&eacute;n deber&iacute;a ser el informante: el profesor o los directivos. Se discuti&oacute; tambi&eacute;n el significado de "calidad de vida", sus implicaciones, la forma de medirlo y sus repercusiones, para poder llegar a una conclusi&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">Ejemplos de indicadores que resultaron pol&eacute;micos por el uso que se les puede dar fueron los de naturaleza econ&oacute;mico&#150;administrativa. Siempre resulta delicado el manejo de los recursos con que cuenta la instituci&oacute;n y la asignaci&oacute;n de partidas presupuestales a las distintas &aacute;reas; por ello, para muchos evaluadores fue dif&iacute;cil encontrar datos vinculados a este tipo de indicadores. Un com&uacute;n denominador que se mencion&oacute; es el relativo al recelo y desconfianza de ciertos directivos (informantes) sobre las razones por las que se les solicit&oacute; este tipo de informaci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">El tema del curr&iacute;culo gener&oacute; tambi&eacute;n una serie de comentarios pol&eacute;micos entre los participantes. Un indicador, por ejemplo, se&ntilde;alaba el "grado de cumplimiento de lo establecido en los curr&iacute;culos, en t&eacute;rminos del n&uacute;mero de temas que se abordaron y que se debieron haber abordado en clase". Partiendo del hecho de que los profesores tienen libertad de c&aacute;tedra, la discusi&oacute;n se centr&oacute; en cuestionar la relativa flexibilidad que los profesores pueden tener al poner mayor &eacute;nfasis en ciertos temas y no en otros; y ello llev&oacute; a cuestionar la forma de determinar dicho indicador y el hecho de que un mayor "grado" de cumplimiento significara realmente algo "positivo" en t&eacute;rminos educativos.</font></p>     <p align="justify"><font face="verdana" size="2">Otro indicador discutido fue el de las calificaciones de los alumnos. Una idea que gener&oacute; amplia discusi&oacute;n en el foro se refiri&oacute; a las estad&iacute;sticas de calificaciones obtenidas por los alumnos, como una supuesta forma de medir la calidad de la instituci&oacute;n o el desempe&ntilde;o de los profesores: &iquest;calificaciones m&aacute;s altas significan mayor aprendizaje o profesores m&aacute;s laxos? La pol&eacute;mica tambi&eacute;n se dirigi&oacute; hacia la diferencia entre calificar y evaluar, dado que los indicadores solicitados pon&iacute;an m&aacute;s &eacute;nfasis en generar estad&iacute;sticas de calificaciones que en interpretaciones m&aacute;s profundas sobre el significado que tiene cada n&uacute;mero. Se coment&oacute; que las calificaciones de los alumnos, desde el punto de vista de la mayor&iacute;a de los participantes, son un par&aacute;metro cuestionable para determinar el nivel de mejora de la calidad en una instituci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">En contraste con los ejemplos anteriores, los participantes encontraron consensos en el valor de otros indicadores aparentemente libres de pol&eacute;mica. Los indicadores referidos a presupuesto fueron considerados como fundamentales, puesto que el manejo y disposici&oacute;n de recursos destinados a infraestructura posibilita un trabajo apto en la instituci&oacute;n para garantizar el servicio de calidad requerido por los estudiantes. Igualmente, los indicadores referidos a capital humano, formaci&oacute;n integral y capacitaci&oacute;n representan un referente de la calidad del servicio que presta una instituci&oacute;n educativa. El indicador de egresados insertos en los sectores laborales tambi&eacute;n fue tema de discusi&oacute;n dentro del foro, ya que se consider&oacute; que si un alumno obten&iacute;a una educaci&oacute;n de calidad al estudiar en cierta instituci&oacute;n, el ingreso r&aacute;pido y permanencia, con herramientas necesarias para la vida econ&oacute;micamente productiva, podr&iacute;a considerarse como un indicador de las competencias adquiridas como parte de su formaci&oacute;n profesional y, por tanto, de un nivel de calidad de la instituci&oacute;n donde desarroll&oacute; dicha formaci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Conclusiones</b></font></p>     <p align="justify"><font face="verdana" size="2">Acorde con el objetivo de la investigaci&oacute;n, tres han sido los temas vinculados al de cultura de evaluaci&oacute;n que fueron explorados en este estudio: 1) la forma en que los distintos actores educativos comprenden la evaluaci&oacute;n y, en particular, el empleo de indicadores institucionales; 2) las competencias (muchas o pocas) que tienen ciertas personas clave dentro de cada instituci&oacute;n para realizar procesos de evaluaci&oacute;n, as&iacute; como la capacitaci&oacute;n que deben recibir para que la evaluaci&oacute;n se lleve a cabo de una forma adecuada; y 3) los valores subyacentes que determinan el uso que se le da a los resultados de la evaluaci&oacute;n, la manera de manejar posibles conflictos &eacute;ticos y el valor que se le da a la evaluaci&oacute;n misma.</font></p>     <p align="justify"><font face="verdana" size="2">Una de las caracter&iacute;sticas fundamentales de una cultura radica en el entendimiento com&uacute;n que guardan todos los miembros de una comunidad sobre cuestiones que son de su inter&eacute;s. La discusi&oacute;n del primer punto nos ha llevado a observar cierta heterogeneidad que existe entre los miembros de las comunidades educativas para entender conceptos tales como evaluaci&oacute;n institucional o indicadores de evaluaci&oacute;n. De esta investigaci&oacute;n se aprendi&oacute; que, aparentemente, a mayor nivel acad&eacute;mico del informante, mayor entendimiento del indicador; y a mayor claridad por parte de los evaluadores para comunicar la informaci&oacute;n que quer&iacute;an recolectar, mayor facilidad para determinar el valor del indicador. Sin duda, para algunos indicadores hay una idea clara sobre su significado, pero para muchos otros hay m&uacute;ltiples interpretaciones sobre la forma de determinarlos y sobre el uso que se le puede dar a la informaci&oacute;n que generan. Lo anterior no es fortuito. La ausencia de una cultura de evaluaci&oacute;n es el resultado de pr&aacute;cticas evaluativas dispersas que ponen m&aacute;s &eacute;nfasis en la pr&aacute;ctica misma que en el entendimiento com&uacute;n de lo que se quiere hacer. Un cambio en la cultura de evaluaci&oacute;n de las instituciones debe iniciar buscando un entendimiento com&uacute;n y un significado compartido (P&eacute;rez G&oacute;mez, 1998; y Tirado, 2003). La pluralidad no est&aacute; re&ntilde;ida con esto. Siempre pueden existir cuestionamientos sobre la mejor forma de medir tal o cual indicador. Lo importante es que, una vez que se determine esa mejor forma, los miembros de la comunidad se apropien de &eacute;sta para avanzar juntos en una misma direcci&oacute;n.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Otra de las caracter&iacute;sticas de una cultura radica en la manera en que las generaciones adultas transmiten a las j&oacute;venes las creencias, pr&aacute;cticas y todo aquello que es valorado por la comunidad a la que pertenecen para operar y vivir en armon&iacute;a dentro de ella. Esa transmisi&oacute;n a veces ocurre de manera inconsciente y a veces se da a trav&eacute;s de procesos formales de formaci&oacute;n. Al hablar de cultura de evaluaci&oacute;n en instituciones educativas, los procesos de formaci&oacute;n parecen estar ausentes. Desde luego que las evaluaciones se realizan y los mandos superiores dan instrucciones al personal operativo sobre c&oacute;mo determinar ciertos indicadores o c&oacute;mo aplicar diversos instrumentos; pero el hecho de dar esas instrucciones est&aacute; lejos de lo que implica un aut&eacute;ntico proceso formativo. Con esta investigaci&oacute;n se aprendi&oacute; que es raro encontrar en las instituciones educativas cursos orientados a formar evaluadores y a desarrollar las competencias que un trabajo de evaluaci&oacute;n institucional requiere. Un cambio en la cultura de evaluaci&oacute;n de las instituciones debe contemplar la implementaci&oacute;n de cursos de evaluaci&oacute;n en todos los niveles, involucrando no s&oacute;lo a los evaluadores, sino tambi&eacute;n a los informantes. La formaci&oacute;n de evaluadores debe abarcar desde conceptos y marcos te&oacute;ricos para comprender los alcances y limitaciones de cada metodolog&iacute;a, hasta el desarrollo de cierta inteligencia interpersonal para tratar con los informantes; desde el conocimiento de normas &eacute;ticas para realizar evaluaciones con apego al respeto absoluto de las personas, hasta el desarrollo de un pensamiento lateral que permita realizar evaluaciones apropiadas a cada contexto; desde estrategias para la eficaz gesti&oacute;n de proyectos, hasta el uso de toda una variedad de recursos inform&aacute;ticos para el an&aacute;lisis de datos cuantitativos y cualitativos. El conocimiento de todo esto reduce los miedos que genera la incertidumbre, y un mejor conocimiento de los procesos de evaluaci&oacute;n lleva como consecuencia menores miedos y menores objeciones al realizarla (Conley y Glasman, 2008).</font></p>     <p align="justify"><font face="verdana" size="2">En toda cultura hay valores subyacentes. Los miembros de la comunidad comparten preferencias que les permiten distinguir aquello que es relevante para el grupo respecto de lo que no lo es. Al hablar de cultura de evaluaci&oacute;n en instituciones educativas no es f&aacute;cil identificar los valores subyacentes; por lo general, el discurso destaca la importancia de la evaluaci&oacute;n, pero las pr&aacute;cticas y las actitudes de las personas no siempre son congruentes con ese discurso. La evaluaci&oacute;n provoca miedos y reticencias. Un ambiente de incertidumbre parece privar siempre que se realiza una evaluaci&oacute;n donde no siempre se hace expl&iacute;cito el uso que se le va a dar a los resultados. Por ello, el anonimato se puede valorar, aunque posteriormente se le critique por la falta de transparencia. De esta investigaci&oacute;n se aprendi&oacute; que una buena forma de identificar valores subyacentes es estudiando las razones por las que los conflictos surgen al momento de evaluar. Un conflicto contrapone el sistema axiol&oacute;gico de una persona con el de la otra, y esto se manifiesta por el &eacute;nfasis que cada quien le da a ciertas cosas. Puede haber pol&eacute;mica sobre la forma de construir ciertos indicadores (c&oacute;mo se calculan), sobre el uso que se le va a dar a la informaci&oacute;n que resulte de calcular esos indicadores (qu&eacute; consecuencias se desprenden de la evaluaci&oacute;n) o sobre la forma de interpretarlos (qu&eacute; es bueno y qu&eacute; es malo). Si bien la pol&eacute;mica surge de "defender" aquello en lo que creemos (aquello que valoramos), otro aprendizaje que result&oacute; de esta investigaci&oacute;n fue que muchas de esas creencias provienen del contexto en donde nos movemos. Es por ello que estereotipos acerca de las universidades p&uacute;blicas <i>versus </i>las privadas generan situaciones de conflicto cuando de evaluaci&oacute;n se habla (Laval, 2004). Un cambio en la cultura de evaluaci&oacute;n de las instituciones debe reconocer los valores subyacentes en la organizaci&oacute;n, de tal forma que se logren entender las actitudes de las personas como una manifestaci&oacute;n de sus preferencias por dichos valores (House, 1994; y Johnson y Nissenbaum, 1995). Al igual que todo en la vida, las actitudes se aprenden y se pueden desaprender tambi&eacute;n. Un cambio en la cultura de evaluaci&oacute;n es, en esencia, un cambio de actitudes.</font></p>     <p align="justify"><font face="verdana" size="2">Los tres temas explorados en esta investigaci&oacute;n no excluyen otros componentes de lo que hemos denominado <i>cultura de evaluaci&oacute;n. </i>El t&eacute;rmino es complejo y son muchas las formas en que puede abordarse. La <a href="#f1">Fig. 1</a> al inicio de este art&iacute;culo muestra diversos elementos y perspectivas desde las que se puede estudiar este fen&oacute;meno, frecuentemente soslayado. Esta misma figura es un referente de los alcances y limitaciones del presente estudio en cuanto a los temas que fueron abordados. Otras limitaciones giran en torno al aspecto metodol&oacute;gico que plantea la obtenci&oacute;n de informaci&oacute;n a partir de las percepciones de los evaluadores en formaci&oacute;n y no a trav&eacute;s de observaci&oacute;n directa de las pr&aacute;cticas de evaluaci&oacute;n en las instituciones educativas.</font></p>     <p align="justify"><font face="verdana" size="2">La evaluaci&oacute;n institucional es una condici&oacute;n necesaria, no suficiente, para mejorar la calidad de nuestras instituciones educativas. Desde una perspectiva t&eacute;cnica se dan muchas recomendaciones valiosas para promover pr&aacute;cticas de evaluaci&oacute;n cuyos resultados arrojen informaci&oacute;n v&aacute;lida, confiable y &uacute;til para la mejora educativa; pero la evaluaci&oacute;n institucional va m&aacute;s all&aacute; de cuestiones t&eacute;cnicas. De nada sirve contar s&oacute;lo con la informaci&oacute;n que arroje un estudio de evaluaci&oacute;n, si no se promueven otras condiciones que aseguren la suficiencia en la consecuci&oacute;n de la calidad educativa.</font></p>     <p align="justify"><font face="verdana" size="2">La evaluaci&oacute;n institucional es una actividad que involucra a personas... con sus miedos, sus expectativas, sus motivaciones. A trav&eacute;s de estudiar la cultura de evaluaci&oacute;n pretendimos aportar conocimiento sobre c&oacute;mo los distintos actores educativos viven el proceso de evaluaci&oacute;n, a manera de pre&aacute;mbulo de futuros estudios que exploren la forma en que ellos traduzcan los resultados de evaluaci&oacute;n en acciones concretas orientadas a la mejora educativa. Desde un an&aacute;lisis de buenas pr&aacute;cticas de evaluaci&oacute;n institucional (para inferir de ellas la cultura existente), hasta estudios de educaci&oacute;n comparada que contrasten, a nivel internacional, distintas culturas de evaluaci&oacute;n, muchos otros estudios adicionales pueden ser sugeridos para seguir explorando este fen&oacute;meno.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Referencias</b></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Aboites, H. (1999), "La cultura de la evaluaci&oacute;n en M&eacute;xico y la evaluaci&oacute;n de los acad&eacute;micos", en M. Rueda y M. Landesmann (coords.), <i>&iquest;Hacia una nueva cultura de la evaluaci&oacute;n de los acad&eacute;micos?, </i>M&eacute;xico, UNAM&#150;CESU, Pensamiento Universitario, Tercera &eacute;poca, n&uacute;m. 88, pp. 34&#150;55.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860788&pid=S0185-2698201100010000400001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Bard&iacute;n, L. (2004), <i>El an&aacute;lisis de contenido, </i>Madrid, Akal.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860790&pid=S0185-2698201100010000400002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Bolsegu&iacute;, M. y A. Fuguet (2006), "Cultura de evaluaci&oacute;n: una aproximaci&oacute;n conceptual", <i>Investigaci&oacute;n y Postgrado, </i>vol. 21, n&uacute;m. 1, pp. 77&#150;98, en: <a href="http://dialnet.unirioja.es/servlet/articulo?codigo=2309843" target="_blank">http://dialnet.unirioja.es/servlet/articulo?codigo=2309843</a> (consulta: 5 de enero de 2010).    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860792&pid=S0185-2698201100010000400003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Bustelo, M. (2006), "The Potential Role of Standards and Guidelines in the Development of an Evaluation Culture in Spain", <i>Evaluation, </i>n&uacute;m. 12, pp. 437&#150;453.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860794&pid=S0185-2698201100010000400004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Cardozo, M. (2009), "La institucionalizaci&oacute;n de una cultura de la evaluaci&oacute;n en la administraci&oacute;n p&uacute;blica mexicana: avances y desaf&iacute;os pendientes", <i>Convergencia, </i>vol. 16, n&uacute;m. 49, pp. 175&#150;198, en: <a href="http://redalyc.uaemex.mx/src/inicio/ArtPdfRed.jsp?iCve=10504907" target="_blank">http://redalyc.uaemex.mx/src/inicio/ArtPdfRed.jsp?iCve=10504907</a> (consulta: 7 de enero de 2010).    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860796&pid=S0185-2698201100010000400005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Chiavenato, I. (2004), <i>Comportamiento organizacional, </i>M&eacute;xico, Thomson.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860798&pid=S0185-2698201100010000400006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Conley, S. y N.S. Glasman (2008), "Fear, the School Organization, and Teacher Evaluation", <i>Educational Policy, </i>vol. 22, n&uacute;m. 1, pp. 63&#150;85.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860800&pid=S0185-2698201100010000400007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">D&iacute;az Barriga, A. y T. Pacheco (2007), <i>Evaluaci&oacute;n y cambio institucional, </i>M&eacute;xico, Paid&oacute;s.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860802&pid=S0185-2698201100010000400008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Dochy, F., M. Segers y S.Dierick (2002), "Nuevas v&iacute;as de ense&ntilde;anza y aprendizaje y sus consecuencias: una nueva era de la evaluaci&oacute;n", <i>Revista de Docencia Universitaria, </i>vol. 2, n&uacute;m. 2, pp. 13&#150;30, en: <a href="http://revistas.um.es/red_u/article/view/20051/19411" target="_blank">http://revistas.um.es/red_u/article/view/20051/19411</a> (consulta: 8 de enero de 2009).    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860804&pid=S0185-2698201100010000400009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Elola, N. y L. Toranzos (2000), "Evaluaci&oacute;n educativa: una aproximaci&oacute;n conceptual", en: <a href="http://www.oei.es/calidad2/luis2.pdf" target="_blank">http://www.oei.es/calidad2/luis2.pdf</a> (consulta: 15 de marzo de 2008).    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860806&pid=S0185-2698201100010000400010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Gago, A. (2002), <i>Apuntes acerca de la evaluaci&oacute;n educativa, </i>M&eacute;xico, Secretar&iacute;a de Educaci&oacute;n P&uacute;blica, en: <a href="http://cosdac.sems.gob.mx/descarga_archivo.php?b=3&documento=doc__29.pdf" target="_blank">http://cosdac.sems.gob.mx/descarga_archivo.php?b=3 &amp; documento=doc__29.pdf </a>(consulta: 24 de diciembre de 2009).    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860808&pid=S0185-2698201100010000400011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">House, E. (1994), <i>Evaluaci&oacute;n, &eacute;tica y poder, </i>Madrid, Morata.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860810&pid=S0185-2698201100010000400012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Ibarra, E. (2000), "Claroscuros de la evaluaci&oacute;n de los acad&eacute;micos: &iquest;qu&eacute; sabemos?, &iquest;qu&eacute; nos falta?", <i>Revista Mexicana de Investigaci&oacute;n Educativa, </i>vol. V, n&uacute;m. 10, pp. 377&#150;386.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860812&pid=S0185-2698201100010000400013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Johnson, D. y H. Nissenbaum (1995), <i>Computer, Ethics, and Social Values, </i>Englewood Cliffs, NJ, Prentice&#150;Hall.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860814&pid=S0185-2698201100010000400014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Krippendorf, K. (1990), <i>Metodolog&iacute;a del an&aacute;lisis de contenido: teor&iacute;a y pr&aacute;ctica, </i>Barcelona, Paid&oacute;s.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860816&pid=S0185-2698201100010000400015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Laval, C. (2004), <i>La escuela no es una empresa. El ataque neoliberal a la ense&ntilde;anza p&uacute;blica, </i>Barcelona, Paid&oacute;s.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860818&pid=S0185-2698201100010000400016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Marchesi, A. y E. Mart&iacute;n (1998), <i>Calidad de la ense&ntilde;anza en tiempos de cambio, </i>Madrid, Alianza.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860820&pid=S0185-2698201100010000400017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">McAnally&#150;Salas, L. (2006), "Madurez paradigm&aacute;tica y algunas repercusiones en las instituciones de educaci&oacute;n superior", <i>Acci&oacute;n Educativa, </i>n&uacute;m. 6, pp. 27&#150;32, en: <a href="http://red&#8211;academica.net/mcanally/wp&#8211;content/uploads/2007/03/rae&#8211;06&#8211;mcanally.pdf" target="_blank">http://red&#150;academica.net/mcanally/wp&#150;content/uploads/2007/03/rae&#150;06&#150;mcanally.pdf</a> (consulta: 15 de diciembre de 2009).    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860822&pid=S0185-2698201100010000400018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Morgan, G. (1998), <i>Im&aacute;genes de la organizaci&oacute;n, </i>M&eacute;xico, Alfaomega.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860824&pid=S0185-2698201100010000400019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Neirotti, N. y D.R. Brown (2001), <i>La evaluaci&oacute;n de pol&iacute;ticas y programas en la regi&oacute;n del Caribe de habla inglesa: problemas conceptuales y pr&aacute;cticos, </i>Santiago de Chile, CEPAL.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860826&pid=S0185-2698201100010000400020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Nieto&#150;Caraveo, L.M. (2006), "El PIFI y la planeaci&oacute;n y evaluaci&oacute;n estrat&eacute;gicas en la UASLP", <i>Revista Universitarios Potosinos, </i>vol. 2, n&uacute;m. 2, pp. 56&#150;60, en: <a href="http://revista.uaslp.mx/Default.htm" target="_blank">http://revista.uaslp.mx/Default.htm</a> (consulta: 4 de enero de 2010).    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860828&pid=S0185-2698201100010000400021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">P&eacute;rez G&oacute;mez, A. (1998), <i>La cultura escolar en la sociedad neoliberal, </i>Madrid, Morata.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860830&pid=S0185-2698201100010000400022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Rep&uacute;blica Argentina, Ministerio de Educaci&oacute;n&#150;Direcci&oacute;n Nacional de Informaci&oacute;n y Evaluaci&oacute;n de la Calidad Educativa (2009), <i>Hacia una cultura de la evaluaci&oacute;n, </i>Buenos Aires, Ministerio de Educaci&oacute;n, en: <a href="http://www.oei.es/pdf2/hacia_una_cultura_evaluacion_argentina.pdf" target="_blank">http://www.oei.es/pdf2/hacia_una_cultura_evaluacion_argentina.pdf</a> (consulta: 10 de diciembre de 2009).    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860832&pid=S0185-2698201100010000400023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Rey, R. y J. Santa Mar&iacute;a (2000), <i>La educaci&oacute;n en un contrato de calidad, </i>Barcelona, Cisspraxis.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860834&pid=S0185-2698201100010000400024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Reyes, C.I. (2006), "La nueva cultura de la evaluaci&oacute;n en educaci&oacute;n superior", IV Congreso Internacional de Docencia Universitaria e Innovaci&oacute;n, Barcelona, 30 de junio, 1 y 2 de julio de 2010, en: <a href="http://www.epsevg.upc.edu/fdv/docs/doc74.pdf" target="_blank">http://www.epsevg.upc.edu/fdv/docs/doc74.pdf</a> (consulta: 7 de enero de 2010).    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860836&pid=S0185-2698201100010000400025&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Rutty, M.G. (2003), "La cultura de la evaluaci&oacute;n y las pr&aacute;cticas de evaluaci&oacute;n de impacto en capacitaci&oacute;n en la administraci&oacute;n p&uacute;blica y privada", Segundo Congreso Argentino de Administraci&oacute;n P&uacute;blica, Sociedad, Estado y Administraci&oacute;n, C&oacute;rdoba, Argentina, 27 al 29 de noviembre de 2003, en: <a href="http://www.aaeap.org.ar/ponencias/congreso2/Rutty_Maria.pdf" target="_blank">http://www.aaeap.org.ar/ponencias/congreso2/Rutty_Maria.pdf</a> (consulta: 3 de enero de 2010).    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860838&pid=S0185-2698201100010000400026&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Schein, E. (1992), <i>Organizational Culture and Leadership, </i>San Francisco, CA, Jossey&#150;Bass.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860840&pid=S0185-2698201100010000400027&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Stake, R. (1998), <i>Investigaci&oacute;n con estudio de casos, </i>Madrid, Morata.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860842&pid=S0185-2698201100010000400028&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Tirado, F. (2003), "La evaluaci&oacute;n en pol&eacute;mica", <i>Revista Educaci&oacute;n 2001, </i>n&uacute;m. 94, pp. 47&#150;50.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860844&pid=S0185-2698201100010000400029&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Tirado, F., A. Miranda y A. S&aacute;nchez (2007), "La evaluaci&oacute;n como proceso de legitimidad: la opini&oacute;n de los alumnos. Reporte de una experiencia", <i>Perfiles Educativos, </i>vol. XXIX, n&uacute;m. 118, pp. 7&#150;24.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860846&pid=S0185-2698201100010000400030&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Valenzuela, J.R. (2004), <i>Evaluaci&oacute;n de instituciones educativas, </i>M&eacute;xico, Trillas.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860848&pid=S0185-2698201100010000400031&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Vargas&#150;Porras, A.E. (2001), "La cultura evaluativa: su construcci&oacute;n desde la evaluaci&oacute;n docente", Congreso Internacional de Investigaci&oacute;n Educativa IIMEC&#150;INIE "25 a&ntilde;os en Pro de la Educaci&oacute;n", Costa Rica, en: <a href="http://www.inie.ucr.ac.cr/congreso/memoria/archivos/%20ponencias/aliciavargas.pdf" target="_blank">http://www.inie.ucr.ac.cr/congreso/memoria/archivos/ ponencias/aliciavargas.pdf</a> (consulta: 3 de enero de 2010).    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860850&pid=S0185-2698201100010000400032&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Yin, R.K. (2002), <i>Case Study Research, </i>Thousand Oaks, CA, Sage.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5860852&pid=S0185-2698201100010000400033&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b><a name="notas"></a>Notas</b></font></p>     <p align="justify"><font face="verdana" size="2"><sup>1 </sup>El art&iacute;culo que aqu&iacute; se presenta fue parte de un proyecto titulado: "Modelo sist&eacute;mico de evaluaci&oacute;n institucional para el mejoramiento de la calidad educativa", el cual fue financiado por el Fondo Mixto de Fomento a la Investigaci&oacute;n Cient&iacute;fica y Tecnol&oacute;gica del CONACyT y el Gobierno del Estado de Guanajuato. Los investigadores agradecen el apoyo brindado para el desarrollo de esta investigaci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2"><sup>2</sup> Para mayor informaci&oacute;n del modelo y del proyecto en general, v&eacute;ase: <a href="http://www.ruv.itesm.mx/convenio/modelo/homedoc.htm" target="_blank">http://www.ruv.itesm.mx/convenio/modelo/homedoc.htm</a></font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Aboites]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[La cultura de la evaluación en México y la evaluación de los académicos]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Rueda]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Landesmann]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<source><![CDATA[¿Hacia una nueva cultura de la evaluación de los académicos?]]></source>
<year>1999</year>
<volume>88</volume>
<page-range>34-55</page-range><publisher-name><![CDATA[UNAM-CESU]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bardín]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
</person-group>
<source><![CDATA[El análisis de contenido]]></source>
<year>2004</year>
<publisher-loc><![CDATA[Madrid ]]></publisher-loc>
<publisher-name><![CDATA[Akal]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bolseguí]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Fuguet]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Cultura de evaluación: una aproximación conceptual]]></article-title>
<source><![CDATA[Investigación y Postgrado]]></source>
<year>2006</year>
<volume>21</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>77-98</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bustelo]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The Potential Role of Standards and Guidelines in the Development of an Evaluation Culture in Spain]]></article-title>
<source><![CDATA[Evaluation]]></source>
<year>2006</year>
<numero>12</numero>
<issue>12</issue>
<page-range>437-453</page-range></nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cardozo]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[La institucionalización de una cultura de la evaluación en la administración pública mexicana: avances y desafíos pendientes]]></article-title>
<source><![CDATA[Convergencia]]></source>
<year>2009</year>
<volume>16</volume>
<numero>49</numero>
<issue>49</issue>
<page-range>175-198</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chiavenato]]></surname>
<given-names><![CDATA[I.]]></given-names>
</name>
</person-group>
<source><![CDATA[Comportamiento organizacional]]></source>
<year>2004</year>
<publisher-name><![CDATA[Thomson]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Conley]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[Glasman]]></surname>
<given-names><![CDATA[N.S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Fear, the School Organization, and Teacher Evaluation]]></article-title>
<source><![CDATA[Educational Policy]]></source>
<year>2008</year>
<volume>22</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>63-85</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Díaz Barriga]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Pacheco]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
</person-group>
<source><![CDATA[Evaluación y cambio institucional]]></source>
<year>2007</year>
<publisher-name><![CDATA[Paidós]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Dochy]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
<name>
<surname><![CDATA[Segers]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Dierick]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Nuevas vías de enseñanza y aprendizaje y sus consecuencias: una nueva era de la evaluación]]></article-title>
<source><![CDATA[Revista de Docencia Universitaria]]></source>
<year>2002</year>
<volume>2</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>13-30</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Elola]]></surname>
<given-names><![CDATA[N.]]></given-names>
</name>
<name>
<surname><![CDATA[Toranzos]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
</person-group>
<source><![CDATA[Evaluación educativa: una aproximación conceptual]]></source>
<year>2000</year>
</nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Gago]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<source><![CDATA[Apuntes acerca de la evaluación educativa, México, Secretaría de Educación Pública]]></source>
<year>2002</year>
</nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[House]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
</person-group>
<source><![CDATA[Evaluación, ética y poder]]></source>
<year>1994</year>
<publisher-loc><![CDATA[Madrid ]]></publisher-loc>
<publisher-name><![CDATA[Morata]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ibarra]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Claroscuros de la evaluación de los académicos: ¿qué sabemos?, ¿qué nos falta?]]></article-title>
<source><![CDATA[Revista Mexicana de Investigación Educativa]]></source>
<year>2000</year>
<volume>V</volume>
<numero>10</numero>
<issue>10</issue>
<page-range>377-386</page-range></nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Johnson]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[Nissenbaum]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
</person-group>
<source><![CDATA[Computer, Ethics, and Social Values]]></source>
<year>1995</year>
<publisher-loc><![CDATA[Englewood Cliffs^eNJ NJ]]></publisher-loc>
<publisher-name><![CDATA[Prentice-Hall]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Krippendorf]]></surname>
<given-names><![CDATA[K.]]></given-names>
</name>
</person-group>
<source><![CDATA[Metodología del análisis de contenido: teoría y práctica]]></source>
<year>1990</year>
<publisher-loc><![CDATA[Barcelona ]]></publisher-loc>
<publisher-name><![CDATA[Paidós]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Laval]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
</person-group>
<source><![CDATA[La escuela no es una empresa. El ataque neoliberal a la enseñanza pública]]></source>
<year>2004</year>
<publisher-loc><![CDATA[Barcelona ]]></publisher-loc>
<publisher-name><![CDATA[Paidós]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Marchesi]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Martín]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
</person-group>
<source><![CDATA[Calidad de la enseñanza en tiempos de cambio]]></source>
<year>1998</year>
<publisher-loc><![CDATA[Madrid ]]></publisher-loc>
<publisher-name><![CDATA[Alianza]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[McAnally-Salas]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[paradigmática y algunas repercusiones en las instituciones de educación superior]]></article-title>
<source><![CDATA[Acción Educativa]]></source>
<year>2006</year>
<numero>6</numero>
<issue>6</issue>
<page-range>27-32</page-range></nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Morgan]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<source><![CDATA[Imágenes de la organización]]></source>
<year>1998</year>
<publisher-name><![CDATA[Alfaomega]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Neirotti]]></surname>
<given-names><![CDATA[N.]]></given-names>
</name>
<name>
<surname><![CDATA[Brown]]></surname>
<given-names><![CDATA[D.R.]]></given-names>
</name>
</person-group>
<source><![CDATA[La evaluación de políticas y programas en la región del Caribe de habla inglesa: problemas conceptuales y prácticos]]></source>
<year>2001</year>
<publisher-loc><![CDATA[Santiago de Chile ]]></publisher-loc>
<publisher-name><![CDATA[CEPAL]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Nieto-Caraveo]]></surname>
<given-names><![CDATA[L.M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[El PIFI y la planeación y evaluación estratégicas en la UASLP]]></article-title>
<source><![CDATA[Revista Universitarios Potosinos]]></source>
<year>2006</year>
<volume>2</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>56-60</page-range></nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Pérez Gómez]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<source><![CDATA[La cultura escolar en la sociedad neoliberal]]></source>
<year>1998</year>
<publisher-loc><![CDATA[Madrid ]]></publisher-loc>
<publisher-name><![CDATA[Morata]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="">
<collab>República Argentina^dMinisterio de Educación-Dirección Nacional de Información y Evaluación de la Calidad Educativa</collab>
<source><![CDATA[Hacia una cultura de la evaluación, Buenos Aires, Ministerio de Educación]]></source>
<year>2009</year>
</nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rey]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Santa María]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<source><![CDATA[La educación en un contrato de calidad]]></source>
<year>2000</year>
<publisher-loc><![CDATA[Barcelona ]]></publisher-loc>
<publisher-name><![CDATA[Cisspraxis]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B25">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Reyes]]></surname>
<given-names><![CDATA[C.I.]]></given-names>
</name>
</person-group>
<source><![CDATA[La nueva cultura de la evaluación en educación superior]]></source>
<year>2006</year>
<conf-name><![CDATA[IV Congreso Internacional de Docencia Universitaria e Innovación, Barcelona]]></conf-name>
<conf-date>30 de junio, 1 y 2 de julio de 2010</conf-date>
<conf-loc> </conf-loc>
</nlm-citation>
</ref>
<ref id="B26">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rutty]]></surname>
<given-names><![CDATA[M.G.]]></given-names>
</name>
</person-group>
<source><![CDATA[cultura de la evaluación y las prácticas de evaluación de impacto en capacitación en la administración pública y privada]]></source>
<year>2003</year>
<conf-name><![CDATA[Segundo Congreso Argentino de Administración Pública, Sociedad, Estado y Administración]]></conf-name>
<conf-date>27 al 29 de noviembre de 2003</conf-date>
<conf-loc>Córdoba </conf-loc>
</nlm-citation>
</ref>
<ref id="B27">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Schein]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
</person-group>
<source><![CDATA[Organizational Culture and Leadership]]></source>
<year>1992</year>
<publisher-loc><![CDATA[San Francisco^eCA CA]]></publisher-loc>
<publisher-name><![CDATA[Jossey-Bass]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B28">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Stake]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<source><![CDATA[Investigación con estudio de casos]]></source>
<year>1998</year>
<publisher-loc><![CDATA[Madrid ]]></publisher-loc>
<publisher-name><![CDATA[Morata]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B29">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Tirado]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[La evaluación en polémica]]></article-title>
<source><![CDATA[Revista Educación]]></source>
<year>2003</year>
<month>20</month>
<day>01</day>
<numero>94</numero>
<issue>94</issue>
<page-range>47-50</page-range></nlm-citation>
</ref>
<ref id="B30">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Tirado]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
<name>
<surname><![CDATA[Miranda]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Sánchez]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[La evaluación como proceso de legitimidad: la opinión de los alumnos. Reporte de una experiencia]]></article-title>
<source><![CDATA[Perfiles Educativos]]></source>
<year>2007</year>
<volume>XXIX</volume>
<numero>118</numero>
<issue>118</issue>
<page-range>7-24</page-range></nlm-citation>
</ref>
<ref id="B31">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Valenzuela]]></surname>
<given-names><![CDATA[J.R.]]></given-names>
</name>
</person-group>
<source><![CDATA[Evaluación de instituciones educativas]]></source>
<year>2004</year>
<publisher-name><![CDATA[Trillas]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B32">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Vargas-Porras]]></surname>
<given-names><![CDATA[A.E.]]></given-names>
</name>
</person-group>
<source><![CDATA[La cultura evaluativa: su construcción desde la evaluación docente]]></source>
<year>2001</year>
<conf-name><![CDATA[ Congreso Internacional de Investigación Educativa]]></conf-name>
<conf-loc> </conf-loc>
<publisher-loc><![CDATA[Costa Rica ]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B33">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Yin]]></surname>
<given-names><![CDATA[R.K.]]></given-names>
</name>
</person-group>
<source><![CDATA[Case Study Research]]></source>
<year>2002</year>
<publisher-loc><![CDATA[Thousand Oaks^eCA CA]]></publisher-loc>
<publisher-name><![CDATA[Sage]]></publisher-name>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
