<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>1607-4041</journal-id>
<journal-title><![CDATA[Revista electrónica de investigación educativa]]></journal-title>
<abbrev-journal-title><![CDATA[REDIE]]></abbrev-journal-title>
<issn>1607-4041</issn>
<publisher>
<publisher-name><![CDATA[Universidad Autónoma de Baja California, Instituto de Investigación y Desarrollo Educativo]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S1607-40412008000300007</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Los cuestionarios de evaluación de la docencia por los alumnos: balance y perspectivas de su agenda]]></article-title>
<article-title xml:lang="en"><![CDATA[Students' Evaluations of University Teaching: Balance and Perspectives of their Agenda]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Luna Serrano]]></surname>
<given-names><![CDATA[Edna]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Torquemada]]></surname>
<given-names><![CDATA[Alma Delia]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Autónoma de Baja California Instituto de Investigación y Desarrollo Educativo ]]></institution>
<addr-line><![CDATA[Ensenada Baja California]]></addr-line>
<country>México</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Autónoma del Estado de Hidalgo Centro de Investigaciones en Ciencias Sociales ]]></institution>
<addr-line><![CDATA[Pachuca de Soto Hidalgo]]></addr-line>
<country>México</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>00</month>
<year>2008</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>00</month>
<year>2008</year>
</pub-date>
<volume>10</volume>
<numero>spe</numero>
<fpage>1</fpage>
<lpage>15</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_arttext&amp;pid=S1607-40412008000300007&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_abstract&amp;pid=S1607-40412008000300007&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_pdf&amp;pid=S1607-40412008000300007&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Este trabajo tiene el propósito de examinar, de manera crítica, los hallazgos de la literatura en relación con la aplicación y uso de los cuestionarios de evaluación de los estudiantes sobre la efectividad de la enseñanza, con el fin de orientar su utilización en el marco de un sistema que posibilite la mejora de la docencia universitaria. Consta de seis apartados. El contexto de la discusión; evaluación de la eficacia docente; aspectos metodológicos: confiabilidad y validez; el uso de los cuestionarios y mejora de la eficacia docente. Concluye a favor de utilizar los cuestionarios como una fuente de información del sistema con requisitos de uso y administración derivados de la investigación y experiencia práctica, y de establecer el vínculo entre los resultados de la evaluación docente y el diseño de modalidades de formación docente.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[This work has the purpose of critically evaluate the findings of literature in relation to the administration and use of the teacher's evaluation instruments in which the students can qualify the efficiency of teaching. The discussion may help orient the use of this kind of instruments within the frame of an evaluation system to improve teaching at college level. The work includes six sections: the discussion context; evaluation of teacher's efficacy; methodological aspects, i.e, reliability and validity; the use of instruments and the improvement of teacher's efficacy. It is concluded that evaluative instruments are useful as a system's information source with use and administration requirements derived from research findings as well as empirical data. Also, establishing the link between evaluation results and the design of new modalities of teacher's formation is discussed.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Evaluación del docente]]></kwd>
<kwd lng="es"><![CDATA[método de evaluación]]></kwd>
<kwd lng="es"><![CDATA[personal académico docente]]></kwd>
<kwd lng="en"><![CDATA[Teaching evaluation]]></kwd>
<kwd lng="en"><![CDATA[evaluation methods]]></kwd>
<kwd lng="en"><![CDATA[college faculty]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="justify"><font face="verdana" size="4">Art&iacute;culos arbitrados</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="center"><font face="verdana" size="4"><b>Los cuestionarios de evaluaci&oacute;n de la </b><b>docencia por los alumnos: balance y perspectivas de su agenda<sup><a href="#agradecimientos">1</a></sup></b></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="center"><font face="verdana" size="3"><b>Students' Evaluations of University Teaching: Balance and Perspectives of their Agenda<sup><a href="#agradecimientos">2</a></sup></b></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="center"><font face="verdana" size="2"><b>Edna Luna Serrano<sup>1</sup> y Alma Delia Torquemada<sup>2</sup></b></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><sup>1</sup> <i>Instituto de Investigaci&oacute;n y Desarrollo Educativo. Universidad Aut&oacute;noma de Baja California. Carretera Tijuana&#150;Ensenada km 103, 22890 Ensenada, Baja California, M&eacute;xico</i><i>.</i> E&#150;mail: <a href="mailto:eluna@uabc.mx">eluna@uabc.mx</a></font></p>     <p align="justify"><font face="verdana" size="2"><sup>2</sup> <i>Centro de Investigaciones en Ciencias Sociales. Universidad Aut&oacute;noma del Estado de Hidalgo. Carretera Pachuca&#150;Actopan km 4, 42160 Pachuca de Soto, Hidalgo, M&eacute;xico</i><i>.</i> E&#150;mail: <a href="mailto:almatorquemada@yahoo.com.mx">almatorquemada@yahoo.com.mx</a></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2">Recibido: 13 de agosto de 2008    <br>   Aceptado para su publicaci&oacute;n: 10 de septiembre de 2008</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Resumen</b></font></p>     <p align="justify"><font face="verdana" size="2">Este trabajo tiene el prop&oacute;sito de examinar, de manera cr&iacute;tica, los hallazgos de la literatura en relaci&oacute;n con la aplicaci&oacute;n y uso de los cuestionarios de evaluaci&oacute;n de los estudiantes sobre la efectividad de la ense&ntilde;anza, con el fin de orientar su utilizaci&oacute;n en el marco de un sistema que posibilite la mejora de la docencia universitaria. Consta de seis apartados. El contexto de la discusi&oacute;n; evaluaci&oacute;n de la eficacia docente; aspectos metodol&oacute;gicos: confiabilidad y validez; el uso de los cuestionarios y mejora de la eficacia docente. Concluye a favor de utilizar los cuestionarios como una fuente de informaci&oacute;n del sistema con requisitos de uso y administraci&oacute;n derivados de la investigaci&oacute;n y experiencia pr&aacute;ctica, y de establecer el v&iacute;nculo entre los resultados de la evaluaci&oacute;n docente y el dise&ntilde;o de modalidades de formaci&oacute;n docente.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Palabras clave: </b>Evaluaci&oacute;n del docente; m&eacute;todo de evaluaci&oacute;n; personal acad&eacute;mico docente.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Abstract</b></font></p>     <p align="justify"><font face="verdana" size="2">This work has the purpose of critically evaluate the findings of literature in relation to the administration and use of the teacher's evaluation instruments in which the students can qualify the efficiency of teaching. The discussion may help orient the use of this kind of instruments within the frame of an evaluation system to improve teaching at college level. The work includes six sections: the discussion context; evaluation of teacher's efficacy; methodological aspects, i.e, reliability and validity; the use of instruments and the improvement of teacher's efficacy. It is concluded that evaluative instruments are useful as a system's information source with use and administration requirements derived from research findings as well as empirical data. Also, establishing the link between evaluation results and the design of new modalities of teacher's formation is discussed.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>Key words: </b>Teaching evaluation, evaluation methods, college faculty.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Introducci&oacute;n</b></font></p>     <p align="justify"><font face="verdana" size="2">Un acuerdo generalizado en la universidad, es que los docentes tienen un papel determinante en la mejora de la calidad de la ense&ntilde;anza. En el mismo sentido, se reconoce la necesidad de desarrollar sistemas de evaluaci&oacute;n del desempe&ntilde;o del profesor que contribuyan a su profesionalizaci&oacute;n y, con ello, a la mejora de la formaci&oacute;n profesional.</font></p>     <p align="justify"><font face="verdana" size="2">En M&eacute;xico como en otros pa&iacute;ses, la evaluaci&oacute;n de la docencia se realiza en respuesta a las demandas sociales hechas por diferentes audiencias con necesidades heterog&eacute;neas de evaluaci&oacute;n. Hasta finales de la d&eacute;cada de los ochenta, la evaluaci&oacute;n docente se condujo principalmente por los requerimientos institucionales de informaci&oacute;n sobre la calidad de la ense&ntilde;anza y para retroalimentar las estrategias de formaci&oacute;n docente (Arias, 1984; Luna, 2002). A partir de 1990, con la implementaci&oacute;n generalizada de los programas de compensaci&oacute;n salarial, la evaluaci&oacute;n de la docencia se sistematiz&oacute; como uno de los indicadores integrados a estos programas, con lo que se atendi&oacute; principalmente los requerimientos de control administrativo (Canales y Gilio, en prensa). En la actualidad, es factible ubicar diversas peticiones: las de docentes y estudiantes sobre sistemas justos y pertinentes vinculados a la mejora de la ense&ntilde;anza; las de autoridades para la toma de decisiones administrativas, asignaci&oacute;n de cursos, promociones y est&iacute;mulos econ&oacute;micos; y las gubernamentales de rendici&oacute;n de cuentas sobre la calidad de la docencia (Luna, 2004; SEP, 2007).</font></p>     <p align="justify"><font face="verdana" size="2">La evaluaci&oacute;n docente con base en los puntajes de opini&oacute;n de los estudiantes, es la estrategia de evaluaci&oacute;n m&aacute;s utilizada en Norteam&eacute;rica, Europa y Asia, y al mismo tiempo es la m&aacute;s estudiada (Theall y Franklin, 2000; Seldin, 1993). No obstante, en la actualidad se acumulan evidencias sobre el mal uso de los puntajes de los estudiantes, lo que da cuenta del d&eacute;ficit en las buenas pr&aacute;cticas y la persistente disparidad entre los hallazgos de la investigaci&oacute;n y los procedimientos implementados en las instituciones. En este contexto de utilizaci&oacute;n generalizada de los cuestionarios, se presentan varias situaciones parad&oacute;jicas: su aplicaci&oacute;n no atiende los aspectos b&aacute;sicos que la literatura se&ntilde;ala como fundamentales para validar su empleo; los docentes manifiestan una creciente incomodidad por su uso, en la toma de decisiones administrativas; y se sobreestima o minimiza su utilidad.</font></p>     <p align="justify"><font face="verdana" size="2">Este documento tiene el prop&oacute;sito de examinar de manera cr&iacute;tica, los hallazgos en la literatura relacionados con la aplicaci&oacute;n y uso de los cuestionarios de evaluaci&oacute;n de los estudiantes sobre la efectividad de la ense&ntilde;anza, para orientar su utilizaci&oacute;n en el marco de un sistema que posibilite la mejora de la docencia universitaria.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>I. El contexto de la discusi&oacute;n</b></font></p>     <p align="justify"><font face="verdana" size="2">En el marco de la evaluaci&oacute;n educativa, se ubica la discusi&oacute;n sobre los cuestionarios de evaluaci&oacute;n de la docencia por los estudiantes; los principios generales que gu&iacute;an su dise&ntilde;o, aplicaci&oacute;n y uso son los de este &aacute;mbito del conocimiento, en particular los relativos a la evaluaci&oacute;n de la docencia. Un requisito fundamental para los procesos de evaluaci&oacute;n de la docencia, es que los resultados sean considerados dignos de cr&eacute;dito por los docentes, los estudiantes, los administradores y por la comunidad en general. De acuerdo con House (1998), la credibilidad de las conclusiones de la evaluaci&oacute;n se basa en la utilizaci&oacute;n de una metodolog&iacute;a cient&iacute;fica que asegure la confiabilidad y validez de los procesos y la independencia pol&iacute;tica y el profesionalismo de los evaluadores. La evaluaci&oacute;n requiere ser considerada tambi&eacute;n equitativa: los involucrados (docentes, estudiantes y administradores) esperan percibir que los programas de evaluaci&oacute;n reflejan sus intereses y puntos de vista (Good, 1996). Asimismo, se demanda que los sistemas de evaluaci&oacute;n de la docencia sean congruentes con la filosof&iacute;a institucional para apoyar el logro de su misi&oacute;n (McLaughlin y Pfeifer, 1988).</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Actualmente, la evaluaci&oacute;n de la docencia con base en los cuestionarios de opini&oacute;n de los estudiantes, es reconocida como la estrategia de evaluaci&oacute;n con mayor conocimiento conceptual y emp&iacute;rico acumulado en el contexto universitario (McKeachie, 1996). Los principales prop&oacute;sitos asociados a su utilizaci&oacute;n se relacionan con medidas de la efectividad de la ense&ntilde;anza en la toma de decisiones administrativas, con el diagn&oacute;stico y retroalimentaci&oacute;n de los maestros para mejorar el proceso de instrucci&oacute;n, y con la investigaci&oacute;n sobre la ense&ntilde;anza (Marsh y Dunkin, 1997). Por ello, se considera que los puntajes son &uacute;tiles para los docentes, los estudiantes y los administradores.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Evaluaci&oacute;n de la eficacia docente</b></font></p>     <p align="justify"><font face="verdana" size="2">La b&uacute;squeda de respuestas sobre la ense&ntilde;anza efectiva ha generado la existencia de tres perspectivas de investigaci&oacute;n: la que se concentra en los productos de la ense&ntilde;anza; la relacionada con los procesos que realiza el profesor; y la que establece la relaci&oacute;n entre procesos y productos, a fin de indagar los v&iacute;nculos entre lo que los profesores hacen y c&oacute;mo cambian los estudiantes (Abrami, d'Apollonia y Rosenfield, 1997). En general, los cuestionarios de evaluaci&oacute;n de la docencia por los estudiantes se alinean a una de las tres aproximaciones.</font></p>     <p align="justify"><font face="verdana" size="2">Los puntajes son una medida directa de un producto de la actividad docente, denominada satisfacci&oacute;n de los estudiantes con la ense&ntilde;anza. Para muchos, medir la satisfacci&oacute;n de los estudiantes respecto a la docencia es raz&oacute;n suficiente para utilizar los cuestionarios. Por otro lado, los puntajes de los estudiantes no ofrecen una medida directa de productos valiosos de la ense&ntilde;anza como pueden ser los aprendizajes, expectativas, creencias, actitudes, valores e inter&eacute;s hacia el objeto de estudio de los estudiantes. De manera general, los cuestionarios se utilizan como una medida indirecta de la mayor&iacute;a de los productos de la ense&ntilde;anza, porque proveen un criterio b&aacute;sico en los juicios que infieren la medida en que el docente afecta la ense&ntilde;anza. Lo anterior no justifica las malas pr&aacute;cticas caracterizadas por utilizar los cuestionarios como instrumentos para cubrir todos los &aacute;ngulos de una actividad tan compleja como la docencia (Rueda, Elizalde y Torquemada, 2003).</font></p>     <p align="justify"><font face="verdana" size="2">Los cuestionarios pioneros se dise&ntilde;aron con base en los componentes que los expertos consideraron los m&aacute;s importantes para la ense&ntilde;anza, susceptibles a la observaci&oacute;n y juicio de los estudiantes. De esta manera, se elabor&oacute; el cuestionario tradicional de Remmers y otros instrumentos (Centra, 1993). En la actualidad, la teor&iacute;a cl&aacute;sica sobre el desarrollo de cuestionarios de evaluaci&oacute;n por los alumnos propone combinar tres estrategias:</font></p>     <blockquote>       <p align="justify"><font face="verdana" size="2">&bull; Deducir los reactivos de un an&aacute;lisis l&oacute;gico de los componentes de la efectividad docente, tomando en cuenta la retroalimentaci&oacute;n de los profesores y estudiantes, as&iacute; como los prop&oacute;sitos de la evaluaci&oacute;n.</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Realizar an&aacute;lisis emp&iacute;ricos mediante el empleo de t&eacute;cnicas estad&iacute;sticas como an&aacute;lisis factorial, dise&ntilde;os multirrasgo&#150;multim&eacute;todo y modelamiento de ecuaciones estructurales.</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Fundamentar  los   instrumentos  de  evaluaci&oacute;n  en   una  teor&iacute;a  de  la ense&ntilde;anza y aprendizaje (Marsh y Dunkin, 1997).</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">Se reconoce que la mayor&iacute;a de los cuestionarios desarrollados y publicados, atendieron los primeros dos aspectos e ignoraron elementos centrales de la teor&iacute;a del aprendizaje que les subyace (Luna, 2000).</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En los cuestionarios, la ense&ntilde;anza se asume como una actividad compleja y multidimensional; por lo general, los agrupamientos de reactivos proceden de los an&aacute;lisis factoriales a los que fueron sometidos los instrumentos, y reflejan las diferentes dimensiones de la efectividad de la ense&ntilde;anza, a juicio de los estudiantes. Por ello, a pesar de que no existe consenso sobre las caracter&iacute;sticas de un docente de calidad, el estudio de las dimensiones relacionadas con la efectividad docente, las identifica y clasifica de acuerdo con su importancia para el aprendizaje. As&iacute;, se ubican como las m&aacute;s importantes: claridad y entendimiento; estimulaci&oacute;n del inter&eacute;s por la materia; preparaci&oacute;n y organizaci&oacute;n del curso; logro de los objetivos planteados; y motivaci&oacute;n a los estudiantes para tener alto rendimiento (Feldman, 1997). El supuesto com&uacute;nmente aceptado es que estas dimensiones y los reactivos que las incluyen, forman parte de las habilidades gen&eacute;ricas que todo docente debe presentar.</font></p>     <p align="justify"><font face="verdana" size="2">Quienes critican el tipo de ense&ntilde;a que la mayor&iacute;a de los cuestionarios promueven de manera impl&iacute;cita, por lo general aducen dos argumentos. Por un lado, que &eacute;stos fomentan una pedagog&iacute;a conservadora sustentada en el modelo de transmisi&oacute;n del conocimiento, ya que en la &eacute;poca en la que fueron desarrollados, las clases tradicionales eran la norma. Por otro lado, la necesidad de incorporar los cambios contextuales propios de cada situaci&oacute;n educativa, por ejemplo, las nuevas pr&aacute;cticas instruccionales derivadas de los planes de estudio por competencias, aprendizaje colaborativo y la educaci&oacute;n a distancia (Centra, 1993; Theall y Franklin, 2000). Por ello, desde principios de los a&ntilde;os noventa se habla de las limitaciones de incluir &uacute;nicamente las dimensiones asociadas a la efectividad docente en los cuestionarios y de la necesidad de incorporar las particularidades del contexto pedag&oacute;gico, como una manera de considerar y responder a la filosof&iacute;a y misi&oacute;n de la instituci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">Alejados de la tradici&oacute;n metodol&oacute;gica del campo, en M&eacute;xico muchos de los cuestionarios actualmente en uso, carecen de rigor metodol&oacute;gico en su elaboraci&oacute;n. Omiten los componentes validados por la literatura con las consecuentes desventajas, el alejamiento del prop&oacute;sito central de origen: identificar a los profesores que presentan los elementos asociados a la ense&ntilde;anza efectiva y al aprendizaje, as&iacute; como a quienes carecen de ellos. Adem&aacute;s, los administradores agregan reactivos con un marcado inter&eacute;s de control   administrativo   o   determinados   por   las   exigencias   de   programas especiales de compensaci&oacute;n salarial. As&iacute;, un elemento cr&iacute;tico a considerar, es la calidad t&eacute;cnica del dise&ntilde;o del cuestionario que asegure su confiabilidad, validez y utilidad.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>II. Aspectos metodol&oacute;gicos b&aacute;sicos: confiabilidad y validez</b></font></p>     <p align="justify"><font face="verdana" size="2">La utilidad pr&aacute;ctica y te&oacute;rica de los cuestionarios, depende del cumplimiento de los est&aacute;ndares psicom&eacute;tricos de dise&ntilde;o y aplicaci&oacute;n del instrumento. En las d&eacute;cadas de los ochenta y noventa, la investigaci&oacute;n se orient&oacute; a estudiar la confiabilidad y validez de los cuestionarios como una medida de la efectividad docente; se demostr&oacute; que los puntajes son confiables, estables y relativamente v&aacute;lidos en trav&eacute;s de diferentes escenarios educativos (Marsh, 1987; Abrami, d'Apollonia y Cohen, 1990). Cabe hacer notar que no es un tema vigente en las publicaciones especializadas recientes.</font></p>     <p align="justify"><font face="verdana" size="2">Tradicionalmente, confiabilidad y validez son conceptos opuestos de un continuo de generalizaci&oacute;n. As&iacute;, confiabilidad refiere la generalizaci&oacute;n de los puntajes y representa el mismo constructo colectado bajo situaciones similares; validez significa la generalizaci&oacute;n de los puntajes con diferentes constructos que se hipotetiza est&aacute;n relacionados, por ejemplo, puntajes y aprendizaje de los estudiantes (Marsh y Dunkin, 1997). Los an&aacute;lisis emp&iacute;ricos tienen el prop&oacute;sito de determinar la confiabilidad de los resultados y la validez de las interpretaciones hechas sobre la base de las evaluaciones de los estudiantes.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Confiabilidad</b></font></p>     <p align="justify"><font face="verdana" size="2">Las dos medidas de confiabilidad m&aacute;s utilizadas son la consistencia de la medida, considerada como el acuerdo relativo entre los estudiantes en una clase o curso, y la estabilidad de los puntajes a trav&eacute;s del tiempo, tomada como el acuerdo entre los estudiantes en relaci&oacute;n con un mismo instructor, con el mismo instrumento en diferentes momentos (Braskamp y Ory, 1994).</font></p>     <p align="justify"><font face="verdana" size="2">En el medio acad&eacute;mico persiste una serie de cuestionamientos sobre la confiabilidad de las evaluaciones de los estudiantes referentes a la efectividad de la ense&ntilde;anza. Sin embargo, muchos de ellos carecen de referentes de investigaci&oacute;n que los sustenten. Entre los m&aacute;s comunes se encuentran los que debaten a los estudiantes como jueces fiables; aducen, por ejemplo, que los estudiantes no pueden hacer juicios sobre la ense&ntilde;anza o el docente debido a su inmadurez, o que los estudiantes no son capaces de reconocer la ense&ntilde;anza efectiva hasta despu&eacute;s de haber demostrado dominio de la materia o haber egresado. En cuanto a los hallazgos de investigaci&oacute;n, se muestra de manera consistente que la opini&oacute;n de los estudiantes no se modifica pasados varios a&ntilde;os, incluso despu&eacute;s de haber egresado (Overall y Marsh 1980; Marsh, 2007). No obstante, la pol&eacute;mica ha derivado en la aceptaci&oacute;n de que en algunos rubros de la competencia docente los estudiantes no son los mejores jueces, como es el caso de opinar sobre la pertinencia de la bibliograf&iacute;a, donde los colegas cuentan con mayores elementos para emitir una valoraci&oacute;n (Luna y Rueda, 2001).</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Los estudios que investigan la correlaci&oacute;n entre los puntajes y los efectos del docente en una asignatura en particular, tienen como fin conocer en qu&eacute; medida los puntajes de un docente se correlacionan en dos diferentes cursos, o conocer la correlaci&oacute;n entre los puntajes de una asignatura ense&ntilde;ada por diferentes profesores en dos ocasiones diferentes. La conclusi&oacute;n es que los puntajes reflejan principalmente la efectividad del instructor m&aacute;s que la influencia del curso, y que las evaluaciones de los estudiantes est&aacute;n en funci&oacute;n del profesor que ense&ntilde;a y no del curso que se eval&uacute;a (Gilmore, Kane y Naccarato, 1978; Marsh, 1981). Estos resultados apoyan la confiabilidad de las evaluaciones de los estudiantes, y al mismo tiempo, fundamentan la sugerencia de que los puntajes dados a un docente deben ser promediados para incrementar la generalizaci&oacute;n. Por ello, las decisiones de tipo administrativo deben estar basadas en un n&uacute;mero adecuado de cursos diferentes, por lo menos cinco series de dos cursos distintos (Marsh y Dunkin 1997).</font></p>     <p align="justify"><font face="verdana" size="2"><b>Estabilidad</b></font></p>     <p align="justify"><font face="verdana" size="2">Las dos aproximaciones m&aacute;s comunes en los estudios de estabilidad y cambios en las evaluaciones de los estudiantes revisan lo estable de los promedios de los puntajes a trav&eacute;s del tiempo y la persistencia de las diferencias individuales. Uno de los trabajos m&aacute;s comprehensivos, es el de Marsh (2007), que estudi&oacute; a 195 docentes evaluados de manera continua durante un periodo de 13 a&ntilde;os (6,024 cursos, 30.9 asignaturas por docente). Encontr&oacute; estabilidad de los puntajes en el tiempo, tanto en cursos de licenciatura como posgrado, en docentes noveles, y en quienes difieren sustancialmente en relaci&oacute;n con su efectividad docente. Asimismo, las diferencias individuales fueron altamente estables a trav&eacute;s del tiempo. Estos resultados refutan de manera contundente a los programas que asumen que la retroalimentaci&oacute;n derivada de los puntajes es suficiente para mejorar la ense&ntilde;anza.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Validez</b></font></p>     <p align="justify"><font face="verdana" size="2">Los estudios de validez aportan evidencias que justifican las inferencias realizadas con base en los resultados de un instrumento (Pedhazur, 1991). La validez de los puntajes otorgados por los estudiantes al profesor se estudia desde dos perspectivas: como una medida que muestra la opini&oacute;n de los estudiantes acerca de la calidad de la instrucci&oacute;n, y como una forma adecuada de reflejar la efectividad de la ense&ntilde;anza (Abrami, d'Apollonia y Cohen, 1990).</font></p>     <p align="justify"><font face="verdana" size="2">En la consideraci&oacute;n de que la ense&ntilde;anza efectiva es un constructo hipot&eacute;tico dif&iacute;cil de validar por la imposibilidad de utilizar un criterio &uacute;nico, los estudios de validez de los puntajes de los estudiantes se realizan desde la aproximaci&oacute;n de validaci&oacute;n de constructo (Marsh y Roche, 1997; Marsh y Dunkin, 1997). En estos, la tendencia es relacionar los puntajes de los estudiantes con diferentes indicadores como una manera de aportar evidencias de validez. El indicador por excelencia para inferir la efectividad de la ense&ntilde;anza es el aprendizaje de los estudiantes, sin embargo, tiene la enorme dificultad que representa la gran cantidad de factores externos al maestro que intervienen en los procesos de ense&ntilde;anza y aprendizaje.</font></p>     <p align="justify"><font face="verdana" size="2">Los estudios de validez a trav&eacute;s de cursos simult&aacute;neos, tienen como fin establecer la relaci&oacute;n entre el aprendizaje de los estudiantes y los puntajes obtenidos por el profesor; una conclusi&oacute;n a la que se lleg&oacute; es que las dimensiones correlacionan de manera diferenciada (Cohen, 1987). Feldman (1997), con base en 32 estudios producidos entre 1949 y 1989, concluye que los coeficientes de correlaci&oacute;n m&aacute;s altos se encuentran en: preparaci&oacute;n y organizaci&oacute;n del curso, .57; claridad en la instrucci&oacute;n, .56; logro de los objetivos planteados, .49; percepci&oacute;n de los resultados de la instrucci&oacute;n por parte del alumno, .46; estimulaci&oacute;n del inter&eacute;s por la materia, .38; y motivaci&oacute;n a los estudiantes para tener alto rendimiento, .38.</font></p>     <p align="justify"><font face="verdana" size="2">En el tenor de acumular evidencias de validez, otras fuentes con relaciones significativas y consistentes con los puntajes, son las auto&#150;evaluaciones de los docentes (Feldman, 1989) y los registros hechos por observadores externos (Murray, 1983). Una conclusi&oacute;n generalizada en el &aacute;mbito de la investigaci&oacute;n sobre los cuestionarios, es que se cuenta con las evidencias de validez necesarias para justificar su utilizaci&oacute;n, sin embargo no son suficientes, por ello, es deseable que la investigaci&oacute;n futura ampl&iacute;e el rango de criterios de validez.</font></p>     <p align="justify"><font face="verdana" size="2">En los estudios de validez, es de especial relevancia investigar el impacto de los factores independientes al docente que afectan la evaluaci&oacute;n de los estudiantes al profesor. Aunque al presente no existe consenso acerca de la definici&oacute;n de sesgo en los puntajes, Feldman (1997) los define como uno o m&aacute;s factores que directamente e inapropiadamente influyen en el juicio de los estudiantes sobre la evaluaci&oacute;n de un curso.</font></p>     <p align="justify"><font face="verdana" size="2">Las caracter&iacute;sticas inherentes a una asignatura y situaciones contextuales ajenas al docente con las cuales se identifican efectos moderados de sesgo son: el tama&ntilde;o del grupo (Cashin y Sixbury, 1993); la dificultad del curso (Cashin, 1988); el inter&eacute;s por la materia (Marsh, 1987); y las expectativas de calificaci&oacute;n (Howard y Maxwell, 1982). Estos resultados sugieren que es inconveniente realizar comparaciones entre todos los profesores, pero es perienete entre quienes comparten condiciones similares, por ejemplo igual tama&ntilde;o de grupo &#150;peque&ntilde;o 1 a 14 alumnos; mediano 15 a 34; grande 35 en adelante (Cashin y Sixbury, 1993)&#150; y motivaci&oacute;n de los estudiantes.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>El uso de los cuestionarios</b></font></p>     <p align="justify"><font face="verdana" size="2">La literatura sobre la evaluaci&oacute;n de la ense&ntilde;anza por los estudiantes en la d&eacute;cada de los noventa, alert&oacute; sobre los problemas de uso ligados al cuestionario estudiantil (Poissant, 2004).    Los an&aacute;lisis de las pr&aacute;cticas de evaluaci&oacute;n en pa&iacute;ses como Estados Unidos, Canad&aacute; y M&eacute;xico concluyen que por lo general se privilegian los prop&oacute;sitos administrativos sobre los de mejoramiento de la actividad (Saroyan, 2003; Luna, 2002). As&iacute;, el examen del funcionamiento de los sistemas indica que con un mismo procedimiento se argumenta lograr prop&oacute;sitos de control y de mejoramiento, con un discurso donde prevalecen los fines de mejora de la calidad docente sobre los de control (Luna, 2002). La realidad demuestra que la evaluaci&oacute;n orientada al control se concibe como &uacute;til para el mejor funcionamiento institucional, sin embargo, no implica que ayude al desarrollo profesional individual. Al mismo tiempo, se requiere tener presente que los prop&oacute;sitos de la evaluaci&oacute;n afectan los m&eacute;todos.</font></p>     <p align="justify"><font face="verdana" size="2">En la consideraci&oacute;n de que el mal uso y abuso de los cuestionarios puede llegar a invalidar la confiabilidad y validez de los instrumentos, a partir de la d&eacute;cada de los noventa se insisti&oacute; en la necesidad de ubicarlos en el contexto de un sistema de evaluaci&oacute;n docente (Theall y Franklin, 2000). De acuerdo con Cashin (1996), en la literatura especializada del campo existe acuerdo acerca de los principios generales que deben guiar el dise&ntilde;o y la operaci&oacute;n de los sistemas de evaluaci&oacute;n de la docencia:</font></p>     <blockquote>       <p align="justify"><font face="verdana" size="2">&bull; Definir los prop&oacute;sitos de la evaluaci&oacute;n.</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Clarificar el uso de los resultados.</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Incorporar de manera significativa a los participantes.</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Buscar la manera de considerar la historia y caracter&iacute;sticas del contexto particular de ense&ntilde;anza en el procesamiento y an&aacute;lisis de los resultados.</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Producir datos y medidas t&eacute;cnicamente aceptables.</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Cuidar la confidencialidad de los resultados, a la luz de los intereses de los docentes y estudiantes.</font></p>       ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&bull; Diferenciar entre la evaluaci&oacute;n de la ense&ntilde;anza y la evaluaci&oacute;n del trabajo acad&eacute;mico en general.</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Instrumentar   estrategias   de   retroalimentaci&oacute;n   y   acciones   para   el mejoramiento.</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Incorporar m&uacute;ltiples fuentes de informaci&oacute;n, ya que la complejidad de la ense&ntilde;anza y de los diferentes contextos educativos provoca que los cuestionarios  y  listas  de  cotejo  sean   insuficientes   para  valorar  la docencia.</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Combinar el desarrollo profesional con la evaluaci&oacute;n.</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Revisar el sistema de manera peri&oacute;dica.</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">En cuanto la utilizaci&oacute;n de los cuestionarios se cuenta con una serie de estrategias derivadas de los hallazgos de investigaci&oacute;n, entre las cuales cabe destacar:</font></p>     <blockquote>       <p align="justify"><font face="verdana" size="2">&bull; La aplicaci&oacute;n y administraci&oacute;n estandarizada del cuestionario. Establecer un procedimiento tipo mediante el cual los estudiantes responden el cuestionario en periodos establecidos del conocimiento de la comunidad en general.   Esto incluye que los involucrados, docentes y estudiantes, conozcan el uso que se dar&aacute; a los resultados (e.g. Seldin, 1993).</font></p>       <p align="justify"><font face="verdana" size="2">&bull; La oportunidad y frecuencia de la evaluaci&oacute;n depende de los prop&oacute;sitos. Si los cuestionarios son utilizados para retroalimentar al profesor con el fin de mejorar la ense&ntilde;anza, deben ser contestados en el primer tercio del periodo escolar para dar oportunidad al profesor de realizar ajustes a sus   pr&aacute;cticas;    si   son   destinados   a   tomar   decisiones   de   tipo administrativo, su aplicaci&oacute;n se sugiere en las &uacute;ltimas dos semanas, pero nunca a la par de los ex&aacute;menes o al final de ellos (e.g. Luna, 2002).</font></p>       <p align="justify"><font face="verdana" size="2">&bull; La credibilidad de los resultados incrementa si los cuestionarios son contestados por un m&iacute;nimo de estudiantes, 75% de los registrados en el curso (e.g. Centra, 1993).</font></p>       ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&bull; La   confidencialidad.      El   sistema   requiere   asegurar   a   todos   los involucrados   en   el   proceso,   confidencialidad   en   el   manejo   de   la informaci&oacute;n,  de tal  manera que ni estudiantes ni docentes  puedan sentirse amenazados por c&oacute;mo se utiliza la informaci&oacute;n (e.g. Neumann, 2001).</font></p>       <p align="justify"><font face="verdana" size="2">&bull; Las preguntas del cuestionario.  El n&uacute;mero de preguntas depende de los prop&oacute;sitos del cuestionario; se requiere mayor cantidad de preguntas cuando los prop&oacute;sitos son formativos.   De manera independiente a los prop&oacute;sitos, se sugiere dar la oportunidad a los estudiantes a trav&eacute;s de preguntas abiertas, de expresar con sus palabras los aspectos a mejorar (Seldin, 1993).</font></p>       <p align="justify"><font face="verdana" size="2">&bull; An&aacute;lisis de la informaci&oacute;n.     El proceso de an&aacute;lisis,  interpretaci&oacute;n y reporte de los resultados requiere ser realizado por profesionales de la evaluaci&oacute;n que atiendan las necesidades de los docentes, estudiantes y la instituci&oacute;n (e.g. Theall y Franklin, 2000).</font></p>       <p align="justify"><font face="verdana" size="2">&bull; El  reporte  de  resultados.     En  la  consideraci&oacute;n  que  el  reporte  de resultados   es   la   &uacute;nica   retroalimentaci&oacute;n   que   se   puede   asegurar disponible para el docente, se sugiere que &eacute;ste contenga la informaci&oacute;n necesaria para interpretar los puntajes, o tener disponible un manual de interpretaci&oacute;n (Neumann, 2000).</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2"><b>Mejora de la eficacia docente</b></font></p>     <p align="justify"><font face="verdana" size="2">Diferentes autores se&ntilde;alan el poder orientador que tienen los procesos de evaluaci&oacute;n; espec&iacute;ficamente, argumentan que un programa adecuado para evaluar la docencia, que utiliza los cuestionarios contestados por los estudiantes, puede guiar al mejoramiento de la ense&ntilde;anza (Marsh, 2001). De acuerdo con Centra (1993), los procesos de evaluaci&oacute;n de la docencia logran apoyar el mejoramiento de la ense&ntilde;anza a condici&oacute;n de cumplir cuatro criterios: proporcionar al profesor informaci&oacute;n nueva, ser informaci&oacute;n valorada por el docente, suministrar estrategias al profesor para mejorar su desempe&ntilde;o y que el docente se encuentre motivado para realizar mejoras. En el mismo sentido, para Seldin (1993) la utilidad de los cuestionarios depende de dos factores: de la motivaci&oacute;n personal de los docentes para mejorar y de que el docente conozca el proceso para mejorar.</font></p>     <p align="justify"><font face="verdana" size="2">Al mismo tiempo, a nivel emp&iacute;rico se demostraron cambios en la efectividad de la ense&ntilde;anza con base en la retroalimentaci&oacute;n derivada de los cuestionarios; sin embargo, las modificaciones son m&iacute;nimas cuando &eacute;sta consiste solo en la presentaci&oacute;n escrita de los resultados de los cuestionarios, y se incrementa considerablemente cuando va acompa&ntilde;ada de una asesor&iacute;a personal (L'Hommediu, Menges, y Brinko, 1990). Los datos proporcionados por los puntajes de los estudiantes proveen la informaci&oacute;n base para delimitar las habilidades a desarrollar en los programas de formaci&oacute;n, en la medida en que reportan las fortalezas y debilidades del quehacer docente. Sin duda, la informaci&oacute;n derivada de los cuestionarios deber&iacute;a formar parte de un diagn&oacute;stico general de necesidades, que podr&iacute;a ser complementado con otras metodolog&iacute;as que exploren a detalle necesidades particulares (Luna, Cordero y Galaz, 2007). Una asignatura pendiente es establecer el v&iacute;nculo entre evaluaci&oacute;n de la docencia y programas de formaci&oacute;n pedag&oacute;gica.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>III. Conclusiones</b></font></p>     <p align="justify"><font face="verdana" size="2">La evaluaci&oacute;n de la docencia basada e en los cuestionarios de apreciaci&oacute;n de los estudiantes, es la estrategia m&aacute;s utilizada y que acumula mayor conocimiento derivado de la investigaci&oacute;n. No obstante, la incomodidad de los docentes sobre los puntajes y el d&eacute;ficit en las buenas pr&aacute;cticas son signos de la persistente disparidad entre el mundo de la investigaci&oacute;n y las pr&aacute;cticas institucionales. Por lo general, los cuestionarios se utilizan para la toma de decisiones administrativas y para orientar la mejora de la ense&ntilde;anza; una responsabilidad ineludible de los usuarios es atender los aspectos b&aacute;sicos que la literatura se&ntilde;ala como fundamentales para validar su empleo.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Los cuestionarios son &uacute;nicamente una medida que muestra la opini&oacute;n de los estudiantes acerca de la calidad de la instrucci&oacute;n, por tal motivo, de ninguna forma se justifica su uso como instrumentos que cubren todas las manifestaciones de una actividad tan compleja como la docencia.</font></p>     <p align="justify"><font face="verdana" size="2">A partir de la d&eacute;cada de los noventa, se insiste en la necesidad de utilizar los cuestionarios como parte de un sistema de evaluaci&oacute;n docente, a los que se suma una serie de requerimientos b&aacute;sicos que van de la delimitaci&oacute;n expl&iacute;cita de los prop&oacute;sitos de la evaluaci&oacute;n, al manejo metodol&oacute;gico y administrativo que asegure la credibilidad en el proceso, a las acciones dirigidas para el mejoramiento de la docencia.</font></p>     <p align="justify"><font face="verdana" size="2">En la actualidad, el dise&ntilde;o de los cuestionarios enfrenta el reto de incorporar los cambios contextuales propios de cada situaci&oacute;n educativa con el fin de ser congruentes con la filosof&iacute;a y la misi&oacute;n institucional. Entre estos cambios destacan: las peculiaridades de los planes de estudio por competencias, la educaci&oacute;n a distancia y las particularidades del contexto pedag&oacute;gico por ejemplo el nivel educativo (licenciatura o posgrado). De no hacerse de esta forma, corren el riesgo ser obsoletos.</font></p>     <p align="justify"><font face="verdana" size="2">Un objetivo fundamental de la evaluaci&oacute;n de la docencia, es contribuir a la profesionalizaci&oacute;n del profesorado, para ayudar a la mejora de la formaci&oacute;n profesional de los estudiantes. Los puntajes de los estudiantes tienen un enorme potencial para contribuir al logro de esta meta, lo cual es factible en la medida en que se vinculen los resultados de los cuestionarios con estrategias de formaci&oacute;n docente; este es uno de los retos m&aacute;s significativos en el presente.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b><a name="agradecimientos" id="agradecimientos"></a>Agradecimientos</b></font></p>     <p align="justify"><font face="verdana" size="2"><sup>1</sup>&nbsp; Este trabajo se realiz&oacute; gracias al financiamiento otorgado por el Consejo Nacional de Ciencia y Tecnolog&iacute;a al proyecto 49052.</font></p>     <p align="justify"><font face="verdana" size="2"><sup>2</sup>&nbsp;This work has been realized sponsored by el Consejo Nacional de Ciencia y Tecnolog&iacute;a for the 49052 proyect.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Referencias</b></font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">Abrami, P. C., d'Apollonia, S. y Cohen, P. A. (1990). Validity of student ratings of instruction what we know and what we do not. <i>Journal of Educational Psychology, 82 </i>(2), 219&#150;231.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005350&pid=S1607-4041200800030000700001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Abrami, P. C., d'Apollonia, S. y Rosenfield, S. (1997). The dimensionality of student ratings of instruction: what we know and what we do not. En R. Perry y J. Smart (Eds.), <i>Effective teaching in higher education: Research and practice </i>(pp. 321&#150;367). Nueva York: Agathon Press.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005351&pid=S1607-4041200800030000700002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Arias, G. F. (1984). El inventario de comportamientos docentes (ICD): un instrumento para evaluar la calidad de la ense&ntilde;anza. <i>Perfiles Educativos, 4, </i>14&#150;22.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005352&pid=S1607-4041200800030000700003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Braskamp, L. A. y Ory, J. C. (1994). <i>Assessing faculty work: Enhancing individual and institutional performance. </i>San Francisco: Jossey&#150;Bass Publishers.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005353&pid=S1607-4041200800030000700004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Canales, A., y Gilio, M.C. (en prensa). La actividad docente en el nivel superior &iquest;diferir el desaf&iacute;o? En M. Rueda (Coord.), La evaluaci&oacute;n de los profesores como recurso para mejorar su pr&aacute;ctica. M&eacute;xico: IISUE &#150;UNAM.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005354&pid=S1607-4041200800030000700005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Cashin, W. E. (1988). <i>Student ratings of teaching. A summary of research. </i>(IDEA reporte No. 20). Kansas: Kansas State University. Division of Continuing Education. (No. de servicio de reproducci&oacute;n de documentos eric ED302&#150;567).</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005355&pid=S1607-4041200800030000700006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Cashin, W. E. (1996). <i>Developing an effective faculty evaluation system. </i>(IDEA reporte No. 33). Kansas: Kansas State University. Center for Faculty Evaluation and Development. Division of Continuing Education. (No. de servicio de reproducci&oacute;n de documentos ERIC ED395&#150;536).</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005356&pid=S1607-4041200800030000700007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Cashin, W. E. y Sixbury, G. R. (1993). <i>Comparative data by academic field. </i>(IDEA report t&eacute;cnico No. 8). Manhattan, KS: Kansas State University, Center for Faculty Evaluation and Development.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005357&pid=S1607-4041200800030000700008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Centra, J. A. (1993). <i>Reflective faculty evaluation: enhancing teaching and determining faculty effectiveness. </i>San Francisco: Jossey Bass</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005358&pid=S1607-4041200800030000700009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Cohen, P. A. (1987). <i>A critical analysis and reanalysis of the multisection validity meta&#150;analysis. </i>Trabajo presentado en la Annual Meeting of the American Educational Research Association de 1987, Washington, DC.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005359&pid=S1607-4041200800030000700010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Feldman, K. A. (1989). Instructional effectiveness of college teachers as judged by teachers themselves, current and former students, colleagues, administrators, and external (neutral) observers. <i>Research in Higher Education, 30, </i>137&#150;194.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005360&pid=S1607-4041200800030000700011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Feldman, K. A. (1997). Identifying exemplary teachers and teaching: evidence from student ratings. En R. Perry y J. Smart (Eds.), <i>Effective teaching in higher education: Research and practice </i>(pp. 368&#150;395). Nueva York: Agathon Press.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005361&pid=S1607-4041200800030000700012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Gilmore, G. M., Kane, M. T. y Naccarato, R. W. (1978). The generalizability of student ratings of instruction: Estimates of teacher and course components. <i>Journal of Educational Measurement, 15, </i>1&#150;13.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005362&pid=S1607-4041200800030000700013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Good, T. (1996). Teaching effects and teacher evaluation. En J. Sikula (Ed.), <i>Handbook of research on teacher education </i>(6a. ed.), (pp. 617&#150;665). Nueva York: Macmillan.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005363&pid=S1607-4041200800030000700014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">House, E. R. (1998). Acuerdos institucionales para la evaluaci&oacute;n. <i>Perspectivas, </i><i>XXVIII (1), </i>123&#150;131.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005364&pid=S1607-4041200800030000700015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Howard, G. S. y Maxwell, S. E. (1982). Do grades contaminate student evaluations of instruction? <i>Research in Higher Education, 16, </i>175&#150;188.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005365&pid=S1607-4041200800030000700016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">L'Hommedieu, R., Menges, R. J. y Brinko, K. T. (1990). Methodological explanations for the modest effects of feedback. <i>Journal of Educational Psychology, 82, </i>232&#150;241.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005366&pid=S1607-4041200800030000700017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Luna, S. E. (2000). Aspectos impl&iacute;citos sobre la ense&ntilde;anza reflejados en los cuestionarios de evaluaci&oacute;n de la docencia. En M. Rueda y F. D&iacute;az&#150;Barriga (Eds.), <i>Evaluaci&oacute;n de la docencia. Perspectivas actuales </i>(pp. 63&#150;83). M&eacute;xico: Paid&oacute;s.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005367&pid=S1607-4041200800030000700018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Luna, S. E. (2002). <i>La participaci&oacute;n de docentes y estudiantes en la evaluaci&oacute;n de la docencia. </i>M&eacute;xico: UABC&#150;Plaza y Vald&eacute;s.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005368&pid=S1607-4041200800030000700019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Luna, S. E. (2004). Los cuestionarios de evaluaci&oacute;n de la docencia por parte de los alumnos: recomendaciones para su utilizaci&oacute;n. En M. Rueda y F. D&iacute;az&#150;Barriga (Coords.), <i>La evaluaci&oacute;n de la docencia en la universidad </i>(pp. 98&#150;121). M&eacute;xico: UNAM&#150;Plaza y Vald&eacute;s.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005369&pid=S1607-4041200800030000700020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Luna, S. E., Cordero, A. G. y Galaz, F. F. (2007, septiembre). <i>Los resultados de la evaluaci&oacute;n docente y su uso para el dise&ntilde;o de modalidades de formaci&oacute;n de los profesores. </i>Trabajo presentado en el I Congreso Internacional Nuevas Tendencias en la Formaci&oacute;n Permanente del Profesorado, Barcelona, Espa&ntilde;a.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005370&pid=S1607-4041200800030000700021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Luna, S. E. y Rueda, M. (2001). Participaci&oacute;n de acad&eacute;micos y estudiantes en la evaluaci&oacute;n de la docencia. <i>Perfiles Educativos, XXI </i>(93), 7&#150;27.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005371&pid=S1607-4041200800030000700022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Marsh, H. W. (1981). The use of path analysis to estimate teacher and course effects in student ratings of instructional effectiveness. <i>Applied Psychological Measurement, 6, </i>47&#150;60.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005372&pid=S1607-4041200800030000700023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Marsh, H. W. (1987). Students' evaluations of university teaching: Research findings, methodological issues, and directions for future research. <i>International Journal of Education Research, 11 </i>(3), 253&#150;288.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005373&pid=S1607-4041200800030000700024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Marsh, H.W. (2001). Students' evaluations of university teaching. Consultado el 26 de septiembre de 2007 en: <a href="http://www.uws.edu.au/" target="_blank">http://apps.uws.edu.au/uws/edc/seeq/SETs_HerbMarsh_presentation_2001.pdf</a></font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005374&pid=S1607-4041200800030000700025&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Marsh, H. W. (2007). Do university teachers become more effective with experience? A multilevel growth model of students' evaluations of teaching over 13 years. <i>Journal of Educational Psychology, 99 </i>(4), 775&#150;790.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005375&pid=S1607-4041200800030000700026&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Marsh, H.W. y Dunkin, M. J. (1997). Students' evaluations of university teaching: A multidimensional perspective. En R. Perry y J. Smart (Eds.), <i>Effective teaching in higher education: Research and practice </i>(pp. 241&#150;320). Nueva York: Agathon Press.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005376&pid=S1607-4041200800030000700027&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Marsh, H. W. y Roche, L. (1997). Making students' evaluations of teaching effectiveness effective. The critical issues of validity bias and utilitiy. <i>American Psychologist, 52 </i>(11), 1187&#150;1197.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005377&pid=S1607-4041200800030000700028&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">McKeachie, W. J. (1996). Students ratings of teaching. En J. England, P. Hutchings y W. McKeachie (Eds.), <i>The professional evaluation of teaching. </i>American Council of Learned Societies, Occasional Paper No. 33. Disponible en: <a href="http://archives.acls.org/op/33_Professonal_Evaluation_of_Teaching.htm" target="_blank">www.acls.org/op33.htm</a></font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005378&pid=S1607-4041200800030000700029&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">McLaughlin, M. y Pfeifer, R. (1988). <i>Teacher evaluation: Improvement, accountability and effective learning. </i>New York: Teachers College Press.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005379&pid=S1607-4041200800030000700030&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Murray, H. G. (1983). Low inference classroom teaching behaviors and student ratings of college teaching effectiveness. <i>Journal Educational Psychology, 71, </i>856&#150;865.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005380&pid=S1607-4041200800030000700031&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Neumann, R. (2000). Communicating Student Evaluation of Teaching Results: Rating interpretation guides. <i>Assessment and Evaluation in Higher Education, 25 </i>(2), 121&#150;134.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005381&pid=S1607-4041200800030000700032&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Neumann, R. (2001). A Decade of Student Evaluation of Teaching: Case Study of an Evolving System. <i>Journal of Institutional Research 10 </i>(1) 96&#150;111. Consultado el 28 de septiembre de 2006 en: <a href="http://www.aair.org.au/jir/May01/Neumann.pdf" target="_blank">http://www.aair.org.au/jir/May01/Neumann.pdf</a></font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005382&pid=S1607-4041200800030000700033&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Overall, J. U. y Marsh, H. W. (1980). Students' evaluations of instruction: A longitudinal study of their stability. <i>Journal of Educational Psychology 72, </i>321&#150;325.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005383&pid=S1607-4041200800030000700034&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Pedhazur, E. J. y Schmelkin, L. P. (1991). <i>Measurement, design, and analysis: an integrated approach. </i>Hillsdale, NJ: Lawrence Erlbaum Associates.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005384&pid=S1607-4041200800030000700035&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Poissant, H. (2004). La evaluaci&oacute;n de la ense&ntilde;anza universitaria. Algunas sugerencias para optimizar su utilizaci&oacute;n. En M. Rueda (Coord.), <i>&iquest;Es posible evaluar la docencia en la universidad? Experiencias en M&eacute;xico, Canad&aacute;, Francia, Espa&ntilde;a y Brasil </i>(pp. 85&#150;110). M&eacute;xico: ANUIES&#150;UABJ.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005385&pid=S1607-4041200800030000700036&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Rueda, B. M., Elizalde, L. L. y Torquemada, A. (2003). La evaluaci&oacute;n de la docencia en universidades mexicanas. <i>Revista de la Educaci&oacute;n Superior, XXXII </i>(3), 71&#150;77.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005386&pid=S1607-4041200800030000700037&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Saroyan, A. (2003). Evaluation of teaching for improvement: a myth or a reality? En M. Rueda, F. D&iacute;az Barriga y M. D&iacute;az Pontones (Eds.), <i>Evaluar para comprender y mejorar la docencia en la educaci&oacute;n superior, </i>(pp. 151&#150;160). Col. Cultura Universitaria, Serie Ensayo no.71. M&eacute;xico: UAM&#150;UNAM&#150;UABJO.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005387&pid=S1607-4041200800030000700038&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Secretar&iacute;a de Educaci&oacute;n P&uacute;blica (2007). <i>Programa Sectorial de Educaci&oacute;n 2007&#150;2012. </i>(pp. 9&#150;23). Gobierno de M&eacute;xico: Autor.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005388&pid=S1607-4041200800030000700039&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Seldin, P. (1993). The use and abuse of student ratings of professors. <i>The Chronicle of Higher Education, 39 </i>(46) 40.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005389&pid=S1607-4041200800030000700040&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Theall, M. y Franklin, J. (2000). Creating responsive student ratings systems to improve evaluation practice. <i>New Directions for Teaching and Learning, 83, </i>95&#150;107.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7005390&pid=S1607-4041200800030000700041&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Abrami]]></surname>
<given-names><![CDATA[P. C.]]></given-names>
</name>
<name>
<surname><![CDATA[d'Apollonia]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[Cohen]]></surname>
<given-names><![CDATA[P. A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Validity of student ratings of instruction what we know and what we do not]]></article-title>
<source><![CDATA[Journal of Educational Psychology]]></source>
<year>1990</year>
<volume>82</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>219-231</page-range></nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Abrami]]></surname>
<given-names><![CDATA[P. C.]]></given-names>
</name>
<name>
<surname><![CDATA[d'Apollonia]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[Rosenfield]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The dimensionality of student ratings of instruction: what we know and what we do not]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Perry]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Smart]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<source><![CDATA[Effective teaching in higher education: Research and practice]]></source>
<year>1997</year>
<page-range>321-367</page-range><publisher-loc><![CDATA[Nueva York ]]></publisher-loc>
<publisher-name><![CDATA[Agathon Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Arias]]></surname>
<given-names><![CDATA[G. F.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[El inventario de comportamientos docentes (ICD): un instrumento para evaluar la calidad de la enseñanza]]></article-title>
<source><![CDATA[Perfiles Educativos]]></source>
<year>1984</year>
<volume>4</volume>
<page-range>14-22</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Braskamp]]></surname>
<given-names><![CDATA[L. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Ory]]></surname>
<given-names><![CDATA[J. C.]]></given-names>
</name>
</person-group>
<source><![CDATA[Assessing faculty work: Enhancing individual and institutional performance]]></source>
<year>1994</year>
<publisher-loc><![CDATA[San Francisco ]]></publisher-loc>
<publisher-name><![CDATA[Jossey-Bass Publishers]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Canales]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Gilio]]></surname>
<given-names><![CDATA[M.C.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[La actividad docente en el nivel superior ¿diferir el desafío?]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Rueda]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<source><![CDATA[La evaluación de los profesores como recurso para mejorar su práctica]]></source>
<year></year>
<publisher-name><![CDATA[IISUE -UNAM]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cashin]]></surname>
<given-names><![CDATA[W. E.]]></given-names>
</name>
</person-group>
<source><![CDATA[Student ratings of teaching: A summary of research]]></source>
<year>1988</year>
<volume>20</volume>
<publisher-loc><![CDATA[^eKansas Kansas]]></publisher-loc>
<publisher-name><![CDATA[Kansas State University. Division of Continuing Education]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cashin]]></surname>
<given-names><![CDATA[W. E.]]></given-names>
</name>
</person-group>
<source><![CDATA[Developing an effective faculty evaluation system]]></source>
<year>1996</year>
<volume>33</volume>
<publisher-loc><![CDATA[^eKansas Kansas]]></publisher-loc>
<publisher-name><![CDATA[Kansas State University. Center for Faculty Evaluation and Development. Division of Continuing Education]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cashin]]></surname>
<given-names><![CDATA[W. E.]]></given-names>
</name>
<name>
<surname><![CDATA[Sixbury]]></surname>
<given-names><![CDATA[G. R.]]></given-names>
</name>
</person-group>
<source><![CDATA[Comparative data by academic field]]></source>
<year>1993</year>
<volume>8</volume>
<publisher-loc><![CDATA[Manhattan^eKS KS]]></publisher-loc>
<publisher-name><![CDATA[Kansas State University, Center for Faculty Evaluation and Development]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Centra]]></surname>
<given-names><![CDATA[J. A.]]></given-names>
</name>
</person-group>
<source><![CDATA[Reflective faculty evaluation: enhancing teaching and determining faculty effectiveness]]></source>
<year>1993</year>
<publisher-loc><![CDATA[San Francisco ]]></publisher-loc>
<publisher-name><![CDATA[Jossey Bass]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cohen]]></surname>
<given-names><![CDATA[P. A.]]></given-names>
</name>
</person-group>
<source><![CDATA[A critical analysis and reanalysis of the multisection validity meta-analysis]]></source>
<year>1987</year>
<conf-name><![CDATA[ Annual Meeting]]></conf-name>
<conf-date>1987</conf-date>
<conf-loc>Washington DC</conf-loc>
</nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Feldman]]></surname>
<given-names><![CDATA[K. A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Instructional effectiveness of college teachers as judged by teachers themselves, current and former students, colleagues, administrators, and external (neutral) observers]]></article-title>
<source><![CDATA[Research in Higher Education]]></source>
<year>1989</year>
<volume>30</volume>
<page-range>137-194</page-range></nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Feldman]]></surname>
<given-names><![CDATA[K. A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Identifying exemplary teachers and teaching: evidence from student ratings]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Perry]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Smart]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<source><![CDATA[Effective teaching in higher education: Research and practice]]></source>
<year>1997</year>
<page-range>368-395</page-range><publisher-loc><![CDATA[Nueva York ]]></publisher-loc>
<publisher-name><![CDATA[Agathon Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Gilmore]]></surname>
<given-names><![CDATA[G. M.]]></given-names>
</name>
<name>
<surname><![CDATA[Kane]]></surname>
<given-names><![CDATA[M. T.]]></given-names>
</name>
<name>
<surname><![CDATA[Naccarato]]></surname>
<given-names><![CDATA[R. W.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The generalizability of student ratings of instruction: Estimates of teacher and course components]]></article-title>
<source><![CDATA[Journal of Educational Measurement]]></source>
<year>1978</year>
<volume>15</volume>
<page-range>1-13</page-range></nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Good]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Teaching effects and teacher evaluation]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Sikula]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<source><![CDATA[Handbook of research on teacher education]]></source>
<year>1996</year>
<edition>6a.</edition>
<page-range>617-665</page-range><publisher-loc><![CDATA[Nueva York ]]></publisher-loc>
<publisher-name><![CDATA[Macmillan]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[House]]></surname>
<given-names><![CDATA[E. R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Acuerdos institucionales para la evaluación]]></article-title>
<source><![CDATA[Perspectivas]]></source>
<year>1998</year>
<volume>XXVIII</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>123-131</page-range></nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Howard]]></surname>
<given-names><![CDATA[G. S.]]></given-names>
</name>
<name>
<surname><![CDATA[Maxwell]]></surname>
<given-names><![CDATA[S. E.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Do grades contaminate student evaluations of instruction?]]></article-title>
<source><![CDATA[Research in Higher Education]]></source>
<year>1982</year>
<volume>16</volume>
<page-range>175-188</page-range></nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[L'Hommedieu]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Menges]]></surname>
<given-names><![CDATA[R. J.]]></given-names>
</name>
<name>
<surname><![CDATA[Brinko]]></surname>
<given-names><![CDATA[K. T.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Methodological explanations for the modest effects of feedback]]></article-title>
<source><![CDATA[Journal of Educational Psychology]]></source>
<year>1990</year>
<volume>82</volume>
<page-range>232-241</page-range></nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Luna]]></surname>
<given-names><![CDATA[S. E.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Aspectos implícitos sobre la enseñanza reflejados en los cuestionarios de evaluación de la docencia]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Rueda]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Díaz-Barriga]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
</person-group>
<source><![CDATA[Evaluación de la docencia: Perspectivas actuales]]></source>
<year>2000</year>
<page-range>63-83</page-range><publisher-name><![CDATA[Paidós]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Luna]]></surname>
<given-names><![CDATA[S. E.]]></given-names>
</name>
</person-group>
<source><![CDATA[La participación de docentes y estudiantes en la evaluación de la docencia]]></source>
<year>2002</year>
<publisher-name><![CDATA[UABCPlaza y Valdés]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Luna]]></surname>
<given-names><![CDATA[S. E.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Los cuestionarios de evaluación de la docencia por parte de los alumnos: recomendaciones para su utilización]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Rueda]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Díaz-Barriga]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
</person-group>
<source><![CDATA[La evaluación de la docencia en la universidad]]></source>
<year>2004</year>
<page-range>98-121</page-range><publisher-name><![CDATA[UNAMPlaza y Valdés]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Luna]]></surname>
<given-names><![CDATA[S. E.]]></given-names>
</name>
<name>
<surname><![CDATA[Cordero]]></surname>
<given-names><![CDATA[A. G.]]></given-names>
</name>
<name>
<surname><![CDATA[Galaz]]></surname>
<given-names><![CDATA[F. F.]]></given-names>
</name>
</person-group>
<source><![CDATA[Los resultados de la evaluación docente y su uso para el diseño de modalidades de formación de los profesores]]></source>
<year>2007</year>
<month>, </month>
<day>se</day>
<conf-name><![CDATA[I Congreso Internacional Nuevas Tendencias en la Formación Permanente del Profesorado]]></conf-name>
<conf-loc>Barcelona </conf-loc>
</nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Luna]]></surname>
<given-names><![CDATA[S. E.]]></given-names>
</name>
<name>
<surname><![CDATA[Rueda]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Participación de académicos y estudiantes en la evaluación de la docencia]]></article-title>
<source><![CDATA[Perfiles Educativos]]></source>
<year>2001</year>
<volume>XXI</volume>
<numero>93</numero>
<issue>93</issue>
<page-range>7-27</page-range></nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Marsh]]></surname>
<given-names><![CDATA[H. W.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The use of path analysis to estimate teacher and course effects in student ratings of instructional effectiveness]]></article-title>
<source><![CDATA[Applied Psychological Measurement]]></source>
<year>1981</year>
<volume>6</volume>
<page-range>47-60</page-range></nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Marsh]]></surname>
<given-names><![CDATA[H. W.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Students' evaluations of university teaching: Research findings, methodological issues, and directions for future research]]></article-title>
<source><![CDATA[International Journal of Education Research]]></source>
<year>1987</year>
<volume>11</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>253-288</page-range></nlm-citation>
</ref>
<ref id="B25">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Marsh]]></surname>
<given-names><![CDATA[H.W.]]></given-names>
</name>
</person-group>
<source><![CDATA[Students' evaluations of university teaching]]></source>
<year>2001</year>
</nlm-citation>
</ref>
<ref id="B26">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Marsh]]></surname>
<given-names><![CDATA[H. W.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Do university teachers become more effective with experience?: A multilevel growth model of students' evaluations of teaching over 13 years]]></article-title>
<source><![CDATA[Journal of Educational Psychology]]></source>
<year>2007</year>
<volume>99</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>775-790</page-range></nlm-citation>
</ref>
<ref id="B27">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Marsh]]></surname>
<given-names><![CDATA[H.W.]]></given-names>
</name>
<name>
<surname><![CDATA[Dunkin]]></surname>
<given-names><![CDATA[M. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Students' evaluations of university teaching: A multidimensional perspective]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Perry]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Smart]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<source><![CDATA[Effective teaching in higher education: Research and practice]]></source>
<year>1997</year>
<page-range>241-320</page-range><publisher-loc><![CDATA[Nueva York ]]></publisher-loc>
<publisher-name><![CDATA[Agathon Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B28">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Marsh]]></surname>
<given-names><![CDATA[H. W.]]></given-names>
</name>
<name>
<surname><![CDATA[Roche]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Making students' evaluations of teaching effectiveness effective: The critical issues of validity bias and utilitiy]]></article-title>
<source><![CDATA[American Psychologist]]></source>
<year>1997</year>
<volume>52</volume>
<numero>11</numero>
<issue>11</issue>
<page-range>1187-1197</page-range></nlm-citation>
</ref>
<ref id="B29">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[McKeachie]]></surname>
<given-names><![CDATA[W. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Students ratings of teaching]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[England]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Hutchings]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
<name>
<surname><![CDATA[McKeachie]]></surname>
<given-names><![CDATA[W.]]></given-names>
</name>
</person-group>
<source><![CDATA[The professional evaluation of teaching]]></source>
<year>1996</year>
<volume>33</volume>
</nlm-citation>
</ref>
<ref id="B30">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[McLaughlin]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Pfeifer]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<source><![CDATA[Teacher evaluation: Improvement, accountability and effective learning]]></source>
<year>1988</year>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Teachers College Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B31">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Murray]]></surname>
<given-names><![CDATA[H. G.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Low inference classroom teaching behaviors and student ratings of college teaching effectiveness]]></article-title>
<source><![CDATA[Journal Educational Psychology]]></source>
<year>1983</year>
<volume>71</volume>
<page-range>856-865</page-range></nlm-citation>
</ref>
<ref id="B32">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Neumann]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Communicating Student Evaluation of Teaching Results: Rating interpretation guides]]></article-title>
<source><![CDATA[Assessment and Evaluation in Higher Education]]></source>
<year>2000</year>
<volume>25</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>121-134</page-range></nlm-citation>
</ref>
<ref id="B33">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Neumann]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A Decade of Student Evaluation of Teaching: Case Study of an Evolving System]]></article-title>
<source><![CDATA[Journal of Institutional Research]]></source>
<year>2001</year>
<volume>10</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>96-111</page-range></nlm-citation>
</ref>
<ref id="B34">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Overall]]></surname>
<given-names><![CDATA[J. U.]]></given-names>
</name>
<name>
<surname><![CDATA[Marsh]]></surname>
<given-names><![CDATA[H. W.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Students' evaluations of instruction: A longitudinal study of their stability]]></article-title>
<source><![CDATA[Journal of Educational Psychology]]></source>
<year>1980</year>
<volume>72</volume>
<page-range>321-325</page-range></nlm-citation>
</ref>
<ref id="B35">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Pedhazur]]></surname>
<given-names><![CDATA[E. J.]]></given-names>
</name>
<name>
<surname><![CDATA[Schmelkin]]></surname>
<given-names><![CDATA[L. P.]]></given-names>
</name>
</person-group>
<source><![CDATA[Measurement, design, and analysis: an integrated approach]]></source>
<year>1991</year>
<publisher-loc><![CDATA[Hillsdale^eNJ NJ]]></publisher-loc>
<publisher-name><![CDATA[Lawrence Erlbaum Associates]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B36">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Poissant]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[La evaluación de la enseñanza universitaria: Algunas sugerencias para optimizar su utilización]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Rueda]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<source><![CDATA[¿Es posible evaluar la docencia en la universidad?: Experiencias en México, Canadá, Francia, España y Brasil]]></source>
<year>2004</year>
<page-range>85-110</page-range><publisher-name><![CDATA[ANUIESUABJ]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B37">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rueda]]></surname>
<given-names><![CDATA[B. M.]]></given-names>
</name>
<name>
<surname><![CDATA[Elizalde]]></surname>
<given-names><![CDATA[L. L.]]></given-names>
</name>
<name>
<surname><![CDATA[Torquemada]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[La evaluación de la docencia en universidades mexicanas]]></article-title>
<source><![CDATA[Revista de la Educación Superior]]></source>
<year>2003</year>
<volume>XXXII</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>71-77</page-range></nlm-citation>
</ref>
<ref id="B38">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Saroyan]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Evaluation of teaching for improvement: a myth or a reality?]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Rueda]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Díaz Barriga]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
<name>
<surname><![CDATA[Díaz Pontones]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<source><![CDATA[Evaluar para comprender y mejorar la docencia en la educación superior]]></source>
<year>2003</year>
<volume>71</volume>
<page-range>151-160</page-range><publisher-name><![CDATA[UAMUNAMUABJO]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B39">
<nlm-citation citation-type="book">
<collab>Secretaría de Educación Pública</collab>
<source><![CDATA[Programa Sectorial de Educación 2007-2012]]></source>
<year>2007</year>
<page-range>9-23</page-range><publisher-name><![CDATA[Gobierno de MéxicoAutor]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B40">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Seldin]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The use and abuse of student ratings of professors]]></article-title>
<source><![CDATA[The Chronicle of Higher Education]]></source>
<year>1993</year>
<volume>39</volume>
<numero>46</numero>
<issue>46</issue>
<page-range>40</page-range></nlm-citation>
</ref>
<ref id="B41">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Theall]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Franklin]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Creating responsive student ratings systems to improve evaluation practice]]></article-title>
<source><![CDATA[New Directions for Teaching and Learning]]></source>
<year>2000</year>
<volume>83</volume>
<page-range>95-107</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
