<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0185-2698</journal-id>
<journal-title><![CDATA[Perfiles educativos]]></journal-title>
<abbrev-journal-title><![CDATA[Perfiles educativos]]></abbrev-journal-title>
<issn>0185-2698</issn>
<publisher>
<publisher-name><![CDATA[Universidad Nacional Autónoma de México, Instituto de Investigaciones sobre la Universidad y la Educación]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0185-26982001000300002</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Participación de académicos y estudiantes en la evaluación de la docencia]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Luna Serrano]]></surname>
<given-names><![CDATA[Edna]]></given-names>
</name>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Rueda Beltrán]]></surname>
<given-names><![CDATA[Mario]]></given-names>
</name>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Autónoma de Baja California  ]]></institution>
<addr-line><![CDATA[Ensenada Baja California]]></addr-line>
<country>México</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>00</month>
<year>2001</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>00</month>
<year>2001</year>
</pub-date>
<volume>23</volume>
<numero>93</numero>
<fpage>7</fpage>
<lpage>27</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_arttext&amp;pid=S0185-26982001000300002&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_abstract&amp;pid=S0185-26982001000300002&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_pdf&amp;pid=S0185-26982001000300002&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[El trabajo reporta el estado de los posgrados en la Universidad Autónoma de Baja California, con el propósito de construir instrumentos de evaluación de la docencia para este nivel que contemplen: a) las recomendaciones hechas por los docentes de los diferentes programas; b) las opiniones de los estudiantes sobre los reactivos y dimensiones de evaluación, y c) la especificidad de cada área de conocimiento. La investigación se diseñó como un estudio de caso a partir del planteamiento de los métodos combinados. Se utilizaron cuestionarios, entrevistas semiestructuradas, análisis de contenidos y cálculos estadísticos. Se identificaron las dimensiones de evaluación más importantes para la enseñanza en los posgrados de la UABC, se reconocieron los aspectos particulares de evaluación por área de conocimiento de los diferentes programas y se definió una jerarquía general de las dimensiones, así como las jerarquías correspondientes a los agrupamientos de los programas.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[In this article, the author reviews the state of the postgraduate studies at the Autonomous University of Baja California (Universidad Autónoma de Baja California or UABC) in order to build assessment systems for teaching at postgraduate level which should include: a) the recommendation made by the teachers of the different programs; b) the students' opinion about the reagents and stature of assessment; and c) the specificity shown by each area of knowledge. This research was built as a case study which started with the planning of combined methods. It made use of questionnaires, semistructurated interviews, contents analysis and statistic calculus. It also tried to identify the most important features of assessment with regard to teaching in the postgraduate studies at the UABC, recognized the particular aspects of assessment for each program and each area of knowledge and defined an overall hierarchy of those features, as well as the hierarchy that correspond to the grouping of the programs.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Evaluación]]></kwd>
<kwd lng="es"><![CDATA[Docencia]]></kwd>
<kwd lng="es"><![CDATA[Etnografía educativa]]></kwd>
<kwd lng="es"><![CDATA[Educación superior]]></kwd>
<kwd lng="es"><![CDATA[Posgrado]]></kwd>
<kwd lng="es"><![CDATA[Participación del alumno]]></kwd>
<kwd lng="en"><![CDATA[Assessment]]></kwd>
<kwd lng="en"><![CDATA[Teaching]]></kwd>
<kwd lng="en"><![CDATA[Educational ethnography]]></kwd>
<kwd lng="en"><![CDATA[Higher education]]></kwd>
<kwd lng="en"><![CDATA[Postgraduate studies]]></kwd>
<kwd lng="en"><![CDATA[Student participation]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="justify"><font face="verdana" size="4">Art&iacute;culos</font></p>              <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>              <p align="center"><font face="verdana" size="4"><i><b>Participaci&oacute;n de acad&eacute;micos </b></i><b>y estudiantes en la evaluaci&oacute;n de la docencia<a href="#notas">*</a></b></font></p>              <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>              <p align="center"><font face="verdana" size="2"><b>Edna Luna Serrano y Mario Rueda Beltr&aacute;n**</b></font></p>              <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>              <p align="justify"><font face="verdana" size="2"><i>** Universidad Aut&oacute;noma de Baja California y CESU&#45;UNAM.</i> <a href="mailto:eluna@emaill.ens.uabc.mx">eluna@emaill.ens.uabc.mx</a>; <a href="mailto:mariorb@servidor.unam.mx">mariorb@servidor.unam.mx</a>.</font></p>              <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>              <p align="justify"><font face="verdana" size="2"><b>Resumen</b></font></p>              <p align="justify"><font face="verdana" size="2">El trabajo reporta el estado de los posgrados en la Universidad Aut&oacute;noma de Baja California, con el prop&oacute;sito de construir instrumentos de evaluaci&oacute;n de la docencia para este nivel que contemplen: <i>a)</i> las recomendaciones hechas por los docentes de los diferentes programas; <i>b)</i> las opiniones de los estudiantes sobre los reactivos y dimensiones de evaluaci&oacute;n, y <i>c)</i> la especificidad de cada &aacute;rea de conocimiento. La investigaci&oacute;n se dise&ntilde;&oacute; como un estudio de caso a partir del planteamiento de los m&eacute;todos combinados. Se utilizaron cuestionarios, entrevistas semiestructuradas, an&aacute;lisis de contenidos y c&aacute;lculos estad&iacute;sticos. Se identificaron las dimensiones de evaluaci&oacute;n m&aacute;s importantes para la ense&ntilde;anza en los posgrados de la UABC, se reconocieron los aspectos particulares de evaluaci&oacute;n por &aacute;rea de conocimiento de los diferentes programas y se defini&oacute; una jerarqu&iacute;a general de las dimensiones, as&iacute; como las jerarqu&iacute;as correspondientes a los agrupamientos de los programas.</font></p>              ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>Palabras clave:</b> Evaluaci&oacute;n / Docencia / Etnograf&iacute;a educativa / Educaci&oacute;n superior / Posgrado / Participaci&oacute;n del alumno.</font></p>              <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>              <p align="justify"><font face="verdana" size="2"><b>Abstract</b></font></p>              <p align="justify"><font face="verdana" size="2">In this article, the author reviews the state of the postgraduate studies at the Autonomous University of Baja California (Universidad Aut&oacute;noma de Baja California or UABC) in order to build assessment systems for teaching at postgraduate level which should include: a) the recommendation made by the teachers of the different programs; b) the students' opinion about the reagents and stature of assessment; and c) the specificity shown by each area of knowledge. This research was built as a case study which started with the planning of combined methods. It made use of questionnaires, semistructurated interviews, contents analysis and statistic calculus. It also tried to identify the most important features of assessment with regard to teaching in the postgraduate studies at the UABC, recognized the particular aspects of assessment for each program and each area of knowledge and defined an overall hierarchy of those features, as well as the hierarchy that correspond to the grouping of the programs.</font></p>              <p align="justify"><font face="verdana" size="2"><b>Keywords:</b> Assessment / Teaching / Educational ethnography / Higher education / Postgraduate studies / Student participation.</font></p>              <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>              <p align="justify"><font face="verdana" size="2">La experiencia que aqu&iacute; se relata parte de la convicci&oacute;n de que el tema de la evaluaci&oacute;n de la docencia es sumamente complejo y que para enfrentarlo es necesario sistematizar y compartir los intentos realizados en situaciones concretas; tal es el presente caso que comunica lo ocurrido en el posgrado de la Universidad Aut&oacute;noma de Baja California.</font></p>              <p align="justify"><font face="verdana" size="2">Los obst&aacute;culos que ofrece la evaluaci&oacute;n de la docencia en el &aacute;mbito universitario tienen que ver con muy diferentes elementos: su reciente y r&aacute;pido surgimiento en M&eacute;xico, su asociaci&oacute;n a pol&iacute;ticas de compensaci&oacute;n salarial, la discusi&oacute;n sobre las cambiantes funciones del profesor, la pol&eacute;mica de las teor&iacute;as sobre la ense&ntilde;anza y el aprendizaje, el desconocimiento y escasas iniciativas para diversificar los medios de evaluaci&oacute;n de dicha actividad, por mencionar algunos de los m&aacute;s importantes. Por tal c&uacute;mulo de problemas que presenta la acci&oacute;n de evaluar la docencia en la Universidad, vemos como indispensable la participaci&oacute;n de los involucrados, profesores y estudiantes, en dicho proceso como una condici&oacute;n m&iacute;nima para atenuar la dificultad de la tarea.</font></p>              <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>              <p align="justify"><font face="verdana" size="2"><b>ANTECENDENTES</b></font></p>              ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Indiscutiblemente, la evaluaci&oacute;n de la docencia por medio de la opini&oacute;n externada por los estudiantes en un cuestionario se ha constituido como el medio m&aacute;s frecuentemente empleado en la mayor parte de las universidades del mundo, con la aceptaci&oacute;n expl&iacute;cita en muchas ocasiones de los propios acad&eacute;micos.</font></p>              <p align="justify"><font face="verdana" size="2">En el &aacute;mbito internacional, la utilizaci&oacute;n de los cuestionarios de evaluaci&oacute;n de la docencia con base en los puntajes de evaluaci&oacute;n de los estudiantes tiene una historia de m&aacute;s de setenta a&ntilde;os y es sin duda la estrategia m&aacute;s empleada (Centra, 1993; Husbands y Fosh, 1993); en el nacional, los reportes sobre su uso sistem&aacute;tico datan de la segunda mitad de la d&eacute;cada de los ochenta (Garc&iacute;a, 2000) y se considera que su empleo se generaliza en los noventa.</font></p>              <p align="justify"><font face="verdana" size="2">En M&eacute;xico la evaluaci&oacute;n de la docencia espec&iacute;ficamente en posgrado tambi&eacute;n surge de forma generalizada despu&eacute;s de 1990, debido al &eacute;nfasis que las pol&iacute;ticas gubernamentales otorgaron a la evaluaci&oacute;n en general. La afirmaci&oacute;n se sostiene por la informaci&oacute;n recopilada de once universidades p&uacute;blicas (Luna, 2000), en las que se identific&oacute; que s&oacute;lo en tres de ellas la evaluaci&oacute;n de la docencia se llevaba a cabo antes de 1990, con el prop&oacute;sito de mejorar el desempe&ntilde;o acad&eacute;mico. En siete instituciones la evaluaci&oacute;n de la docencia se establece despu&eacute;s de ese a&ntilde;o, con la doble intenci&oacute;n de participar en los programas de compensaci&oacute;n salarial y mejorar el desempe&ntilde;o docente. Todas las universidades utilizan m&aacute;s de un procedimiento de evaluaci&oacute;n; sin embargo, el instrumento privilegiado son los cuestionarios de evaluaci&oacute;n a partir de la opini&oacute;n de los alumnos. Su procedencia es diversa, ya que en la mayor parte de los casos es el mismo de la licenciatura, o se retoma de la literatura especializada; s&oacute;lo en dos universidades se dise&ntilde;aron cuestionarios ex profeso para el nivel de posgrado.</font></p>              <p align="justify"><font face="verdana" size="2">Los cuestionarios de evaluaci&oacute;n de la docencia con base en la opini&oacute;n de los alumnos se utilizan tanto con prop&oacute;sitos de tipo administrativo como para mejorar la actividad docente (Ory, 1990). El uso de este medio con fines de recontrataci&oacute;n y compensaci&oacute;n salarial ha generado diversos cuestionamientos cr&iacute;ticos; destacan los relacionados con el manejo administrativo, esto es, la aplicaci&oacute;n, interpretaci&oacute;n y utilizaci&oacute;n de los resultados (Theall y Franklin, 1990; Sproule, 2000). La pr&aacute;ctica generalizada es cuidar los componentes psicom&eacute;tricos; sin embargo, esto resulta insuficiente en virtud de que en la evaluaci&oacute;n de los docentes se interrelacionan otros aspectos, como los pol&iacute;ticos, los contextuales, los organizacionales y de credibilidad hacia los evaluadores, los cuales pueden llegar a invalidar una evaluaci&oacute;n, a pesar de que en t&eacute;rminos de medici&oacute;n tenga un alto &iacute;ndice de confiabilidad y validez.</font></p>              <p align="justify"><font face="verdana" size="2">En los cuestionarios se asume la ense&ntilde;anza como una actividad multidimensional que la mayor&iacute;a de los instrumentos intenta representar; desde esta perspectiva se han investigado las dimensiones relacionadas con la efectividad docente. Feldman (1997) identific&oacute; como de mayor importancia la preparaci&oacute;n y la organizaci&oacute;n del curso, la claridad y el entendimiento, el logro de los objetivos planteados, la estimulaci&oacute;n del inter&eacute;s por la materia y la percepci&oacute;n del impacto de la instrucci&oacute;n por parte del alumno.</font></p>              <p align="justify"><font face="verdana" size="2">Un supuesto que ha dominado las pr&aacute;cticas de evaluaci&oacute;n de la docencia a partir de la opini&oacute;n del alumno es que el conocimiento de los docentes y sus habilidades pueden evaluarse sin considerar su contexto. As&iacute;, la mayor&iacute;a de los instrumentos aplicados actualmente est&aacute;n basados en la noci&oacute;n de caracter&iacute;sticas gen&eacute;ricas de la ense&ntilde;anza (Marsh, 1984; Delandshere, 1994), donde se considera que las cualidades importantes de la ense&ntilde;anza efectiva son sustancialmente invariables, esto es, que no var&iacute;an de acuerdo con los cursos, disciplinas y universidades (Marsh, 1984; Abrami y d'Apollonia, 1990). Desde este enfoque se han realizado numerosos estudios sobre la validez de los puntajes de opini&oacute;n de los estudiantes, y se ha encontrado que el nivel del curso &#151;licenciatura o posgrado&#151;, la naturaleza del mismo &#151;obligatorio u optativo&#151; y el &aacute;rea del contenido influyen sobre los puntajes asignados por los estudiantes al profesor (Feldman, 1978; Cohen, 1981; Abrami, d'Apollonia y Cohen, 1990). Por ejemplo, Smith y Cranton (1992) reportan que la organizaci&oacute;n del curso y la claridad en las exposiciones son los indicadores m&aacute;s significativos para los estudiantes de los primeros a&ntilde;os de licenciatura, en tanto que el inter&eacute;s por el alumno y la evaluaci&oacute;n del aprendizaje lo son para los de niveles avanzados de licenciatura y posgrado.</font></p>              <p align="justify"><font face="verdana" size="2">De acuerdo con Marsh (1987) y Marsh y Dunkin (1997), el desarrollo de un instrumento completo debe combinar tres estrategias: <i>1)</i> realizar an&aacute;lisis emp&iacute;ricos utilizando t&eacute;cnicas estad&iacute;sticas como an&aacute;lisis factorial y dise&ntilde;os multirrasgo&#45;multim&eacute;todo (MTMM); <i>2)</i> deducir los reactivos de un an&aacute;lisis l&oacute;gico de los componentes de la efectividad docente, tomando en cuenta la retroalimentaci&oacute;n de los profesores y los estudiantes, as&iacute; como los prop&oacute;sitos de la evaluaci&oacute;n, y <i>3)</i> fundamentar los instrumentos de evaluaci&oacute;n en una teor&iacute;a de la ense&ntilde;anza o el aprendizaje.</font></p>              <p align="justify"><font face="verdana" size="2">Un problema de investigaci&oacute;n poco estudiado se centra en la ponderaci&oacute;n de las distintas dimensiones que conforman los cuestionarios de opini&oacute;n. Marsh (1984; 1987) se&ntilde;ala la dificultad de asignar pesos diferenciados a las dimensiones en funci&oacute;n de los prop&oacute;sitos de la evaluaci&oacute;n; sugiere que la ponderaci&oacute;n se haga de manera emp&iacute;rica en funci&oacute;n del tipo de curso y disciplina, y se asigne un promedio a cada dimensi&oacute;n. Se considera importante investigar este aspecto en el contexto de los sistemas de evaluaci&oacute;n institucional.</font></p>              <p align="justify"><font face="verdana" size="2"><b>El contexto del trabajo</b></font></p>              <p align="justify"><font face="verdana" size="2">La Universidad Aut&oacute;noma de Baja California (UABC) ocupa a escala nacional el decimotercer lugar en la matr&iacute;cula de licenciatura y el decimoquinto lugar en la matr&iacute;cula de posgrado; respecto a la frontera norte, atiende a 7.4% de los estudiantes de licenciatura y a 3.2% de los de posgrado (anuies, 1997). En el estado es la &uacute;nica instituci&oacute;n que ofrece estudios de posgrado en las diversas &aacute;reas del conocimiento.</font></p>              ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">La evaluaci&oacute;n de la actividad docente en el posgrado de la UABC inici&oacute; de manera sistem&aacute;tica en 1990, junto con la aplicaci&oacute;n del programa de est&iacute;mulos a la carrera docente. Uno de sus componentes son los puntajes otorgados por los estudiantes, los cuales representan 25% del total de los indicadores que componen el programa de est&iacute;mulo. La evaluaci&oacute;n de la ense&ntilde;anza, a partir de la opini&oacute;n de los estudiantes, se lleva a cabo por parte de la Direcci&oacute;n General de Investigaci&oacute;n y Posgrado (DGIP), utilizando un formato &uacute;nico para todos los posgrados adaptado del de la licenciatura. Institucionalmente se utiliza con fines administrativos y de retroalimentaci&oacute;n.</font></p>              <p align="justify"><font face="verdana" size="2">En un estudio previo realizado por personal de la DGIP, se identificaron diversos cuestionamientos a este formato de evaluaci&oacute;n; la opini&oacute;n generalizada de maestros y directivos respecto a su contenido fue que evaluaba parcialmente los componentes de ense&ntilde;anza derivados de las caracter&iacute;sticas propias de cada programa, y que las dimensiones de evaluaci&oacute;n, dada su importancia desigual en el proceso de ense&ntilde;anza, deber&iacute;an tener un peso diferencial al valorarlas. Adem&aacute;s, los docentes de la maestr&iacute;a y doctorado en Oceanograf&iacute;a Costera hab&iacute;an externado su deseo de participar en el proceso de elaboraci&oacute;n de su instrumento de evaluaci&oacute;n.</font></p>              <p align="justify"><font face="verdana" size="2">La disposici&oacute;n de docentes y directivos para participar en un proceso de construcci&oacute;n de instrumentos de evaluaci&oacute;n, y la convicci&oacute;n de muchos de ellos sobre la necesidad de contar con cuestionarios acordes con las caracter&iacute;sticas de sus programas, fueron los elementos contextuales m&aacute;s relevantes que posibilitaron la realizaci&oacute;n de este trabajo.</font></p>              <p align="justify"><font face="verdana" size="2"><b>Prop&oacute;sito</b></font></p>              <p align="justify"><font face="verdana" size="2">El prop&oacute;sito central que gui&oacute; las acciones del estudio fue la construcci&oacute;n de instrumentos de evaluaci&oacute;n docente para los posgrados de la UABC. Los instrumentos deber&iacute;an incluir las recomendaciones formuladas por los docentes; las opiniones de los estudiantes sobre los reactivos y las dimensiones de evaluaci&oacute;n, y los aspectos espec&iacute;ficos se&ntilde;alados por cada &aacute;rea de conocimiento. Adicionalmente, se busc&oacute; determinar la jerarqu&iacute;a de las dimensiones de evaluaci&oacute;n con base en la opini&oacute;n de docentes y alumnos, as&iacute; como conocer la valoraci&oacute;n del sistema que administra la evaluaci&oacute;n de la docencia desde la perspectiva de los docentes y estudiantes.</font></p>              <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>              <p align="justify"><font face="verdana" size="2"><b>METODOLOG&Iacute;A</b></font></p>              <p align="justify"><font face="verdana" size="2">La investigaci&oacute;n se abord&oacute; como un estudio de caso, en virtud de que, para nosotros, fue fundamental conocer el punto de vista de los participantes y recabar las distintas opiniones de acuerdo con los prop&oacute;sitos pedag&oacute;gicos y las diferencias entre las disciplinas, as&iacute; como trabajar desde una perspectiva metodol&oacute;gica que posibilitara ser sensibles al contexto para identificar las particularidades de cada programa. Se utilizaron t&eacute;cnicas cualitativas y cuantitativas para cubrir los diferentes objetivos. Las m&aacute;s importantes fueron los cuestionarios, las entrevistas semiestructuradas, el an&aacute;lisis de contenido y los c&aacute;lculos estad&iacute;sticos (espec&iacute;ficamente medidas de tendencia central y an&aacute;lisis de conglomerados). As&iacute;, el estudio se enmarc&oacute; en una metodolog&iacute;a cualitativa de investigaci&oacute;n a partir del planteamiento de los m&eacute;todos combinados (Bryman, 1984).</font></p>              <p align="justify"><font face="verdana" size="2">En la primera parte se describe el proceso de construcci&oacute;n de los instrumentos de evaluaci&oacute;n y la jerarquizaci&oacute;n de las dimensiones, a partir de la discusi&oacute;n realizada con maestros y alumnos mediante cuestionarios; en la segunda se pretende completar la informaci&oacute;n con la opini&oacute;n de los participantes sobre los aspectos pedag&oacute;gicos que caracterizan a un buen docente, as&iacute; como las caracter&iacute;sticas deseables en el sistema que administra los cuestionarios de evaluaci&oacute;n. Esto se llev&oacute; a cabo por medio de entrevistas semiestructuradas realizadas con dos muestras intencionales.</font></p>              <p align="justify"><font face="verdana" size="2"><b>Aplicaci&oacute;n de los cuestionarios</b></font></p>              ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Esta secci&oacute;n const&oacute; de cuatro fases. En la primera, se elabor&oacute; el cuestionario (Evaluaci&oacute;n de la actividad docente en posgrado) a partir de las dimensiones y reactivos que tanto la literatura anglosajona cuanto hispana marcan como relevantes (Landsheere, 1980; Shatz y Best, 1986; Tejedor, 1990; Centra, 1993; Marsh y Baily, 1993). Incluye las dimensiones: <i>a)</i> estructuraci&oacute;n de objetivos y contenidos; <i>b)</i> claridad expositiva; <i>c)</i> organizaci&oacute;n de la clase; <i>d)</i> dominio de la asignatura; e) cualidades de interacci&oacute;n; <i>f)</i> evaluaci&oacute;n del aprendizaje, y <i>g)</i> asesor&iacute;a al proyecto de tesis, cuando procede. En la definici&oacute;n de su contenido se consideraron las sugerencias hechas por la DGIP, por ser la autoridad que regula la ense&ntilde;anza en posgrado y la responsable de la administraci&oacute;n de este tipo de evaluaci&oacute;n en la UABC; adem&aacute;s, se revisaron los documentos sobre el tema producidos por acad&eacute;micos de diferentes posgrados. Finalmente, se realiz&oacute; un estudio piloto con los estudiantes para evaluar la claridad del cuestionario. Asimismo, se dise&ntilde;&oacute; un cuadro de ponderaci&oacute;n para identificar la jerarqu&iacute;a de las dimensiones. El prop&oacute;sito de estos instrumentos fue recoger la opini&oacute;n de docentes y alumnos sobre los diferentes aspectos que cubre la evaluaci&oacute;n de la docencia.</font></p>              <p align="justify"><font face="verdana" size="2">En la segunda, se proporcion&oacute; a los docentes el cuestionario dise&ntilde;ado para que se&ntilde;alaran al calce los comentarios y sugerencias a cada pregunta. Tambi&eacute;n se incluy&oacute; el cuadro de ponderaci&oacute;n de las dimensiones, en el que se les solicit&oacute; que, con base en su experiencia, asignaran el nivel de importancia que ellos propondr&iacute;an para cada una de las dimensiones de la actividad docente. Como parte de esta etapa, el cuestionario se reconstruy&oacute; incorporando las sugerencias con mayor frecuencia.</font></p>              <p align="justify"><font face="verdana" size="2">En la tercera, se entreg&oacute; a los estudiantes el cuestionario corregido y el cuadro de ponderaci&oacute;n de las dimensiones con el fin de recoger sus opiniones. Por &uacute;ltimo, se elabor&oacute; la versi&oacute;n final del cuestionario al incluir los comentarios de los alumnos. En la cuarta se present&oacute; a los maestros la versi&oacute;n final del cuestionario y los resultados m&aacute;s relevantes del trabajo de campo efectuado en las etapas anteriores.</font></p>              <p align="justify"><font face="verdana" size="2">El estudio se llev&oacute; a cabo con la poblaci&oacute;n de docentes y estudiantes de once programas de maestr&iacute;a y uno de doctorado de la UABC; se encuestaron 127 docentes, 86% de la poblaci&oacute;n total, y 125 estudiantes (66%); cabe hacer notar que las subpoblaciones encuestadas fueron representativas (v&eacute;ase <a href="#c1">cuadro 1</a>).</font></p>              <p align="center"><font face="verdana" size="2"><a name="c1"></a></font></p>              <p align="center"><font face="verdana" size="2"><img src="../img/revistas/peredu/v23n93/a2c1.jpg"></font></p>              <p align="justify"><font face="verdana" size="2">La aplicaci&oacute;n del cuestionario a docentes y estudiantes se llev&oacute; a cabo con el apoyo de la DGIP, que promovi&oacute; la participaci&oacute;n de directivos y maestros e hizo posible el acceso a los salones de clase. El procedimiento general consisti&oacute; en: <i>a)</i> explicar a los participantes los prop&oacute;sitos de la investigaci&oacute;n y solicitar su colaboraci&oacute;n en el proceso de construcci&oacute;n de los cuestionarios, as&iacute; como aclarar que la investigaci&oacute;n era independiente de la DGIP, aunque contaba con su apoyo; <i>b)</i> solicitar la revisi&oacute;n de la propuesta de cuestionario y escribir al calce los comentarios y sugerencias a cada pregunta, y <i>c)</i> describir el cuadro de ponderaci&oacute;n de las dimensiones, asignar un nivel jer&aacute;rquico a las mismas y mencionar otros aspectos no incluidos cuya evaluaci&oacute;n consideraran importante.</font></p>              <p align="justify"><font face="verdana" size="2"><b>Las entrevistas</b></font></p>              <p align="justify"><font face="verdana" size="2">La muestra de los docentes fue de quince maestros, tres de las &aacute;reas de exactas y naturales, m&eacute;dicas, agropecuarias, ingenier&iacute;a y sociales. Para su selecci&oacute;n, se tom&oacute; como criterio identificar por lo menos un maestro de cada programa reconocido por alumnos y colegas como muy buen docente; cabe recalcar que se destac&oacute; el reconocimiento en la docencia y no en la investigaci&oacute;n. La muestra de los estudiantes se form&oacute; con catorce alumnos, cuatro de las &aacute;reas de ciencias exactas y naturales e ingenier&iacute;a; tres de ciencias sociales, dos de ciencias agr&iacute;colas y uno de ciencias m&eacute;dicas. Se entrevistaron nueve estudiantes catalogados como muy buenos y cinco como regulares; para identificar a los primeros se aplic&oacute; el criterio de contar con un promedio m&iacute;nimo de 9 y no haber reprobado ninguna materia en el programa de posgrado; para los segundos, tener promedio de 8 o menor, y para ambos grupos, haber cursado por lo menos un a&ntilde;o del programa.</font></p>              <p align="justify"><font face="verdana" size="2">Las entrevistas se efectuaron en cub&iacute;culos o salones de clase y fueron grabadas. El prop&oacute;sito de entrevistar a los docentes fue documentar a profundidad las reflexiones de los maestros sobre su pr&aacute;ctica docente. Para ello, se les pregunt&oacute; sobre los criterios pedag&oacute;gicos que la Facultad les solicita respecto al proceso de ense&ntilde;anza&#45;aprendizaje y los criterios pedag&oacute;gicos que los maestros consideran son los pertinentes en su pr&aacute;ctica docente (se insisti&oacute; en identificar lo que define su pr&aacute;ctica pedag&oacute;gica); preguntar sobre ambos aspectos posibilit&oacute; identificarlos y contrastarlos. Asimismo, se pidieron sugerencias sobre aspectos a integrar en los cuestionarios de evaluaci&oacute;n de los alumnos y su opini&oacute;n sobre el procedimiento de aplicaci&oacute;n y sobre la utilizaci&oacute;n de los cuestionarios. El promedio de duraci&oacute;n de cada entrevista fue de 45 minutos.</font></p>              ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Las entrevistas a los estudiantes se llevaron a cabo con el prop&oacute;sito de conocer las opiniones de los alumnos sobre las caracter&iacute;sticas o cualidades que identifican a un buen docente, as&iacute; como su valoraci&oacute;n acerca de las funciones que cumple el cuestionario de evaluaci&oacute;n de la docencia con base en la opini&oacute;n del estudiante. En promedio las entrevistas fueron de 30 minutos.</font></p>              <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>              <p align="justify"><font face="verdana" size="2"><b>RESULTADOS DE LOS CUESTIONARIOS</b></font></p>              <p align="justify"><font face="verdana" size="2">El procedimiento seguido para determinar los elementos de las dimensiones de evaluaci&oacute;n del trabajo acad&eacute;mico consisti&oacute; en la elaboraci&oacute;n de una base de datos que concentr&oacute; los comentarios hechos a cada uno de los reactivos, las dimensiones, y la identificaci&oacute;n del programa de procedencia del encuestado; los comentarios se agruparon por categor&iacute;as de sugerencias y se comput&oacute; su frecuencia. Se elabor&oacute; una tabla para cada reactivo y dimensi&oacute;n con el fin de integrar la informaci&oacute;n. La determinaci&oacute;n de la frecuencia de sugerencias por categor&iacute;a en cada reactivo permiti&oacute; realizar el an&aacute;lisis exploratorio del comportamiento de los datos. Dado que el n&uacute;mero de participantes por programa de posgrado vari&oacute; de manera importante, se decidi&oacute; agruparlos por &aacute;rea de conocimiento y as&iacute; trabajar con n&uacute;meros mayores en las subpoblaciones.</font></p>              <p align="justify"><font face="verdana" size="2"><b>De los docentes</b></font></p>              <p align="justify"><font face="verdana" size="2">Una de las caracter&iacute;sticas de los resultados, a pesar del n&uacute;mero de cuestionarios aplicados, es lo reducido de las sugerencias; esto determin&oacute; atender observaciones con frecuencias de 2 o 3. El que un reactivo o dimensi&oacute;n no tuviera comentarios se consider&oacute; como aceptado; por tal motivo, la falta de respuesta fue interpretada como aprobaci&oacute;n. Asimismo, cabe destacar que todas las dimensiones del cuestionario base fueron aceptadas, as&iacute; como la mayor parte de los reactivos.</font></p>              <p align="justify"><font face="verdana" size="2">Las categor&iacute;as de sugerencias para los reactivos fueron, por un lado, de forma &#151;"redacci&oacute;n confusa y reactivo repetido"&#151; y por otro, de fondo &#151;una sola, "no procede evaluar"&#151;, con diferentes argumentaciones seg&uacute;n el caso: no se aplica para todos los cursos, el alumno no puede valorar si la bibliograf&iacute;a es actualizada, etc. Estas opiniones fueron hechas por los docentes de los diferentes posgrados.</font></p>              <p align="justify"><font face="verdana" size="2">En general, los docentes apelan a una redacci&oacute;n confusa en los reactivos donde expl&iacute;citamente se solicita evaluar su ejecuci&oacute;n en clase, como en los siguientes casos: "&iquest;explica claramente los contenidos del curso?", "&iquest;present&oacute; los fundamentos te&oacute;ricos o metodol&oacute;gicos de los contenidos desarrollados en clase?", y "&iquest;resolvi&oacute; los problemas planteados en clase?"; estas sugerencias provienen de manera principal de los posgrados en ciencias naturales y exactas, con un rango de frecuencias entre 3 y 4.</font></p>              <p align="justify"><font face="verdana" size="2">En la categor&iacute;a "no procede evaluar", la objeci&oacute;n "no se aplica para todos los cursos" se identific&oacute; en dos tipos de reactivos; por un lado, en los que aluden a la ejecuci&oacute;n del maestro con relaci&oacute;n al dominio del contenido, y por otro, en los vinculados con la ense&ntilde;anza de principios b&aacute;sicos de investigaci&oacute;n. Entre los primeros se ubican los reactivos: "&iquest;enfatiza los aspectos importantes del curso?", "&iquest;establece una clara diferenciaci&oacute;n entre sus puntos de vista y los de los autores?", y "&iquest;relacion&oacute; el contenido de la materia con otras materias?", con un rango de frecuencias entre 3 y 4; con referencia a los segundos se encuentran, "&iquest;se definieron posibles problemas de investigaci&oacute;n?", "&iquest;se realizaron actividades dirigidas a plantear problemas de investigaci&oacute;n?", "&iquest;se comentaron las posibles metodolog&iacute;as a seguir de acuerdo con los problemas de investigaci&oacute;n planteados?"; estas sugerencias las emitieron docentes de las &aacute;reas de ciencias exactas y naturales, ingenier&iacute;a y ciencias sociales, con una frecuencia de 13.</font></p>              <p align="justify"><font face="verdana" size="2">En la misma situaci&oacute;n se ubica "no procede evaluar por el alumno", identificada en el reactivo que eval&uacute;a la pertinencia de la bibliograf&iacute;a; esto fue se&ntilde;alado por nueve docentes de las diferentes &aacute;reas del conocimiento. Tambi&eacute;n, los docentes censuraron los reactivos que aluden a situaciones fuera de su control, como es el caso de "&iquest;defini&oacute; los objetivos del curso?", por considerar que la asistencia de los alumnos los primeros d&iacute;as de clase, cuando generalmente se describen los objetivos del curso, no depende de ellos.</font></p>              ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En las categor&iacute;as de sugerencias a las dimensiones se identificaron opiniones de los docentes de ciertas &aacute;reas en particular, as&iacute; como otras compartidas por todos. Espec&iacute;ficamente, los docentes de ciencias agropecuarias y ciencias de la ingenier&iacute;a indicaron que se eval&uacute;e "la aplicaci&oacute;n de los conocimientos a la soluci&oacute;n de problemas reales" y "relacionar el contenido con la soluci&oacute;n de problemas"; esta &uacute;ltima fue mencionada, adem&aacute;s, por los de ciencias m&eacute;dicas y ciencias sociales. Las sugerencias en las que coinciden los docentes de todas las &aacute;reas son evaluar el rubro de asesor&iacute;a al proyecto de tesis por separado, y evaluar aspectos formales del cumplimiento docente, como puntualidad, asistencia, o si el profesor imparte el n&uacute;mero de horas estipuladas; con el fin de ubicar estos comentarios se incorpor&oacute; la dimensi&oacute;n m&eacute;todo de trabajo. En todas las &aacute;reas se sugiri&oacute; evaluar el uso de apoyos did&aacute;cticos, con la excepci&oacute;n de los docentes del &aacute;rea de ciencias m&eacute;dicas. Por &uacute;ltimo, los comentarios relacionados con la evaluaci&oacute;n del aprendizaje se hicieron en ciencias agropecuarias, ciencias de la ingenier&iacute;a y ciencias m&eacute;dicas. Las frecuencias oscilaron entre 2 y 58.</font></p>              <p align="justify"><font face="verdana" size="2">El cuestionario inicial fue modificado a partir de los criterios: <i>a)</i> revisar los reactivos con frecuencia de sugerencias entre 2 y 4, sin que ello necesariamente modificara el reactivo; <i>b)</i> atender las sugerencias cuya frecuencia es de 5 o mayor, de acuerdo con el &aacute;rea de procedencia, lo que implic&oacute; modificar un reactivo, incluir uno nuevo e incluir una dimensi&oacute;n con sus respectivos reactivos.</font></p>              <p align="justify"><font face="verdana" size="2">Se efectuaron las modificaciones al cuestionario base de acuerdo con las observaciones y sugerencias de mayor frecuencia; de esta manera se dise&ntilde;aron tres cuestionarios que difieren entre s&iacute; en la inclusi&oacute;n diferenciada de los siguientes reactivos: uno exclusivo para las &aacute;reas de ciencias agropecuarias e ingenier&iacute;a &#151;"&iquest;relacion&oacute; el contenido de la materia con la soluci&oacute;n de problemas del campo profesional?"&#151;, y "&iquest;se definieron posibles problemas de investigaci&oacute;n?" s&oacute;lo en los cuestionarios de las &aacute;reas de ciencias exactas y naturales y ciencias m&eacute;dicas. Los cuestionarios correspondientes a las &aacute;reas del conocimiento quedaron agrupados en ciencias naturales y exactas y ciencias m&eacute;dicas; ciencias agropecuarias y ciencias de la ingenier&iacute;a, y ciencias sociales.</font></p>              <p align="justify"><font face="verdana" size="2"><b>De los estudiantes</b></font></p>              <p align="justify"><font face="verdana" size="2">Las respuestas de los estudiantes respecto a los rangos de frecuencias de sugerencias estuvieron por arriba de los docentes. Adem&aacute;s, las participaciones de los alumnos presentaron la caracter&iacute;stica de ser propositivas, ya que explican la confusi&oacute;n y sugieren c&oacute;mo mejorar el reactivo. Por ejemplo, en el caso: "&iquest;ha explicado claramente los contenidos del curso?", especificaron: "no se entiende contenido, &iquest;es el contenido tem&aacute;tico?, habr&iacute;a que sustituir por temas o contenido tem&aacute;tico".</font></p>              <p align="justify"><font face="verdana" size="2">Las sugerencias para los reactivos fueron de forma; se identific&oacute; un tipo relacionado con la redacci&oacute;n de los reactivos expresado en las modalidades "redacci&oacute;n confusa, modificar redacci&oacute;n se sugiere &#91;...&#93; y son iguales", que fue el de mayor ocurrencia; y "mover a otra dimensi&oacute;n" se&ntilde;alado en una ocasi&oacute;n. Se registraron comentarios de los alumnos de los diferentes posgrados, y llam&oacute; la atenci&oacute;n la escasa participaci&oacute;n de los de ciencias sociales. Las frecuencias de las participaciones oscilaron entre 0 y 12.</font></p>              <p align="justify"><font face="verdana" size="2">Los alumnos formularon sugerencias para cada una de las dimensiones de evaluaci&oacute;n, con excepci&oacute;n de la de dominio de la asignatura. Sin embargo, sus participaciones se concentraron en la dimensi&oacute;n evaluaci&oacute;n del aprendizaje, formularon cinco propuestas diferentes relacionadas con el prop&oacute;sito de que se realice una evaluaci&oacute;n justa por parte del maestro. Asimismo, sugirieron la evaluaci&oacute;n de aspectos relacionados con la secuenciaci&oacute;n l&oacute;gica de los contenidos y la consideraci&oacute;n de los conocimientos previos de los estudiantes al impartir los temas; en atenci&oacute;n a ello, se incluy&oacute; la dimensi&oacute;n "estrategias de instrucci&oacute;n". A diferencia de los docentes, no se detect&oacute; ning&uacute;n planteamiento particular por &aacute;rea de conocimiento; por tal motivo, se consider&oacute; que, desde el punto de vista de los estudiantes, los cuestionarios responden a las caracter&iacute;sticas de su contexto de aprendizaje.</font></p>              <p align="justify"><font face="verdana" size="2">Se mantuvieron los mismos criterios generales utilizados con los docentes para integrar las sugerencias de los alumnos al cuestionario. Adem&aacute;s, se sigui&oacute; como criterio no incorporar las sugerencias de los alumnos que los docentes hubieran censurado con anterioridad, como fue el caso de evaluar si la bibliograf&iacute;a del curso era actualizada, y si se definieron y explicaron los objetivos del curso al inicio del mismo. En s&iacute;ntesis, en los instrumentos no se incluy&oacute; ning&uacute;n reactivo o dimensi&oacute;n con el que los docentes no estuvieran de acuerdo.</font></p>              <p align="justify"><font face="verdana" size="2"><b>Resultados: los cuestionarios</b></font></p>              <p align="justify"><font face="verdana" size="2">El dise&ntilde;o de los tres cuestionarios producto de este trabajo de investigaci&oacute;n se organiz&oacute; considerando las siguientes dimensiones: estructuraci&oacute;n de objetivos y contenidos, que eval&uacute;a aspectos relacionados con la estructuraci&oacute;n del programa del curso (como congruencia entre los elementos, la pertinencia de la bibliograf&iacute;a y del tiempo asignado a la ense&ntilde;anza de cada tema); claridad expositiva, que eval&uacute;a las habilidades del docente para comunicar los contenidos de manera comprensible (cuestiona sobre la presentaci&oacute;n de los temas y si el maestro explicit&oacute; los aspectos importantes del curso); organizaci&oacute;n de la clase, que valora la preparaci&oacute;n de la clase y la utilizaci&oacute;n de materiales que apoyen la ense&ntilde;anza (como la programaci&oacute;n y la realizaci&oacute;n de actividades); dominio de la asignatura, que eval&uacute;a el conocimiento del instructor sobre la materia (presentaci&oacute;n de las implicaciones de distintos enfoques y metodolog&iacute;as, la soluci&oacute;n de los problemas planteados en clase, y la relaci&oacute;n del curso con otras materias o disciplinas); estrategias de instrucci&oacute;n, que valora las estrategias de ense&ntilde;anza utilizadas por el docente (cuestiona sobre la secuenciaci&oacute;n l&oacute;gica de los contenidos y la consideraci&oacute;n de los conocimientos previos de los estudiantes al inicio de cada tema); cualidades de interacci&oacute;n, que eval&uacute;a la disposici&oacute;n del maestro para ayudar al estudiante y motivarlo a participar en clase (como la atenci&oacute;n al punto de vista, dudas y preguntas de los alumnos); evaluaci&oacute;n del aprendizaje, que valora las estrategias del maestro para evaluar los logros del estudiante (incluye la explicitaci&oacute;n de las estrategias de evaluaci&oacute;n, la pertinencia de las mismas y la ponderaci&oacute;n); por &uacute;ltimo, el m&eacute;todo de trabajo valora los aspectos formales del cumplimiento docente (la entrega del programa del curso al inicio del mismo, si la bibliograf&iacute;a del curso se encontr&oacute; disponible y sobre la asistencia y puntualidad del profesor).</font></p>              ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Las variaciones entre los cuestionarios estriban en la inclusi&oacute;n diferenciada de dos reactivos m&aacute;s en la dimensi&oacute;n dominio de la asignatura. En las &aacute;reas de ciencias naturales y exactas y de ciencias m&eacute;dicas, se incorpor&oacute; el reactivo, "&iquest;se discutieron posibles problemas de investigaci&oacute;n". En las &aacute;reas de ciencias agropecuarias y ciencias de la ingenier&iacute;a, se incluy&oacute; el reactivo, "relacion&oacute; el contenido de la materia con la soluci&oacute;n de problemas del campo profesional?" (el <a href="../img/revistas/peredu/v23n93/html/a2a.html" target="_blank">anexo</a> muestra la versi&oacute;n final de los cuestionarios).</font></p>              <p align="justify"><font face="verdana" size="2"><b>Jerarquizaci&oacute;n de las dimensiones de evaluaci&oacute;n</b></font></p>              <p align="justify"><font face="verdana" size="2">El an&aacute;lisis estad&iacute;stico se realiz&oacute; para determinar la jerarqu&iacute;a de las dimensiones de evaluaci&oacute;n del trabajo acad&eacute;mico para cada una de las poblaciones, docentes y estudiantes de posgrado; las tendencias de opini&oacute;n entre los programas, y el nivel de discrepancia y similitud en la opini&oacute;n de docentes y alumnos, en general y por programa. Los c&aacute;lculos se efectuaron mediante t&eacute;cnicas de clasificaci&oacute;n de an&aacute;lisis de conglomerados, dado que reconocen subconjuntos dentro de un grupo general de datos, tomando como base medidas que permiten identificar las distancias entre los elementos del conjunto (Johnsonbaugh, 1988). El tratamiento de la informaci&oacute;n fue el mismo para las dos poblaciones, lo que implic&oacute; trabajar de manera independiente cada grupo de datos. El procedimiento seguido consisti&oacute; en las siguientes etapas:</font></p>              <blockquote>           <p align="justify"><font face="verdana" size="2">1. A partir del cuadro de ponderaci&oacute;n se elaboraron matrices de frecuencia de orden 7 dimensiones por 7 jerarqu&iacute;as por programa, y para cada poblaci&oacute;n. Esto consisti&oacute; en cuantificar el n&uacute;mero total de encuestados que clasific&oacute; cada indicador de mayor a menor importancia, con la posibilidad de ubicar a m&aacute;s de un indicador en el mismo nivel. Este procedimiento permiti&oacute; determinar la matriz de frecuencia del orden asignado a cada dimensi&oacute;n por programa y para la poblaci&oacute;n total, tanto de docentes como de alumnos.</font></p>           <p align="justify"><font face="verdana" size="2">2. Se normalizaron las matrices de frecuencia 7 por 7 por programa y para cada poblaci&oacute;n. Esto consisti&oacute; en dividir los componentes de cada matriz entre el n&uacute;mero de individuos encuestados; con estos datos se ubic&oacute; el orden de importancia de los indicadores, en funci&oacute;n de las dos poblaciones estudiadas.</font></p>           <p align="justify"><font face="verdana" size="2">3. Se elaboraron matrices de diferencias, se calcularon tomando el valor absoluto de la diferencia de componente a componente de las matrices de frecuencia normalizadas 2 a 2 (cada programa respecto a todos los dem&aacute;s programas).</font></p>           <p align="justify"><font face="verdana" size="2">4. Se determin&oacute; la distancia de opini&oacute;n entre programas, a partir de la suma total de los componentes de la matriz de diferencias; con esta informaci&oacute;n se construyeron matrices de disimilitud que concentran la informaci&oacute;n de las distancias de opini&oacute;n de cada poblaci&oacute;n en general y de cada programa respecto a los dem&aacute;s; el <a href="#c2">cuadro 2</a> presenta la informaci&oacute;n correspondiente a los docentes. Sus componentes exhiben la diferencia de opini&oacute;n de los acad&eacute;micos de un programa respecto a los de otro programa, por lo cual, tanto en los renglones como en las columnas del cuadro se ubican programas contra programas, con excepci&oacute;n de g, que se refiere a la poblaci&oacute;n total; por ejemplo, el n&uacute;mero 4.76, localizado en la coordenada G&#45;MCS, cuantifica la diferencia de opini&oacute;n de los profesores de la maestr&iacute;a en ciencias Sociales respecto a la opini&oacute;n general de todos los docentes. con base en estas coordenadas se construyeron los diagramas de &aacute;rbol que permiten detectar los conglomerados.</font></p>           <p align="center"><font face="verdana" size="2"><a name="c2"></a></font></p>           <p align="center"><font face="verdana" size="2"><img src="../img/revistas/peredu/v23n93/a2c2.jpg"></font></p>           ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">5. Se construyeron las <a href="#f1">figuras 1</a> y <a href="#f2">2</a> con la informaci&oacute;n del primer rengl&oacute;n de la matriz de disimilitud de cada poblaci&oacute;n. La <a href="#f1">figura 1</a> presenta la comparaci&oacute;n de la opini&oacute;n general respecto a cada programa para los docentes y la <a href="#f2">figura 2</a> para los estudiantes. En los diagramas se orden&oacute; la informaci&oacute;n a partir de una recta num&eacute;rica que va del 0 al 10, lo cual permiti&oacute; reconocer los conglomerados. Los resultados mostraron que s&iacute; existen tendencias de opini&oacute;n entre los programas, tanto en la poblaci&oacute;n de docentes como en la de estudiantes, en cuanto a la preferencia de las dimensiones, de tal manera que los grupos obtenidos reflejan un patr&oacute;n de agrupamiento por &aacute;rea de conocimiento. En ambos casos, como se puede observar en las respectivas figuras, se ubican cuatro conglomerados. El primer conglomerado agrupa los programas cuya opini&oacute;n tiene mayor similitud respecto a la opini&oacute;n general; el segundo se encuentra moderadamente alejado, el tercero y cuarto comprenden a los que se alejan en mayor medida de la opini&oacute;n general.</font></p>           <p align="center"><font face="verdana" size="2"><a name="f1"></a></font></p>           <p align="center"><font face="verdana" size="2"><img src="../img/revistas/peredu/v23n93/a2f1.jpg"></font></p>           <p align="center"><font face="verdana" size="2"><a name="f2"></a></font></p>           <p align="center"><font face="verdana" size="2"><img src="../img/revistas/peredu/v23n93/a2f2.jpg"></font></p>           <p align="justify"><font face="verdana" size="2">6. La <a href="#f3">figura 3</a> compara los resultados de las matrices de frecuencia normalizadas de acad&eacute;micos y estudiantes para cada programa. Presenta el contraste de opini&oacute;n entre docentes y estudiantes, identificando los conglomerados y las diferencias. Los resultados identificaron tres conglomerados; el primero, ubica el programa con mayor coincidencia de opini&oacute;n entre maestros y estudiantes; seguido de los medianamente discrepantes, y un &uacute;ltimo conglomerado, cuya caracter&iacute;stica es la dispersi&oacute;n de opini&oacute;n, sit&uacute;a los programas con mayor discrepancia entre la opini&oacute;n de docentes y alumnos.</font></p>           <p align="center"><font face="verdana" size="2"><a name="f3"></a></font></p>           <p align="center"><font face="verdana" size="2"><img src="../img/revistas/peredu/v23n93/a2f3.jpg"></font></p>           <p align="justify"><font face="verdana" size="2">7. La jerarquizaci&oacute;n general de las dimensiones de evaluaci&oacute;n se obtuvo de las matrices normalizadas para cada poblaci&oacute;n. Las jerarqu&iacute;as (j) obtenidas se presentan en el <a href="#c3">cuadro 3</a>; esta jerarquizaci&oacute;n permiti&oacute; identificar, por un lado, el orden de importancia de las dimensiones para cada poblaci&oacute;n, y por otro, las coincidencias y discrepancias de opini&oacute;n. De esta manera, se identific&oacute; que el dominio del contenido es la dimensi&oacute;n m&aacute;s importante tanto para los docentes como para los estudiantes. </font></p>           <p align="center"><font face="verdana" size="2"><a name="c3"></a></font></p>           ]]></body>
<body><![CDATA[<p align="center"><font face="verdana" size="2"><img src="../img/revistas/peredu/v23n93/a2c3.jpg"></font></p>           <p align="justify"><font face="verdana" size="2">8. Las jerarqu&iacute;as de las dimensiones de evaluaci&oacute;n de los conglomerados obtenidos en la poblaci&oacute;n de docentes y de estudiantes se obtuvieron de las matrices normalizadas correspondientes a cada subpoblaci&oacute;n; el procedimiento que se sigui&oacute; para calcular los &iacute;ndices fue el mismo que para la jerarquizaci&oacute;n general. En el contraste entre la jerarquizaci&oacute;n general y la de los conglomerados de los docentes y los estudiantes se confirm&oacute; el dominio del contenido como la dimensi&oacute;n m&aacute;s importante.</font></p>     </blockquote>              <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>              <p align="justify"><font face="verdana" size="2"><b>RESULTADOS DE LAS ENTREVISTAS</b></font></p>              <p align="justify"><font face="verdana" size="2">El procedimiento seguido para analizar el contenido de las entrevistas consisti&oacute; en primer lugar en su transcripci&oacute;n; en un segundo momento se hizo la organizaci&oacute;n del an&aacute;lisis que incluy&oacute; la lectura continua y repetida del discurso, el an&aacute;lisis previo, la exploraci&oacute;n del material y la delimitaci&oacute;n del tratamiento por seguir; en tercer lugar, se realiz&oacute; la selecci&oacute;n representativa del discurso que determin&oacute; las unidades de registro a partir del discurso textual y contextuado de los participantes; en cuarto lugar, se elabor&oacute; la clasificaci&oacute;n &#151;con base en las dimensiones de an&aacute;lisis previamente establecidas en las entrevistas&#151; en matrices de trabajo donde se realiz&oacute; una transcripci&oacute;n textual del discurso seleccionado; en quinto lugar, se procedi&oacute; a la categorizaci&oacute;n que comprendi&oacute; nuevas categor&iacute;as surgidas del propio discurso de docentes y alumnos, adem&aacute;s de las ya establecidas previamente en el an&aacute;lisis de los cuestionarios; en sexto lugar, se hizo el an&aacute;lisis cuantitativo y cualitativo de las categor&iacute;as, y finalmente se concluy&oacute; con la interpretaci&oacute;n del contenido a partir de la categorizaci&oacute;n (Bardin, 1977).</font></p>              <p align="justify"><font face="verdana" size="2"><b>Resultados de las entrevistas a los docentes</b></font></p>              <p align="justify"><font face="verdana" size="2">Las caracter&iacute;sticas de los entrevistados muestran la situaci&oacute;n acad&eacute;mica y laboral de los mejores maestros por &aacute;rea de conocimiento de los posgrados de la UABC. En su mayor&iacute;a ocupan la categor&iacute;a de profesor o investigador titular con definitividad y se dedican de tiempo completo a las actividades acad&eacute;micas; su experiencia docente oscila entre siete y veinti&uacute;n a&ntilde;os; la formaci&oacute;n pedag&oacute;gica es m&aacute;s com&uacute;n en algunas &aacute;reas del conocimiento. As&iacute;, los tres entrevistados de ciencias de la ingenier&iacute;a han tomado cursos de formaci&oacute;n docente, a diferencia de los de ciencias naturales y exactas, quienes no han contado con este tipo de cursos.</font></p>              <p align="justify"><font face="verdana" size="2">Las dimensiones de an&aacute;lisis exploradas fueron tres: <i>1)</i> criterios pedag&oacute;gicos del programa, que identific&oacute;, desde el punto de vista de los docentes, los principios pedag&oacute;gicos se&ntilde;alados por el programa, <i>2)</i> criterios pedag&oacute;gicos personales, que hizo referencia a los principios de ense&ntilde;anza&#45;aprendizaje que el profesor considera son los pertinentes en su pr&aacute;ctica docente, y <i>3)</i> evaluaci&oacute;n y sugerencias al sistema de evaluaci&oacute;n, que indag&oacute; la opini&oacute;n de los docentes sobre el procedimiento de aplicaci&oacute;n y sobre la utilizaci&oacute;n de los cuestionarios, as&iacute; como los aspectos por integrarse tanto a los cuestionarios como al sistema de evaluaci&oacute;n.</font></p>              <p align="justify"><font face="verdana" size="2"><i>Criterios pedag&oacute;gicos del programa</i></font></p>              <p align="justify"><font face="verdana" size="2">De quince entrevistados, diez se&ntilde;alaron la inexistencia de criterios pedag&oacute;gicos que el programa o la instituci&oacute;n demanda, dos hicieron referencia a dominio del contenido, y uno a las pol&iacute;ticas educativas que orientan la formaci&oacute;n en posgrado (investigaci&oacute;n <i>versus</i> profesionalizaci&oacute;n); los tres docentes del &aacute;rea de ciencias m&eacute;dicas fueron los &uacute;nicos en mencionar los criterios pedag&oacute;gicos se&ntilde;alados por el programa. Esta situaci&oacute;n, sumada a la escasa formaci&oacute;n para la docencia que se registr&oacute;, indican que los docentes de posgrado enfrentan sin orientaci&oacute;n formal su quehacer docente; lo que proporciona la instituci&oacute;n, en el mejor de los casos, es un listado de temas.</font></p>              ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><i>Criterios pedag&oacute;gicos personales</i></font></p>              <p align="justify"><font face="verdana" size="2">Se identificaron dos grandes grupos de categor&iacute;as en el discurso de los docentes; por un lado, las que no son exploradas en los cuestionarios de evaluaci&oacute;n y consideramos originales, y por el otro, las que coinciden con las establecidas en los cuestionarios de evaluaci&oacute;n que se aplican en la universidad.</font></p>              <p align="justify"><font face="verdana" size="2">En categor&iacute;as originales se identificaron el tipo de ense&ntilde;anza y el papel del maestro, las cuales son una reflexi&oacute;n de los docentes respecto a c&oacute;mo caracterizan su clase y a s&iacute; mismos. Se identificaron dos formas que orientan el quehacer docente, flexibilidad con el programa atendiendo a las demandas del grupo, diagn&oacute;stico acad&eacute;mico del alumno y dominio pedag&oacute;gico del contenido. Estas caracter&iacute;sticas definen el trabajo docente de quienes las practican y se reconoce que se encuentran interrelacionadas. Atendiendo el discurso de los docentes, se observa c&oacute;mo una situaci&oacute;n lleva a la otra, si "el programa depende del perfil del estudiante y del grupo" &#91;se requiere determinar sus habilidades e intereses o, en otras palabras&#93; "ubicar el conocimiento de los alumnos". Asimismo, en ellos resulta claro el manejo preciso que tienen sobre las acciones pedag&oacute;gicas que siguen para propiciar el aprendizaje de sus estudiantes.</font></p>              <p align="justify"><font face="verdana" size="2">En categor&iacute;as establecidas en los cuestionarios de evaluaci&oacute;n se describe desde la visi&oacute;n de los docentes el valor que tienen en su pr&aacute;ctica pedag&oacute;gica el dominio del contenido, la estructuraci&oacute;n del programa, la organizaci&oacute;n de la clase, las cualidades de interacci&oacute;n, la evaluaci&oacute;n del aprendizaje y el m&eacute;todo de trabajo; sus comentarios confirman la pertinencia de considerarlas como parte de los cuestionarios de evaluaci&oacute;n de la docencia. Asimismo, se corrobor&oacute; la importancia que tiene, en particular, para los docentes de las &aacute;reas de ciencias de la ingenier&iacute;a y ciencias agr&iacute;colas, la aplicaci&oacute;n del conocimiento como una estrategia de ense&ntilde;anza.</font></p>              <p align="justify"><font face="verdana" size="2"><i>Evaluaci&oacute;n del sistema y sugerencias</i></font></p>              <p align="justify"><font face="verdana" size="2">Las categor&iacute;as recurrentes: prop&oacute;sitos de la evaluaci&oacute;n, tama&ntilde;o del grupo, oportunidad y frecuencia de la evaluaci&oacute;n, hablan de las principales observaciones al sistema en conjunto. Es claro que el anhelo de los docentes es que este tipo de evaluaci&oacute;n se lleve a cabo con el &uacute;nico prop&oacute;sito de mejorar la docencia.</font></p>              <p align="justify"><font face="verdana" size="2">En cuanto a la oportunidad y frecuencia de la evaluaci&oacute;n, en general los docentes est&aacute;n de acuerdo con la aplicaci&oacute;n de una evaluaci&oacute;n al final del semestre, no as&iacute; respecto a una intermedia o inicial; aqu&iacute; se denota la pol&eacute;mica existente respecto a definir cu&aacute;ndo llevar a cabo la evaluaci&oacute;n, decisi&oacute;n relacionada con los prop&oacute;sitos de la misma. La discusi&oacute;n alrededor del tama&ntilde;o del grupo se&ntilde;ala uno de los problemas t&eacute;cnicos que afectan la confiabilidad de los resultados, en particular cuando los grupos son de muy pocos alumnos (dos o tres), todav&iacute;a m&aacute;s en un contexto de evaluaci&oacute;n donde el puntaje de los alumnos al profesor tiene repercusiones econ&oacute;micas, como es en el caso de la UABC.</font></p>              <p align="justify"><font face="verdana" size="2"><b>Resultados de las entrevistas a los alumnos</b></font></p>              <p align="justify"><font face="verdana" size="2">Las dimensiones de an&aacute;lisis que se examinaron fueron las cualidades pedag&oacute;gicas que caracterizan a un buen docente; es decir, las caracter&iacute;sticas del proceder docente necesarias en el proceso ense&ntilde;anza&#45;aprendizaje desde el punto de vista de los estudiantes, y la evaluaci&oacute;n y sugerencias al sistema que administra los cuestionarios que identific&oacute; la opini&oacute;n de los alumnos sobre el procedimiento de aplicaci&oacute;n y utilizaci&oacute;n de los cuestionarios.</font></p>              <p align="justify"><font face="verdana" size="2"><i>Cualidades pedag&oacute;gicas</i></font></p>              ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Los estudiantes describieron de manera clara las cualidades que definen a un buen docente y a las que ellos dan prioridad al contestar los cuestionarios de evaluaci&oacute;n de la docencia; tres son los aspectos fundamentales: que el maestro posea un conocimiento amplio, especializado y actualizado sobre la tem&aacute;tica del curso; dominio del contenido (cabe hacer notar que para trece estudiantes de catorce entrevistados es la cualidad que define al docente de posgrado); que prepare la clase y haga uso de materiales de apoyo (organizaci&oacute;n de la clase), y que inspire confianza para interactuar con &eacute;l, con el prop&oacute;sito de hacerle preguntas en el sal&oacute;n de clases o en asesor&iacute;as (cualidades de interacci&oacute;n). Adem&aacute;s, se pronunciaron porque lleve a cabo procedimientos instruccionales para facilitar el aprendizaje (estrategias de instrucci&oacute;n).</font></p>              <p align="justify"><font face="verdana" size="2"><i>Evaluaci&oacute;n del sistema y sugerencias</i></font></p>              <p align="justify"><font face="verdana" size="2">Respecto al sistema que administra los cuestionarios de evaluaci&oacute;n de la docencia, la mayor&iacute;a de los estudiantes considera que &eacute;stos no tienen una funci&oacute;n importante, en la medida en que no se presentan cambios en los maestros mal evaluados. De manera aparente, sus comentarios no afectan a los docentes; a pesar de ello, los estudiantes desean que sus evaluaciones sean an&oacute;nimas. Desde su punto de vista, este tipo de evaluaciones deber&iacute;a llevarse a cabo con el prop&oacute;sito de mejorar la docencia e identificar a los malos maestros; respecto a cu&aacute;ndo es el mejor momento para aplicar los cuestionarios no se present&oacute; acuerdo, hubo quien opin&oacute; sobre la pertinencia de hacerlo en etapas tempranas del semestre y quien opin&oacute; lo contrario.</font></p>              <p align="justify"><font face="verdana" size="2">Un hallazgo relevante de la investigaci&oacute;n es el hecho de que mediante las entrevistas se confirmaron los resultados derivados de los an&aacute;lisis estad&iacute;sticos en relaci&oacute;n con las coincidencias y diferencias de opini&oacute;n entre docentes y estudiantes; entre ellos destaca la identificaci&oacute;n de dominio del contenido como la dimensi&oacute;n de mayor importancia para ambos actores.</font></p>              <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>              <p align="justify"><font face="verdana" size="2"><b>DISCUSI&Oacute;N</b></font></p>              <p align="justify"><font face="verdana" size="2">La tradici&oacute;n e investigaci&oacute;n del uso de cuestionarios de opini&oacute;n de estudiantes como recurso para evaluar la labor de los profesores no ha sido suficiente para lograr un consenso en las comunidades de investigadores, y en el personal acad&eacute;mico que tiene a su cargo esta funci&oacute;n en las universidades. Por esta raz&oacute;n se consider&oacute; indispensable la participaci&oacute;n de docentes y alumnos en la construcci&oacute;n de una iniciativa de evaluaci&oacute;n de la docencia. Los resultados de este estudio identificaron las dimensiones de evaluaci&oacute;n m&aacute;s importantes para la ense&ntilde;anza en los posgrados de la UABC; reconocieron los aspectos particulares de evaluaci&oacute;n por &aacute;rea de conocimiento de los diferentes programas, lo que nos llev&oacute; a construir tres cuestionarios diferentes, y se defini&oacute; una jerarqu&iacute;a general de las dimensiones, as&iacute; como las jerarqu&iacute;as correspondientes a los agrupamientos de los programas. As&iacute;, la evaluaci&oacute;n de la docencia por los alumnos en el &aacute;mbito de posgrado que actualmente se practica en la UABC es un resultado directo de esta investigaci&oacute;n, ya que utiliza los instrumentos generados a partir de este estudio. De esta manera, los instrumentos toman en cuenta los aspectos cr&iacute;ticos del proceso de instrucci&oacute;n para cada &aacute;rea del conocimiento; en este sentido nuestra experiencia result&oacute; exitosa y puede sugerirse para su empleo en otras instituciones de educaci&oacute;n superior.</font></p>              <p align="justify"><font face="verdana" size="2">Por otro lado, los supuestos sobre las habilidades gen&eacute;ricas de la docencia efectiva se refuerzan con los resultados obtenidos en este estudio; sin embargo, esta postura no debe desatender el reconocimiento de la especificidad de la ense&ntilde;anza disciplinaria o por lo menos de las distintas situaciones de aprendizaje en los programas de formaci&oacute;n profesional. Es importante realizar estudios que aporten informaci&oacute;n sobre los cambios de criterio en las expectativas de los estudiantes hacia sus profesores durante su recorrido en el proceso de formaci&oacute;n profesional.</font></p>              <p align="justify"><font face="verdana" size="2">En cuanto a las jerarqu&iacute;as de las dimensiones empleadas en los cuestionarios, la similitud en las opiniones expresadas por profesores y estudiantes muestra tambi&eacute;n la semejanza de criterios en cuanto a la importancia que cada actor les otorga en el proceso de ense&ntilde;anza&#45;aprendizaje; sin embargo, este hecho podr&iacute;a interpretarse como la necesidad de ampliar el conocimiento sobre la discusi&oacute;n de las funciones del profesor y de los nuevos roles que los estudiantes deben cumplir, en un sistema de educaci&oacute;n superior que responda a las necesidades de una sociedad en plena evoluci&oacute;n.</font></p>              <p align="justify"><font face="verdana" size="2">Aunque el proceso de construcci&oacute;n del instrumento para evaluar la docencia se apeg&oacute; a los lineamientos sugeridos por Marsh (1987), consideramos que un elemento clave que deber&aacute; agregarse a dichos lineamientos es la comunicaci&oacute;n directa con los profesores y estudiantes que emplear&aacute;n el instrumento dise&ntilde;ado; esto sin duda repercute en el clima favorable con el que la evaluaci&oacute;n puede tener lugar, pero sobre todo por la oportunidad que se brinda a todos los actores del proceso al reflexionar colectivamente sobre la problem&aacute;tica de la docencia.</font></p>              ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">La pespectiva metodol&oacute;gica empleada (Bryman, 1984) permiti&oacute; conocer el problema de la evaluaci&oacute;n con una actitud de sensibilidad y respeto, al tratar de rescatar el punto de vista de los propios involucrados en el proceso de evaluaci&oacute;n y de acercar los intereses de la administraci&oacute;n central de la Universidad con los de los acad&eacute;micos y estudiantes; esto fue posible por la postura del trabajo como una acci&oacute;n identificada por todos los participantes como un proyecto de investigaci&oacute;n.</font></p>              <p align="justify"><font face="verdana" size="2">Un elemento adicional que ha arrojado esta experiencia de evaluaci&oacute;n de la docencia es que en el momento que se convoca a los profesores y estudiantes a participar en ella, se establece la oportunidad de descubrir aspectos importantes. Uno de ellos es el hecho de que la instituci&oacute;n o las personas encargadas de la direcci&oacute;n acad&eacute;mica de los programas no han contemplado la orientaci&oacute;n precisa sobre qu&eacute; es lo que se espera que los profesores cumplan en cada situaci&oacute;n de ense&ntilde;anza prevista curricularmente, referido como criterios pedag&oacute;gicos del programa. Otro es la oportunidad de conocer los criterios personales que cada profesor, de manera consciente o no, emplea como recurso para orientar su pr&aacute;ctica en el momento de la interacci&oacute;n con sus estudiantes; dicho conocimiento puede sentar las bases para la caracterizaci&oacute;n de los rasgos esenciales de la ense&ntilde;anza de cada disciplina.</font></p>              <p align="justify"><font face="verdana" size="2">El estudio plantea la discusi&oacute;n del uso de los resultados de la evaluaci&oacute;n, por una parte los acad&eacute;micos y estudiantes est&aacute;n de acuerdo con la aplicaci&oacute;n de procedimientos de evaluaci&oacute;n, sin embargo, unos y otros muestran sus reservas al no existir correspondencia de su participaci&oacute;n con acciones concretas derivadas de los resultados obtenidos. Si se declara que la evaluaci&oacute;n es realizada para mejorar la calidad de la ense&ntilde;anza, un resultado desfavorable en la evaluaci&oacute;n deber&iacute;a conducir hacia programas de formaci&oacute;n permanente o m&iacute;nimamente al acceso de informaci&oacute;n o ayuda especializada para que el profesor pueda solventar el problema.</font></p>              <p align="justify"><font face="verdana" size="2">Un elemento central de los resultados de esta investigaci&oacute;n es la necesidad de encaminar los procesos de evaluaci&oacute;n hacia la autoevaluaci&oacute;n asistida o acompa&ntilde;ada, para hacer frente a las situaciones de "simulaci&oacute;n" que se propician cuando las acciones de evaluaci&oacute;n son ajenas a los acad&eacute;micos o impuestas desde una iniciativa exterior. La participaci&oacute;n de los acad&eacute;micos en los procesos de evaluaci&oacute;n ya ha sido explorada por otras iniciativas (Gilio, 2000; Rueda <i>et al.,</i> 1996; Loredo, <i>et al.,</i> 1999) y con los resultados de este estudio se refuerza su factibilidad y su necesidad, si se quiere retomar el rumbo del uso de la evaluaci&oacute;n para el mejoramiento de la actividad.</font></p>              <p align="justify"><font face="verdana" size="2">La literatura sobre evaluaci&oacute;n se&ntilde;ala de</font> <font face="verdana" size="2">manera contundente la necesidad de separar prop&oacute;sitos de premio o recompensa de los de mejora de la actividad; sin embargo, en el contexto mexicano, debido a la asociaci&oacute;n de las pol&iacute;ticas de evaluaci&oacute;n con el salario, predomina la mezcla de estos dos prop&oacute;sitos, lo que deja a los procesos de evaluaci&oacute;n en una situaci&oacute;n poco clara.</font></p>              <p align="justify"><font face="verdana" size="2">La perspectiva de comparar los puntos de vista de profesores y estudiantes tambi&eacute;n arroj&oacute; informaci&oacute;n adicional sobre la evaluaci&oacute;n. Por una parte los profesores, en cuanto la evaluaci&oacute;n puede afectar sus salarios, son muy cuidadosos en eliminar todos aquellos aspectos evaluados que est&aacute;n fuera de su control. Por su parte, los estudiantes otorgan mayor peso en sus opiniones a las formas de evaluaci&oacute;n empleadas por sus profesores, muy probablemente preocupados porque se atienda un aspecto clave de su formaci&oacute;n profesional.</font></p>              <p align="justify"><font face="verdana" size="2">Finalmente, consideramos importante se&ntilde;alar que la evaluaci&oacute;n de la docencia &#151;v&iacute;a cuestionarios contestados por estudiantes&#151; tiene, como toda evaluaci&oacute;n, l&iacute;mites que ser&aacute; necesario reconocer, sobre todo ante la complejidad de una tarea tan importante y pol&eacute;mica como lo es la docencia universitaria, de manera que han de ser bienvenidas todas las iniciativas por explorar otros medios en su evaluaci&oacute;n, m&aacute;s a&uacute;n si con ellos se contribuye a su mejoramiento.</font></p>              <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>              <p align="justify"><font face="verdana" size="2"><b>Referencias</b></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">ABRAMI, P. C. y d'Apollonia, S. (1990), "The dimensionality of ratings and their use in personnel decisions", en M. Theall y J. Franklin (eds.), <i>Student ratings of instruction: Issues for improving practice, New Directions for Teaching and Learning,</i> num. 43, pp. 97&#45;112, San Francisco, Jossey Bass.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809036&pid=S0185-2698200100030000200001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">ABRAMI, P. C., d'Apollonia, S., y Cohen, P. A. (1990), "Validity of student ratings of instruction what we know and what we do not", en <i>Journal of Educational Psychology,</i> vol. 82, num. 2, pp. 219&#45;231.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809038&pid=S0185-2698200100030000200002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">ASOCIACI&Oacute;N Nacional de Universidades e Instituciones de Educaci&oacute;n Superior (1997), <i>Anuario estad&iacute;stico. Personal de licenciatura y posgrado en universidades e institutos tecnol&oacute;gicos,</i> ANUIES, M&eacute;xico.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809040&pid=S0185-2698200100030000200003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">BARDIN, L. (1977), <i>L'analyse de contenu,</i> Francia, Presses Universitaires.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809042&pid=S0185-2698200100030000200004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">BRYMAN, A. (1984), "The debate about quantitative and qualitative research: a question of method or epistemology?", en <i>The British Journal of Sociology,</i> vol. XXXV, n&uacute;m. 1, 75&#45;92.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809044&pid=S0185-2698200100030000200005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">CENTRA, J. A. (1993), <i>Reflective faculty evaluation: enhancing teaching and determining faculty effectiveness,</i> San Francisco, Jossey&#45;Bass.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809046&pid=S0185-2698200100030000200006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">DELANDSHERE, G. (1994), "The assessment of teachers in the United States", en <i>Assessment in Education,</i> vol. 1, n&uacute;m. 1, pp. 95&#45;113.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809048&pid=S0185-2698200100030000200007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">COHEN, P. A. (1981), "Student ratings of instruction and student achievement: A meta&#45;analysis of multisection validity studies", en <i>Review of Educational Research,</i> num. 51, num. 281&#45;309.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809050&pid=S0185-2698200100030000200008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">FELMAN, K. A. (1978), "Course characteristics and college students' ratings of their teachers and courses: what we know and what we don't", en <i>Research in Higher Education, </i>num. 9, 199&#45;242.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809052&pid=S0185-2698200100030000200009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">&#45;&#45;&#45;&#45;&#45;&#45;&#45;&#45;&#45;&#45; (1997), "Identifying exemplary teachers and teaching: evidence from student ratings", en R. Perry y J. Smart (eds.), <i>Effective teaching in higher education: Research and practice,</i> Nueva York, Agathon Press.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809054&pid=S0185-2698200100030000200010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">GARC&Iacute;A, G. J. (2000), "Las dimensiones de la efectividad docente, validez y confiabilidad de los cuestionarios de evaluaci&oacute;n de la docencia: una s&iacute;ntesis de la investigaci&oacute;n internacional", en M. Rueda y F. D&iacute;az&#45;Barriga (eds.), <i>Evaluaci&oacute;n de la docencia. Perspectivas actuales,</i> M&eacute;xico, Paid&oacute;s Educador.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809056&pid=S0185-2698200100030000200011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">GILIO, C. (2000), "La evaluaci&oacute;n docente desde una perspectiva participativa: El caso de la licenciatura en Qu&iacute;mica de la Universidad Aut&oacute;noma de Quer&eacute;taro", en M. Rueda y F. D&iacute;az Barriga (eds.), <i>Evaluaci&oacute;n de la docencia,</i> M&eacute;xico, Paid&oacute;s Educador.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809058&pid=S0185-2698200100030000200012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">HUSBAND, C. T., y Fosh, P. (1993), "Students' evaluation of teaching in higher education: experiences from four european countries and some implications of the practice", en <i>Assessment and Evaluation in Higher Education,</i> vol. 18, num. 2, pp. 95&#45;114.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809060&pid=S0185-2698200100030000200013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">JOHNSONBAUGH, R. (1998), Matem&aacute;ticas discretas, M&eacute;xico, Iberoam&eacute;rica.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809062&pid=S0185-2698200100030000200014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">LANDSHEERE, G. (1980), "La evaluaci&oacute;n de los ense&ntilde;antes", en M. Debesse y G. Mialaret (eds.), <i>La funci&oacute;n docente,</i> Barcelona, Oikos&#45;Tau.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809064&pid=S0185-2698200100030000200015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">LOREDO, J. (1999), "Evaluaci&oacute;n docente en la Universidad An&aacute;huac", en M. Rueda y M. Landesmann (coords.), <i>&iquest;Hacia una nueva cultura de la evaluaci&oacute;n de los acad&eacute;micos?,</i> M&eacute;xico, CESU&#45;UNAM.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809066&pid=S0185-2698200100030000200016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">LUNA, E. (2000), "La evaluaci&oacute;n de la docencia a partir de la opini&oacute;n de los alumnos en posgrado: el caso de la Universidad Aut&oacute;noma de Baja California", tesis de doctorado, Universidad Aut&oacute;noma de Sinaloa, M&eacute;xico.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809068&pid=S0185-2698200100030000200017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">MARSH, H. (1984), "Students' evaluations of university teaching: dimensionality, reliability, validity, potential biases, and utility", en <i>Journal of Educational Psychology,</i> vol. 76, num. 5, pp. 707&#45;754.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809070&pid=S0185-2698200100030000200018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">MARSH, H. W. (1987), "Students' evaluations of university teaching: Research findings, methodological issues, and directions for future research", en <i>International Journal of Educational Research,</i> num. 11, pp. 253&#45;388.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809072&pid=S0185-2698200100030000200019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">MARSH, H. W., y Bailey, M. (1993), "Multidimensional students' evaluations of teaching effectiveness", en <i>Journal of Higher Education,</i> vol. 64, num. 1, pp. 1&#45;18.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809074&pid=S0185-2698200100030000200020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">MARSH, H.W., y Dunkin, M. J. (1997), "Students' evaluations of university teaching: A multidimensional perspective", en R. Perry y J. Smart (eds.), en <i>Effective teaching in higher education: Research and practice,</i> Nueva York, Agathon Press, pp. 241&#45;320.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809076&pid=S0185-2698200100030000200021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">ORY, J. C. (1990), "Student ratings of instruction: Ethics and practice", en M. Theall y J. Franklin (eds.), <i>Student ratings of instruction: Issues for improving practice, New Directions for Teaching and Learning,</i> num. 43, Francisco, Jossey Bass.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809078&pid=S0185-2698200100030000200022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">RUEDA, M., y Rodr&iacute;guez, L. (1996), "La evaluaci&oacute;n de la docencia en el posgrado de Psicolog&iacute;a de la UNAM", en M. Rueda y J. Nieto (comps.), <i>La evaluaci&oacute;n de la docencia universitaria,</i> M&eacute;xico, UNAM.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809080&pid=S0185-2698200100030000200023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">SHATZ, A. M. y Best, B. J. (1986), "Selection of items for course evaluation by faculty and students", en <i>Psychological Reports,</i> num. 58, 239&#45;242.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809082&pid=S0185-2698200100030000200024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">SMITH, R. A. y Cranton, P. A. (1992), "Students perceptions of teaching skills and overall effectiveness across instructional settings", en <i>Research in Higher Education,</i> num. 33, pp. 747&#45;764.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809084&pid=S0185-2698200100030000200025&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">SPROULE, R. (2000), "Student evaluation of teaching: A methodological critique of conventional practices", en <i>Education Policy Analysis Archives,</i> vol. 8, num. 50, pp. 1&#45;34.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809086&pid=S0185-2698200100030000200026&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">TEJEDOR, F. J. (1990), "La evaluaci&oacute;n del profesorado en la universidad de Santiago", en <i>Revista Espa&ntilde;ola de Pedagog&iacute;a,</i> vol. XLVIII, num. 186, pp. 337&#45; 362.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809088&pid=S0185-2698200100030000200027&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <!-- ref --><p align="justify"><font face="verdana" size="2">THEALL, M., y Franklin J. (1990), "Student ratings in the context of complex evaluation systems", en M. Theall, and J. Franklin (eds.), <i>Student ratings of instruction: Issues for improving practice, New Directions for Teaching and Learning,</i> num. 43, San Francisco, Jossey Bass.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=5809090&pid=S0185-2698200100030000200028&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>              <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>              <p align="justify"><font face="verdana" size="2"><b><a name="notas"></a>Nota</b></font></p>              <p align="justify"><font face="verdana" size="2">* Este trabajo forma parte de uno m&aacute;s amplio que Edna Luna Serrano present&oacute; con el t&iacute;tulo: "La evaluaci&oacute;n de la docencia a partir de la opini&oacute;n de los alumnos en posgrado: el caso de la Universidad Aut&oacute;noma de Baja California", para obtener el grado de doctora en Educaci&oacute;n en la Universidad Aut&oacute;noma de Sinaloa en diciembre de 2000.</font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ABRAMI]]></surname>
<given-names><![CDATA[P. C.]]></given-names>
</name>
<name>
<surname><![CDATA[d'Apollonia]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The dimensionality of ratings and their use in personnel decisions]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Theall]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Franklin]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<source><![CDATA[Student ratings of instruction: Issues for improving practice, New Directions for Teaching and Learning]]></source>
<year>1990</year>
<volume>43</volume>
<page-range>97-112</page-range><publisher-loc><![CDATA[San Francisco ]]></publisher-loc>
<publisher-name><![CDATA[Jossey Bass]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ABRAMI]]></surname>
<given-names><![CDATA[P. C.]]></given-names>
</name>
<name>
<surname><![CDATA[d'Apollonia]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[Cohen]]></surname>
<given-names><![CDATA[P. A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Validity of student ratings of instruction what we know and what we do not]]></article-title>
<source><![CDATA[Journal of Educational Psychology]]></source>
<year>1990</year>
<volume>82</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>219-231</page-range></nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="book">
<collab>ASOCIACIÓN Nacional de Universidades e Instituciones de Educación Superior</collab>
<source><![CDATA[Anuario estadístico. Personal de licenciatura y posgrado en universidades e institutos tecnológicos]]></source>
<year>1997</year>
<publisher-name><![CDATA[ANUIES]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BARDIN]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
</person-group>
<source><![CDATA[L'analyse de contenu]]></source>
<year>1977</year>
<publisher-loc><![CDATA[Francia ]]></publisher-loc>
<publisher-name><![CDATA[Presses Universitaires]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BRYMAN]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The debate about quantitative and qualitative research: a question of method or epistemology?]]></article-title>
<source><![CDATA[The British Journal of Sociology]]></source>
<year>1984</year>
<volume>XXXV</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>75-92</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[CENTRA]]></surname>
<given-names><![CDATA[J. A.]]></given-names>
</name>
</person-group>
<source><![CDATA[Reflective faculty evaluation: enhancing teaching and determining faculty effectiveness]]></source>
<year>1993</year>
<publisher-loc><![CDATA[San Francisco ]]></publisher-loc>
<publisher-name><![CDATA[Jossey-Bass]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DELANDSHERE]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The assessment of teachers in the United States]]></article-title>
<source><![CDATA[Assessment in Education]]></source>
<year>1994</year>
<volume>1</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>95-113</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[COHEN]]></surname>
<given-names><![CDATA[P. A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Student ratings of instruction and student achievement: A meta-analysis of multisection validity studies]]></article-title>
<source><![CDATA[Review of Educational Research]]></source>
<year>1981</year>
<numero>51</numero><numero>281-309</numero>
<issue>51</issue><issue>281-309</issue>
</nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[FELMAN]]></surname>
<given-names><![CDATA[K. A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Course characteristics and college students' ratings of their teachers and courses: what we know and what we don't]]></article-title>
<source><![CDATA[Research in Higher Education]]></source>
<year>1978</year>
<numero>9</numero>
<issue>9</issue>
<page-range>199-242</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[FELMAN]]></surname>
<given-names><![CDATA[K. A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Identifying exemplary teachers and teaching: evidence from student ratings]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Perry]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Smart]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<source><![CDATA[Effective teaching in higher education: Research and practice]]></source>
<year>1997</year>
<publisher-loc><![CDATA[Nueva York ]]></publisher-loc>
<publisher-name><![CDATA[Agathon Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GARCÍA]]></surname>
<given-names><![CDATA[G. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Las dimensiones de la efectividad docente, validez y confiabilidad de los cuestionarios de evaluación de la docencia: una síntesis de la investigación internacional]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Rueda]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Díaz-Barriga]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
</person-group>
<source><![CDATA[Evaluación de la docencia. Perspectivas actuales]]></source>
<year>2000</year>
<publisher-name><![CDATA[Paidós Educador]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GILIO]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[La evaluación docente desde una perspectiva participativa: El caso de la licenciatura en Química de la Universidad Autónoma de Querétaro]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Rueda]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Díaz Barriga]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
</person-group>
<source><![CDATA[Evaluación de la docencia]]></source>
<year>2000</year>
<publisher-name><![CDATA[Paidós Educador]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[HUSBAND]]></surname>
<given-names><![CDATA[C. T.]]></given-names>
</name>
<name>
<surname><![CDATA[Fosh]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Students' evaluation of teaching in higher education: experiences from four european countries and some implications of the practice]]></article-title>
<source><![CDATA[Assessment and Evaluation in Higher Education]]></source>
<year>1993</year>
<volume>18</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>95-114</page-range></nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[JOHNSONBAUGH]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<source><![CDATA[Matemáticas discretas]]></source>
<year>1998</year>
<publisher-name><![CDATA[Iberoamérica]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LANDSHEERE]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[La evaluación de los enseñantes]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Debesse]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Mialaret]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<source><![CDATA[La función docente]]></source>
<year>1980</year>
<publisher-loc><![CDATA[Barcelona ]]></publisher-loc>
<publisher-name><![CDATA[Oikos-Tau]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LOREDO]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Evaluación docente en la Universidad Anáhuac]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Rueda]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Landesmann]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<source><![CDATA[¿Hacia una nueva cultura de la evaluación de los académicos?]]></source>
<year>1999</year>
<publisher-name><![CDATA[CESU-UNAM]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LUNA]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
</person-group>
<source><![CDATA[La evaluación de la docencia a partir de la opinión de los alumnos en posgrado: el caso de la Universidad Autónoma de Baja California]]></source>
<year>2000</year>
</nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MARSH]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Students' evaluations of university teaching: dimensionality, reliability, validity, potential biases, and utility]]></article-title>
<source><![CDATA[Journal of Educational Psychology]]></source>
<year>1984</year>
<volume>76</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>707-754</page-range></nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MARSH]]></surname>
<given-names><![CDATA[H. W.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Students' evaluations of university teaching: Research findings, methodological issues, and directions for future research]]></article-title>
<source><![CDATA[International Journal of Educational Research]]></source>
<year>1987</year>
<numero>11</numero>
<issue>11</issue>
<page-range>253-388</page-range></nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MARSH]]></surname>
<given-names><![CDATA[H. W.]]></given-names>
</name>
<name>
<surname><![CDATA[Bailey]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Multidimensional students' evaluations of teaching effectiveness]]></article-title>
<source><![CDATA[Journal of Higher Education]]></source>
<year>1993</year>
<volume>64</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>1-18</page-range></nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MARSH]]></surname>
<given-names><![CDATA[H.W.]]></given-names>
</name>
<name>
<surname><![CDATA[Dunkin]]></surname>
<given-names><![CDATA[M. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Students' evaluations of university teaching: A multidimensional perspective]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Perry]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Smart]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<source><![CDATA[Effective teaching in higher education: Research and practice]]></source>
<year>1997</year>
<page-range>241-320</page-range><publisher-loc><![CDATA[Nueva York ]]></publisher-loc>
<publisher-name><![CDATA[Agathon Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ORY]]></surname>
<given-names><![CDATA[J. C.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Student ratings of instruction: Ethics and practice]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Theall]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Franklin]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<source><![CDATA[Student ratings of instruction: Issues for improving practice, New Directions for Teaching and Learning]]></source>
<year>1990</year>
<volume>43</volume>
<publisher-loc><![CDATA[Francisco ]]></publisher-loc>
<publisher-name><![CDATA[Jossey Bass]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[RUEDA]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Rodríguez]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[La evaluación de la docencia en el posgrado de Psicología de la UNAM]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Rueda]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Nieto]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<source><![CDATA[La evaluación de la docencia universitaria]]></source>
<year>1996</year>
<publisher-name><![CDATA[UNAM]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SHATZ]]></surname>
<given-names><![CDATA[A. M.]]></given-names>
</name>
<name>
<surname><![CDATA[Best]]></surname>
<given-names><![CDATA[B. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Selection of items for course evaluation by faculty and students]]></article-title>
<source><![CDATA[Psychological Reports]]></source>
<year>1986</year>
<numero>58</numero>
<issue>58</issue>
<page-range>239-242</page-range></nlm-citation>
</ref>
<ref id="B25">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SMITH]]></surname>
<given-names><![CDATA[R. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Cranton]]></surname>
<given-names><![CDATA[P. A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Students perceptions of teaching skills and overall effectiveness across instructional settings]]></article-title>
<source><![CDATA[Research in Higher Education]]></source>
<year>1992</year>
<numero>33</numero>
<issue>33</issue>
<page-range>747-764</page-range></nlm-citation>
</ref>
<ref id="B26">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SPROULE]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Student evaluation of teaching: A methodological critique of conventional practices]]></article-title>
<source><![CDATA[Education Policy Analysis Archives]]></source>
<year>2000</year>
<volume>8</volume>
<numero>50</numero>
<issue>50</issue>
<page-range>1-34</page-range></nlm-citation>
</ref>
<ref id="B27">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[TEJEDOR]]></surname>
<given-names><![CDATA[F. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[La evaluación del profesorado en la universidad de Santiago]]></article-title>
<source><![CDATA[Revista Española de Pedagogía]]></source>
<year>1990</year>
<volume>XLVIII</volume>
<numero>186</numero>
<issue>186</issue>
<page-range>337- 362</page-range></nlm-citation>
</ref>
<ref id="B28">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[THEALL]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Franklin]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Student ratings in the context of complex evaluation systems]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Theall]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Franklin]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<source><![CDATA[Student ratings of instruction: Issues for improving practice, New Directions for Teaching and Learning]]></source>
<year>1990</year>
<volume>43</volume>
<publisher-loc><![CDATA[San Francisco ]]></publisher-loc>
<publisher-name><![CDATA[Jossey Bass]]></publisher-name>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
