SciELO - Scientific Electronic Library Online

 
vol.51 número203Deserción escolar en dos licenciaturas en la enseñanza de lenguas: un estudio de caso en una universidad pública en MéxicoLa formación de los profesores de Educación Física en Argentina índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


Revista de la educación superior

versión impresa ISSN 0185-2760

Rev. educ. sup vol.51 no.203 Ciudad de México jul./sep. 2022  Epub 29-Mayo-2023

https://doi.org/10.36857/resu.2022.203.2221 

Artículos

El uso de evaluaciones en un centro público de investigación agrícola

Use of valuations in a public agricultural research center

Eduardo Luna Sanchez* 

Mayra Juliana Chávez Alcalá** 

Margaret Skutsch*** 

*, ** Universidad Autónoma de Querétaro. Correo electrónico: eduardo.lusan@gmail.com

*** Universidad Nacional Autónoma de México.


Resumen

La investigación estudió el uso de evaluaciones en un Centro Público de Investigación Agrícola. Para acceder a la información se combinó el análisis de documentos institucionales con un enfoque etnográfico orientado al aprendizaje. Se identificó que las evaluaciones tienen tres propósitos: verificar ex ante la calidad de los proyectos, rendir cuentas con base en la productividad académica y tomar decisiones laborales sobre el personal académico. No se hicieron evaluaciones para estimar los cambios generados, ni para retroalimentar los proyectos con la finalidad de mejorarlos. Para medir el valor público generado mediante los proyectos, es necesario reformar el sistema de evaluación utilizado por la universidad a la que pertenece el Centro. En este sentido, se presenta una propuesta de mejora procedimental.

Palabras clave: Evaluación de impacto; Universidades Públicas; Productividad Académica; Interacciones productivas

Abstract

This research studied the use of evaluations in a Public Agricultural Research Center. An analysis of institutional documents was combined with an ethnographic approach to gain access to the information. It was identified that evaluations of the work of this institution had three purposes: to verify the quality of projects before their approval, to give an account of the academic outputs obtained, and to evaluate the performance of researchers. No evaluations were made to estimate the changes generated, or to provide feedback on the projects in order to improve them. The university to which the center belongs needs to reform its evaluation system, so that it measures the public value generated through agricultural research projects. In view of this, a proposal is presented.

Keywords: Impact evaluation; Public Universities; Academic Productivity; Productive Interactions

Introducción

En México, es notoria la brecha entre una minoría de productores que compiten en el mercado agrícola y una mayoría de pequeños productores que recurren a la pluriactividad porque sus ingresos son insuficientes (Grammont, 2010). Además, dado que estos últimos poseen superficies pequeñas y marginales, son especialmente vulnerables a los efectos del cambio climático (Cohn et al., 2017; Harvey et al., 2018). Por ello, se considera esencial desarrollar tecnologías que fortalezcan la sostenibilidad y resiliencia de sus sistemas productivos.

En ese contexto, los Centros Públicos de Investigación Agrícola (CPIA) juegan un papel central, pues generan conocimientos que atienden los problemas sociales y ambientales de las áreas rurales (Rivera, Dutrénit, Ekboir y Vera, 2016). En específico, se espera que experimenten, validen y transfieran tecnologías para desarrollar las capacidades de los productores agrícolas (Ekboir, Dutrénit, Martínez, Torres y Vera, 2009).

Esos son objetivos complejos, sobre todo en escenarios donde aunque agricultores innovadores adopten las tecnologías, no se puede deducir que se insertarán con éxito en las cadenas productivas (Ekboir et al., 2009). Por ello, entender los procesos de cambio tecnológico e identificar los resultados obtenidos son conocimientos indispensables para las investigaciones agrícolas orientadas al desarrollo (Glover, Sumberg, Ton, Andersson y Badstue, 2019).

Dada esa necesidad, las evaluaciones de la investigación agrícola pueden utilizarse con dos audiencias en mente. Por un lado, aportan información a los investigadores sobre cómo sus proyectos influyen tanto en el bienestar de los productores como en el manejo sostenible de los recursos. Con este conocimiento pueden mejorar la efectividad de sus proyectos (Benoit, Colinet, Gaunand, Lemarié y Matt, 2016; Weißhuhn, Helming y Ferreti, 2017). Sin embargo, si bien se confía en que las evaluaciones sirvan para que las organizaciones aprendan1, con frecuencia esta expectativa no se cumple. Una de las razones que explican dicha situación es el uso de las evaluaciones con fines exclusivamente sumativos, asumiendo desde una lógica simplista que, si los proyectos son bien ejecutados, deben conseguir los resultados esperados (Mackay y Horton, 2003).

Por otro lado, las evaluaciones brindan información a tomadores de decisión sobre los beneficios de los proyectos de investigación financiados (Hall, Sulaiman, Clark y Yoganand, 2003). En la rendición de cuentas de actividades científicas ya no se considera suficiente que la evaluación se restrinja a la valoración entre pares. Ahora se espera que las organizaciones académicas se responsabilicen de las consecuencias prácticas del conocimiento que generan. Por ello, se demanda que adopten enfoques orientados a la obtención de resultados (Nowotny, Scott y Gibbons, 2003; Sarewitz, 2016; Ekboir, Blundo y Sette, 2017). En el caso de la investigación agrícola, la evidente falta de adopción del conocimiento ha promovido cambios en los esquemas de financiamiento, pasando del financiamiento a ciegas a la solicitud del cumplimiento de efectos mensurables y previamente acordados (Polastri y Savastano, 2020).

En México se ha estudiado poco la forma en que se evalúan los proyectos de vinculación e investigación aplicada de universidades públicas. El énfasis se ha puesto en la influencia de la política científica federal sobre el comportamiento de los investigadores (Galaz y Gil, 2013; Suárez y Muñoz, 2004). Con la finalidad de disminuir esa brecha de conocimiento, el artículo analiza las evaluaciones con las que interactúa un CPIA que opera dentro de una reserva de la biosfera del centro de México. En ese sentido, se incluyen tanto las evaluaciones externas de sus proyectos financiados con recursos públicos, como el sistema interno de evaluación de la universidad a la que pertenece.

Es importante señalar que esta investigación no pretende evaluar el impacto de los proyectos del CPIA. En cambio, busca responder las siguientes preguntas: a) ¿Cómo y para qué se hacen evaluaciones? y b) ¿Qué factores influyen en el propósito de las evaluaciones utilizadas? Debido a que las evaluaciones suelen relacionarse con la reputación de las organizaciones se tomó la decisión de garantizar el anonimato de la universidad estudiada como un principio ético de la investigación.

La información se organiza de la siguiente manera. Primero, se detalla la metodología utilizada para responder las preguntas de investigación y después se describe el marco conceptual a partir del cual se estructura el análisis. En la sección de resultados se desarrollan las características de los diferentes tipos de evaluación asociados al CPIA. En la discusión, se contrastan los hallazgos con la literatura sobre el tema, se resaltan las áreas de oportunidad identificadas y se hace una propuesta de mejora procedimental para la evaluación de proyectos de investigación agrícola en la universidad estudiada. Finalmente, en la conclusión se sintetizan los mensajes centrales del artículo.

Metodología

Los estudios de caso son un tipo de investigación cualitativa que analiza fenómenos en su propio contexto, lo que permite relacionar datos empíricos con planteamientos teóricos (Yin, 2009). Por ello, un caso permite contrastar supuestos sobre el valor intrínseco de las evaluaciones con lo que sucede en la práctica.

La metodología seleccionada para abordar el caso es la Perspectiva de Aprendizaje (PdA) propuesta por Eyben (2009). Esta es un enfoque etnográfico para estudiar organizaciones que conducen proyectos de desarrollo. En lugar de limitarse a la descripción de cómo funciona el desarrollo, la PdA asume que existe un área interesante de uso práctico, si se combinan la crítica de la perspectiva etnográfica con la instrumentalidad de aquellos que desean mejorar la práctica de las organizaciones. Por ello, al estudiar una organización, esta metodología se interesa simultáneamente en atender problemas organizacionales, promover el desarrollo de capacidades en sus integrantes y generar conocimientos ciwentíficos. En este caso, los investigadores interactuaron con el personal de la organización para explorar el uso de evaluaciones y, a la vez, proponer cambios que permitan responder a modelos deseados de desempeño organizacional.

Las técnicas de investigación que se utilizaron fueron:

  1. Revisión de documentos. La recopilación de documentos relacionados con el CPIA y las evaluaciones de la universidad se realizó a través de una exploración de su página web institucional. De esa manera, se tuvo acceso a convocatorias, documentos de planeación estratégica y formatos de registro de proyectos de investigación. Además, a través de solicitudes de acceso a la información, se recopiló información sobre proyectos con financiamiento externo.

  2. Entrevistas semiestructuradas. Las entrevistas se hicieron a personal directivo y operativo que labora o laboró en la universidad. El criterio de selección de las personas entrevistadas fue la relación con diferentes procedimientos de evaluación. Sin embargo, la selección incluyó personal que se encuentra en diferentes posiciones, dada la posible existencia de diferencias intraorganizacionales. Las entrevistas permitieron recolectar información sobre la puesta en práctica de las evaluaciones, entremezclada con la opinión y reflexiones de los propios entrevistados en torno al tema.

  3. Observación participante. A través de ella, fue posible explorar la cotidianidad e interacciones del personal de la universidad. Esto permitió hacer descripciones detalladas de diferentes aspectos relacionados con su cultura organizacional. De manera específica, se asistió a múltiples reuniones trabajo, algunas de ellas facilitadas por los investigadores, y se propusieron procedimientos para reorientar partes del sistema evaluativo del CPIA. De manera particular, se aprovechó la invitación para colaborar en un proyecto para ofertar una evaluación de diseño que mejorara la descripción de sus impactos.

Evaluaciones en centros de investigación

En función del propósito que se tenga, existen diferentes formas de evaluar la investigación agrícola. Por ello, para enmarcar el estudio se presenta una síntesis proveniente de la literatura sobre el tema. Primero, se desarrollan las características de evaluaciones de desempeño, distinguiendo entre enfoques basados en la obtención de productos y enfoques que miden interacciones productivas (Spaapen y Van Drooge, 2011). Acto seguido, se contrastan los objetivos de evaluaciones de impacto y evaluaciones formativas, señalando sus fortalezas y limitaciones (Cuadro 1).

Cuadro 1 Diferentes tipos de evaluación asociados a la investigación agrícola. 

Evaluaciones de desempeño Evaluaciones
de impacto
Evaluaciones
formativas
Propósito Rendición de cuentas
Aprendizaje organizacional
Rendición de
cuentas
Aprendizaje
organizacional
Unidad de análisis Outputs

  • - Productos académicosw

  • - Productos de intermediación (talleres, conferencias, material de divulgación)

  • - Resultados inmediatos de actividades (infraestructura, área reforestada, etc.)

Outputs

  • - Efectos de la intermediación de conocimientos

Outputs

  • - Rendimientos

  • - Retorno de la inversión

  • - Tasa de adopción

Outputs

  • - Procesos

  • - Procedimientos organizacionales

Fuente: Elaboración propia.

La selección de uno u otro tipo de evaluación depende de factores ligados al solicitante, el cual define cómo, por quién y para quién se conduce una evaluación. Por ello, el contexto organizacional y los arreglos institucionales juegan un papel clave (Hall et al., 2003; Taut, 2007).

En México, una parte de la investigación agrícola se realiza en Universidades Públicas Estatales. Estas son organismos públicos descentralizados que cuentan con autonomía institucional para llevar a cabo las funciones de docencia, generación y aplicación del conocimiento. Por ende, son capaces de decidir por sí mismas las características de su sistema de evaluación científica (Olvera, Piña y Mercado, 2009).

Sin embargo, cuando reciben recursos externos para la ejecución de proyectos, precisan ceñirse a los procedimientos evaluativos de donantes, normalmente entidades gubernamentales. Un porcentaje importante de este financiamiento proviene del Consejo Nacional de Ciencia y Tecnología2 (CONACYT), dependencia que maneja fondos competitivos para promover proyectos (Vera, Dutrénit, Ekboir, Martínez y Torres, 2008).

Evaluaciones de desempeño

Para evaluar los resultados inmediatos de proyectos de investigación, con frecuencia se recurre a productos académicos como publicaciones en revistas de prestigio y presentaciones en congresos. Este enfoque, predominante en la política científica latinoamericana, asume que los artículos sujetos a un proceso de arbitraje y los índices globales de citas miden adecuadamente la calidad e influencia de las investigaciones (Vasen y Lujano, 2017). Después de todo, se espera que los investigadores generen conocimientos, por lo que parece lógico que su efectividad se mida con los medios a través de los que difunden sus hallazgos.

No obstante, se ha señalado que ese tipo de indicadores tienen múltiples problemas cuando se utilizan como única medida de evaluación (Bensing et al., 2013; Chavarro y Rafòls, 2018). En campos naturalmente inclinados hacia la investigación aplicada, como las ciencias agrícolas o ambientales, es necesario que el conocimiento incida en el comportamiento de otros actores (Netherlands Organization for Scientific Research, s.f.). Sin embargo, no se puede dar por hecho que los grupos involucrados accederán, entenderán y utilizarán los artículos científicos para tomar decisiones (Salafsky, Margoluis y Redford, 2001). En el fondo, si solo se utilizan indicadores ligados a la productividad académica, la valoración de los investigadores se fundamenta en cifras y no en juicios que analizan el efecto del conocimiento generado (Hicks et al., 2015).

En las ciencias agrícolas, se ha señalado que la mayor parte de las publicaciones no proveen soluciones para las necesidades de pequeños productores locales. Esto ocurre, en parte, por las prioridades del financiamiento internacional en investigación agrícola, y por tendencias en la agenda de investigación internacional (Ekboir et al., 2009; Nature, 2020). Los investigadores, interesados en publicar en revistas de prestigio para avanzar en su carrera académica, encuentran que el sistema de evaluación menosprecia actividades de intercambio fuera del ámbito científico, lo cual entorpece la colaboración con otros actores clave para la innovación agrícola (Vera y Dutrénit, 2016; Rivera et al., 2016).

Para superar las limitaciones anteriores, se han desarrollado evaluaciones que valoran las interacciones entre investigadores y usuarios del conocimiento (Spaapen y Van Drooge, 2011). Estos enfoques analizan los mecanismos de intercambio utilizados por el investigador y buscan pruebas de que su aporte al conocimiento influyó en la toma de decisiones de otro actor u organización (LSE Public Policy Group, 2011). En ese sentido, los indicadores monitoreados van más allá de los medios a través de los cuales se mantuvo contacto con los grupos interesados. Asimismo, se incluye evidencia del uso del conocimiento o el grado en que los grupos interesados valoran los resultados de la investigación (Spaapen et al., 2011).

El supuesto del que parten tales enfoques evaluativos es que la intermediación y el uso de conocimientos son condiciones necesarias para que el impacto pueda ocurrir, por lo que pueden utilizarse como indicadores proxy del impacto de una investigación (Spaapen y van Drooge, 2011). Además, se considera que el análisis del proceso arroja información valiosa para retroalimentar las investigaciones, de forma que sirven simultáneamente para rendir cuentas y aprender. En ese sentido, pueden incorporarse reportes de autoevaluación donde los investigadores reflexionen sobre el cambio conseguido y especifiquen ajustes para obtener mejores resultados (Van der Meulen et al., 2010).

Este enfoque evaluativo implica ajustar el rol esperado del científico, de forma que no solo se comunique con sus pares, sino con otros actores del sistema de innovación agrícola (Ekboir, 2016). Por ello, además de generar evidencia y probar nuevas tecnologías, los equipos de investigación precisan habilidades para facilitar actividades de intermediación del conocimiento. Por ejemplo, saber facilitar procesos, organizar reuniones efectivas y trasladar la demanda de conocimiento de los actores a preguntas científicas (Turnhout, Stuiver, Klostermann, Harms y Leeuwis, 2013).

Evaluaciones de impacto

A nivel internacional, la baja efectividad de los proyectos de investigación agrícola promovió la adopción de evaluaciones que demostraran el valor público generado. El paradigma dominante desde la década de los 80 fue la estimación de los impactos económicos a través de cálculos de costo-beneficio (Ekboir, 2003; Benoit et al., 2016; Weißhuhn et al., 2017).

Existen distintas metodologías para estimar los beneficios generados. Por un lado, se encuentran estudios de adopción tecnológica que identifican el grado en el que las innovaciones son utilizadas. Esto permite medir su efecto sobre la productividad o los ingresos. Por el otro, se encuentran métodos econométricos que aíslan el efecto del conocimiento científico sobre la productividad, con la finalidad de calcular el retorno de la inversión en proyectos de investigación (Hall et al., 2003).

Se han identificado algunas limitaciones de este enfoque evaluativo. En primer lugar, si bien se puede calcular el impacto económico de investigaciones relacionadas con la innovación y la transferencia de tecnología, es muy difícil estimarlo en el corto plazo por problemas de atribución o de latencia (Oslo Institute for Research on the Impact of Science, 2016). Esta situación se acentúa si consideramos que la norma es evaluar proyectos que han tenido entre uno y tres años de duración, los cuales no vuelven a evaluarse tiempo después.

En segundo lugar, se considera errónea su visión simplificada del proceso de cambio, al asumir una relación directa entre financiamiento (input), tecnología innovadora (output), adopción (outcome) e incrementos en las ganancias (impact). El problema es que, al enfocarse solo en el “punto de llegada”, se soslaya el contexto de las investigaciones (Ekboir, 2003). Normalmente, estas tienen un alto grado de incertidumbre, por ende, si se solicitan resultados en plazos determinados se puede desincentivar el surgimiento de proyectos novedosos que asuman mayores riesgos, a veces fallen, pero que tengan el potencial de generar beneficios en el largo plazo (Ekboir, 2016).

Finalmente, se considera que el sesgo de estos enfoques evaluativos hacia resultados económicos coloca dentro de cajas negras los procesos y consecuencias del cambio tecnológico. En este sentido, se ha criticado el uso simplista de la tasa de adopción como indicador de efectividad. Este concepto, normalmente considerado en términos binarios, anula la agencia del usuario de la tecnología, al asumir que un cálculo racional debería conducir a su selección. Sin embargo, los usuarios utilizan múltiples criterios para adaptar la tecnología a sus aspiraciones, modificando aspectos con base en un proceso dinámico de aprendizaje y experimentación (Glover et al., 2019). Además, medir la adopción no registra las ramificaciones del cambio tecnológico, incluyendo impactos no intencionados, tanto positivos como negativos (Glover et al., 2019).

Evaluaciones formativas

Este tipo de evaluación, basada en casos, complementa la identificación de los efectos de las investigaciones con un análisis de los procesos involucrados en su generación (Mackay y Horton, 2003; Benoit et al., 2016). Su propósito es retroalimentar la forma de trabajar para incrementar la probabilidad de obtener los resultados deseados (Ekboir et al., 2017).

El enfoque hace énfasis en las interacciones, agencia y capacidades de múltiples actores involucrados en el desarrollo y uso de las tecnologías (Glover et al., 2019). Además, se basa en la combinación de cadenas de resultados y actividades de monitoreo, con la finalidad de identificar desviaciones e implementar acciones correctivas (Guijt, 2008; Alvarez et al., 2010).

Una característica importante de este tipo de evaluaciones es la promoción de capacidades de aprendizaje en los equipos de trabajo, lo cual implica crear oportunidades para que los investigadores reflexionen, intercambien conocimiento y transformen su práctica. En este sentido, los proyectos “fallidos” no se ocultan, sino se valoran como una fuente de información (Ekboir, 2016). Esto implica revisiones introspectivas de la forma en la que la comunidad académica opera, así como de las interacciones que tiene con su contexto institucional (Hall et al., 2003). Por estos motivos, tales evaluaciones se han propuesto como parte esencial del modelo de gestión de centros de investigación (Ekboir, 2016).

Descripción del caso

Diferentes rankings posicionan a la universidad pública estudiada como una de las mejores del país, en términos de su productividad académica. En diferentes documentos institucionales de las dos últimas administraciones (2012-2021) se hace referencia a la investigación como una actividad que refleja el compromiso de las universidades públicas por resolver problemas de su entorno. Por tanto, tiene sentido que su modelo de gestión organizacional sea el de la Responsabilidad Social Universitaria, enfoque que busca manejar los impactos generados por la universidad (Vallaeys, 2014).

Una de las manifestaciones visibles de este interés ha sido el reconocimiento de actividades de vinculación realizadas por sus académicos. Por ello, la universidad cuenta con procedimientos que financian y recompensan proyectos que busquen mejorar las condiciones del entorno. Otra política universitaria que refleja su interés en procesos de desarrollo ha sido el establecimiento de campi en varios municipios del estado. La intención ha sido acercar licenciaturas ad hoc y promover investigaciones que atiendan problemas locales.

El CPIA analizado es un ejemplo de esta vocación, pues se estableció en una zona históricamente marginada del territorio estatal, la cual, fue declarada como reserva de la biosfera por su patrimonio natural y cultural. Para construir el CPIA, en 2013, la universidad concursó en un programa de financiamiento que unificaba recursos del CONACYT y el gobierno estatal. El hoy extinto fideicomiso conocido como Fondo Mixto, tenía dos propósitos: apoyar la investigación científica orientada a la solución de problemas locales y consolidar las capacidades científicas de los estados.

Los términos de referencia de la convocatoria solicitaban la creación de un centro de investigación que, a través de la transferencia tecnológica, mejorara los procesos productivos de la región del estado en donde se encuentra la reserva de la biosfera. En 2014 el proyecto recibió el financiamiento y el CPIA comenzó a construirse en un terreno de 21 ha. donado por uno de los municipios de la región.

Actualmente, el CPIA cuenta con cuatro módulos especializados en el ámbito pecuario, agrícola, acuícola y forestal. El modelo de gestión del CPIA se basa en un enfoque multidisciplinario, colaborando en éste diez profesores-investigadores con perfiles complementarios (ciencias biológicas, agropecuarias y sociales) (Cuadro 2).

Cuadro 2 Módulos del CPIA. 

Módulo Proyectos
Pecuario

  • -Asesoría en ovinocultura.

  • -Alternativas de nutrición de rumiantes.

  • -Desarrollo de sistemas silvopastoriles.

Agrícola

  • -Plantaciones experimentales de Jatropha para la producción de biodiesel.

  • -Capacitación en agricultura protegida.

  • -Área demostrativa y experimental de producción de hortalizas.

Acuícola

  • -Capacitación en producción piscícola.

  • -Investigación para reproducir en cautiverio especies nativas con potencial productivo acuícola.

Forestal

  • -Reproducción de plantas nativas para rehabilitar áreas forestales degradadas.

  • -Producción de bioinsumos.

  • -Manejo integrado de plagas forestales y frutícolas.

Fuente: Elaboración propia.

Resultados

En esta sección se presentan las distintas evaluaciones asociadas a la operación del CPIA. En primer lugar, se describen las evaluaciones externas que formaron parte de la gestión del proyecto financiado por el Fondo Mixto CONACYT-Gobierno Estatal. Después, por congruencia lógica, se presenta la propuesta de evaluación interna elaborada por la propia universidad. En ambos casos, el objeto de la evaluación fue el proyecto global para establecer el CPIA.

De ahí, se transita hacia los procedimientos que emplea la universidad para evaluar los proyectos específicos que generan los investigadores que forman parte del CPIA. Finalmente, por su influencia sobre el comportamiento de los investigadores, se incluye también una descripción del sistema de evaluación con el que la universidad valora el desempeño de su personal académico. La diferencia entre ambos es el objeto de evaluación. En el primero de los casos, el énfasis está en el proyecto registrado; en el segundo, está en el personal de la organización. El Cuadro 3 sintetiza la información que se presentará.

Cuadro 3 Evaluaciones asociadas a la operación del CPIA. 

EVALUACIÓN OBJETO TIPO DE
EVALUACIÓN
PROPÓSITO
Fondo Mixto Proyecto del CPIA Evaluación ex ante de diseño Verificación de estándares de calidad
Evaluación ex post de desempeño Rendición de cuentas con base en resultados inmediatos
Plan de desarrollo del CPIA Proyecto del CPIA Evaluación formativa Aprendizaje organizacional
Investigaciones Proyectos de investigación registrados Evaluación ex ante de diseño Verificación de estándares de calidad
Evaluación ex post de desempeño Rendición de cuentas con base en resultados inmediatos
Ingreso y Permanencia de Personal Académico Investigadores Evaluación de desempeño Toma de decisiones de contratación y promoción laboral

Fuente: Elaboración propia.

Fondo Mixto

En las reglas de operación de Fondo Mixto se establecen los criterios de evaluación con los que se determinará la calidad técnica de las propuestas (ex ante) y los resultados generados (ex post). Con respecto de la primera, las reglas de operación establecen dos valoraciones: la primera, en términos de pertinencia, verifica que los productos entregables comprometidos atiendan las expectativas de la demanda establecida en el Fondo Mixto; la segunda evalúa la calidad científica de la propuesta. Para ello, se valora su carácter innovador, la congruencia entre actividades, productos, metas y las capacidades del grupo de trabajo.

Una vez financiado el proyecto del CPIA, se realizaron evaluaciones de desempeño intermedias, con el objetivo de verificar los avances, y una evaluación final que revisó la entrega de una lista de productos comprometidos (Cuadro 4). Como se ha dicho, la demanda del fondo mixto solicitó la construcción de un centro público de investigación y desarrollo tecnológico que diera respuesta a los requerimientos del sector agropecuario de la región.

Cuadro 4 Algunos productos entregables comprometidos en el proyecto del CPIA. 

  • - Un plan estratégico y organizacional del centro de investigación.

  • - Un calendario de capacitación continua y un manual de buenas prácticas del área agrícola, pecuaria, acuícola y forestal.

  • - Un grupo multidisciplinario para asesorar a pequeños y medianos productores de la región.

  • - Una estrategia de operación para atender adecuadamente las demandas de los productores.

  • - Un manual de organización y de procedimientos.

  • - Un programa de formación de recursos humanos

  • - Publicación de 8 artículos científicos arbitrados.

  • - Formación de recursos humanos (tesis).

  • - Unidades demostrativas en producción pecuaria, forestal, acuícola y agricultura protegida

  • - Cuatro laboratorios especializados.

Fuente: Elaboración propia

Si bien, la convocatoria del Fondo Mixto solicitaba, entre los entregables, la formalización de vinculaciones con empresas, organizaciones gubernamentales y otros centros de investigación, sin embargo, en el convenio final no quedaron plasmados estos productos. En cambio, en la propuesta elaborada por la universidad, se incluyeron productos académicos como parte de los entregables (tesis, publicaciones).

Con respecto de la evaluación de impacto de los proyectos financiados por el Fondo Mixto, las reglas de operación establecen que su propósito es conocer la efectividad del programa al medir el beneficio generado con las inversiones. El manual de procedimientos del Fondo establece que la valoración de los beneficios puede ser tanto prospectiva como retrospectiva, preferentemente, después de tres años del término del proyecto. Sin embargo, este tipo de evaluación no es obligatoria, siendo decisión del secretario técnico del fideicomiso si se asigna un presupuesto para ello.

Aun así, los términos de referencia de cada convocatoria del fondo establecen los indicadores de impacto con los que se realizaría la evaluación. De esta manera, los términos de referencia de la convocatoria 2013 establecieron una serie de indicadores para la demanda a la cual postuló el proyecto del CPIA (Cuadro 5).

Cuadro 5 Indicadores para establecer el impacto de la operación de un Centro de Investigación y Desarrollo Tecnológico. 

  • - Número de proyectos de investigación científica relacionados con el desarrollo de la región.

  • - Número de empleos que se generan con la creación del centro.

  • - Número de redes estatales de ciencia y tecnología en las que participa el centro.

  • - Número de redes temáticas nacionales de ciencia y tecnología en las que participa el centro.

  • - Nivel de autosuficiencia financiera.

  • - Número de programas científicos transmitidos en radio y televisión

  • - Número de artículos de divulgación en revistas electrónicas

  • - Número de publicaciones especializadas

  • - Participación de estudiantes y docentes en actividades científicas (congresos, seminarios).

Fuente: Demandas específicas del Fondo Mixto convocatoria 2013

Además de esos indicadores, el proyecto sometido al Fondo Mixto por la universidad contemplaba métricas adicionales para establecer el impacto. En la propuesta, se estimaba que el CPIA incrementaría en el mediano plazo los ingresos de 4,000 ganaderos de doble propósito, 15,000 productores agrícolas, 850 acuicultores y 1000 productores forestales. Esto implicaba conseguir un aumento de 20,000 toneladas en la producción agrícola, 35,000 toneladas de carne en canal y 500 toneladas anuales de producción acuícola, adiciones que sumarían más de 250 millones de pesos. Por otro lado, se estipuló que el CPIA contribuiría en la conservación de 100,000 hectáreas forestales de la región. Independientemente de estas métricas, a la fecha no se ha realizado ninguna evaluación del impacto que han tenido las actividades del CPIA.

Plan de desarrollo del CPIA

Entre 2015 y 2018 la Dirección de Planeación de la universidad reestructuró la forma en la que se realizaba la planeación institucional al interior de esta. Se consideró que los Planes Institucionales de Desarrollo, promovidos por programas de subsidio federal, solo generaban información para comunicar al exterior, sin que fueran útiles para retroalimentar el quehacer universitario. Por ello, se promovieron planes de desarrollo participativos en diferentes escalas, esperando que las evaluaciones servirían simultáneamente para verificar la obtención de resultados y para adaptar continuamente los planes.

Siguiendo lo anterior, en 2016 se promovió que los investigadores desarrollaran un plan trianual de desarrollo del CPIA, mismo que permitiera incrementar su impacto en el entorno. En concreto, el plan debía contener los mecanismos de vinculación entre el CPIA y los problemas de su zona de influencia. Por ello, en el plan resultante se incorporaron actividades de los módulos como la elaboración de diagnósticos de sistemas productivos, el desarrollo de paquetes tecnológicos y la implementación de talleres de fortalecimiento de capacidades con pequeños productores.

El plan estableció indicadores para medir la obtención de resultados inmediatos. Además, estipulaba que se realizaría una evaluación anual para verificar el cumplimiento de las acciones, reflexionar sobre su efectividad y rediseñar tanto las estrategias como los indicadores de evaluación. Sin embargo, el plan de desarrollo del CPIA nunca fue evaluado, ni por los propios investigadores, ni por la Dirección de Planeación de la universidad.

Proyectos de investigación registrados

En la universidad, el registro de proyectos de investigación se basa en dictámenes entre pares para evaluar ex ante su validez científica. Para ello, se maneja un protocolo estandarizado que solicita indicar las consecuencias prácticas del conocimiento a generar. En este sentido, pide plantear la aplicabilidad de la investigación, pensando en su relevancia social. Por otro lado, el protocolo es dictaminado por un comité de ética de la investigación, instancia que valora el cumplimiento de estándares que garanticen la protección de los actores involucrados, por ejemplo, presentar su consentimiento previo, libre e informado.

Por su parte, la evaluación ex post de los proyectos registrados se concentra en revisar la entrega de productos académicos comprometidos (artículos, tesis, patentes, ponencias). Ligado a lo anterior, en 2019 comenzó a operar un procedimiento para incentivar la generación de cierto tipo de productos. Al momento de registrar proyectos de investigación, los investigadores tienen una descarga de más horas si comprometen publicaciones en revistas indizadas reconocidas por su impacto (JCR o SCOPUS), si dirigen tesis de doctorado o si registran patentes. En comparación, su descarga es menor si publican en revistas arbitradas, dirigen tesis de licenciatura o realizan ponencias por invitación.

A su vez, la universidad permite a los investigadores el registro de proyectos de vinculación con financiamiento. En estos proyectos, se debe explicitar la búsqueda de beneficios para actores específicos. En cuanto al procedimiento de evaluación, la universidad no realiza distinciones con respecto de los proyectos de investigación, utilizando el mismo protocolo estandarizado y requiriendo la entrega de algún producto académico como resultado.

En relación a la estimación del impacto, la universidad reconoce las limitaciones de su sistema de evaluación. Una revisión de la estrategia para orientar la investigación hacia la resolución de problemas sociales, contenida en el Plan Institucional de Desarrollo 2015-2018, concluyó que la institución no cuenta con mecanismos para medir el impacto de los proyectos.

Desempeño del personal

La universidad utiliza un sistema cuantitativo a través del cual valora el desempeño académico de su personal. Con base en él, se busca dar una base objetiva a las convocatorias a través de aquellas en las que los investigadores concursan por plazas de tiempo completo, reciben estímulos y obtienen promociones laborales. El sistema también valora aspectos ligados a la docencia, como cursos de formación pedagógica. No obstante, destacan por su valor, criterios ligados a la productividad académica tales como publicaciones, direcciones de tesis, ponencias en congresos y registros de propiedad intelectual.

Uno de los objetivos del sistema es promover en los investigadores un comportamiento alineado a los indicadores con los que se evalúa el desempeño de la universidad en programas de gobierno que le brindan fondos extraordinarios. Un ejemplo es el Programa para el Fortalecimiento de la Calidad Educativa (PFCE), el cual utiliza indicadores de capacidad académica para estimar los avances de las universidades en relación al desempeño de sus académicos de tiempo completo. En específico, el programa valora que los investigadores cuenten con posgrado, sean parte de Cuerpos Académicos y formen parte de esquemas de transferencias monetarias condicionadas, como el Programa de Desarrollo del Profesorado o el Sistema Nacional de Investigadores (Vidaurri y Luna, 2017). Como resultado, en la convocatoria de plazas de tiempo completo, un porcentaje importante de la evaluación se vincula a métricas del Programa de Desarrollo del Profesorado. Esto con la finalidad de garantizar que el investigador podrá participar sin inconvenientes en la convocatoria, una vez que obtenga la plaza.

La mayor parte de los investigadores del CPIA no tienen una plaza de tiempo completo, por lo que tienen presentes las reglas de las convocatorias de ingreso. Algunos de ellos reconocieron la influencia del sistema, tanto sobre el comportamiento individual, como en los equipos de trabajo a los que pertenecen. En la búsqueda de certidumbre laboral y de mejores ingresos, los investigadores identificaron desafíos para balancear las expectativas de tener proyectos de vinculación con productores locales y, simultáneamente, una alta productividad académica.

Queramos o no, estamos ceñidos a los indicadores de productividad que nos están pidiendo… Tenemos que seguirlos si queremos seguir avanzando en la universidad. (Investigador #1, comunicación personal)

En el año 2019 se tuvo una reunión, facilitada por investigadores de otro campi, con el objetivo de conformar un equipo de trabajo que colaborara en torno de un Cuerpo Académico que se pretendía formar. Una de sus intenciones era la participación grupal en proyectos conjuntos de investigación, de forma que puedan generarse colaboraciones que resulten en publicaciones compartidas. La idea fue presentada como un mecanismo para hacer carrera profesional dentro de la universidad, al cumplir con uno de los principales indicadores de desempeño: la productividad académica.

Como parte de la propuesta, se compartieron algunos acuerdos de integridad para el funcionamiento del Cuerpo Académico. En el documento se señala que los integrantes tienen el derecho a la participación en proyectos de investigación y dirección de tesis, que para ser coautor, al menos, se debe haber participado en la redacción de un 20% del texto y que, en torno de los proyectos de investigación, se tiene que incluir a todos los Profesores de Tiempo Completo. Al momento de la investigación, esta propuesta de organización no había sido retomada por los investigadores del CPIA.

Discusión

La universidad estudiada, aunque goza de autonomía institucional, ha transferido el enfoque evaluativo de la política científica federal a sus procedimientos de contratación y promoción laboral. Esto coincide con lo señalado para otras universidades del país (Gil, 2014; Gil y Contreras, 2017). Esta decisión es comprensible, pues los fondos extraordinarios cubren parte de la brecha financiera desde la que operan. La universidad destina el 100% del subsidio ordinario (federal y estatal), y buena parte de los recursos que genera por sí misma, para pagar sueldos y prestaciones de su personal. En ese contexto, los programas concursables de la federación son cruciales para financiar su desarrollo.

Si bien, es útil contar con estándares para tomar decisiones objetivas, la producción académica, medida en términos cuantitativos, tiene limitantes. No es posible ligar la cantidad de investigaciones con el impacto que se ha tenido en el entorno (Sivertsen y Meijer, 2020). Por ello, si la evaluación de desempeño empleada por la universidad es útil para promover comportamientos deseados en los investigadores, no lo es para establecer la efectividad de las investigaciones.

Uno de los mayores riesgos es que se confundan los indicadores (productos académicos) con los objetivos (resolver problemas sociales), incentivando que se publique como una meta en sí misma (Hatch y Schmidt, 2020). Otras investigaciones han mencionado que esto puede provocar un comportamiento administrativo estratégico en los académicos, mismo que los lleve a destinar más tiempo en cumplir con requisitos para tener estabilidad laboral o generar ingresos adicionales, que en la ejecución de proyectos de largo plazo (Suárez y Muñoz, 2004; Galaz y Gil, 2013; Alonso y Davidsen, 2014).

En el caso de la universidad, investigaciones previas han reconocido que existe una desvinculación entre la producción de conocimientos y la mejora de las condiciones de la reserva de la biosfera. En este sentido, algunos investigadores del CPIA han reconocido una tensión entre mantener una alta productividad, objetivo que les sirve en su carrera académica, y dedicar tiempo a actividades orientadas a problemas locales, esfuerzo que no podrán publicar en las revistas especializadas de su disciplina. Un aspecto a destacar de la reunión en donde se promovió la conformación de un Cuerpo Académico en el CPIA, es que en ella se habló sobre la importancia laboral de incrementar el número de publicaciones, pero nunca se mencionó la relevancia social que estas tendrían en la reserva, en caso de conseguirlo.

Otros estudios también han señalado el riesgo de que la vinculación no sea una prioridad de los académicos mexicanos (Galaz, Padilla, Gil y Sevilla, 2008). Sin embargo, la universidad cuenta con varias políticas que buscan modificar esta tendencia al revalorizar proyectos que usen el conocimiento para atender problemas prácticos y actuales, a escala local y regional. Por un lado, permite el registro de proyectos de vinculación financiados, los cuales tienen el mismo valor que los proyectos de investigación en los tabuladores de evaluación académica. Por el otro, a través de los campi regionales, promueve la inmersión de los investigadores en el entorno que se desea intervenir. Aun así, la universidad recurre a los mismos indicadores de productividad académica para evaluar los resultados de proyectos de investigación y de vinculación. Como ya se ha dicho, esto es insuficiente para estimar los efectos de proyectos de conservación o de transferencia tecnológica.

Por su parte, la evaluación externa del proyecto para establecer el CPIA, financiado por el Fondo Mixto, basó la rendición de cuentas en la obtención de productos previamente acordados (infraestructura, productos académicos, documentos de planeación y operación). Evidentemente, estos indicadores son insuficientes para establecer el valor público generado. Recientemente, la dirección del CONACYT cuestionó la calidad de las evaluaciones de los Fondos Mixtos. Esto al no poder identificar si servían para resolver los problemas señalados en las demandas establecidas en las convocatorias (Clemente, 2019).

Por problemas de latencia y atribución, es difícil evaluar en el corto plazo el impacto de proyectos relacionados con innovaciones en el sistema agrícola (Ekboir, 2016). Por ello, se considera prioritario garantizar que los proyectos tengan un diseño causal riguroso, el cual permita dar seguimiento a cambios que, se considera, sean condiciones necesarias para tener éxito. De ahí el interés del campo del desarrollo por los modelos lógicos, pues estos representan la causalidad, permiten identificar supuestos y planificar el monitoreo (Margoluis et al., 2013).

Como parte de estándares mínimos de evaluaciones ex ante, estas teorías del cambio servirían tanto al CONACYT como a la universidad para evitar la entrega de recursos a proyectos que exageren, sin evidencia alguna, sus posibles efectos. Esto se debe, en parte, a la responsabilidad de los donantes, ya que es una práctica frecuente que las organizaciones, para asegurar el financiamiento, presenten propuestas románticas que prometen generar profundos cambios sociales, a pesar de que no sea posible conseguirlos con el tiempo y los recursos disponibles (Guijt, 2008). En el caso del CPIA, sin que mediara una cadena de resultados que lo justificara, se estimó un aumento de 35,000 toneladas en la producción de carne, la conservación de 100,000 hectáreas forestales e ingresos adicionales para los productores locales por más de 250 millones de pesos. Aún ahora, no cuenta con un sistema de monitoreo en marcha para verificar avances en estas metas.

Como parte de estándares mínimos de evaluaciones ex post, tanto el CONACYT como la propia universidad, podrían, con base en lo establecido en la teoría del cambio de los proyectos, solicitar pruebas de interacciones productivas con otros actores. Ejemplo de esto podrían ser indicadores que reflejen la influencia que el conocimiento ha tenido, tales como el desarrollo de habilidades, el comienzo de acciones o el establecimiento de consensos (Kumar, Coombes, Vovides y Crabbe, 2018). Por otro lado, podrían emplearse indicadores que reflejen el reconocimiento obtenido, mediado a través de financiamiento adicional gestionado o la invitación a participar en un espacio de toma de decisiones (Bensing et al., 2013).

Es interesante constatar que varios indicadores para medir el cumplimiento de la demanda original del Fondo Mixto tenían esta visión (número de redes científicas en las que participa el centro, número de programas transmitidos en radio y televisión, convenios de colaboración con otras organizaciones, manuales de buenas prácticas con calendarios de capacitación, estrategias para atender intereses de productores). Sin embargo, la mayor parte no se utilizó en la evaluación final del proyecto, además de que la mera entrega de un documento con procedimientos organizacionales no garantiza su uso en la operación cotidiana.

En este mismo sentido, la investigación mostró una brecha en la implementación de evaluaciones orientadas al aprendizaje, las cuales se plantearon en el papel para retroalimentar el plan de desarrollo del CPIA, pero no se llevaron a cabo. Para trascender las buenas intenciones, se requiere que el procedimiento se incorpore como parte del modelo de gestión del CPIA, que los investigadores conciban las evaluaciones como una herramienta valiosa y que en el equipo exista personal con la función y la capacidad de facilitar evaluaciones formativas.

Al interior de la universidad, para vincular la medición del desempeño con la orientación a resultados se requiere del apoyo de las autoridades para transformar las reglas del juego. Por un lado, al asignar recursos para desarrollar capacidades de evaluación en equipos multidisciplinarios de investigación. Por el otro, al modificar el sistema de incentivos, de forma que los investigadores sean recompensados por evaluar la efectividad de sus proyectos.

A continuación, se presenta un ejemplo del tipo de mecanismos que se podrían emplear. Para ello, se retoma el caso de un proyecto actual del CPIA, el cual tiene el objetivo de recopilar y promover la diversidad biocultural de la reserva a través de una estrategia de conservación ex situ. El proyecto, financiado por CONACYT, reunirá en el CPIA varias colecciones de especies arbóreas, no maderables y de sistemas productivos tradicionales.

Después de revisar el diseño del proyecto, se identificó que la lógica causal de los cambios esperados quedó en una caja negra, pues no se mencionaba con claridad cómo las estrategias de difusión servirían para interactuar con actores específicos y cómo en consecuencia se generarían resultados medibles. La descripción de resultados del proyecto finaliza con una serie de productos entregables (Figura 1).

Fuente: Elaboración propia

Figura 1 Representación de la lógica causal del proyecto de conservación ex situ 

En concreto, se propone integrar rutas de generación de impactos como un estándar de calidad en el diseño de proyectos de investigación aplicada. Esto permitiría fortalecer las cadenas de resultados y transparentar el proceso de cambio esperado. Se propone la integración de los siguientes elementos, retomados de varias metodologías para evaluar la intermediación de conocimientos (Alvarez et al., 2010; Van der Meulen et al., 2010; Spaapen et al., 2011; Kumar et al., 2018; Tilley, Ball y Cassidy, 2018; Glover et al., 2019).

  • 1. Especificar los conocimientos que se espera transferir, los cuales pueden ser materiales (plántulas de especies nativas, infraestructura de irrigación) y/o técnicas (pastoreo racional, producción de bioinsumos). Enunciarlos permite identificar a los actores involucrados y evidenciar los supuestos que están detrás de las intenciones de cambio (los ganaderos están interesados en sistemas silvopastoriles, siempre y cuando incrementen la disponibilidad de forraje). En el Cuadro 6 se ejemplifica su uso en el contexto del proyecto de conservación ex situ.

Cuadro 6 Ruta de generación de impacto del proyecto de conservación ex situ (I). 

Conocimientos Actores Supuestos

  • - Recopilación de conocimientos tradicionales.

  • - Plántulas de especies nativas.

  • - Técnicas de manejo para instalar traspatios agroforestales.

Unidades domésticas de comunidades de la región Algunas viviendas tienen solares abandonados con el potencial de integrar especies nativas en traspatios agroforestales.

  • - Plántulas de especies nativas.

  • - Elementos para diseñar reglamentos y programas de fomento de especies nativas.

Ayuntamientos de la reserva Los ayuntamientos pueden destinar recursos para programas de subsidio que fomenten el uso de especies nativas.

Fuente: Elaboración propia

  • 2. Especificar las estrategias de interacción con los actores involucrados, así como los efectos esperados al interactuar con el conocimiento. Al hacerlo, hay que clarificar el tipo de cambio, el grado de dificultad y el indicador con el que se mediría. Esto implica, por necesidad, preparar instrumentos para identificar los cambios que se pretende generar. En el Cuadro 7 se ejemplifica su uso en el contexto del proyecto de conservación ex situ.

Cuadro 7 Ruta de generación de impacto del proyecto de conservación ex situ (II) 

Estrategias de
interacción
Tipo de
cambio
Cambio esperado Indicador Grado de
dificultad
Taller de transferencia tecnológica Desarrollo de habilidades Los participantes planifican lo que desean para su solar y aprenden cómo mantener un traspatio agroforestal. % de participantes que, 3 meses después de los talleres, formalizaron la solicitud de especies nativas para establecerlas en su traspatio. Se espera observar
Asistencia de pares Comienzo de acciones Los participantes instalan un traspatio agroforestal en su vivienda. Número de traspatios agroforestales en funcionamiento, dos años después de su instalación. Se desea observar
Evaluación del retorno social de la inversión Generación de beneficios Los participantes obtienen beneficios económicos y sociales por rehabilitar sus solares. Monetarización de los productos obtenidos del traspatio agroforestal (forraje, leña, plantas medicinales, hortalizas, material de construcción) Sería excelente observar
Diálogos multi-actor Establecimiento de consensos Existe respaldo para elaborar un reglamento intermunicipal de forestación. Reglamento elaborado y aprobado por los cabildos. Se desea observar

Fuente: Elaboración propia

En conjunto, el procedimiento propuesto sentaría las bases de:

  • Evaluaciones participativas ex ante, a través de las cuales se coloque en el centro la capacidad de agencia de la población objetivo en el diseño de las investigaciones.

  • El monitoreo de la dinámica del proceso, a medida que se desarrollan las intervenciones.

  • El uso de evaluaciones como una herramienta de mejora continua, pues el aprendizaje obtenido serviría para retroalimentar los proyectos.

Sin embargo, el uso de esta propuesta, como parte de los procedimientos del CPIA, requiere cambios organizacionales más amplios. Si la universidad a la que pertenece no ajusta su sistema de evaluación, los investigadores invertirían tiempo en actividades no valoradas por su organización, ralentizando el avance en su carrera profesional. De esta manera, un análisis costo/beneficio por parte de los investigadores podría obstaculizar su adopción.

Por este motivo, sería necesario que la universidad vinculara la valoración del desempeño con indicadores de resultado. En específico, se propone que equipos interdisciplinarios de investigadores sean evaluados con base en indicadores seleccionados por ellos mismos, los cuales, a su parecer, reflejen tanto la relevancia de sus proyectos como el proceso de aprendizaje que han tenido.

El medio de rendición de cuentas serían autoevaluaciones donde los equipos de investigación sinteticen el cambio que han conseguido, valoren la efectividad de los mecanismos de intercambio, identifiquen desviaciones y acuerden acciones correctivas para obtener mejores resultados. La intención del procedimiento es estimular el trabajo colaborativo e interdisciplinario orientado hacia la obtención de resultados.

Actualmente, los investigadores de la universidad comprometen productos académicos. La propuesta de mejora es complementar esa métrica con indicadores que indiquen que sus interacciones han sido productivas (Cuadro 8). Para integrarla dentro de sus procedimientos, la universidad podría emplear distintos mecanismos, desde convocatorias que condicionen el financiamiento a su cumplimiento, hasta el rediseño del reglamento de ingreso y promoción del personal académico de la universidad, de forma que se integren indicadores que recompensen la trayectoria de académicos orientados a la transformación de su entorno.

Cuadro 8 Propuesta de indicadores para valorar el desempeño de investigadores 

INVESTIGACIÓN RELEVANCIA
Demostrar la generación de un producto Artículo en revista indizada Evidencia de talleres, programas de radio, videos, notas periodísticas
Demostrar el uso del conocimiento Índice h Indicadores seleccionados que reflejan cambios en la toma de decisiones de actores involucrados
Demostrar el reconocimiento Financiamiento, premios Financiamiento, premios, invitación a un comité, Altmetrics

Modificado a partir de Bensing et al. (2013) y Hicks et al. (2015).

Conclusiones

Las evaluaciones asociadas al CPIA tuvieron tres propósitos: verificar la relevancia de los proyectos antes de su aprobación, rendir cuentas sobre los resultados inmediatos, obtenidos con los proyectos, y tomar decisiones laborales sobre el personal académico. No se han realizado evaluaciones para estimar los cambios generados, ni para retroalimentar los proyectos con la finalidad de mejorarlos.

Se considera necesario reformar el sistema de evaluación al interior de la universidad, de tal manera que mida el valor público generado mediante los proyectos de investigación agrícola desarrollados en el CPIA. Para empezar, hay que cambiar la forma en la que se concibe la calidad de las investigaciones. El paradigma actual asume que la productividad académica es algo inherentemente bueno y, por tanto, una medida suficiente para que la ciencia rinda cuentas. Lamentablemente, si la valoración del desempeño de los investigadores no promueve que se aboquen a la consecución de valor público con sus proyectos, se corre el riesgo de que algunos de ellos prioricen acciones que «dan puntos», más allá del impacto social que puedan tener sus investigaciones (Suárez y Muñoz, 2016).

En cambio, un esquema orientado al impacto promovería que los investigadores, más allá del cumplimiento de los estándares metodológicos de su disciplina, formen equipos interdisciplinarios e inviertan en actividades de intermediación del conocimiento (Bensing et al., 2013). Esta perspectiva ampliada de la rendición de cuentas requiere que el investigador aporte pruebas de que está comprometido con los objetivos que desea conseguir. El artículo presentó una propuesta procedimental para hacer realidad esta visión. Se considera que la universidad estudiada tiene el suficiente margen de maniobra para integrar los cambios sugeridos.

Referencias

Alonso, G. y Davidsen, C. (2014). Conservation Science Policies Versus Scientific Practice: Evidence from a Mexican Biosphere Reserve. Human ecology review, 20 (2), 3-29. [ Links ]

Alvarez, S., Douthwaite, B., Graham T., Mackay, R., Cordoba, D. y Tehelen, K. (2010). Participatory Impact Pathways Analysis: a practical method for project planning and evaluation. Development in Practice, 20, 946-958. [ Links ]

Argyris, C. y Schön, D. (1978). Organizational Learning: A Theory of Action Perspective. Addison Wesley, Massachusetts, 344 p. [ Links ]

Benoit, P., Colinet, L., Gaunand, A., Lemarié, S. y Matt, M. (2016). Agricultural research impact assessment: issues, methods and challenges. OECD Food, Agriculture and Fisheries Papers, No. 98. Paris: OECD Publishing. [ Links ]

Bensing, J., Andeweg, R., Franses, Ph., Meyer, B., Prins, C., y Schuyt K. (2013). Towards a Framework for the Quality Assessment of Social Science Research. Amsterdam, Holanda: Royal Netherlands Academy of Arts and Sciences. [ Links ]

Chavarro D. y Rafols I. (3 de enero de 2018). La evaluación de la investigación basada en revistas margina a regiones como América Latina y sus temas más relevantes. [Mensaje en un blog]. Impact of Social Sciences. Recuperado de http://blogs.lse.ac.uk/latamcaribbean/2018/01/03/la-evaluacion-de-la-investigacion-basada-en-revistas-margina-a-regiones-como-america-latina-y-sus-temas-mas-relevantes/Links ]

Clemente, A. (5 de febrero de 2019) Conacyt desaparecerá fondos mixtos para estados y municipios. El Financiero. https://www.elfinanciero.com.mx/nacional/conacyt-desaparecera-fondos-mixtos-para-estados-y-municipios. [ Links ]

Cohn, A., Newton, P., Gil, J. D., Kuhl, L., Samberg, L., Ricciardi, V., y Northrop, S.,(2017). Smallholder agriculture and climate change. Annual Review of Environment and Resources, 42, 347-375. [ Links ]

Ekboir, J. (2003). Why impact analysis should not be used for research evaluation and what the alternatives are. Agricultural systems, 78 (2), 166-184. [ Links ]

Ekboir, J. (2016). Marco conceptual para el análisis institucional del INTA. Documento de trabajo del Centro de Investigación en Ciencias Políticas, Económicas y Sociales, Buenos Aires: INTA. [ Links ]

Ekboir, J., Dutrénit, G., Martínez, G., Torres, A., y Vera, A. (2009). Successful Organizational Learning in the Management of Agricultural Research and Innovation. The Mexican Produce Foundations. IFPRI Research Report No. 162. Washington, DC: International Food Policy Research Institute. [ Links ]

Ekboir, J., Blundo, G., y Sette, C. (2017). Knowing what research organizations actually do, with whom, where, how and for what purpose: Monitoring research portfolios and collaborations. Evaluation and Program Planning, 61, 64-75. [ Links ]

Eyben, R. (2009). Hovering on the Threshold: Challenges and Opportunities for Critical and Reflexive Ethnographic Research in Support of International Aid Practice. En Hagberg y Widmark (eds.), Ethnographic Practice and Public Aid. Methods and Meanings in Development Cooperation. Suecia: Uppsala University. [ Links ]

Galaz, J., Padilla L., Gil M. y Sevilla J. (2008). Los dilemas del profesorado en la educación superior mexicana. Calidad en la Educación, 28, 53-69. [ Links ]

Galaz, J., y Gil, M. (2013). The impact of merit-pay systems on the work and attitudes of Mexican academics. Higher Education, 66 (3), 357-374. [ Links ]

Gil, M. (2014). Los nuevos escenarios de la educación en México y el papel de las revistas científicas especializadas. Perfiles educativos, 36, 196-203. [ Links ]

Gil, M. y Contreras, L. (2017). El Sistema Nacional de Investigadores: ¿espejo y modelo? Revista de la Educación Superior, 46 (184), 1-19. [ Links ]

Glover, D., Sumberg, J., Ton, G., Andersson, J., y Badstue, L. (2019). Rethinking technological change in smallholder agriculture. Outlook on Agriculture, 48(3), 169-180. [ Links ]

Grammont, H. (2010). La evolución de la producción agropecuaria en el campo mexicano: concentración productiva, pobreza y pluriactividad. Andamios, 7 (13), 85-117. [ Links ]

Guijt, I. (2008). Seeking Surprise: Rethinking monitoring for collective learning in rural resource management. Tesis doctoral publicada, Universidad Wageningen, Holanda. [ Links ]

Hall, A., Sulaiman, V., Clark, N., y Yoganand, B. (2003). From measuring impact to learning institutional lessons: an innovation systems perspective on improving the management of international agricultural research. Agricultural systems, 78 (2), 213-241. [ Links ]

Harvey, C., Saborio, M., Martinez, M., Viguera, B., Chain, A., Vignola, R., y Alpizar, F. (2018). Climate change impacts and adaptation among smallholder farmers in Central America. Agriculture & Food Security, 7(1), 57. [ Links ]

Hatch, A y Schmidt, R. (2020) Rethinking Research Assessment: Unintended Cognitive and System Biases. DORA. [ Links ]

Hicks D., Wouters P., Waltman L., de Rijcke S., Rafols I., (2015). Bibliometrics: The Leiden Manifesto for research metrics. Nature, 520, 429-431. [ Links ]

Kumar, S., Coombes, Y., Vovides, Y. y Crabbe, R. (2018). The art of knowledge exchange: a results-focused planning guide for development practitioners in the Social, Urban, Land, and Resilience Sectors. Washington, DC: World Bank. [ Links ]

LSE Public Policy Group (2011). Maximizing the Impacts of Your Research: a Handbook for Social Scientist. Reino Unido: Public Policy Group. [ Links ]

Mackay, R. y Horton, D. (2003). Expanding the use of impact assessment and evaluation in agricultural research and development. Agricultural systems, 78 (2), 143-165. [ Links ]

Margoluis, R., C. Stem, V. Swaminathan, M. Brown, A. Johnson, G. Placci, N. Salafsky, y I. Tilders (2013). Results chains: a tool for conservation action design, management, and evaluation. Ecology and Society 18(3): 22. [ Links ]

Nature, 2020. Ending hunger: Science must stop neglecting smallholder farmers. Nature, 586 (7829), 336-336. [ Links ]

Netherlands Organization for Scientific Research (s.f.) Impact and Uptake of Research. Recuperado de https://www.nwo.nl/en/documents/wotro/impact-and-research-uptakeLinks ]

Nowotny, H., Scott, P., y Gibbons, M. (2003). Introduction: ‘Mode 2’ revisited: The new production of knowledge. Minerva, 41 (3), 179-194. [ Links ]

Olvera, J., Piña, H., y Mercado, A. (2009). La universidad pública: autonomía y democracia. Convergencia Revista de Ciencias Sociales, 51, 237-254. [ Links ]

Oslo Institute for Research on the Impact of Science (2016). Introduction to the new centre OSIRIS - The OSlo Institute for Research on the Impact of Science. Recuperado de: https://www.sv.uio.no/tik/english/research/centre/osiris/presentations/presentations-2017/osiris-presentation-general-english.pdfLinks ]

Polastri, R. y Savastano, S. (2020). Financiación basada en los resultados: Un posible cambio de juego para las futuras operaciones del FIDA. Recuperado de: https://www.ifad.org/es/web/latest/blog/asset/42102349Links ]

Rivera, R., Dutrénit, G., Ekboir, J., Vera-Cruz, A. (2016). Vinculación y productividad de la investigación: una comparación de diferentes perfiles de investigadores. En Vera-Cruz, A. y Dutrénit, G. (eds.). Sistema de innovación del sector agropecuario en México. Tendiendo puentes entre los actores. Ciudad de México, Miguel Ángel Porrúa-Universidad Autónoma Metropolitana, 143-172. [ Links ]

Salafsky, N., Margoluis R., y Redford K. (2001). Adaptive management: a tool for conservation practitioners. Washington, D.C, Estados Unidos: Biodiversity Support Program [ Links ]

Sivertsen, G., y Meijer, I. (2020). Normal versus extraordinary societal impact: How to understand, evaluate, and improve research activities in their relations to society? Research Evaluation, 29(1), 66-70. https://doi.org/10.1093/reseval/rvz032 [ Links ]

Spaapen, J., Van Drooge L., Propp, T., van der Meulen B., Shinn T., Marcovich A., van den Besselaar P., de Jong S., Barker K., Cox D., y Morrison K. (2011). Social Impact Assessment Methods for research and funding instruments through the study of Productive Interactions between science and society. Recuperado de http://www.siampi.eu/Content/SIAMPI_Final%20report.pdfLinks ]

Spaapen, J., y van Drooge, L. (2011). Introducing “productive interactions” in social impact assessment. Research Evaluation, 20, 211-218. [ Links ]

Suárez, M. y Muñoz, H. (2004). Ruptura de la institucionalidad universitaria. En Ordorika I. (Coord.). La academia en jaque: Perspectivas políticas sobre la evaluación de la educación superior en México. México: Universidad Nacional Autónoma de México, Miguel Angel Porrúa, 25-33. [ Links ]

Taut, S. (2007). Studying self-evaluation capacity building in a large international development organization. American Journal of Evaluation, 28, 45-59. [ Links ]

Tilley H., Ball L. y Cassidy C. (2018). Research Excellence Framework (REF) Impact Toolkit. Overseas Development Institute. [ Links ]

Turnhout E., Stuiver, M., Klostermann, J., Harms, B., y Leeuwis, C. (2013). New roles of science in society: Different repertoires of knowledge brokering. Science and Public Policy, 40, pp. 354-365. [ Links ]

Van der Meulen, B., Van Drooge L., van den Besselaar P., Elsen M., de Haas M., van den Heuvel J. y Maassen H. (2010). Evaluating the societal relevance of academic research: a guide. Recuperado de https://repository.tudelft.nl/islandora/object/uuid:8fa07276-cf52-41f3-aa70-a71678234424Links ]

Vallaeys, F. (2014). La responsabilidad social universitaria: un nuevo modelo universitario contra la mercantilización. Revista Iberoamericana de Educación Superior, 5 (12), 105-117. [ Links ]

Vasen, F. y Lujano, I. (2017). Sistemas nacionales de clasificación de revistas científicas en América Latina: tendencias recientes e implicaciones para la evaluación académica en ciencias sociales. Revista Mexicana de Ciencias Políticas y Sociales, 231, 199-228. [ Links ]

Vera, A., Dutrénit, G., Ekboir, J., Martínez, G. y Torres, A. (2008). Virtues and Limits of Competitive Funds to Finance Research and Innovation: The Case of Mexican Agriculture. Science and Public Policy, 35, 501-513. [ Links ]

Vera, A., y Dutrénit, G. (2016). Tendiendo puentes entre los actores del sistema de innovación del sector agropecuario: una introducción. En Vera-Cruz, A. y Dutrénit, G. (eds.). Sistema de innovación del sector agropecuario en México. Tendiendo puentes entre los actores. Ciudad de México, Miguel Ángel Porrúa, Universidad Autónoma Metropolitana. [ Links ]

Vidaurri, S. y Luna B. (2017). Del Programa Integral de Fortalecimiento Institucional (PIFI) al Programa de Fortalecimiento de la Calidad Educativa (PFCE), su efecto en la universidad pública estatal. Revista Dilemas Contemporáneos: Educación, Política y Valores, 5 (1), 1-31. [ Links ]

Weißhuhn, P., Helming, K., y Ferretti, J. (2018). Research impact assessment in agriculture-A review of approaches and impact areas. Research Evaluation, 27(1), 36-42. [ Links ]

Yin, R. (2009). Case Study Research: Design and Methods. Thousand Oaks, Estados Unidos: Sage Publication. [ Links ]

1El aprendizaje organizacional sucede cuando sus integrantes adquieren la capacidad de detectar, corregir y compartir errores en los supuestos que fundamentan la operación. Como resultado, el personal es capaz de responder de mejor manera al contexto que enfrenta la organización (Argyris y Schön, 1978).

2Organismo público responsable de articular las políticas públicas ligadas a la investigación científica en México.

Recibido: 19 de Octubre de 2021; Aprobado: 18 de Septiembre de 2022

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons