SciELO - Scientific Electronic Library Online

 
vol.1 número1Reforzamiento concurrente de secuencias de respuestasEfectos de la dispersión de alimento sobre la elección y los patrones de exploración índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


Acta de investigación psicológica

versión On-line ISSN 2007-4719versión impresa ISSN 2007-4832

Acta de investigación psicol vol.1 no.1 México abr. 2011

 

Algunas observaciones sobre el "control del estímulo"

 

Some Observations about "Stimulus Control"

 

Emilio Ribes Iñesta1

 

Universidad Veracruzana.

 

1 Dirigir correspondencia al autor al:
correo electrónico eribes@uv.mx

 

Resumen

Se reflexiona sobre el concepto de control del estímulo en la teoría del condicionamiento operante y, en especial, sobre el concepto de estímulo discriminativo. Para ello se señalan los problemas lógicos y definicionales que reviste el uso del concepto de estímulo en general y el de estímulo discriminativo en particular. Se reseñan diversos experimentos del autor para mostrar la incapacidad del concepto de estímulo discriminativo para dar cuenta de una serie de datos que muestran las insuficiencias lógicas y empíricas del concepto.

Palabras clave: Estímulo discriminativo, Estados, Programas temporales, Señal.

 

Abstract

Some thoughts on the concept of stimulus control in operant conditioning theory and in particular on the concept of a discriminative stimulus are presented. The paper presents the logical and definitional problems regarding the use of the concept of stimulus in general and of a discriminative stimulus in particular. Several experiments conducted by the author are presented to exemplify the logical and empirical inadequacies of the concept of discriminative stimulus to account for a series of data.

Key Words: Discriminative stimulus, States, Temporal schedules, Signal.

 

A manera de justificación.

Con la licencia del editor de este volumen, me voy a permitir señalar algunos problemas conceptuales del uso que se le da al concepto de estímulo discriminativo y de su derivado tecnológico-operacional, el de control del estímulo. Este último concepto supone la "irradiación" restringida de las funciones del estímulo discriminativo a estímulos dimensionalmente adyacentes o semejantes (generalización del estímulo). Los problemas lógicos que presentan dichos conceptos no son exclusivos de ellos, sino que son compartidos por el conjunto de categorías de la teoría del condicionamiento operante. En gran medida, aunque no exclusivamente, dichos problemas provienen de la lógica operacionalista de la teoría, como ya lo he examinado previamente (Ribes, 2003, 2004). En todo caso, el concepto de estímulo discriminativo cubre lógicamente los efectos de los estímulos antecedentes o precedentes a la(s) respuesta(s) operante(s), y ha constituido el dispositivo conceptual para dar cuenta de los cambios en la conducta, cuando estos no pueden ser atribuidos directamente al estímulo reforzante, como ocurre en la conducta gobernada por reglas (Skinner, 1966) y en la equivalencia de estímulos (Sidman, 1994), entre otros casos.

Para realizar este examen conceptual, me voy a basar en dos tipos de criterios, por la naturaleza misma del análisis. El primero, tiene que ver con la lógica definicional de los conceptos empleados y su uso apropiado. El segundo, tiene que ver con observaciones empíricas extraídas, la mayor parte, de experimentos realizados en mi laboratorio en las que, al variarse algunas de las condiciones experimentales regularmente empleadas para estudiar el control del estímulo, los estímulos antecedentes no muestran las propiedades funcionales esperadas por la teoría del condicionamiento operante.

Algunos problemas conceptuales y empíricos

Skinner (1938) distinguió entre dos funciones de los estímulos que preceden a la respuesta condicional: la función evocadora, asignada a los estímulos condicionales (EC) en el condicionamiento tipo respondiente, y la función discriminativa, característica de los estímulos discriminativos y delta en el condicionamiento operante. Los estímulos condicionales se definen usualmente con base en su duración y superposición respecto del estímulo incondicional, y su función se identifica en relación con un componente o fracción de la respuesta incondicional. Los estímulos condicionales fueron descritos como estímulos seña/ por Pavlov (1927) o como estímulos preparatorios por el propio Skinner. En cambio, los estímulos discriminativos (y delta) se definen regularmente por ser estímulos en cuya presencia una respuesta produce la entrega del reforzamiento y en cuya ausencia la respuesta no es efectiva. Los estímulos discriminativos se presentan durante periodos más o menos extensos, delimitados por la ocurrencia de un reforzador bajo un programa determinado, o por el transcurso de un periodo en el que pueden ocurrir uno o más reforzadores, aunque el periodo concluya sin que las respuestas terminales sean seguidas por el reforzador, como suele ocurrir en los programas múltiples independientes y en los programas concurrentes (Ferster & Skinner, 1957). En este caso, Skinner planteó que los estímulos discriminativos seleccionan las respuestas efectivas para producir la ocurrencia del reforzamiento.

Es obvio que esta distinción coloca en "tierra de nadie" a los estímulos correlacionados con la entrega de reforzamiento superpuestos a la ocurrencia de respuestas "incondicionales" o "espontáneas" no inducidas por el reforzador ni requeridas para producir el reforzador, o cuando se trata de estímulos incidentales a una contingencia operante explícita (Brown & Jenkins, 1968; Morse & Skinner, 1955), respuestas inicialmente consideradas como una "segunda" y "tercera forma de superstición".

En el condicionamiento operante se emplean dos criterios fundamentales para identificar el control del estímulo (Rilling, 1977): uno, es la diferencia en la frecuencia de ocurrencia de la respuesta en presencia o ausencia de: a) un estímulo correlacionado con el reforzamiento, b) un estímulo no correlacionado con el reforzamiento o, c) un estímulo correlacionado con el no reforzamiento; otro criterio tiene que ver con el desarrollo de patrones típicos de respuestas repetidas bajo determinados programa de reforzamiento, patrones referidos a los programas de razón, de intervalo y de pausas.

La definición de estímulo discriminativo y/o delta presenta varios problemas de orden conceptual. El primero tiene que ver con la caracterización del estímulo como seleccionador de respuestas a ser reforzadas (Skinner, 1938), o como la "ocasión" para que una respuesta sea reforzada (Ferster & Skinner, 1957). En realidad, tal como lo describe el propio Skinner, la propiedad discriminativa o delta de un estímulo es el resultado de una discriminación consistente en que determinada "clase" de respuestas sea o no reforzada en su presencia, o bien no sea reforzada en su ausencia. Esto significa que el estímulo en cuestión forma o no parte de una contingencia en la que la ocurrencia del reforzador depende tanto del estímulo antecedente como de la respuesta operante. Por consiguiente, el estímulo señala bajo qué condiciones la respuesta predeterminada es o no efectiva para producir el reforzamiento. Desde esta perspectiva no hay diferencias entre la función del estímulo condicional y el estímulo discriminativo. La diferencia, en realidad, estriba en la relación previa entre el reforzador empleado y la respuesta elegida. Un segundo problema tiene que ver con el concepto mismo de estímulo. Un estímulo constituye por definición una ocurrencia identificable como un cambio en el estado del medio ambiente. En los programas de reforzamiento, incluyendo a los programas temporales de estímulo (Schoenfeld & Cole, 1972), se concibe a los estímulos como condiciones más o menos permanentes en el ambiente, y no como cambios en dichas condiciones. Así, en los programas múltiples de reforzamiento, los estímulos se mantienen durante el periodo cubierto por el tiempo requerido para la entrega de reforzamiento o durante un periodo de longitud predeterminada. Al cambiar de componente, se produce un cambio en la condición de estímulo, pero se considera que el estímulo consiste en el nuevo estado del ambiente (luz roja en vez de luz verde, por ejemplo). Los estímulos así contemplados constituyen, en realidad, estados de los objetos y fenómenos en el ambiente. Las funciones de los estímulos, en sentido estricto, deberían evaluarse en los momentos iniciales en que se produce un cambio de estado en las condiciones de estimulación procuradas por un objeto, o durante la presencia de cambios continuos o graduados, tal como sucede en los programas de intervalo con reloj o contador agregado (Ferster & Skinner, 1957). De otra manera es difícil determinar qué propiedades de los objetos y fenómenos en el ambiente se relacionan con los cambios que tienen lugar en la conducta. Finalmente, en la medida en que, en los programas múltiples y concurrentes, los estímulos discriminativos son coextensivos a los intervalos entre reforzadores, siempre ocurren un gran número de respuestas no reforzadas en presencia de dichos estímulos. Lo mismo ocurre cuando los componentes de dichos programas cambian de manera independiente de la ocurrencia del reforzador, de modo que ninguna respuesta previa al cambio es reforzada. El resultado es que en realidad se ubica al estímulo discriminativo bajo condiciones de "correlación intermitente" con el reforzamiento, incluso si se considera al patrón de ejecución como "unidad" de respuesta. Cuando se contempla el hecho de que el reforzador sigue a una sola respuesta, el estímulo discriminativo se correlaciona con mayor número de respuestas no reforzadas que reforzadas, excepto en los programas de reforzamiento continuo, de modo que la correlación por sí sola no da cuenta de la función discriminativa del estímulo. Para ello, se requiere de explicaciones o hipótesis adicionales, referidas todas a considerar el patrón de ejecución como unidad de respuesta y a procesos supraordinados de conteo de tiempo o de respuestas. No es necesario comentar que esto cuestiona el concepto de clase operante, y que añade complicaciones al concepto mismo de discriminación.

El concepto de estímulo discriminativo, como una función de señal distintiva de la "ocasión" de reforzamiento de una respuesta, debería ceñirse a la de un cambio en los estados de objetos y/o fenómenos en el ambiente, "marcador" de la oportunidad de que una respuesta sea o no reforzada. Dada la disponibilidad ilimitada del reforzador en los programas de reforzamiento tipo Ferster-Skinner, esta función no puede ser evaluada experimentalmente. El empleo de la frecuencia de una respuesta discreta y repetitiva como medida básica no permite analizar experimentalmente la oportunidad y precisión como características centrales del comportamiento efectivo. El condicionamiento operante ha hecho énfasis en la persistencia de la conducta y, por ello, las funciones de los llamados estímulos discriminativos podrían ser interpretadas más adecuadamente como funciones motivacionales: mantener el responder hasta la entrega del reforzamiento. Corresponderían a una lógica híbrida de las funciones del reforzador condicional, por su correlación con el reforzamiento (Kelleher, 1966), y de los estímulos pulsión planteados por Hull (1952), por su acción hacia "adelante".

En los programas temporales de estímulo (Schoenfeld & Cole, 1972), aunque también se emplean respuestas repetitivas y discretas, los estímulos antecedentes o "neutros" señalan la oportunidad de respuesta (y de la entrega de reforzamiento) respecto de un periodo de disponibilidad limitada, tD. En cada ciclo temporal, T, sólo se requiere de una respuesta (la primera) para la entrega de agua o comida y, una vez que dicha entrega ocurre, desaparece el estímulo neutro de modo que no pierde sus propiedades de señal. En el resto del periodo tD, cuando la primera respuesta ocurre antes de su terminación, transcurre sin estímulo correlacionado hasta el inicio del siguiente periodo (otro tD o tΔ). De no darse una respuesta en tD se pierde el reforzador programado en ese ciclo, por lo que los programas temporales privilegian la oportunidad y precisión temporal de la respuesta, más que la emisión persistente de respuestas. En el caso de los programas temporales, la identificación del control del estímulo difiere de los criterios utilizados en los programas tipo Ferster-Skinner. En primer lugar, dado que sólo una respuesta es necesaria para producir el reforzamiento, la frecuencia como tal pierde interés, y lo importante es el porcentaje de reforzadores programados que se obtienen (o el porcentaje de reforzadores "perdidos"). En segundo lugar, la latencia de la respuesta en el periodo de tiempo discriminativo es de fundamental importancia. En tercer lugar, destaca la medida relativa a la proporción de respuestas por reforzador obtenido. Finalmente, los patrones típicos de las ejecuciones de "intervalo" y de "razón" son irrelevantes, pues los programas temporales pueden generar dicho tipo de ejecuciones sin fijar criterios de tiempo y número de respuestas (Schoenfeld & Cumming, 1957; Schoenfeld, Cumming, & Hearst, 1956).

Los programas temporales consisten en un ciclo (T) repetitivo, compuesto por dos subciclos, tD y tΔ, que se presentan siempre en ese orden. Regularmente, el reforzamiento se programa con una determinada probabilidad en tD con un rango mayor que cero hasta 1.0, mientras que en tΔ la probabilidad es de cero (aunque en algunos casos puede ser mayor que cero pero nunca mayor que la probabilidad asignada a tD). La proporción de tD respecto del ciclo T completo (T testada) representa la disponibilidad temporal del reforzador dentro de cada ciclo, mientras que la probabilidad (P) representa la proporción de ciclos reforzados respecto del total programado. Cuando los subciclos del programa no se correlacionan con un estímulo neutro, la frecuencia de respuesta se distribuye a lo largo de ambos subciclos dependiendo de los valores paramétricos de T, T testada y P (Schoenfeld & Cole, 1972). Sin embargo, de acuerdo con el concepto de control del estímulo, al correlacionar tD con un estímulo neutro, podría esperarse que la frecuencia de respuesta se redujera y se concentrara exclusivamente en dicho subciclo. De igual manera, se esperaría que al correlacionar a tΔ con un estímulo neutro distinto, la respuesta en dicho subciclo debería disminuir o desaparecer. Sin embargo, varios estudios demuestran lo contrario. Weissman (1961, 1965) encontró reducciones en la frecuencia de respuesta como consecuencia de la introducción de un estímulo correlacionado con tD, mientras que Ribes y Torres (1996, 1997) y Ribes, Torres, Barrera, y Mayoral (1997) observaron frecuencias de respuesta mayores en tΔ que en tD en distintas condiciones de correlación de estímulos neutros en cada uno de los subciclos. En estudios posteriores empleando estímulos auditivos (tonos) en vez de visuales (luces) se observó también mayor frecuencia de respuesta en tΔ que en tD (Ribes, Mayoral, Torres, & Ibañez, 2000), incluso durante periodos extendidos de seis meses de exposición (Ribes, Torres, & Mayoral, 2002).

En algunos estudios hemos observado efectos del estímulo neutro en el subciclo o tiempo discriminativo en los programas temporales. Esto ocurre cuando se compara la presencia con la ausencia de estímulos diferenciales en uno o en ambos subciclos del programa temporal. En un estudio (Ribes, Torres, & Piña, 1999) se perdió un mayor porcentaje de entregas de agua y fue mayor la variabilidad en el intervalo de entregas de agua en ausencia que en presencia de condiciones de estímulo diferenciales en ambos subciclos, el discriminativo y el delta. En otro estudio (Torres, Ribes, & Mayoral, 2003), la presencia de estímulos diferenciales en cada subciclo de T redujo la frecuencia y la variabilidad de la respuesta en el periodo discriminativo, en contraste con la ejecución observada en ausencia de estímulos o en la presencia de estímulos no diferenciales (el mismo estímulo) en ambos subciclos de T.

Una de las razones de estos hallazgos podría depender de las duraciones diferentes de los estímulos correlacionados con ambos subciclos, pues cuando tΔ tiene asignada una probabilidad de 0 el estímulo es coextensivo al subciclo, mientras que la duración del estímulo correlacionado con tD varía conforme el tiempo que comprende la obtención del reforzamiento. Con el fin de evaluar el efecto de hacer coextensivo el estímulo correlacionado con tD con dicho subciclo, independientemente de los distintos momentos de entrega del reforzamiento (incluyendo la pérdida del reforzador), Ribes, Montes, y Mayoral (2008) realizaron un experimento en que emplearon estímulos neutros distintos correlacionados con cada subciclo, tD y tΔ (con probabilidades de 1 y 0 respectivamente), variando sistemáticamente la longitud del ciclo T entre fases y manteniendo constante en 0.5 el valor de T testada. No se observaron diferencias en el número (que no frecuencia) de respuestas en función de la longitud del ciclo T. Sin embargo, a pesar de que no se desarrollaron frecuencias diferenciales en cada subciclo asociados a distintas probabilidades de entrega de agua, tampoco se observaron frecuencias de respuesta mayores en tΔ que en tD.

Discriminar significa distinguir, diferenciar entre dos cosas y, desde este punto de vista, es poco afortunado a la vez que incorrecto llamar "discriminativo" a un estímulo que es señal u ocasión de algo. Sin embargo, algunos estudios trataron sobre la discriminabilidad de diversas propiedades físicas de la estimulación. El término se aplicó de manera apropiada al estudio de los umbrales diferenciales de estimulación, con el objeto de obtener gradientes de discriminación (Blough, 1966), pero nadie afirmaría que dichos estudios se relacionaban con el control del estímulo o con las funciones discriminativas de los valores de estimulación. Las investigaciones sobre umbrales diferenciales de la dimensión cromática de estimulación son complementarias a los estudios neurofisiológicos para determinar las funciones reactivas de las distintas especies de organismos. Al reflexionar sobre el concepto de discriminación resalta el hecho de que la discriminación, en el caso del comportamiento, siempre debe ser una consecuencia del responder del organismo. Discriminar implicaría, por consiguiente, distinguir las condiciones o circunstancias con base en lo que ocurre como resultado o consecuencia del propio comportamiento. En algunos casos, las consecuencias son intrínsecas, directas e inmediatas, mientras que en otras las consecuencias que permiten discriminar pueden ser extrínsecas e indirectas o mediatas.

Ferster y Skinner (1957) se percataron de este hecho al plantear las propiedades discriminativas del reforzador, así como las funciones discriminativas del cambio de estado de las condiciones de estimulación en programas secuenciales como los programas encadenados. En los casos en que los programas secuenciales carecían de cambios en los estados exteroceptivos de estimulación, examinaron la ejecución obtenida en términos de las propiedades discriminativas del propio responder (usualmente las ejecuciones correspondientes al programa de reforzamiento con menor requisito de respuestas o de tiempo), como ocurre en los programas mixtos o alternativos de reforzamiento. Skinner (1938) destacó el papel discriminativo de otros factores en la entrega del reforzamiento en el proceso de moldeamiento y en los programas de reforzamiento continuo. Señaló que el condicionamiento de la respuesta de apretar u oprimir la palanca constituía realmente una cadena de reflejos que terminaba con la toma e ingesta de la comida. El sonido del dispensador de alimento y la estimulación propioceptiva, correlacionada con oprimir la palanca en el momento de la entrega del reforzador, eran variables intermediarias importantes que afectaban la adquisición y tasa de la respuesta condicionada. Skinner mostró que podía obtenerse "condicionamiento secundario" en la adquisición al hacer seguir a la presión de la palanca del sonido del dispensador de comida correlacionado previamente con la entrega de alimento. Igualmente mostró que podían observarse efectos de extinción semejantes al eliminar el sonido del dispensador mientras se mantenía la entrega de alimento, o dejando vacío el dispensador pero manteniendo el sonido correlacionado. Skinner interpretó estos efectos en términos de las propiedades discriminativas y reforzantes secundarias de los distintos estímulos en la cadena de reflejos involucrados en apretar la palanca.

Las ejecuciones bajo programas de segundo orden (Byrd & Marr, 1969; Marr, 1969) muestran esta función discriminativa de los estímulos. En primer lugar, en los programas de segundo orden la unidad de respuesta está constituida por la ejecución completa de un programa de primer orden, usual, aunque no necesariamente, un programa de razón o de intervalo. En segundo lugar, el programa de segundo orden, ya sea de intervalo o de razón (preferentemente), estipula el requisito de ejecución de las unidades constituidas por el programa de primer orden, de modo que un programa de segundo orden Razón Fija N (Intervalo Fijo T) estipula cuantas ejecuciones de intervalo fijo sucesivas completas deben cumplirse para obtener un reforzador. La característica distintiva de los programas de segundo orden es que al término de cada una de las unidades de respuesta (el cumplimiento del requisito de un programa de primer orden) se presenta lo que se denomina un estímulo "breve", es decir, un cambio de estímulo, siempre de la misma duración y propiedades físicas modales. En general, se observa que las ejecuciones en los programas de segundo orden, a diferencia de los programas encadenados, permiten el desarrollo de ejecuciones de extensión mayor que dos "componentes" y con gran número de respuestas. La interpretación más adecuada de este fenómeno es atribuir a los estímulos breves una función discriminativa respecto del cumplimiento de cada una de las unidades de respuesta estipuladas por el programa de segundo orden. Este efecto se debe, indudablemente, a la "brevedad" de los estímulos, pues de no ser ocurrencias discretas no serían en realidad estímulos, como ocurre en el caso de los programas encadenados y múltiples en que se trata de cambios de estado de la estimulación.

En un estudio (Ribes, Carvajal, Valdez, Torres, & Mayoral, 2009) se evaluaron las posibles funciones discriminativas de los estímulos correlacionados con la entrega de agua en programas de reforzamiento continuo, de intervalo fijo y de razón fija. Desde la primera sesión de moldeamiento manual, se expuso a la mitad de las ratas a condiciones normales de entrega del agua y la otra mitad a condiciones atenuadas (no se apagó la luz general de la cámara, no se encendió la luz del dispensador de agua, y el sonido del dispensador tuvo un valor subumbral en decibeles). Posteriormente, en cada grupo se dividió a las ratas en dos subgrupos, y cada uno de ellos se expuso directamente a un programa de intervalo fijo (60 s) o a un programa de razón fija 10. En una segunda fase, todas las ratas se sometieron a un programa de reforzamiento continuo, a una replicación de los programas de intervalo o razón fija y, finalmente, a una fase de tiempo fijo ajustado al valor del programa de intervalo fijo o al valor promedio del intervalo entre reforzamientos en el programa de razón fija. En todas las fases, la mitad de las ratas se expuso a los estímulos correlacionados normalmente con la entrega del agua y la otra mitad a su omisión y presentación atenuada. Las ratas no desarrollaron los patrones típicos de festón y de pausa-carrera de los programas de intervalo y razón fija respectivamente. Durante el reforzamiento continuo las ratas respondieron más en ausencia que en presencia de los estímulos correlacionados con la entrega de agua. En ambos grupos el número de respuestas y de reforzadores obtenidos fue mayor bajo reforzamiento continuo (llegaron a casi 1000 respuestas y reforzadores en sesiones de una hora) que bajo reforzamiento intermitente de intervalo o razón. En las ejecuciones bajo programas de razón se observó mayor variabilidad y mayor número de respuestas en ausencia que en presencia de los estímulos correlacionados con la entrega de agua. El hallazgo principal de este experimento fue poner en evidencia la necesidad de exponer a las ratas a transiciones graduales, a partir del reforzamiento continuo, para obtener las ejecuciones típicas de los programas intermitentes. Sin embargo, adicionalmente mostró los efectos discriminativos de los estímulos correlacionados con la entrega del agua en la regulación del número y distribución de las respuestas.

En otro estudio (Ribes & Montes, 2009) se evaluó la interacción de la presencia/ausencia de estímulos correlacionados con la entrega de agua, bajo condiciones de privación/no privación de agua en programas de reforzamiento continuo y de intervalo fijo y variable. Los resultados mostraron que todas las ratas respondieron en las dos fases iniciales con reforzamiento continuo e intervalo fijo y variable con agua, a pesar de no estar privadas. Se observó también que la presencia/ausencia de los estímulos correlacionados con la entrega de agua no afectó la ejecución a lo largo del experimento. Se encontró que la frecuencia de apretar la palanca varió de acuerdo con la ausencia/presencia de privación de agua, independientemente del programa y frecuencia de entregas de agua, observándose la misma cantidad de respuesta en todos los programas. El dato más interesante, para los propósitos de este análisis, fue que durante los programas de intervalo fijo y variable con privación ocurrieron más respuestas de muestreo al bebedero sin agua que respuestas de presionar la palanca. Este efecto sugiere que en los programas de intervalo, a diferencia de los programas de reforzamiento continuo y de razón en que el número de respuestas de apretar la palanca determina la frecuencia de reforzamiento, el organismo sondea la distribución de la entrega del agua en este caso mediante respuestas de ingreso al bebedero, que normalmente nunca se miden en los experimentos de conducta operante. De este modo, las respuestas de sondeo en el bebedero tendrían propiedades discriminativas en la ejecución de los programas de intervalo, y no la propia ocurrencia del reforzamiento como regularmente se propone. En la medida en que no se encontraron diferencias en presencia o ausencia de los estímulos correlacionados con la entrega de agua, y que se observaron altas frecuencias de respuestas de muestreo al bebedero sin agua en el tiempo inmediato al suministro de agua, es prudente concluir que la entrega de agua (y sus correlaciones de estímulo) no es discriminativa de la no entrega de agua inmediata posteriormente. Comentarios Finales

En primer lugar, es importante destacar que los resultados de los experimentos reseñados se basan siempre en datos individuales, de todas y cada una de las sesiones experimentales y del tiempo completo de cada sesión. No hay selección de datos bajo ningún criterio de "estabilidad" o de ejecución esperada. Consideramos que la evidencia no debe consistir de datos cercenados que se ajusten a resultados ideales o típicos. Ello quizá puede justificarse en la investigación tecnológica, pero no en la investigación científica. Por la misma razón, en todos los casos, las ratas experimentales se expusieron siempre al mismo número de presentación de las variables manipuladas y al un mismo número y tiempo de sesiones. Esta puede ser una de las razones por las que no se observaron los efectos típicos de "control del estímulo", usualmente observados bajo criterios de restricción experimental muy particulares.

En segundo lugar, independientemente de los estudios reseñados para mostrar datos "anómalos" o "atípicos" para la teoría del condicionamiento operante (en cualquiera de sus versiones), he resaltado también las dificultades lógicas en la definición y uso del concepto de estímulo y de las funciones que se le atribuyen en el condicionamiento operante. A pesar de que se asume que toda conducta operante es el resultado de una causación múltiple (argumento también difícil de entender), queda claro que es demasiado simplista suponer que el comportamiento puede ser analizado y examinado con base en una relación de contingencia de tres términos (y variables derivadas). Deseo insistir, como ya lo he hecho anteriormente (Ribes, 1997, 2007), en la necesidad de distinguir entre ocurrencias físicas y relaciones funcionales, así como en la formulación de medidas molares que eliminen la frecuencia como medida básica del análisis de la conducta y permitan examinar los fenómenos en términos de auténticas covariaciones de patrones funcionales de estimulación y de respuesta.

Espero que estas observaciones sean un estímulo para reflexionar sobre nuestra disciplina y para cuestionar el camino seguido hasta el momento. La investigación experimental sin un ejercicio teórico-conceptual crítico equivale a recorrer un camino que no se sabe a dónde conduce.

 

Referencias

Blough, D. S. (1966). The study of animal sensory processes by operant methods. En W. K. Honing (Ed.), Operant behavior: Areas of research and application (pp. 345-379). New York: Appleton Century Crofts.         [ Links ]

Brown, P. L., & Jenkins, H. M. (1968). Auto-shaping of the pigeon's key-peck. Journal of the Experimental Analysis of Behavior, 11, 1-8.         [ Links ]

Byrd, L. D., & Marr, M. J. (1969). Relations between patterns of responding and the presentation of stimuli under second-order schedules. Journal of the Experimental Analysis of Behavior, 12, 713-722.         [ Links ]

Ferster, C. B., & Skinner, B. F. (1957). Schedules of reinforcement. New York, E.U.: Appleton Century Crofts.         [ Links ]

Hull, C. L. (1952). A behavior system. New Haven: Yale University Press.         [ Links ]

Kelleher, R. T. (1966). Chaining and conditioned reinforcement. En W. K. Honig (Ed.), Operant behavior: Areas of research and application (pp. 160-212). New York. E. U.: Appleton Century Crofts.         [ Links ]

Marr, M. J. (1969). Second order schedules. En D. Hendry (Ed.), Conditioned reinforcement (pp. 37-60). Homewood, Ill: Dorsey Press.         [ Links ]

Morse, W. H., & Skinner, B. F. (1955). A second type of "superstition" in the pigeon. American Journal of Psychology, 70, 308-311.         [ Links ]

Pavlov, I. P. (1927). Conditioned reflexes. Oxford: Dover Press.         [ Links ] Ribes, E. (1997). Causality and contingency: Some conceptual considerations. The Psychological Record, 47, 619-639.         [ Links ]

Ribes, E. (2003). What is defined in operational definitions? The case of operant psychology. Behavior and Philosophy, 31, 111-126.         [ Links ]

Ribes, E. (2004). Concepts and theories: Relation to scientific categories. En A. Lattal & P. Chase (Eds.), Behavior theory and philosophy (pp. 147-164). New York, E. U.: Kluwer/Plenum.         [ Links ]

Ribes, E. (2007). Estados y límites del campo, medios de contacto y análisis molar del comportamiento: Reflexiones teóricas. Acta Comportamentalia, 15, 229-259.         [ Links ]

Ribes, E., Carvajal, J., Valdez, U., Torres. C., & Mayoral, A. (2009). Acquisition of bar-pressing under interval and ratio-schedules in the presence and absence of stimuli correlated with water delivery. European Journal of Behavior Analysis,10, 19-29.         [ Links ]

Ribes, E., Mayoral, A., Torres, C., & Ibañez, F. J. (2000). Effects of auditory stimuli correlated with different probabilities of water delivery in a limited-hold temporal schedule. Behavioural Processes, 52, 49-59.         [ Links ]

Ribes, E., & Montes, E. (2009). Interacción de la privación de agua y los estímulos correlacionados con la entrega de agua en programas de reforzamiento continuo y de intervalo. Revista Mexicana de Análisis de la Conducta, 35, número monográfico, 61-85.         [ Links ]

Ribes, E., Montes, E., & Mayoral, A. (2008). Efectos de la coextensividad del estímulo neutro con distintas longitudes del tiempo discriminativo en un programa definido temporalmente. Acta Comportamentalia, 16, 273-288.         [ Links ]

Ribes, E., & Torres, C. (1996). Efectos de la variación en la probabilidad de reforzamiento correlacionada con dos estímulos neutros en un programa definido temporalmente. Revista Mexicana de Análisis de la Conducta, 22, 41-78.         [ Links ]

Ribes, E., & Torres, C. (1997). Stimuli and functions: lack of discrimination or overgeneralization? Revista Mexicana de Análisis de la Conducta, 23, 249-274.         [ Links ]

Ribes, E., Torres, C., Barrera, A., & Mayoral, A. (1997). Control discriminativo con estímulos compuestos en programas temporales de reforzamiento. Revista Mexicana de Análisis de la Conducta, 23, 25-51.         [ Links ]

Ribes, E., Torres, C., & Mayoral, A. (2002). Extended exposure to a discriminated, limited-hold temporal schedule does not produce stimulus control. Behavioural Processes, 59, 131-146.         [ Links ]

Ribes, E., Torres, C., & Piña, J. (1999). Comparación de los efectos de la presencia y ausencia de estímulos diferenciales en dos progamas temporales con probabilidades variantes igualadas. Acta Comportamentalia, 7, 5-29.         [ Links ]

Rilling, M. (1977). Stimulus control and inhibitory processes. En W. K. Honig, & J. E. Staddon (Eds.), Handbook of operant behaviour (pp 432-480). Englewood Cliffs, NJ, E. U.: Prentice-Hall.         [ Links ]

Schoenfeld, W. N., & Cole, B. K. (1972). Stimulus schedules: The T-t systems. New York, E.U.: Harper & Row.         [ Links ]

Schoenfeld, W. N., & Cumming, W. W. (1957). Some effects of alternation of rate in a time-correlated reinforcement contingency. Proceedings of the National Academy of Sciences,43, 349-354.         [ Links ]

Schoenfeld, W. N., Cumming, W. W., & Hearst, E. (1956). On the classification of reinforcement schedules. Proceedings of the National Academy of Sciences, 42, 563-570.         [ Links ]

Skinner, B. F. (1938). The behavior of organisms. New York. E.U.: Appleton Century Crofts.         [ Links ]

Skinner, B. F. (1966). An operant analysis of problem solving. En B. Kleinmuntz (Ed.), Problem solving: Research, method and theory (pp. 225-257). New York, E.U.: Wiley.         [ Links ]

Sidman, M. (1994). Equivalence relations and behavior: A research story. Boston, E.U.: Authors Cooperative.         [ Links ]

Torres, C., Ribes, E., & Mayoral, A. (2003). Efectos de probabilidades complementarias y contrastadas de reforzamiento con y sin señalización en programas temporales. Acta Comportamentalia, 11, 130-149.         [ Links ]

Weissman, A. (1961). Impairment of performance when a discriminative stimulus is correlated with a reinforcement contingency. Journal of the Experimental Analysis of Behavior,4, 365-369.         [ Links ]

Weissman, A. (1965). Behavior effects of paring an SD with a decreasing limited-hold reinforcement schedule. Journal of the Experimental Analysis of Behavior, 6, 265-268.         [ Links ]

Creative Commons License Todo el contenido de esta revista, excepto dónde está identificado, está bajo una Licencia Creative Commons