<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0185-4534</journal-id>
<journal-title><![CDATA[Revista mexicana de análisis de la conducta]]></journal-title>
<abbrev-journal-title><![CDATA[Rev. mex. anál. conducta]]></abbrev-journal-title>
<issn>0185-4534</issn>
<publisher>
<publisher-name><![CDATA[Sociedad Mexicana de Análisis de la Conducta]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0185-45342011000200004</article-id>
<article-id pub-id-type="doi">10.5514/rmac.v37.i2.26139</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Respuestas de observación y resistencia a la extinción]]></article-title>
<article-title xml:lang="en"><![CDATA[Observing responses and resistance to extinction]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Escobar]]></surname>
<given-names><![CDATA[Rogelio]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Nacional Autónoma de México Facultad de Psicología Laboratorio de Condicionamiento Operante]]></institution>
<addr-line><![CDATA[México D.F]]></addr-line>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>00</month>
<year>2011</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>00</month>
<year>2011</year>
</pub-date>
<volume>37</volume>
<numero>2</numero>
<fpage>53</fpage>
<lpage>71</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_arttext&amp;pid=S0185-45342011000200004&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_abstract&amp;pid=S0185-45342011000200004&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_pdf&amp;pid=S0185-45342011000200004&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Se determinó la resistencia a la extinción de la conducta de observación al eliminar el reforzamiento primario y presentado solamente estímulos asociados con la entrega de comida (E+), estímulos asociados con la ausencia de comida (E-) o estímulos neutros. Durante tres condiciones de entrenamiento de 30 sesiones, se reforzaron con comida las presiones a una palanca en ratas usando un programa de reforzamiento mixto razón al azar 50 extinción. Cada presión en una segunda palanca (observación) produjo por 5 s un E+ durante el componente de reforzamiento y un E- durante extinción. Después de cada condición de entrenamiento, se expuso a las ratas a 10 sesiones de extinción en las que eliminó el programa de reforzamiento mixto. En cada una de las tres condiciones de extinción, cada presión en la palanca de observación produjo sólo el E+, sólo el E- y sólo el estímulo neutro. El orden de exposición fue diferente para cada rata. Se encontró que el E+ aumentó y el E- disminuyó la resistencia la extinción de las respuestas de observación relativo al estímulo neutro. Estos resultados sugieren que el concepto de reforzamiento condicionado sigue siendo necesario en el análisis de la conducta.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[The resistance to extinction of observing behavior was determined by removing the primary reinforcer and presenting only a stimulus associated with reinforcement (S+), only a stimulus associated with extinction (S-), and only a neutral stimulus. In three training conditions of 30 sessions each, lever pressing by rats was reinforced on a mixed random ratio 50 extinction. Each press on a second lever (observing) produced for 5 s an S+ during the reinforcement component and an S- during extinction. After each training condition, rats were exposed to 10 sessions of extinction in which the mixed schedule was discontinued. In each of the three successive extinction conditions, each press on the observing lever produced only the S+, only the S-, or only the neutral stimulus. The order of exposure was different for each rat. Presenting the S+ increased and presenting the S- decreased resistance to extinction relative to the neutral stimulus. These findings suggest that the concept of conditioned reinforcement is still a necessary one in behavior analysis.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Respuestas de observación]]></kwd>
<kwd lng="es"><![CDATA[resistencia a la extinción]]></kwd>
<kwd lng="es"><![CDATA[reforzamiento condicionado]]></kwd>
<kwd lng="es"><![CDATA[palanqueo]]></kwd>
<kwd lng="es"><![CDATA[ratas]]></kwd>
<kwd lng="en"><![CDATA[Observing responses]]></kwd>
<kwd lng="en"><![CDATA[resistance to extinction]]></kwd>
<kwd lng="en"><![CDATA[conditioned reinforcement]]></kwd>
<kwd lng="en"><![CDATA[lever pressing]]></kwd>
<kwd lng="en"><![CDATA[rats]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="justify"><font face="verdana" size="4">Art&iacute;culos emp&iacute;ricos</font></p>     <p align="center"><font face="verdana" size="2">&nbsp;</font></p>     <p align="center"><font face="verdana" size="4"><b>Respuestas de observaci&oacute;n y resistencia a la extinci&oacute;n</b></font></p>     <p align="center"><font face="verdana" size="2">&nbsp;</font></p>     <p align="center"><font face="verdana" size="3"><b>Observing responses and resistance to extinction</b></font></p>     <p align="center"><font face="verdana" size="2">&nbsp;</font></p>     <p align="center"><font face="verdana" size="2"><b>Rogelio Escobar </b></font></p>     <p align="center"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><i>Universidad Nacional Aut&oacute;noma de M&eacute;xico &#45; Laboratorio de Condicionamiento Operante, M&eacute;xico, D.F., M&eacute;xico</i></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>Dirigir correspondencia a:</b>     <br>     <i>Rogelio Escobar.     <br> Laboratorio de Condicionamiento Operante,     <br> Facultad de Psicolog&iacute;a, UNAM.     <br> Av. Universidad 3004, Col. Copilco&#45;Universidad,     <br> C.P. 04510. Del. Coyoac&aacute;n,     <br> M&eacute;xico, D.F.,     <br> correo:</i> <a href="mailto:rescobar@servidor.unam.mx">rescobar@servidor.unam.mx</a></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2">Recibido: Mayo 3, 2011    ]]></body>
<body><![CDATA[<br> Revisado: Junio 9, 2011    <br> Aceptado: Junio 24, 2011</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Resumen</b></font></p>     <p align="justify"><font face="verdana" size="2">Se determin&oacute; la resistencia a la extinci&oacute;n de la conducta de observaci&oacute;n al eliminar el reforzamiento primario y presentado solamente est&iacute;mulos asociados con la entrega de comida (E+), est&iacute;mulos asociados con la ausencia de comida (E&#45;) o est&iacute;mulos neutros. Durante tres condiciones de entrenamiento de 30 sesiones, se reforzaron con comida las presiones a una palanca en ratas usando un programa de reforzamiento mixto raz&oacute;n al azar 50 extinci&oacute;n. Cada presi&oacute;n en una segunda palanca (observaci&oacute;n) produjo por 5 s un E+ durante el componente de reforzamiento y un E&#45; durante extinci&oacute;n. Despu&eacute;s de cada condici&oacute;n de entrenamiento, se expuso a las ratas a 10 sesiones de extinci&oacute;n en las que elimin&oacute; el programa de reforzamiento mixto. En cada una de las tres condiciones de extinci&oacute;n, cada presi&oacute;n en la palanca de observaci&oacute;n produjo s&oacute;lo el E+, s&oacute;lo el E&#45; y s&oacute;lo el est&iacute;mulo neutro. El orden de exposici&oacute;n fue diferente para cada rata. Se encontr&oacute; que el E+ aument&oacute; y el E&#45; disminuy&oacute; la resistencia la extinci&oacute;n de las respuestas de observaci&oacute;n relativo al est&iacute;mulo neutro. Estos resultados sugieren que el concepto de reforzamiento condicionado sigue siendo necesario en el an&aacute;lisis de la conducta.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Palabras clave:</b> Respuestas de observaci&oacute;n, resistencia a la extinci&oacute;n, reforzamiento condicionado, palanqueo, ratas.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Abstract</b></font></p>     <p align="justify"><font face="verdana" size="2">The resistance to extinction of observing behavior was determined by removing the primary reinforcer and presenting only a stimulus associated with reinforcement (S+), only a stimulus associated with extinction (S&#45;), and only a neutral stimulus. In three training conditions of 30 sessions each, lever pressing by rats was reinforced on a mixed random ratio 50 extinction. Each press on a second lever (observing) produced for 5 s an S+ during the reinforcement component and an S&#45; during extinction. After each training condition, rats were exposed to 10 sessions of extinction in which the mixed schedule was discontinued. In each of the three successive extinction conditions, each press on the observing lever produced only the S+, only the S&#45;, or only the neutral stimulus. The order of exposure was different for each rat. Presenting the S+ increased and presenting the S&#45; decreased resistance to extinction relative to the neutral stimulus. These findings suggest that the concept of conditioned reinforcement is still a necessary one in behavior analysis.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Keywords:</b> Observing responses, resistance to extinction, conditioned reinforcement, lever pressing, rats.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2">Un reforzador condicionado se define como un est&iacute;mulo, previamente neutro, que a partir de su apareamiento repetido con un reforzador primario ha adquirido la capacidad de fortalecer respuestas (Mazur, 2006). En los or&iacute;genes del an&aacute;lisis de la conducta, el reforzamiento condicionado parec&iacute;a ser la panacea para explicar patrones complejos de conducta que aparentemente no dependen de la presentaci&oacute;n de reforzadores primarios como agua o comida (e.g., Keller &amp; Schoenfeld, 1950).</font></p>     <p align="justify"><font face="verdana" size="2">El concepto de reforzamiento condicionado, sin embargo, lejos de permitir la explicaci&oacute;n de conducta compleja, ha sido problem&aacute;tico en el condicionamiento operante (Williams 1994a). El problema central ha sido determinar si un est&iacute;mulo originalmente neutro es capaz de fortalecer la conducta que lo precede (Shahan, 2010). Para contestar esta pregunta, es necesario mostrar inequ&iacute;vocamente que una operante est&aacute; controlada por el efecto del reforzador condicionado y no por alg&uacute;n otro evento o funci&oacute;n del est&iacute;mulo.</font></p>     <p align="justify"><font face="verdana" size="2">Parte del problema reside en que los efectos de un reforzador condicionado son dif&iacute;ciles de disociar de los efectos del reforzamiento primario. En algunos estudios sobre reforzamiento condicionado se utilizaron programas de reforzamiento encadenados (v&eacute;ase Gollub, 1977), en los que, por ejemplo, las respuestas en un programa de reforzamiento resultan en la presentaci&oacute;n de un segundo programa de reforzamiento y en un cambio en la estimulaci&oacute;n. El responder durante este segundo programa, resulta en la presentaci&oacute;n del reforzador primario. Debido a que el responder en el primer programa, o eslab&oacute;n inicial, resulta en un cambio de estimulaci&oacute;n, se considera que la tasa de respuesta en este primer eslab&oacute;n est&aacute; mantenida por las propiedades reforzantes condicionadas del cambio de estimulaci&oacute;n que a su vez est&aacute; asociado con el reforzador primario. Algunos autores (e.g., Williams, 1994b), sin embargo, han se&ntilde;alado que estas respuestas no s&oacute;lo est&aacute;n mantenidas por el reforzador condicionado sino tambi&eacute;n por el cambio en el programa de reforzamiento que es necesario para que ocurra el reforzador primario. Staddon y Cerutti (2003), incluso argumentaron que con este tipo de procedimientos, no es necesario apelar al concepto de reforzamiento condicionado debido a que las respuestas en el eslab&oacute;n inicial podr&iacute;an estar mantenidas exclusivamente por el efecto del reforzador primario demorado. Con base en estas cr&iacute;ticas se puede argumentar que el hecho de que las respuestas en un mismo operando produzcan tanto el reforzamiento primario como el condicionado ha complicado la interpretaci&oacute;n de los resultados y ha puesto en duda la utilidad del concepto de reforzamiento condicionado.</font></p>     <p align="justify"><font face="verdana" size="2">En comparaci&oacute;n, los procedimientos de respuestas de observaci&oacute;n (Wyckoff, 1952) han sido &uacute;tiles para disociar los efectos del reforzamiento primario de los efectos del reforzamiento condicionado. En estos procedimientos, tradicionalmente, se expone a los sujetos a un programa de reforzamiento mixto en el que alternan al azar dos componentes. En uno de los componentes, se refuerzan las respuestas conforme a un programa de reforzamiento intermitente, en el otro componente las respuestas no tienen consecuencias programadas. Las respuestas en un segundo operando (de observaci&oacute;n), producen est&iacute;mulos asociados con los componentes del programa mixto en curso. Es decir, transforman temporalmente el programa mixto en un programa de reforzamiento m&uacute;ltiple. A partir de la asociaci&oacute;n del est&iacute;mulo correlacionado con el componente de reforzamiento (E+) y el reforzador primario, el E+ adquiere una funci&oacute;n de reforzador condicionado de las respuestas de observaci&oacute;n. Debido a que las respuestas de observaci&oacute;n no alteran la frecuencia del reforzamiento primario, los procedimientos de observaci&oacute;n han sido una de las herramientas m&aacute;s &uacute;tiles para estudiar el fen&oacute;meno del reforzamiento condicionado (Williams, 1994b).</font></p>     <p align="justify"><font face="verdana" size="2">Con los procedimientos de respuestas de observaci&oacute;n se han reportado efectos que son consistentes con la noci&oacute;n de que los reforzadores condicionados duplican la funci&oacute;n de un reforzador primario. Por ejemplo aumentar la frecuencia de presentaci&oacute;n del reforzador condicionado (Shahan, Podlesnik, &amp; Jimenez&#45;Gomez, 2006), reducir la demora entre el reforzador condicionado y el reforzador primario (Escobar &amp; Bruner, 2009), y aumentar la magnitud del reforzador condicionado (Escobar, 2010), son manipulaciones que aumentan la frecuencia de ocurrencia de las respuestas de observaci&oacute;n. La tasa de ocurrencia de una respuesta, sin embargo, es s&oacute;lo uno de los dos aspectos disociables de una operante junto con la resistencia a la extinci&oacute;n (Nevin &amp; Grace, 2000).</font></p>     <p align="justify"><font face="verdana" size="2">A pesar de que ambas variables se han considerado tradicionalmente como un &iacute;ndice de la fuerza de la respuesta (e.g., Skinner, 1938), Nevin and Grace (2000) argumentaron que la resistencia a la extinci&oacute;n es un mejor &iacute;ndice de la fuerza de la respuesta que la tasa de respuesta debido a que &eacute;sta &uacute;ltima est&aacute; controlada por las contingencias de reforzamiento o las relaciones respuesta&#45;reforzador que pueden o no tener un efecto sobre la fuerza de la respuesta. Por ejemplo, si se observan las tasas de respuestas mantenidas por programas de reforzamiento de tasas bajas y se comparan con las tasas obtenidas con un programa de reforzamiento de tasas altas, se pueden hacer conclusiones sobre como la contingencia de reforzamiento afecta la conducta pero no se puede determinar si ocurri&oacute; un cambio en la fuerza de la respuesta (Shahan, 2010). Comparativamente, la resistencia al cambio es una medida que refleja la fuerza de la operante independientemente de la contingencia de reforzamiento que se programe.</font></p>     <p align="justify"><font face="verdana" size="2">En una serie de experimentos que han puesto en duda la utilidad del concepto de reforzamiento condicionado, Shahan y Podlesnik (2005; 2008) reportaron recientemente que los reforzadores condicionados no afectan la resistencia a la extinci&oacute;n de las respuestas de observaci&oacute;n (v&eacute;ase Shahan 2010, para una revisi&oacute;n). En un experimento, Shahan y Podlesnik (2005, Experimento 1) usaron un programa m&uacute;ltiple de dos componentes para examinar los efectos de la frecuencia del reforzador condicionado sobre la resistencia a la extinci&oacute;n de las respuestas de observaci&oacute;n en palomas. En cada componente del programa m&uacute;ltiple programaron un procedimiento de respuestas de observaci&oacute;n. En uno de los componentes se encontraba vigente en una tecla un programa mixto intervalo al azar (IA) 120 s extinci&oacute;n. Los picotazos en una segunda tecla encend&iacute;an los est&iacute;mulos asociados con el programa de reforzamiento en curso por 15 s de acuerdo con un programa de IA 15 s. En el otro componente, el programa difer&iacute;a &uacute;nicamente en que las respuestas de observaci&oacute;n produc&iacute;an los est&iacute;mulos conforme a un programa de IA 60 s. Los autores encontraron que la tasa de respuestas de observaci&oacute;n fue m&aacute;s alta con el programa de IA 15 s que con el programa de IA 60 s. Este hallazgo es congruente con lo que se esperar&iacute;a de variar la frecuencia de reforzamiento de un reforzador primario (e.g., Catania &amp; Reynolds, 1968). Cuando posteriormente eliminaron los est&iacute;mulos durante la prueba de resistencia a la extinci&oacute;n por 5 sesiones, sin embargo, las respuestas de observaci&oacute;n no fueron diferentes en los dos componentes del programa m&uacute;ltiple.</font></p>     <p align="justify"><font face="verdana" size="2">Shahan y Podlesnik (2005) replicaron los hallazgos del experimento anterior haciendo incluso mayor la diferencia en la frecuencia del reforzamiento condicionado en los dos componentes del programa m&uacute;ltiple (IA 60 s vs IA 10 s, Experimento 2) o variando el valor del reforzamiento condicionado en uno de los componentes al a&ntilde;adir reforzamiento primario independiente de la respuesta (Shahan y Podlesnik, 2008). Aunque estos resultados aparentemente sugieren que los reforzadores condicionados no fortalecen las respuestas que los preceden, de acuerdo con los mismos autores, la complejidad del procedimiento dificulta interpretar los resultados inequ&iacute;vocamente. Por ejemplo, cuando se utilizan programas de reforzamiento m&uacute;ltiples y se realizan pruebas de resistencia a la extinci&oacute;n, las relaciones entre los est&iacute;mulos (reforzadores y contexto) determinan la resistencia a la extinci&oacute;n (e.g., Nevin, Tota, Torquato, &amp; Shull, 1990). En el caso de los estudios de Shahan y Podlesnik (2005; 2008) &uacute;nicamente si se establec&iacute;a una asociaci&oacute;n de segundo orden entre el E+ y el est&iacute;mulo de contexto, hubiera sido esperable encontrar un aumento en la resistencia a la extinci&oacute;n. Otro detalle que complica a&uacute;n m&aacute;s la interpretaci&oacute;n de los resultados es que uno de sus hallazgos sugiere una explicaci&oacute;n alternativa.</font></p>     <p align="justify"><font face="verdana" size="2">Cuando Shahan y Podlesnik (2008, Experimento 2) compararon las respuestas de observaci&oacute;n en una condici&oacute;n en la que dejaron de presentar el reforzador primario, encontraron que las respuestas de observaci&oacute;n fueron m&aacute;s frecuentes cuando produc&iacute;an el E+ que cuando dejaban de producirlo. Este resultado es consistente con los hallazgos de Bell, Seip, y Fitzsimmons (2007), quienes reportaron que despu&eacute;s de utilizar reforzamiento demorado se&ntilde;alado, la resistencia a la extinci&oacute;n fue mayor cuando presentaron la se&ntilde;al de la demora durante extinci&oacute;n que cuando dejaron de presentarla. Aunque este resultado de Shahan y Podlesnik podr&iacute;a sugerir que la resistencia a la extinci&oacute;n del reforzamiento primario puede aumentar en funci&oacute;n de presentar un reforzador condicionado, es dif&iacute;cil comparar la frecuencia de ocurrencia de las respuestas de observaci&oacute;n cuando se eliminan los est&iacute;mulos debido a que eliminar los est&iacute;mulos aumenta la base de tiempo durante la cual se pueden emitir las respuestas de observaci&oacute;n.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En la investigaci&oacute;n cl&aacute;sica sobre reforzamiento condicionado (v&eacute;ase Kelleher &amp; Gollub, 1962; Myers, 1958; Wike, 1966), tambi&eacute;n se realizaron pruebas de resistencia a la extinci&oacute;n en las que se eliminaba el reforzador primario y se comparaban las respuestas en presencia y en ausencia del reforzador condicionado. Estos procedimientos se abandonaron esencialmente debido a la dificultad de distinguir entre los efectos de los est&iacute;mulos como reforzadores condicionados o como est&iacute;mulos discriminativos que se&ntilde;alan la disponibilidad del reforzador primario (e.g., Bitterman, Fedderson, &amp; Tyler, 1953; Dinsmoor, 1950). Debido a que los procedimientos de observaci&oacute;n permiten disociar las respuestas que producen el reforzador primario de las respuestas que producen el reforzador condicionado, estos procedimientos podr&iacute;an ser &uacute;tiles para explorar los efectos de la resistencia a la extinci&oacute;n de las respuestas de observaci&oacute;n. En el presente experimento se examin&oacute; esta afirmaci&oacute;n al determinar los efectos de eliminar el reforzador primario y presentar &uacute;nicamente el E+ y el E&#45; en comparaci&oacute;n con un est&iacute;mulo neutro (EN). Con este procedimiento se esperar&iacute;a que si el E+ tiene una funci&oacute;n de reforzador condicionado deber&iacute;a controlar un n&uacute;mero mayor de respuestas de observaci&oacute;n durante extinci&oacute;n que un EN. En contraste, si el E&#45; tiene funciones de est&iacute;mulo aversivo, deber&iacute;a controlar un n&uacute;mero menor de respuestas durante extinci&oacute;n que el E+ y el EN. Para determinar por separado la funci&oacute;n de los est&iacute;mulos como est&iacute;mulos discriminativos, tambi&eacute;n se analizaron las respuestas por comida que ocurrieron durante extinci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>M&eacute;todo</b></font></p>     <p align="justify"><font face="verdana" size="2"><i>Sujetos</i></font></p>     <p align="justify"><font face="verdana" size="2">Se usaron 3 ratas Wistar macho de tres meses de edad al inicio del experimento y experimentalmente ingenuas. Las ratas se mantuvieron en cajas habitaci&oacute;n individuales con acceso libre al agua y se les restringi&oacute; el acceso a la comida hasta que alcanzaron el 80% de su peso en alimentaci&oacute;n libre.</font></p>     <p align="justify"><font face="verdana" size="2"><i>Aparatos</i></font></p>     <p align="justify"><font face="verdana" size="2">Se utilizaron tres c&aacute;maras experimentales (Med Associates Inc. modelo ENV&#45;001) equipadas con un comedero de metal en el centro del panel frontal y una palanca a cada lado del comedero. El interruptor de las palancas oper&oacute; con una fuerza m&iacute;nima de 0.15 N. Las c&aacute;maras experimentales tambi&eacute;n estaban equipadas con un <i>sonalert</i> (Mallory SC 628) que gener&oacute; un tono de 2900 Hz 70 dB, con un foco que sirvi&oacute; para iluminar el interior de la c&aacute;mara experimental y con dos luces, una arriba de cada palanca, que generaron una iluminaci&oacute;n tenue. El comedero estaba conectado a un dispensador de bolitas de comida (Med Associates Inc. modelo ENV&#45;203) fabricadas remoldeando comida pulverizada para ratas. Cada c&aacute;mara experimental se introdujo en un cub&iacute;culo sonoamortiguado de madera equipado con un generador de ruido blanco y con un ventilador que sirvi&oacute; para facilitar la circulaci&oacute;n de aire. Los eventos experimentales se controlaron por medio de una interfase (Med Associates Inc. modelo SG&#45;503) conectada a una computadora con software Med&#45;PC ver. 2.0 ubicada en un cuarto adyacente al cuarto en el que se colocaron las c&aacute;maras experimentales.</font></p>     <p align="justify"><font face="verdana" size="2"><i>Procedimiento</i></font></p>     <p align="justify"><font face="verdana" size="2">Despu&eacute;s de retirar la palanca derecha de la c&aacute;mara experimental, se expuso a las tres ratas a cinco sesiones en las que cada presi&oacute;n a la palanca izquierda fue reforzada con una bolita de comida. Posteriormente, durante 20 sesiones se cambi&oacute; el programa de reforzamiento continuo por un programa de raz&oacute;n al azar (RA) 50 para las tres ratas.</font></p>     <p align="justify"><font face="verdana" size="2"><i>Entrenamiento en un programa m&uacute;ltiple RA 50 extinci&oacute;n.</i> Se expuso a las tres ratas a un programa m&uacute;ltiple RA 50 s extinci&oacute;n. La duraci&oacute;n de ambos componentes, de reforzamiento y de extinci&oacute;n fue de 60 s. En cada sesi&oacute;n se presentaron 30 componentes de reforzamiento y 30 componentes de extinci&oacute;n alternados al azar con la restricci&oacute;n de que no ocurrieran m&aacute;s de dos componentes iguales consecutivamente. El componente de reforzamiento se se&ntilde;al&oacute; con el encendido intermitente (cada segundo) de las dos luces (E+) y el componente de extinci&oacute;n con el encendido constante del tono (E&#45;). Esta fase se mantuvo en efecto durante 30 sesiones diarias.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><i>Procedimiento de respuestas de observaci&oacute;n y pruebas de extinci&oacute;n.</i> Durante esta condici&oacute;n, para todas las ratas se instal&oacute; la palanca derecha en la c&aacute;mara experimental y se elimin&oacute; la presentaci&oacute;n de los est&iacute;mulos. Cada presi&oacute;n en la palanca derecha encendi&oacute; el est&iacute;mulo asociado con el componente del programa mixto en curso durante 5 s. Si la presentaci&oacute;n de alg&uacute;n est&iacute;mulo coincidi&oacute; con un cambio de componente del programa el est&iacute;mulo se apag&oacute; hasta que una siguiente respuesta encendi&oacute; los est&iacute;mulos nuevamente. Esta condici&oacute;n estuvo en efecto en tres bloques de 30 sesiones cada uno. Cada sesi&oacute;n consisti&oacute; de 30 componentes de reforzamiento y 30 de extinci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">Despu&eacute;s de cada bloque de 30 sesiones del programa de reforzamiento mixto, durante 10 sesiones para una rata s&oacute;lo se present&oacute; el E+, para otra rata el E&#45; y para la tercera rata un EN (apagado de la luz general) conforme a un programa de reforzamiento continuo en la palanca derecha. Cada sesi&oacute;n tuvo la misma duraci&oacute;n que las sesiones de la condici&oacute;n anterior en el programa mixto. Esta secuencia del procedimiento se repiti&oacute; de tal manera que lastres ratas se expusieron durante 10 sesiones de extinci&oacute;n al E+, al E&#45; y al EN. Para evitar un posible efecto de secuencia, el orden de exposici&oacute;n a los est&iacute;mulos en extinci&oacute;n fue diferente para cada rata (R10, EN, E&#45;, E+; R11, E+, EN, E&#45;; R12, E&#45;, E+, EN). Despu&eacute;s de cada prueba de extinci&oacute;n y durante la primera sesi&oacute;n de entrenamiento con el programa de reforzamiento mixto, se entreg&oacute; comida a los sujetos conforme a un programa de raz&oacute;n fija 1 durante el componente de reforzamiento que se cambi&oacute; gradualmente por un programa de RV 50.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Resultados</b></font></p>     <p align="justify"><font face="verdana" size="2">Con el prop&oacute;sito de mostrar la velocidad de ca&iacute;da en el n&uacute;mero de respuestas de observaci&oacute;n al eliminar la entrega de comida, los paneles de la izquierda en la <a href="/img/revistas/rmac/v37n2/a4f1.jpg" target="_blank">Figura 1</a> muestran el n&uacute;mero de respuestas en la palanca de observaci&oacute;n como un porcentaje del n&uacute;mero m&aacute;ximo de respuestas para cada sujeto. En cada panel se muestra el porcentaje de respuestas de observaci&oacute;n obtenido cuando s&oacute;lo se present&oacute; el E+, el E&#45; o el EN durante las 10 sesiones consecutivas de extinci&oacute;n. En la mayor&iacute;a de las sesiones y para los tres sujetos se encontr&oacute; que el n&uacute;mero mayor de respuestas de observaci&oacute;n lo control&oacute; la presentaci&oacute;n del E+. Para la Rata R11, el n&uacute;mero m&aacute;s bajo de respuestas de observaci&oacute;n, en la mayor&iacute;a de las sesiones, ocurri&oacute; cuando s&oacute;lo se present&oacute; el EN. Este efecto se observ&oacute; &uacute;nicamente durante las &uacute;ltimas dos sesiones de extinci&oacute;n en la Rata R12. Para la Rata R10, no se encontraron diferencias sistem&aacute;ticas de presentar s&oacute;lo el E&#45; o s&oacute;lo el EN.</font></p>     <p align="justify"><font face="verdana" size="2">Como un &iacute;ndice de la resistencia a la extinci&oacute;n del valor discriminativo de los est&iacute;mulos, en los paneles de la derecha en la <a href="/img/revistas/rmac/v37n2/a4f1.jpg" target="_blank">Figura 1</a> se muestra el n&uacute;mero de respuestas en la palanca izquierda (comida) como un porcentaje del n&uacute;mero m&aacute;ximo de respuestas para cada sujeto en cada una de las 10 sesiones consecutivas en extinci&oacute;n. Durante las primeras 5 sesiones de extinci&oacute;n, para las Ratas R10 y R12 se observ&oacute; un n&uacute;mero de respuestas en la palanca de comida ligeramente mayor cuando s&oacute;lo se present&oacute; el E+ que cuando se presentaron el E&#45; o el EN. Este patr&oacute;n tambi&eacute;n se observa durante la &uacute;ltima sesi&oacute;n de extinci&oacute;n en los tres sujetos. En el resto de las sesiones, sin embargo, no se encontr&oacute; un efecto sistem&aacute;tico de presentar el E+, el E&#45; o el EN.</font></p>     <p align="justify"><font face="verdana" size="2">En la <a href="#t1">Tabla 1</a> se muestra el n&uacute;mero de respuestas obtenidas en cada sesi&oacute;n de extinci&oacute;n en las palancas de comida y de observaci&oacute;n para cada sujeto. Estos datos se muestran &uacute;nicamente con fines de comparaci&oacute;n con la <a href="/img/revistas/rmac/v37n2/a4f1.jpg" target="_blank">Figura 1</a> debido a que estos datos est&aacute;n modulados por la tasa de respuesta en cada palanca durante las condiciones de entrenamiento previas a cada condici&oacute;n de extinci&oacute;n. A pesar de este efecto, para las tres ratas el n&uacute;mero mayor de respuestas de observaci&oacute;n ocurri&oacute; cuando estas produjeron el E+ en ausencia del programa de entrega de comida. El n&uacute;mero menor de respuestas de observaci&oacute;n ocurri&oacute; cuando estas produjeron el E&#45; en las Ratas R10 y R12. Para la Rata R11 el n&uacute;mero m&aacute;s bajo de respuestas de observaci&oacute;n ocurri&oacute; cuando estas produjeron el EN. El n&uacute;mero de respuestas en la palanca de comida, en contraste, estuvo determinado por el orden de presentaci&oacute;n de las condiciones de extinci&oacute;n y no por el est&iacute;mulo que estuvo presente durante extinci&oacute;n.</font></p>     <p align="center"><font face="verdana" size="2"><a name="t1"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmac/v37n2/a4t1.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">Con el prop&oacute;sito de analizar si durante las exposiciones al procedimiento de observaci&oacute;n, existieron diferencias entre los tres sujetos que permitan explicar las diferencias encontradas en el n&uacute;mero de respuestas de observaci&oacute;n mantenidas por el E&#45;, se analizaron la tasa de respuestas de observaci&oacute;n, la tasa de respuestas por comida y el n&uacute;mero de reforzadores obtenidos. En la <a href="#f2">Figura 2</a> se muestra la tasa de respuestas de observaci&oacute;n individual en cada una de las exposiciones al programa de reforzamiento mixto RA 50 extinci&oacute;n. En cada fase se muestra la tasa en seis bloques de 5 sesiones cada uno. En las Ratas R10 y R12 se encontr&oacute; una tasa de respuestas de observaci&oacute;n notablemente m&aacute;s alta durante el componente de reforzamiento que durante el componente de extinci&oacute;n y no se observaron diferencias sistem&aacute;ticas entre las tres exposiciones al programa de reforzamiento mixto. Para la Rata R11, en contraste, esta diferencia solamente se observ&oacute; durante la primera exposici&oacute;n al programa de reforzamiento mixto. En las dos siguientes exposiciones al programa de reforzamiento mixto la tasa de respuesta fue similar en los componentes de reforzamiento y de extinci&oacute;n.</font></p>     ]]></body>
<body><![CDATA[<p align="center"><font face="verdana" size="2"><a name="f2"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmac/v37n2/a4f2.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">La <a href="#f3">Figura 3</a> muestra la tasa de respuestas por comida para cada rata durante las tres exposiciones al programa de reforzamiento mixto en cada uno de los bloques de cinco sesiones. En las tres ratas se encontr&oacute; que la tasa de respuestas por comida fue m&aacute;s alta en el componente de reforzamiento que en el componente de extinci&oacute;n. La tasa de respuestas por comida no vari&oacute; sistem&aacute;ticamente en las tres condiciones de exposici&oacute;n al programa de reforzamiento mixto.</font></p>     <p align="center"><font face="verdana" size="2"><a name="f3"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmac/v37n2/a4f3.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">La <a href="#f4">Figura 4</a> muestra el n&uacute;mero de reforzadores obtenidos como la media en cada uno de los cinco bloques de seis sesiones de las tres exposiciones al programa mixto RA 50 extinci&oacute;n. Al igual que en la <a href="#f4">Figura 4</a> no se observaron diferencias entre el n&uacute;mero de reforzadores obtenidos en las tres exposiciones al programa de reforzamiento mixto.</font></p>     <p align="center"><font face="verdana" size="2"><a name="f4"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmac/v37n2/a4f4.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Discusi&oacute;n</b></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Se encontr&oacute; que la presentaci&oacute;n del E+ aument&oacute; la resistencia a la extinci&oacute;n de las respuestas de observaci&oacute;n. Este efecto fue consistente a trav&eacute;s de las sesiones de extinci&oacute;n y para los tres sujetos. Haber contrabalanceado la exposici&oacute;n a las sesiones de extinci&oacute;n en presencia de los diferentes est&iacute;mulos, descarta que este efecto se deba al orden de presentaci&oacute;n de las condiciones de extinci&oacute;n. Este resultado es consistente con el hallazgo de Shahan y Podlesnik (2008, Experimento 2) quienes mostraron que las respuestas de observaci&oacute;n fueron m&aacute;s frecuentes cuando produc&iacute;an el E+ que cuando no ten&iacute;an consecuencias programadas. Tambi&eacute;n es consistente con los resultados de Bell et al. (2007) quienes reportaron que las respuestas eran m&aacute;s resistentes a la extinci&oacute;n cuando se present&oacute; una se&ntilde;al que hab&iacute;a estado presente durante una demora de reforzamiento que cuando la se&ntilde;al no se present&oacute;. Estos resultados en conjunto sugieren que el concepto de reforzamiento condicionado sigue siendo un concepto &uacute;til en el an&aacute;lisis de la conducta (e.g., Bejarano &amp; Hackenberg, 2007; pero cf. Davison &amp; Baum, 2006) debido a que un reforzador condicionado no s&oacute;lo aumenta la frecuencia de una respuesta que lo precede sino que tambi&eacute;n puede aumentar la resistencia a la extinci&oacute;n de las respuestas de observaci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">Es intrigante, sin embargo, que Shahan y Podlesnik (2005; 2008) no encontraron efectos de variar los par&aacute;metros del reforzamiento condicionado (e.g., frecuencia y valor) sobre la resistencia a la extinci&oacute;n de las respuestas de observaci&oacute;n en ausencia del reforzador condicionado. Una explicaci&oacute;n, es que, como Shahan y Podlesnik (2008) mencionaron, para mostrar cambios en la resistencia a la extinci&oacute;n su procedimiento requer&iacute;a la asociaci&oacute;n entre el E+ y el est&iacute;mulo de contexto (condicionamiento de orden superior) (Nevin &amp; Grace, 2000). Esta asociaci&oacute;n, se ha mostrado que es dif&iacute;cil de establecer en diversos procedimientos (v&eacute;ase Rescorla, 1977, para una revisi&oacute;n).</font></p>     <p align="justify"><font face="verdana" size="2">La presentaci&oacute;n del E&#45; durante extinci&oacute;n redujo la resistencia a la extinci&oacute;n relativo a un EN en dos de tres sujetos. Este hallazgo es congruente con una explicaci&oacute;n en t&eacute;rminos de la funci&oacute;n aversiva del E&#45;. Una interpretaci&oacute;n tradicional de los efectos del E&#45; en los procedimientos de observaci&oacute;n sugiere que el E&#45; se&ntilde;ala una reducci&oacute;n en la frecuencia de reforzamiento relativo a la ausencia de estimulaci&oacute;n y, por lo tanto, este deber&iacute;a funcionar como un est&iacute;mulo aversivo (Dinsmoor, 1983; ve&aacute;se tambi&eacute;n Tomanari, 2010). Para el tercer sujeto, sin embargo, el E&#45; aument&oacute; la resistencia a la extinci&oacute;n relativo al EN.</font></p>     <p align="justify"><font face="verdana" size="2">Para explicar la diferencia en los hallazgos en este sujeto fue necesario analizar la tasa de respuestas de observaci&oacute;n durante las condiciones en la cuales se expuso a los sujetos al procedimiento de respuestas de observaci&oacute;n (ver <a href="#f2">Figura 2</a>). Para este sujeto, la tasa de respuestas de observaci&oacute;n fue similar en ambos componentes del programa de reforzamiento mixto. Este hallazgo sugiere que probablemente el E&#45;adquiri&oacute; una funci&oacute;n diferente a la de est&iacute;mulo aversivo. Escobar y Bruner (2009) describieron que cuando el E&#45; y el E+ ocurren en sucesi&oacute;n, el E&#45; puede adquirir una funci&oacute;n de reforzador condicionado (v&eacute;ase tambi&eacute;n Tomanari, 2001). Zentall y Sherburne (1994) reportaron un hallazgo similar usando una discriminaci&oacute;n simult&aacute;nea. Estos autores reportaron que un E+ puede transferir su valor aun E&#45;. En l&iacute;nea con esta sugerencia, Escobar and Bruner (2008) mostraron que cuando se a&ntilde;ade un intervalo de tiempo entre el componente de extinci&oacute;n y el componente de reforzamiento, disminuyen las respuestas de observaci&oacute;n durante el componente de extinci&oacute;n. En contraste, cuando el mismo intervalo se a&ntilde;ade al inicio del componente de extinci&oacute;n, no se observan cambios en la tasa de respuestas de observaci&oacute;n en el componente de extinci&oacute;n. Por lo tanto, para la Rata R11, el E&#45; pudo haber funcionado como un reforzador condicionado debido a su apareamiento accidental con el E +.</font></p>     <p align="justify"><font face="verdana" size="2">En la palanca en la que las respuestas produc&iacute;an comida durante las condiciones de entrenamiento en el procedimiento de respuestas de observaci&oacute;n, no se encontr&oacute; una diferencia notable en la resistencia a la extinci&oacute;n mantenida por el E+ , el E&#45; o el EN. &Uacute;nicamente se encontr&oacute; que el E+ aument&oacute; la resistencia a la extinci&oacute;n durante las primeras cinco sesiones para dos sujetos y durante la &uacute;ltima sesi&oacute;n para los tres sujetos. Si bien podr&iacute;a argumentarse que el hecho de que no se encontrara un aumento en la resistencia a la extinci&oacute;n en la palanca en la que las respuestas produjeron comida durante el entrenamiento podr&iacute;a deberse a la falta de discriminabilidad de los est&iacute;mulos usados como E+, E&#45; y EN, esta explicaci&oacute;n es poco probable debido a que se encontr&oacute; que la tasa de respuesta por comida durante el entrenamiento fue claramente diferente en los dos componentes del programa de reforzamiento mixto (ver <a href="#f3">Figura 3</a>). Otra explicaci&oacute;n es que este resultado pudo deberse a las diferencias entre las condiciones de entrenamiento con un procedimiento de respuestas de observaci&oacute;n y las condiciones de extinci&oacute;n en las que &uacute;nicamente se present&oacute; el E+ , el E&#45; o el EN. Debido a las diferencias entre los procedimientos, despu&eacute;s de algunas exposiciones a los est&iacute;mulos, la ausencia del reforzador y del cambio de componente pudo haber facilitado la discriminaci&oacute;n entre las sesiones de entrenamiento y las sesiones de extinci&oacute;n (v&eacute;ase Nevin, 1988 para un argumento similar).</font></p>     <p align="justify"><font face="verdana" size="2">En la literatura cl&aacute;sica sobre reforzamiento condicionado (Myers, 1958; Kelleher &amp; Gollub, 1962; Wike, 1966), se usaron pruebas del efecto del refozador condicionado durante extinci&oacute;n para examinar el valor de los est&iacute;mulos como reforzadores condicionados (e.g., Skinner, 1938). Existen dos tipos diferentes de procedimientos con pruebas durante extinci&oacute;n. En un procedimiento se aparea un est&iacute;mulo neutro con un reforzador independiente de la respuesta de los sujetos y, en una siguiente condici&oacute;n, la presentaci&oacute;n del est&iacute;mulo originalmente neutro se hace contingente a una nueva respuesta en ausencia del reforzador primario. Skinner (1938) usando este procedimiento mostr&oacute; que la tasa de respuesta aument&oacute; debido a la presentaci&oacute;n del est&iacute;mulo. Por lo tanto, concluy&oacute; que el est&iacute;mulo funcion&oacute; como un reforzador condicionado. Este procedimiento se conoce como el m&eacute;todo de la nueva respuesta (e.g., Myers, 1958; Wike, 1966).</font></p>     <p align="justify"><font face="verdana" size="2">Otro procedimiento, similar al procedimiento usado en el presente estudio, consiste en establecer una respuesta con un reforzador primario que va precedido de un est&iacute;mulo neutral. Posteriormente se expone a los sujetos a extinci&oacute;n, de tal forma que las respuestas que antes produc&iacute;an el est&iacute;mulo y el reforzador s&oacute;lo producen el est&iacute;mulo. Este procedimiento se conoce como el m&eacute;todo de la respuesta establecida (e.g., Myers, 1958; Wike, 1966). Por ejemplo, Bugelski (1938) us&oacute; dos grupos de sujetos y compar&oacute; la resistencia a la extinci&oacute;n (n&uacute;mero de respuestas durante extinci&oacute;n) de un grupo de sujetos en los que las respuestas produjeron el est&iacute;mulo apareado con la comida en la condici&oacute;n anterior con la resistencia a la extinci&oacute;n en otro grupo de sujetos en los cuales las respuestas no produjeron est&iacute;mulos. Los resultados de Bugelski fueron consistentes con los encontrados en el presente experimento. Encontr&oacute; que ocurrieron m&aacute;s respuestas durante extinci&oacute;n cuando &eacute;stas produjeron est&iacute;mulos que cuando no los produjeron y concluy&oacute; que el est&iacute;mulo funcion&oacute; como un reforzador condicionado.</font></p>     <p align="justify"><font face="verdana" size="2">Los procedimientos con pruebas durante extinci&oacute;n fueron objeto de diferentes cr&iacute;ticas. Algunos autores sugirieron que estos estudios no mostraron efectos de reforzamiento condicionado debido a que los efectos fueron apenas estad&iacute;sticamente significativos (e.g., Wyckoff, 1959). Para Wyckoff el est&iacute;mulo durante extinci&oacute;n s&oacute;lo causa un aumento en la actividad general debido a que se&ntilde;ala la presencia de comida. De acuerdo con Wyckoff, este aumento en la actividad es responsable del aumento en el n&uacute;mero de respuestas que producen los est&iacute;mulos. El presente experimento, elude, al menos hasta un cierto punto, estas cr&iacute;ticas debido a que, en primer lugar, se utiliz&oacute; un dise&ntilde;o intrasujeto. Este tipo de dise&ntilde;o experimental permite usar la conducta de un mismo sujeto como l&iacute;nea base para la comparaci&oacute;n de los efectos de las variables exploradas (v&eacute;ase Sidman, 1960) y se encontr&oacute; que el efecto fue consistente en los tres sujetos del estudio. Con este tipo de dise&ntilde;os se evita el uso de procedimientos estad&iacute;sticos que pueden mezclar efectos de las variables exploradas con errores en la medici&oacute;n. En segundo lugar, durante las tres pruebas de extinci&oacute;n, las respuestas de observaci&oacute;n produjeron tanto como 680 E+s (Rata 12) en ausencia de comida. Si el efecto, fuera debido al aumento en la actividad producto de la entrega de comida, el efecto debi&oacute; haber desaparecido despu&eacute;s de unas cuantas sesiones. En cambio, la diferencia en el efecto sobre las respuestas de observaci&oacute;n de los tres est&iacute;mulos usados durante las condiciones de extinci&oacute;n, se mantuvo a&uacute;n despu&eacute;s de 10 sesiones.</font></p>     <p align="justify"><font face="verdana" size="2">Para algunos autores (v&eacute;ase Kelleher &amp; Gollub, 1962) un problema con las pruebas de reforzamiento condicionado durante extinci&oacute;n es que el reforzador condicionado pierde propiedades reforzantes r&aacute;pidamente conforme transcurre el tiempo de exposici&oacute;n a la prueba en extinci&oacute;n. Un hallazgo importante del presente experimento es que mostr&oacute; que incluso cuando las respuestas de observaci&oacute;n nunca produjeron comida durante el entrenamiento, se mantuvieron durante 10 sesiones cuando su &uacute;nica consecuencia fue la presentaci&oacute;n del E+. Posteriores estudios podr&iacute;an explorar el l&iacute;mite del mantenimiento de las respuestas de observaci&oacute;n en ausencia del reforzador primario usando un n&uacute;mero mayor de sesiones de extinci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">Otro problema con las pruebas de reforzamiento condicionado durante extinci&oacute;n radica en distinguir si los efectos se deben a la funci&oacute;n discriminativa del est&iacute;mulo o a su funci&oacute;n como reforzador condicionado. Por ejemplo, Bitterman et al. , (1953) sugirieron que las respuestas que producen los est&iacute;mulos durante extinci&oacute;n ocurren en funci&oacute;n de la similitud entre las condiciones de entrenamiento y de extinci&oacute;n. Debido a que los est&iacute;mulos se&ntilde;alan la entrega de comida, cuando se presentan durante extinci&oacute;n aumentan el n&uacute;mero de respuestas que antes produc&iacute;an la comida.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Por lo tanto, los procedimientos con pruebas durante extinci&oacute;n no muestran efectos de reforzamiento condicionado sino de discriminaci&oacute;n. Esta diferencia es importante porque aunque una de las primeras explicaciones para el establecimiento de reforzadores condicionados (e.g., Keller &amp; Schoenfeld, 1950) suger&iacute;a que es necesario establecer un est&iacute;mulo como discriminativo para que adquiera una funci&oacute;n como un reforzador condicionado, estudios posteriores mostraron que un reforzador condicionado puede funcionar como tal sin funcionar como est&iacute;mulo discriminativo (e.g., Stein, 1958).</font></p>     <p align="justify"><font face="verdana" size="2">El procedimiento de respuestas de observaci&oacute;n con pruebas posteriores de extinci&oacute;n, elimin&oacute; el problema de que la misma respuesta que produce comida durante el entrenamiento, produce el reforzador condicionado durante extinci&oacute;n. En el presente experimento, el hecho de que el E+ no aument&oacute; la resistencia a la extinci&oacute;n de las respuestas que produjeron comida durante el entrenamiento pero si aument&oacute; la resistencia a la extinci&oacute;n de las respuestas que produjeron el E+ sugiere que los efectos de reforzamiento condicionado son disociables de los efectos de la discriminaci&oacute;n de est&iacute;mulos (v&eacute;ase Kelleher &amp; Gollub, 1962).</font></p>     <p align="justify"><font face="verdana" size="2">En el origen de nuestra disciplina (e.g., Keller &amp; Schoenfeld, 1950; Skinner, 1938) el concepto de reforzamiento condicionado parec&iacute;a &uacute;til para explicar el hecho de la conducta humana en numerosas ocasiones parece estar controlada por est&iacute;mulos que no son claramente reforzadores primarios. La investigaci&oacute;n sobre reforzamiento condicionado, sin embargo, ha producido hallazgos contradictorios que en ocasiones sugieren que los reforzadores condicionados no aumentan la tasa (Schuster, 1969) ni la resistencia a la extinci&oacute;n (Shahan &amp; Podlesnik, 2005, 2008) de las respuestas que los producen. Es probable que muchos de estos hallazgos contradictorios se deban a problemas para disociar los efectos de un reforzador condicionado de los efectos de un reforzador primario o a la falta de comprensi&oacute;n del proceso responsable de la funci&oacute;n de un est&iacute;mulo como reforzador condicionado (e.g., como est&iacute;mulo de puente o condicionamiento de orden superior). Aunque el presente experimento sugiere que el concepto de reforzamiento condicionado sigue siendo &uacute;til en el condicionamiento operante, es necesario realizar m&aacute;s investigaci&oacute;n para mostrar si los reforzadores condicionados adquieren la capacidad de reforzar la conducta que los produce a partir de su apareamiento con un reforzador primario. A pesar de que el concepto de reforzamiento ha perdido su antiguo poder explicativo, podr&iacute;a seguir siendo ser importante para explicar patrones conductuales en los que un est&iacute;mulo precede la presentaci&oacute;n de un reforzador primario.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Referencias</b></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Bejarano, R., &amp; Hackenberg, T. D. (2007). IRT&#45;stimulus contingencies in chained schedules: Implications for the concept of conditioned reinforcement. <i>Journal of the Experimental Analysis of Behavior, 88,</i> 215&#45;227, available via: <a href="http://dx.doi.org/10.1901/jeab.2007.87-03" target="_blank">http://dx.doi.org/ 10.1901/jeab.2007.87&#45;03</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395219&pid=S0185-4534201100020000400001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Bell, M. C., Seip, K. M., &amp; Fitzsimmons, K. S. (2007). Effect of signaling reinforcement on resistance to change in a multiple schedule. <i>Behavioural Processes, 74,</i> 33&#45;48, available via: <a href="http://dx.doi.org/10.1016/j.beproc.2006.09.009" target="_blank">http://dx.doi.org/10.1016/j.beproc.2006.09.009</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395221&pid=S0185-4534201100020000400002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Bitterman, M. E., Feddersen, W. E., &amp; Tyler, D. W. (1953). Secondary reinforcement and the discrimination hypothesis. <i>American Journal of Psychology,</i> 66, 456&#45;464, available via: <a href="http://dx.doi.org/10.2307/1418240" target="_blank">http://dx.doi.org/10.2307/1418240</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395223&pid=S0185-4534201100020000400003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Bugelski, R. (1938). Extinction with and without sub&#45;goal reinforcement. <i>Journal of Comparative Psychology, 26,</i> 121&#45;134, available via: <a href="http://dx.doi.org/10.1037/h0057091" target="_blank">http://dx.doi.org/10.1037/h0057091</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395225&pid=S0185-4534201100020000400004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Catania, A. C., &amp; Reynolds, G. S. (1968). A quantitative analysis of the responding maintained by interval schedules of reinforcement. <i>Journal of the Experimental Analysis of Behavior, 11,</i> 327&#45;383, available via: <a href="http://dx.doi.org/10.1901/jeab.1968.11-s327" target="_blank">http://dx.doi.org/ 10.1901/jeab.1968.11&#45;s327</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395227&pid=S0185-4534201100020000400005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Davison, M., &amp; Baum, W. M. (2006). Do conditional reinforcers count? <i>Journal of the Experimental Analysis of Behavior, 86,</i> 269&#45;283, available via: <a href="http://dx.doi.org/10.1901/jeab.2006.56-05" target="_blank">http://dx.doi.org/10.1901/jeab.2006.56&#45;05</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395229&pid=S0185-4534201100020000400006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Dinsmoor, J. A. (1950). A quantitative comparison of the discriminative and reinforcing functions of a stimulus. <i>Journal of Experimental Psychology, 40,</i> 458&#45;472, available via: <a href="http://dx.doi.org/10.1037/h0056266" target="_blank">http://dx.doi.org/10.1037/h0056266</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395231&pid=S0185-4534201100020000400007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Dinsmoor, J. A. (1983). Observing and conditioned reinforcement. <i>Behavioral and Brain Sciences, 6,</i> 693&#45;728, available via: <a href="http://dx.doi.org/10.1017/S0140525X00017969" target="_blank">http://dx.doi.org/10.1017/S0140525X00017969</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395233&pid=S0185-4534201100020000400008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Escobar, R. (2010). The effects of travel distance on observing responses by rats. <i>European Journal of Behavior Analysis, 11,</i> 79&#45;91.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395235&pid=S0185-4534201100020000400009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Escobar, R., &amp; Bruner, C.A. (2008). Effects of the contiguity between the extinction and the reinforcement component in observing&#45;response procedures. <i>Revista Mexicana de An&aacute;lisis de la Conducta, 34,</i> 331&#45;345.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395237&pid=S0185-4534201100020000400010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Escobar, R., &amp; Bruner, C.A. (2009). Observing responses and serial stimuli: Searching for the reinforcing properties of the S&#45;. <i>Journal of the Experimental Analysis of Behavior, 92,</i> 215&#45;231, available via: <a href="http://dx.doi.org/10.1901/jeab.2009.92&#45;215" target="_blank">http://dx.doi.org/10.1901/jeab.2009.92&#45;215</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395239&pid=S0185-4534201100020000400011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Gollub, L. R. (1977). Conditioned reinforcement: Schedule effects. En W. K Honig &amp; J. E. R. Staddon (Eds.), <i>Handbook of operant behavior</i> (pp. 288&#45;312). Englewood Cliffs, NJ: Prentice&#45;Hall.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395241&pid=S0185-4534201100020000400012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Kelleher, R. T., &amp; Gollub, L. R. (1962). A review of positive conditioned reinforcement. <i>Journal of the Experimental Analysis of Behavior, 5,</i> 543&#45;597, available via: <a href="http://dx.doi.org/10.1901/jeab.1962.5&#45;s543" target="_blank">http://dx.doi.org/10.1901/jeab.1962.5&#45;s543</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395243&pid=S0185-4534201100020000400013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Keller, F. S., &amp; Schoenfeld, W. N. (1950). <i>Principles of psychology.</i> Nueva York: Appleton&#45;Century&#45;Crofts.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395245&pid=S0185-4534201100020000400014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Mazur, J. E. (2006). <i>Learning and behavior</i> (Sixth Edition). Upper Saddle River, NJ: Prentice Hall.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395247&pid=S0185-4534201100020000400015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Myers, J. L. (1958). Secondary reinforcement: A review of recent experimentation. <i>Psychological Bulletin, 55,</i> 284&#45;301, available via: <a href="http://dx.doi.org/10.1037/h0046125" target="_blank">http://dx.doi.org/10.1037/h0046125</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395249&pid=S0185-4534201100020000400016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Nevin, J. A. (1988). Behavioral momentum and the partial reinforcement effect. <i>Psychological Bulletin, 103,</i> 44&#45;56, available via: <a href="http://dx.doi.org/10.1037//0033-2909.103.1.44" target="_blank">http://dx.doi.org/10.1037//0033&#45;2909.103.1.44</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395251&pid=S0185-4534201100020000400017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Nevin, J. A., &amp; Grace, R. C. (2000). Behavioral momentum and the law of effect. <i>Behavioral and Brain Sciences, 23,</i> 73&#45;130, available via: <a href="http://dx.doi.org/10.1017/S0140525X00002405" target="_blank">http://dx.doi.org/10.1017/S0140525X00002405</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395253&pid=S0185-4534201100020000400018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Nevin, J. A., Tota, M. E., Torquato, R. D., &amp; Shull, R. L. (1990). Alternative reinforcement increases resistance to change: Pavlovian or operant contingencies? <i>Journal of the Experimental Analysis of Behavior, 53,</i> 359&#45;379, available via: <a href="http://dx.doi.org/10.1901/jeab.1990.53-359" target="_blank">http://dx.doi.org/10.1901/jeab.1990.53&#45;359</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395255&pid=S0185-4534201100020000400019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Rescorla, R. A. (1977). Pavlovian second&#45;order conditioning: Some implications for instrumental behavior. En H. Davis &amp; H. M. B. Hurwitz (Eds.), <i>Operant&#45;Pavlovian interactions.</i> Hillsdale NJ: Wiley.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395257&pid=S0185-4534201100020000400020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Schuster, R. H. (1969). A functional analysis of conditioned reinforcement. En D. P. Hendry(Ed.), <i>Conditioned reinforcement</i> (pp. 192&#45;234). Homewood, Ill: Dorsey Press.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395259&pid=S0185-4534201100020000400021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Shahan, T.A. (2010). Conditioned reinforcement and response strength. <i>Journal of the Experimental Analysis of Behavior, 93,</i> 269&#45;289, available via: <a href="http://dx.doi.org/10.1901/jeab.2010.93-269" target="_blank">http://dx.doi.org/10.1901/jeab.2010.93&#45;269</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395261&pid=S0185-4534201100020000400022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Shahan, T. A., &amp; Podlesnik, C. A. (2005). Rate of conditioned reinforcement affects observing rate but not resistance to change. <i>Journal of the Experimental Analysis of Behavior, 84,</i> 1&#45;17, available via: <a href="http://dx.doi.org/10.1901/jeab.2005.83&#45;04" target="_blank">http://dx.doi.org/10.1901/jeab.2005.83&#45;04</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395263&pid=S0185-4534201100020000400023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Shahan, T.A., &amp; Podlesnik, C.A. (2008). Conditioned reinforcement value and resistance to change. <i>Journal of the Experimental Analysis of Behavior, 89,</i> 263&#45;298, available via: <a href="http://dx.doi.org/10.1901/jeab.2008-89-263" target="_blank">http://dx.doi.org/10.1901/jeab.2008&#45;89&#45;263</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395265&pid=S0185-4534201100020000400024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Shahan, T.A., Podlesnik, C.A. &amp; Jimenez&#45;Gomez, C. (2006). Matching and conditioned reinforcement rate. <i>Journal of the Experimental Analysis of Behavior, 85,</i> 167&#45; 180, available via: <a href="http://dx.doi.org/10.1901/jeab.2006.34&#45;05" target="_blank">http://dx.doi.org/10.1901/jeab.2006.34&#45;05</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395267&pid=S0185-4534201100020000400025&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Sidman, M. (1960). <i>Tactics of scientific research: Evaluating experimental data in psychology.</i> New York: Basic Books.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395269&pid=S0185-4534201100020000400026&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Skinner, B. F. (1938). <i>The behavior of organisms: An experimental analysis.</i> New York: Appleton&#45;Century&#45;Crofts.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395271&pid=S0185-4534201100020000400027&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Staddon, J. E. R., &amp; Cerutti, D. T. (2003). Operant conditioning. <i>Annual Review of Psychology, 54,</i> 115&#45;144, available via: <a href="http://dx.doi.org/10.1146/annurev.ps-ych.54.101601.145124" target="_blank">http://dx.doi.org/10.1146/annurev.ps&#45;ych.54.101601.145124</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395273&pid=S0185-4534201100020000400028&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Stein, L. (1958). Secondary reinforcement established with subcortical reinforcement. <i>Science, 127,</i> 466&#45;467, available via: <a href="http://dx.doi.org/10.1126/science.127.3296.466" target="_blank">http://dx.doi.org/10.1126/science.127.3296.466</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395275&pid=S0185-4534201100020000400029&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Tomanari, G. Y. (2001). Respostas de observa&ccedil;&atilde;o controladas por est&iacute;mulos sinaliza&#45;dores de refor&ccedil;amento e extin&ccedil;&atilde;o. <i>Acta Comportamentalia, 9,</i> 119&#45;143.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395277&pid=S0185-4534201100020000400030&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Tomanari, G. Y. (2010). Respostas de observa&ccedil;&atilde;o em pombos expostos a apresenta&ccedil;&otilde;es de comida independente de resposta. <i>Acta Comportamentalia, 18,</i> 301&#45;316.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395279&pid=S0185-4534201100020000400031&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Wike, E. L. (1966). Secondary reinforcement: Selected experiments. Nueva York: Harper &amp; Row.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395281&pid=S0185-4534201100020000400032&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Williams, B. A. (1994a). Conditioned reinforcement: Neglected or outmoded explanatory construct? <i>Psychonomic Bulletin &amp; Review, 1,</i> 457&#45;475.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395283&pid=S0185-4534201100020000400033&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Williams, B. A. (1994b). Conditioned reinforcement: Experimental and theoretical issues. <i>The Behavior Analyst, 17,</i> 261&#45;285.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395285&pid=S0185-4534201100020000400034&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Wyckoff, L. B., Jr. (1952). The role of observing responses in discrimination learning. Part I. <i>Psychological Review, 59,</i> 431&#45;442, available via: <a href="http://dx.doi.org/10.1037/h0053932" target="_blank">http://dx.doi.org/10.1037/h0053932</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395287&pid=S0185-4534201100020000400035&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Wyckoff, L. B. (1959). Toward a quantitative theory of secondary reinforcement. <i>Psychological Review, 66,</i> 68&#45;78, available via: <a href="http://dx.doi.org/10.1037/h0046882" target="_blank">http://dx.doi.org/10.1037/h0046882</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395289&pid=S0185-4534201100020000400036&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Zentall, T. R., &amp; Sherburne, L. M. (1994). Transfer of value from S+ to S&#45; in a simultaneous discrimination. <i>Journal of Experimental Psychology: Animal Behavior Processes, 20,</i> 176&#45;183, available via: <a href="http://dx.doi.org/10.1037/0097&#45;7403.20.2.176" target="_blank">http://dx.doi.org/10.1037/0097&#45;7403.20.2.176</a></font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=7395291&pid=S0185-4534201100020000400037&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bejarano]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Hackenberg]]></surname>
<given-names><![CDATA[T. D]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[IRT-stimulus contingencies in chained schedules: Implications for the concept of conditioned reinforcement]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>2007</year>
<volume>88</volume>
<page-range>215-227</page-range></nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bell]]></surname>
<given-names><![CDATA[M. C]]></given-names>
</name>
<name>
<surname><![CDATA[Seip]]></surname>
<given-names><![CDATA[K. M]]></given-names>
</name>
<name>
<surname><![CDATA[Fitzsimmons]]></surname>
<given-names><![CDATA[K. S]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Effect of signaling reinforcement on resistance to change in a multiple schedule]]></article-title>
<source><![CDATA[Behavioural Processes]]></source>
<year>2007</year>
<volume>74</volume>
<page-range>33-48</page-range></nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bitterman]]></surname>
<given-names><![CDATA[M. E]]></given-names>
</name>
<name>
<surname><![CDATA[Feddersen]]></surname>
<given-names><![CDATA[W. E]]></given-names>
</name>
<name>
<surname><![CDATA[Tyler]]></surname>
<given-names><![CDATA[D. W]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Secondary reinforcement and the discrimination hypothesis]]></article-title>
<source><![CDATA[American Journal of Psychology]]></source>
<year>1953</year>
<volume>66</volume>
<page-range>456-464</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bugelski]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Extinction with and without sub-goal reinforcement]]></article-title>
<source><![CDATA[Journal of Comparative Psychology]]></source>
<year>1938</year>
<volume>26</volume>
<page-range>121-134</page-range></nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Catania]]></surname>
<given-names><![CDATA[A. C]]></given-names>
</name>
<name>
<surname><![CDATA[Reynolds]]></surname>
<given-names><![CDATA[G. S]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A quantitative analysis of the responding maintained by interval schedules of reinforcement]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>1968</year>
<volume>11</volume>
<page-range>327-383</page-range><page-range>http://dx.doi.org/ 10.1901/jeab.1968.11-s327</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Davison]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Baum]]></surname>
<given-names><![CDATA[W. M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Do conditional reinforcers count?]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>2006</year>
<volume>86</volume>
<page-range>269-283</page-range></nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Dinsmoor]]></surname>
<given-names><![CDATA[J. A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A quantitative comparison of the discriminative and reinforcing functions of a stimulus]]></article-title>
<source><![CDATA[Journal of Experimental Psychology]]></source>
<year>1950</year>
<volume>40</volume>
<page-range>458-472</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Dinsmoor]]></surname>
<given-names><![CDATA[J. A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Observing and conditioned reinforcement]]></article-title>
<source><![CDATA[Behavioral and Brain Sciences]]></source>
<year>1983</year>
<volume>6</volume>
<page-range>693-728</page-range></nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Escobar]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The effects of travel distance on observing responses by rats]]></article-title>
<source><![CDATA[European Journal of Behavior Analysis]]></source>
<year>2010</year>
<volume>11</volume>
<page-range>79-91</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Escobar]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Bruner]]></surname>
<given-names><![CDATA[C.A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Effects of the contiguity between the extinction and the reinforcement component in observing-response procedures]]></article-title>
<source><![CDATA[Revista Mexicana de Análisis de la Conducta]]></source>
<year>2008</year>
<volume>34</volume>
<page-range>331-345</page-range></nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Escobar]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Bruner]]></surname>
<given-names><![CDATA[C.A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Observing responses and serial stimuli: Searching for the reinforcing properties of the S-]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>2009</year>
<volume>92</volume>
<page-range>215-231</page-range></nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Gollub]]></surname>
<given-names><![CDATA[L. R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Conditioned reinforcement: Schedule effects]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Honig]]></surname>
<given-names><![CDATA[W. K]]></given-names>
</name>
<name>
<surname><![CDATA[Staddon]]></surname>
<given-names><![CDATA[J. E. R]]></given-names>
</name>
</person-group>
<source><![CDATA[Handbook of operant behavior]]></source>
<year>1977</year>
<page-range>288-312</page-range><publisher-loc><![CDATA[Englewood Cliffs^eNJ NJ]]></publisher-loc>
<publisher-name><![CDATA[Prentice-Hall]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kelleher]]></surname>
<given-names><![CDATA[R. T]]></given-names>
</name>
<name>
<surname><![CDATA[Gollub]]></surname>
<given-names><![CDATA[L. R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A review of positive conditioned reinforcement]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>1962</year>
<volume>5</volume>
<page-range>543-597</page-range></nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Keller]]></surname>
<given-names><![CDATA[F. S]]></given-names>
</name>
<name>
<surname><![CDATA[Schoenfeld]]></surname>
<given-names><![CDATA[W. N]]></given-names>
</name>
</person-group>
<source><![CDATA[Principles of psychology]]></source>
<year>1950</year>
<publisher-loc><![CDATA[Nueva York ]]></publisher-loc>
<publisher-name><![CDATA[AppletonCenturyCrofts]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Mazur]]></surname>
<given-names><![CDATA[J. E]]></given-names>
</name>
</person-group>
<source><![CDATA[Learning and behavior]]></source>
<year>2006</year>
<edition>Sixth</edition>
<publisher-loc><![CDATA[Upper Saddle River^eNJ NJ]]></publisher-loc>
<publisher-name><![CDATA[Prentice Hall]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Myers]]></surname>
<given-names><![CDATA[J. L]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Secondary reinforcement: A review of recent experimentation]]></article-title>
<source><![CDATA[Psychological Bulletin]]></source>
<year>1958</year>
<volume>55</volume>
<page-range>284-301</page-range></nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Nevin]]></surname>
<given-names><![CDATA[J. A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Behavioral momentum and the partial reinforcement effect]]></article-title>
<source><![CDATA[Psychological Bulletin]]></source>
<year>1988</year>
<volume>103</volume>
<page-range>44-56</page-range></nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Nevin]]></surname>
<given-names><![CDATA[J. A]]></given-names>
</name>
<name>
<surname><![CDATA[Grace]]></surname>
<given-names><![CDATA[R. C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Behavioral momentum and the law of effect]]></article-title>
<source><![CDATA[Behavioral and Brain Sciences]]></source>
<year>2000</year>
<volume>23</volume>
<page-range>73-130</page-range></nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Nevin]]></surname>
<given-names><![CDATA[J. A]]></given-names>
</name>
<name>
<surname><![CDATA[Tota]]></surname>
<given-names><![CDATA[M. E]]></given-names>
</name>
<name>
<surname><![CDATA[Torquato]]></surname>
<given-names><![CDATA[R. D]]></given-names>
</name>
<name>
<surname><![CDATA[Shull]]></surname>
<given-names><![CDATA[R. L]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Alternative reinforcement increases resistance to change: Pavlovian or operant contingencies?]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>1990</year>
<volume>53</volume>
<page-range>359-379</page-range></nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rescorla]]></surname>
<given-names><![CDATA[R. A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Pavlovian second-order conditioning: Some implications for instrumental behavior]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Davis]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Hurwitz]]></surname>
<given-names><![CDATA[H. M. B]]></given-names>
</name>
</person-group>
<source><![CDATA[Operant-Pavlovian interactions]]></source>
<year>1977</year>
<publisher-loc><![CDATA[Hillsdale^eNJ NJ]]></publisher-loc>
<publisher-name><![CDATA[Wiley]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Schuster]]></surname>
<given-names><![CDATA[R. H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A functional analysis of conditioned reinforcement]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Hendry]]></surname>
<given-names><![CDATA[D. P]]></given-names>
</name>
</person-group>
<source><![CDATA[Conditioned reinforcement]]></source>
<year>1969</year>
<page-range>192-234</page-range><publisher-loc><![CDATA[Homewood^eIll Ill]]></publisher-loc>
<publisher-name><![CDATA[Dorsey Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Shahan]]></surname>
<given-names><![CDATA[T.A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Conditioned reinforcement and response strength]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>2010</year>
<volume>93</volume>
<page-range>269-289</page-range></nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Shahan]]></surname>
<given-names><![CDATA[T. A]]></given-names>
</name>
<name>
<surname><![CDATA[Podlesnik]]></surname>
<given-names><![CDATA[C. A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Rate of conditioned reinforcement affects observing rate but not resistance to change]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>2005</year>
<volume>84</volume>
<page-range>1-17</page-range></nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Shahan]]></surname>
<given-names><![CDATA[T.A]]></given-names>
</name>
<name>
<surname><![CDATA[Podlesnik]]></surname>
<given-names><![CDATA[C.A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Conditioned reinforcement value and resistance to change]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>2008</year>
<volume>89</volume>
<page-range>263-298</page-range></nlm-citation>
</ref>
<ref id="B25">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Shahan]]></surname>
<given-names><![CDATA[T.A]]></given-names>
</name>
<name>
<surname><![CDATA[Podlesnik]]></surname>
<given-names><![CDATA[C.A]]></given-names>
</name>
<name>
<surname><![CDATA[Jimenez-Gomez]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Matching and conditioned reinforcement rate]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>2006</year>
<volume>85</volume>
<page-range>167- 180</page-range></nlm-citation>
</ref>
<ref id="B26">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sidman]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[Tactics of scientific research: Evaluating experimental data in psychology]]></source>
<year>1960</year>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Basic Books]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B27">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Skinner]]></surname>
<given-names><![CDATA[B. F]]></given-names>
</name>
</person-group>
<source><![CDATA[The behavior of organisms: An experimental analysis]]></source>
<year>1938</year>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Appleton-Century-Crofts]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B28">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Staddon]]></surname>
<given-names><![CDATA[J. E. R]]></given-names>
</name>
<name>
<surname><![CDATA[Cerutti]]></surname>
<given-names><![CDATA[D. T]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Operant conditioning]]></article-title>
<source><![CDATA[Annual Review of Psychology]]></source>
<year>2003</year>
<volume>54</volume>
<page-range>115-144</page-range></nlm-citation>
</ref>
<ref id="B29">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Stein]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Secondary reinforcement established with subcortical reinforcement]]></article-title>
<source><![CDATA[Science]]></source>
<year>1958</year>
<volume>127</volume>
<page-range>466-467</page-range></nlm-citation>
</ref>
<ref id="B30">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Tomanari]]></surname>
<given-names><![CDATA[G. Y]]></given-names>
</name>
</person-group>
<article-title xml:lang="pt"><![CDATA[Respostas de observação controladas por estímulos sinaliza-dores de reforçamento e extinção]]></article-title>
<source><![CDATA[Acta Comportamentalia]]></source>
<year>2001</year>
<volume>9</volume>
<page-range>119-143</page-range></nlm-citation>
</ref>
<ref id="B31">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Tomanari]]></surname>
<given-names><![CDATA[G. Y]]></given-names>
</name>
</person-group>
<article-title xml:lang="pt"><![CDATA[Respostas de observação em pombos expostos a apresentações de comida independente de resposta]]></article-title>
<source><![CDATA[Acta Comportamentalia]]></source>
<year>2010</year>
<volume>18</volume>
<page-range>301-316</page-range></nlm-citation>
</ref>
<ref id="B32">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wike]]></surname>
<given-names><![CDATA[E. L]]></given-names>
</name>
</person-group>
<source><![CDATA[Secondary reinforcement: Selected experiments]]></source>
<year>1966</year>
<publisher-loc><![CDATA[Nueva York ]]></publisher-loc>
<publisher-name><![CDATA[Harper & Row]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B33">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Williams]]></surname>
<given-names><![CDATA[B. A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Conditioned reinforcement: Neglected or outmoded explanatory construct?]]></article-title>
<source><![CDATA[Psychonomic Bulletin & Review]]></source>
<year>1994</year>
<volume>1</volume>
<page-range>457-475</page-range></nlm-citation>
</ref>
<ref id="B34">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Williams]]></surname>
<given-names><![CDATA[B. A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Conditioned reinforcement: Experimental and theoretical issues]]></article-title>
<source><![CDATA[The Behavior Analyst]]></source>
<year>1994</year>
<volume>17</volume>
<page-range>261-285</page-range></nlm-citation>
</ref>
<ref id="B35">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wyckoff]]></surname>
<given-names><![CDATA[L. B]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The role of observing responses in discrimination learning. Part I]]></article-title>
<source><![CDATA[Psychological Review]]></source>
<year>1952</year>
<volume>59</volume>
<page-range>431-442</page-range></nlm-citation>
</ref>
<ref id="B36">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wyckoff]]></surname>
<given-names><![CDATA[L. B]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Toward a quantitative theory of secondary reinforcement]]></article-title>
<source><![CDATA[Psychological Review]]></source>
<year>1959</year>
<volume>66</volume>
<page-range>68-78</page-range></nlm-citation>
</ref>
<ref id="B37">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zentall]]></surname>
<given-names><![CDATA[T. R]]></given-names>
</name>
<name>
<surname><![CDATA[Sherburne]]></surname>
<given-names><![CDATA[L. M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Transfer of value from S+ to S- in a simultaneous discrimination]]></article-title>
<source><![CDATA[Journal of Experimental Psychology: Animal Behavior Processes]]></source>
<year>1994</year>
<volume>20</volume>
<page-range>176-183</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
