<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>2007-4832</journal-id>
<journal-title><![CDATA[Acta de investigación psicológica]]></journal-title>
<abbrev-journal-title><![CDATA[Acta de investigación psicol]]></abbrev-journal-title>
<issn>2007-4832</issn>
<publisher>
<publisher-name><![CDATA[Universidad Nacional Autónoma de México, Facultad de Psicología]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S2007-48322011000100013</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Adquisición y dinámica de preferencias en programas múltiples de reforzamiento]]></article-title>
<article-title xml:lang="en"><![CDATA[Acquisition and Preference Dynamic in Multiple Schedules of Reinforcement]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Zamora Arévalo]]></surname>
<given-names><![CDATA[Oscar]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Bouzas Riaño]]></surname>
<given-names><![CDATA[Arturo]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Nacional Autónoma de México  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>04</month>
<year>2011</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>04</month>
<year>2011</year>
</pub-date>
<volume>1</volume>
<numero>1</numero>
<fpage>165</fpage>
<lpage>179</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_arttext&amp;pid=S2007-48322011000100013&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_abstract&amp;pid=S2007-48322011000100013&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_pdf&amp;pid=S2007-48322011000100013&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Ocho palomas fueron entrenadas en programas múltiples de reforzamiento Razón Variable-Razón Variable (mult RV-RV) con cambios rápidos e imprevistos en las distribuciones de refuerzo en ambos componentes del programa múltiple. El objetivo principal fue evaluar cómo se ajustan las tasas de respuestas a cambios abruptos y no señalados en las condiciones de reforzamiento en distintos períodos y en particular determinar si la dinámica del ajuste del comportamiento es dirigida por la razón o por la diferencia en las probabilidades en las tasas de reforzamiento obtenido en dos componentes de un programa múltiple. Los principales hallazgos fueron que cuando las diferencias entre dos programas de reforzamiento (pobre y rico) son constantes, el desarrollo de la preferencia por una de las respuestas del programa múltiple fue más rápido cuando la razón de las probabilidades de reforzamiento fue mayor (5 a 1), lo cual es congruente con los resultados obtenidos en programas de reforzamiento concurrentes. Sin embargo, cuando la razón se mantuvo constante, la tasa de adquisición no fue más rápida cuando la diferencia entre la probabilidad de reforzamiento fue mayor, hallazgo distinto al reportado en experimentos con programas concurrentes. Los resultados resaltan la importancia de la discriminabilidad en probabilidades de reforzamiento entre la fase de entrenamiento y de transición.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[Eight pigeons were trained on multiple variable ratio-variable ratio schedules of reinforcement (mult VR-VR) with rapid and unexpected changes in reinforcement distribution within both components of the multiple schedule. The main objective of the study was to assess the adjustment of response rates to abrupt and unsignaled changes in the conditions of reinforcement in different periods, particularly whether the dynamics of behavioral change is guided by the ratio or by the difference between the probabilities of reinforcement obtained in the two components of the multiple schedule. The main findings were that when the differences between two schedules of reinforcement (lean and rich) are constant, the development of preference for one of the responses in the multiple schedule was faster when the ratio of the probability of reinforcement was higher (5 to 1), which is consistent with the results obtained with concurrent schedules of reinforcement. However, different from the results obtained using concurrent schedules, when the ratio of probabilities remained constant the rate of acquisition was not faster when the difference between the probabilities of reinforcement was higher. The results highlight the importance of the discriminability of reinforcement probability between training and transition phases.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Elección]]></kwd>
<kwd lng="es"><![CDATA[Dinámica del comportamiento]]></kwd>
<kwd lng="es"><![CDATA[Adquisición]]></kwd>
<kwd lng="es"><![CDATA[Programas múltiples]]></kwd>
<kwd lng="es"><![CDATA[Pichones]]></kwd>
<kwd lng="en"><![CDATA[Choice]]></kwd>
<kwd lng="en"><![CDATA[Behavioral dynamics]]></kwd>
<kwd lng="en"><![CDATA[Acquisition]]></kwd>
<kwd lng="en"><![CDATA[Multiple schedules]]></kwd>
<kwd lng="en"><![CDATA[Pigeons]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[  	    <p align="center"><font face="verdana" size="4"><b>Adquisici&oacute;n y din&aacute;mica de preferencias en programas m&uacute;ltiples de reforzamiento</b></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="center"><font face="verdana" size="3"><b>Acquisition and Preference Dynamic in Multiple Schedules of Reinforcement</b></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="center"><font face="verdana" size="2"><b>Oscar Zamora Ar&eacute;valo<sup><a href="#notas">1</a></sup> &amp; Arturo Bouzas Ria&ntilde;o</b></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><i>Universidad Nacional Aut&oacute;noma de M&eacute;xico.</i></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Enviar correspondencia a:</b>    ]]></body>
<body><![CDATA[<br>     <i>Oscar Zamora Arevalo o Arturo Bouzas Ria&ntilde;o a:    <br> 	Ave. Universidad 3004,    <br> 	Col. Copilco Coyoac&aacute;n,    <br> 	1er Piso Edificio D, Posgrado,    <br> 	Facultad de Psicolog&iacute;a,    <br> 	Universidad Nacional Aut&oacute;noma de M&eacute;xico, C. P. 04510.    <br> 	Direcci&oacute;n de correo electr&oacute;nico:</i> <a href="mailto:ozamoraa@gmail.com">ozamoraa@gmail.com</a>; <a href="mailto:abouzasr@gmail.com">abouzasr@gmail.com</a>.</font></p>      <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Resumen</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Ocho palomas fueron entrenadas en programas m&uacute;ltiples de reforzamiento Raz&oacute;n Variable&#45;Raz&oacute;n Variable (mult RV&#45;RV) con cambios r&aacute;pidos e imprevistos en las distribuciones de refuerzo en ambos componentes del programa m&uacute;ltiple. El objetivo principal fue evaluar c&oacute;mo se ajustan las tasas de respuestas a cambios abruptos y no se&ntilde;alados en las condiciones de reforzamiento en distintos per&iacute;odos y en particular determinar si la din&aacute;mica del ajuste del comportamiento es dirigida por la raz&oacute;n o por la diferencia en las probabilidades en las tasas de reforzamiento obtenido en dos componentes de un programa m&uacute;ltiple. Los principales hallazgos fueron que cuando las diferencias entre dos programas de reforzamiento (pobre y rico) son constantes, el desarrollo de la preferencia por una de las respuestas del programa m&uacute;ltiple fue m&aacute;s r&aacute;pido cuando la raz&oacute;n de las probabilidades de reforzamiento fue mayor (5 a 1), lo cual es congruente con los resultados obtenidos en programas de reforzamiento concurrentes. Sin embargo, cuando la raz&oacute;n se mantuvo constante, la tasa de adquisici&oacute;n no fue m&aacute;s r&aacute;pida cuando la diferencia entre la probabilidad de reforzamiento fue mayor, hallazgo distinto al reportado en experimentos con programas concurrentes. Los resultados resaltan la importancia de la discriminabilidad en probabilidades de reforzamiento entre la fase de entrenamiento y de transici&oacute;n.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>Palabras clave:</b> Elecci&oacute;n, Din&aacute;mica del comportamiento, Adquisici&oacute;n, Programas m&uacute;ltiples, Pichones.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Abstract</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Eight pigeons were trained on multiple variable ratio&#45;variable ratio schedules of reinforcement (mult VR&#45;VR) with rapid and unexpected changes in reinforcement distribution within both components of the multiple schedule. The main objective of the study was to assess the adjustment of response rates to abrupt and unsignaled changes in the conditions of reinforcement in different periods, particularly whether the dynamics of behavioral change is guided by the ratio or by the difference between the probabilities of reinforcement obtained in the two components of the multiple schedule. The main findings were that when the differences between two schedules of reinforcement (lean and rich) are constant, the development of preference for one of the responses in the multiple schedule was faster when the ratio of the probability of reinforcement was higher (5 to 1), which is consistent with the results obtained with concurrent schedules of reinforcement. However, different from the results obtained using concurrent schedules, when the ratio of probabilities remained constant the rate of acquisition was not faster when the difference between the probabilities of reinforcement was higher. The results highlight the importance of the discriminability of reinforcement probability between training and transition phases.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Keywords:</b> Choice, Behavioral dynamics, Acquisition, Multiple schedules, Pigeons.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2">De los numerosos estudios que sobre elecci&oacute;n y preferencia se han realizado en casi cinco d&eacute;cadas (Davison &amp; McCarthy, 1988; Herrnstein, 1997; Stephens, Brown, &amp; Ydelberg, 2007; Stephens &amp; Krebs, 1986; Williams, 1988, 1994), la vasta mayor&iacute;a han utilizado un modelo experimental que consiste en el estudio de la distribuci&oacute;n de dos respuestas, cada una reforzada de acuerdo a programas de reforzamiento independientes (programas concurrentes, programas concurrentes encadenados y procedimientos concurrentes de ensayo discreto) y se han enfocado sobre conducta de estado estable. En la mayor parte de esos estudios, el &eacute;nfasis te&oacute;rico ha sido sobre principios de equilibrio molar, est&aacute;tico y reversible de entre los cuales ha destacado la ley de igualaci&oacute;n (Davison &amp; McCarthy, 1988; Hernstein, 1997; Williams, 1988, 1994). Esta regla de elecci&oacute;n es una relaci&oacute;n emp&iacute;rica que bajo condiciones apropiadas establece que el comportamiento es distribuido en proporci&oacute;n al reforzamiento obtenido en las distintas alternativas disponibles. Igualaci&oacute;n es un principio de equilibrio (m&aacute;s que una ley causal) ya que relaciona dos cantidades, tasas de respuesta y tasas de reforzamiento, que son mutuamente dependientes. El utilizar metodolog&iacute;as de estado estable ha estimulado el desarrollo de modelos cuantitativos que son capaces de describir la ejecuci&oacute;n individual con un elevado nivel de precisi&oacute;n (e.g., Baum, 1974; Davison &amp; McCarty, 1988; Grace &amp; McLean, 2006; Mazur 2001), pero no han dado una respuesta clara a la cuesti&oacute;n del mecanismo que subyace la igualaci&oacute;n. Por lo tanto, no es de extra&ntilde;ar que los cambios en las tasas relativas de respuesta ante cambios en las tasas de reforzamiento sea un tema de creciente inter&eacute;s en investigaci&oacute;n, ya que entender la din&aacute;mica de la preferencia por responder a una de dos alternativas en transici&oacute;n puede dar una visi&oacute;n de los procesos responsables del comportamiento en estado estable.</font></p>  	    <p align="justify"><font face="verdana" size="2">En los &uacute;ltimos 20 a&ntilde;os ha habido un creciente inter&eacute;s acerca de c&oacute;mo se desarrollan tales preferencias en programas de reforzamiento concurrentes utilizando una amplia variedad de especies y procedimientos experimentales. En un conjunto de experimentos se examin&oacute; la elecci&oacute;n bajo contingencias que cambian impredeciblemente a trav&eacute;s de las sesiones (e.g., Grace, Bragason, &amp; McLean, 2003; Kyonka &amp; Grace, 2008; Maguire, Hughes, &amp; Pitts, 2007; Schofield &amp; Davison, 1997), En otra serie de estudios, Davison, Baum y sus colegas (Baum &amp; Davison, 2004; Davison &amp; Baum, 2000, 2002; 2003; 2006; 2007; Kr&auml;geloh &amp; Davison, 2003; Landon &amp; Davison, 2001; Landon, Davison &amp; Elliffe, 2003) emplearon un nuevo m&eacute;todo para investigar la din&aacute;mica de la elecci&oacute;n. Utilizando un variante de un procedimiento descrito originalmente por Belke y Heyman (1994), palomas son expuestas a programas concurrentes en el que dada una dimensi&oacute;n del refuerzo por ejemplo, tasa, cantidad, o demora, &eacute;stas cambian en varias ocasiones dentro de cada sesi&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2">En un conjunto de experimentos, antecedentes directos del actual, Mazur y sus colegas utilizaron un procedimiento con el cual, para cada sujeto, es posible obtener varias curvas de la adquisici&oacute;n de la preferencia por responder a una de dos alternativas, ante cambios en la tasa de reforzamiento que producen (Bailey &amp; Mazur, 1990; Mazur, 1992; Mazur &amp; Ratti, 1991). En sus estudios, expusieron a palomas a programa concurrentes. Cada condici&oacute;n consisti&oacute; de un n&uacute;mero de sesiones con iguales programas de reforzamiento para las dos respuestas, las cuales eran seguidas de sesiones en las que sorpresivamente una tecla empezaba a dar m&aacute;s reforzadores que la otra. Esta combinaci&oacute;n de sesiones se repet&iacute;a un n&uacute;mero de veces. Con este procedimiento, examinaron el efecto de variar la raz&oacute;n y la diferencia entre la probabilidad de reforzamiento en las condiciones de transici&oacute;n de reforzamiento</font></p>  	    <p align="justify"><font face="verdana" size="2">En el estudio reportado por Bailey y Mazur (1990) en un primer experimento sobre la tasa de adquisici&oacute;n de una preferencia, se observ&oacute; a ocho palomas durante 10 condiciones de transici&oacute;n en un procedimiento de ensayos discretos de dos elecciones (en este tipo de procedimiento, al sujeto s&oacute;lo se le permite hacer una sola respuesta por ensayo, la cual puede o no ser reforzada). Cada condici&oacute;n comenz&oacute; con sesiones con la misma probabilidad de reforzamiento en las dos teclas, la que cambiaba, por un n&uacute;mero de sesiones, de tal manera que una tecla ten&iacute;a una mayor probabilidad de reforzamiento. Los investigadores observaron que la tasa de adquisici&oacute;n de la preferencia para la tecla que se&ntilde;alaba mayor densidad de reforzamiento fue m&aacute;s r&aacute;pida cuando la raz&oacute;n de ambas probabilidades de reforzamiento fue m&aacute;s alta. Adem&aacute;s, observaron que los animales fueron sensibles a las razones entre las probabilidades de reforzamiento y no a las diferencias entre dichas probabilidades.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Los experimentos sobre el cambio en las preferencias por respuestas que proveen diferentes tasas de reforzamiento, han estudiado en forma exclusiva alguna variante de programas de reforzamiento concurrente. La simultaneidad de las opciones de respuesta y de reforzamiento tiene dos consecuencias. La primera es que la &uacute;nica medida de preferencia es la tasa relativa de respuesta, dado que la competencia entre respuestas por el tiempo disponible necesita que el incremento en la tasa de una respuesta vaya acompa&ntilde;ado del decremento en la tasa de la otra opci&oacute;n de respuesta. La segunda consecuencia, es el inter&eacute;s te&oacute;rico y experimental por estudiar prioritariamente el efecto de las tasas de reforzamiento obtenidas por las respuestas simult&aacute;neas sobre la formaci&oacute;n de la preferencia entre respuestas.</font></p>  	    <p align="justify"><font face="verdana" size="2">Los programas m&uacute;ltiples brindan una oportunidad diferente para estudiar la elecci&oacute;n entre respuestas. En estos programas las opciones de respuesta est&aacute;n temporalmente separadas en dos componentes y consecuentemente no compiten por un tiempo com&uacute;n (Herrnstein, 1970; Williams, 1983). En equilibrio, la tasa de respuesta durante uno de los componentes depende tanto de su tasa de reforzamiento como de la tasa de reforzamiento obtenida en el componente alterno (Williams, 1983). Los modelos de elecci&oacute;n se extendieron con &eacute;xito para dar cuenta de estos resultados. Sin embargo, los autores del presente estudio no conocen reportes publicados dedicados a estudiar los cambios en las tasas de respuesta en programas m&uacute;ltiples en per&iacute;odos de transici&oacute;n similares a los estudiados con programas de reforzamiento concurrentes. Este trabajo es una primera aproximaci&oacute;n para abordar este problema. El procedimiento que se emple&oacute; es equivalente al utilizado por Mazur y sus colegas para el caso de la elecci&oacute;n simult&aacute;nea (Bailey &amp; Mazur, 1990; Mazur, 1992; 1995; 1996, 1997; Mazur &amp; Ratti, 1991). En programas de reforzamiento m&uacute;ltiples RV&#45;RV, con iguales requisitos de respuesta, se estudi&oacute; el impacto sobre las tasas de respuesta de cambios abruptos en los valores de los programas RV. Al igual que en los estudios de Mazur y colaboradores, se vari&oacute; tanto la raz&oacute;n como la diferencia entre las probabilidades de reforzamiento asociadas con las respuestas en los dos componentes, con la intenci&oacute;n de determinar si su efecto es similar en situaciones de elecci&oacute;n simult&aacute;nea como sucesiva. En unas condiciones se mantuvo constante la diferencia en la probabilidad de reforzamiento en los dos componentes vari&aacute;ndose su raz&oacute;n. En otras condiciones se mantuvo constante la raz&oacute;n de probabilidades vari&aacute;ndose la diferencia entre ellas.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>M&eacute;todo</b></font></p>  	    <p align="justify"><font face="verdana" size="2"><i>Sujetos</i></font></p>  	    <p align="justify"><font face="verdana" size="2">Se utilizaron ocho palomas domesticas adultas Columba Livia privadas al 80% de su peso corporal, experimentalmente ingenuas. Para mantenerlas en el peso, despu&eacute;s de cada sesi&oacute;n, se les dio alimento adicional para que al d&iacute;a siguiente tuvieran el peso del criterio. A lo largo del estudio las palomas tuvieron acceso libre al agua.</font></p>  	    <p align="justify"><font face="verdana" size="2"><i>Aparatos</i></font></p>  	    <p align="justify"><font face="verdana" size="2">Se utilizaron ocho c&aacute;maras id&eacute;nticas de condicionamiento operante para pichones dise&ntilde;adas por el personal del Laboratorio de Comportamiento y Adaptaci&oacute;n, con las siguientes dimensiones interiores, 37 cm de alto, 30 cm de ancho y 35 cm de fondo. Cada caja contaba con una luz general, localizada en el centro del techo de la caja y tres teclas de respuestas transl&uacute;cidas con su correspondiente proyector de est&iacute;mulos. Las teclas se encontraban en la pared frontal de la c&aacute;mara y estaban separadas por 7 cm y cada una media 2.7 cm de di&aacute;metro. Las teclas izquierda y central no fueron utilizadas en este experimento. La tecla derecha pod&iacute;a ser iluminada por una luz roja o verde producidas por dos focos de 2 watts fijados detr&aacute;s de la tecla. Se requiri&oacute; de una fuerza de aproximadamente 0.15 N para operar cada tecla. Las cajas tambi&eacute;n contaban con un dispensador electromagn&eacute;tico de alimento (grano balanceado) que se localizaba en la pared con las teclas, a 5.5 cm del piso y a 10 cm de la tecla central. El reforzador consisti&oacute; de dos segundos de acceso libre a una mezcla de granos en el dispensador. Durante ese tiempo se encendi&oacute; una luz que ilumin&oacute; el dispensador (comedero) con una luz blanca proveniente de un foco de 2 watts fijado sobre &eacute;ste y se apag&oacute; tanto la luz general como la de la tecla derecha. Las c&aacute;maras experimentales estuvieron ventiladas todo el tiempo que dur&oacute; la sesi&oacute;n y cada una ten&iacute;a un extractor que sacaba el aire del interior de la c&aacute;mara, y que a su vez serv&iacute;a como generador de ruido blanco que atenuaba el sonido proveniente del exterior. El control de la secuencia de presentaci&oacute;n de los est&iacute;mulos dentro de las c&aacute;maras experimentales, as&iacute; como el registro de las respuestas de cada animal, se realiz&oacute; empleando una computadora por medio de una interfaz y lenguaje de programaci&oacute;n (MEDSTATE&reg;). Todos los eventos de una sesi&oacute;n se registraron con una exactitud de mili segundos. Los datos fueron almacenados en discos flexibles para su posterior tratamiento.</font></p>  	    <p align="justify"><font face="verdana" size="2"><i>Procedimiento</i></font></p>  	    <p align="justify"><font face="verdana" size="2">Los sujetos fueron alojados en cajas&#45;habitaci&oacute;n individuales teniendo los primeros 20 d&iacute;as acceso libre tanto al agua como al alimento. Durante este per&iacute;odo, se registr&oacute; diariamente su peso, posteriormente se tom&oacute; la media de este registro como punto de comparaci&oacute;n posterior (peso ad libitum). Despu&eacute;s de este per&iacute;odo, se restringi&oacute; paulatinamente la cantidad de alimento disponible hasta que se alcanz&oacute; el criterio de 80% (+&#45;5grm) de peso con respecto al valor ad libitum.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Despu&eacute;s de 10 d&iacute;as en los que se mantuvo a los sujetos al 80% de su peso normal, se pas&oacute; a la fase de entrenamiento del picoteo mediante un programa de automoldeamiento del picoteo a la tecla (Brown &amp; Jenkins, 1968), hasta conseguir de manera consistente la respuesta de picoteo en la tecla derecha, ante dos colores (verde y rojo). Posteriormente, para familiarizar a los sujetos con el programa de reforzamiento, se reforz&oacute; la respuesta a la misma tecla con programas RV, con valores que incrementaron hasta alcanzar un RV 100 en una semana de entrenamiento. Este requisito de respuesta fue el m&aacute;s alto de los utilizados en las condiciones experimentales.</font></p>  	    <p align="justify"><font face="verdana" size="2">Las palomas fueron expuestas a cinco condiciones experimentales. Cada condici&oacute;n se repiti&oacute; cuatro veces y los sujetos pasaron por las condiciones en distinto orden. Cada condici&oacute;n, consisti&oacute; de dos fases, la primera fue una fase de estado estable o entrenamiento y la segunda de transici&oacute;n o de prueba. Las fases de estado estable incluyeron tres d&iacute;as de entrenamiento, en los cuales las respuestas en los dos componentes fueron reforzadas con el mismo programa de reforzamiento (RVx), es decir, con la misma probabilidad de reforzamiento. Durante el cuarto y quinto d&iacute;a de cada condici&oacute;n experimental, se expuso a las palomas a dos sesiones diarias de transici&oacute;n o fase de prueba, en las que un par de programas de reforzamiento diferentes (Raz&oacute;n Variable RVx, Raz&oacute;n Variable RVy), operaron en cada componente. Los valores para las razones utilizadas fueron creados a partir de las progresiones sugeridas por Freshler y Hoffman (1962). Los componentes del programa m&uacute;ltiple duraron 60 s cada uno y las sesiones finalizaron a los 30 min. Las sesiones se condujeron durante seis d&iacute;as a la semana. En la primera parte de este experimento, durante las fases de prueba se usaron pares de programas de reforzamiento que generaron razones iguales de probabilidades de reforzamiento (5 a 1), pero que generaron distintas diferencias en las probabilidades de reforzamiento (.16, .08 y .04). En la segunda parte, se usaron pares de programas de reforzamiento que produc&iacute;an una raz&oacute;n de probabilidad de 2 a 1 y 3 a 1 e iguales diferencias en las probabilidades de reforzamiento (.04), lo anterior para comparar el efecto de una raz&oacute;n de probabilidades diferentes, y el efecto de diferencias constantes en probabilidad. Las cinco condiciones experimentales con valores de los RVs y con las razones y las diferencias absolutas en entrenamiento y transici&oacute;n se indican en la <a href="/img/revistas/aip/v1n1/a13t1.jpg" target="_blank">Tabla 1</a>.</font></p>  	    <p align="justify"><font face="verdana" size="2">La luz general de la caja y la tecla derecha permanecieron encendidas a lo largo de la sesi&oacute;n, excepto durante los periodos de reforzamiento. La tecla derecha fue transiluminada de color rojo o verde. Cada color se asoci&oacute; con cada uno de los componentes del programa m&uacute;ltiple RV&#45;RV tanto en la fase de entrenamiento como en la fase de prueba. En las fases de transici&oacute;n para la mitad de los sujetos el color rojo fue asociado al componente rico y el color verde se asoci&oacute; al componente pobre y viceversa para la otra mitad de los sujetos.</font></p>  	    <p align="justify"><font face="verdana" size="2">Las tasas de respuesta tanto absolutas como relativas se calcularon componente a componente para los tres d&iacute;as de entrenamiento y en cada uno de los dos d&iacute;as de transici&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Resultados</b></font></p>  	    <p align="justify"><font face="verdana" size="2">El inter&eacute;s principal de este experimento fue observar el comportamiento de las respuestas en un programa m&uacute;ltiple en los periodos de transici&oacute;n de componentes con igual probabilidad de reforzamiento a componentes con probabilidades diferentes de reforzamiento. Para cada una de las condiciones experimentales a las que fueron sometidos los sujetos, se reportan tanto las tasas relativas como las tasas absolutas de respuesta computadas componente a componente. Los &uacute;ltimos dos componentes no se consideraron para el an&aacute;lisis gr&aacute;fico y estad&iacute;stico, ya que con valores tan peque&ntilde;os de RV en los distintos programas de las diferentes condiciones, se present&oacute; un efecto de saciedad que se manifest&oacute; en ambos componentes en todas las condiciones experimentales.</font></p>  	    <p align="justify"><font face="verdana" size="2">Para ambas graficas de la <a href="/img/revistas/aip/v1n1/a13f1.jpg" target="_blank">Figura 1</a> se presentan los resultados para el segundo d&iacute;a de transici&oacute;n, en las abscisas se muestran intervalos sucesivos de 2 minutos, en los cuales los sujetos respond&iacute;an a uno y a otro componente (rico y pobre) del programa m&uacute;ltiple. En tanto en las ordenadas se muestra la tasa relativa de respuestas, es decir la tasa de respuestas en el componente rico (P<sub>r</sub>) dividida por la tasa de repuestas en el componente rico m&aacute;s la tasa de respuestas en el componente pobre (P<sub>r</sub> + P<sub>p</sub>). Esta medida fue obtenida para cada uno de los 14 intervalos sucesivos de dos minutos que constituyeron cada sesi&oacute;n. Los s&iacute;mbolos en cada una de las gr&aacute;ficas representan el promedio total de la tasa relativa de respuestas de los sujetos, en los cuatro ciclos para el segundo d&iacute;a de las fases de prueba o transici&oacute;n para cada una de las condiciones. En el panel superior se presenta la tasa relativa de respuestas en las tres condiciones cuando la raz&oacute;n entre las probabilidades de reforzamiento de los componentes de los programas m&uacute;ltiples se mantuvieron constantes en 5 a 1 (Condiciones RV5&#45;RV25, RV10&#45;RV50 y RV20&#45;RV100), pero la diferencia entre las probabilidades de reforzamiento de ambos componentes fue variable (0.16, 0.08, 0.04). En el panel inferior se muestra la tasa relativa de respuestas en las tres condiciones cuando la diferencia entre las probabilidades de reforzamiento fue la misma (0.04) en las tres condiciones (RV13&#45;RV25, RV17&#45;RV50, RV20&#45;RV100) pero la raz&oacute;n entre las probabilidades de reforzamiento fue variable (2 a 1, 3 a 1 y 5 a 1).</font></p>  	    <p align="justify"><font face="verdana" size="2">La <a href="/img/revistas/aip/v1n1/a13f1.jpg" target="_blank">Figura 1</a> muestra que la velocidad con la que cambiaron las tasas relativas de respuesta fue proporcional a la raz&oacute;n de la probabilidad de reforzamiento en los dos componentes del programa m&uacute;ltiple. Muestra tambi&eacute;n una diferencia muy peque&ntilde;a y no ordenada entre la tasa relativa de respuesta y la diferencia en las probabilidades de reforzamiento. Esta impresi&oacute;n fue confirmada por un an&aacute;lisis de varianza m&uacute;ltiple de medidas repetida con dos factores: Condici&oacute;n e Intervalos con 3 y 14 niveles respectivamente, tanto en las condiciones donde la raz&oacute;n fue constante (Condiciones RV5&#45;RV25, RV10&#45;RV50 y RV20&#45;RV100), como en las condiciones donde la diferencia en las probabilidades de reforzamiento fue la misma (Condiciones RV13&#45;RV25, RV17&#45;RV50 y RV20&#45;RV100). En el primer an&aacute;lisis cuando las razones entre las probabilidades de reforzamiento de mantuvieron constantes (5 a 1), s&oacute;lo el factor intervalo fue estad&iacute;sticamente significativo F(13, 91) = 7.39, <i>p</i> &lt; .05, ni el factor condici&oacute;n, ni la interacci&oacute;n entre condici&oacute;n e intervalo fueron significativas. En el segundo an&aacute;lisis cuando las diferencias entre las probabilidades de reforzamiento se mantuvieron constantes (0.04), ambos factores y la interacci&oacute;n fueron estad&iacute;sticamente significativos, condici&oacute;n F(2, 14) = 12.09, <i>p</i> &lt; .05, intervalo F(13, 91) = 9.03, <i>p</i> &lt; .05, e interacci&oacute;n condici&oacute;n e intervalo F(26, 182) = 1.58, <i>p &lt;</i> .05.</font></p>  	    <p align="justify"><font face="verdana" size="2">A diferencia de los programas concurrentes, en programas m&uacute;ltiples es pertinente estudiar los posibles cambios en las tasas absolutas de respuesta.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">La <a href="/img/revistas/aip/v1n1/a13f2.jpg" target="_blank">Figura 2</a> muestra el promedio de las tasas absolutas de respuesta de todos los sujetos (n&uacute;mero de respuesta/tiempo de exposici&oacute;n al componente para cada uno de los 14 componentes {ordenada}). Las tres columnas muestran respectivamente el promedio de los tres d&iacute;as de las fases de entrenamiento, el primer d&iacute;a de las fases de transici&oacute;n y el segundo d&iacute;a de las fases de transici&oacute;n. Los c&iacute;rculos llenos representan el componente asociado en las fases de transici&oacute;n al componente rico y los c&iacute;rculos vac&iacute;os representan el componente que en las fases de transici&oacute;n estuvo asociado al componente pobre. Se puede observar de manera muy general que durante las fases de entrenamiento, las tasas globales de respuesta fueron similares en ambos componentes de los programas m&uacute;ltiples. En cambio en todas las condiciones en los d&iacute;as de transici&oacute;n desde el primer d&iacute;a y el segundo intervalo, las tasas absolutas cambiaron, pero el cambio fue m&aacute;s pronunciado para el componente pobre. Este efecto fue a&uacute;n mayor en el segundo d&iacute;a de transici&oacute;n, y en las tres condiciones con raz&oacute;n 5 a 1. Un efecto adicional, que puede verse en esta figura, es que en el primer intervalo del segundo d&iacute;a de transici&oacute;n, las tasas absolutas regresaron a los niveles observados en entrenamiento.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Discusi&oacute;n</b></font></p>  	    <p align="justify"><font face="verdana" size="2">El prop&oacute;sito de este experimento fue presentar la evidencia emp&iacute;rica faltante sobre los factores que afectan la tasa de adquisici&oacute;n de una preferencia a responder diferencialmente cuando s&uacute;bitamente dos alternativas temporalmente distantes proporcionan reforzadores con diferentes probabilidades.</font></p>  	    <p align="justify"><font face="verdana" size="2">La pregunta que se deseaba responder era si los resultados obtenidos con programas m&uacute;ltiples eran similares a los reportados en programas concurrentes manipulando variables similares. Los resultados permiten una serie de conclusiones. Primero, manteniendo constante la diferencia en la probabilidad de reforzamiento entre los componentes del programa m&uacute;ltiple, el cambio en las tasas de respuesta, absolutas y relativas, fue mayor y m&aacute;s r&aacute;pido mientras mayor fue la raz&oacute;n entre dichas probabilidades de reforzamiento. Segundo, manteniendo constante la raz&oacute;n de probabilidades, la diferencia en la probabilidad de reforzamiento no tuvo un efecto, ni consistente ni significativo, sobre los niveles y la rapidez de los cambios en ambas medidas de respuesta. El primer resultado es consistente con los reportados por Mazur y colaboradores en programas concurrentes en procedimientos de ensayo discreto (Bailey &amp; Mazur, 1990) y procedimientos de operante libre (Mazur, 1992; Mazur &amp; Ratti, 1991). Sin embargo, el segundo no es consistente a lo reportado en los mismos experimentos.</font></p>  	    <p align="justify"><font face="verdana" size="2">Tercero, el cambio en la tasa relativa de respuesta obedece principalmente al decremento en la tasa absoluta de respuesta durante el componente pobre del programa m&uacute;ltiple de reforzamiento. Cuarto, el cambio en las tasas de respuesta fue mayor en el segundo d&iacute;a de transici&oacute;n que en el primero, sin embargo la experiencia con s&oacute;lo dos componentes de un minuto fue suficiente para observar cambios en ambas medidas de respuesta. Quinto, la tasa de respuesta en el segundo d&iacute;a de transici&oacute;n en los minutos iniciales de la sesi&oacute;n regres&oacute; a los niveles obtenidos durante la fase de entrenamiento.</font></p>  	    <p align="justify"><font face="verdana" size="2">De estos resultados, uno en particular, el efecto de la diferencia en la probabilidad de reforzamiento en los dos componentes del programa m&uacute;ltiple resalta por su inconsistencia con los resultados obtenidos en programas de reforzamiento concurrentes. En particular, los resultados reportados por Mazur y colaboradores, implican que la rapidez en el cambio en las tasas absolutas de respuesta est&aacute; relacionada monot&oacute;nicamente a la tasa de reforzamiento global que conforma el contexto de una sesi&oacute;n experimental. Por ejemplo, comparando las condiciones RV5 &#45; RV25 con RV20&#45; RV100, ambas condiciones proporcionan reforzamiento con la misma raz&oacute;n de probabilidades (5 a 1), sin embargo, la primera condici&oacute;n permite una tasa de reforzamiento mucho mayor que la de la segunda. Consecuentemente, la primera condici&oacute;n proporciona un n&uacute;mero mayor de oportunidades de aprendizaje por respuesta. Los datos aqu&iacute; reportados son inconsistentes con esta interpretaci&oacute;n del papel de la diferencia en probabilidad de reforzamiento en programas m&uacute;ltiples.</font></p>  	    <p align="justify"><font face="verdana" size="2">Una posible explicaci&oacute;n de la diferencia en el efecto de la densidad de reforzamiento en programas concurrentes y m&uacute;ltiples, es las diferentes restricciones temporales asociadas con ellos. En el primer procedimiento hay una restricci&oacute;n lineal que implica que las respuestas compiten por el mismo tiempo disponible. En contraste, en los programas m&uacute;ltiples hay dos restricciones lineales, cada una de ellas asociada a uno de los componentes, y consecuentemente las respuestas reforzadas no compiten por un tiempo com&uacute;n. La implicaci&oacute;n de esta diferencia en restricciones, es que en programas concurrentes, la competencia por el tiempo disponible magnifica el papel de la densidad de reforzamiento, de forma tal que la respuesta reforzada con mayor probabilidad, en este caso la respuesta reforzada con el RV 5, absorbe una mayor parte del tiempo disponible.</font></p>  	    <p align="justify"><font face="verdana" size="2">El efecto de la raz&oacute;n de probabilidades sobre la rapidez con la que cambian las tasas de respuesta es consistente con la posici&oacute;n que atribuye dicho efecto a la discriminabilidad entre la probabilidad de reforzamiento en el componente rico y el pobre. Al igual que en otras dimensiones sensoriales la discriminabilidad depende de las razones y no de las diferencias entre est&iacute;mulos. La raz&oacute;n de probabilidades generada por el programa m&uacute;ltiple RV 20 RV 100 es mucho m&aacute;s discriminable que la raz&oacute;n que resulta del programa RV 13 RV 25, a pesar de que en ambas condiciones la diferencia entre probabilidades de reforzamiento es la misma (0.04).</font></p>  	    <p align="justify"><font face="verdana" size="2">La literatura en programas concurrentes asume que el proceso de comparaci&oacute;n es entre la probabilidad de reforzamiento asociada con cada respuesta disponible simult&aacute;neamente. En el caso de los programas m&uacute;ltiples, las diferentes extensiones de la ley del efecto relativa para dar cuenta de la ejecuci&oacute;n que se obtiene en equilibrio (Williams, 1983), implican que por analog&iacute;a, la comparaci&oacute;n en transiciones es tambi&eacute;n entre las probabilidades de reforzamiento programadas para los dos componentes. Sin embargo, el patr&oacute;n observado en las curvas de adquisici&oacute;n de las tasas absolutas de respuesta, sugieren reconsiderar las variables que operan en el aprendizaje en los programas m&uacute;ltiples. En el caso de los programas m&uacute;ltiples, no es f&aacute;cil comparar las respuestas reforzadas en diferentes componentes, por lo que la adaptaci&oacute;n a las nuevas condiciones en transici&oacute;n parece darse comparando la probabilidad de reforzamiento en cada componente separado, con las condiciones de reforzamiento en el mismo componente durante la fase de entrenamiento. Una forma de evaluar dicha hip&oacute;tesis es tomando ventaja de que los programas m&uacute;ltiples permiten separar las tasas relativas de respuesta de las absolutas. El patr&oacute;n de resultados observados en la <a href="/img/revistas/aip/v1n1/a13f2.jpg" target="_blank">Figura 2</a> es consistente con la suposici&oacute;n de que la discriminabilidad entre la probabilidad de reforzamiento en la fase de entrenamiento y la de transici&oacute;n es la variable importante. As&iacute;, el cambio m&aacute;s discriminativo en reforzamiento se dio en la condici&oacute;n RV20 &#45; RV100, que en entrenamiento era RV33. Mientras que el cambio menos discriminativo en reforzamiento se obtuvo en la condici&oacute;n RV5 &#45;RV25, que en entrenamiento era RV8. Por ejemplo, para el caso del programa m&uacute;ltiple RV 20 RV 100, con un programa en entrenamiento RV 33, las probabilidades de reforzamiento fueron respectivamente .05, .01 y .033. En este caso los animales comparar&iacute;an la raz&oacute;n de .05 a .033 igual a s&oacute;lo 1.667 veces m&aacute;s probable el reforzamiento, en el componente rico y .01 a .033 igual a .333 (un tercio menos probable) en el componente pobre.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Consistente con la hip&oacute;tesis que los animales comparan, para cada respuesta por separado, las probabilidades de reforzamiento en entrenamiento y transici&oacute;n, fue lo obtenido cuando la raz&oacute;n de probabilidades de reforzamiento fue igual a 5 a 1. En las tres condiciones hubo un decremento en la tasa de respuesta durante el componente pobre, conforme decremento su probabilidad de reforzamiento y simult&aacute;neamente, la tasa de respuesta en el componente rico tambi&eacute;n disminuy&oacute; conforme incremento su probabilidad de reforzamiento. Un efecto de techo es una explicaci&oacute;n alternativa del menor cambio en la tasa absoluta de respuesta en el componente rico Sin embargo, en otros experimentos con programas m&uacute;ltiples RV&#45;RV las tasa de respuesta para requisitos de respuesta similares fue mucho m&aacute;s alta que la obtenida en el presente experimento (e.g., Zuriff, 1970).</font></p>  	    <p align="justify"><font face="verdana" size="2">Lo anterior no quiere decir que las condiciones de reforzamiento en el componente alterno durante transici&oacute;n no jueguen un papel. Es bien conocido que en programas m&uacute;ltiples, manteniendo otras variables constantes, la tasa de respuesta en un componente es una funci&oacute;n inversa de la tasa de reforzamiento en el componente alterno, fen&oacute;meno conocido como contraste conductual (Williams, 1983). El dise&ntilde;o del estudio no ten&iacute;a como uno de sus objetivos estudiar el curso del contraste conductual observado en programas m&uacute;ltiples. Sin embargo, en la <a href="/img/revistas/aip/v1n1/a13f2.jpg" target="_blank">Figura 2</a> puede verse que las condiciones que comparten un RV25 y un RV50, muestran clara evidencia de contraste conductual. La tasa de respuesta asociada al RV50 fue m&aacute;s baja cuando altern&oacute; con un RV10 que con un RV17. De igual forma, la tasa de respuesta asociada al RV25 fue m&aacute;s baja cuando altern&oacute; con un RV5 que con RV13. En su conjunto, los resultados obtenidos indican la necesidad de obtener m&aacute;s datos que permitan separar las comparaciones sucesivas de las simult&aacute;neas y encontrar cuando una o la otra es m&aacute;s probable. Por ejemplo, es posible que reducir la duraci&oacute;n de los componentes del programa m&uacute;ltiple, aumente la probabilidad de que los organismos lleven a cabo una comparaci&oacute;n simult&aacute;nea.</font></p>  	    <p align="justify"><font face="verdana" size="2">En resumen, los datos aqu&iacute; reportados sugieren que para integrar los resultados de los experimentos en elecci&oacute;n simult&aacute;nea con los de elecci&oacute;n intertemporal, los modelos cuantitativos de la adaptaci&oacute;n a cambios en las condiciones de reforzamiento en programas m&uacute;ltiples, deben considerar el papel de las diferencias en restricciones temporales entre programas m&uacute;ltiples y concurrentes, las variables que determinan el peso de las comparaciones sucesivas y simult&aacute;neas en la probabilidad de reforzamiento y la recuperaci&oacute;n espont&aacute;nea frecuentemente observada (Dragoi &amp; Staddon, 1999).</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Referencias</b></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Bailey, J. T., &amp; Mazur, E. J. (1990). Choice behavior in transition development of preference for the higher probability of reinforcement. <i>Journal of the Experimental Analysis of Behavior, 3,</i> 409&#45;422.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090029&pid=S2007-4832201100010001300001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Baum, W. M. (1974). On two types of deviation for the matching law: Bias and undermatching. <i>Journal of the Experimental Analysis of Behavior, 22,</i> 231241.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090031&pid=S2007-4832201100010001300002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Baum, W. M., &amp; Davison, M. (2004). Every reinforcer counts: Visit patterns in the dynamics of choice. <i>Journal of the Experimental Analysis of Behavior, 81,</i> 85&#45;127.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090033&pid=S2007-4832201100010001300003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Brown, P. L., &amp; Jenkins, H. M. (1968). Auto shaping of the pigeon's key peak. <i>Journal of the Experimental Analysis of Behavior, 11,</i> 151&#45;160.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090035&pid=S2007-4832201100010001300004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Belke, T. W., &amp; Heyman, G. M. (1994). Increasing and signaling background reinforcement: Effect on the foreground response&#45;reinforcer relation. <i>Journal of the Experimental Analysis of Behavior,</i> 61, 65&#45;81.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090037&pid=S2007-4832201100010001300005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Davison, M., &amp; Baum W. (2000). Choice in a variable environment: Every reinforcer counts. <i>Journal of the Experimental Analysis of Behavior, 74,</i> 1 &#45;24.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090039&pid=S2007-4832201100010001300006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Davison, M., &amp; Baum, W. M. (2002). Choice in a variable environment: Effects of blackout duration and extinction between components. <i>Journal of the Experimental Analysis of Behavior, 77,</i> 65&#45;89.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090041&pid=S2007-4832201100010001300007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Davison, M., &amp; Baum, W. M. (2003). Every reinforcer counts: Reinforcer magnitude and local preference. <i>Journal of the Experimental Analysis of Behavior, 80,</i> 95&#45;129.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090043&pid=S2007-4832201100010001300008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Davison, M., &amp; Baum, W. M. (2006). Do conditional reinforcers count? <i>Journal of</i> <i>the Experimental Analysis of Behavior, 86,</i> 269&#45;283.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090045&pid=S2007-4832201100010001300009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Davison, M., &amp; Baum, W. M. (2007). Local effects of delayed food. <i>Journal of the</i> <i>Experimental Analysis of Behavior, 87,</i> 241&#45;260.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090047&pid=S2007-4832201100010001300010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Davison, M., &amp; McCarthy, D. (1988). <i>The matching law: A research review.</i> Hillsdale, NJ:Erlbaum.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090049&pid=S2007-4832201100010001300011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Dragoi, V., &amp; Staddon, J. E. R. (1999). The dynamics of operant conditioning. <i>Psychological Review, 106,</i> 20&#45;61.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090051&pid=S2007-4832201100010001300012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Fleshler, M., &amp; Hoffman, H. S. (1962) A progression for generating variable&#45;interval schedules. <i>Journal of the Experimental Analysis of Behavior, 5,</i> 529&#45;530.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090053&pid=S2007-4832201100010001300013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Grace, R. C., &amp; McLean, A. P. (2006). Rapid acquisition in concurrent chains: Evidence for a decision model. <i>Journal of the Experimental Analysis of</i> <i>Behavior,</i> 85,181&#45;202.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090055&pid=S2007-4832201100010001300014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Grace, R. C., Bragason, O., &amp; McLean, A. P. (2003). Rapid acquisition of preference in concurrent chains. <i>Journal of the Experimental Analysis of Behavior, 80,</i> 235&#45;252.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090057&pid=S2007-4832201100010001300015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Herrnstein, R. J. (1970). On the law of effect. <i>Journal of the Experimental Analysis of Behavior, 13,</i> 243&#45;266.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090059&pid=S2007-4832201100010001300016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Herrnstein, R. J. (1997). Relative and absolute strength of responses as a function of frequency of reinforcement. En H. Rachlin &amp; D. I. Laibson (Eds.), <i>The matching law: Papers in psychology and economics</i> (pp. 15 &#45;21). Cambridge, MA, E. U.: Harvard University Press.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090061&pid=S2007-4832201100010001300017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Kyonka, E. G. E., &amp; Grace, R. C. (2008). Rapid acquisition of preference in concurrent chains when alternatives differ on multiple dimensions of reinforcement. <i>Journal of the Experimental Analysis of Behavior, 89,</i> 49&#45;69.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090063&pid=S2007-4832201100010001300018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Kr&auml;geloh, C. U., &amp; Davison, M. (2003). Concurrent schedule performance in transition: Changeover delays and signaled reinforcer ratios. <i>Journal of the Experimental Analysis of Behavior, 79,</i> 87&#45;109.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090065&pid=S2007-4832201100010001300019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Landon, J., &amp; Davison, M. (2001). Reinforcer&#45;ratio variation and its effects on rate of adaptation. <i>Journal of the Experimental Analysis of Behavior, 75,</i> 207234.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090067&pid=S2007-4832201100010001300020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Landon, J., Davison, M., &amp; Elliffe, D. (2003). Choice in a variable environment: Effects of unequal reinforce distributions. <i>Journal of the Experimental</i> <i>Analysis of Behavior, 80,</i> 187&#45;204.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090069&pid=S2007-4832201100010001300021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Maguire, D. R., Hughes, C. E., &amp; Pitts, R. C. (2007). Rapid acquisition of preference in concurrent schedule: Effects of reinforcement amount. <i>Behavioural Processes, 75,</i> 213&#45;219.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090071&pid=S2007-4832201100010001300022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Mazur, J. E. (1992). Choice behavior in transition: Development of preference with ratio and interval schedules. <i>Journal of Experimental Psychology: Animal</i> <i>Behavior Processes, 18,</i> 364&#45;378.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090073&pid=S2007-4832201100010001300023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Mazur, J. E. (1995). Development of preference and spontaneous recovery in choice behavior with concurrent variable&#45;interval schedules. <i>Animal</i> <i>Learning &amp; Behavior, 24,</i> 93&#45;103.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090075&pid=S2007-4832201100010001300024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Mazur, J. E. (1996). Past experience, recency, and spontaneous recovery in choice behavior. <i>Animal Learning &amp; Behavior, 24,</i> 1&#45;10.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090077&pid=S2007-4832201100010001300025&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Mazur, J. E. (1997). Effects of rate of reinforcement and rate of change on choice behavior in transition. <i>Quarterly Journal of. Experimental Psychology, 50B,</i> 111 &#45;128.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090079&pid=S2007-4832201100010001300026&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Mazur, J. E. (2001). Transitional choice behavior in concurrent&#45;chain schedules. <i>Behavioural Processes, 53,</i> 171&#45;180.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090081&pid=S2007-4832201100010001300027&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Mazur, J. E., &amp; Ratti, T. A. (1991). Choice behavior in transition: Development of preference in a free&#45;operant procedure. <i>Animal Learning &amp; Behavior, 19,</i> 241&#45;248.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090083&pid=S2007-4832201100010001300028&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Schofield, G., &amp; Davison, M. (1997). Nonstable concurrent choice in pigeons. <i>Journal of the Experimental Analysis of Behavior, 68,</i> 219&#45;232.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090085&pid=S2007-4832201100010001300029&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Stephens, D. W., &amp; Krebs, J. R. (1986). <i>Foraging theory.</i> Princeton, NJ., E. U.: Princeton University Press.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090087&pid=S2007-4832201100010001300030&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Stephens, D. W., Brown, J. S., &amp; Ydelberg, R. C. (2007). <i>Foraging: Behavior and</i> <i>ecology.</i> Chicago, E.U.: The University Chicago Press.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090089&pid=S2007-4832201100010001300031&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Williams, B. A. (1983). Another look at the contrast in multiple schedules. <i>Journal</i> <i>of the Experimental Analysis of Behavior, 39,</i> 345&#45;384.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090091&pid=S2007-4832201100010001300032&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Williams, B. A. (1994). Reinforcement and choice. En N. J. Mackintosh (Ed.), <i>Animal learning and cognition</i> (pp. 81 &#45;108). San Diego, CA., E.U.: Academic Press.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090093&pid=S2007-4832201100010001300033&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Williams, B. A. (1988). Reinforcement, choice, and response strength. En R. C. Atkinson, R. J. Herrnstein, G. Lindzey, &amp; R. D. Luce, (Eds), <i>Steven's handbook of experimental psychology, Vol. 2: Learning and cognition</i> (2a Ed., pp. 167&#45;244.) New York, E.U.: Wiley.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090095&pid=S2007-4832201100010001300034&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">Zuriff, G. E. (1970). A comparison of variable&#45;ratio and variable&#45;interval schedules of reinforcement. <i>Journal of the Experimental Analysis of Behavior, 13,</i> 369374.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=090097&pid=S2007-4832201100010001300035&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><a name="notas"></a><b>Nota</b></font></p>  	    <p align="justify"><font face="verdana" size="2"><sup>1</sup> Este escrito fue financiado por el subsidio del Proyecto CONACYT N&deg; 104396 y el proyecto UNAM&#45;PAPIIT&#45;IN307310. Los autores agraden a Vladimir Ordu&ntilde;a la revisi&oacute;n previa de este escrito.</font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bailey]]></surname>
<given-names><![CDATA[J. T.]]></given-names>
</name>
<name>
<surname><![CDATA[Mazur]]></surname>
<given-names><![CDATA[E. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Choice behavior in transition development of preference for the higher probability of reinforcement.]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>1990</year>
<volume>3</volume>
<page-range>409-422</page-range></nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Baum]]></surname>
<given-names><![CDATA[W. M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[On two types of deviation for the matching law: Bias and undermatching.]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>1974</year>
<volume>22</volume>
<page-range>231241</page-range></nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Baum]]></surname>
<given-names><![CDATA[W. M.]]></given-names>
</name>
<name>
<surname><![CDATA[Davison]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Every reinforcer counts: Visit patterns in the dynamics of choice.]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>2004</year>
<volume>81</volume>
<page-range>85-127</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Brown]]></surname>
<given-names><![CDATA[P. L.]]></given-names>
</name>
<name>
<surname><![CDATA[Jenkins]]></surname>
<given-names><![CDATA[H. M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Auto shaping of the pigeon's key peak.]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>1968</year>
<volume>11</volume>
<page-range>151-160</page-range></nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Belke]]></surname>
<given-names><![CDATA[T. W.]]></given-names>
</name>
<name>
<surname><![CDATA[Heyman]]></surname>
<given-names><![CDATA[G. M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Increasing and signaling background reinforcement: Effect on the foreground response-reinforcer relation.]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>1994</year>
<volume>61</volume>
<page-range>65-81</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Davison]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Baum]]></surname>
<given-names><![CDATA[W.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Choice in a variable environment: Every reinforcer counts.]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>2000</year>
<volume>74</volume>
<page-range>1 -24</page-range></nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Davison]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Baum]]></surname>
<given-names><![CDATA[W. M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Choice in a variable environment: Effects of blackout duration and extinction between components.]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>2002</year>
<volume>77</volume>
<page-range>65-89</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Davison]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Baum]]></surname>
<given-names><![CDATA[W. M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Every reinforcer counts: Reinforcer magnitude and local preference.]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>2003</year>
<volume>80</volume>
<page-range>95-129</page-range></nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Davison]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Baum]]></surname>
<given-names><![CDATA[W. M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Do conditional reinforcers count?]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>2006</year>
<volume>86</volume>
<page-range>269-283</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Davison]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Baum]]></surname>
<given-names><![CDATA[W. M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Local effects of delayed food]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>2007</year>
<volume>87</volume>
<page-range>241-260</page-range></nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Davison]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[McCarthy]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<source><![CDATA[The matching law: A research review]]></source>
<year>1988</year>
<publisher-loc><![CDATA[Hillsdale^eNJ NJ]]></publisher-loc>
<publisher-name><![CDATA[Erlbaum]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Dragoi]]></surname>
<given-names><![CDATA[V.]]></given-names>
</name>
<name>
<surname><![CDATA[Staddon]]></surname>
<given-names><![CDATA[J. E. R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The dynamics of operant conditioning]]></article-title>
<source><![CDATA[Psychological Review]]></source>
<year>1999</year>
<volume>106</volume>
<page-range>20-61</page-range></nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Fleshler]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Hoffman]]></surname>
<given-names><![CDATA[H. S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A progression for generating variable-interval schedules.]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>1962</year>
<volume>5</volume>
<page-range>529-530</page-range></nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Grace]]></surname>
<given-names><![CDATA[R. C.]]></given-names>
</name>
<name>
<surname><![CDATA[McLean]]></surname>
<given-names><![CDATA[A. P.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Rapid acquisition in concurrent chains: Evidence for a decision model.]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>2006</year>
<volume>85</volume>
<page-range>181-202</page-range></nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Grace]]></surname>
<given-names><![CDATA[R. C.]]></given-names>
</name>
<name>
<surname><![CDATA[Bragason]]></surname>
<given-names><![CDATA[O.]]></given-names>
</name>
<name>
<surname><![CDATA[McLean]]></surname>
<given-names><![CDATA[A. P.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Rapid acquisition of preference in concurrent chains.]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>2003</year>
<volume>80</volume>
<page-range>235-252</page-range></nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Herrnstein]]></surname>
<given-names><![CDATA[R. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[On the law of effect.]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>1970</year>
<volume>13</volume>
<page-range>243-266</page-range></nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Herrnstein]]></surname>
<given-names><![CDATA[R. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Relative and absolute strength of responses as a function of frequency of reinforcement.]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Rachlin]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
<name>
<surname><![CDATA[Laibson]]></surname>
<given-names><![CDATA[D. I.]]></given-names>
</name>
</person-group>
<source><![CDATA[The matching law: Papers in psychology and economics]]></source>
<year>1997</year>
<page-range>15 -21</page-range><publisher-loc><![CDATA[Cambridge^eMA MA]]></publisher-loc>
<publisher-name><![CDATA[Harvard University Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kyonka]]></surname>
<given-names><![CDATA[E. G. E.]]></given-names>
</name>
<name>
<surname><![CDATA[Grace]]></surname>
<given-names><![CDATA[R. C.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Rapid acquisition of preference in concurrent chains when alternatives differ on multiple dimensions of reinforcement.]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>2008</year>
<volume>89</volume>
<page-range>49-69</page-range></nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Krägeloh]]></surname>
<given-names><![CDATA[C. U.]]></given-names>
</name>
<name>
<surname><![CDATA[Davison]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Concurrent schedule performance in transition: Changeover delays and signaled reinforcer ratios.]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>2003</year>
<volume>79</volume>
<page-range>87-109</page-range></nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Landon]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Davison]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Reinforcer-ratio variation and its effects on rate of adaptation.]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>2001</year>
<volume>75</volume>
<page-range>207234</page-range></nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Landon]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Davison]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Elliffe]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Choice in a variable environment: Effects of unequal reinforce distributions.]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>2003</year>
<volume>80</volume>
<page-range>187-204</page-range></nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Maguire]]></surname>
<given-names><![CDATA[D. R.]]></given-names>
</name>
<name>
<surname><![CDATA[Hughes]]></surname>
<given-names><![CDATA[C. E.]]></given-names>
</name>
<name>
<surname><![CDATA[Pitts]]></surname>
<given-names><![CDATA[R. C.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Rapid acquisition of preference in concurrent schedule: Effects of reinforcement amount.]]></article-title>
<source><![CDATA[Behavioural Processes]]></source>
<year>2007</year>
<volume>75</volume>
<page-range>213-219</page-range></nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Mazur]]></surname>
<given-names><![CDATA[J. E.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Choice behavior in transition: Development of preference with ratio and interval schedules.]]></article-title>
<source><![CDATA[Journal of Experimental Psychology: Animal Behavior Processes]]></source>
<year>1992</year>
<volume>18</volume>
<page-range>364-378</page-range></nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Mazur]]></surname>
<given-names><![CDATA[J. E.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Development of preference and spontaneous recovery in choice behavior with concurrent variable-interval schedules.]]></article-title>
<source><![CDATA[Animal Learning & Behavior]]></source>
<year>1995</year>
<volume>24</volume>
<page-range>93-103</page-range></nlm-citation>
</ref>
<ref id="B25">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Mazur]]></surname>
<given-names><![CDATA[J. E.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Past experience, recency, and spontaneous recovery in choice behavior.]]></article-title>
<source><![CDATA[Animal Learning & Behavior]]></source>
<year>1996</year>
<volume>24</volume>
<page-range>1-10</page-range></nlm-citation>
</ref>
<ref id="B26">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Mazur]]></surname>
<given-names><![CDATA[J. E.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Effects of rate of reinforcement and rate of change on choice behavior in transition.]]></article-title>
<source><![CDATA[Quarterly Journal of. Experimental Psychology]]></source>
<year>1997</year>
<volume>50</volume>
<page-range>111 -128</page-range></nlm-citation>
</ref>
<ref id="B27">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Mazur]]></surname>
<given-names><![CDATA[J. E.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Transitional choice behavior in concurrent-chain schedules.]]></article-title>
<source><![CDATA[Behavioural Processes]]></source>
<year>2001</year>
<volume>53</volume>
<page-range>171-180</page-range></nlm-citation>
</ref>
<ref id="B28">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Mazur]]></surname>
<given-names><![CDATA[J. E.]]></given-names>
</name>
<name>
<surname><![CDATA[Ratti]]></surname>
<given-names><![CDATA[T. A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Choice behavior in transition: Development of preference in a free-operant procedure.]]></article-title>
<source><![CDATA[Animal Learning & Behavior]]></source>
<year>1991</year>
<volume>19</volume>
<page-range>241-248</page-range></nlm-citation>
</ref>
<ref id="B29">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Schofield]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Davison]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Nonstable concurrent choice in pigeons.]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>1997</year>
<volume>68</volume>
<page-range>219-232</page-range></nlm-citation>
</ref>
<ref id="B30">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Stephens]]></surname>
<given-names><![CDATA[D. W.]]></given-names>
</name>
<name>
<surname><![CDATA[Krebs]]></surname>
<given-names><![CDATA[J. R.]]></given-names>
</name>
</person-group>
<source><![CDATA[Foraging theory]]></source>
<year>1986</year>
<publisher-loc><![CDATA[Princeton^eNJ NJ]]></publisher-loc>
<publisher-name><![CDATA[Princeton University Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B31">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Stephens]]></surname>
<given-names><![CDATA[D. W.]]></given-names>
</name>
<name>
<surname><![CDATA[Brown]]></surname>
<given-names><![CDATA[J. S.]]></given-names>
</name>
<name>
<surname><![CDATA[Ydelberg]]></surname>
<given-names><![CDATA[R. C.]]></given-names>
</name>
</person-group>
<source><![CDATA[Foraging: Behavior and ecology]]></source>
<year>2007</year>
<publisher-loc><![CDATA[Chicago ]]></publisher-loc>
<publisher-name><![CDATA[The University Chicago Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B32">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Williams]]></surname>
<given-names><![CDATA[B. A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Another look at the contrast in multiple schedules.]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>1983</year>
<volume>39</volume>
<page-range>345-384</page-range></nlm-citation>
</ref>
<ref id="B33">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Williams]]></surname>
<given-names><![CDATA[B. A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Reinforcement and choice.]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Mackintosh]]></surname>
<given-names><![CDATA[N. J.]]></given-names>
</name>
</person-group>
<source><![CDATA[Animal learning and cognition]]></source>
<year>1994</year>
<page-range>81 -108</page-range><publisher-loc><![CDATA[San Diego^eCA. CA.]]></publisher-loc>
<publisher-name><![CDATA[Academic Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B34">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Williams]]></surname>
<given-names><![CDATA[B. A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Reinforcement, choice, and response strength.]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Atkinson]]></surname>
<given-names><![CDATA[R. C.]]></given-names>
</name>
<name>
<surname><![CDATA[Herrnstein]]></surname>
<given-names><![CDATA[R. J.]]></given-names>
</name>
<name>
<surname><![CDATA[Lindzey]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Luce]]></surname>
<given-names><![CDATA[R. D.]]></given-names>
</name>
</person-group>
<source><![CDATA[Steven's handbook of experimental psychology, Vol. 2: Learning and cognition]]></source>
<year>1988</year>
<edition>2</edition>
<page-range>167-244</page-range><publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Wiley]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B35">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zuriff]]></surname>
<given-names><![CDATA[G. E.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A comparison of variable-ratio and variable-interval schedules of reinforcement.]]></article-title>
<source><![CDATA[Journal of the Experimental Analysis of Behavior]]></source>
<year>1970</year>
<volume>13</volume>
<page-range>369374</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
