<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0185-3325</journal-id>
<journal-title><![CDATA[Salud mental]]></journal-title>
<abbrev-journal-title><![CDATA[Salud Ment]]></abbrev-journal-title>
<issn>0185-3325</issn>
<publisher>
<publisher-name><![CDATA[Instituto Nacional de Psiquiatría Ramón de la Fuente Muñiz]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0185-33252009000100004</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[La respuesta emocional a la música: atribución de términos de la emoción a segmentos musicales]]></article-title>
<article-title xml:lang="en"><![CDATA[The emotional response to music: attribution of emotions words to musical segments]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Flores-Gutiérrez]]></surname>
<given-names><![CDATA[Enrique]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Díaz]]></surname>
<given-names><![CDATA[José Luis]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Nacional Autónoma de México Facultad de Psicología ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Nacional Autónoma de México Facultad de Medicina Departamento de Historia y Filosofía de la Medicina]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>02</month>
<year>2009</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>02</month>
<year>2009</year>
</pub-date>
<volume>32</volume>
<numero>1</numero>
<fpage>21</fpage>
<lpage>34</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_arttext&amp;pid=S0185-33252009000100004&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_abstract&amp;pid=S0185-33252009000100004&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_pdf&amp;pid=S0185-33252009000100004&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="en"><p><![CDATA[Even though music is usually considered a source of intense, diverse, and specific affective states, at the present time there is not a standardized scientific procedure that reveals with reliable confidence the emotional processes and events evoked by music. The progress in understanding musical emotion crucially depends in the development of reasonable secure methods to record and analyze such a peculiar and universally-sought affective process. In 1936 Kate Hevner published a pioneer study where she used a list of 66 adjectives commonly used to categorize musical compositions arranged in a circle of eight groups of similar emotions. The volunteers selected the terms that seemed appropriate to categorize their emotional experience while they listened to masterpieces by Debussy, Mendelssohn, Paganini, Tchaikovsky, and Wagner. The results were presented in histograms showing a different profile for each piece. Subsequent studies have advanced in the methods and techniques to assess the emotions produced by music but there are many still unresolved difficulties concerning the criteria to choose the musical pieces, the terms of emotion, the design of the experiment, the proper controls, and the relevant statistical tools to analyze the results. The present study was undertaken in order to test and advance an experimental technique designed to evaluate and study the human emotions evoked by music. Specifically, the study intends to prove if different musical excerpts evoke a significant agreement in the selection of previously organized emotion terms within a relatively homogeneous population of human subjects. Since music constitutes a form of acoustic language that has been selected and developed through millennia of human cultural evolution for the expression and communication of emotional states, it is supposed that there will be a significant agreement in the attribution of terms of emotion to musical segments among human evaluators belonging to a relatively homogeneous population. The attribution system allowed both to obtain objective responses derived from introspection and to analyze the data by means of an appropriate statistical processing of data obtained in groups of subjects submitted to carefully selected musical stimuli. Volunteer subjects were 108 college-level students of both sexes with a mean age of 22 years from schools and universities located in the central Mexico. The audition and attribution sessions lasted for 90 min and were conducted in a specially adapted classroom located in each institution. Four criteria were established for the selection of the musical excerpts: instrumental music, homogeneous melody and musical theme, clear and distinct affective tone, and samples of different cultures. The ten selected pieces were: 1. Mozart's piano concerto no. 1 7, K 453, third movement; 2. A sound of the magnetic spectra of an aurora borealis, a natural event; 3. Mussorgsky's Gnome, from Pictures at an Exhibition orchestrated by Ravel; 4. Andean folk music; 5. Tchaikovsky's Fifth Symphony, second movement; 6. << Through the Never>>, heavy metal music by Metallica; 7. Japanese Usagi folk music played with koto and shyakuhachi; 8. Mahler's Fifth Symphony, second movement; 9. Taqsim Sigah, Arab folk music played with kamandja, and 1 0. Bach's Inventions in three parts for piano, BMW 797. The selected fragments and their replicas were divided in two to five musically homogeneous segments (mean segment duration: 24 seconds) and were played in different order in each occasion. The segments were played twice during the test. During the first audition, the complete piece was played in order for the subjects to become familiar with the composition and freely express their reaction in writing. During the second hearing, the same piece was played in the separate selected segments and the volunteers were asked to choose those emotion-referring terms that more accurately identified their music-evoked feelings from an adjunct chart obtained and arranged from an original list of 328 Spanish words designing particular emotions. The terms had been previously arranged in 28 sets of semantically related terms located in 14 bipolar axes of opposing affective polarity in a circumflex model of the affective system. The recorded attributions from all the subjects were captured and transformed into ranks. The non-parametric Friedman test of rank bifactorial variance for k related samples was selected for the statistical analysis of agreement. All the data were gathered in the 28 categories or sets of emotion obtained in the previous taxonomy of emotion terms and the difference among the musical segments was tested. The difference was significant for 24 of the 28 emotional categories for &#945;=0.05 and 33 degrees of freedom (Fr &#8805;43.88). In order to establish in which segments were the main significant differences, the extension of the Friedman test for comparison of groups to a control was undertaken. Thus, after applying the appropriate formula, a critical value of the difference | R1 - Ru | was established at &#8805;18.59. In this way it was possible to plot the significance level of all 28 emotion categories for each music segment and thereby to obtain the emotion profile of each selected music fragment. The differences obtained for the musical pieces were established both for the significant response of individual emotion, groups of emotions, and the global profile of the response. In all the pieces used, one or more terms showed significance. Sometimes as many as seven terms appear predominant (Mahler, Mozart). In contrast other segments produce only one or two responses (aurora borealis, Arab music). In most musical segments there were null responses implying that there was an agreement concerning not only the emotions that were present, but also those that did not occur. Concerning the global response, there were several profiles recognizable among different pieces. The histogram is slanted to the left when positive and vigorous emotions are reported (Tchaikovsky, Bach). The predominance of emotions in the center-right sector corresponds to negative and quiet emotions (Arab music) or in the fourth sector of negative and agitated emotions (Mahler). Sometimes a <<U>> shaped profile was obtained when vigorous emotions predominated (Mahler, Metallica). A bell-shaped response was obtained when calm emotions were reported, both pleasant and unpleasant (Japanese music). There is also music that globally stimulates one of the four quadrants defined in the affective circle, such as pleasant (Mozart), unpleasant (Mussorgsky), exciting (Metallica) or relaxing emotions (Japanese music). The only segment that produced scattered responses in the four sectors of emotions was the aurora borealis. Very similar profiles were obtained with very different pieces, such as the identical responses to Mozart and Andean music. It is necessary to analyze the individual emotion terms to distinguish them. Several common characteristics can be detected in these two pieces, such as fast speed in tempo allegro, binary rhythm, counterpoint figures, and ascending melody, well known features in music composition. In contrast other segments evoked unpleasant responses (Mussorgsky), where fear, tension, doubt or pain was reported. The listener probably concedes a high value to a piece that evokes emotions that normally avoids in the context of a controlled artistic experience.]]></p></abstract>
<abstract abstract-type="short" xml:lang="es"><p><![CDATA[A pesar de que la música se considera habitualmente una fuente de estados afectivos variados diferentes e intensos, no existe una técnica en la ciencia que revele con suficiente fidelidad experimental los procesos y estados emocionales evocados por ella. Es así que el progreso en el entendimiento de la emoción musical depende críticamente del desarrollo de métodos razonablemente seguros para registrar y analizar este peculiar proceso afectivo. El presente estudio se realizó para desarrollar y probar una técnica diseñada para el estudio de las emociones humanas provocadas por la música. En particular se estudia si diferentes piezas musicales evocan un acuerdo significativo en la selección de términos de la emoción previamente sistematizados entre una población comparable de sujetos humanos. Dado que la música constituye un tipo de lenguaje acústico evolutiva y culturalmente seleccionado para la comunicación de estados emocionales, se puede suponer un acuerdo significativo entre evaluadores de una población homogénea en la atribución de términos de la emoción a segmentos musicales cuidadosamente seleccionados. El sistema de atribución elegido permitió obtener respuestas objetivas, derivadas de la introspección, a segmentos musicales y analizar los datos mediante un procesamiento estadístico apropiado de nivel de acuerdo entre observadores. Los voluntarios fueron 108 estudiantes con una edad promedio de 22 años, de ambos sexos, de cuatro escuelas de nivel superior en los Estados mexicanos de Querétaro y Guanajuato. Las sesiones duraron 90 minutos cada una y se realizaron en un salón adaptado en cada centro pedagógico. En las sesiones de audición y atribución se tocaron 10 obras musicales: cinco del repertorio clásico, cuatro del inventario popular propio y ajeno, así como la sonorización del espectro magnético de una aurora boreal, un fenómeno natural. Los fragmentos seleccionados, divididos en dos a cinco segmentos de 24seg de duración en promedio, se reprodujeron con diferente orden y en dos pasos consecutivos. Primero se tocó la sección completa para que el oyente expresara libremente sus reacciones por escrito. A continuación se tocaron los segmentos de la misma obra y el oyente escogió términos de la emoción que mejor identificaran su respuesta afectiva a cada uno de ellos a partir de un compendio adjunto. El formato de respuestas presentaba un arreglo donde el sujeto realizó la selección y atribución de los términos de la emoción que le evocaron los diferentes segmentos musicales al tiempo de escucharlos. Para esta tarea se proveyó a los sujetos de un esquema circular de términos de la emoción, anexo al formato, el cual se obtuvo a partir de una lista de 328 palabras en castellano que denominan emociones particulares. Los términos fueron agrupados finalmente en 28 conjuntos y 14 ejes de polaridades afectivas opuestas en un modelo circular del sistema afectivo, con un total de 168 términos. Para el análisis estadístico, las atribuciones de todos los sujetos participantes fueron transformadas a rangos y se aplicó la prueba no paramétrica de varianza bifactorial de Friedman para k muestras relacionadas como análisis de acuerdo entre observadores. Los datos se agruparon en las 28 categorías emocionales mencionadas y se probaron las diferencias entre los segmentos musicales. Éstas resultaron significativas en 24 de las 28 categorías emocionales para &#945; = 0.05, con 33 grados de libertad (Fr &#8805; 43.88). Para establecer en cuáles segmentos se ubicaban las diferencias, se aplicó la extensión de la prueba de Friedman para comparaciones de grupos con un control y se obtuvo un valor crítico de las diferencias, | R1 - Ru | &#8805;18.59, con lo cual fue posible graficar el nivel de significancia de todas las categorías emocionales para cada segmento musical. De esta forma se obtuvo el perfil emocional específico de cada fragmento de música para la población analizada. Los resultados muestran que en todos los segmentos musicales hay predominio significativo de una o más categorías de la emoción y que éstos son diferentes para la mayoría de los segmentos. Si, como es verosímil suponer, los términos de la emoción elegidos por los sujetos participantes correspondían efectivamente a estados emocionales particulares, entonces la mayoría de los segmentos musicales elegidos como estímulos parecen generar una respuesta emocional semejante y relativamente específica entre los escuchas, en función de las características de su composición. Esta técnica puede ser útil para generar y analizar estados emocionales específicos en situaciones experimentales y controladas de audición musical.]]></p></abstract>
<kwd-group>
<kwd lng="en"><![CDATA[Music]]></kwd>
<kwd lng="en"><![CDATA[emotion]]></kwd>
<kwd lng="en"><![CDATA[emotion terms]]></kwd>
<kwd lng="en"><![CDATA[attribution]]></kwd>
<kwd lng="en"><![CDATA[inter-valuator agreement]]></kwd>
<kwd lng="es"><![CDATA[Música]]></kwd>
<kwd lng="es"><![CDATA[emoción]]></kwd>
<kwd lng="es"><![CDATA[términos de la emoción]]></kwd>
<kwd lng="es"><![CDATA[atribución]]></kwd>
<kwd lng="es"><![CDATA[acuerdo entre evaluadores]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="justify"><font face="verdana" size="4">Art&iacute;culo original</font></p>     <p align="center"><font face="verdana" size="2">&nbsp;</font></p>     <p align="center"><font face="verdana" size="4"><b>La respuesta emocional a la m&uacute;sica: atribuci&oacute;n de t&eacute;rminos de la emoci&oacute;n a segmentos musicales</b></font></p>     <p align="center"><font face="verdana" size="2">&nbsp;</font></p>     <p align="center"><font face="verdana" size="3"><b>The emotional response to music: attribution of emotions words to musical segments </b></font></p>     <p align="center"><font face="verdana" size="2">&nbsp;</font></p>     <p align="center"><font face="verdana" size="2"><b>Enrique Flores&#150;Guti&eacute;rrez<sup>1</sup>, Jos&eacute; Luis D&iacute;az<sup>2*</sup></b></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><i><sup>1 </sup>Unidad de Psicofisiolog&iacute;a Aplicada, Servicios Cl&iacute;nicos, Instituto Nacional de Psiquiatr&iacute;a Ram&oacute;n de la Fuente Mu&ntilde;iz. Facultad de Psicolog&iacute;a, Universidad Nacional Aut&oacute;noma de M&eacute;xico.</i> <a href="mailto:floreseo@servidor.unam.mx">floreseo@servidor.unam.mx</a></font></p>     <p align="justify"><font face="verdana" size="2"><i><sup>2 </sup>Departamento de Historia y Filosof&iacute;a de la Medicina. Facultad de Medicina, Universidad Nacional Aut&oacute;noma de M&eacute;xico.</i> <a href="mailto:jldiaz@correo.unam.mx">jldiaz@correo.unam.mx</a></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b><sup>*</sup>Correspondencia:</b>    <br>     <i>Jos&eacute; Luis D&iacute;az.    <br>     Departamento de Historia y Filosof&iacute;a de la Medicina.    <br>   Facultad de Medicina,    <br>   Universidad Nacional Aut&oacute;noma de M&eacute;xico, UNAM,    <br>   M&eacute;xico, D.F.</i></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2">Recibido: 23 de julio de 2008    <br>   Aceptado: 29 de agosto de 2008</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Abstract</b></font></p>     <p align="justify"><font face="verdana" size="2">Even though music is usually considered a source of intense, diverse, and specific affective states, at the present time there is not a standardized scientific procedure that reveals with reliable confidence the emotional processes and events evoked by music. The progress in understanding musical emotion crucially depends in the development of reasonable secure methods to record and analyze such a peculiar and universally&#150;sought affective process.</font></p>     <p align="justify"><font face="verdana" size="2">In 1936 Kate Hevner published a pioneer study where she used a list of 66 adjectives commonly used to categorize musical compositions arranged in a circle of eight groups of similar emotions. The volunteers selected the terms that seemed appropriate to categorize their emotional experience while they listened to masterpieces by Debussy, Mendelssohn, Paganini, Tchaikovsky, and Wagner. The results were presented in histograms showing a different profile for each piece. Subsequent studies have advanced in the methods and techniques to assess the emotions produced by music but there are many still unresolved difficulties concerning the criteria to choose the musical pieces, the terms of emotion, the design of the experiment, the proper controls, and the relevant statistical tools to analyze the results.</font></p>     <p align="justify"><font face="verdana" size="2">The present study was undertaken in order to test and advance an experimental technique designed to evaluate and study the human emotions evoked by music. Specifically, the study intends to prove if different musical excerpts evoke a significant agreement in the selection of previously organized emotion terms within a relatively homogeneous population of human subjects. Since music constitutes a form of acoustic language that has been selected and developed through millennia of human cultural evolution for the expression and communication of emotional states, it is supposed that there will be a significant agreement in the attribution of terms of emotion to musical segments among human evaluators belonging to a relatively homogeneous population. The attribution system allowed both to obtain objective responses derived from introspection and to analyze the data by means of an appropriate statistical processing of data obtained in groups of subjects submitted to carefully selected musical stimuli.</font></p>     <p align="justify"><font face="verdana" size="2">Volunteer subjects were 108 college&#150;level students of both sexes with a mean age of 22 years from schools and universities located in the central Mexico. The audition and attribution sessions lasted for 90 min and were conducted in a specially adapted classroom located in each institution. Four criteria were established for the selection of the musical excerpts: instrumental music, homogeneous melody and musical theme, clear and distinct affective tone, and samples of different cultures. The ten selected pieces were: 1. Mozart's piano concerto no. 1 7, K 453, third movement; 2. A sound of the magnetic spectra of an aurora borealis, a natural event; 3. Mussorgsky's <i>Gnome, </i>from <i>Pictures at an Exhibition </i>orchestrated by Ravel; 4. Andean folk music; 5. Tchaikovsky's <i>Fifth Symphony, </i>second movement; 6. &lt;&lt; <i>Through the Never&gt;&gt;, </i>heavy metal music by Metallica; 7. Japanese <i>Usagi</i> folk music played with <i>koto </i>and <i>shyakuhachi; </i>8. Mahler's <i>Fifth Symphony, </i>second movement; 9. <i>Taqsim Sigah, </i>Arab folk music played with <i>kamandja, </i>and 1 0. Bach's <i>Inventions </i>in three parts for piano, BMW 797.</font></p>     <p align="justify"><font face="verdana" size="2">The selected fragments and their replicas were divided in two to five musically homogeneous segments (mean segment duration: 24 seconds) and were played in different order in each occasion. The segments were played twice during the test. During the first audition, the complete piece was played in order for the subjects to become familiar with the composition and freely express their reaction in writing. During the second hearing, the same piece was played in the separate selected segments and the volunteers were asked to choose those emotion&#150;referring terms that more accurately identified their music&#150;evoked feelings from an adjunct chart obtained and arranged from an original list of 328 Spanish words designing particular emotions. The terms had been previously arranged in 28 sets of semantically related terms located in 14 bipolar axes of opposing affective polarity in a circumflex model of the affective system.</font></p>     <p align="justify"><font face="verdana" size="2">The recorded attributions from all the subjects were captured and transformed into ranks. The non&#150;parametric Friedman test of rank bifactorial variance for k related samples was selected for the statistical analysis of agreement. All the data were gathered in the 28 categories or sets of emotion obtained in the previous taxonomy of emotion terms and the difference among the musical segments was tested. The difference was significant for 24 of the 28 emotional categories for &#945;=0.05 and 33 degrees of freedom (F<sub>r</sub> &ge;43.88). In order to establish in which segments were the main significant differences, the extension of the Friedman test for comparison of groups to a control was undertaken. Thus, after applying the appropriate formula, a critical value of the difference | R<sub>1</sub> &#150; R<sub>u</sub> | was established at &ge;18.59. In this way it was possible to plot the significance level of all 28 emotion categories for each music segment and thereby to obtain the emotion profile of each selected music fragment.</font></p>     <p align="justify"><font face="verdana" size="2">The differences obtained for the musical pieces were established both for the significant response of individual emotion, groups of emotions, and the global profile of the response. In all the pieces used, one or more terms showed significance. Sometimes as many as seven terms appear predominant (Mahler, Mozart). In contrast other segments produce only one or two responses (aurora borealis, Arab music). In most musical segments there were null responses implying that there was an agreement concerning not only the emotions that were present, but also those that did not occur.</font></p>     <p align="justify"><font face="verdana" size="2">Concerning the global response, there were several profiles recognizable among different pieces. The histogram is slanted to the left when positive and vigorous emotions are reported (Tchaikovsky, Bach). The predominance of emotions in the center&#150;right sector corresponds to negative and quiet emotions (Arab music) or in the fourth sector of negative and agitated emotions (Mahler). Sometimes a &lt;&lt;U&gt;&gt; shaped profile was obtained when vigorous emotions predominated (Mahler, Metallica). A bell&#150;shaped response was obtained when calm emotions were reported, both pleasant and unpleasant (Japanese music). There is also music that globally stimulates one of the four quadrants defined in the affective circle, such as pleasant (Mozart), unpleasant (Mussorgsky), exciting (Metallica) or relaxing emotions (Japanese music). The only segment that produced scattered responses in the four sectors of emotions was the aurora borealis. Very similar profiles were obtained with very different pieces, such as the identical responses to Mozart and Andean music. It is necessary to analyze the individual emotion terms to distinguish them. Several common characteristics can be detected in these two pieces, such as fast speed in tempo allegro, binary rhythm, counterpoint figures, and ascending melody, well known features in music composition. In contrast other segments evoked unpleasant responses (Mussorgsky), where <i>fear, tension, doubt</i> or <i>pain </i>was reported. The listener probably concedes a high value to a piece that evokes emotions that normally avoids in the context of a controlled artistic experience.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">The cultural factor seems to have influenced the results, since the responses were more defined and robust with familiar types of music so that Japanese and Arab music evoked the least distinctive and robust responses. It would be of interest to perform a similar experiment in Arab and Japanese subjects to compare the response.</font></p>     <p align="justify"><font face="verdana" size="2">If the terms of emotion selected by the volunteer subjects actually corresponded to relatively discrete emotional states, most musical segments appear to evoke an emotional response that is similar among the subjects due to their composition and interpretation characteristics. Musical segments selected for their expressive characteristics seem to generate an emotional response which is similar among listeners with comparable cultural and educational backgrounds. This technique may be useful to generate and analyze specific emotional status in experimentally&#150;controlled situations of musical audition.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Key words:</b> Music, emotion, emotion terms, attribution, inter&#150;valuator agreement.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Resumen</b></font></p>     <p align="justify"><font face="verdana" size="2">A pesar de que la m&uacute;sica se considera habitualmente una fuente de estados afectivos variados diferentes e intensos, no existe una t&eacute;cnica en la ciencia que revele con suficiente fidelidad experimental los procesos y estados emocionales evocados por ella. Es as&iacute; que el progreso en el entendimiento de la emoci&oacute;n musical depende cr&iacute;ticamente del desarrollo de m&eacute;todos razonablemente seguros para registrar y analizar este peculiar proceso afectivo.</font></p>     <p align="justify"><font face="verdana" size="2">El presente estudio se realiz&oacute; para desarrollar y probar una t&eacute;cnica dise&ntilde;ada para el estudio de las emociones humanas provocadas por la m&uacute;sica. En particular se estudia si diferentes piezas musicales evocan un acuerdo significativo en la selecci&oacute;n de t&eacute;rminos de la emoci&oacute;n previamente sistematizados entre una poblaci&oacute;n comparable de sujetos humanos. Dado que la m&uacute;sica constituye un tipo de lenguaje ac&uacute;stico evolutiva y culturalmente seleccionado para la comunicaci&oacute;n de estados emocionales, se puede suponer un acuerdo significativo entre evaluadores de una poblaci&oacute;n homog&eacute;nea en la atribuci&oacute;n de t&eacute;rminos de la emoci&oacute;n a segmentos musicales cuidadosamente seleccionados. El sistema de atribuci&oacute;n elegido permiti&oacute; obtener respuestas objetivas, derivadas de la introspecci&oacute;n, a segmentos musicales y analizar los datos mediante un procesamiento estad&iacute;stico apropiado de nivel de acuerdo entre observadores.</font></p>     <p align="justify"><font face="verdana" size="2">Los voluntarios fueron 108 estudiantes con una edad promedio de 22 a&ntilde;os, de ambos sexos, de cuatro escuelas de nivel superior en los Estados mexicanos de Quer&eacute;taro y Guanajuato. Las sesiones duraron 90 minutos cada una y se realizaron en un sal&oacute;n adaptado en cada centro pedag&oacute;gico. En las sesiones de audici&oacute;n y atribuci&oacute;n se tocaron 10 obras musicales: cinco del repertorio cl&aacute;sico, cuatro del inventario popular propio y ajeno, as&iacute; como la sonorizaci&oacute;n del espectro magn&eacute;tico de una aurora boreal, un fen&oacute;meno natural. Los fragmentos seleccionados, divididos en dos a cinco segmentos de 24seg de duraci&oacute;n en promedio, se reprodujeron con diferente orden y en dos pasos consecutivos. Primero se toc&oacute; la secci&oacute;n completa para que el oyente expresara libremente sus reacciones por escrito. A continuaci&oacute;n se tocaron los segmentos de la misma obra y el oyente escogi&oacute; t&eacute;rminos de la emoci&oacute;n que mejor identificaran su respuesta afectiva a cada uno de ellos a partir de un compendio adjunto. El formato de respuestas presentaba un arreglo donde el sujeto realiz&oacute; la selecci&oacute;n y atribuci&oacute;n de los t&eacute;rminos de la emoci&oacute;n que le evocaron los diferentes segmentos musicales al tiempo de escucharlos. Para esta tarea se provey&oacute; a los sujetos de un esquema circular de t&eacute;rminos de la emoci&oacute;n, anexo al formato, el cual se obtuvo a partir de una lista de 328 palabras en castellano que denominan emociones particulares. Los t&eacute;rminos fueron agrupados finalmente en 28 conjuntos y 14 ejes de polaridades afectivas opuestas en un modelo circular del sistema afectivo, con un total de 168 t&eacute;rminos.</font></p>     <p align="justify"><font face="verdana" size="2">Para el an&aacute;lisis estad&iacute;stico, las atribuciones de todos los sujetos participantes fueron transformadas a rangos y se aplic&oacute; la prueba no param&eacute;trica de varianza bifactorial de Friedman para k muestras relacionadas como an&aacute;lisis de acuerdo entre observadores. Los datos se agruparon en las 28 categor&iacute;as emocionales mencionadas y se probaron las diferencias entre los segmentos musicales. &Eacute;stas resultaron significativas en 24 de las 28 categor&iacute;as emocionales para &#945; = 0.05, con 33 grados de libertad (F<sub>r </sub>&ge; 43.88). Para establecer en cu&aacute;les segmentos se ubicaban las diferencias, se aplic&oacute; la extensi&oacute;n de la prueba de Friedman para comparaciones de grupos con un control y se obtuvo un valor cr&iacute;tico de las diferencias, | R<sub>1</sub> &#150; R<sub>u</sub> | &ge;18.59, con lo cual fue posible graficar el nivel de significancia de todas las categor&iacute;as emocionales para cada segmento musical. De esta forma se obtuvo el perfil emocional espec&iacute;fico de cada fragmento de m&uacute;sica para la poblaci&oacute;n analizada. Los resultados muestran que en todos los segmentos musicales hay predominio significativo de una o m&aacute;s categor&iacute;as de la emoci&oacute;n y que &eacute;stos son diferentes para la mayor&iacute;a de los segmentos. Si, como es veros&iacute;mil suponer, los t&eacute;rminos de la emoci&oacute;n elegidos por los sujetos participantes correspond&iacute;an efectivamente a estados emocionales particulares, entonces la mayor&iacute;a de los segmentos musicales elegidos como est&iacute;mulos parecen generar una respuesta emocional semejante y relativamente espec&iacute;fica entre los escuchas, en funci&oacute;n de las caracter&iacute;sticas de su composici&oacute;n. Esta t&eacute;cnica puede ser &uacute;til para generar y analizar estados emocionales espec&iacute;ficos en situaciones experimentales y controladas de audici&oacute;n musical.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Palabras clave:</b> M&uacute;sica, emoci&oacute;n, t&eacute;rminos de la emoci&oacute;n, atribuci&oacute;n, acuerdo entre evaluadores.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>INTRODUCCI&Oacute;N</b></font></p>     <p align="justify"><font face="verdana" size="2">El sentido y el valor que tiene la m&uacute;sica para los seres humanos est&aacute;n dados en gran medida por su notable capacidad para expresar, transmitir y evocar diversas emociones y afectos.<sup>1&#150;3</sup> Congruente con tan destacada funci&oacute;n personal y social, esta compleja expresi&oacute;n sonora parece ser una de las formas m&aacute;s antiguas, prevalecientes y universales de comunicaci&oacute;n humana.<sup>2&#150;5</sup> En el mismo sentido se ha mostrado que el estudio cient&iacute;fico de la m&uacute;sica puede proveer un acercamiento muy valioso para la comprensi&oacute;n de la evoluci&oacute;n,<sup>6&#150;8</sup> la cognici&oacute;n,<sup>9&#150;12</sup> la percepci&oacute;n<sup>13&#150;15</sup> y la neurobiolog&iacute;a humanas.<sup>16&#150;20</sup> Ahora bien, a pesar de esta relaci&oacute;n obligada entre m&uacute;sica y emoci&oacute;n, la emoci&oacute;n musical y la respuesta afectiva a la m&uacute;sica han sido temas de investigaci&oacute;n relativamente escasos y recientes.<sup>17,21&#150;24</sup></font></p>     <p align="justify"><font face="verdana" size="2">El presente trabajo se aboca al estudio de la respuesta emocional a la m&uacute;sica y a la atribuci&oacute;n de t&eacute;rminos de la emoci&oacute;n a piezas musicales seleccionadas en referencia a los estados de &aacute;nimo que su audici&oacute;n provoca en voluntarios sanos. La hip&oacute;tesis primordial de la investigaci&oacute;n supone y predice la producci&oacute;n de estados emocionales espec&iacute;ficos con la audici&oacute;n de ciertos tipos de m&uacute;sica. En 1936, Kate Hevner public&oacute; un art&iacute;culo cl&aacute;sico en esta &aacute;rea.<sup>25</sup> Su m&eacute;todo para recabar respuestas afectivas a la m&uacute;sica fue una lista de 66 adjetivos que usualmente se aplican a las composiciones musicales, arreglados en ocho grupos de matices emocionales dispuestos en c&iacute;rculo, colocando juntos t&eacute;rminos sem&aacute;nticamente semejantes. Cada oyente contaba con una lista de adjetivos ordenados para seleccionar los que estimara pertinentes a sus propias emociones, evocadas por cada est&iacute;mulo musical. Al final se compar&oacute; el n&uacute;mero de votos por adjetivo para obras de Debussy, Mendelssohn, Paganini, Tchaikowsky y Wagner. Los resultados se graficaron en histogramas que mostraron un perfil caracter&iacute;stico para cada obra con una mayor puntuaci&oacute;n en ciertos adjetivos emocionales que supuestamente reflejaban el tono afectivo espec&iacute;fico de cada pieza musical. En ese art&iacute;culo, los resultados reflejan acentuadamente lo esperado de acuerdo con el car&aacute;cter de cada obra, tal vez por un sesgo debido a la selecci&oacute;n de los adjetivos musicales que sugieren directamente dicho car&aacute;cter. Por otra parte, los sujetos no distinguieron entre las emociones que sent&iacute;an al escuchar una pieza y las atribuciones que pod&iacute;an proyectar a la pieza musical o la intenci&oacute;n del compositor. Tampoco se realizaron pruebas estad&iacute;sticas m&aacute;s all&aacute; de la descripci&oacute;n porcentual.</font></p>     <p align="justify"><font face="verdana" size="2">En un estudio con EEG, realizado por Ramos y Corsi&#150;Cabrera,<sup>26</sup> en 1989, se analiz&oacute; la actividad el&eacute;ctrica de la corteza cerebral en 14 sujetos adultos a quienes se registr&oacute; durante un est&iacute;mulo de m&uacute;sica cl&aacute;sica, el llanto de un ni&ntilde;o y un periodo de silencio. Ante la experiencia de escuchar m&uacute;sica agradable, observaron que el cerebro frontopolar responde con un particular patr&oacute;n de poder relativo <i>Theta </i>significativamente alto. Posteriormente, en 1996, Ramos et al.<sup>30</sup> estudiaron los estados afectivos provocados por obras de m&uacute;sica agradable (piezas de Grieg, Sibelius y Smetana) y desagradable (una pieza de Prodromid&egrave;s). Los sujetos evaluaron las piezas con 32 reactivos escalares continuos. La composici&oacute;n <i>Peer Gynt (El amanecer) </i>de Grieg se consider&oacute; la m&aacute;s placentera y el fragmento de la obra <i>Danton </i>de Prodromid&egrave;s, la m&aacute;s desagradable. Una vez establecido esto, las autoras reclutaron 215 estudiantes en 12 grupos aleatorios que calificaron las dos obras con 27 reactivos escalares continuos. El cuestionario fue validado y result&oacute; &uacute;til para evaluar los cambios afectivos.</font></p>     <p align="justify"><font face="verdana" size="2">Por su lado, North y Hargreaves<sup>27</sup> analizaron si la valoraci&oacute;n de ocho emociones espec&iacute;ficas se relacionaba con la representaci&oacute;n afectiva en las dimensiones de agrado&#150;desagrado y excitaci&oacute;n&#150;calma. Sesenta sujetos escucharon 32 pasajes musicales y valoraron ocho emociones espec&iacute;ficas en escalas de 11 puntos. Las emociones valoradas fueron predecibles en t&eacute;rminos del potencial de agrado y excitaci&oacute;n. Recientemente, mediante estudios experimentales en seres humanos, se ha establecido que la m&uacute;sica tiene el poder de producir diferentes efectos neurofisiol&oacute;gicos, relacionados con las emociones que induce.<sup>15,17,22&#150;24,28</sup> En general, estos estudios sugieren que los est&iacute;mulos musicales evocan emociones espec&iacute;ficas que permiten evaluaciones afectivas, cognoscitivas y fisiol&oacute;gicas en tiempo real.</font></p>     <p align="justify"><font face="verdana" size="2">En la actualidad es de inter&eacute;s continuar con el desarrollo de m&eacute;todos para registrar y analizar los procesos emocionales generados por segmentos musicales. Para ello se debe tratar de superar importantes obst&aacute;culos metodol&oacute;gicos que no han sido resueltos, en particular los relacionados con la selecci&oacute;n de t&eacute;rminos de la emoci&oacute;n, la forma de atribuci&oacute;n de estos t&eacute;rminos a los sentimientos generados por la m&uacute;sica y la selecci&oacute;n y aplicaci&oacute;n de t&eacute;cnicas estad&iacute;sticas apropiadas para evaluar los resultados. El presente trabajo pretende contribuir al desarrollo de los m&eacute;todos para lograr registrar y analizar de una manera m&aacute;s fidedigna los procesos emocionales generados por segmentos musicales de tal forma que puedan ser considerados est&iacute;mulos calibrados para estudiar sus efectos fisiol&oacute;gicos, en particular los cerebrales.</font></p>     <p align="justify"><font face="verdana" size="2">De este modo, el primer requisito dif&iacute;cil de cumplir y estandarizar se refiere a los criterios para seleccionar y presentar los t&eacute;rminos de la emoci&oacute;n en dise&ntilde;os experimentales controlados. En un trabajo previo<sup>1</sup> propusimos una taxonom&iacute;a de los t&eacute;rminos de la emoci&oacute;n del idioma espa&ntilde;ol en un modelo de dos dimensiones ortogonales, una hed&oacute;nica (agrado&#150;desagrado) y la otra de activaci&oacute;n (calma&#150;excitaci&oacute;n). Esto permite la identificaci&oacute;n de 28 conjuntos de t&eacute;rminos similares y la ubicaci&oacute;n de 14 ejes bipolares de 328 t&eacute;rminos de la emoci&oacute;n en un diagrama circular que constituye un esquema met&oacute;dico de t&eacute;rminos vigentes de la emoci&oacute;n que se presta para cualquier estudio de atribuci&oacute;n emocional. El sistema parece &uacute;til para que los sujetos puedan ubicar y seleccionar con relativa facilidad los t&eacute;rminos que consideren m&aacute;s precisos para etiquetar los sentimientos que experimentan durante la audici&oacute;n de piezas musicales seleccionadas. De esta forma es posible progresar con el primer requisito de una selecci&oacute;n de t&eacute;rminos m&aacute;s rigurosa y apropiada.</font></p>     <p align="justify"><font face="verdana" size="2">Adem&aacute;s de contender con el problema de la presentaci&oacute;n y selecci&oacute;n de los t&eacute;rminos de la emoci&oacute;n, en este trabajo se explora la posibilidad de evaluar la capacidad de diferentes piezas musicales para evocar emociones discretas y conscientes. El m&eacute;todo consisti&oacute; en la atribuci&oacute;n de t&eacute;rminos de estados afectivos generados por segmentos musicales representativos de diversas tradiciones y permiti&oacute; establecer cu&aacute;les categor&iacute;as emocionales se aplican con mayor o menor frecuencia de lo que se esperar&iacute;a al azar en cada segmento. La aplicaci&oacute;n de un an&aacute;lisis estad&iacute;stico del acuerdo entre evaluadores permiti&oacute; afirmar cu&aacute;les categor&iacute;as emocionales se atribuyeron a cada segmento, con lo cual se pudo inferir con alguna evidencia cu&aacute;les est&iacute;mulos musicales determinaban cu&aacute;les emociones particulares.</font></p>     <p align="justify"><font face="verdana" size="2">Si la m&uacute;sica constituye un tipo de expresi&oacute;n o de lenguaje para la comunicaci&oacute;n de estados emocionales, puede suponerse que habr&aacute; un acuerdo significativo en la atribuci&oacute;n de ciertos t&eacute;rminos de la emoci&oacute;n a segmentos musicales entre evaluadores humanos independientes. Si esto se comprueba, se justificar&iacute;a el uso de ciertas piezas musicales como est&iacute;mulos calibrados para evocar estados afectivos relativamente espec&iacute;ficos y analizar correlatos neurofisiol&oacute;gicos de la emoci&oacute;n musical con mayor propiedad y certeza.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>MATERIAL Y M&Eacute;TODO</b></font></p>     <p align="justify"><font face="verdana" size="2"><b>Criterios para la selecci&oacute;n de los est&iacute;mulos musicales</b></font></p>     <p align="justify"><font face="verdana" size="2">El material musical seleccionado consisti&oacute; en 10 obras. Cinco de ellas corresponden al repertorio de la m&uacute;sica &lt;&lt;culta&gt;&gt; en los periodos barroco, cl&aacute;sico, rom&aacute;ntico, impresionista y moderno y cuatro al repertorio de m&uacute;sica &lt;&lt;popular&gt;&gt; de diferentes nacionalidades y &eacute;pocas. La pieza restante corresponde a la sonorizaci&oacute;n de una aurora boreal, un fen&oacute;meno natural. Es importante aclarar que el presente estudio no intenta por el momento analizar cu&aacute;les elementos musicales particulares tienen que ver con los afectos ni cu&aacute;les son los mecanismos involucrados en ello, sino solamente establecer el nivel de acuerdo de la poblaci&oacute;n estudiada para la atribuci&oacute;n de t&eacute;rminos de la emoci&oacute;n al sentimiento subjetivo que evoca cada pieza tal como ha sido compuesta, interpretada y grabada.</font></p>     <p align="justify"><font face="verdana" size="2">Se establecieron cuatro criterios para seleccionar las obras musicales: 1. tema y melod&iacute;a homog&eacute;neos e identificables; 2. obras exclusivamente instrumentales; 3. segmentos musicales con tono afectivo (&lt;&lt;tema y motivo&gt;&gt; musical) claro y distinto; 4. muestras de diferentes &eacute;pocas y estilos. La amplia muestra de m&uacute;sica &lt;&lt;culta&gt;&gt; entre los est&iacute;mulos seleccionados se debe a que esta m&uacute;sica, tambi&eacute;n llamada gen&eacute;ricamente &lt;&lt;cl&aacute;sica,&gt;&gt; es una de sus formas m&aacute;s depuradas por implicar extensos conocimientos te&oacute;ricos y gran habilidad t&eacute;cnica. Para los objetivos del presente trabajo, es de particular relevancia el manejo deliberado y erudito de elementos sonoros como la melod&iacute;a, el ritmo o la armon&iacute;a para expresar ideas musicales con cierto tono afectivo. Una de las selecciones, la &lt;&lt;aurora boreal&gt;&gt;, no es propiamente una obra musical, sino secuencias aleatorias en progresiones arm&oacute;nicas que se presentan en la naturaleza. Este segmento plantea si una serie de sonidos naturales tendr&aacute; alg&uacute;n significado emocional en la poblaci&oacute;n estudiada.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Obras musicales seleccionadas</b></font></p>     <p align="justify"><font face="verdana" size="2">Las siguientes son las 10 obras seleccionadas en el orden en que fueron grabadas en el CD de trabajo y que no es el orden de audici&oacute;n en la prueba, ya que la presentaci&oacute;n fue contrabalanceada. Los datos discogr&aacute;ficos est&aacute;n disponibles por solicitud al correo electr&oacute;nico de los autores. La palabra clave para cada pieza se pone en negritas para su identificaci&oacute;n posterior y a continuaci&oacute;n se realiza una breve descripci&oacute;n de cada obra.</font></p>     <blockquote>       <p align="justify"><font face="verdana" size="2">1. De Wolfang Amadeus <b>Mozart </b>(1756&#150;1791), <i>Concierto para piano no. 17 K 453, </i>tercer movimiento <i>allegro, </i>escrito en un tiempo r&aacute;pido (100 golpes por minuto, aproximadamente) con una estructura o forma musical de tema y variaciones caracter&iacute;stica del periodo cl&aacute;sico.</font></p>       <p align="justify"><font face="verdana" size="2">2. <b>Aurora boreal. </b>Sonorizaci&oacute;n de la se&ntilde;al electromagn&eacute;tica de una aurora boreal. Aunque no hay tema mel&oacute;dico, ritmo o armon&iacute;a determinados, se perciben secuencias que incluyen principalmente al 1&deg;, 2&deg;, 3&deg; y 4&deg; arm&oacute;nicos, y aunque parecen combinaciones musicales, se presentan de manera aleatoria.</font></p>       ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">3. De Modesto <b>Musorgski </b>(1839&#150;1881), en arreglo orquestal de Maurice Ravel (1875&#150;1937), <i>Cuadros de una exposici&oacute;n. </i>De esta obra impresionista se seleccion&oacute; el cuadro sombr&iacute;o denominado <i>El gnomo.</i></font></p>       <p align="justify"><font face="verdana" size="2">4. <b>M&uacute;sica andina </b>del compositor Arturo Ruiz del Pozo. Tema &lt;&lt;Cumbres&gt;&gt;, interpretado por el grupo Yawar, con instrumentos tradicionales y electr&oacute;nicos. Tres partes r&aacute;pidas y una lenta.</font></p>       <p align="justify"><font face="verdana" size="2">5. De Piotr Ilich <b>Tchaikovsky </b>(1840&#150;1893), <i>Sinfon&iacute;a no 5, </i>segundo movimiento <i>andante cantabile </i>en tiempo lento y moderado. Obra para gran orquesta del periodo rom&aacute;ntico. Se seleccion&oacute; la reexposici&oacute;n del tema principal que contiene el cl&iacute;max y se contin&uacute;a con la cadencia final.</font></p>       <p align="justify"><font face="verdana" size="2">6. Del grupo <b>Metallica, </b><i>&lt;&lt;Through the Never&gt;&gt;. </i>Rock pesado, estilo <i>heavy metal </i>en ritmo r&aacute;pido, volumen fuerte, distorsi&oacute;n en la amplificaci&oacute;n de la guitarra y el bajo el&eacute;ctrico. Ritmo con acentos en el segundo y cuarto tiempos.</font></p>       <p align="justify"><font face="verdana" size="2">7. <b>M&uacute;sica japonesa </b>tradicional. Melod&iacute;a de dominio popular llamada <i>Usagi, </i>tocada con el <i>koto, </i>instrumento de cuerda punteada parecido al arpa, y el <i>shyakuhachi, </i>flauta de bamb&uacute; de sonido suave y profundo. Tiempo lento equivalente al <i>adagio.</i></font></p>       <p align="justify"><font face="verdana" size="2">8. De Gustav <b>Mahler </b>(1860&#150;1911), <i>Sinfon&iacute;a no. 5, </i>segundo movimiento, r&aacute;pido agitado seguido de una secuencia lenta. Se eligieron dos segmentos consecutivos del inicio del segundo movimiento. Es una obra caracter&iacute;stica del periodo moderno.</font></p>       <p align="justify"><font face="verdana" size="2">9. <b>M&uacute;sica &aacute;rabe </b>tradicional. <i>Taqsim Sigah: </i>obra tocada con el <i>kamandja, </i>especie de viol&iacute;n rudimentario. Velocidad moderada con ritmo variable en el estilo <i>maquam </i>caracter&iacute;stico de la improvisaci&oacute;n denominada <i>taqsim </i>en el mundo isl&aacute;mico.</font></p>       <p align="justify"><font face="verdana" size="2">10. De Juan Sebasti&aacute;n <b>Bach </b>(1685&#150;1750), <i>Invenciones a tres partes, BWV 789&#150;801. </i>Son peque&ntilde;as piezas para piano a tres voces t&iacute;picas del periodo barroco. Se eligieron tres de ellas, BWV 797, 796 y 801. Se presentan s&oacute;lo datos de la 797. Los tiempos musicales para su ejecuci&oacute;n son: <i>andante&#150;dulce, allegro </i>y <i>allegro&#150;agitato.</i></font></p> </blockquote>     <p align="justify"><font face="verdana" size="2"><b>Segmentaci&oacute;n y grabaci&oacute;n final del material musical seleccionado</b></font></p>     <p align="justify"><font face="verdana" size="2">De cada una de estas obras se seleccionaron pasajes o segmentos caracter&iacute;sticos, respetando las frases y los temas musicales, con duraciones de tres a cinco minutos. En algunos casos fue necesario editar el pasaje musical para evitar repeticiones y puentes o enlaces entre temas. Cada pieza fue fraccionada en peque&ntilde;os segmentos musicales caracterizados por una frase, motivo, periodo musical o el predominio de alguna caracter&iacute;stica particular que la hiciera diferente y expresivamente homog&eacute;nea. Los 10 pasajes quedaron con diferente n&uacute;mero de segmentos, cada uno con caracter&iacute;sticas particulares. De esta manera, de las diez piezas musicales, resultaron en total 34 segmentos, con una duraci&oacute;n total de 25min y 28seg. Las caracter&iacute;sticas musicales para cada segmento y su duraci&oacute;n, se especifican en el <a href="/img/revistas/sm/v32n1/html/anexo.htm" target="_blank">Anexo I</a>. Los anexos del presente estudio se encuentran disponibles por correo electr&oacute;nico.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Una vez editada la m&uacute;sica, se grab&oacute; el material en un CD con diez pistas y cada una (pieza musical) con sus segmentos. La separaci&oacute;n entre pistas y segmentos musicales fue de 10seg para dar lugar a la introspecci&oacute;n y la elecci&oacute;n de los t&eacute;rminos de la emoci&oacute;n en cada segmento.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Sujetos</b></font></p>     <p align="justify"><font face="verdana" size="2">El estudio se realiz&oacute; en 108 personas (60 mujeres y 48 hombres), alumnos de cuatro diferentes escuelas de los estados de Quer&eacute;taro y Guanajuato en nuestro pa&iacute;s. La edad promedio fue de 22 a&ntilde;os &plusmn; 7.67. Participaron cuatro grupos: 1. Primer semestre de la Facultad de Derecho de la Universidad de Guanajuato (38 alumnos, 19 mujeres y 19 hombres, edad promedio 21 a&ntilde;os); 2. Primer semestre de la Facultad de Psicolog&iacute;a de la Universidad Aut&oacute;noma de Quer&eacute;taro (34 alumnos, 26 mujeres y 28 hombres, edad promedio 22 a&ntilde;os); 3. Octavo semestre de la carrera de Leyes de la Universidad Santa Fe A.C. en la ciudad de Guanajuato (19 alumnos, 10 mujeres y nueve hombres, edad promedio 22 a&ntilde;os); y 4. Alumnos de primer ingreso a la Escuela de M&uacute;sica de la Universidad de Guanajuato (17 alumnos, cinco mujeres y 12 hombres, edad promedio de 22 a&ntilde;os).</font></p>     <p align="justify"><font face="verdana" size="2"><b>Modelo de t&eacute;rminos de la emoci&oacute;n</b></font></p>     <p align="justify"><font face="verdana" size="2">En un estudio previo,<sup>1</sup> a partir de una lista de cerca de 500 t&eacute;rminos de la emoci&oacute;n en castellano, se seleccionaron 328 palabras &lt;&lt;que denotan directa y definitivamente emociones particulares&gt;&gt;. Se identificaron 28 familias de conceptos similares y 14 ejes de emociones opuestas. Los 14 ejes se ubicaron en un diagrama bidimensional de agrado&#150;desagrado y calma&#150;excitaci&oacute;n, de tal manera que se establecen cuatro cuadrantes de t&eacute;rminos (agrado&#150;calma, agrado&#150;excitaci&oacute;n, desagrado&#150;calma, desagrado&#150;excitaci&oacute;n). Con el objeto de facilitar a los participantes del presente estudio la identificaci&oacute;n de los t&eacute;rminos de la emoci&oacute;n m&aacute;s adecuados a los sentimientos que les evocara la m&uacute;sica, se les provey&oacute; con una versi&oacute;n compacta del diagrama bidimensional en que aparecen los t&eacute;rminos de la emoci&oacute;n para cada uno de los cuadrantes (<a href="/img/revistas/sm/v32n1/html/anexo.htm" target="_blank">Anexo II</a>).</font></p>     <p align="justify"><font face="verdana" size="2">El modelo de t&eacute;rminos de la emoci&oacute;n se anex&oacute; en una hoja aparte con el esquema circular que s&oacute;lo incluye 168 t&eacute;rminos seleccionados por su claridad y frecuencia de uso acomodados en dos c&iacute;rculos conc&eacute;ntricos. En el c&iacute;rculo interno se anotaron los 28 t&eacute;rminos representativos de cada grupo de emociones, organizados en los 14 ejes radiales de polaridades opuestas. La disposici&oacute;n del c&iacute;rculo interno tambi&eacute;n permite ubicar de manera contigua los t&eacute;rminos de la emoci&oacute;n m&aacute;s semejantes. El c&iacute;rculo interno se ubica en los cuatro cuadrantes principales limitados por los ejes de agrado&#150;desagrado y tensi&oacute;n&#150;calma. Al c&iacute;rculo externo corresponden otros 28 bloques con cinco t&eacute;rminos cada uno, de acuerdo con su similitud sem&aacute;ntica, lo que suma 140, es decir, siete grupos de cinco t&eacute;rminos por cada cuadrante.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Formato de respuestas</b></font></p>     <p align="justify"><font face="verdana" size="2">En la hoja frontal de respuestas (<a href="/img/revistas/sm/v32n1/html/anexo.htm" target="_blank">Anexo III</a>) aparece una breve introducci&oacute;n a la prueba y los espacios para la ficha de identificaci&oacute;n del participante. Tambi&eacute;n hay tres preguntas acerca del tipo de contacto previo con la m&uacute;sica. Al reverso se dan las instrucciones para el desarrollo de la prueba y de c&oacute;mo se debe completar el formato. El formato de respuestas est&aacute; en las hojas que siguen, impresas con espacios para escribir las atribuciones emocionales durante la audici&oacute;n. Se us&oacute; una p&aacute;gina para cada pieza musical con sus segmentos. La parte inferior de cada p&aacute;gina se us&oacute; para la atribuci&oacute;n de t&eacute;rminos de la emoci&oacute;n a los segmentos musicales de la pieza en turno, seg&uacute;n los sentimientos experimentados durante su audici&oacute;n. En la parte superior se dej&oacute; un espacio para una narraci&oacute;n libre de im&aacute;genes, ideas o recuerdos evocados por cada pieza, cuyo an&aacute;lisis no se incluye en este trabajo.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Audici&oacute;n y atribuci&oacute;n</b></font></p>     <p align="justify"><font face="verdana" size="2">La prueba completa dur&oacute; una hora treinta minutos. El orden de presentaci&oacute;n de las piezas fue diferente y contrabalanceado para cada grupo. La reproducci&oacute;n de la m&uacute;sica se hizo con un aparato modular Samsung modelo Max 916. Se utiliz&oacute; el CD previamente grabado con las obras musicales y sus segmentos a una intensidad de entre 40 y 80 dB SPL. Las sesiones de trabajo se llevaron a cabo en un sal&oacute;n de clases de cada escuela acondicionado para la prueba (instalaci&oacute;n del aparato de sonido, ambiente tranquilo y aislado). Cada sesi&oacute;n se realiz&oacute; en seis pasos consecutivos: 1. Presentaci&oacute;n e indicaciones para el llenado de la ficha de identificaci&oacute;n; 2. Indicaciones para llenar el formato de respuestas; 3. Explicaci&oacute;n del esquema de t&eacute;rminos de la emoci&oacute;n; 4. Aclaraci&oacute;n de dudas; 5. Sesi&oacute;n de audici&oacute;n y atribuci&oacute;n; 6. Conclusi&oacute;n y despedida.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Se solicit&oacute; a los participantes considerar y anotar el t&eacute;rmino o los t&eacute;rminos del esquema que mejor describieran o especificaran su propia respuesta emocional al escuchar el pasaje musical en turno. Se hizo hincapi&eacute; en la indicaci&oacute;n de expresar en cada t&eacute;rmino la propia experiencia emocional evaluada por introspecci&oacute;n al escuchar la m&uacute;sica y no la creencia de lo que la m&uacute;sica representa o pretende comunicar. A continuaci&oacute;n, se reprodujo el CD preparado previamente para que el sujeto eligiera los t&eacute;rminos m&aacute;s indicativos de la emoci&oacute;n que le evocaba cada segmento.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Captura de datos</b></font></p>     <p align="justify"><font face="verdana" size="2">Cada uno de los 108 sujetos gener&oacute; en el formato de respuestas un promedio de nueve diferentes t&eacute;rminos de la emoci&oacute;n para cada una de las 10 piezas musicales; es decir, tres respuestas en promedio para cada segmento. Esto represent&oacute; m&aacute;s de 9500 datos que tuvieron que ser ordenados y convertidos a frecuencias de atribuci&oacute;n de los 28 t&eacute;rminos de la emoci&oacute;n para cada uno de los 34 segmentos musicales. Los datos se concentraron primero en matrices por grupo y finalmente en una matriz general de datos crudos ordenados como filas de 28 t&eacute;rminos de la emoci&oacute;n por 34 columnas de segmentos musicales con la puntuaci&oacute;n de frecuencias en cada casilla.</font></p>     <p align="justify"><font face="verdana" size="2">Los resultados del total de la poblaci&oacute;n se ordenaron considerando cuatro tipos de datos: 1. las diferentes condiciones de audici&oacute;n (34 segmentos musicales); 2. las categor&iacute;as emocionales que escogieron como presentes en cada condici&oacute;n (una o m&aacute;s categor&iacute;as en una gama de 28); 3. la suma de las puntuaciones (frecuencias) para cada categor&iacute;a emocional en cada condici&oacute;n; y 4. la n por grupo y la N total.</font></p>     <p align="justify"><font face="verdana" size="2">Los datos de atribuci&oacute;n de t&eacute;rminos de la emoci&oacute;n a los segmentos musicales se vaciaron en formatos dise&ntilde;ados para concentrar las puntuaciones de todos los sujetos (<a href="/img/revistas/sm/v32n1/html/anexo.htm" target="_blank">Anexo IV</a>). Se sumaron las puntuaciones de los t&eacute;rminos de la emoci&oacute;n por cada conjunto sem&aacute;ntico derivando todas las atribuciones en el t&eacute;rmino principal de cada categor&iacute;a emocional, seg&uacute;n la clasificaci&oacute;n realizada previamente.<sup>1</sup> De esta manera, en vez de considerar cientos de categor&iacute;as emocionales, lo cual ser&iacute;a inmanejable, se utilizaron s&oacute;lo 28 para facilitar el an&aacute;lisis de los datos. Las puntuaciones obtenidas se desahogaron en el programa Excel de Microsoft Corporation, para obtener una matriz de datos crudos de cada grupo (<a href="/img/revistas/sm/v32n1/html/anexo.htm" target="_blank">Anexo V</a>).</font></p>     <p align="justify"><font face="verdana" size="2"><b>Estad&iacute;stica</b></font></p>     <p align="justify"><font face="verdana" size="2">Las caracter&iacute;sticas de la muestra para la selecci&oacute;n del m&eacute;todo estad&iacute;stico adecuado son las siguientes: 1. incertidumbre sobre el tipo de distribuci&oacute;n de la poblaci&oacute;n, 2. grado no estipulado de homocedasticidad necesario para las pruebas param&eacute;tricas, 3. datos en una escala ordinal y 4. observaciones no independientes, sino relacionadas. Dadas las caracter&iacute;sticas de los datos generados se busc&oacute; una estad&iacute;stica no param&eacute;trica. La prueba seleccionada deber&iacute;a establecer: 1. si en el total de los datos hay diferencias significativas en las puntuaciones de atribuci&oacute;n de cada categor&iacute;a emocional para cada segmento musical, 2. en cu&aacute;l segmento est&aacute;n las m&aacute;ximas puntuaciones y 3. si &eacute;stas son estad&iacute;sticamente significativas en referencia al resto. Finalmente, el an&aacute;lisis de varianza bifactorial por rangos de Friedman para k muestras relacionadas, se eligi&oacute; como la prueba m&aacute;s adecuada para este caso.<sup>29</sup> Para esta prueba, los datos deben presentarse en una tabla de doble entrada que contiene <i>N </i>renglones o filas y <i>k </i>columnas por cada categor&iacute;a emocional. Los renglones representan los conjuntos de sujetos igualados y las columnas las distintas condiciones en la categor&iacute;a emocional correspondiente. Cada rengl&oacute;n proporciona las puntuaciones de cada grupo de sujetos en cada una de las <i>k </i>condiciones, es decir, para cada segmento de m&uacute;sica.</font></p>     <p align="justify"><font face="verdana" size="2">Para llevar a cabo este an&aacute;lisis fue necesario transformar los datos crudos a rangos. En cada matriz de datos crudos se transformaron las puntuaciones de cada rengl&oacute;n por separado. Los rangos de cualquier rengl&oacute;n var&iacute;an de 1 a k, es decir, a la puntuaci&oacute;n menor se le aplica el rango 1, a la siguiente 2 y as&iacute; sucesivamente hasta llegar a la puntuaci&oacute;n mayor que tendr&aacute; el rango 34. Como un paso previo para aplicar la estad&iacute;stica de prueba, los datos de cada categor&iacute;a emocional de los cuatro grupos se reunieron para obtener una tabla de 4 &times; 28 por cada categor&iacute;a emocional. Por ejemplo, para cada t&eacute;rmino se alinearon los cuatro grupos para obtener as&iacute; en un rengl&oacute;n adicional la suma de los rangos elevados al cuadrado (R<sub>j</sub><sup>2</sup>) en cada columna (condici&oacute;n). Una vez obtenidos los rangos en las 28 filas de los cuatro grupos (<a href="/img/revistas/sm/v32n1/html/anexo.htm" target="_blank">Anexo VI</a>), se procedi&oacute; a la aplicaci&oacute;n de la prueba de Friedman. La estad&iacute;stica de prueba denotada por Friedman como &#967;<sup>2</sup><sub>r</sub> tambi&eacute;n conocida como F<sub>r</sub>, se calcula con la siguiente f&oacute;rmula:</font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/sm/v32n1/a4f1.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">Donde n es el n&uacute;mero de filas (bloques) y k es el n&uacute;mero de columnas (tratamientos). <i>R<sub>j</sub> </i>es la suma de los rangos en la <i>j&#150;&eacute;sima </i>columna y <img src="/img/revistas/sm/v32n1/a4s1.jpg"> es la sumatoria de los cuadrados de los rangos de todas las condiciones. Los valores cr&iacute;ticos de &#967;<sup>2</sup><sub>r</sub> para distintos <i>n </i>y <i>k </i>se pueden consultar en el <a href="/img/revistas/sm/v32n1/html/anexo.htm" target="_blank">Anexo VII</a>.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Para establecer en cu&aacute;les segmentos se situaban las principales diferencias significativas, se aplic&oacute; la extensi&oacute;n de la prueba de Friedman para comparaciones de grupos con un control. Al aplicar la f&oacute;rmula correspondiente, se obtuvo el valor cr&iacute;tico de las diferencias | R<sub>1</sub>&#150; R<sub>u</sub> | &ge;18.59, con lo cual fue posible graficar el nivel de significancia de todas las categor&iacute;as emocionales para cada segmento musical. La f&oacute;rmula es:</font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/sm/v32n1/a4f2.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">Los datos crudos obtenidos en las pruebas se concentraron en las matrices correspondientes, una para cada grupo (<a href="/img/revistas/sm/v32n1/html/anexo.htm" target="_blank">Anexo VIII</a>). El primer tratamiento fue transformar los datos crudos en rangos de Friedman (<a href="/img/revistas/sm/v32n1/html/anexo.htm" target="_blank">Anexo IX</a>). Finalmente, la estad&iacute;stica de prueba, el c&aacute;lculo de significancia y la comparaci&oacute;n entre grupos se hicieron en una matriz donde se conjuntaron los datos de los cuatro grupos, ordenados por categor&iacute;a emocional (<a href="/img/revistas/sm/v32n1/html/anexo.htm" target="_blank">Anexo X</a>).</font></p>     <p align="justify"><font face="verdana" size="2"><b>Graficaci&oacute;n de resultados</b></font></p>     <p align="justify"><font face="verdana" size="2">La selecci&oacute;n de t&eacute;rminos de la emoci&oacute;n de todos los sujetos fue expresada finalmente en histogramas para cada uno de los 10 segmentos musicales elegidos en este trabajo. En la abscisa de cada histograma aparecen los 28 t&eacute;rminos emocionales tipo de cada uno de los conjuntos establecidos previamente, con la palabra que representa a cada conjunto entero de t&eacute;rminos relacionados a esa emoci&oacute;n. Los 28 t&eacute;rminos aparecen conforme al orden establecido en el c&iacute;rculo de la emoci&oacute;n tomando como primero al <i>vigor. </i>De esta manera aparecen en secuencia los cuatro cuadrantes del c&iacute;rculo, delimitados por los ejes de valor hed&oacute;nico (agradable o desagradable) y de nivel de activaci&oacute;n (excitaci&oacute;n o relajaci&oacute;n). El primer cuadrante con su grupo de siete emociones corresponde a las agradables y vigorosas (barras de color negro), el segundo a las agradables y relajadas (barras de color negro, segundo grupo), el tercero a las desagradables y relajadas (barras blancas, tercer grupo) y el cuarto a las desagradables y vigorosas (barras blancas, &uacute;ltimo grupo a la derecha). En el eje de las ordenadas aparece el total de atribuciones rectificado por la prueba de rangos de Friedman. Asimismo, en cada histograma se identifica con una l&iacute;nea punteada horizontal el nivel requerido para considerar una respuesta como significativa (p&lt;0.05).</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>RESULTADOS</b></font></p>     <p align="justify"><font face="verdana" size="2">A continuaci&oacute;n se presentan y describen los resultados obtenidos para cada uno de los diez est&iacute;mulos musicales. Se muestra s&oacute;lo el gr&aacute;fico de un segmento representativo para cada pieza musical.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Mozart </b>(<a href="#f1">figura 1</a>). Respuesta afectiva robusta inclinada hacia la izquierda, es decir, hacia t&eacute;rminos agradables y estimulantes. En este primer cuadrante, cuatro de las siete emociones sobrepasaron el umbral de significaci&oacute;n estad&iacute;stica: <i>entusiasmo, satisfacci&oacute;n, alegr&iacute;a y altivez. </i>Tres de las siete emociones positivas y relajadas (segundo cuadrante) alcanzaron tambi&eacute;n significaci&oacute;n: <i>agrado, placer </i>y <i>deseo. </i>Ocho conjuntos no fueron seleccionados por ning&uacute;n evaluador: <i>agotamiento, apat&iacute;a, frustraci&oacute;n, miedo, humillaci&oacute;n, ira, duda y tensi&oacute;n.</i></font></p>     <p align="center"><font face="verdana" size="2"><i><a name="f1"></a></i></font></p>     ]]></body>
<body><![CDATA[<p align="center"><font face="verdana" size="2"><img src="/img/revistas/sm/v32n1/a4f3.jpg"></font></p>     <p align="justify"><font face="verdana" size="2"><b>Aurora boreal </b>(<a href="#f2">figura 2</a>). Repuesta dispersa y muy d&eacute;bil, con tendencia a ser m&aacute;s abundante en el tercer sector de t&eacute;rminos, que corresponden a afectos negativos y relajados. Hay cinco respuestas apenas significativas: <i>sorpresa, deseo, frustraci&oacute;n, desagrado </i>y <i>duda. </i>Varios sujetos calificaron el segmento con <i>tristeza, miedo y tensi&oacute;n, </i>muy cerca del nivel de significaci&oacute;n. No hubo ninguna atribuci&oacute;n a <i>dolor.</i></font></p>     <p align="center"><font face="verdana" size="2"><i><a name="f2"></a></i></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/sm/v32n1/a4f4.jpg"></font></p>     <p align="justify"><font face="verdana" size="2"><b>Musorgski </b>(<a href="#f3">figura 3</a>). Perfil muy asim&eacute;trico de respuestas con inclinaci&oacute;n hacia el &uacute;ltimo sector de emociones desagradables y agitadas, como <i>duda </i>y <i>tensi&oacute;n </i>que alcanzan niveles significativos. <i>Miedo </i>y <i>sorpresa </i>resultan muy significativos. Nadie eligi&oacute; t&eacute;rminos de <i>agrado, amor, certeza </i>y <i>aversi&oacute;n.</i></font></p>     <p align="center"><font face="verdana" size="2"><i><a name="f3"></a></i></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/sm/v32n1/a4f5.jpg"></font></p>     <p align="justify"><font face="verdana" size="2"><b>M&uacute;sica andina </b>(<a href="#f4">figura 4</a>). Respuesta selectiva hacia la mitad izquierda de la gr&aacute;fica (emociones positivas). Del primer conjunto de emociones destacan significativamente <i>satisfacci&oacute;n </i>y <i>alegr&iacute;a </i>y del segundo <i>agrado </i>y <i>deseo. Entusiasmo </i>y <i>placer </i>se acercan a los niveles significativos, en tanto que <i>sorpresa </i>es muy escasa en este fragmento. En general, la selecci&oacute;n para t&eacute;rminos de emociones desagradables fue muy exigua, y en lo particular result&oacute; nula para las de <i>agotamiento, aburrimiento, frustraci&oacute;n, miedo </i>e <i>ira.</i></font></p>     <p align="center"><font face="verdana" size="2"><i><a name="f4"></a></i></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/sm/v32n1/a4f6.jpg"></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>Tchaikovsky </b>(<a href="#f5">figura 5</a>). Respuesta intensa y compacta por ser muy robusta y espec&iacute;fica para el segundo sector de t&eacute;rminos con significados agradables y relajados. Seis de ellos (<i>agrado, placer, deseo, amor, tranquilidad </i>y <i>certeza</i>) rebasan el nivel requerido. La <i>altivez </i>y la <i>alegr&iacute;a </i>se acercan al umbral. No hubo registros de <i>sorpresa, desagrado </i>y <i>aversi&oacute;n.</i></font></p>     <p align="center"><font face="verdana" size="2"><i><a name="f5"></a></i></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/sm/v32n1/a4f7.jpg"></font></p>     <p align="justify"><font face="verdana" size="2"><b>Metallica </b>(<a href="#f6">figura 6</a>). Respuesta intensa con valores altos en los extremos derecho e izquierdo (activaci&oacute;n) y bajos en el centro del histograma (calma). En el primer grupo, <i>vigor, entusiasmo, satisfacci&oacute;n, alegr&iacute;a </i>y <i>valor, </i>alcanzan niveles significativos. <i>Ira </i>y <i>tensi&oacute;n, </i>del &uacute;ltimo grupo, tambi&eacute;n. Respuestas nulas para <i>amor, tranquilidad, certeza, alivio, tristeza </i>y <i>humillaci&oacute;n.</i></font></p>     <p align="center"><font face="verdana" size="2"><i><a name="f6"></a></i></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/sm/v32n1/a4f8.jpg"></font></p>     <p align="justify"><font face="verdana" size="2"><b>M&uacute;sica japonesa </b>(<a href="#f7">figura 7</a>). Respuesta en forma de campana con los valores m&aacute;s elevados al centro del histograma.</font></p>     <p align="center"><font face="verdana" size="2"><a name="f7"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/sm/v32n1/a4f9.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">Los niveles significativos estuvieron en el segundo sector para <i>tranquilidad y alivio, </i>en el tercer sector para <i>apat&iacute;a, frustraci&oacute;n, tristeza </i>y en el cuarto sector &uacute;nicamente para <i>dolor. </i>El primer sector result&oacute; con bajo nivel de atribuciones que adem&aacute;s fueron nulas para <i>sorpresa, entusiasmo </i>y <i>alegr&iacute;a; </i>tampoco hubo atribuciones para <i>aversi&oacute;n.</i></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>Mahler </b>(<a href="#f8">figura 8</a>). Respuesta en forma de &lt;&lt;U&gt;&gt;. Predominio del cuarto sector, en particular <i>dolor, ira, duda </i>y <i>tensi&oacute;n. </i>Tres t&eacute;rminos del primer grupo alcanzan tambi&eacute;n valores significativos: <i>vigor, sorpresa </i>y <i>valor. </i>Hay niveles elevados para <i>miedo. </i>Los niveles m&aacute;s bajos se ubicaron en el segundo grupo de t&eacute;rminos (emociones relajadas y agradables).</font></p>     <p align="center"><font face="verdana" size="2"><a name="f8"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/sm/v32n1/a4f10.jpg"></font></p>     <p align="justify"><font face="verdana" size="2"><b>M&uacute;sica &aacute;rabe </b>(<a href="#f9">figura 9</a>). Respuesta dispersa y poco robusta. <i>Tranquilidad, agotamiento </i>y <i>duda </i>alcanzan apenas el nivel de significaci&oacute;n; <i>alivio </i>y <i>dolor </i>se aproximan. No hay respuestas nulas y predomina ligeramente el tercer sector en conjunto, aunque ninguno de sus componentes haya sido muy significativo.</font></p>     <p align="center"><font face="verdana" size="2"><a name="f9"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/sm/v32n1/a4f11.jpg"></font></p>     <p align="justify"><font face="verdana" size="2"><b>Bach </b>(<a href="#f10">figura 10</a>). Respuesta robusta, compacta y espec&iacute;fica para el segundo sector de emociones agradables y relajadas. Los siete t&eacute;rminos del conjunto (<i>agrado, placer, deseo, amor, tranquilidad, certeza </i>y <i>alivio</i>) rebasaron el nivel de significaci&oacute;n y ning&uacute;n otro. <i>Tristeza </i>se aproxima al umbral y no se registraron respuestas para <i>vigor, aversi&oacute;n, odio </i>e <i>ira.</i></font></p>     <p align="center"><font face="verdana" size="2"><i><a name="f10"></a></i></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/sm/v32n1/a4f12.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>DISCUSI&Oacute;N</b></font></p>     <p align="justify"><font face="verdana" size="2">Las diferencias entre los histogramas de los diversos segmentos musicales se establecen debido a dos factores: nivel de significado estad&iacute;stico para cada t&eacute;rmino de la emoci&oacute;n y perfil afectivo global del segmento. En referencia a los niveles de significado estad&iacute;stico, es decir, los niveles particulares de respuesta para cada t&eacute;rmino de la emoci&oacute;n, se puede afirmar que uno o varios aparecen como significativos para cada uno de los segmentos analizados. En ocasiones se ofrecen muchas respuestas predominantes, como ocurre en Mahler con ocho t&eacute;rminos significativos, o en Mozart con siete. Tambi&eacute;n hay fragmentos que evocan pocas respuestas que lleguen al umbral, como sucede en la aurora boreal o en la m&uacute;sica &aacute;rabe. El hecho de que en casi todos los segmentos haya respuestas nulas significa que ninguno de los sujetos eligi&oacute; ciertos t&eacute;rminos, lo cual muestra que no s&oacute;lo se dan acuerdos para la selecci&oacute;n de t&eacute;rminos, sino tambi&eacute;n acuerdos para la omisi&oacute;n de algunos otros. Si los t&eacute;rminos seleccionados indican emociones relativamente espec&iacute;ficas, se puede afirmar que los fragmentos musicales usados como prueba evocan una respuesta emocional particular, lo cual fortalece la hip&oacute;tesis explorada desde la d&eacute;cada de 1930 con otros m&eacute;todos y enfoques.<sup>25,30</sup></font></p>     <p align="justify"><font face="verdana" size="2">La otra caracter&iacute;stica diferencial de los histogramas es el perfil global de la respuesta, pues cada uno de los fragmentos o est&iacute;mulos musicales de prueba no s&oacute;lo evoca la presencia y la ausencia de uno o m&aacute;s t&eacute;rminos de la emoci&oacute;n, sino un rasgo global que se puede definir por la forma o perfil del histograma usualmente m&aacute;s pronunciado en un sector particular. El histograma se inclina hacia la izquierda cuando las emociones positivas y vigorosas del primer sector son las predominantes, tal y como ocurre en la m&uacute;sica andina. En otras ocasiones, el perfil se hace dominante en el segundo sector de t&eacute;rminos de emociones positivas y relajadas. Tal cosa ocurre en Tchaikovski y en Bach, pues en &eacute;stos s&oacute;lo este cuadrante sobrepasa el criterio de significaci&oacute;n. Hay tambi&eacute;n casos de acumulaci&oacute;n del lado derecho del histograma, sea en el tercer sector de t&eacute;rminos de emociones negativas y relajadas (aurora boreal y m&uacute;sica &aacute;rabe) o el cuarto sector en el extremo derecho con predominio de t&eacute;rminos negativos y agitados, como en Mahler.</font></p>     <p align="justify"><font face="verdana" size="2">Se registran casos en que la respuesta se acumula en dos sectores aleda&ntilde;os. El perfil toma entonces forma de &lt;&lt;U&gt;&gt; o de campana. La forma de &lt;&lt;U&gt;&gt; acontece con el predominio de los cuadrantes 1 y 4, como se puede constatar en Metallica o en Mahler. A pesar de la distancia en el histograma, estos son sectores de t&eacute;rminos aleda&ntilde;os en el modelo circular de las emociones<sup>1</sup> porque la abscisa de los histogramas de respuesta afectiva se inicia por <i>vigor </i>que es el vecino inmediato de la <i>tensi&oacute;n, </i>aunque en el histograma &eacute;sta se ubique en el extremo opuesto. Se trata de segmentos que estimulan emociones tanto agradables como desagradables, aunque lo que se define en ellos es el factor de inquietud o agitaci&oacute;n indistintamente de su polaridad o valor hed&oacute;nico. Lo opuesto ocurre cuando la curva toma forma de campana, es decir, cuando los valores altos se agrupan en el sector central, como se puede ver en la m&uacute;sica japonesa. En esos casos se seleccionan t&eacute;rminos de emociones agradables y desagradables, pero todas ellas caracterizadas por la relajaci&oacute;n y la calma.</font></p>     <p align="justify"><font face="verdana" size="2">Con estas evidencias se puede afirmar que hay secuencias musicales que estimulan un grupo de emociones espec&iacute;fico y otras que evocan una respuesta m&aacute;s general para un tipo de emociones que tiene una polaridad determinada, como el ser agradables y vigorosas. En la presente muestra hay tambi&eacute;n m&uacute;sica que estimula en forma global uno de los cuatro ejes mayores definidos en el modelo afectivo circular, como son las emociones agradables (Mozart), desagradables (Musorgski), excitantes (Metallica) o relajantes (m&uacute;sica japonesa). Esto proporciona un soporte emp&iacute;rico al modelo circular del sistema afectivo integrado por dos ejes fundamentales, uno de agrado&#150;desagrado y otro de excitaci&oacute;n&#150;relajaci&oacute;n,<sup>31,32</sup> cuya variante basada en el idioma castellano fue la empleada en el esquema de clasificaci&oacute;n de las emociones<sup>1</sup> usado como fuente de los t&eacute;rminos en el presente estudio. Se hace necesario entonces considerar si el resultado se produce debido a los criterios de agrupaci&oacute;n de las emociones. Si este fuera el caso, se deber&iacute;an observar respuestas significativas dispersas y salpicadas en el histograma, lo cual ocurri&oacute; s&oacute;lo para la aurora boreal que evoca una respuesta significativa por cada uno de los cuadrantes. Es importante anotar que este sonido no es estrictamente musical en el sentido de que no es creaci&oacute;n o artificio humano.</font></p>     <p align="justify"><font face="verdana" size="2">Aunque cada fragmento de m&uacute;sica evoca una respuesta particular, no se puede afirmar que la respuesta sea espec&iacute;fica pues se evocan respuestas muy similares con m&uacute;sica de autores y culturas muy distintos. Por ejemplo, se registran perfiles muy similares o aun indistinguibles en Mozart y en la m&uacute;sica andina. A pesar de sus m&uacute;ltiples diferencias estructurales y culturales, se trata de momentos musicales que f&aacute;cilmente reconocemos como alegres y agradables. Sin embargo, no es posible concluir que desde el punto de vista afectivo sea lo mismo escuchar cualquiera de estos fragmentos, pues un an&aacute;lisis m&aacute;s detallado del histograma muestra que la combinaci&oacute;n de las emociones sobresalientes dicen m&aacute;s que el perfil general. As&iacute;, en Mozart destacan <i>alegr&iacute;a, placer y agrado, </i>y en la m&uacute;sica andina <i>alegr&iacute;a, agrado y entusiasmo. </i>Aunque ambas tienen <i>alegr&iacute;a y agrado </i>con el nivel m&aacute;s alto, la combinaci&oacute;n con las otras categor&iacute;as les da un tono particular y algo diferente que podr&aacute; explorarse en mayor detalle. Sin duda, en la evaluaci&oacute;n de la m&uacute;sica deben participar no s&oacute;lo el rango de las diferentes emociones que evoca sino factores cognitivos de seguimiento mel&oacute;dico o perceptual de las cualidades o timbres distintivos, entre otros. Adem&aacute;s, el grado de familiaridad con un tipo particular de m&uacute;sica, las asociaciones biogr&aacute;ficas y las im&aacute;genes mentales son factores cognoscitivos que seguramente contribuyen a la experiencia est&eacute;tica de la m&uacute;sica y que no fueron variables controladas en este estudio.</font></p>     <p align="justify"><font face="verdana" size="2">Con el presente resultado se plantea una investigaci&oacute;n est&eacute;tica en referencia a los elementos musicales que puedan ser responsables de tal similitud de respuestas afectivas en fragmentos de autores o tradiciones muy distintos. Dado que se ha elaborado y presentado una descripci&oacute;n musical de cada una de las piezas y de los segmentos utilizados en t&eacute;rminos de su estructura (<a href="/img/revistas/sm/v32n1/html/anexo.htm">Anexo I</a>), puede intentarse alguna correlaci&oacute;n preliminar entre la estructura de la m&uacute;sica y la experiencia afectiva de su escucha. Por ejemplo, entre los factores de composici&oacute;n y ejecuci&oacute;n comunes a los fragmentos citados arriba (Mozart y m&uacute;sica andina) y que comparten una respuesta robusta hacia la izquierda del histograma en emociones de <i>alegr&iacute;a </i>y <i>agrado, </i>se pueden apreciar los siguientes cinco elementos musicales comunes a ellos: 1. velocidad entre moderada y r&aacute;pida conocida como tiempo <i>allegro, 2. </i>comp&aacute;s binario con los tiempos fuertes por pares, 3. variedad de timbres que llenan el escenario ac&uacute;stico con todo el ensamble, 4. figuras de contrapunto en el acompa&ntilde;amiento haciendo valores m&aacute;s cortos que dan la impresi&oacute;n de mayor dinamismo y 5. l&iacute;neas mel&oacute;dicas de predominio ascendente que dan un efecto de levantamiento progresivo del &aacute;nimo. Estas inferencias no s&oacute;lo vienen a confirmar experimentalmente principios muy antiguos de composici&oacute;n musical, sino que pueden convertirse en elementos de inter&eacute;s para la est&eacute;tica musical y el estudio de la emoci&oacute;n humana.</font></p>     <p align="justify"><font face="verdana" size="2">En referencia a la experiencia est&eacute;tica evocada por la m&uacute;sica parece tambi&eacute;n relevante subrayar que no en todos los segmentos ocurre una selecci&oacute;n de los afectos agradables. En particular destaca que alguna pieza, como <i>El gnomo </i>de <i>Los Cuadros para una Exposici&oacute;n </i>de Musorgski, evoca un perfil de respuestas inclinado hacia la derecha, hacia las emociones desagradables. Es posible que el escucha goce o aprecie esta m&uacute;sica, aun cuando le atribuya sensaciones de <i>miedo, tensi&oacute;n, duda </i>o <i>dolor </i>que pueden ser experimentadas y aun buscadas en este fragmento de Musorgski. Esta experiencia est&eacute;tica es compleja y de gran significaci&oacute;n ya que el escucha puede otorgar un alto valor a la m&uacute;sica por expresar y evocar emociones que normalmente evita, pero que reconoce o experimenta en una situaci&oacute;n contenida y a salvo, lo que le permite evaluarlas de manera controlada y novedosa. Algo similar ocurre en expresiones pl&aacute;sticas que expresan contenidos angustiosos, dolorosos o temibles. Fischer y Krehbiel<sup>33</sup> solicitaron a voluntarios reportar sus sentimientos al escuchar segmentos musicales y tambi&eacute;n sus creencias sobre cu&aacute;l ser&iacute;a la intenci&oacute;n comunicativa del m&uacute;sico. La correlaci&oacute;n entre los sentimientos y las creencias fue en general positiva, aunque hubo excepciones como un tango de Astor Piazzolla en el cual los sujetos consideraron que la intenci&oacute;n del compositor era expresar sentimientos desagradables o angustiosos, aunque reportaron que la m&uacute;sica les produjo un intenso agrado.</font></p>     <p align="justify"><font face="verdana" size="2">Otro de los factores que influyen en un estudio como el presente es el cultural. Es de esperar que la m&uacute;sica de la cultura a la que pertenece el escucha sea procesada de una manera mucho m&aacute;s directa desde el punto de vista afectivo por la familiaridad con los instrumentos, sentido y estructuras sonoras. Un tema de importancia es detectar los elementos universales y los variables de la respuesta emocional a la m&uacute;sica propia y extra&ntilde;a para lo cual ser&aacute; necesario un estudio transcultural. Con los resultados presentes es posible hacer algunas inferencias, pues se incluyeron piezas musicales provenientes de culturas lejanas en tiempo, espacio y tradici&oacute;n a la de los sujetos participantes, en particular la m&uacute;sica &aacute;rabe y la japonesa que, a diferencia de la cl&aacute;sica y popular occidentales, pueden dar entonces pistas para identificar respuestas culturales. Hay dos elementos en las respuestas a estas piezas culturalmente distantes. Tanto la m&uacute;sica japonesa como la &aacute;rabe presentan pocas respuestas nulas en oposici&oacute;n a la m&uacute;sica cl&aacute;sica occidental en la cual es frecuente una ausencia de respuesta en varias categor&iacute;as emocionales. Esto implica que los sujetos reconocen la expresi&oacute;n emocional de la m&uacute;sica familiar y no lo hacen en la de otras culturas. De igual forma, la respuesta a las piezas culturalmente ajenas es m&aacute;s dispersa y se inclina hacia emociones desagradables. Es posible que estos mismos fragmentos musicales en poblaciones &aacute;rabes o japonesas produjeran respuestas m&aacute;s orientadas hacia emociones agradables y m&aacute;s vigorosas. El tema de la variabilidad intercultural es de importancia para poner a prueba la hip&oacute;tesis, tan repetida pero no debidamente demostrada (Besson y Schon, 2001; Brown, 2001), de que la m&uacute;sica es una especie de lenguaje universal de los afectos.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>AGRADECIMIENTOS</b></font></p>     <p align="justify"><font face="verdana" size="2">El trabajo fue realizado como parte de los requisitos para la Maestr&iacute;a en Neurobiolog&iacute;a de EOFG bajo la direcci&oacute;n de JLD. EOFG tuvo el apoyo de CONACYT. Los autores agradecen a los sinodales de la tesis: doctores Augusto Fern&aacute;ndez&#150;Guardiola (&dagger;), Magdalena Giordano Loyola, Ra&uacute;l Gerardo Paredes Guerrero, Thal&iacute;a Harmony Baillet, Julieta Ramos Loyo y Julio Estrada, que fueron de enorme ayuda en su desarrollo.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>REFERENCIAS</b></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">1. D&iacute;az JL, Flores E. La estructura de la emoci&oacute;n humana: un modelo crom&aacute;tico del sistema afectivo. Salud Mental 2001;24(4):20&#150;35.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030863&pid=S0185-3325200900010000400001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">2. Dissanayake E. Antecedents of the temporal arts in early mother infant interaction, in origins of music. Cambridge, Mass.: MIT press; 1999.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030864&pid=S0185-3325200900010000400002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">3. Baumgartner T, Lutz K, Schmidt CF, J&auml;ncke L. The emotional power of music: How music enhances the feeling of affective pictures. Brain Res 2006;1075(1):151&#150;164.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030865&pid=S0185-3325200900010000400003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">4. Huron D. Is music an evolutionary adaptation? Ann NY Acad Sci 2001; 930:43&#150;61.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030866&pid=S0185-3325200900010000400004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">5. Fukui H. Music and testosterone: a new hypothesis for the origin and function of music. Ann NY Acad Sci 2001;930:448&#150;451.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030867&pid=S0185-3325200900010000400005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">6. Wallin NL, Merker B, Brown S (Eds.). The origins of music. Cambridge, Mass.: The MIT Press; 2001.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030868&pid=S0185-3325200900010000400006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">7. Besson M, Sch&ouml;n D. Comparison between language and music. Ann NY Acad Sci 2001;930:232&#150;258.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030869&pid=S0185-3325200900010000400007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">8. Brown S. Are music and language homologues? Ann NY Acad Sci 2001;930:372&#150;374.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030870&pid=S0185-3325200900010000400008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">9. Ashby F, Isen A, Turken U. A neuropsychological theory of positive affect and its influence on cognition. Psychological Review 1999;106(3):529&#150;550.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030871&pid=S0185-3325200900010000400009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">10. Allman JM, Hakeem A, Erwin JM, Nimchinsky E, Hof P. The anterior cingulated cortex: the evolution of an interface between emotion and cognition. Ann NY Acad Sci 2001;935:107&#150;117.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030872&pid=S0185-3325200900010000400010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">11. Platel H, Baron JC, Desgranges B, Bernard F, Eustache F. Semantic and episodic memory of music are subserved by distinct neural networks. Neuroimage 2003;20:244&#150;256.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030873&pid=S0185-3325200900010000400011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">12. Peretz I, Zatorre R. Brain organization for music processing. Annu Rev Psychol 2005;56:89&#150;114.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030874&pid=S0185-3325200900010000400012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">13. Bhattacharya J, Petsche H, Pereda E. Long&#150;range synchrony in the gamma band: role in music perception. J Neurosci 2001;21:6329&#150;6337.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030875&pid=S0185-3325200900010000400013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">14. Castro&#150;Sierra E. Development of pitch perception in children. Stanford University (tesis doctoral); Stanford: 1989.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030876&pid=S0185-3325200900010000400014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">15. Peretz I, Gagnon L, Bouchard B. Music and emotion: perceptual determinants, immediacy, and isolation after brain damage. Cognition 1998;68(2):111&#150;41.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030877&pid=S0185-3325200900010000400015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">16. Bard P, Mountcastle VB. Some forebrain mechanisms involved in expression of rage with special reference to suppression of angry behavior. J Nervous Mental Disease 1948;27:362&#150;404.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030878&pid=S0185-3325200900010000400016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">17. Blood AJ, Zatorre RJ, Bermudez P, Evans AC. Emotional responses to pleasant and unpleasant music correlate with activity in paralimbic brain regions. Nat Neurosci 1999;2(4):382&#150;387.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030879&pid=S0185-3325200900010000400017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">18. Parsons LW. Exploring the functional neuroanatomy of music performance, perception, and comprehension. Ann NY Acad Sci 2001;930:211&#150;230.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030880&pid=S0185-3325200900010000400018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">19. Janata P, Birk JL, vHorn JD, Leman M, Tillman B et al. The cortical topography of tonal structures underlying western music. Science 2002;298:2167&#150;2170.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030881&pid=S0185-3325200900010000400019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">20. Halpern AR, Zatorre RJ, Bouffard M, Johnson A. Behavioral and neural correlates of perceived and imagined musical timbre. Neuropsychologia 2004;42(9):1281&#150;1292.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030882&pid=S0185-3325200900010000400020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">21. Blood AJ, Zatorre RJ. Intensely pleasurable responses to music correlate with activity in brain regions implicated in reward and emotion. Proc Natl Acad Sci USA 2001;98:11818&#150;11823.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030883&pid=S0185-3325200900010000400021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">22. Khalfa S, Schon D, Anton JL, Liegeois&#150;Chauvel C. Brain regions involved in the recognition of happiness and sadness in music. Neuroreport 2005;16:1981&#150;1984.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030884&pid=S0185-3325200900010000400022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">23. Koelsch S, Fritz T, vCramon DY, Muller K, Friederici AD. Investigating emotion with music: An fMRI study. Hum Brain Mapp 2006;27:239&#150;250.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030885&pid=S0185-3325200900010000400023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">24. Flores&#150;Guti&eacute;rrez EO, D&iacute;az JL, Barrios FA, Favila&#150;Humara R, Guevara MA et al. Metabolic and electric brain patterns during pleasant and unpleasant emotions induced by music masterpieces. Int J Psychophysiol 2007;65(1):69&#150;84.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030886&pid=S0185-3325200900010000400024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">25. Hevner K. Experimental Studies of the Elements of Expression in Music. American J Psychology 1936;48:246&#150;268.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030887&pid=S0185-3325200900010000400025&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">26. Ramos J, Corsi&#150;Cabrera M. Does brain electrical activity react to music? Int J Neurosci 1989;47(3&#150;4):351&#150;357.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030888&pid=S0185-3325200900010000400026&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">27. North A, Hargreaves D. Liking, arousal potential, and the emotions expressed by music. Scand J Psychol 1997;38(1) :45&#150;53.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030889&pid=S0185-3325200900010000400027&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">28. McFarland RA, Kadish R. Sex Diferences in finger temperature response to music. Int J Psychophysiology 1991;3:295&#150;298.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030890&pid=S0185-3325200900010000400028&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">29. Siegel S. Estad&iacute;stica no param&eacute;trica. M&eacute;xico: Trillas; 1985.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030891&pid=S0185-3325200900010000400029&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">30. Ramos J, Guevara MA, Martinez A, Arce C, Del Rio Y et al. Evaluaci&oacute;n de los estados afectivos provocados por la m&uacute;sica. Revista Mexicana Psicolog&iacute;a 1996;13(2):131&#150;145.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030892&pid=S0185-3325200900010000400030&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">31. Russell JA, Carroll JM. On the bipolarity of positive and negative affect. Psychol Bull 1999;125(1):3&#150;30.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030893&pid=S0185-3325200900010000400031&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">32. Watson D, Tellegen A. Toward a consensual structure of mood. Psychol Bull 1985;98:219&#150;235.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030894&pid=S0185-3325200900010000400032&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">33. Fischer B, Krehbiel S. Dynamic rating of emotions elicited by music. Proceedings of the National Conference on Undergraduate Research (NCUR). University of Kentucky, March 15&#150;17. Lexington, Kentucky; 2001.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=9030895&pid=S0185-3325200900010000400033&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Díaz]]></surname>
<given-names><![CDATA[JL]]></given-names>
</name>
<name>
<surname><![CDATA[Flores]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[La estructura de la emoción humana: un modelo cromático del sistema afectivo]]></article-title>
<source><![CDATA[Salud Mental]]></source>
<year>2001</year>
<volume>24</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>20-35</page-range></nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Dissanayake]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
</person-group>
<source><![CDATA[Antecedents of the temporal arts in early mother infant interaction, in origins of music]]></source>
<year>1999</year>
<publisher-loc><![CDATA[Cambridge^eMass Mass]]></publisher-loc>
<publisher-name><![CDATA[MIT press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Baumgartner]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[Lutz]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[Schmidt]]></surname>
<given-names><![CDATA[CF]]></given-names>
</name>
<name>
<surname><![CDATA[Jäncke]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The emotional power of music: How music enhances the feeling of affective pictures]]></article-title>
<source><![CDATA[Brain Res]]></source>
<year>2006</year>
<volume>1075</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>151-164</page-range></nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Huron]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Is music an evolutionary adaptation?]]></article-title>
<source><![CDATA[Ann NY Acad Sci]]></source>
<year>2001</year>
<volume>930</volume>
<page-range>43-61</page-range></nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Fukui]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Music and testosterone: a new hypothesis for the origin and function of music]]></article-title>
<source><![CDATA[Ann NY Acad Sci]]></source>
<year>2001</year>
<volume>930</volume>
<page-range>448-451</page-range></nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wallin]]></surname>
<given-names><![CDATA[NL]]></given-names>
</name>
<name>
<surname><![CDATA[Merker]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Brown]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[The origins of music]]></source>
<year>2001</year>
<publisher-loc><![CDATA[Cambridge^eMass Mass]]></publisher-loc>
<publisher-name><![CDATA[The MIT Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Besson]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Schön]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Comparison between language and music]]></article-title>
<source><![CDATA[Ann NY Acad Sci]]></source>
<year>2001</year>
<volume>930</volume>
<page-range>232-258</page-range></nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Brown]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Are music and language homologues?]]></article-title>
<source><![CDATA[Ann NY Acad Sci]]></source>
<year>2001</year>
<volume>930</volume>
<page-range>372-374</page-range></nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ashby]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Isen]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Turken]]></surname>
<given-names><![CDATA[U.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A neuropsychological theory of positive affect and its influence on cognition]]></article-title>
<source><![CDATA[Psychological Review]]></source>
<year>1999</year>
<volume>106</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>529-550</page-range></nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Allman]]></surname>
<given-names><![CDATA[JM]]></given-names>
</name>
<name>
<surname><![CDATA[Hakeem]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Erwin]]></surname>
<given-names><![CDATA[JM]]></given-names>
</name>
<name>
<surname><![CDATA[Nimchinsky]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[Hof]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The anterior cingulated cortex: the evolution of an interface between emotion and cognition]]></article-title>
<source><![CDATA[Ann NY Acad Sci]]></source>
<year>2001</year>
<volume>935</volume>
<page-range>107-117</page-range></nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Platel]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Baron]]></surname>
<given-names><![CDATA[JC]]></given-names>
</name>
<name>
<surname><![CDATA[Desgranges]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Bernard]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Eustache]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Semantic and episodic memory of music are subserved by distinct neural networks]]></article-title>
<source><![CDATA[Neuroimage]]></source>
<year>2003</year>
<volume>20</volume>
<page-range>244-256</page-range></nlm-citation>
</ref>
<ref id="B12">
<label>12</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Peretz]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[Zatorre]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Brain organization for music processing]]></article-title>
<source><![CDATA[Annu Rev Psychol]]></source>
<year>2005</year>
<volume>56</volume>
<page-range>89-114</page-range></nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bhattacharya]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Petsche]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Pereda]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Long-range synchrony in the gamma band: role in music perception]]></article-title>
<source><![CDATA[J Neurosci]]></source>
<year>2001</year>
<volume>21</volume>
<page-range>6329-6337</page-range></nlm-citation>
</ref>
<ref id="B14">
<label>14</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Castro-Sierra]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
</person-group>
<source><![CDATA[Development of pitch perception in children]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B15">
<label>15</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Peretz]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[Gagnon]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Bouchard]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Music and emotion: perceptual determinants, immediacy, and isolation after brain damage]]></article-title>
<source><![CDATA[Cognition]]></source>
<year>1998</year>
<volume>68</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>111-41</page-range></nlm-citation>
</ref>
<ref id="B16">
<label>16</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bard]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Mountcastle]]></surname>
<given-names><![CDATA[VB.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Some forebrain mechanisms involved in expression of rage with special reference to suppression of angry behavior]]></article-title>
<source><![CDATA[J Nervous Mental Disease]]></source>
<year>1948</year>
<volume>27</volume>
<page-range>362-404</page-range></nlm-citation>
</ref>
<ref id="B17">
<label>17</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Blood]]></surname>
<given-names><![CDATA[AJ]]></given-names>
</name>
<name>
<surname><![CDATA[Zatorre]]></surname>
<given-names><![CDATA[RJ]]></given-names>
</name>
<name>
<surname><![CDATA[Bermudez]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Evans]]></surname>
<given-names><![CDATA[AC.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Emotional responses to pleasant and unpleasant music correlate with activity in paralimbic brain regions]]></article-title>
<source><![CDATA[Nat Neurosci]]></source>
<year>1999</year>
<volume>2</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>382-387</page-range></nlm-citation>
</ref>
<ref id="B18">
<label>18</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Parsons]]></surname>
<given-names><![CDATA[LW.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Exploring the functional neuroanatomy of music performance, perception, and comprehension]]></article-title>
<source><![CDATA[Ann NY Acad Sci]]></source>
<year>2001</year>
<volume>930</volume>
<page-range>211-230</page-range></nlm-citation>
</ref>
<ref id="B19">
<label>19</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Janata]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Birk]]></surname>
<given-names><![CDATA[JL]]></given-names>
</name>
<name>
<surname><![CDATA[vHorn]]></surname>
<given-names><![CDATA[JD]]></given-names>
</name>
<name>
<surname><![CDATA[Leman]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Tillman]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The cortical topography of tonal structures underlying western music]]></article-title>
<source><![CDATA[Science]]></source>
<year>2002</year>
<volume>298</volume>
<page-range>2167-2170</page-range></nlm-citation>
</ref>
<ref id="B20">
<label>20</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Halpern]]></surname>
<given-names><![CDATA[AR]]></given-names>
</name>
<name>
<surname><![CDATA[Zatorre]]></surname>
<given-names><![CDATA[RJ]]></given-names>
</name>
<name>
<surname><![CDATA[Bouffard]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Johnson]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Behavioral and neural correlates of perceived and imagined musical timbre]]></article-title>
<source><![CDATA[Neuropsychologia]]></source>
<year>2004</year>
<volume>42</volume>
<numero>9</numero>
<issue>9</issue>
<page-range>1281-1292</page-range></nlm-citation>
</ref>
<ref id="B21">
<label>21</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Blood]]></surname>
<given-names><![CDATA[AJ]]></given-names>
</name>
<name>
<surname><![CDATA[Zatorre]]></surname>
<given-names><![CDATA[RJ.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Intensely pleasurable responses to music correlate with activity in brain regions implicated in reward and emotion]]></article-title>
<source><![CDATA[Proc Natl Acad Sci]]></source>
<year>2001</year>
<volume>98</volume>
<page-range>11818-11823</page-range></nlm-citation>
</ref>
<ref id="B22">
<label>22</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Khalfa]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Schon]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Anton]]></surname>
<given-names><![CDATA[JL]]></given-names>
</name>
<name>
<surname><![CDATA[Liegeois-Chauvel]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Brain regions involved in the recognition of happiness and sadness in music]]></article-title>
<source><![CDATA[Neuroreport]]></source>
<year>2005</year>
<volume>16</volume>
<page-range>1981-1984</page-range></nlm-citation>
</ref>
<ref id="B23">
<label>23</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Koelsch]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Fritz]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[vCramon]]></surname>
<given-names><![CDATA[DY]]></given-names>
</name>
<name>
<surname><![CDATA[Muller]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[Friederici]]></surname>
<given-names><![CDATA[AD.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Investigating emotion with music: An fMRI study]]></article-title>
<source><![CDATA[Hum Brain Mapp]]></source>
<year>2006</year>
<volume>27</volume>
<page-range>239-250</page-range></nlm-citation>
</ref>
<ref id="B24">
<label>24</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Flores-Gutiérrez]]></surname>
<given-names><![CDATA[EO]]></given-names>
</name>
<name>
<surname><![CDATA[Díaz]]></surname>
<given-names><![CDATA[JL]]></given-names>
</name>
<name>
<surname><![CDATA[Barrios]]></surname>
<given-names><![CDATA[FA]]></given-names>
</name>
<name>
<surname><![CDATA[Favila-Humara]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Guevara]]></surname>
<given-names><![CDATA[MA]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Metabolic and electric brain patterns during pleasant and unpleasant emotions induced by music masterpieces]]></article-title>
<source><![CDATA[Int J Psychophysiol]]></source>
<year>2007</year>
<volume>65</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>69-84</page-range></nlm-citation>
</ref>
<ref id="B25">
<label>25</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hevner]]></surname>
<given-names><![CDATA[K.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Experimental Studies of the Elements of Expression in Music]]></article-title>
<source><![CDATA[American J Psychology]]></source>
<year>1936</year>
<volume>48</volume>
<page-range>246-268</page-range></nlm-citation>
</ref>
<ref id="B26">
<label>26</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ramos]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Corsi-Cabrera]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Does brain electrical activity react to music?]]></article-title>
<source><![CDATA[Int J Neurosci]]></source>
<year>1989</year>
<volume>47</volume>
<numero>3-4</numero>
<issue>3-4</issue>
<page-range>351-357</page-range></nlm-citation>
</ref>
<ref id="B27">
<label>27</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[North]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Hargreaves]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Liking, arousal potential, and the emotions expressed by music]]></article-title>
<source><![CDATA[Scand J Psychol]]></source>
<year>1997</year>
<volume>38</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>45-53</page-range></nlm-citation>
</ref>
<ref id="B28">
<label>28</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[McFarland]]></surname>
<given-names><![CDATA[RA]]></given-names>
</name>
<name>
<surname><![CDATA[Kadish]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Sex Diferences in finger temperature response to music]]></article-title>
<source><![CDATA[Int J Psychophysiology]]></source>
<year>1991</year>
<volume>3</volume>
<page-range>295-298</page-range></nlm-citation>
</ref>
<ref id="B29">
<label>29</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Siegel]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
</person-group>
<source><![CDATA[Estadística no paramétrica]]></source>
<year>1985</year>
<publisher-name><![CDATA[Trillas]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B30">
<label>30</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ramos]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Guevara]]></surname>
<given-names><![CDATA[MA]]></given-names>
</name>
<name>
<surname><![CDATA[Martinez]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Arce]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Del Rio]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Evaluación de los estados afectivos provocados por la música]]></article-title>
<source><![CDATA[Revista Mexicana Psicología]]></source>
<year>1996</year>
<volume>13</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>131-145</page-range></nlm-citation>
</ref>
<ref id="B31">
<label>31</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Russell]]></surname>
<given-names><![CDATA[JA]]></given-names>
</name>
<name>
<surname><![CDATA[Carroll]]></surname>
<given-names><![CDATA[JM.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[On the bipolarity of positive and negative affect]]></article-title>
<source><![CDATA[Psychol Bull]]></source>
<year>1999</year>
<volume>125</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>3-30</page-range></nlm-citation>
</ref>
<ref id="B32">
<label>32</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Watson]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Tellegen]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Toward a consensual structure of mood]]></article-title>
<source><![CDATA[Psychol Bull]]></source>
<year>1985</year>
<volume>98</volume>
<page-range>219-235</page-range></nlm-citation>
</ref>
<ref id="B33">
<label>33</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Fischer]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Krehbiel]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
</person-group>
<source><![CDATA[Dynamic rating of emotions elicited by music]]></source>
<year></year>
<conf-name><![CDATA[ the National Conference on Undergraduate Research (NCUR)]]></conf-name>
<conf-date>2001</conf-date>
<conf-loc>Lexington Kentucky</conf-loc>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
