<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0188-9532</journal-id>
<journal-title><![CDATA[Revista mexicana de ingeniería biomédica]]></journal-title>
<abbrev-journal-title><![CDATA[Rev. mex. ing. bioméd]]></abbrev-journal-title>
<issn>0188-9532</issn>
<publisher>
<publisher-name><![CDATA[Sociedad Mexicana de Ingeniería Biomédica]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0188-95322015000300008</article-id>
<article-id pub-id-type="doi">10.17488/RMIB.36.3.8</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Aplicación de la Sonificación de Señales Cerebrales en Clasificación Automática]]></article-title>
<article-title xml:lang="en"><![CDATA[Applying Brain Signals Sonification for Automatic Classification]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[González Castañeda]]></surname>
<given-names><![CDATA[E.F.]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Torres-García]]></surname>
<given-names><![CDATA[A.A.]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Reyes-García]]></surname>
<given-names><![CDATA[C.A.]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Villaseñor-Pineda]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Instituto Nacional de Astrofísica, Optica y Electrónica  ]]></institution>
<addr-line><![CDATA[Puebla ]]></addr-line>
<country>México</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>12</month>
<year>2015</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>12</month>
<year>2015</year>
</pub-date>
<volume>36</volume>
<numero>3</numero>
<fpage>235</fpage>
<lpage>250</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_arttext&amp;pid=S0188-95322015000300008&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_abstract&amp;pid=S0188-95322015000300008&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_pdf&amp;pid=S0188-95322015000300008&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[En años recientes la sonificación de electroencefalogramas (EEG) ha sido utilizada como una alternativa para analizar señales cerebrales al convertir el EEG en audio. En este trabajo se aplica la sonificación a señales de EEG durante el habla imaginada o habla no pronunciada, con el objetivo de mejorar la clasificación automática de 5 palabras del idioma español. Para comprobarlo, se procesó la señal cerebral de 27 sujetos sanos. Estas señales fueron sonificadas para después extraer características con dos métodos diferentes: la transformada Wavelet discreta (DWT); y los coeficientes cepstrales en la escala de Mel (MFCC). Éste último comúnmente utilizado en tareas de reconocimiento de voz. Para clasificar las señales se aplicaron tres algoritmos distintos de clasificación Naive Bayes (NB), Máquina de vectores de soporte (SVM) y Random Forest (RF). Se obtuvieron resultados usando los 4 canales más cercanos a las áreas de lenguaje de Broca y Wernicke, así como también los 14 canales del dispositivo EEG utilizado. Los porcentajes de exactitud promedio para los 27 sujetos en los dos conjuntos de 4 y 14 canales usando sonificación de EEG fueron de 55.83% y 64.14% respectivamente, con lo que se logró mejorar ligeramente los porcentajes de clasificación de las palabras imaginadas respecto a no utilizar sonificación.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[In recent years sonification of electroencephalograms (EEG) has been used as an alternative to analyze brain signals after converting EEG to audio. In this paper we applied the sonification to EEG signals during the imagined speech or unspoken speech, with the aim of improving the automatic classification of 5 words of Spanish. To check this, the brain signals of 27 healthy subjects were processed. These sonificated signals were processed to extract features with two different methods: discrete wavelet transform (DWT); and the Mel-frequencies cepstral coefficients (MFCC). The latter commonly used in speech recognition tasks. To classify the signals three different classification algorithms Naive Bayes (NB), Support Vector Machine (SVM) and Random Forest (RF) were applied. Results were obtained using the 4 channels closest to the language areas of Broca and Wernicke, as well as the 14 channels of the EEG device used. The percentages of average accuracy for the 27 subjects in the two sets of 4 and 14 channels using EEG sonification were 55.83% and 64.14% respectively, which are improvements in the classification rates of the imagined words compared with a scheme without sonification.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[sonificación]]></kwd>
<kwd lng="es"><![CDATA[electroencefalogramas (EEG)]]></kwd>
<kwd lng="es"><![CDATA[habla imaginada]]></kwd>
<kwd lng="es"><![CDATA[palabras no pronunciadas]]></kwd>
<kwd lng="es"><![CDATA[clasificación automática]]></kwd>
<kwd lng="en"><![CDATA[sonification]]></kwd>
<kwd lng="en"><![CDATA[electroencephalograms (EEG)]]></kwd>
<kwd lng="en"><![CDATA[unspoken speech]]></kwd>
<kwd lng="en"><![CDATA[unspoken words]]></kwd>
<kwd lng="en"><![CDATA[classification]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[  	    <p align="justify"><font face="verdana" size="4">Art&iacute;culo de investigaci&oacute;n</font></p>  	    <p>&nbsp;</p>  	    <p align="center"><font face="verdana" size="4"><b>Aplicaci&oacute;n de la Sonificaci&oacute;n de Se&ntilde;ales Cerebrales en Clasificaci&oacute;n Autom&aacute;tica</b></font></p>  	    <p>&nbsp;</p>  	    <p align="center"><font face="verdana" size="3"><b>Applying Brain Signals Sonification for Automatic Classification</b></font></p>  	    <p>&nbsp;</p>  	    <p align="center"><font face="verdana" size="2"><b>E.F. Gonz&aacute;lez Casta&ntilde;eda, A.A. Torres&#45;Garc&iacute;a, C.A. Reyes&#45;Garc&iacute;a, L. Villase&ntilde;or&#45;Pineda</b></font></p>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><i>Instituto Nacional de Astrof&iacute;sica &Oacute;ptica y Electr&oacute;nica (INAOE).</i></font></p>  	    ]]></body>
<body><![CDATA[<p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>Correspondencia:</b>    <br> 	Erick Gonz&aacute;lez    <br> 	<i>INAOE Luis Enrique Erro 1 Sta. Mar&iacute;a Tonantzintla, Puebla.</i>    <br> 	Correo electr&oacute;nico: <a href="mailto:erick.gonzalezc@inaoep.mx">erick.gonzalezc@inaoep.mx</a></font></p>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2">Fecha de recepci&oacute;n: 8 de mayo de 2015.    <br> 	Fecha de aceptaci&oacute;n: 11 de septiembre de 2015.</font></p>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>RESUMEN</b></font></p>      ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En a&ntilde;os recientes la sonificaci&oacute;n de electroencefalogramas (EEG) ha sido utilizada como una alternativa para analizar se&ntilde;ales cerebrales al convertir el EEG en audio. En este trabajo se aplica la sonificaci&oacute;n a se&ntilde;ales de EEG durante el habla imaginada o habla no pronunciada, con el objetivo de mejorar la clasificaci&oacute;n autom&aacute;tica de 5 palabras del idioma espa&ntilde;ol. Para comprobarlo, se proces&oacute; la se&ntilde;al cerebral de 27 sujetos sanos. Estas se&ntilde;ales fueron sonificadas para despu&eacute;s extraer caracter&iacute;sticas con dos m&eacute;todos diferentes: la transformada Wavelet discreta (DWT); y los coeficientes cepstrales en la escala de Mel (MFCC). &Eacute;ste &uacute;ltimo com&uacute;nmente utilizado en tareas de reconocimiento de voz. Para clasificar las se&ntilde;ales se aplicaron tres algoritmos distintos de clasificaci&oacute;n Naive Bayes (NB), M&aacute;quina de vectores de soporte (SVM) y Random Forest (RF). Se obtuvieron resultados usando los 4 canales m&aacute;s cercanos a las &aacute;reas de lenguaje de Broca y Wernicke, as&iacute; como tambi&eacute;n los 14 canales del dispositivo EEG utilizado. Los porcentajes de exactitud promedio para los 27 sujetos en los dos conjuntos de 4 y 14 canales usando sonificaci&oacute;n de EEG fueron de 55.83% y 64.14% respectivamente, con lo que se logr&oacute; mejorar ligeramente los porcentajes de clasificaci&oacute;n de las palabras imaginadas respecto a no utilizar sonificaci&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Palabras clave:</b> sonificaci&oacute;n, electroencefalogramas (EEG), habla imaginada, palabras no pronunciadas, clasificaci&oacute;n autom&aacute;tica.</font></p>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>ABSTRACT</b></font></p>      <p align="justify"><font face="verdana" size="2">In recent years sonification of electroencephalograms (EEG) has been used as an alternative to analyze brain signals after converting EEG to audio. In this paper we applied the sonification to EEG signals during the imagined speech or unspoken speech, with the aim of improving the automatic classification of 5 words of Spanish. To check this, the brain signals of 27 healthy subjects were processed. These sonificated signals were processed to extract features with two different methods: discrete wavelet transform (DWT); and the Mel&#45;frequencies cepstral coefficients (MFCC). The latter commonly used in speech recognition tasks. To classify the signals three different classification algorithms Naive Bayes (NB), Support Vector Machine (SVM) and Random Forest (RF) were applied. Results were obtained using the 4 channels closest to the language areas of Broca and Wernicke, as well as the 14 channels of the EEG device used. The percentages of average accuracy for the 27 subjects in the two sets of 4 and 14 channels using EEG sonification were 55.83% and 64.14% respectively, which are improvements in the classification rates of the imagined words compared with a scheme without sonification.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Keywords:</b> sonification, electroencephalograms (EEG), unspoken speech, unspoken words, classification.</font></p>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>INTRODUCCI&Oacute;N</b></font></p>  	    <p align="justify"><font face="verdana" size="2">La sonificaci&oacute;n de EEG es el uso de cualquier m&eacute;todo de sonificaci&oacute;n para transformar la lectura de ondas cerebrales a sonidos con el objetivo de facilitar su an&aacute;lisis. La sonificaci&oacute;n de EEG permite, en general, distribuir la informaci&oacute;n en un amplio rango de frecuencias audibles. La sonificaci&oacute;n de EEG ha sido utilizada para fines diversos: el estudio de la distribuci&oacute;n espacial de la actividad cerebral &#91;1&#93;, el an&aacute;lisis de la coherencia del sonido con la actividad cerebral de la banda alfa &#91;2&#93;, la asistencia en rehabilitaci&oacute;n &#91;3&#93; e incluso en la creaci&oacute;n de composiciones musicales &#91;4&#93;.</font></p>  	    <p align="justify"><font face="verdana" size="2">Diversos investigadores han desarrollado trabajos relacionados con las t&eacute;cnicas y aplicaciones de la sonificaci&oacute;n de EEG. Thomas Hermann y sus colaboradores han demostrado las ventajas y desventajas de la sonificaci&oacute;n de EEG &#91;5&#93;. Dichos investigadores han presentado m&eacute;todos de sonificaci&oacute;n de EEG para mostrar la correspondencia entre las actividades neurales y cognitivas, como por ejemplo con el m&eacute;todo de sonificaci&oacute;n por matriz de distancias entre filas de electrodos &#91;6&#93;. Tambi&eacute;n han propuesto los m&eacute;todos de sonificaci&oacute;n basada en eventos &#91;7&#93;, y el m&eacute;todo de sonificaci&oacute;n de EEG Vocal &#91;8&#93;, los cuales han servido para analizar a pacientes con epilepsia.</font></p>  	    ]]></body>
<body><![CDATA[<p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>Antecedentes</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Los audios de un EEG sonificado han sido utilizados para ayudar en la toma de decisiones en los diagn&oacute;sticos m&eacute;dicos, por ejemplo el diagn&oacute;stico de la enfermedad neurol&oacute;gica de Alzheimer.</font></p>  	    <p align="justify"><font face="verdana" size="2">En &#91;9&#93;, los audios se generan a partir de electroencefalogramas (EEG) de sujetos sanos y sujetos con etapa temprana de la enfermedad de Alzheimer. En este trabajo se aplic&oacute; una t&eacute;cnica de sonificaci&oacute;n de EEG para hacer clasificaci&oacute;n entre las distintas condiciones de los pacientes. En una primera fase, la clasificaci&oacute;n fue realizada manualmente por personas no especializadas, al percibir la diferencia en la retroalimentaci&oacute;n audible del EEG de los pacientes con Alzheimer contra los audios de pacientes saludables. En esta investigaci&oacute;n se lograron reconocer las diferencias escuchando la sonificaci&oacute;n de los sujetos sanos y los sujetos enfermos con un 95% de exactitud. En una segunda fase, se aplic&oacute; un m&eacute;todo de clasificaci&oacute;n autom&aacute;tica mediante an&aacute;lisis discriminante lineal (LDA) para clasificar los mismos datos y compararlos con los obtenidos por los voluntarios, con lo que se obtuvo una exactitud promedio del 90%.</font></p>  	    <p align="justify"><font face="verdana" size="2">Dicho trabajo obtuvo resultados excelentes en la clasificaci&oacute;n subjetiva y autom&aacute;tica, lo que motiv&oacute; nuestro inter&eacute;s en comprobar si al aplicar una t&eacute;cnica de sonificaci&oacute;n de EEG se puede mejorar la clasificaci&oacute;n autom&aacute;tica en las se&ntilde;ales cerebrales para la tarea de habla imaginada. Algunos antecedentes en la clasificaci&oacute;n de se&ntilde;ales EEG de palabras no pronunciadas son los trabajos reportados en &#91;10, 11, 12&#93;. Esta tarea de clasificaci&oacute;n ha sido afrontada con distintos enfoques, donde por ejemplo en el trabajo &#91;10&#93; se busc&oacute; clasificar 5 palabras no pronunciadas del idioma ingl&eacute;s usando m&eacute;todos de reconocimiento de voz pero sobre el EEG sin sonificar, aun cuando las se&ntilde;ales de EEG poseen un espectro de frecuencias menor al de una se&ntilde;al de audio.</font></p>  	    <p align="justify"><font face="verdana" size="2">De acuerdo con lo anterior, en esta investigaci&oacute;n se aplic&oacute; un m&eacute;todo de aprendizaje autom&aacute;tico para evaluar si la sonificaci&oacute;n de la se&ntilde;al de EEG puede apoyar a mejorar los resultados de clasificaci&oacute;n de palabras no pronunciadas. Este es el principal objetivo tanto de este trabajo como de nuestros trabajos previos (v&eacute;ase &#91;13&#93;). No obstante, el presente trabajo extiende la experimentaci&oacute;n al evaluar la aplicaci&oacute;n de t&eacute;cnicas de extracci&oacute;n de caracter&iacute;sticas com&uacute;nmente utilizadas para reconocimiento de voz; adem&aacute;s de usar informaci&oacute;n de un mayor n&uacute;mero de canales (14 canales).</font></p>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>METODOLOG&Iacute;A</b></font></p>  	    <p align="justify"><font face="verdana" size="2">En la presente investigaci&oacute;n se siguieron las etapas mostradas en la <a href="/img/revistas/rmib/v36n3/a8f1.jpg" target="_blank">figura 1</a>. Se comenz&oacute; con una base de datos de palabras no pronunciadas, despu&eacute;s en el montaje de referencia de la se&ntilde;al cerebral se aplic&oacute; la referencia promedio com&uacute;n. Luego las se&ntilde;ales se sonificaron usando el m&eacute;todo de sonificaci&oacute;n de <i>EEG a tonos</i> &#91;14&#93;. Despu&eacute;s se aplicaron los m&eacute;todos para extraer las caracter&iacute;sticas de los audios resultantes de la sonificaci&oacute;n, en este caso la transformada Wavelet discreta (DWT) y los coeficientes cepstrales en la escala de Mel (MFCC). Posteriormente se procedi&oacute; a clasificar los vectores de caracter&iacute;sticas de las 5 palabras usando Naive Bayes, SVM y Random Forest.</font></p>  	    <p>&nbsp;</p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>Adquisici&oacute;n de la se&ntilde;al cerebral</b></font></p>  	    <p align="justify"><font face="verdana" size="2">La base de datos de se&ntilde;ales cerebrales utilizada fue la misma que se adquiri&oacute; en el trabajo &#91;15&#93;, la cual cuenta con los registros de 27 sujetos durante la pronunciaci&oacute;n imaginada de 5 palabras del idioma espa&ntilde;ol (<i>arriba, abajo, derecha, izquierda, seleccionar</i>). Estas se&ntilde;ales fueron registradas utilizando el dispositivo de EEG Epoc de la compa&ntilde;&iacute;a Emotiv, este dispositivo cuenta con 14 electrodos de lectura los cuales poseen una frecuencia de muestreo de 128 Hz. En la <a href="/img/revistas/rmib/v36n3/a8f2.jpg" target="_blank">figura 2</a> se muestra la distribuci&oacute;n de los electrodos en el dispositivo de EEG.</font></p>  	    <p align="justify"><font face="verdana" size="2">En la sesi&oacute;n de registro de se&ntilde;ales cada sujeto imagin&oacute; la pronunciaci&oacute;n de cada una de las palabras 33 veces, delimitando la se&ntilde;al de inter&eacute;s mediante clics. Los registros fueron obtenidos en el Instituto Nacional de Astrof&iacute;sica, &Oacute;ptica y Electr&oacute;nica (INAOE), en un sala libre de distracciones y ruido externo audible, esto para evitar que la se&ntilde;al cerebral tuviera informaci&oacute;n no deseada que pudiera afectar el proceso de clasificaci&oacute;n.</font></p>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>Montaje de referencia</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Las se&ntilde;ales de EEG obtenidas fueron procesadas con el m&eacute;todo de referencia promedio com&uacute;n (CAR) (tal como se aplic&oacute; en otros trabajos sobre habla imaginada &#91;16, 17, 12&#93;). Este montaje mejora la relaci&oacute;n se&ntilde;al a ruido de la se&ntilde;al de EEG.</font></p>  	    <p align="justify"><font face="verdana" size="2">La referencia promedio com&uacute;n busca quitar la informaci&oacute;n que es com&uacute;n en todas las lecturas simult&aacute;neas de los electrodos &#91;18&#93;. La CAR puede ser calculada mediante la resta del potencial entre cada electrodo y la referencia (el potencial promedio de todos los canales), se repite esto para cada instante de tiempo, tal como se muestra en la siguiente f&oacute;rmula:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v36n3/a8e1.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">donde <i>V<sub>i</sub><sup>ER</sup></i> es el potencial entre el i&#45;&eacute;simo electrodo y la referencia, y <i>n</i> es el n&uacute;mero de electrodos en el montaje &#91;12&#93;.</font></p>  	    <p>&nbsp;</p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>Sonificaci&oacute;n de EEG</b></font></p>  	    <p align="justify"><font face="verdana" size="2">En el presente trabajo se utiliz&oacute; la t&eacute;cnica de Sonificaci&oacute;n <i>EEG to tones </i>(<i>EEG a tonos</i>) &#91;14&#93;. Este m&eacute;todo genera audios basados en tonos (ondas sinusoidales con frecuencia audible) mediante la elecci&oacute;n de amplitudes dominantes en las frecuencias de la se&ntilde;al cerebral. El pseudoc&oacute;digo que explica el m&eacute;todo de sonificaci&oacute;n de EEG utilizado es mostrado en el <a href="#al1">algoritmo 1</a>. A continuaci&oacute;n se describe el proceso.</font></p>  	    <p align="center"><font face="verdana" size="2"><a name="al1"></a></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v36n3/a8al1.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">El algoritmo de sonificaci&oacute;n <i>EEG a tonos,</i> toma de entrada una se&ntilde;al de EEG de un canal. Luego se crea un espectrograma de la se&ntilde;al de EEG, con el que se obtienen las amplitudes en cada frecuencia de la se&ntilde;al de EEG para cada segmento de tiempo.</font></p>  	    <p align="justify"><font face="verdana" size="2">Las amplitudes del espectrograma obtenido se re&#45;escalan respecto a la m&aacute;xima amplitud la cual pasa a representar el 100%. Las amplitudes escaladas del espectrograma se ordenan de manera descendente y se toman las de mayor valor. El n&uacute;mero de amplitudes a tomar es el establecido por el par&aacute;metro de n&uacute;mero de tonos a representar en el audio. Con lo anterior se crean vectores de frecuencia dominantes por cada segmento de tiempo.</font></p>  	    <p align="justify"><font face="verdana" size="2">A continuaci&oacute;n se establece qu&eacute; tono le corresponde a cada vector de frecuencias dominantes del espectrograma. Para ello se establecen las frecuencias m&iacute;nima y m&aacute;xima a representar en el archivo de audio. Luego a partir de ese rango se distribuyen proporcionalmente los tonos respecto al rango de frecuencias de la se&ntilde;al de EEG.</font></p>  	    <p align="justify"><font face="verdana" size="2">Por &uacute;ltimo, se forma el audio de salida. Para ello se recorre cada ventana del espectrograma y se verifica si existen frecuencias dominantes. De ser as&iacute;, se asignan los tonos correspondientes con la duraci&oacute;n previamente establecida en segundos. En otras palabras, se suman las se&ntilde;ales sinusoidales de los tonos para cada segmento de tiempo.</font></p>  	    <p align="justify"><font face="verdana" size="2">En la <a href="/img/revistas/rmib/v36n3/a8f3.jpg" target="_blank">figura 3</a> se muestra un ejemplo del resultado de la ejecuci&oacute;n del algoritmo con dos configuraciones distintas, en el cual se muestra que al aplicar la sonificaci&oacute;n de EEG podemos expandir o contraer la se&ntilde;al a partir de la modificaci&oacute;n del par&aacute;metro de entrada de duraci&oacute;n de tonos. Para escuchar ejemplos de la sonificacion de EEG visitar la p&aacute;gina <a href="#nota"><sup>1</sup></a>.</font></p>  	    <p align="justify"><font face="verdana" size="2">La se&ntilde;al de audio generada ahora posee otras caracter&iacute;sticas en la distribuci&oacute;n de las frecuencias como se puede apreciar en el espectrograma calculado a partir de las se&ntilde;ales de audio. En los espectrogramas de la <a href="/img/revistas/rmib/v36n3/a8f4.jpg" target="_blank">figura 4</a>, se aprecia el impacto que tiene la cantidad de tonos en el audio de salida, pues para la sonificaci&oacute;n con 4 tonos las frecuencias dominantes estar&aacute;n con poca separaci&oacute;n, mientras que con 14 tonos las frecuencias est&aacute;n mejor distribuidas.</font></p>  	    ]]></body>
<body><![CDATA[<p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>Extracci&oacute;n de caracter&iacute;sticas</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Despu&eacute;s de aplicar el proceso de sonificaci&oacute;n de EEG a las palabras no pronunciadas, la siguiente etapa es buscar la manera de extraer caracter&iacute;sticas de la se&ntilde;al de audio con el objetivo de que un clasificador pueda discriminar entre clases.</font></p>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>DWT y energ&iacute;a relativa</b></font></p>  	    <p align="justify"><font face="verdana" size="2">La transformada wavelet discreta (DWT, por su siglas en ingl&eacute;s), es una t&eacute;cnica que permite modelar las variaciones de las se&ntilde;ales de EEG en el dominio tiempo&#45;escala &#91;19&#93;</font></p>  	    <p align="justify"><font face="verdana" size="2">Una vez aplicada la DWT sobre la se&ntilde;al se obtienen coeficientes de aproximaci&oacute;n y de detalle, desde los cuales es posible calcular la energ&iacute;a relativa wavelet. La energ&iacute;a relativa wavelet (RWE) representa la energ&iacute;a que alg&uacute;n nivel de descomposici&oacute;n aporta al total de la energ&iacute;a wavelet de la se&ntilde;al. La energ&iacute;a relativa provee informaci&oacute;n para caracterizar la distribuci&oacute;n de energ&iacute;a de la se&ntilde;al en diferentes bandas de frecuencia, con lo que se obtiene independencia del tama&ntilde;o de la ventana de se&ntilde;al de EEG o de audio, seg&uacute;n sea el caso. En este trabajo se aplic&oacute; la RWE tal como se explica en &#91;12&#93;.</font></p>  	    <p align="justify"><font face="verdana" size="2">Para <i>N</i> niveles de descomposici&oacute;n, la energ&iacute;a relativa wavelet para el nivel de descomposici&oacute;n <i>j</i> se define como:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v36n3/a8e2.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Donde <i>E<sub>j</sub></i> representa la energ&iacute;a en el <i>j</i>&#45;&eacute;simo nivel de descomposici&oacute;n, la cual se define como:</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Para <i>i = 1,...,N + 1.</i></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v36n3/a8e3.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Por su parte <i>E<sub>total</sub></i> representa la energ&iacute;a total de los coeficientes wavelet:<img src="/img/revistas/rmib/v36n3/a8ec1.jpg" align="middle"></font></p>  	    <p align="justify"><font face="verdana" size="2">A partir de la descripci&oacute;n anterior, en las se&ntilde;ales de EEG no sonificadas, se aplic&oacute; la transformada wavelet usando una wavelet de la familia <i>Daubechies.</i> Cada ventana de habla imaginada se represent&oacute; mediante un conjunto de 5 valores de energ&iacute;a wavelet, 4 de los niveles de descomposici&oacute;n y uno de aproximaci&oacute;n (D2&#45;D5 y A5) con respecto a la energ&iacute;a wavelet total. Tal como se realiz&oacute; en &#91;12&#93;, el valor asociado con D1 es descartado.</font></p>  	    <p align="justify"><font face="verdana" size="2">Por otra parte, en las se&ntilde;ales EEG sonificadas se us&oacute; la misma familia de wavelets y se determin&oacute; usar 7 valores que representan la energ&iacute;a wavelet en todos los niveles de descomposici&oacute;n y el &uacute;ltimo de aproximaci&oacute;n (D1&#45;D6 y A6).</font></p>  	    <p align="justify"><font face="verdana" size="2">En la <a href="/img/revistas/rmib/v36n3/a8f5.jpg" target="_blank">figura 5</a> se muestran los niveles de descomposici&oacute;n y detalle obtenidos de la transformada wavelet, donde cada nivel representa un rango de frecuencias en la se&ntilde;al de EEG o de audio. En la sonificaci&oacute;n de EEG se aplic&oacute; la DWT usando una wavelet de diferente orden y con diferentes niveles de descomposici&oacute;n para intentar adaptarlos al nuevo dominio y al diferente rango de frecuencias. Se aplic&oacute; de dicha forma debido a que para la se&ntilde;al de EEG se calcularon los niveles a partir del rango de frecuencias de 0 a 60 Hz, mientras que en la se&ntilde;al de EEG sonificado los niveles van de 50 a 5000 Hz.</font></p>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>MFCC y coeficientes Delta</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Los coeficientes cepstrales en la escala de Mel (Mel&#45;frequency Cepstral Coefficients) son caracter&iacute;sticas espectrales que se calculan desde un an&aacute;lisis espectral en tiempo corto derivado de la transformada r&aacute;pida de Fourier, comunmente se utilizan en se&ntilde;ales de audio. Estos coeficientes aproximan el comportamiento de la se&ntilde;al al uso de la escala de frecuencia lineal.</font></p>  	    <p align="justify"><font face="verdana" size="2">En esta t&eacute;cnica se crea un espectrograma basado en los par&aacute;metros de tama&ntilde;o de ventana y traslape entre ventanas. Luego a partir del espectrograma se establecen filtros en la escala de Mel por medio de funciones triangulares. A partir de las frecuencias filtradas el algoritmo obtiene coeficientes cepstrales que indican la energ&iacute;a en las distintas bandas del espectro. Con lo anterior se obtiene una matriz de coeficientes cepstrales por cada segmento de tiempo.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Los coeficientes cepstrales totales obtenidos son de gran dimension por lo que es conveniente hacer reducciones o representar los valores con sus atributos estad&iacute;sticos. En nuestro caso se opt&oacute; por representar los coeficientes con los siguientes atributos estad&iacute;sticos: Valor m&aacute;ximo, valor m&iacute;nimo, media y desviaci&oacute;n est&aacute;ndar.</font></p>  	    <p align="justify"><font face="verdana" size="2">A partir de los coeficientes cepstrales, se implement&oacute; un esquema para la extracci&oacute;n de los cambios diferenciales entre segmentos de tiempo, para obtener los valores conocidos como valores <i>delta.</i> Adem&aacute;s se extrajeron los cambios diferenciales entre segmentos de valores delta, para obtener los valores conocidos como valores <i>doble delta.</i> Para obtener los valores delta se tiene que establecer una ventana que indicar&aacute; cu&aacute;ntas muestras vecinas se tomar&aacute;n para calcular los cambios en el tiempo &#91;20&#93;. La ventana es representada por coeficientes obtenidos de un tiempo anterior y de un tiempo posterior de la muestra central. Estos coeficientes se definen como: <i>C =</i> {<i>k, k &#45; 1, k &#45;</i> 2, ...<i>, &#45;k</i>}<i>.</i> Donde <i>k</i> es el tama&ntilde;o de la ventana. Se repiten las muestra inicial y final <i>k</i> veces como ajuste. Despu&eacute;s para calcular la derivada <i>d<sub>i</sub></i> en el tiempo de cada muestra, se recorre el vector aplicando una operaci&oacute;n filtro usando los coeficientes calculados:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v36n3/a8e4.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Donde <i>X<sub>n</sub></i> es la muestra en la posici&oacute;n final de la ventana. Una vez calculadas las derivadas para cada muestra del vector, se divide cada valor entre la suma de los cuadrados de los coeficientes <i>C</i>.</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v36n3/a8e5.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Al final se quitan las muestras de ajuste agregadas. Los valores delta representan a un segmento de MFCC por lo que tienen que ser representados igualmente en forma de atributos estad&iacute;sticos. Por otra parte, los valores doble delta se calculan con el mismo proceso que los coeficientes delta, pero con los coeficientes delta como vector de entrada y tambi&eacute;n son representados con sus respectivos atributos estad&iacute;sticos.</font></p>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>Clasificaci&oacute;n</b></font></p>  	    <p align="justify"><font face="verdana" size="2">En la etapa de clasificaci&oacute;n de este trabajo se emplearon dos configuraciones de experimentos con diferente n&uacute;mero de canales. Un enfoque clasifica solo 4 canales correspondientes al modelo Geschwind&#45;Wernicke correspondientes al hemisferio izquierdo en las &aacute;reas que involucran el procesamiento del lenguaje. Los electrodos seleccionados se muestran en la <a href="/img/revistas/rmib/v36n3/a8f2.jpg" target="_blank">figura 2</a>. El otro enfoque buscar&aacute; clasificar usando todos los 14 canales disponibles, esto con la finalidad de evaluar si un conjunto m&aacute;s amplio de canales permite obtener informaci&oacute;n adicional que ayude a mejorar los porcentajes de exaactitud en la clasificaci&oacute;n. Cabe se&ntilde;alar que las caracter&iacute;sticas fueron obtenidas para cada canal del dispositivo de EEG, por lo que en la etapa de clasificaci&oacute;n las caracter&iacute;sticas (de los 4 &oacute; 14 canales) fueron concatenadas en un solo archivo.</font></p>  	    <p align="justify"><font face="verdana" size="2">En este trabajo se evalu&oacute; el desempe&ntilde;o de los clasificadores: Naive Bayes (NB), Support Vector Machine (SVM) y Random Forest (RF). Se eligieron estos clasificadores para comparar los resultados con el trabajo previo &#91;12&#93;. Cada clasificador se implement&oacute; bajo un enfoque de validaci&oacute;n cruzada &#91;21&#93; el cual hace particiones sobre el conjunto de datos de entrada. En nuestro caso para mantener las comparaciones de manera justa, se ejecut&oacute; la validaci&oacute;n cruzada con 10 particiones bajo la misma semilla para el generador aleatorio de particiones.</font></p>  	    ]]></body>
<body><![CDATA[<p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>Naive Bayes</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Naive Bayes es un clasificador probabilista, el cual es muy utilizado por ser sencillo y eficiente en muchos casos. Este clasificador funciona bajo la suposici&oacute;n de que las caracter&iacute;sticas en un conjunto de datos son independientes entre s&iacute;. Para clasificar una instancia, se determinan las probabilidades de cada valor de los atributos de esa instancia para cada clase disponible. Despu&eacute;s se aplica el teorema de Bayes para conocer la probabilidad que tiene la instancia de pertenecer a una clase y se elige la clase con el valor de probabilidad m&aacute;s alto. Naive Bayes se describe con m&aacute;s detalle en &#91;22&#93;. En el presente trabajo se utiliz&oacute; el clasificador Naive Bayes en su version tradicional.</font></p>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>SVM</b></font></p>  	    <p align="justify"><font face="verdana" size="2">SVM es un algoritmo de clasificaci&oacute;n que busca separar lo mejor posible las clases de un conjunto de datos. Adem&aacute;s la SVM tiene buenas propiedades de generalizaci&oacute;n, es insensible al sobre&#45;entrenamiento y puede tratar conjuntos de datos de gran dimensionalidad. La SVM utiliza un hiperplano para maximizar los margenes que forman las fronteras de cada clase y un kernel el cual puede modificar la forma en que el hiperplano realiza la separaci&oacute;n de clases. (en &#91;23&#93; se describe SVM a detalle). En esta investigaci&oacute;n se aplic&oacute; un clasificador SVM que usa optimizaci&oacute;n m&iacute;nima secuencial, bajo los siguientes par&aacute;metros: kernel tipo lineal y un error de 1.0E<sup>&#45;12</sup>.</font></p>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>Random Forest</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Random Forest es un algoritmo de aprendizaje basado en arboles de decisi&oacute;n que puede clasificar en corto tiempo bases de datos que pueden tener ruido y una gran cantidad de atributos. RF es una combinaci&oacute;n de &aacute;rboles predictores tal que cada uno de los &aacute;rboles depende de los valores de un vector aleatorio muestreado independientemente y con la misma distribuci&oacute;n para todo los &aacute;rboles en el bosque. Cada &aacute;rbol arroja un &uacute;nico voto para la clase m&aacute;s popular para una entrada dada, y al final la elecci&oacute;n de la clase en RF se realiza usando voto mayoritario. En &#91;24&#93; se describe en detalle el algoritmo de clasificaci&oacute;n de RF incluyendo el proceso para construir los arboles individuales. En la implementaci&oacute;n de este clasificador se establecieron los siguientes par&aacute;metros: el n&uacute;mero de &aacute;rboles es 50 y el n&uacute;mero de atributos considerados en cada nodo fue establecido a <i>log<sub>2</sub> </i>(<i>n&uacute;mero Caracter&iacute;sticas</i>) + 1.</font></p>  	    <p>&nbsp;</p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>RESULTADOS Y DISCUSI&Oacute;N</b></font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Configuraci&oacute;n de par&aacute;metros del m&eacute;todo de Sonificaci&oacute;n de EEG</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Los procesos de sonificaci&oacute;n de EEG, de extracci&oacute;n de caracter&iacute;sticas usando la DWT y de extracci&oacute;n de caracter&iacute;sticas usando MFCC, requieren diversos par&aacute;metros de los cuales se desconoc&iacute;an sus efectos en la clasificaci&oacute;n de audios provenientes de la sonificaci&oacute;n de EEG. Para conocer dichos efectos, se ejecutaron diversas simulaciones que permitieran obtener una tendencia en la variaci&oacute;n de los porcentajes de exactitud promedio al clasificar las palabras. En nuestro caso se tom&oacute; un subconjunto de 3 sujetos para poder efectuar las simulaciones en corto tiempo, sin buscar optimizar los par&aacute;metros para todos los sujetos, sino que s&oacute;lo se busc&oacute; obtener valores cuya exactitud en la clasificaci&oacute;n fuera aproximada a la mejor. La clasificaci&oacute;n fue realizada con caracter&iacute;sticas extra&iacute;das aplicando la DWT y usando el clasificador RF, bajo un enfoque de validaci&oacute;n cruzada con 10 particiones. Por ejemplo, el algoritmo de sonificaci&oacute;n de <i>EEG a tonos</i> posee par&aacute;metros que afectan las caracter&iacute;sticas del audio que se genera, por lo que fue conveniente evaluar su comportamiento para seleccionar los par&aacute;metros.</font></p>  	    <p align="justify"><font face="verdana" size="2">El n&uacute;mero de tonos en el proceso de sonificaci&oacute;n indica el n&uacute;mero de frecuencias dominantes del espectrograma de EEG que estar&aacute;n representadas en la se&ntilde;al de audio EEG (ver las <a href="/img/revistas/rmib/v36n3/a8f3.jpg" target="_blank">figuras 3</a> y <a href="/img/revistas/rmib/v36n3/a8f4.jpg" target="_blank">4</a>). El n&uacute;mero de tonos afecta tambi&eacute;n a c&oacute;mo se percibe por el o&iacute;do. Por ejemplo, un audio con pocos tonos tendr&aacute; pocas variaciones en tipos de sonido al escucharla y ser&aacute; m&aacute;s dif&iacute;cil encontrar detalles en una frecuencia en espec&iacute;fico.</font></p>  	    <p align="justify"><font face="verdana" size="2">En la <a href="/img/revistas/rmib/v36n3/a8f6.jpg" target="_blank">figura 6a</a> se muestran los resultados de clasificaci&oacute;n de los sujetos usando distinta cantidad de tonos en la se&ntilde;al de audio. Se observa que cuando hay menos de 10 tonos aproximadamente en la se&ntilde;al de audio los resultados de clasificaci&oacute;n son bajos respecto a cuando se eligen 10 o m&aacute;s. Adem&aacute;s al usar 14 tonos se obtuvo el mejor promedio de clasificaci&oacute;n, esto nos indica que no necesariamente una sonificaci&oacute;n de EEG con gran cantidad de tonos obtiene los mejores resultados de clasificaci&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2">En la <a href="/img/revistas/rmib/v36n3/a8f6.jpg" target="_blank">figura 6b</a> se muestra que una duraci&oacute;n de tonos baja no ayuda al proceso de clasificaci&oacute;n, mientras que conforme se va aumentando la duraci&oacute;n, la exactitud tambi&eacute;n aumenta.</font></p>  	    <p align="justify"><font face="verdana" size="2">En la <a href="/img/revistas/rmib/v36n3/a8f7.jpg" target="_blank">figura 7a</a> se muestra que para frecuencias de 8 KHz en adelante la exactitud de los promedios de clasificaci&oacute;n aumenta en peque&ntilde;as cantidades, aunque cabe se&ntilde;alar que tanto la duraci&oacute;n de los tonos, como la frecuencia de muestreo en los audios afecta directamente al tama&ntilde;o del archivo de audio almacenado, por lo que su incremento tiene un alto costo.</font></p>  	    <p align="justify"><font face="verdana" size="2">En la <a href="/img/revistas/rmib/v36n3/a8f7.jpg" target="_blank">figura 7b</a> se muestran los resultados de clasificaci&oacute;n variando el tama&ntilde;o del rango de frecuencias, estableciendo un m&iacute;nimo de 50 Hz y m&aacute;ximos de 1 KHz hasta 16 KHz, donde los rangos entre 3 KHz y 8 KHz obtienen los mejores resultados.</font></p>  	    <p align="justify"><font face="verdana" size="2">El tama&ntilde;o de las ventanas para crear el espectrograma influye en el detalle de los cambios capturados en el tiempo de la se&ntilde;al. En la <a href="/img/revistas/rmib/v36n3/a8f8.jpg" target="_blank">figura 8a</a> se muestra que con una ventana formada por 26 muestras se obtiene el mejor porcentaje de clasificaci&oacute;n de las simulaciones realizadas. El traslape entre ventanas influye en la longitud y detalle de los cambios capturados por el espectrograma. En la <a href="/img/revistas/rmib/v36n3/a8f8.jpg" target="_blank">figura 8b</a> se muestran los resultados de variar el traslape entre ventanas manteniendo el tama&ntilde;o de ventana en 26. Se muestra que cuando existe el m&iacute;nimo traslape entre ventanas se obtiene el mejor resultado de clasificaci&oacute;n.</font></p>  	    <p>&nbsp;</p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>Resumen de configuraciones utilizadas</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Despu&eacute;s de efectuar simulaciones como las mencionadas anteriormente se obtuvieron las configuraciones con las cuales se realizaron los experimentos finales. Las configuraciones de par&aacute;metros utilizadas son descritas a continuaci&oacute;n:</font></p>  	    <blockquote> 		    <p align="justify"><font face="verdana" size="2">&bull; Sonificaci&oacute;n de EEG a tonos: N&uacute;mero de tonos = 14, frecuencia m&iacute;nima de la se&ntilde;al de EEG = 1 Hz, frecuencia m&aacute;xima de la se&ntilde;al de EEG = 60 Hz, tama&ntilde;o de la "ventana, del espectrograma = 26 muestras, traslape entre ventanas del espectograma = 1, duraci&oacute;n de los tonos = 0.6 seg., frecuencia m&iacute;nima del audio = 50 Hz, frecuencia m&aacute;xima del audio = 5000 Hz, frecuencia de muestreo del audio = 8000 Hz.</font></p>  		    <p align="justify"><font face="verdana" size="2">&bull; Extracci&oacute;n de caracter&iacute;sticas usando DWT en EEG: Wavelet madre daubechies orden 2, niveles de descomposici&oacute;n = 5.</font></p>  		    <p align="justify"><font face="verdana" size="2">&bull; Extracci&oacute;n de caracter&iacute;sticas usando DWT en EEG sonificado: Wavelet madre daubechies orden 20, niveles de descomposici&oacute;n = 6.</font></p>  		    <p align="justify"><font face="verdana" size="2">&bull; Extracci&oacute;n de caracter&iacute;sticas usando MFCC en EEG sonificado: Duraci&oacute;n de la ventana = 20 ms, duraci&oacute;n del traslape entre ventanas = 10 ms, frecuencia inferior = 50 Hz, frecuencia superior = 5000 Hz, coeficientes cepstrales = 23. Valores delta con ventana = 2 y valores doble delta con ventana = 1. Atributos estad&iacute;sticos: M&aacute;ximo, m&iacute;nimo, media, desv. est&aacute;ndar. Al final solo toman los 23 coeficientes de los valores doble delta.</font></p> 	</blockquote>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>Experimento de clasificaci&oacute;n para los 27 sujetos</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Despu&eacute;s de extraer las caracter&iacute;sitcas de los audios se procedi&oacute; a clasificar las palabras imaginadas de los 27 sujetos. Luego de obtener los resultados de la clasificaci&oacute;n, se procedi&oacute; a realizar una comparaci&oacute;n entre los resultados de aplicar la sonificaci&oacute;n de EEG y no aplicarla. En las <a href="/img/revistas/rmib/v36n3/a8t1.jpg" target="_blank">tablas 1</a> y <a href="/img/revistas/rmib/v36n3/a8t2.jpg" target="_blank">2</a> se muestran los resultados de clasificaci&oacute;n promedio obtenidos para los 27 sujetos, as&iacute; como los resultados reportados al no utilizar sonificaci&oacute;n de EEG.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Analizando las tablas se observa que el enfoque de extracci&oacute;n de caracter&iacute;sticas de los audios con DWT obtuvo el mejor desempe&ntilde;o al usar 4 canales clasificando con RF. Mientras que para 14 canales el enfoque de extracci&oacute;n de caracter&iacute;sticas con MFCC logra los mejores porcentajes de clasificaci&oacute;n clasificando con SVM. Los enfoques propuestos incluyendo sonificaci&oacute;n mejoran ligeramente los porcentajes de exactitud respecto a los resportados en &#91;12&#93;, obteniendo una diferencia de 7.73% y 5.73% para 4 y 14 canales respectivamente.</font></p>  	    <p align="justify"><font face="verdana" size="2">En la &uacute;ltima columna de cada una de las <a href="/img/revistas/rmib/v36n3/a8t1.jpg" target="_blank">tablas 1</a> y <a href="/img/revistas/rmib/v36n3/a8t2.jpg" target="_blank">2</a> se muestra el n&uacute;mero de caracter&iacute;sticas o atributos obtenidos para cada enfoque. La cantidad de atributos obtenidos puede afectar la clasificaci&oacute;n si estos son muy pocos o demasiados, por lo que seleccionar el valor adecuado de atributos es un problema de optimizaci&oacute;n (fuera del alcance de este trabajo). En nuestro caso, m&aacute;s all&aacute; de la cantidad, toma relevancia lo que representan los atributos obtenidos. Donde por ejemplo al clasificar con 14 canales, en el enfoque de sonificaci&oacute;n de EEG con MFCC se obtuvo una cantidad alta de atributos (1288), y &eacute;stos fueron clasificados con buenos resultados usando SVM sin caer en el problema de la alta dimensionalidad.</font></p>  	    <p align="justify"><font face="verdana" size="2">En las <a href="/img/revistas/rmib/v36n3/a8f9.jpg" target="_blank">figuras 9</a> y <a href="/img/revistas/rmib/v36n3/a8f10.jpg" target="_blank">10</a> se comparan los promedios de clasificaci&oacute;n de los 27 individuos usando 4 y 14 canales, respectivamente.</font></p>  	    <p align="justify"><font face="verdana" size="2">En la <a href="/img/revistas/rmib/v36n3/a8f9.jpg" target="_blank">figura 9</a> se comparan los resultados obtenidos por el enfoque de EEG sin sonificaci&oacute;n y extracci&oacute;n de caracter&iacute;sticas con DWT contra el enfoque de sonificaci&oacute;n de EEG con DWT, ambos clasificando con RF. Mientras que en la <a href="/img/revistas/rmib/v36n3/a8f10.jpg" target="_blank">figura 10</a> se comparan los resultados obtenidos del enfoque de EEG sin sonificaci&oacute;n con DWT clasificando con RF contra el enfoque de sonificaci&oacute;n de EEG con MFCC clasificando con SVM. En dichas gr&aacute;ficas se observa que existen sujetos que obtuvieron una amplia diferencia en la exactitud de clasificaci&oacute;n al ser procesados mediante los enfoques de sonificaci&oacute;n de EEG, pero tambi&eacute;n existen sujetos que no mejoraron sus promedios de clasificaci&oacute;n al aplicar la sonificaci&oacute;n de EEG. En la <a href="/img/revistas/rmib/v36n3/a8t3.jpg" target="_blank">tabla 3</a> se detallan los resultados de las gr&aacute;ficas y 10 incluyendo la exactitud y desviaci&oacute;n est&aacute;ndar obtenida en la clasificaci&oacute;n por cada sujeto. En esta tabla se muestra que el mejor resultado de clasificaci&oacute;n que obtuvo un sujeto fue de 83.03% y 91.52% para 4 y 14 canales, respectivamente. Esto sugiere que existe informaci&oacute;n suficiente en la se&ntilde;al cerebral para que por medio de t&eacute;cnicas como las aqu&iacute; propuestas se puedan tener buenos porcentajes de clasificaci&oacute;n. Se muestra que el m&eacute;todo tiene variaciones amplias en la exactitud entre sujetos. Se aplic&oacute; una prueba <i>T</i> con un valor de significancia de 0.05, para comparar los promedios de la <a href="/img/revistas/rmib/v36n3/a8t3.jpg" target="_blank">tabla 3</a>, para los pares de 4 canales y 14 canales respectivamente. Con esta prueba se obtuvo que existe diferencia significativa entre los promedios de exactitud obtenidos por los m&eacute;todos que si aplican sonificaci&oacute;n respecto a los que no aplican sonificaci&oacute;n, esto para ambos pares de 4 y 14 canales.</font></p>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>CONCLUSIONES</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Este trabajo explora una representaci&oacute;n distinta de las se&ntilde;ales de EEG en el dominio ac&uacute;stico mostrando su impacto en la clasificaci&oacute;n autom&aacute;tica de estas se&ntilde;ales.</font></p>  	    <p align="justify"><font face="verdana" size="2">Se muestra que la clasificaci&oacute;n de la se&ntilde;al de EEG aplicando la sonificaci&oacute;n, mediante la elecci&oacute;n de las frecuencias dominantes del espectrograma de la se&ntilde;al de EEG y el mapeo de las frecuencias de EEG a frecuencias del audio, logr&oacute; resaltar patrones de la se&ntilde;al que ayudaron a tener mejores resultados respecto a trabajos previos en la correcta clasificaci&oacute;n de los datos de 27 sujetos. Por otra parte se observ&oacute; que los m&eacute;todos propuestos var&iacute;an su exactitud dependiendo del sujeto y no hay un m&eacute;todo dominante, esto como se observ&oacute; en la secci&oacute;n de resultados, da pie a probar una posible uni&oacute;n de enfoques o esquema de selecci&oacute;n de m&eacute;todos. Otra idea a explorar es personalizar la configuraci&oacute;n del m&eacute;todo, usando un algoritmo de selecci&oacute;n de modelo para optimizar los par&aacute;metros de la sonificaci&oacute;n, extracci&oacute;n de caracter&iacute;sticas y clasificaci&oacute;n, los cuales otorguen la mejor exactitud de clasificaci&oacute;n para cada sujeto. Tambi&eacute;n se muestra que cuando se extraen caracter&iacute;sticas usando MFCC los porcentajes de clasificaci&oacute;n son relativamente mejores, posiblemente esto se debe a que bajo esta representaci&oacute;n se incluy&oacute; informaci&oacute;n temporal, representada con los valores doble delta. Es por ello que en trabajos futuros se espera experimentar con otros m&eacute;todos que caractericen de mejor forma la secuencia de eventos en la se&ntilde;al.</font></p>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b>REFERENCIAS</b></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">&#91;1&#93; T. M. Rutkowski, A. Cichocki, and D. Mandic, "Information fusion for perceptual feedback: A brain activity sonification approach," <i>Signal Processing Techniques for Knowledge Extraction and Information Fusion,</i> pp. 261&#45;273, 2008.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520546&pid=S0188-9532201500030000800001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">&#91;2&#93; G.Marco&#45;Zaccaria&nbsp;"Sonification of EEG signals: A study on alpha band instantaneous coherence," Master thesis, 2011.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520548&pid=S0188-9532201500030000800002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">&#91;3&#93; E. Miranda, A. Brouse, B. Boskamp, and H. Mullaney, "Plymouth brain&#45;computer music interface project: Intelligent assistive technology for music&#45;making," <i>International Computer Music Conference,</i> 2005.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520550&pid=S0188-9532201500030000800003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">&#91;4&#93; J. Eaton and E. Miranda, "Realtime notation using brainwave control," <i>Sound and Music Computing Conference,</i> 2013.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520552&pid=S0188-9532201500030000800004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">&#91;5&#93; G. Baier and T. Hermann, "The sonification of rhythms in human electroencephalogram." <i>International Conference on Auditory Display (ICAD),</i> 2004.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520554&pid=S0188-9532201500030000800005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">&#91;6&#93; T. Hermann, P. Meinicke <i>et al.,</i> "Sonification for EEG data analysis," <i>Proceedings of the 2002 International Conference on Auditory Display,</i> 2002.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520556&pid=S0188-9532201500030000800006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">&#91;7&#93; G. Baier, T. Hermann, S. Sahle, and U. Stephani, "Event based sonification of EEG rhythms in real time," <i>Clinical Neurophysiology,</i> vol. 118, no. 6, pp. 1377&#45;1386, 2007.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520558&pid=S0188-9532201500030000800007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">&#91;8&#93; T. Hermann, G. Baier, U. Stephani, and H. Ritter, "Kernel regression mapping for vocal EEG sonification," <i>Proceedings of the International Conference on Auditory Display,</i> 2008.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520560&pid=S0188-9532201500030000800008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">&#91;9&#93; M. Elgendi, J. Dauwels <i>et al.,</i> "From auditory and visual to immersive neurofeedback:&nbsp;Application to diagnosis of alzheimers disease," <i>Neural Computation, Neural Devices, and Neural Prosthesis,</i> pp. 63&#45;97, 2014.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520562&pid=S0188-9532201500030000800009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">&#91;10&#93; M. Wester and T. Schultz, "Unspoken Speech &#45; Speech Recognition Based On Electroencephalography," Master's thesis, Institut fur Theoretische Informatik Universitat Karlsruhe (TH), Karlsruhe, Germany, 2006.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520564&pid=S0188-9532201500030000800010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">&#91;11&#93; A. A. Torres&#45;Garc&iacute;a, C. A. Reyes&#45;Garc&iacute;a, and L. Villase&ntilde;or Pineda, "Toward a silent speech interface based on unspoken speech," <i>BIOSTEC&#45;BIOSIGNALS,</i> pp. 370&#45;373, 2012.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520566&pid=S0188-9532201500030000800011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">&#91;2&#93; A. A. Torres&#45;Garc&iacute;a, C. A. Reyes&#45;Garc&iacute;a, and L. Villase&ntilde;or&#45;Pineda, "An&aacute;lisis de Se&ntilde;ales Electroencefalogr&aacute;ficas para la Clasificaci&oacute;n de Habla Imaginada," <i>Revista Mexicana de Ingenier&iacute;a Biom&eacute;dica,</i> vol. 34, no. 1, pp. 2339, 2013.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520568&pid=S0188-9532201500030000800012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">&#91;13&#93; E. F. Gonz&aacute;lez&#45;Casta&ntilde;eda, A. A. Torres&#45;Garc&iacute;a, C. A. Reyes&#45;Garc&iacute;a, and L. Villase&ntilde;or&#45;Pineda, "Sonificaci&oacute;n de EEG para la clasificaci&oacute;n de palabras no pronunciadas," <i>Research in Computing Science,</i> vol. 74, pp. 61&#45;72, 2014.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520570&pid=S0188-9532201500030000800013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">&#91;14&#93; C. Anderson, "Sonification &#45; Brain Computer Interfaces Laboratory," <i>Department&nbsp;of Commputer Science, Colorado State University,</i><a href="http://www.cs.colostate.edu/eeg/main/projects/sonification" target="_blank">www.cs.colostate.edu/eeg/main/projects/sonification</a>, 2005.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520572&pid=S0188-9532201500030000800014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">&#91;15&#93; A. A. Torres&#45;Garc&iacute;a, "Clasificaci&oacute;n de palabras no pronunciadas presentes en Electroencefalogramas (EEG)," Tesis de Maestr&iacute;a, 2011.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520574&pid=S0188-9532201500030000800015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">&#91;16&#93; Xuemin, Chi and Hagedorn, John and others, "EEG&#45;based discrimination of imagined speech Phonemes," <i>International Journal of Bioelectromagnetism,</i> vol. 13, no. 4, pp. 201&#45;206, 2011.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520576&pid=S0188-9532201500030000800016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">&#91;17&#93; X. Pei, D. L. Barbour, E. C. Leuthardt, and G. Schalk, "Decoding vowels and consonants in spoken and imagined words using electrocorticographic signals in humans," <i>Journal of neural engineering,</i> vol. 8, no. 4, p. 046028, 2011.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520578&pid=S0188-9532201500030000800017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">&#91;18&#93; J. Mourino, J. del R Millan <i>et al.</i> , "Spatial filtering in the training process of a brain computer interface," <i>Engineering in Medicine and Biology Society. Proceedings of the 23rd Annual International Conference of the IEEE,</i> vol. 1, pp. 639&#45;642, 2001.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520580&pid=S0188-9532201500030000800018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">&#91;19&#93; M. A. Pinsky, <i>Introduction to Fourier analysis and wavelets.</i> Amer Mathematical Society, 2002, vol. 102.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520582&pid=S0188-9532201500030000800019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">&#91;20&#93; X. Hu, H. Zhang <i>et al.</i> , "Isolated word speech recognition system based on FPGA," <i>Journal of Computers,</i> vol. 8, no. 12, pp. 3216&#45;3222, 2013.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520584&pid=S0188-9532201500030000800020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">&#91;21&#93; R. Kohavi <i>et al.</i> , "A study of cross&#45;validation and bootstrap for accuracy estimation and model selection," <i>IJCAI,</i> vol. 14, no. 2, pp. 1137&#45;1145, 1995.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520586&pid=S0188-9532201500030000800021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">&#91;22&#93; G. H. John and P. Langley, "Estimating continuous distributions in bayesian classifiers," in <i>Proceedings of the Eleventh conference on Uncertainty in artificial intelligence.</i> Morgan Kaufmann Publishers Inc., 1995, pp. 338&#45;345.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520588&pid=S0188-9532201500030000800022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">&#91;23&#93; J. C. Platt, "Fast training of support vector machines using sequential minimal optimization," in <i>Advances in kernel methods.</i> MIT press, 1999, pp. 185&#45;208.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520590&pid=S0188-9532201500030000800023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">&#91;24&#93; L. Rokach, <i>Pattern Classification Using Ensemble Methods.</i> World Scientific, 2009.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8520592&pid=S0188-9532201500030000800024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <p>&nbsp;</p>  	    <p align="justify"><font face="verdana" size="2"><b><a name="nota"></a>Nota</b></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><sup>1</sup> Ejemplos de sonificaci&oacute;n de EEG, <a href="http://goo.gl/NdNMft" target="_blank">goo.gl/NdNMft</a>, La m&eacute;dica, INAOE, 2014.</font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rutkowski]]></surname>
<given-names><![CDATA[T. M.]]></given-names>
</name>
<name>
<surname><![CDATA[Cichocki]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[M]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Information fusion for perceptual feedback: A brain activity sonification approach]]></article-title>
<source><![CDATA[Signal Processing Techniques for Knowledge Extraction and Information Fusion]]></source>
<year>2008</year>
<page-range>261-273</page-range></nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Marco-Zaccaria]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<source><![CDATA[Sonification of EEG signals: A study on alpha band instantaneous coherence]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Miranda]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
<name>
<surname><![CDATA[Brouse]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Boskamp]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
<name>
<surname><![CDATA[Mullaney]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Plymouth brain-computer music interface project: Intelligent assistive technology for music-making]]></article-title>
<source><![CDATA[International Computer Music Conference]]></source>
<year>2005</year>
</nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Eaton]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Miranda]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Realtime notation using brainwave control]]></article-title>
<source><![CDATA[Sound and Music Computing Conference]]></source>
<year>2013</year>
</nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Baier]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Hermann]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The sonification of rhythms in human electroencephalogram]]></article-title>
<source><![CDATA[International Conference on Auditory Display (ICAD)]]></source>
<year>2004</year>
</nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hermann]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
<name>
<surname><![CDATA[Meinicke]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Sonification for EEG data analysis]]></article-title>
<source><![CDATA[Proceedings of the 2002 International Conference on Auditory Display]]></source>
<year>2002</year>
</nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Baier]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Hermann]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
<name>
<surname><![CDATA[Sahle]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[Stephani]]></surname>
<given-names><![CDATA[U.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Event based sonification of EEG rhythms in real time]]></article-title>
<source><![CDATA[Clinical Neurophysiology]]></source>
<year>2007</year>
<volume>118</volume>
<numero>6</numero>
<issue>6</issue>
<page-range>1377-1386</page-range></nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hermann]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
<name>
<surname><![CDATA[Baier]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Stephani]]></surname>
<given-names><![CDATA[U.]]></given-names>
</name>
<name>
<surname><![CDATA[Ritter]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Kernel regression mapping for vocal EEG sonification]]></article-title>
<source><![CDATA[Proceedings of the International Conference on Auditory Display]]></source>
<year>2008</year>
</nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Elgendi]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Dauwels]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[From auditory and visual to immersive neurofeedback: Application to diagnosis of alzheimers disease]]></article-title>
<source><![CDATA[Neural Computation, Neural Devices, and Neural Prosthesis]]></source>
<year>2014</year>
<page-range>63-97</page-range></nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[W]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Schultz]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Unspoken Speech - Speech Recognition Based On Electroencephalography]]></article-title>
<source><![CDATA[]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Torres-García]]></surname>
<given-names><![CDATA[A. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Reyes-García]]></surname>
<given-names><![CDATA[C. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Villaseñor Pineda]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Toward a silent speech interface based on unspoken speech]]></article-title>
<source><![CDATA[BIOSTEC-BIOSIGNALS]]></source>
<year>2012</year>
<page-range>370-373</page-range></nlm-citation>
</ref>
<ref id="B12">
<label>2</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Torres-García]]></surname>
<given-names><![CDATA[A. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Reyes-García]]></surname>
<given-names><![CDATA[C. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Villaseñor-Pineda]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Análisis de Señales Electroencefalográficas para la Clasificación de Habla Imaginada]]></article-title>
<source><![CDATA[Revista Mexicana de Ingeniería Biomédica]]></source>
<year></year>
<volume>34</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>2339, 2013</page-range></nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[González-Castañeda]]></surname>
<given-names><![CDATA[E. F.]]></given-names>
</name>
<name>
<surname><![CDATA[Torres-García]]></surname>
<given-names><![CDATA[A. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Reyes-García]]></surname>
<given-names><![CDATA[C. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Villaseñor-Pineda]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Sonificación de EEG para la clasificación de palabras no pronunciadas]]></article-title>
<source><![CDATA[Research in Computing Science]]></source>
<year>2014</year>
<volume>74</volume>
<page-range>61-72</page-range></nlm-citation>
</ref>
<ref id="B14">
<label>14</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Anderson]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Sonification - Brain Computer Interfaces Laboratory]]></article-title>
<source><![CDATA[Department of Commputer Science]]></source>
<year>2005</year>
<publisher-name><![CDATA[Colorado State University]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B15">
<label>15</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Torres-García]]></surname>
<given-names><![CDATA[A. A.]]></given-names>
</name>
</person-group>
<source><![CDATA[Clasificación de palabras no pronunciadas presentes en Electroencefalogramas (EEG)]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B16">
<label>16</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Xuemin]]></surname>
<given-names><![CDATA[Chi]]></given-names>
</name>
<name>
<surname><![CDATA[Hagedorn]]></surname>
<given-names><![CDATA[John]]></given-names>
</name>
<name>
</name>
<name>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[EEG-based discrimination of imagined speech Phonemes]]></article-title>
<source><![CDATA[International Journal of Bioelectromagnetism]]></source>
<year>2011</year>
<volume>13</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>201-206</page-range></nlm-citation>
</ref>
<ref id="B17">
<label>17</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Pei]]></surname>
<given-names><![CDATA[X.]]></given-names>
</name>
<name>
<surname><![CDATA[Barbour]]></surname>
<given-names><![CDATA[D. L.]]></given-names>
</name>
<name>
<surname><![CDATA[Leuthardt]]></surname>
<given-names><![CDATA[E. C.]]></given-names>
</name>
<name>
<surname><![CDATA[Schalk]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Decoding vowels and consonants in spoken and imagined words using electrocorticographic signals in humans]]></article-title>
<source><![CDATA[Journal of neural engineering]]></source>
<year>2011</year>
<volume>8</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>046028</page-range></nlm-citation>
</ref>
<ref id="B18">
<label>18</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Mourino]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[del R Millan]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Spatial filtering in the training process of a brain computer interface]]></article-title>
<source><![CDATA[Engineering in Medicine and Biology Society. Proceedings of the 23rd Annual International Conference of the IEEE]]></source>
<year>2001</year>
<volume>1</volume>
<page-range>639-642</page-range></nlm-citation>
</ref>
<ref id="B19">
<label>19</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Pinsky]]></surname>
<given-names><![CDATA[M. A.]]></given-names>
</name>
</person-group>
<source><![CDATA[Introduction to Fourier analysis and wavelets]]></source>
<year>2002</year>
<volume>102</volume>
<publisher-name><![CDATA[Amer Mathematical Society]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B20">
<label>20</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hu]]></surname>
<given-names><![CDATA[X.]]></given-names>
</name>
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Isolated word speech recognition system based on FPGA]]></article-title>
<source><![CDATA[Journal of Computers]]></source>
<year>2013</year>
<volume>8</volume>
<numero>12</numero>
<issue>12</issue>
<page-range>3216-3222</page-range></nlm-citation>
</ref>
<ref id="B21">
<label>21</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kohavi]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A study of cross-validation and bootstrap for accuracy estimation and model selection]]></article-title>
<source><![CDATA[IJCAI]]></source>
<year>1995</year>
<volume>14</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>1137-1145</page-range></nlm-citation>
</ref>
<ref id="B22">
<label>22</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[John]]></surname>
<given-names><![CDATA[G. H.]]></given-names>
</name>
<name>
<surname><![CDATA[Langley]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Estimating continuous distributions in bayesian classifiers]]></article-title>
<source><![CDATA[Proceedings of the Eleventh conference on Uncertainty in artificial intelligence]]></source>
<year>1995</year>
<page-range>338-345</page-range><publisher-name><![CDATA[Morgan Kaufmann Publishers Inc.]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B23">
<label>23</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Platt]]></surname>
<given-names><![CDATA[J. C.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Fast training of support vector machines using sequential minimal optimization]]></article-title>
<source><![CDATA[Advances in kernel methods]]></source>
<year>1999</year>
<page-range>185-208</page-range><publisher-name><![CDATA[MIT press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B24">
<label>24</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rokach]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
</person-group>
<source><![CDATA[Pattern Classification Using Ensemble Methods]]></source>
<year>2009</year>
<publisher-name><![CDATA[World Scientific]]></publisher-name>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
