<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0188-9532</journal-id>
<journal-title><![CDATA[Revista mexicana de ingeniería biomédica]]></journal-title>
<abbrev-journal-title><![CDATA[Rev. mex. ing. bioméd]]></abbrev-journal-title>
<issn>0188-9532</issn>
<publisher>
<publisher-name><![CDATA[Sociedad Mexicana de Ingeniería Biomédica]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0188-95322013000100002</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Análisis de señales electroencefalográficas para la clasificación de habla imaginada]]></article-title>
<article-title xml:lang="en"><![CDATA[Electroencephalographic Signals Analysis for Imagined Speech Classification]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Torres-García]]></surname>
<given-names><![CDATA[A.A.]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Reyes-García]]></surname>
<given-names><![CDATA[C.A.]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Villaseñor-Pineda]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Ramírez-Cortés]]></surname>
<given-names><![CDATA[J.M.]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Instituto Nacional de Astrofísica Óptica y Electrónica  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>00</month>
<year>2013</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>00</month>
<year>2013</year>
</pub-date>
<volume>34</volume>
<numero>1</numero>
<fpage>23</fpage>
<lpage>39</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_arttext&amp;pid=S0188-95322013000100002&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_abstract&amp;pid=S0188-95322013000100002&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_pdf&amp;pid=S0188-95322013000100002&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[El presente trabajo tiene como objetivo interpretar las señales de EEG registradas durante la pronunciación imaginada de palabras de un vocabulario reducido, sin emitir sonidos ni articular movimientos (habla imaginada o no pronunciada) con la intención de controlar un dispositivo. Específicamente, el vocabulario permitiría controlar el cursor de la computadora, y consta de las palabras del lenguaje español: "arriba", "abajo", "izquierda", "derecha", y "seleccionar". Para ello, se registraron las señales de EEG de 27 individuos utilizando un protocolo básico para saber a priori en qué segmentos de la señal la persona imagina la pronunciación de la palabra indicada. Posteriormente, se utiliza la transformada wavelet discreta (DWT) para extraer características de los segmentos que son usados para calcular la energía relativa wavelet (RWE) en cada una de los niveles en los que la señal es descompuesta, y se selecciona un subconjunto de valores RWE provenientes de los rangos de frecuencia menores a 32 Hz. Enseguida, éstas se concatenan en dos configuraciones distintas: 14 canales (completa) y 4 canales (los más cercanos a las áreas de Broca y Wernicke). Para ambas configuraciones se entrenan tres clasificadores: Naive Bayes (NB), Random Forest (RF) y Máquina de vectores de soporte (SVM). Los mejores porcentajes de exactitud se obtuvieron con RF cuyos promedios fueron 60.11% y 47.93% usando las configuraciones de 14 canales y 4 canales, respectivamente. A pesar de que los resultados aún son preliminares, éstos están arriba del 20%, es decir, arriba del azar para cinco clases. Con lo que se puede conjeturar que las señales de EEG podrían contener información que hace posible la clasificación de las pronunciaciones imaginadas de las palabras del vocabulario reducido.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[This work aims to interpret the EEG signals associated with actions to imagine the pronunciation of words that belong to a reduced vocabulary without moving the articulatory muscles and without uttering any audible sound (imagined or unspoken speech). Specifically, the vocabulary reflects movements to control the cursor on the computer, and consists of the Spanish language words: "arriba", "abajo", "izquierda", "derecha", and "seleccionar". To do this, we have recorded EEG signals from 27 subjects using a basic protocol to know a priori in what segments of the signal a subject imagines the pronunciation of the indicated word. Subsequently, discrete wavelet transform (DWT) is used to extract features from the segments. These are used to compute relative wavelet energy (RWE) in each of the levels in that EEG signal is decomposed and, it is selected a RWE values subset with the frequencies smaller than 32 Hz. Then, these are concatenated in two different configurations: 14 channels (full) and 4 channels (the channels nearest to the brain areas of Wernicke and Broca). The following three classifiers were trained using both configurations: Naive Bayes (NB), Random Forest (RF) and support vector machines (SVM). The best accuracies were obtained by RF whose averages were 60.11% and 47.93% using both configurations, respectively. Even though, the results are still preliminary, these are above 20%, this means they are more accurate than chance for five classes. Based on them, we can conjecture that the EEG signals could contain information needed for the classification of the imagined pronunciations of the words belonging to a reduced vocabulary.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[electroencefalografía (EEG)]]></kwd>
<kwd lng="es"><![CDATA[interfaces cerebro-computadora(BCI)]]></kwd>
<kwd lng="es"><![CDATA[habla no pronunciada]]></kwd>
<kwd lng="es"><![CDATA[habla imaginada]]></kwd>
<kwd lng="es"><![CDATA[clasificación]]></kwd>
<kwd lng="es"><![CDATA[transformada wavelet discreta (DWT)]]></kwd>
<kwd lng="es"><![CDATA[energía relativa wavelet]]></kwd>
<kwd lng="es"><![CDATA[interfaces de habla silente (SSI)]]></kwd>
<kwd lng="en"><![CDATA[brain-computer interface (BCI)]]></kwd>
<kwd lng="en"><![CDATA[electroencephalography (EEG)]]></kwd>
<kwd lng="en"><![CDATA[unspoken speech]]></kwd>
<kwd lng="en"><![CDATA[discrete wavelet transform (DWT)]]></kwd>
<kwd lng="en"><![CDATA[imagined speech]]></kwd>
<kwd lng="en"><![CDATA[relative wavelet energy]]></kwd>
<kwd lng="en"><![CDATA[classification]]></kwd>
<kwd lng="en"><![CDATA[silent speech interfaces (SSI)]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[  	    <p align="justify"><font face="verdana" size="4">Art&iacute;culo de investigaci&oacute;n</font></p>      <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="center"><font face="verdana" size="4"><b>An&aacute;lisis de se&ntilde;ales electroencefalogr&aacute;ficas para la clasificaci&oacute;n de habla imaginada</b></font></p>      <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="center"><font face="verdana" size="3"><b>Electroencephalographic Signals Analysis for Imagined Speech Classification</b></font></p>      <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="center"><font face="verdana" size="2"><b>A.A. Torres&#45;Garc&iacute;a, C.A. Reyes&#45;Garc&iacute;a, L. Villase&ntilde;or&#45;Pineda, J.M. Ram&iacute;rez&#45;Cort&eacute;s</b></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><i>Instituto Nacional de Astrof&iacute;sica &Oacute;ptica y Electr&oacute;nica (INAOE)</i></font><font face="verdana" size="2">.</font></p>      ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Correspondencia:</b>    <br> 	Alejandro Torres&#45;Garc&iacute;a,    <br> 	INAOE    <br> 	Luis Enrique Erro # 1    <br> 	Sta. Mar&iacute;a Tonantzintla, Puebla.    <br> 	Correo electr&oacute;nico: <a href="mailto:alejandro.torres@inaoep.mx">alejandro.torres@inaoep.mx</a></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2">Fecha de recepci&oacute;n: 20 de Junio de 2012.    <br> 	Fecha de aceptaci&oacute;n: 28 de Febrero de 2013.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>RESUMEN</b></font></p>      <p align="justify"><font face="verdana" size="2">El presente trabajo tiene como objetivo interpretar las se&ntilde;ales de EEG registradas durante la pronunciaci&oacute;n imaginada de palabras de un vocabulario reducido, sin emitir sonidos ni articular movimientos (habla imaginada o no pronunciada) con la intenci&oacute;n de controlar un dispositivo. Espec&iacute;ficamente, el vocabulario permitir&iacute;a controlar el cursor de la computadora, y consta de las palabras del lenguaje espa&ntilde;ol: "arriba", "abajo", "izquierda", "derecha", y "seleccionar". Para ello, se registraron las se&ntilde;ales de EEG de 27 individuos utilizando un protocolo b&aacute;sico para saber a priori en qu&eacute; segmentos de la se&ntilde;al la persona imagina la pronunciaci&oacute;n de la palabra indicada. Posteriormente, se utiliza la transformada wavelet discreta (DWT) para extraer caracter&iacute;sticas de los segmentos que son usados para calcular la energ&iacute;a relativa wavelet (RWE) en cada una de los niveles en los que la se&ntilde;al es descompuesta, y se selecciona un subconjunto de valores RWE provenientes de los rangos de frecuencia menores a 32 Hz. Enseguida, &eacute;stas se concatenan en dos configuraciones distintas: 14 canales (completa) y 4 canales (los m&aacute;s cercanos a las &aacute;reas de Broca y Wernicke). Para ambas configuraciones se entrenan tres clasificadores: Naive Bayes (NB), Random Forest (RF) y M&aacute;quina de vectores de soporte (SVM). Los mejores porcentajes de exactitud se obtuvieron con RF cuyos promedios fueron 60.11&#37; y 47.93&#37; usando las configuraciones de 14 canales y 4 canales, respectivamente. A pesar de que los resultados a&uacute;n son preliminares, &eacute;stos est&aacute;n arriba del 20&#37;, es decir, arriba del azar para cinco clases. Con lo que se puede conjeturar que las se&ntilde;ales de EEG podr&iacute;an contener informaci&oacute;n que hace posible la clasificaci&oacute;n de las pronunciaciones imaginadas de las palabras del vocabulario reducido.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Palabras clave:</b> electroencefalograf&iacute;a (EEG), interfaces cerebro&#45;computadora(BCI), habla no pronunciada, habla imaginada, clasificaci&oacute;n, transformada wavelet discreta (DWT), energ&iacute;a relativa wavelet, interfaces de habla silente (SSI).</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>ABSTRACT</b></font></p>      <p align="justify"><font face="verdana" size="2">This work aims to interpret the EEG signals associated with actions to imagine the pronunciation of words that belong to a reduced vocabulary without moving the articulatory muscles and without uttering any audible sound (imagined or unspoken speech). Specifically, the vocabulary reflects movements to control the cursor on the computer, and consists of the Spanish language words: "arriba", "abajo", "izquierda", "derecha", and "seleccionar". To do this, we have recorded EEG signals from 27 subjects using a basic protocol to know a priori in what segments of the signal a subject imagines the pronunciation of the indicated word. Subsequently, discrete wavelet transform (DWT) is used to extract features from the segments. These are used to compute relative wavelet energy (RWE) in each of the levels in that EEG signal is decomposed and, it is selected a RWE values subset with the frequencies smaller than 32 Hz. Then, these are concatenated in two different configurations: 14 channels (full) and 4 channels (the channels nearest to the brain areas of Wernicke and Broca). The following three classifiers were trained using both configurations: Naive Bayes (NB), Random Forest (RF) and support vector machines (SVM). The best accuracies were obtained by RF whose averages were 60.11&#37; and 47.93&#37; using both configurations, respectively. Even though, the results are still preliminary, these are above 20&#37;, this means they are more accurate than chance for five classes. Based on them, we can conjecture that the EEG signals could contain information needed for the classification of the imagined pronunciations of the words belonging to a reduced vocabulary.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Keywords:</b> brain&#45;computer interface (BCI), electroencephalography (EEG), unspoken speech, discrete wavelet transform (DWT), imagined speech, relative wavelet energy, classification, silent speech interfaces (SSI).</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>INTRODUCCI&Oacute;N</b></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En la Rep&uacute;blica Mexicana, las discapacidades que se presentan con mayor n&uacute;mero de ocurrencias son las de tipo motriz con un 58.3 &#37;<sup><a href="#notas">1</a></sup>. Dentro de este sector se encuentran discapacidades motrices severas como: la esclerosis lateral amiotr&oacute;fica (ELA), la embolia (ictus cerebral), las lesiones de m&eacute;dula espinal o cerebral, la par&aacute;lisis cerebral, las distrofias musculares, la esclerosis m&uacute;ltiple entre otros padecimientos. Estas discapacidades frecuentemente provocan que la persona no pueda controlar voluntariamente sus movimientos, incluyendo aquellos relacionados directa o indirectamente con la articulaci&oacute;n del habla &#91;1, 2&#93;. En consecuencia, una persona en estas condiciones est&aacute; pr&aacute;cticamente aislada de su entorno.</font></p>  	    <p align="justify"><font face="verdana" size="2">Con los avances tecnol&oacute;gicos, recientemente, se han propuesto diversas alternativas que permitan tener una mejor calidad de vida y reintegrar a estas personas a la sociedad. Las Interfaces Cerebro&#45;Computadora (BCI, por sus siglas en ingl&eacute;s) son una de estas alternativas ya que intentan proveer a una persona de un nuevo canal, no muscular, de comunicaci&oacute;n y control para transmitir mensajes y comandos al mundo exterior &#91;1, 2&#93;. Para adquirir datos de la actividad cerebral, existen varias alternativas. Dentro de ellas se encuentra el electroencefalograma, el cual permite medir la actividad el&eacute;ctrica proveniente del cerebro mediante un conjunto de electrodos colocados sobre el cuero cabelludo de las personas. Esta t&eacute;cnica es sensible al ruido provocado por otras actividades fisiol&oacute;gicas (la actividad cardiaca, el movimiento ocular, el movimiento de la lengua, la respiraci&oacute;n, los potenciales de la piel, entre otras), e incluso por la corriente alterna y de los electrodos &#91;3&#93;. Sin embargo, a pesar de estas limitantes es la t&eacute;cnica m&aacute;s ampliamente utilizada en BCIs debido a que es no invasiva, requiere de un equipo relativamente sencillo y econ&oacute;mico, y tiene buena resoluci&oacute;n temporal.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>PROBLEM&Aacute;TICA</b></font></p>  	    <p align="justify"><font face="verdana" size="2">En las BCIs basadas en EEG, a los mecanismos neurol&oacute;gicos o procesos empleados por el usuario para generar las se&ntilde;ales de control, se les denomina fuentes electrofisiol&oacute;gicas. Las m&aacute;s utilizadas son: los potenciales corticales lentos (SCP, por sus siglas en ingl&eacute;s), los potenciales P300, las im&aacute;genes motoras (ritmos sensoriales motrices mu y beta) y los potenciales evocados visuales (VEP, por sus siglas en ingl&eacute;s) &#91;4, 1, 2&#93;. Con estas fuentes electrofisiol&oacute;gicas, la comunicaci&oacute;n se realiza mediante dos paradigmas de control: discreto o continuo. En el paradigma discreto, el usuario puede elegir entre dos o m&aacute;s opciones discretas, por ejemplo elegir una tecla espec&iacute;fica de un teclado virtual en el monitor de la computadora. En el paradigma continuo, un peque&ntilde;o n&uacute;mero de variables cinem&aacute;ticas (por ejemplo, las coordenadas <i>x</i> y <i>y</i> de la posici&oacute;n del cursor en el monitor, o los valores de las primeras dos frecuencias formantes para una pr&oacute;tesis de habla) son controladas por el usuario &#91;1&#93;.</font></p>  	    <p align="justify"><font face="verdana" size="2">Las BCIs descritas previamente, presentan los siguientes dos grandes problemas. El primero es el largo periodo de entrenamiento (algunas semanas hasta meses) requerido para que un usuario pueda utilizar una BCI. Lo anterior se debe a que, las fuentes descritas anteriormente (SCP, P300, im&aacute;genes motoras, y VEP) son generadas por el usuario de forma poco consciente &#91;5&#93;. Mientras que, el segundo son las bajas tasas de comunicaci&oacute;n (una sola palabra procesada, o menos, por minuto) que resultan insuficientes para permitir una interacci&oacute;n natural. Este &uacute;ltimo problema se debe a que cada una de las fuentes electrofisiol&oacute;gicas usadas por las BCIs requieren un "mapeo" o traducci&oacute;n al dominio del habla &#91;1&#93;.</font></p>  	    <p align="justify"><font face="verdana" size="2">Los problemas descritos anteriormente han motivado una serie de trabajos que tratan de utilizar los potenciales relacionados con la producci&oacute;n del habla, con diversos grados de &eacute;xito &#91;1&#93;. En estos trabajos, la fuente electrofisiol&oacute;gica es el habla imaginada, tambi&eacute;n referida como habla interna o habla no pronunciada <i>(unspoken speech),</i> donde el t&eacute;rmino habla imaginada se refiere a la pronunciaci&oacute;n interna, o imaginada, de palabras pero sin emitir sonidos ni articular gestos para ello. Es importante mencionar que, Denby &#91;6&#93; incluye a estos trabajos dentro de un &aacute;rea de investigaci&oacute;n denominada interfaces de habla silente (SSI, por <i>Silent Speech Interfaces)</i> cuya finalidad es desarrollar sistemas capaces de permitir la comunicaci&oacute;n "hablada" que toman lugar cuando la emisi&oacute;n de una se&ntilde;al ac&uacute;stica entendible es imposible. Es importante remarcar que los trabajos que utilizan <i>habla imaginada</i> pueden dividirse, por la unidad de habla utilizada, en dos enfoques: palabras y s&iacute;labas. El primer enfoque es seguido en &#91;7, 8, 9, 10, 11&#93;. Mientras que, en &#91;12, 13, 14&#93; &uacute;nicamente se tratan s&iacute;labas.</font></p>  	    <p align="justify"><font face="verdana" size="2">En el caso espec&iacute;fico de los trabajos que exploran palabras &#45;donde se ubica el presente trabajo&#45;, se han identificado los siguientes problemas. En &#91;9&#93;, se implement&oacute; un esquema de clasificaci&oacute;n basada en prototipos que requiere de muchos ejemplos en el dominio del tiempo para generarlos, con lo que el m&eacute;todo tiene un tasa de decisi&oacute;n lenta que resulta inadecuada para llevarse a procesamiento en linea. Mientras en &#91;7, 8, 10, 11&#93; se asume que las caracter&iacute;sticas extra&iacute;das pueden ser reconocidas con los modelos existentes para reconocimiento de habla com&uacute;n, no obstante las se&ntilde;ales del habla y EEG presentan caracter&iacute;sticas muy diferentes. Por ejemplo, las frecuencias del EEG llegan hasta 60 Hz, mientras que el habla humana est&aacute; en el rango de 125 a 4000 Hz. Adem&aacute;s, la se&ntilde;al del habla se capta en un s&oacute;lo canal, mientras que la se&ntilde;al de EEG es registrada con un mayor n&uacute;mero de canales (por ejemplo con 32, 64, 128, &oacute; 256). Asimismo, en &#91;8&#93;, el trabajo m&aacute;s reciente que utiliza el enfoque de palabras, se menciona la pertinencia de explorar un vocabulario distinto al usado en ese trabajo ("alpha", "bravo", "charlie", "delta", "echo") que tenga mayor significado sem&aacute;ntico con la finalidad de que dichas palabras puedan provocar una mayor actividad en el cerebro, y que se cuente con mayor n&uacute;mero de repeticiones de cada palabra del vocabulario a usar (ellos utilizaron 20 repeticiones y registraron se&ntilde;ales de EEG de 18 individuos). En consecuencia, se requiere de un modelo que permita tratar al reconocimiento de la pronunciaci&oacute;n imaginada de palabras de manera adecuada. Adem&aacute;s, es importante mencionar que este trabajo extiende los presentados por &#91;15&#93; y &#91;16&#93; con las siguientes diferencias. En la presente investigaci&oacute;n se trabaja con las se&ntilde;ales de EEG de un mayor n&uacute;mero de individuos, y con un m&eacute;todo de procesamiento y clasificaci&oacute;n distinto a los descritos en &#91;15, 16&#93;. Asimismo, se trabaja con un mayor n&uacute;mero de palabras que las usadas en &#91;15&#93;.</font></p>  	    <p align="justify"><font face="verdana" size="2">La presente investigaci&oacute;n tiene como objetivo poder interpretar las se&ntilde;ales de EEG asociadas al habla imaginada. En espec&iacute;fico, se orienta a interpretar las se&ntilde;ales para reconocer la pronunciaci&oacute;n imaginada de palabras de un vocabulario reducido compuesto por las siguientes cinco palabras en lenguaje espa&ntilde;ol: "arriba", "abajo", "izquierda", "derecha" y "seleccionar". Estas palabras tienen mayor significado sem&aacute;ntico que las utilizadas en &#91;8&#93;, y cada una se repite 33 veces. Lo anterior retoma lo planteado por los trabajos previos con la idea en mente de que las palabras con mayor significado sem&aacute;ntico puedan generar mayor actividad cerebral que permita su reconocimiento y correcta clasificaci&oacute;n. Adem&aacute;s, con ellas ser&iacute;a posible controlar la direcci&oacute;n del cursor de la computadora. El problema es tratado bajo un enfoque de clasificaci&oacute;n, y se conoce a priori en qu&eacute; parte de la se&ntilde;al de EEG la persona imagina la pronunciaci&oacute;n de las palabras indicadas.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>METODOLOG&Iacute;A</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Las etapas de la metodolog&iacute;a propuesta en este trabajo son: Adquisici&oacute;n de la actividad cerebral, Preprocesamiento, Extracci&oacute;n de caracter&iacute;sticas, Selecci&oacute;n de caracter&iacute;sticas, y Clasificaci&oacute;n. La metodolog&iacute;a seguida en el trabajo se muestra de mejor manera en la <a href="/img/revistas/rmib/v34n1/a2f1.jpg" target="_blank">Figura 1</a>.</font></p>  	    <p align="justify"><font face="verdana" size="2">Los materiales y software utilizados en el trabajo se mencionan a continuaci&oacute;n. Para la adquisici&oacute;n de la actividad cerebral se registraron las se&ntilde;ales EEG utilizando un kit EMOTIV. Este kit es inal&aacute;mbrico y consta de catorce electrodos (canales) de alta resoluci&oacute;n (m&aacute;s las referencias CMS/DRL en las posiciones P3/P4 respectivamente) cuya frecuencia de muestreo es de 128 Hz. Los nombres de los canales, de acuerdo con el sistema internacional 1020, son: AF3, F7, F3, FC5, T7, P7, O1, O2, P8, T8, FC6, F4, F8, AF4 (ver <a href="#f2">Figura</a> <a href="#f2">2</a>). Adem&aacute;s, se utiliza Matlab 2009b para la implementaci&oacute;n de programas para las etapas de pre&#45;procesamiento, extracci&oacute;n y selecci&oacute;n de caracter&iacute;sticas. Mientras que, en la etapa de clasificaci&oacute;n se utiliza Weka 3.6.8 &#91;17&#93;. A continuaci&oacute;n se describe a detalle cada uno de los componentes de la metodolog&iacute;a propuesta.</font></p>  	    <p align="center"><font face="verdana" size="2"><a name="f2"></a></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v34n1/a2f2.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Adquisici&oacute;n de la actividad cerebral</b></font></p>  	    <p align="justify"><font face="verdana" size="2">En esta etapa se utiliza el EEG para adquirir las se&ntilde;ales provenientes del cerebro. Como se menciona en la secci&oacute;n , se utiliza un kit de adquisici&oacute;n que consta de catorce canales. Sin embargo, de acuerdo al modelo Geschwind&#45;Wernicke, las se&ntilde;ales de EEG relacionadas con la producci&oacute;n del habla afectan diferentes &aacute;reas en la parte izquierda del cerebro (a excepci&oacute;n de algunas personas zurdas) &#91;18&#93;.</font></p>  	    <p align="justify"><font face="verdana" size="2">Particularmente, las &aacute;reas correspondientes a los canales F7, FC5, T7 y P7. Por lo tanto, en el presente trabajo, de manera similar que en &#91;11&#93;, &uacute;nicamente consideramos de inter&eacute;s las se&ntilde;ales de EEG provenientes de estos canales que son los m&aacute;s cercanos a las regiones del modelo Geschwind&#45;Wernicke.</font></p>  	    <p align="justify"><font face="verdana" size="2">Por otra parte, se utiliza un protocolo b&aacute;sico para adquirir las se&ntilde;ales de EEG de cada individuo mientras imagina la pronunciaci&oacute;n de las palabras. El protocolo consiste en colocar a la persona c&oacute;modamente sentada con los ojos abiertos cerca de un escritorio, y con la mano derecha sobre el mouse de una computadora. Con un clic al mouse, el usuario delimita tanto el inicio como el fin de la pronunciaci&oacute;n imaginada de alguna de las cinco palabras del vocabulario. Con cada clic se env&iacute;a un marcador al software de registro de las se&ntilde;ales de EEG (ver <a href="#f3">Figura 3</a>). Asimismo, al conjunto de muestras que se encuentran entre los marcadores de inicio y fin, se les denomina ventanas (&eacute;pocas).</font></p>  	    ]]></body>
<body><![CDATA[<p align="center"><font face="verdana" size="2"><a name="f3"></a></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v34n1/a2f3.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">La pronunciaci&oacute;n imaginada de cada una de las cinco palabras fue repetida 33 veces consecutivas durante el registro del EEG, es decir, cinco bloques de 33 repeticiones por palabra. Antes de cada bloque se le indic&oacute; al individuo cu&aacute;l es la palabra que deb&iacute;a pronunciar internamente. Asimismo, todas las &eacute;pocas de las cinco palabras pertenecientes a un individuo fueron registradas en una sola sesi&oacute;n. Adem&aacute;s, al inicio del registro de las se&ntilde;ales de EEG, se le indic&oacute; a la persona que evitara parpadear o realizar movimientos corporales mientras imaginaba la pronunciaci&oacute;n de la palabra indicada, ya que despu&eacute;s de cada marcador de fin pod&iacute;a tomarse un tiempo de descanso para dichos movimientos. Tambi&eacute;n, es importante mencionar que, el marcador de inicio podr&iacute;a agregar ruido a la se&ntilde;al de EEG; sin embargo, &eacute;ste estar&aacute; en todas las ventanas as&iacute; que el sesgo en la etapa de clasificaci&oacute;n ser&aacute; m&iacute;nimo.</font></p>  	    <p align="justify"><font face="verdana" size="2">Con la finalidad de que el individuo no sepa cuantas veces se repetir&aacute; una palabra, en la sala de experimentos otra persona, alejada del campo visual y guardando el debido silencio, se encarga de realizar el conteo de repeticiones e indica cuando el individuo debe concluir. Esto con la finalidad de que el individuo no se distraiga contando el n&uacute;mero de repeticiones ni se predisponga a saber que le falta poco o mucho para concluir el experimento.</font></p>  	    <p align="justify"><font face="verdana" size="2">Las sesiones se registraron en un laboratorio alejado de ruido audible externo, ruido visual (como la transici&oacute;n del d&iacute;a y la noche, y distracciones), entre otras.</font></p>  	    <p align="justify"><font face="verdana" size="2">La idea detr&aacute;s del protocolo de adquisici&oacute;n es saber a priori en qu&eacute; parte de la se&ntilde;al de EEG se debe buscar los patrones asociados con la imaginaci&oacute;n de la pronunciaci&oacute;n de la palabra indicada.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Preprocesamiento</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Las se&ntilde;ales de EEG obtenidas son pre&#45;procesadas con el m&eacute;todo de referencia promedio com&uacute;n (CAR, por sus siglas en ingl&eacute;s). Este m&eacute;todo tiene como fin mejorar la relaci&oacute;n se&ntilde;al a ruido de la se&ntilde;al de EEG. B&aacute;sicamente, se busca quitar todo aquello que es com&uacute;n en todas las lecturas simult&aacute;neas de los electrodos. La CAR puede ser calculada mediante la siguiente f&oacute;rmula:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v34n1/a2e1.jpg"></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">donde <i>V</i><sub>i</sub><i><sup>ER</sup></i> es el potencial entre el <i>i</i>&#45;&eacute;simo electrodo y la referencia, y <i>n</i> es el n&uacute;mero de electrodos en el montaje.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Extracci&oacute;n de caracter&iacute;sticas</b></font> <font face="verdana" size="2"><b>Transformada Wavelet Discreta</b></font></p>     <p align="justify"><font face="verdana" size="2">En &#91;19&#93; se menciona que las caracter&iacute;sticas utilizadas en las BCI son no estacionarias ya que las se&ntilde;ales de EEG pueden r&aacute;pidamente variar con el tiempo. Adem&aacute;s, estas caracter&iacute;sticas deben contener informaci&oacute;n del tiempo debido a que los patrones de actividad cerebral est&aacute;n generalmente relacionados a variaciones espec&iacute;ficas del EEG en el tiempo. Lo anterior, hace necesaria una representaci&oacute;n que considere eso.</font></p>  	    <p align="justify"><font face="verdana" size="2">Una t&eacute;cnica que permite modelar dichas variaciones, en el dominio tiempo&#45;escala, es la transformada wavelet discreta (DWT, por su siglas en ingl&eacute;s). La DWT provee una representaci&oacute;n wavelet altamente eficiente mediante la restricci&oacute;n de la variaci&oacute;n en la traslaci&oacute;n y la escala, usualmente a potencias de dos. En ese caso, la DWT es algunas veces llamada transformada wavelet di&aacute;dica. La DWT se define mediante la siguiente ecuaci&oacute;n &#91;20&#93;:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v34n1/a2e2.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">El conjunto de funciones <i>&#968;<sub>j,k</sub></i>(<i>n</i>)es referido como la familia de wavelets derivadas de <i>&#968;(n),</i> el cual es una funci&oacute;n de tiempo con energ&iacute;a finita y r&aacute;pido decaimiento llamada la wavelet madre. Las bases del espacio wavelet corresponden entonces, a las funciones ortonormales obtenidas de la wavelet madre despu&eacute;s de las operaciones de escala y traslaci&oacute;n. La definici&oacute;n indica la proyecci&oacute;n de la se&ntilde;al de entrada en el espacio wavelet a trav&eacute;s del producto interior, entonces, la funci&oacute;n <i>f (x)</i> puede ser representada en la forma:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v34n1/a2e3.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">donde <i>d<sub>j</sub>(k)</i> son los coeficientes wavelet en el nivel <i>j</i>. Los coeficientes en diferentes niveles pueden ser vistos a trav&eacute;s de la proyecci&oacute;n de la se&ntilde;al en la familia de wavelets como:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v34n1/a2e4.jpg"></font></p>  	    ]]></body>
<body><![CDATA[<p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v34n1/a2e5.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">El an&aacute;lisis DWT puede ser realizado usando un algoritmo piramidal r&aacute;pido descrito en t&eacute;rminos de bancos de filtros multi&#45;tasa, es decir, aquellos donde se tiene m&aacute;s de una tasa de muestreo realizando conversiones mediante las operaciones de decimaci&oacute;n e interpolaci&oacute;n. La DWT puede ser vista como un banco de filtros con espacio de una octava entre ellos. Cada sub&#45;banda contiene la mitad de las muestras de la frecuencia de la sub&#45;banda vecina m&aacute;s alta. En el algoritmo piramidal la se&ntilde;al es analizada en diferentes bandas de frecuencias con diferentes resoluciones mediante la descomposici&oacute;n de la se&ntilde;al en una aproximaci&oacute;n burda e informaci&oacute;n detallada. La aproximaci&oacute;n burda es entonces adicionalmente descompuesta usando el mismo paso de descomposici&oacute;n wavelet. Esto se logra mediante un filtrado sucesivo de pasa&#45;bajas y pasa&#45;altas de la se&ntilde;al de tiempo, y un sub&#45;muestreo por dos como se define en las siguientes formulas &#91;21&#93;:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v34n1/a2e6.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Las se&ntilde;ales <i>a<sub>j</sub>(k)</i> y <i>d<sub>j</sub>(k)</i> son conocidas como los coeficientes de aproximaci&oacute;n y detalle, respectivamente. Este proceso puede ser ejecutado iterativamente formando un &aacute;rbol de descomposici&oacute;n wavelet hasta alg&uacute;n nivel de resoluci&oacute;n deseado.</font></p>  	    <p align="justify"><font face="verdana" size="2">En el presente trabajo se aplica la transformada wavelet discreta con 5 niveles de descomposici&oacute;n, utilizando como wavelet madre a una Daubechies de segundo orden (db2). El n&uacute;mero de niveles de descomposici&oacute;n se selecciona a partir del n&uacute;mero de m&aacute;ximo de niveles de descomposici&oacute;n que pueden ser obtenidos con la ventana de menor tama&ntilde;o de todas las disponibles. Con lo anterior, se obtiene un vector de coeficientes wavelet para cada una de las ventanas en cada uno de los canales de inter&eacute;s. La <a href="#t1">Tabla 1</a> muestra los niveles de descomposici&oacute;n y los rangos de frecuencia en cada nivel. Esta transformaci&oacute;n permite seguir teniendo hasta cierto grado una interpretaci&oacute;n de las caracter&iacute;sticas en funci&oacute;n de los rangos de frecuencia.</font></p>  	    <p align="center"><font face="verdana" size="2"><a name="t1"></a></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v34n1/a2t1.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Como es evidente, el n&uacute;mero de coeficientes wavelet en cada uno de los niveles variar&aacute; dependiendo del tama&ntilde;o de la se&ntilde;al de EEG delimitada entre los marcadores. Esto debido a que, de manera similar al habla convencional, la duraci&oacute;n de las ventanas de pronunciaci&oacute;n imaginada de una palabra es variable tanto en ventanas de un s&oacute;lo individuo como en ventanas de individuos distintos. Para tratar con este problema, los coeficientes wavelets son normalizados mediante la energ&iacute;a relativa wavelet que se describe a continuaci&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Energ&iacute;a wavelet relativa</b></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Con la DWT aplicada sobre una se&ntilde;al usando una wavelet madre <i>&#968;</i> y un n&uacute;mero de niveles de descomposici&oacute;n <i>N</i> se obtiene un conjunto de coeficientes de detalle <i>(d<sub>j,k</sub></i>; para <i>j = 1,... ,N</i>) y un conjunto de coeficientes de aproximaci&oacute;n <i>&#945;<sub>N</sub>,<sub>k</sub></i> a la que se denotar&aacute; como los coeficientes <i>&#945;<sub>k</sub></i> en el nivel <i>N &#43; 1</i> con el objetivo de simplificar la notaci&oacute;n. A partir de estos coeficientes es posible calcular la energ&iacute;a relativa wavelet (RWE, por sus siglas en ingl&eacute;s) en cada uno de los niveles de descomposici&oacute;n. La energ&iacute;a relativa wavelet para <i>j</i>&#45;&eacute;simo nivel de descomposici&oacute;n se define como:</font></p>      <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v34n1/a2e7.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">donde <i>E<sub>j</sub></i> representa la energ&iacute;a en el <i>j</i>&#45;&eacute;simo nivel de descomposici&oacute;n y <i>E<sub>total</sub></i> representa la energ&iacute;a total de los coeficientes wavelet de una se&ntilde;al dada. La energ&iacute;a en el <i>j</i>&#45;&eacute;simo nivel de descomposici&oacute;n <i>E<sub>j</sub></i> se define como:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v34n1/a2e8.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Mientras que, la energ&iacute;a total <i>E<sub>total</sub></i> se calcula como sigue:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v34n1/a2e9.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Claramente, &#8721;<i><sub>j</sub> RWE<sub>j</sub></i> = 1 y la distribuci&oacute;n <i>RWE<sub>j</sub></i> puede ser considerada como una densidad tiempo&#45;escala. Esto provee informaci&oacute;n para caracterizar la distribuci&oacute;n de energ&iacute;a de la se&ntilde;al en diferentes bandas de frecuencia.</font></p>  	    <p align="justify"><font face="verdana" size="2">A partir de la descripci&oacute;n anterior, cada ventana de habla imaginada de las se&ntilde;ales de EEG se representa mediante un conjunto de 6 valores que representan las energ&iacute;as wavelet de cada uno de los niveles de descomposici&oacute;n(D1&#45;D5 y A5) con respecto a la energ&iacute;a wavelet total. Con lo anterior, se beneficia una independencia del tama&ntilde;o de la ventana de se&ntilde;al de EEG.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Selecci&oacute;n de caracter&iacute;sticas</b></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">El problema de la selecci&oacute;n de caracter&iacute;sticas implica seleccionar un m&iacute;nimo subconjunto, con <i>M</i> caracter&iacute;sticas, <i>S = (S<sub>1</sub>, ...,S<sub>M</sub></i>) del conjunto de caracter&iacute;sticas original <i>F = (F<sub>1</sub>, &#183;&#183;&#183; ,F<sub>N</sub></i>), donde <i>M</i> &#8804; <i>N</i> y <i>S</i> &#8838; <i>F</i>, de manera que el espacio de caracter&iacute;sticas sea &oacute;ptimamente reducido y el desempe&ntilde;o de la clasificaci&oacute;n sea mejorada o no se degrade significativamente &#91;22&#93;.</font></p>  	    <p align="justify"><font face="verdana" size="2">En esta etapa, el subconjunto m&iacute;nimo de caracter&iacute;sticas se selecciona con base en el trabajo descrito en &#91;12&#93;, donde se menciona que las frecuencias de la se&ntilde;al de EEG que son mayores a 25 Hz. est&aacute;n m&aacute;s relacionadas a actividad electromiogr&aacute;fica (EMG). De aqu&iacute; y de acuerdo a la <a href="#t1">Tabla 1</a> se puede observar que los rangos de frecuencias de los coeficientes en el nivel de detalle (D1) exceden dicha frecuencia, por lo cual los valores de energ&iacute;a relativa wavelet obtenidos a partir de dichos coeficientes se descartan. Por lo tanto, el subconjunto de caracter&iacute;sticas seleccionado se compone de los valores de energ&iacute;a relativa wavelet obtenidos a partir de los coeficientes de detalle (D2&#45;D5) y el de aproximaci&oacute;n (A5) con lo que se reduce la dimensi&oacute;n de los vectores de caracter&iacute;sticas y se busca reducir el impacto del problema de la dimensionalidad <i>(curse of dimensionality)</i> en la etapa de clasificaci&oacute;n. Con lo anterior, cada una de las ventanas de cada uno de los canales est&aacute; representada con 5 valores de energ&iacute;a relativa wavelet.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Clasificaci&oacute;n</b></font></p>  	    <p align="justify"><font face="verdana" size="2">De acuerdo con &#91;23&#93;, la clasificaci&oacute;n cubre cualquier contexto en el que alguna decisi&oacute;n o pron&oacute;stico es hecho sobre la base de informaci&oacute;n hist&oacute;rica disponible. Esta base de informaci&oacute;n disponible <i>D</i> se define de la siguiente forma:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v34n1/a2e10.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">donde los valores <i>X<sub>i</sub></i> &#8712; <i>X</i> son t&iacute;picamente vectores multi&#45;dimensionales de la forma: <i>x<sub>i</sub> =</i> {<i>z<sub>1</sub></i>, z<i><sub>2</sub></i>,&#183;&#183;&#183;,z<i><sub>n</sub></i>} cuyos elementos pueden tomar valores reales o discretos. Estos componentes se denominan atributos (o caracter&iacute;sticas). El objetivo es inferir una funci&oacute;n (o relaci&oacute;n) <i>f</i>.</font></p>  	    <p align="center"><font face="verdana" size="2">f : X &#8594; Y. (12)</font></p>  	    <p align="justify"><font face="verdana" size="2">donde los valores de Y est&aacute;n contenidos en un conjunto finito de clases <i>C =</i> {<i>C<sub>1</sub>,...,C<sub>k</sub></i>} que caracterizan los datos dados. Los modelos aprendidos de los datos de entrenamiento son, entonces, evaluados con un conjunto de prueba distinto para determinar si los modelos pueden ser generalizados a nuevos casos &#91;24&#93;.</font></p>  	    <p align="justify"><font face="verdana" size="2">En el presente trabajo se entrenan y prueban los siguientes tres clasificadores de naturaleza diversa: Naive Bayes (NB), Random Forest (RF) y M&aacute;quina de vectores de soporte (SVM, por sus siglas en ingl&eacute;s). En las siguiente secciones se describe brevemente sus principales caracter&iacute;sticas.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Naive Bayes</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Aunque simples, frecuentemente exhiben alta exactitud en la clasificaci&oacute;n, comparable en rendimiento con los mejores &aacute;rboles y de decisi&oacute;n redes neuronales. Est&aacute; basado en las probabilidades determinadas de datos, los nuevos objetos puedes ser determinados para pertenecer a las clases con diversos grados deprobabilidad &#91;24&#93;.</font></p>  	    <p align="justify"><font face="verdana" size="2">Naive Bay asume que los atributos son independientes, es decir, el efecto de un atributo sobre una clase espec&iacute;fica es independiente de los valores de los otros atributos (variables o caracter&iacute;sticas). Adem&aacute;s, Naive Bayes est&aacute; basado en el teorema de Bayes. En este trabajo se utiliza la implementaci&oacute;n de Naive Bayes desarrollada en Weka versi&oacute;n 3.6.8.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>M&aacute;quinas de vectores de soporte</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Una SVM utiliza un hiperplano discriminante para identificar las clases. Sin embargo, en el caso de SVM, el hyperplano seleccionado es el que maximiza los m&aacute;rgenes, es decir, la distancia entre los puntos de entrenamiento m&aacute;s cercanos. Maximizar los m&aacute;rgenes se sabe que aumenta las capacidades de generalizaci&oacute;n &#91;25, 26&#93;. Adem&aacute;s, SVM utiliza un par&aacute;metro de regularizaci&oacute;n C que es capaz de acomodar valores at&iacute;picos (outliers) y permite errores en el conjunto de un entrenamiento.</font></p>  	    <p align="justify"><font face="verdana" size="2">Un SVM que permite la clasificaci&oacute;n utilizando fronteras de decisi&oacute;n lineal es conocido como SVM lineal. En este trabajo se utiliza la versi&oacute;n de SVM lineal desarrollada en Weka versi&oacute;n 3.6.8 etiquetada como SMO. Sin embargo, es posible crear limites no lineales de decisi&oacute;n, con un aumento de la complejidad del clasificador, utilizando el "truco de <i>Kernel</i>". &Eacute;ste consiste en la transformaci&oacute;n de los datos a otro espacio, generalmente de dimensi&oacute;n mayor usando una funci&oacute;n n&uacute;cleo o <i>Kernel</i>.</font></p>  	    <p align="justify"><font face="verdana" size="2">SVM ha sido aplicado a problemas multiclase utilizando la estrat&eacute;gia conocida como OVR (<i>One Versus the Rest</i>), que consiste en separar cada clase de las otras &#91;27&#93;. Tambi&eacute;n, es importante mencionar que, SVM tiene muchas ventajas como: buenas propiedades de generalizaci&oacute;n, es insensible al sobre&#45;entrenamiento y al problema de la dimensionalidad. Adem&aacute;s, necesita que pocos hiper&#45;par&aacute;metros sean definidos manualmente &#91;28,25,26&#93;.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>Random Forest</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Random Forest (RF) es una combinaci&oacute;n de &aacute;rboles predictores tal que cada uno de los &aacute;rboles depende de los valores de un vector aleatorio muestreado independientemene <i>y</i> con la misma distribuci&oacute;n para todo los &aacute;rboles en el bosque. Cada &aacute;rbol arroja un &uacute;nico voto para la clase m&aacute;s popular para una entrada <i>x</i> dada, y al final la salida de RF se realiza usando voto mayoritario. Los &aacute;rboles individuales son construidos usando el <a href="/img/revistas/rmib/v34n1/a2a1.jpg" target="_blank">Algoritmo 1</a>. Mientras que, el error de generalizaci&oacute;n por bosques converge casi seguramente a un l&iacute;mite cuando el n&uacute;mero de &aacute;rboles en el bosque llega a ser grande &#91;29&#93;.</font></p>  	    <p align="justify"><font face="verdana" size="2">De acuerdo con &#91;30&#93;, en el <a href="/img/revistas/rmib/v34n1/a2a1.jpg" target="_blank">algoritmo 1</a>, <i>IDT</i> representa un &aacute;rbol de decisi&oacute;n con las siguientes modificaciones: el &aacute;rbol de decisi&oacute;n no se poda, y en cada nodo, en vez de seleccionar la mejor divisi&oacute;n entre todos los atributos, el inductor de manera aleatoria muestrea <i>N</i> atributos y selecciona entre ellos la mejor divisi&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2">Despu&eacute;s de que RF ha sido generado, &eacute;ste puede ser usado para clasificar una nueva instancia <i>x</i> perteneciente a un conjunto de instancias de prueba <i>X.</i> Para ello, cada &aacute;rbol miembro de RF retorna la predicci&oacute;n de la clase para la instancia desconocida x. Al final de este proceso, RF devuelve la clase con el mayor n&uacute;mero de predicciones. Esto es conocido como voto mayoritario. Lo anterior se puede resumir en el <a href="/img/revistas/rmib/v34n1/a2a2.jpg" target="_blank">Algoritmo 2</a>.</font></p>  	    <p align="justify"><font face="verdana" size="2">Algunas de las caracter&iacute;sticas de Random Forest son: su rapidez, y su capacidad para manejar, f&aacute;cilmente, un gran n&uacute;mero de atributos de entrada. En el presente trabajo se utilizaron los siguientes hiper&#45;par&aacute;metros para la implementaci&oacute;n del clasificador en Weka 3.6.8: el n&uacute;mero de &aacute;rboles <i>T =</i> 50, el n&uacute;mero de atributos considerados en cada nodo es <i>N = log<sub>2</sub>(numeroCaracteristicas)</i> &#43; 1, el &aacute;rbol <i>IDT</i> base es un random tree, y el tama&ntilde;o de <i>&#956;</i> es igual al tama&ntilde;o del conjunto de entrenamiento <i>S.</i> Es importante mencionar que se realizaron experimentos con 10<sup><a href="#notas">2</a></sup>, 50, 100, 500, 1000 y 5000 &aacute;rboles en el bosque. Sin embargo, con 50 &aacute;rboles se obtuvo el mejor balance entre el n&uacute;mero de &aacute;rboles y la exactitud obtenida por lo que con este hiper&#45;par&aacute;metro fueron calculados los porcentajes de exactitud de la <a href="/img/revistas/rmib/v34n1/a2t3.jpg" target="_blank">Tabla 3</a>.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>EXPERIMENTACI&Oacute;N Y RESULTADOS</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Para formar un corpus de datos para los experimentos, se registraron las se&ntilde;ales de EEG de 27 individuos sanos (S1&#45;S27), de los cuales 2 de ellos son zurdos y el resto son diestros. A cada uno se le registraron 33 &eacute;pocas de c&oacute;mo imaginan la pronunciaci&oacute;n de cada una de las cinco palabras ("arriba", "abajo", "izquierda", "derecha","seleccionar").</font></p>  	    <p align="justify"><font face="verdana" size="2">En el primer experimento se busca evaluar si el habla imaginada puede ser identificada, con tasas de exactitud promedio arriba del azar, independientemente del clasificador elegido. Para ello, las &eacute;pocas registradas pasan por las siguientes etapas de la metodolog&iacute;a: pre&#45;procesamiento, extracci&oacute;n de caracter&iacute;sticas, y selecci&oacute;n de caracter&iacute;sticas. Posteriormente, se concatenan los coeficientes de los cuatro canales de inter&eacute;s en el orden F7&#45;FC5&#45;T7&#45;P7 que est&aacute;n en el mismo intervalo de tiempo, es decir la misma &eacute;poca. Con lo anterior, cada &eacute;poca est&aacute; descrita por un vector que consta de 20 caracter&iacute;sticas que representa los valores de energ&iacute;a relativa wavelet provenientes de los canales de inter&eacute;s m&aacute;s su etiqueta de clase. Por &uacute;ltimo, se utilizan los datos de cada uno de los individuos de manera separada para entrenar y probar a tres clasificadores de distinta naturaleza (RF, SVM, y NB).</font></p>  	    <p align="justify"><font face="verdana" size="2">La medida para evaluar el desempe&ntilde;o de los clasificadores es el porcentaje de exactitud que se define como el n&uacute;mero de &eacute;pocas correctamente clasificadas entre el n&uacute;mero de &eacute;pocas presentadas al clasificador. Los porcentajes de exactitud se obtienen mediante validaci&oacute;n cruzada de 10 particiones. &Eacute;sta se realiza dividiendo el corpus de datos disponible en diez particiones. Posteriormente, se utilizan nueve particiones para entrenar y una para probar al clasificador. Lo anterior se repite diez veces, de tal manera que cada una de las diez particiones se utilice &uacute;nicamente una vez para probar. Los diez resultados obtenidos son promediados para dar una estimaci&oacute;n de la exactitud. En la <a href="/img/revistas/rmib/v34n1/a2t2.jpg" target="_blank">Tabla 2</a> se pueden observar dichos porcentajes.</font></p>  	    ]]></body>
<body><![CDATA[<p align="left"><font face="verdana" size="2">La <a href="/img/revistas/rmib/v34n1/a2t2.jpg" target="_blank">Tabla 2</a> muestra que, generalmente, los porcentajes de exactitud obtenidos por los tres clasificadores se encuentran peor encima del azar para cinco clases, el cual es del 20 &#37;. Este porcentaje de exactitud se toma como cuota, inferior debido a que, de acuerdo con &#91;31&#93;, un buen clasificador es aquel que obtiene tasas de error menores que el azar en la etapa de generaliazaci&oacute;n (prueba). Asimismo, los porcentajes de exactitud promedio de la <a href="/img/revistas/rmib/v34n1/a2t2.jpg" target="_blank">Tabla 2</a> permiten conjeturar que, a pesar de la complenidad inherente a la tarea, las se&ntilde;ales s de EEG registradas durante el habla imaginada contienen informaci&oacute;n que permiten su identificaci&oacute;n inclusive independientemente del clasificador utilizado. Tambi&eacute;n, en la <a href="/img/revistas/rmib/v34n1/a2t2.jpg" target="_blank">Tabla</a> <a href="/img/revistas/rmib/v34n1/a2t2.jpg">2</a> se puede observar que para la mayor&iacute;a de los individuos , los mejores porcentajes de exactitud se obtuvieron para RF. Esto se vio reflejado en el desempe&ntilde;o promedio de RF, entre los diferentes individuos, ya que fue el mayor con un 44.43% Es por esta raz&oacute;n que RF es elegido cerno clasificador base para el siguiente experimento.</font></p>  	    <p align="left"><font face="verdana" size="2">El segundo experimento busca evaluar si los 10 canales restantes pueden aportar informaci&oacute;n adicional, para el proceso de clasificaci&oacute;n de habla imaginada. Para evaluar lo anterior, estos diez canales fueron conjuntados con los cuatro canales m&aacute;s cercanos a las &aacute;reas de Wernicke y Broca. A esta uni&oacute;n, se le denomina configuraci&oacute;n de 14 canales. En resumen, se compara la configuraci&oacute;n de 14 canales con respecto a la de 4.</font></p>  	    <p align="justify"><font face="verdana" size="2">Para tal fin, adem&aacute;s de presentar los porcentajes de exactitud de RF (con 50 &aacute;rboles) para ambas configuraciones; se introduce la tasa de contribuci&oacute;n que es estimado de cu&aacute;nto aportan los cuatro canales en la exactitud obtenida usando los 14 canales. Esta medida puede ser mayor a uno, igual a uno o menor a uno, seg&uacute;n la exactitud obtenida con cuatro canales sea mayor, igual o menor que usando catorce, respectivamente. La tasa de contribuci&oacute;n se calcula como sigue:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v34n1/a2e11.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Para obtener los vectores de caracter&iacute;sticas para la configuraci&oacute;n de 14 canales, los datos del corpus pasan por las mismas etapas que en el primer experimento. sin embargo, la diferencia radica en que, en este experimento se usan los valores de energ&iacute;a relativa Wavelet obtenidos a partir de se&ntilde;ales de EEG en un mismo intervalo de tiempo provenientes de los 14 canales. Estos valores de energ&iacute;a con concatenados de la siguiente manera: AF3&#45;F7&#45;F3&#45;FC5&#45;T7&#45;P7&#45;O1&#45;O2&#45;P8&#45;T8&#45;FC6&#45;F4&#45;F8&#45;AF4. Con lo que resulta un vector con 70 valores de energ&iacute;a relativa Wavelet m&aacute;s su respectiva etiqueta de clase.</font></p>     <p align="justify"><font face="verdana" size="2">La <a href="/img/revistas/rmib/v34n1/a2t3.jpg" target="_blank">Tabla 3</a> presenta, la tasa de contribuci&oacute;n y los porcentajes de exactitud del clasificador RF cuando se utilizan las configuraciones de 14 y 4 canales, despu&eacute;s de aplicar validaci&oacute;n cruzada de 10 particiones. En ella se aprecia que, el clasificador RF tiene mejor desempe&ntilde;o usando la configuraci&oacute;n de 14 canales salvo el caso del individuo S20 (aunque la diferencia es m&iacute;nima), y para ambas configuraciones los porcentajes de exactitud se mantienen por encima del azar para cinco clases. Sin embargo, es importante recalcar que la tasa de contribuci&oacute;n para todos los individuos est&aacute; por arriba de 0.5 lo que quiere decir que la informaci&oacute;n proveniente de los cuatro canales de inter&eacute;s representa cuando menos el 50&#37; de la clasificaci&oacute;n usando todos los catorce canales.</font></p>  	    <p align="justify"><font face="verdana" size="2">Por &uacute;ltimo, es importante mencionar que el presente trabajo obtiene resultados comparables a trabajos previos. En el caso de RF usando la configuraci&oacute;n de todos los canales, se obtuvo una exactitud promedio de 60.11&#37; que supera a lo descrito en &#91;11&#93; y en &#91;8&#93; donde se reportan exactitudes de 47.24&#37; y el 45.50&#37;, respectivamente. Inclusive con RF usando &uacute;nicamente cuatro canales, se logra en promedio una exactitud de 47.93&#37; que supera a lo reportando en ambos trabajos para cinco palabras. La comparaci&oacute;n es bajo reserva puesto que no se tuvo acceso a las se&ntilde;ales de EEG usadas ni por &#91;11&#93;, ni por &#91;8&#93;. Esto hace que existan diferencias en los datos procesados, tales como: el protocolo de adquisici&oacute;n del habla imaginada registrada con EEG, el vocabulario reducido, el n&uacute;mero de individuos, el n&uacute;mero de repeticiones por palabra, la relaci&oacute;n entre el idioma del vocabulario y el de los individuos, y el n&uacute;mero de canales procesados.</font></p>  	    <p align="justify"><font face="verdana" size="2">Sin embargo, la principal diferencia con respecto a ambos trabajos radica en que ellos procesan a las se&ntilde;ales de EEG con modelos de reconocimiento de habla convencional, asumiendo que hallar&aacute;n los mismos patrones de actividad en ambas se&ntilde;ales. Esto a pesar de que las se&ntilde;ales de habla y EEG son de diferente naturaleza.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>DISCUSI&Oacute;N Y CONCLUSIONES</b></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">En la b&uacute;squeda de una fuente electrofisiol&oacute;gica alternativa para controlar BCIs, se explor&oacute; la posibilidad de usar para tal fin al habla imaginada. &Eacute;sta tiene como ventajas el ser m&aacute;s intuitiva y multi&#45;clase (m&aacute;s de dos opciones), permitir&iacute;a la comunicaci&oacute;n sin necesidad de una traducci&oacute;n al dominio del lenguaje &#91;1&#93;, podr&iacute;a ser &uacute;til cuando la corteza motora tenga lesiones &#91;32&#93;, y no requiere de un est&iacute;mulo externo. Espec&iacute;ficamente, en la presente investigaci&oacute;n se desarroll&oacute; un m&eacute;todo de procesamiento y clasificaci&oacute;n de las se&ntilde;ales de EEG asociadas al habla imaginada. &Eacute;ste no utiliza t&eacute;cnicas de reconocimiento de habla convencional para tratar a la se&ntilde;al de EEG debido a que las caracter&iacute;sticas del EEG y del habla son distintas. Adem&aacute;s, se explor&oacute; un vocabulario reducido de mayor carga sem&aacute;ntica que los reportados en el estado del arte compuesto de las palabras del idioma espa&ntilde;ol: "arriba", "abajo", "izquierda", "derecha" y "seleccionar". Esto se debe tanto al significado claro que cada una de las palabras tienen para el usuario como al hecho de que &eacute;stas reflejan &oacute;rdenes con las que se podr&iacute;a controlar el desplazamiento y el clic del mouse. Asimismo, en b&uacute;squeda de disminuir el impacto del problema de la dimensionalidad en la etapa de clasificaci&oacute;n, se calcularon y se seleccionaron los valores de energ&iacute;a relativa wavelet de los coeficientes wavelet en los niveles de detalle (D2, D3, D4, D5 y D6), y en nivel de aproximaci&oacute;n (A6); con lo que se obtiene una representaci&oacute;n compacta de cada una de las &eacute;pocas registradas de los individuos durante la pronunciaci&oacute;n imaginada de una palabra.</font></p>  	    <p align="justify"><font face="verdana" size="2">Actualmente, las principales fuentes electrofisiol&oacute;gicas aprovechadas para la realizaci&oacute;n de sistemas BCI (P300, VEP, im&aacute;genes motoras y SCP) pueden proporcionar porcentajes de reconocimiento elevados &#91;33, 34, 35&#93;; espec&iacute;ficamente, cuando se trata de decodificar dos intenciones &#45;por ejemplo, los movimientos imaginados de la mano derecha e izquierda&#45;. Esos porcentajes son mayores a los porcentajes obtenidos en el presente estudio utilizando habla imaginada, los cuales a&uacute;n distan de la situaci&oacute;n ideal para llevar el trabajo a un nivel de aplicaci&oacute;n pr&aacute;ctico. Sin embargo, es importante recalcar que los porcentajes obtenidos por los clasificadores (RF, SVM, NB) utilizando habla imaginada registrada &uacute;nicamente de los canales F7&#45;FC5&#45;T7&#45;P7, en todos los individuos, son superiores al 20&#37;, es decir, est&aacute;n arriba del azar para cinco clases (ver <a href="/img/revistas/rmib/v34n1/a2t2.jpg" target="_blank">Tabla 2</a>). Esto es especialmente interesante si se considera el hecho de haber utilizado palabras sem&aacute;nticamente similares. Con base en todo lo anterior, se puede conjeturar que a pesar de la complejidad inherente a la tarea, las se&ntilde;ales de EEG registradas durante el habla imaginada podr&iacute;an contener informaci&oacute;n para ser utilizada en tareas de clasificaci&oacute;n de palabras de un vocabulario reducido. Actualmente se est&aacute; realizando un an&aacute;lisis de las caracter&iacute;sticas utilizadas por el m&eacute;todo con la intenci&oacute;n de ampliar nuestro conocimiento sobre cu&aacute;les de ellas son las m&aacute;s apropiadas para la correcta clasificaci&oacute;n del habla imaginada.</font></p>  	    <p align="justify"><font face="verdana" size="2">Por otra parte, en la <a href="/img/revistas/rmib/v34n1/a2t3.jpg" target="_blank">Tabla 3</a> se puede observar que los canales m&aacute;s relacionados con el habla imaginada (F7&#45;FC5&#45;T7&#45;P7) aportan siempre m&aacute;s del 50 &#37; de la clasificaci&oacute;n obtenida usando la configuraci&oacute;n de 14 canales. Sin embargo, tambi&eacute;n se puede observar que para pr&aacute;cticamente todos los individuos es mejor utilizar las se&ntilde;ales registradas de todos los canales. De aqu&iacute; es importante remarcar que el porcentaje de exactitud promedio utilizando la configuraci&oacute;n de 14 canales es de 60.11&#37;, es decir, tres veces mayor al azar para cinco clases. Esta mejor&iacute;a en las exactitudes entre la configuraci&oacute;n de 14 canales con respecto a la de 4 canales permite conjeturar que los dem&aacute;s canales contribuyen al proceso de reconocimiento del habla imaginada. Lo anterior est&aacute; en sinton&iacute;a con modelos cerebrales m&aacute;s recientes que discuten la contribuci&oacute;n de regiones del hemisferio izquierdo fuera de las&nbsp;de Wernicke y Broca a la generaci&oacute;n del lenguaje &#91;36&#93;. Asimismo, en &#91;37&#93; se sugiere que el habla imaginada podr&iacute;a generarse en la corteza auditiva o en el &aacute;rea de Wernicke, si se toma como cierto el hecho de que se produce en la corteza auditiva, en &#91;38&#93; se ha mostrado que existe actividad en est&aacute; regi&oacute;n asociada a la percepci&oacute;n de lenguaje en ambos hemisferios con lo que se justificar&iacute;a el uso de algunos canales del hemisferio derecho del cerebro.</font></p>  	    <p align="justify"><font face="verdana" size="2">No obstante, el usar todos los canales no necesariamente implica mayor informaci&oacute;n para obtener el mejor desempe&ntilde;o posible; por lo que, queda por explorar cu&aacute;l es la mejor combinaci&oacute;n de canales, dentro del espacio de 2<sup>14</sup> &#151; 1 posibles combinaciones, que permita obtener el mejor porcentaje de exactitud utilizando el menor n&uacute;mero de canales posible. Esto con el objetivo de mitigar el costo de procesar la informaci&oacute;n proveniente de todos los canales. El hallar la soluci&oacute;n que minimice el error (diferencia entre el total y la exactitud) y el n&uacute;mero de canales es considerado por los investigadores de computaci&oacute;n como un problema NP&#45;dif&iacute;cil, es decir, el tipo de problemas que no son de decisi&oacute;n para los cuales no se conoce un algoritmo "eficiente" que resuelva el problema en un tiempo polinomial. Para tratar de solventar estas limitaciones existen algunas heur&iacute;sticas bio&#45;inspiradas como los algoritmos gen&eacute;ticos que permiten explorar el espacio de b&uacute;squeda y obtener buenas soluciones, es decir, aquellas donde el conjunto de canales seleccionados sea el menor posible, y la exactitud mejora o se degrada lo menos posible. Asimismo, la calidad de las soluciones puede verificarse en funci&oacute;n de qu&eacute; tan cercanos est&aacute;n los canales seleccionados a las &aacute;reas del lenguaje.</font></p>  	    <p align="justify"><font face="verdana" size="2">Por &uacute;ltimo, en todas las etapas existe la posibilidad de trabajo futuro. En la etapa de preprocesamiento se podr&iacute;a aplicar An&aacute;lisis de Componentes Independientes (ICA, por sus siglas en ingl&eacute;s) y evaluar cada componente independiente usando el coeficiente Hurst. Con lo anterior, de acuerdo a la evidencia experimental, es posible eliminar artefactos como latidos del coraz&oacute;n y parpadeos. En esta misma etapa, tambi&eacute;n se podr&iacute;a aplicar An&aacute;lisis de Componentes Principales (PCA, por sus siglas en ingl&eacute;s) o selecci&oacute;n de canales por m&eacute;todos de envoltura basados en algoritmos evolutivos. En lo que a extracci&oacute;n de caracter&iacute;sticas se refiere, seleccionar a otra familia wavelet (Symlet, Mexican Hat, Morlet entre otras) como madre as&iacute; como variar el orden de la wavelet tambi&eacute;n podr&iacute;an ayudar. Otra acci&oacute;n en la misma etapa podr&iacute;a ser, usar otras representaciones de la se&ntilde;al de EEG &#45;por ejemplo, los coeficientes auto&#45;regresivos, coeficientes cepstrales en las frecuencias de Mel (MFCC), o codificadores de predicci&oacute;n lineal (LPC) &#45; y combinarlos con los coeficientes DWT. En la clasificaci&oacute;n, seleccionar de forma autom&aacute;tica los hiper&#45;par&aacute;metros &oacute;ptimos de los clasificadores utilizados es un tema importante a tratar. Asimismo, la aplicaci&oacute;n de m&eacute;todos h&iacute;bridos del &aacute;rea de inteligencia computacional, como sistemas neuro&#45;difusos o fuzzy&#45;gen&eacute;ticos, etc. puede tambi&eacute;n ayudar a mejorar la exactitud final.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Agradecimientos</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Los autores agradecen al pueblo de M&eacute;xico que, mediante el Consejo de Ciencia y Tecnolog&iacute;a (CONACyT), apoy&oacute; la investigaci&oacute;n con la beca # 329011. Asimismo, al INAOE por el apoyo brindado para realizar este trabajo.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>REFERENCIAS</b></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">1. Brumberg J. S., Nieto&#45;Castanon A., Kennedy P. R. and Guenther F. H., "Brain&#45;computer interfaces for speech communication," <i>Speech Communication,</i> no. 52, p. 367&#45;379, 2010.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510663&pid=S0188-9532201300010000200001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">2. Wolpaw J., Birbaumer N., McFarland D., Pfurtscheller G. and Vaughan T., "Brain&#45;computer interfaces for communication and control," <i>Clinical neurophysiology,</i> vol. 113, no. 6, pp. 767&#45;791, 2002.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510665&pid=S0188-9532201300010000200002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">3. S&aacute;nchez de la Rosa J. L., <i>M&eacute;todos para el procesamiento y an&aacute;lisis estad&iacute;stico multivariante de se&ntilde;ales multicanal: aplicaci&oacute;n al estudio del EEG.</i> PhD thesis, Universidad de La Laguna, Espa&ntilde;a, 1993.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510667&pid=S0188-9532201300010000200003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">4. Bashashati A., Fatourechi M., Ward R. and Birch G., "A survey of signal processing algorithms in brain&#45;computer interfaces based on electrical brain signals," <i>Journal of Neural engineering,</i> vol. 4, pp. R32&#45;R57, 2007.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510669&pid=S0188-9532201300010000200004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">5. Pfurtscheller G., "Brain&#45;computer interfaces: State of the art and future prospects," in <i>Proceedings of the 12th European Signal Processing Conference: EUROSIPCO 04,</i> pp. 509&#45;510, 2004.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510671&pid=S0188-9532201300010000200005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">6. Denby B., Schultz T., Honda K., Hueber T., Gilbert J. and Brumberg J., "Silent speech interfaces," <i>Speech Communication,</i> vol. 52, no. 4, pp. 270&#45;287, 2010.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510673&pid=S0188-9532201300010000200006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">7. Calliess J., "Further investigations on unspoken speech," Master's thesis, Institut f&uuml;r Theoretische Informatik Universit&aacute;t Karlsruhe (TH), Karlsruhe, Germany, 2006.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510675&pid=S0188-9532201300010000200007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">8. Porbadnigk A. and Schultz T., "EEG&#45;based Speech Recognition: Impact of Experimental Design on Performance," Master's thesis, Institut f&uuml;r Theoretische Informatik Universit&aacute;t Karlsruhe (TH), Karlsruhe, Germany, 2008.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510677&pid=S0188-9532201300010000200008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">9. Suppes P., Lu Z. and Han B., "Brain wave recognition of words," <i>Proceedings of the National Academy of Sciences of the United States of America,</i> vol. 94, no. 26, p. 14965, 1997.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510679&pid=S0188-9532201300010000200009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">10. Wand M., "Wavelet&#45;based Preprocessing of Electroencephalographic and Electromyographic Signals for Speech Recognition," <i>Studienarbeit Lehrstuhl Prof. Waibel Interactive Systems Laboratories Carnegie Mellon University, Pittsburgh, PA, USA and Institut f&uuml;r Theoretische Informatik Universit&aacute;t Karlsruhe (TH), Karlsruhe, Germany,</i> 2007.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510681&pid=S0188-9532201300010000200010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">11. Wester M. and Schultz T., "Unspoken Speech &#45; Speech Recognition Based On Electroencephalography" Master's thesis, Institut f&uuml;r Theoretische Informatik Universit&aacute;t Karlsruhe (TH), Karlsruhe, Germany, 2006.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510683&pid=S0188-9532201300010000200011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">12. Brigham K. and Kumar B., "Imagined Speech Classification with EEG Signals for Silent Communication: A Preliminary Investigation into Synthetic Telepathy" in <i>Bioinformatics and Biomedical Engineering (iCBBE), 2010 4th International Conference on,</i> pp. 1&#45;4, IEEE, 2010.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510685&pid=S0188-9532201300010000200012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">13. DaSalla C. S., Kambara H., Koike Y. and Sato M., "Spatial filtering and single&#45;trial classification of EEG during vowel speech imagery" in <i>i&#45;CREATe '09: Proceedings of the 3rd International Convention on Rehabilitation Engineering &amp; Assistive Technology,</i> (New York, NY, USA), pp. 14, ACM, 2009.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510687&pid=S0188-9532201300010000200013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">14. D'Zmura M., Deng S., Lappas T., Thorpe S. and Srinivasan R., "Toward EEG sensing of imagined speech" <i>Human&#45;Computer Interaction. New Trends,</i> pp. 40&#45;48, 2009.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510689&pid=S0188-9532201300010000200014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">15. Torres&#45;Garc&iacute;a A. A., Reyes&#45;Garc&iacute;a C. A. and Villase&ntilde;or&#45;Pineda L., "Hacia la clasificaci&oacute;n de habla no pronunciada mediante electroencefalogramas (EEG)" in <i>XXXIV Congreso Nacional de Ingenier&iacute;a Biom&eacute;dica,</i> pp. 9&#45;12, 2011.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510691&pid=S0188-9532201300010000200015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">16. Torres&#45;Garc&iacute;a A. A., Reyes&#45;Garc&iacute;a C. A. and Villase&ntilde;or&#45;Pineda L., "Toward a silent speech interface based on unspoken speech" in <i>BIOSTEC &#45; BIOSIGNALS</i> (S. V. Huffel, C. M. B. A. Correia, A. L. N. Fred, and H. Gamboa, eds.), pp. 370&#45;373, SciTePress, 2012.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510693&pid=S0188-9532201300010000200016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">17. Hall M., Frank E., Holmes G., Pfahringer B., Reutemann P., and Witten I., "The weka data mining software: an update" <i>ACM SIGKDD Explorations Newsletter,</i> vol. 11, no. 1, pp. 10&#45;18, 2009.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510695&pid=S0188-9532201300010000200017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">18. Geschwind N., "Language and the brain.," <i>Scientific American,</i> 1972.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510697&pid=S0188-9532201300010000200018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">19. Lotte F., Congedo M., L&eacute;cuyer A., Lamarche F. and Arnald B., "A review of classication algorithms for EEG&#45;based brain&#45;computer interfaces" <i>Journal of Neural Engineering,</i> vol. 4, pp. r1&#45;r13, 2007.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510699&pid=S0188-9532201300010000200019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">20. Priestley M., "Wavelets and time&#45;dependent spectral analysis," <i>Journal of Time Series Analysis,</i> vol. 17, no. 1, pp. 85-103, 2008.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510701&pid=S0188-9532201300010000200020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">21. Pinsky M., <i>Introduction to Fourier analysis and wavelets,</i> vol. 102. Amer Mathematical Society, 2002.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510703&pid=S0188-9532201300010000200021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">22. Zhu Z., Jia S. and Ji Z., "Towards a Memetic Feature Selection Paradigm &#91;Application Notes&#93;," <i>Computational Intelligence Magazine, IEEE,</i> vol. 5, no. 2, pp. 41&#45;53, 2010.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510705&pid=S0188-9532201300010000200022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">23. Michie D., Spiegelhalter D. and Taylor C., <i>Machine Learning, Neural and Statistical Classification.</i> 1994.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510707&pid=S0188-9532201300010000200023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">24. Jensen R. and Shen Q., <i>Computational intelligence and feature selection: rough and fuzzy approaches.</i> IEEE Press Series On Computational Intelligence, 2008.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510709&pid=S0188-9532201300010000200024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">25. Burges C., "A tutorial on support vector machines for pattern recognition," <i>Data mining and knowledge discovery,</i> vol. 2, no. 2, pp. 121&#45;167, 1998.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510711&pid=S0188-9532201300010000200025&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">26. Bennett K. and Campbell C., "Support vector machines: hype or hallelujah?," <i>ACM SIGKDD Explorations Newsletter,</i> vol. 2, no. 2, pp. 1&#45;13, 2000.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510713&pid=S0188-9532201300010000200026&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">27. Schl&ouml;gl A., Lee F., Bischof H. and Pfurtscheller G., "Characterization of four&#45;class motor imagery EEG data for the BCI&#45;competition 2005," <i>Journal of Neural Engineering,</i> vol. 2, p. L14, 2005.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510715&pid=S0188-9532201300010000200027&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">28. Jain A., Duin R. and Mao J., "Statistical pattern recognition: A review," <i>Pattern Analysis and Machine Intelligence, IEEE Transactions on,</i> vol. 22, no. 1, pp. 4&#45;37, 2000.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510717&pid=S0188-9532201300010000200028&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">29. Breiman L., "Random forests," <i>Machine learning,</i> vol. 45, no. 1, pp. 5&#45;32, 2001.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510719&pid=S0188-9532201300010000200029&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">30. Rokach L., <i>Pattern Classification Using Ensemble Methods.</i> World Scientific, 2009.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510721&pid=S0188-9532201300010000200030&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">31. Dietterich T., "Ensemble methods in machine learning," <i>Multiple classifier systems,</i> pp. 1&#45;15, 2000.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510723&pid=S0188-9532201300010000200031&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">32. Lal T. N., Schroder M., Hinterberger T., Weston J., Bogdan M., Birbaumer N., and Scholkopf B., "Support vector channel selection in BCI," <i>Biomedical Engineering, IEEE Transactions on,</i> vol. 51, no. 6, pp. 1003&#45;1010, 2004.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510725&pid=S0188-9532201300010000200032&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">33. Guger C., Edlinger G., Harkam W., Niedermayer I., and Pfurtscheller G., "How many people are able to operate an EEG&#45;based brain&#45;computer interface (BCI)?," <i>Neural Systems and Rehabilitation Engineering, IEEE Transactions on,</i> vol. 11, no. 2, pp. 145&#45;147, 2003.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510727&pid=S0188-9532201300010000200033&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">34. Allison B., Luth T., Valbuena D., Teymourian A., Volosyak I., and Graser A., "BCI Demographics: How many (and what kinds of) people can use an SSVEP BCI?," <i>Neural Systems and Rehabilitation Engineering, IEEE Transactions on,</i> vol. 18, no. 2, pp. 107&#45;116, 2010.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510729&pid=S0188-9532201300010000200034&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">35. Volosyak I., Valbuena D., &uuml;th T. L, Malechka T., and Gr&auml;ser A., "BCI Demographics II: How many (and what kinds of) people can use an SSVEP BCI," <i>IEEE Trans. Neural Syst. Rehabil. Eng,</i> 2011.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510731&pid=S0188-9532201300010000200035&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">36. Binder J., Frost J., Hammeke T., Cox R., Rao S., and Prieto T., "Human brain language areas identified by functional magnetic resonance imaging," <i>The Journal of Neuroscience,</i> vol. 17, no. 1, pp. 353&#45;362, 1997.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510733&pid=S0188-9532201300010000200036&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">37. Hesslow G., "Conscious thought as simulation of behaviour and perception," <i>Trends in cognitive sciences,</i> vol. 6, no. 6, pp. 242&#45;247, 2002.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510735&pid=S0188-9532201300010000200037&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">38. Hickok G. and Poeppel D., "The cortical organization of speech processing," <i>Nature Reviews Neuroscience,</i> vol. 8, no. 5, pp. 393&#45;402, 2007.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8510737&pid=S0188-9532201300010000200038&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b><a name="notas"></a>Notas</b></font></p>  	    <p align="justify"><font face="verdana" size="2"><sup>1</sup> XIII Censo General de Poblaci&oacute;n y Vivienda 2010 realizado por el Instituto Nacional de Estad&iacute;stica, Geograf&iacute;a e inform&aacute;tica (INEGI)</font></p>  	    <p align="justify"><font face="verdana" size="2"><sup>2</sup> El n&uacute;mero de &aacute;rboles por defecto es 10. Este n&uacute;mero fue utilizado para obtener los porcentajes de exactitud de RF en la <a href="/img/revistas/rmib/v34n1/a2t2.jpg" target="_blank">Tabla 2</a> para una comparaci&oacute;n justa.</font></p>     ]]></body>
<body><![CDATA[ ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Brumberg]]></surname>
<given-names><![CDATA[J. S.]]></given-names>
</name>
<name>
<surname><![CDATA[Nieto-Castanon]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Kennedy]]></surname>
<given-names><![CDATA[P. R.]]></given-names>
</name>
<name>
<surname><![CDATA[Guenther]]></surname>
<given-names><![CDATA[F. H.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Brain-computer interfaces for speech communication]]></article-title>
<source><![CDATA[Speech Communication]]></source>
<year>2010</year>
<numero>52</numero>
<issue>52</issue>
<page-range>367-379</page-range></nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wolpaw]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Birbaumer]]></surname>
<given-names><![CDATA[N.]]></given-names>
</name>
<name>
<surname><![CDATA[McFarland]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[Pfurtscheller]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Vaughan]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Brain-computer interfaces for communication and control]]></article-title>
<source><![CDATA[Clinical neurophysiology]]></source>
<year>2002</year>
<volume>113</volume>
<numero>6</numero>
<issue>6</issue>
<page-range>767-791</page-range></nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sánchez de la Rosa]]></surname>
<given-names><![CDATA[J. L.]]></given-names>
</name>
</person-group>
<source><![CDATA[Métodos para el procesamiento y análisis estadístico multivariante de señales multicanal: aplicación al estudio del EEG]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bashashati]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Fatourechi]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Ward]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Birch]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A survey of signal processing algorithms in brain-computer interfaces based on electrical brain signals]]></article-title>
<source><![CDATA[Journal of Neural engineering]]></source>
<year>2007</year>
<volume>4</volume>
<page-range>R32-R57</page-range></nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Pfurtscheller]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Brain-computer interfaces: State of the art and future prospects]]></article-title>
<source><![CDATA[Proceedings of the 12th European Signal Processing Conference: EUROSIPCO 04]]></source>
<year>2004</year>
<page-range>509-510</page-range></nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Denby]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
<name>
<surname><![CDATA[Schultz]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
<name>
<surname><![CDATA[Honda]]></surname>
<given-names><![CDATA[K.]]></given-names>
</name>
<name>
<surname><![CDATA[Hueber]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
<name>
<surname><![CDATA[Gilbert]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Brumberg]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Silent speech interfaces]]></article-title>
<source><![CDATA[Speech Communication]]></source>
<year>2010</year>
<volume>52</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>270-287</page-range></nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Calliess]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<source><![CDATA[Further investigations on unspoken speech]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Porbadnigk]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Schultz]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
</person-group>
<source><![CDATA[EEG-based Speech Recognition: Impact of Experimental Design on Performance]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Suppes]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
<name>
<surname><![CDATA[Lu]]></surname>
<given-names><![CDATA[Z.]]></given-names>
</name>
<name>
<surname><![CDATA[Han]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Brain wave recognition of words]]></article-title>
<source><![CDATA[Proceedings of the National Academy of Sciences of the United States of America]]></source>
<year>1997</year>
<volume>94</volume>
<numero>26</numero>
<issue>26</issue>
<page-range>14965</page-range></nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wand]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Wavelet-based Preprocessing of Electroencephalographic and Electromyographic Signals for Speech Recognition]]></article-title>
<source><![CDATA[Studienarbeit Lehrstuhl Prof. Waibel Interactive Systems Laboratories Carnegie Mellon University, Pittsburgh, PA, USA and Institut für Theoretische Informatik Universitát Karlsruhe (TH), Karlsruhe, Germany]]></source>
<year>2007</year>
</nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wester]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Schultz]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
</person-group>
<source><![CDATA[Unspoken Speech - Speech Recognition Based On Electroencephalography]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B12">
<label>12</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Brigham]]></surname>
<given-names><![CDATA[K.]]></given-names>
</name>
<name>
<surname><![CDATA[Kumar]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Imagined Speech Classification with EEG Signals for Silent Communication: A Preliminary Investigation into Synthetic Telepathy]]></article-title>
<source><![CDATA[Bioinformatics and Biomedical Engineering (iCBBE), 2010 4th International Conference on]]></source>
<year>2010</year>
<page-range>1-4</page-range><publisher-name><![CDATA[IEEE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DaSalla]]></surname>
<given-names><![CDATA[C. S.]]></given-names>
</name>
<name>
<surname><![CDATA[Kambara]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
<name>
<surname><![CDATA[Koike]]></surname>
<given-names><![CDATA[Y.]]></given-names>
</name>
<name>
<surname><![CDATA[Sato]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Spatial filtering and single-trial classification of EEG during vowel speech imagery]]></article-title>
<source><![CDATA[i-CREATe '09: Proceedings of the 3rd International Convention on Rehabilitation Engineering & Assistive Technology]]></source>
<year>2009</year>
<page-range>14</page-range><publisher-loc><![CDATA[New York^eNY NY]]></publisher-loc>
<publisher-name><![CDATA[ACM]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<label>14</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[D'Zmura]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Deng]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[Lappas]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
<name>
<surname><![CDATA[Thorpe]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[Srinivasan]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Toward EEG sensing of imagined speech]]></article-title>
<source><![CDATA[Human-Computer Interaction. New Trends]]></source>
<year>2009</year>
<page-range>40-48</page-range></nlm-citation>
</ref>
<ref id="B15">
<label>15</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Torres-García]]></surname>
<given-names><![CDATA[A. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Reyes-García]]></surname>
<given-names><![CDATA[C. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Villaseñor-Pineda]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Hacia la clasificación de habla no pronunciada mediante electroencefalogramas (EEG)]]></article-title>
<source><![CDATA[XXXIV Congreso Nacional de Ingeniería Biomédica]]></source>
<year>2011</year>
<page-range>9-12</page-range></nlm-citation>
</ref>
<ref id="B16">
<label>16</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Torres-García]]></surname>
<given-names><![CDATA[A. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Reyes-García]]></surname>
<given-names><![CDATA[C. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Villaseñor-Pineda]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Toward a silent speech interface based on unspoken speech]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Huffel]]></surname>
<given-names><![CDATA[S. V.]]></given-names>
</name>
<name>
<surname><![CDATA[Correia]]></surname>
<given-names><![CDATA[C. M. B. A.]]></given-names>
</name>
<name>
<surname><![CDATA[Fred]]></surname>
<given-names><![CDATA[A. L. N.]]></given-names>
</name>
<name>
<surname><![CDATA[Gamboa]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
</person-group>
<source><![CDATA[BIOSTEC - BIOSIGNALS]]></source>
<year>2012</year>
<page-range>370-373</page-range><publisher-name><![CDATA[SciTePress]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B17">
<label>17</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hall]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Frank]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
<name>
<surname><![CDATA[Holmes]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Pfahringer]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
<name>
<surname><![CDATA[Reutemann]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
<name>
<surname><![CDATA[Witten]]></surname>
<given-names><![CDATA[I.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The weka data mining software: an update]]></article-title>
<source><![CDATA[ACM SIGKDD Explorations Newsletter]]></source>
<year>2009</year>
<volume>11</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>10-18</page-range></nlm-citation>
</ref>
<ref id="B18">
<label>18</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Geschwind]]></surname>
<given-names><![CDATA[N.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Language and the brain]]></article-title>
<source><![CDATA[Scientific American]]></source>
<year>1972</year>
</nlm-citation>
</ref>
<ref id="B19">
<label>19</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lotte]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
<name>
<surname><![CDATA[Congedo]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Lécuyer]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Lamarche]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
<name>
<surname><![CDATA[Arnald]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A review of classication algorithms for EEG-based brain-computer interfaces]]></article-title>
<source><![CDATA[Journal of Neural Engineering]]></source>
<year>2007</year>
<volume>4</volume>
<page-range>r1-r13</page-range></nlm-citation>
</ref>
<ref id="B20">
<label>20</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Priestley]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Wavelets and time-dependent spectral analysis]]></article-title>
<source><![CDATA[Journal of Time Series Analysis]]></source>
<year>2008</year>
<volume>17</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>85-103</page-range></nlm-citation>
</ref>
<ref id="B21">
<label>21</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Pinsky]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<source><![CDATA[Introduction to Fourier analysis and wavelets]]></source>
<year>2002</year>
<volume>102</volume>
<publisher-name><![CDATA[Amer Mathematical Society]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B22">
<label>22</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zhu]]></surname>
<given-names><![CDATA[Z.]]></given-names>
</name>
<name>
<surname><![CDATA[Jia]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[Ji]]></surname>
<given-names><![CDATA[Z.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Towards a Memetic Feature Selection Paradigm [Application Notes]]]></article-title>
<source><![CDATA[Computational Intelligence Magazine, IEEE]]></source>
<year>2010</year>
<volume>5</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>41-53</page-range></nlm-citation>
</ref>
<ref id="B23">
<label>23</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Michie]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[Spiegelhalter]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[Taylor]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
</person-group>
<source><![CDATA[Machine Learning, Neural and Statistical Classification]]></source>
<year>1994</year>
</nlm-citation>
</ref>
<ref id="B24">
<label>24</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Jensen]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Shen]]></surname>
<given-names><![CDATA[Q.]]></given-names>
</name>
</person-group>
<source><![CDATA[Computational intelligence and feature selection: rough and fuzzy approaches]]></source>
<year>2008</year>
<publisher-name><![CDATA[IEEE Press Series On Computational Intelligence]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B25">
<label>25</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Burges]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A tutorial on support vector machines for pattern recognition]]></article-title>
<source><![CDATA[Data mining and knowledge discovery]]></source>
<year>1998</year>
<volume>2</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>121-167</page-range></nlm-citation>
</ref>
<ref id="B26">
<label>26</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bennett]]></surname>
<given-names><![CDATA[K.]]></given-names>
</name>
<name>
<surname><![CDATA[Campbell]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Support vector machines: hype or hallelujah?]]></article-title>
<source><![CDATA[ACM SIGKDD Explorations Newsletter]]></source>
<year>2000</year>
<volume>2</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>1-13</page-range></nlm-citation>
</ref>
<ref id="B27">
<label>27</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Schlögl]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Lee]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
<name>
<surname><![CDATA[Bischof]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
<name>
<surname><![CDATA[Pfurtscheller]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Characterization of four-class motor imagery EEG data for the BCI-competition 2005]]></article-title>
<source><![CDATA[Journal of Neural Engineering]]></source>
<year>2005</year>
<volume>2</volume>
<page-range>L14</page-range></nlm-citation>
</ref>
<ref id="B28">
<label>28</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Jain]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Duin]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Mao]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Statistical pattern recognition: A review]]></article-title>
<source><![CDATA[Pattern Analysis and Machine Intelligence, IEEE Transactions on]]></source>
<year>2000</year>
<volume>22</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>4-37</page-range></nlm-citation>
</ref>
<ref id="B29">
<label>29</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Breiman]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Random forests]]></article-title>
<source><![CDATA[Machine learning]]></source>
<year>2001</year>
<volume>45</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>5-32</page-range></nlm-citation>
</ref>
<ref id="B30">
<label>30</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rokach]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
</person-group>
<source><![CDATA[Pattern Classification Using Ensemble Methods]]></source>
<year>2009</year>
<publisher-name><![CDATA[World Scientific]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B31">
<label>31</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Dietterich]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Ensemble methods in machine learning]]></article-title>
<source><![CDATA[Multiple classifier systems]]></source>
<year>2000</year>
<page-range>1-15</page-range></nlm-citation>
</ref>
<ref id="B32">
<label>32</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lal]]></surname>
<given-names><![CDATA[T. N.]]></given-names>
</name>
<name>
<surname><![CDATA[Schroder]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Hinterberger]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
<name>
<surname><![CDATA[Weston]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Bogdan]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Birbaumer]]></surname>
<given-names><![CDATA[N.]]></given-names>
</name>
<name>
<surname><![CDATA[Scholkopf]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Support vector channel selection in BCI]]></article-title>
<source><![CDATA[Biomedical Engineering, IEEE Transactions on]]></source>
<year>2004</year>
<volume>51</volume>
<numero>6</numero>
<issue>6</issue>
<page-range>1003-1010</page-range></nlm-citation>
</ref>
<ref id="B33">
<label>33</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Guger]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
<name>
<surname><![CDATA[Edlinger]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Harkam]]></surname>
<given-names><![CDATA[W.]]></given-names>
</name>
<name>
<surname><![CDATA[Niedermayer]]></surname>
<given-names><![CDATA[I.]]></given-names>
</name>
<name>
<surname><![CDATA[Pfurtscheller]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[How many people are able to operate an EEG-based brain-computer interface (BCI)?]]></article-title>
<source><![CDATA[Neural Systems and Rehabilitation Engineering, IEEE Transactions on]]></source>
<year>2003</year>
<volume>11</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>145-147</page-range></nlm-citation>
</ref>
<ref id="B34">
<label>34</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Allison]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
<name>
<surname><![CDATA[Luth]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
<name>
<surname><![CDATA[Valbuena]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[Teymourian]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Volosyak]]></surname>
<given-names><![CDATA[I.]]></given-names>
</name>
<name>
<surname><![CDATA[Graser]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[BCI Demographics: How many (and what kinds of) people can use an SSVEP BCI?]]></article-title>
<source><![CDATA[Neural Systems and Rehabilitation Engineering, IEEE Transactions on]]></source>
<year>2010</year>
<volume>18</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>107-116</page-range></nlm-citation>
</ref>
<ref id="B35">
<label>35</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Volosyak]]></surname>
<given-names><![CDATA[I.]]></given-names>
</name>
<name>
<surname><![CDATA[Valbuena]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[üth]]></surname>
<given-names><![CDATA[T. L]]></given-names>
</name>
<name>
<surname><![CDATA[Malechka]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
<name>
<surname><![CDATA[Gräser]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[BCI Demographics II: How many (and what kinds of) people can use an SSVEP BCI]]></article-title>
<source><![CDATA[IEEE Trans. Neural Syst. Rehabil. Eng]]></source>
<year>2011</year>
</nlm-citation>
</ref>
<ref id="B36">
<label>36</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Binder]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Frost]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Hammeke]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
<name>
<surname><![CDATA[Cox]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Rao]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[Prieto]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Human brain language areas identified by functional magnetic resonance imaging]]></article-title>
<source><![CDATA[The Journal of Neuroscience]]></source>
<year>1997</year>
<volume>17</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>353-362</page-range></nlm-citation>
</ref>
<ref id="B37">
<label>37</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hesslow]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Conscious thought as simulation of behaviour and perception]]></article-title>
<source><![CDATA[Trends in cognitive sciences]]></source>
<year>2002</year>
<volume>6</volume>
<numero>6</numero>
<issue>6</issue>
<page-range>242-247</page-range></nlm-citation>
</ref>
<ref id="B38">
<label>38</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hickok]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Poeppel]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The cortical organization of speech processing]]></article-title>
<source><![CDATA[Nature Reviews Neuroscience]]></source>
<year>2007</year>
<volume>8</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>393-402</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
