<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0188-9532</journal-id>
<journal-title><![CDATA[Revista mexicana de ingeniería biomédica]]></journal-title>
<abbrev-journal-title><![CDATA[Rev. mex. ing. bioméd]]></abbrev-journal-title>
<issn>0188-9532</issn>
<publisher>
<publisher-name><![CDATA[Sociedad Mexicana de Ingeniería Biomédica]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0188-95322012000100004</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Modelos asociativos para la predicción de la localización subcelular de proteínas]]></article-title>
<article-title xml:lang="en"><![CDATA[Associative models for the prediction of proteins subcellular localization]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Acevedo-Mosqueda]]></surname>
<given-names><![CDATA[ME]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Acevedo-Mosqueda]]></surname>
<given-names><![CDATA[MA]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Calderón-Sambarino]]></surname>
<given-names><![CDATA[MJ]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Instituto Politécnico Nacional Escuela Superior de Ingeniería Mecánica y Eléctrica ]]></institution>
<addr-line><![CDATA[México Distrito Federal]]></addr-line>
<country>México</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Instituto Politécnico Nacional Escuela Superior de Cómputo Departamento de Ingeniería en Sistemas Computacionales]]></institution>
<addr-line><![CDATA[México Distrito Federal]]></addr-line>
<country>México</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>00</month>
<year>2012</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>00</month>
<year>2012</year>
</pub-date>
<volume>33</volume>
<numero>1</numero>
<fpage>17</fpage>
<lpage>28</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_arttext&amp;pid=S0188-95322012000100004&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_abstract&amp;pid=S0188-95322012000100004&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_pdf&amp;pid=S0188-95322012000100004&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[La localización de las proteínas dentro de la célula es fundamental para el entendimiento de su función biológica. Las proteínas son transportadas a orgánulos y suborgánulos específicos antes de ser sintetizadas. Son parte de la actividad celular y su función es eficiente cuando se encuentran en el lugar correcto. Es por esto que la localización de genes (codificados como proteínas) dentro de la célula se vuelve una tarea importante. En este trabajo se presenta un método para realizar la localización automática de genes dentro de la célula, como caso particular, se aplicó a la base de datos GENES. La propuesta tiene un enfoque asociativo y se utiliza, en particular, el modelo de las multimemorias asociativas alfa-beta. La efectividad en la localización obtenida fue del 97.99%, lo cual significa que este método, de 748 genes, no fue capaz de localizar sólo 14 de ellos.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[Protein subcellular localization is fundamental for understanding its biological function. Proteins are transported to specified cellular elements before they are synthesized. They are part of cellular activity and their function is efficient when they are in the right place. Therefore, genes (codified as proteins) localization into the cell becomes a key task. In this work, a method to localize automatically proteins into the cell is presented; as a particular case, the method was applied to the dataset GENES. The proposal has an associative approach and the specific model of alpha-beta associative multi-memories is applied. The effectiveness of the model was of 97.99%, which means that from 748 genes, the method was not able to localize 14 genes.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Predicción]]></kwd>
<kwd lng="es"><![CDATA[localización subcelular]]></kwd>
<kwd lng="es"><![CDATA[modelos asociativos]]></kwd>
<kwd lng="es"><![CDATA[multimemorias alfa-beta.]]></kwd>
<kwd lng="en"><![CDATA[Prediction]]></kwd>
<kwd lng="en"><![CDATA[subcellular localization]]></kwd>
<kwd lng="en"><![CDATA[associative models]]></kwd>
<kwd lng="en"><![CDATA[alpha-beta multimemories]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[  	    <p align="left"><font face="verdana" size="4">Art&iacute;culo de investigaci&oacute;n original</font></p>  	    <p align="center"><font face="verdana" size="2">&nbsp;</font></p>  	     <p align="center"><font face="verdana" size="4"><b>Modelos asociativos para la    predicci&oacute;n de la localizaci&oacute;n subcelular de prote&iacute;nas<a href="#nota">*</a></b></font></p>     <p align="center">&nbsp;</p>     <p align="center"><b><font size="3" face="verdana">Associative models for the    prediction of proteins subcellular localization</font></b></p>     <p align="center"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="center"><font face="verdana" size="2"><b>Acevedo&#45;Mosqueda ME,* Acevedo&#45;Mosqueda MA,* Calder&oacute;n&#45;Sambarino MJ**</b></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	     <p align="justify"><font face="verdana" size="2">* <em>Escuela Superior de Ingenier&iacute;a    Mec&aacute;nica y El&eacute;ctrica del IPN, Ciudad de M&eacute;xico, M&eacute;xico.</em></font></p>  	     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">** <em>Departamento de Ingenier&iacute;a    en Sistemas Computacionales de la Escuela Superior de C&oacute;mputo del IPN,    Ciudad de M&eacute;xico, M&eacute;xico.</em></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	     <p align="justify"><font face="verdana" size="2"><b>Correspondencia:</b>    <br>   <i>Acevedo&#45;Mosqueda ME    <br>   Av. IPN s/n, Col. Lindavista 07738, Ciudad de M&eacute;xico,     <br>   M&eacute;xico,    ESIME Zacatenco, Edif. Z&#45;4, 3er Piso, Telecomunicaciones    <br>   Tel. 0155 57296000, Ext. 54757    <br> &#45;mail:</i> <a href="mailto:eacevedo@ipn.mx">eacevedo@ipn.mx</a></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2">Art&iacute;culo recibido: 18/octubre/2011    ]]></body>
<body><![CDATA[<br> 	Art&iacute;culo aceptado: 17/mayo/2012</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Resumen</b></font></p>      <p align="justify"><font face="verdana" size="2">La localizaci&oacute;n de las prote&iacute;nas dentro de la c&eacute;lula es fundamental para el entendimiento de su funci&oacute;n biol&oacute;gica. Las prote&iacute;nas son transportadas a org&aacute;nulos y suborg&aacute;nulos espec&iacute;ficos antes de ser sintetizadas. Son parte de la actividad celular y su funci&oacute;n es eficiente cuando se encuentran en el lugar correcto. Es por esto que la localizaci&oacute;n de genes (codificados como prote&iacute;nas) dentro de la c&eacute;lula se vuelve una tarea importante. En este trabajo se presenta un m&eacute;todo para realizar la localizaci&oacute;n autom&aacute;tica de genes dentro de la c&eacute;lula, como caso particular, se aplic&oacute; a la base de datos GENES. La propuesta tiene un enfoque asociativo y se utiliza, en particular, el modelo de las multimemorias asociativas alfa&#45;beta. La efectividad en la localizaci&oacute;n obtenida fue del 97.99%, lo cual significa que este m&eacute;todo, de 748 genes, no fue capaz de localizar s&oacute;lo 14 de ellos.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Palabras clave:</b> Predicci&oacute;n, localizaci&oacute;n subcelular, modelos asociativos, multimemorias alfa&#45;beta.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Abstract</b></font></p>      <p align="justify"><font face="verdana" size="2">Protein subcellular localization is fundamental for understanding its biological function. Proteins are transported to specified cellular elements before they are synthesized. They are part of cellular activity and their function is efficient when they are in the right place. Therefore, genes (codified as proteins) localization into the cell becomes a key task. In this work, a method to localize automatically proteins into the cell is presented; as a particular case, the method was applied to the dataset GENES. The proposal has an associative approach and the specific model of alpha&#45;beta associative multi&#45;memories is applied. The effectiveness of the model was of 97.99%, which means that from 748 genes, the method was not able to localize 14 genes.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Key words:</b> Prediction, subcellular localization, associative models, alpha&#45;beta multimemories.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>INTRODUCCI&Oacute;N</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Las prote&iacute;nas<sup>1</sup> son las mol&eacute;culas trabajadoras de una c&eacute;lula y llevan el programa de actividades, las cuales est&aacute;n codificadas por los genes. Dado que la estructura y funci&oacute;n de una c&eacute;lula est&aacute; determinada por las prote&iacute;nas que contiene, el control de la expresi&oacute;n gen&eacute;tica es un aspecto fundamental de la biolog&iacute;a molecular de la c&eacute;lula. Las prote&iacute;nas se pueden dividir en tres clases: globulares, fibrilares y de membrana. Comprender la funci&oacute;n de las c&eacute;lulas requiere no s&oacute;lo de la identificaci&oacute;n de las prote&iacute;nas expresadas en un tipo de c&eacute;lula dada, sino tambi&eacute;n de la caracterizaci&oacute;n de la localizaci&oacute;n de esas prote&iacute;nas dentro de la c&eacute;lula.</font></p>  	    <p align="justify"><font face="verdana" size="2">Durante el proceso de la activaci&oacute;n de la c&eacute;lula, las prote&iacute;nas se dirigir&aacute;n a los sitios subcelulares que les corresponden y jugar&aacute;n su rol biol&oacute;gico<sup>2</sup>. Debido a que la localizaci&oacute;n es vital para la funcionalidad de la c&eacute;lula, las localizaciones que puede ocupar la prote&iacute;na dentro de la c&eacute;lula conducen a diferentes efectos gen&eacute;ticos, tales como el c&aacute;ncer u otras enfermedades gen&eacute;ticas.</font></p>  	    <p align="justify"><font face="verdana" size="2">Uno de los grandes retos que enfrentan los bi&oacute;logos hoy en d&iacute;a es la clasificaci&oacute;n funcional y estructural de las prote&iacute;nas, as&iacute; como tambi&eacute;n su caracterizaci&oacute;n<sup>3</sup>. Por ejemplo, en los humanos, el n&uacute;mero de prote&iacute;nas de las cuales se desconoce su funci&oacute;n y su estructura es del 40% del total de prote&iacute;nas, como resultado de esto, desde hace dos d&eacute;cadas se ha realizado una investigaci&oacute;n muy extensa tratando de identificar las funciones y estructuras de las prote&iacute;nas.</font></p>  	    <p align="justify"><font face="verdana" size="2">Por otro lado, a partir del conocimiento de las secuencias completas de un n&uacute;mero de genomas<sup>4</sup>, el reto central de la bioinform&aacute;tica es la racionalizaci&oacute;n de toda la informaci&oacute;n obtenida de la secuencia, no s&oacute;lo para encontrar estrategias m&aacute;s adecuadas para el almacenamiento de toda esta informaci&oacute;n, sino para dise&ntilde;ar herramientas de an&aacute;lisis m&aacute;s incisivas.</font></p>  	    <p align="justify"><font face="verdana" size="2">La inteligencia artificial proporciona esas herramientas permitiendo que el an&aacute;lisis sea m&aacute;s eficiente y efectivo. Es m&aacute;s eficiente en cuanto a que las decisiones respecto al an&aacute;lisis son m&aacute;s r&aacute;pidas; y es m&aacute;s efectivo porque los resultados, la mayor&iacute;a de las ocasiones, son m&aacute;s acertados que los resultados proporcionados por los expertos.</font></p>  	    <p align="justify"><font face="verdana" size="2">Un &aacute;rea de la inteligencia artificial son los sistemas expertos. Los recientes trabajos que se enfocan en la soluci&oacute;n de problemas han dado como resultado el entender que la clave para obtener una soluci&oacute;n es el conocimiento de un dominio en espec&iacute;fico<sup>5</sup>. Por ejemplo, un doctor es efectivo diagnosticando enfermedades no porque tenga habilidades innatas para resolver problemas, sino porque tiene un vasto conocimiento del &aacute;rea. De manera similar, un ge&oacute;logo es efectivo descubriendo dep&oacute;sitos minerales porque es capaz de aplicar un gran conjunto de conocimientos emp&iacute;ricos y te&oacute;ricos acerca del &aacute;rea espec&iacute;fica de la geolog&iacute;a a la que se dedica. El conocimiento de un experto es la combinaci&oacute;n de un entendimiento te&oacute;rico de un problema en espec&iacute;fico y la colecci&oacute;n de reglas heur&iacute;sticas para la soluci&oacute;n de problemas que se obtienen mediante la experiencia. Por lo tanto, un sistema experto es construido con el conocimiento de un humano experto y codific&aacute;ndolo de forma que una computadora sea capaz de aplicarlo a problemas similares.</font></p>  	    <p align="justify"><font face="verdana" size="2">Una manera en que el experto humano elabora su diagn&oacute;stico es reconociendo las caracter&iacute;sticas principales de una enfermedad. Por ejemplo, el experto puede reconocer un tipo de arritmia con s&oacute;lo visualizar un electrocardiograma (ECG), observando la amplitud o el ancho del complejo QRS. Un ortopedista puede detectar una fractura a partir de una radiograf&iacute;a porque sabe de antemano c&oacute;mo luce la radiograf&iacute;a de una persona sana y c&oacute;mo se ve una radiograf&iacute;a de un hueso fracturado. Esto es, el experto asocia las caracter&iacute;sticas que describen una anomal&iacute;a con el diagn&oacute;stico de fractura y, de la misma manera, asocia las caracter&iacute;sticas presentadas por una radiograf&iacute;a de un hueso sano con el diagn&oacute;stico de una normal.</font></p>  	    <p align="justify"><font face="verdana" size="2">Este comportamiento de asociaci&oacute;n natural que presentamos los seres humanos es simulado mediante una memoria asociativa. Por tanto, es posible que una memoria asociativa se utilice para tomar decisiones igual que hace un experto humano y comportase como un sistema experto.</font></p>  	    <p align="justify"><font face="verdana" size="2">El objetivo de este trabajo es utilizar un modelo asociativo que se comporte como un sistema experto decidiendo el lugar en donde se localizan las prote&iacute;nas dependiendo de sus caracter&iacute;sticas.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Este trabajo est&aacute; organizado de la siguiente manera: primero se describir&aacute; el problema planteado, a continuaci&oacute;n se presentar&aacute; la teor&iacute;a de los modelos asociativos alfa&#45;beta que es el fundamento de las multimemorias alfa&#45;beta, posteriormente se describe la base de datos utilizada y los experimentos realizados junto con los resultados obtenidos. Finalmente, se presenta la secci&oacute;n de Discusi&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>DESCRIPCI&Oacute;N DEL PROBLEMA</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Debido a que la localizaci&oacute;n subcelular juega un papel importante en la funci&oacute;n de la prote&iacute;na, se vuelve esencial tener disponibles sistemas que puedan predecir la localizaci&oacute;n a partir de la secuencia para la completa caracterizaci&oacute;n de la expresi&oacute;n de las prote&iacute;nas.</font></p>  	    <p align="justify"><font face="verdana" size="2">Se han utilizado algoritmos para la predicci&oacute;n subcelular<sup>6,7</sup> de animales, plantas, hongos, de la bacteria Gram negativa<sup>8&#45;11</sup> y bacteria Gram positiva; estas predicciones se han hecho en forma separada o en conjunto<sup>12,13</sup>. Tambi&eacute;n se ha hecho la predicci&oacute;n de prote&iacute;nas procariotas y eucariotas<sup>14</sup>.</font></p>  	    <p align="justify"><font face="verdana" size="2">Hiyashi <i>et al.</i> utilizaron la base de datos GENES disponible en la p&aacute;gina de KDD 2001<sup>15</sup>, para realizar la tarea de localizaci&oacute;n de las prote&iacute;nas. En ese trabajo se utiliz&oacute; la t&eacute;cnica de los vecinos m&aacute;s cercanos <i>(Nearest Neighbor)</i> y obtuvieron una efectividad en la clasificaci&oacute;n de 72.5%.</font></p>  	    <p align="justify"><font face="verdana" size="2">En este trabajo, se utiliz&oacute; la misma base de datos para la tarea de localizaci&oacute;n. Se propone el uso de modelos asociativos alfa&#45;beta. Esta propuesta se hace con base en la aplicaci&oacute;n y en los resultados obtenidos por las diferentes memorias asociativas alfa&#45;beta. Una de ellas es la memoria asociativa bidireccional alfa&#45;beta<sup>16</sup> que se ha aplicado como traductor ingl&eacute;s/espa&ntilde;ol&#45;espa&ntilde;ol/ingl&eacute;s y en el reconocimiento de huellas digitales<sup>17</sup>, tambi&eacute;n se ha utilizado como clasificador de recurrencia de c&aacute;ncer<sup>18</sup> y para el almacenamiento de lattices de conceptos<sup>19</sup>. Algunas otras modificaciones al modelo original de la memoria asociativa alfa-beta son: redes neuronales alfa&#45;beta<sup>20</sup>, memorias asociativas con soporte vectorial<sup>21</sup> y difusas<sup>22</sup>, clasificador Gamma de alto desempe&ntilde;o<sup>23</sup> y memoria asociativa para la selecci&oacute;n de rasgos<sup>24</sup>.</font></p>  	    <p align="justify"><font face="verdana" size="2">En este caso, se aplicar&aacute; el modelo de las multimemorias alfa&#45;beta<sup>25</sup> que ha demostrado ser una herramienta adecuada para la bioinform&aacute;tica<sup>26</sup>, ya que se ha aplicado en la clasificaci&oacute;n de promotores de secuencias de ADN. El algoritmo se aplic&oacute; a dos bases est&aacute;ndar: <i>E. coli</i> y <i>Primate splice&#45;junction,</i> los resultados de efectividad fueron del 98% y del 96.4%, en ambos casos este algoritmo arroj&oacute; los mejores resultados. La efectividad se compar&oacute; con m&eacute;todos como la t&eacute;cnica de extracci&oacute;n <i>M&#45;of&#45;N</i> rules, Nearest&#45;Neighbor, C4.5, Bayes y varios algoritmos basados en el perceptr&oacute;n multicapa.</font></p>  	    <p align="justify"><font face="verdana" size="2">A continuaci&oacute;n se describe el enfoque utilizado en este trabajo, desde los conceptos b&aacute;sicos hasta el modelo principal como lo son las multimemorias alfa&#45;beta.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>MODELOS ASOCIATIVOS</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Una memoria asociativa (MA) es un sistema que relaciona patrones de entrada con patrones de salida. El objetivo de una memoria asociativa es recuperar el patr&oacute;n de salida cuando se le presenta su patr&oacute;n de entrada correspondiente.</font></p>  	    <p align="justify"><font face="verdana" size="2">El dise&ntilde;o de una MA necesita de dos fases: una de aprendizaje y una de recuperaci&oacute;n. En la primera fase, la memoria debe ser capaz de asociar los patrones de entrada con los patrones de salida. En la fase de recuperaci&oacute;n, la memoria asociativa recupera un patr&oacute;n de salida correspondiente al patr&oacute;n de entrada que recibe como informaci&oacute;n.</font></p>  	    <p align="justify"><font face="verdana" size="2">Si los patrones de entrada son diferentes a los patrones de salida, entonces la memoria asociativa es heteroasociativa. Por otro lado, si los patrones de entrada y salida son iguales, estamos hablando de una memoria autoasociativa.</font></p>  	    <p align="justify"><font face="verdana" size="2">Los patrones de entrada y salida pueden representar cualquier asociaci&oacute;n, por ejemplo, huellas digitales asociadas a rostros, nombres con n&uacute;meros telef&oacute;nicos, secuencias de ADN con nombres, etc&eacute;tera, esto se ilustra en la <a href="#f1">figura 1</a>.</font></p>  	    <p align="center"><font face="verdana" size="2"><a name="f1"></a></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4f1.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>MEMORIAS ASOCIATIVAS ALFA&#45;BETA</b></font></p>  	     <p align="justify"><font face="verdana" size="2">Las memorias asociativas alfa&#45;beta<sup>27</sup>    utilizan el operador <i>&#945;</i> en la fase de aprendizaje, y el operador    <i>&#946;</i> es usado en la fase de recuperaci&oacute;n de patrones. Los conjuntos    <i>A</i> y <i>B,</i> los cuales son: <i>A</i> = {0, 1} y <i>B</i> = {0, 1, 2}    definen las operaciones binarias <i>&#945;</i> y <i>&#946;</i> mostradas en    los cuadros <a href="#c1">1</a> y <a href="#c2">2</a>, respectivamente.</font></p>  	    ]]></body>
<body><![CDATA[<p align="center"><font face="verdana" size="2"><a name="c1"></a></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4c1.jpg"></font></p>  	    <p align="center"><font face="verdana" size="2"><a name="c2"></a></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4c2.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Los conjuntos A y B, las operaciones binarias &#945; y &#946; junto con los operadores &#923; (m&iacute;nimo) y &#957; (m&aacute;ximo) usuales, conforman el sistema algebraico (A, B, &#945;, &#946;, &#916;, V) en el que est&aacute;n inmersas las memorias asociativas alfa&#45;beta. Dependiendo del operador utilizado en la fase de aprendizaje, m&iacute;nimo o m&aacute;ximo, las MA alfa&#45;beta pueden ser del tipo m&aacute;x o m&iacute;n, respectivamente.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>MEMORIAS HETEROASOCIATIVAS ALFA&#45;BETA</b></font></p>  	     <p align="justify"><font face="verdana" size="2">Una memoria es heteroasociativa    si: y<sup>&#956;</sup> &ne; x<sup>&#956;</sup> &#8704; &#956; &#8712; {1, 2,...,    p), donde &#956; es el &iacute;ndice que identifica a un n&uacute;mero espec&iacute;fico    de patr&oacute;n y <i>p</i> es el n&uacute;mero de patrones asociados.</font></p>  	    <p align="justify"><font face="verdana" size="2">A continuaci&oacute;n se definen las fases de aprendizaje y recuperaci&oacute;n de una memoria heteroasociativa <i>&#945;&#45;&#946;</i>.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Fase de aprendizaje</b></font></p>  	     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><i>Paso 1.</i> Para cada <i>&#956;</i>    = 1, 2,..., p, a partir de la pareja (<b>x</b><sup>&#956;</sup><b>,y</b><sup>&#956;</sup>)    se construye la matriz: &#91;x<sup>&#956;</sup> &#8855;(y<sup>&#956</sup>)<sup>t</sup>&#93;<i><sub>mxn</sub>,</i>    donde <i>m</i> y <i>n</i> son la dimensi&oacute;n de los vectores <b><i>x</i></b>    y <b><i>y,</i></b> respectivamente.</font></p>  	    <p align="justify"><font face="verdana" size="2">Paso 2. Se aplica el operador binario m&aacute;ximo v a las matrices obtenidas en el paso 1, si la memoria es de tipo m&aacute;x, y si es de tipo m&iacute;n entonces se aplica el operador binario m&iacute;nimo A , como se muestra en las ecuaciones (1) y (2):</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4e1.jpg"></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4e2.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Fase de recuperaci&oacute;n</b></font></p>  	     <p align="justify"><font face="verdana" size="2">El objetivo de esta fase es recuperar    un patr&oacute;n <b>y</b><sup>&#969;</sup> a partir de un patr&oacute;n <b>x</b><sup>&#969;</sup>,    cuando este &uacute;ltimo se le presenta a la memoria asociativa. El operador    a utilizar en esta fase es &#946;. Si en la fase de aprendizaje se cre&oacute;    una memoria de tipo m&aacute;x, entonces el patr&oacute;n <b>x</b><sup>&#969;</sup>    operar&aacute; con la matriz <b>V</b> junto con el operador <i>m&iacute;n</i>    &#8743;, por otro lado, si se aprendi&oacute; con una memoria <i>m&iacute;n,</i> entonces    en la recuperaci&oacute;n se operar&aacute; el patr&oacute;n <b>x</b><sup>&#969;</sup>    con la memoria &#923; utilizando el operador m&aacute;x v , como se indica en    la ecuaciones (3) y (4):</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4e3.jpg"></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4e4.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>TIPOS DE RUIDO</b></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Existen tres tipos de ruido a los que se enfrenta cualquier memoria asociativa que trabaja con valores binarios, los cuales son: aditivo, sustractivo y mezclado. Las memorias asociativas &#945;&#45;&#946; m&aacute;x y m&iacute;n son capaces de manejar de manera adecuada el ruido aditivo y el ruido sustractivo, respectivamente. Sin embargo, ninguno de los dos tipos de memoria es adecuado para manejar el ruido mezclado (<a href="/img/revistas/rmib/v33n1/a4c3.jpg" target="_blank">Cuadro 3</a>).</font></p>  	    <p align="justify"><font face="verdana" size="2">Para tratar de evitar el ruido mezclado, el cual no puede ser manejado por ninguna de los dos tipos de memorias asociativas alfa&#45;beta, se deben codificar los patrones a entrenar mediante el c&oacute;digo Johnson&#45;M&ouml;bius modificado.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>C&Oacute;DIGO JOHNSON&#45;M&Ouml;BIUS MODIFICADO</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Las MA <i>&#945;&#45;&#946; m&aacute;x</i> son inmunes al ruido aditivo y las memorias <i>m&iacute;n</i> al ruido sustractivo pero ninguna es capaz de manejar el ruido mezclado, es por eso que es necesario codificar los patrones antes de realizar la asociaci&oacute;n. El c&oacute;digo Johnson&#45;M&ouml;bius modificado ha mostrado ser una buena opci&oacute;n para esto.</font></p>  	    <p align="justify"><font face="verdana" size="2">El c&oacute;digo Johnson&#45;M&ouml;bius es un c&oacute;digo binario en el que s&oacute;lo se permite el cambio de un bit al pasar de un n&uacute;mero al siguiente<sup>28</sup>, y los bits cambiados permanecen hasta completar el ciclo y el cambio se inicia en el mismo extremo de cada sitio. Para representar un n&uacute;mero decimal <i>n</i> en el c&oacute;digo Johnson&#45;M&ouml;bius, son necesarios n/2 bits si <i>n</i> es par, y (n + 1)/2 si <i>n</i> es impar.</font></p>  	    <p align="justify"><font face="verdana" size="2">A continuaci&oacute;n se muestra un ejemplo utilizando el c&oacute;digo original y el modificado.</font></p>  	     <p align="justify"><font face="verdana" size="2">Ejemplo de codificaci&oacute;n    Johnson&#45;M&ouml;bius</font></p>  	     <p align="justify"><font face="verdana" size="2">Sea el conjunto r = {26, 2, 0,    5, 15} &#8834; R:</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Paso 1. Como 26 es n&uacute;mero par, entonces no es necesario sumarle 1.    <br>   Paso 2. Se divide <i>r<sub>m&aacute;x</sub></i>/2= 13.    <br>   Paso 3. Si r<sub>i</sub> &lt; <i>r<sub>m&aacute;x</sub></i>/2<i>,</i> entonces    se generan <i>r<sub>m&aacute;x</sub></i><sub></sub>/2<i>&#45;</i> <i>r<sub>i</sub></i>    ceros y se agregan <i>r<sub>i</sub></i> unos. De lo contario, se generan <i>r<sub>m&aacute;x</sub>&#45;r<sub>i</sub></i>    unos y se agregan <i>r<sub>i</sub> &#45; r<sub>max</sub></i>/2 ceros.    <br>   El resultado se muestra en el <a href="#c4">cuadro IV</a>.</font></p>  	    <p align="left"><font face="verdana" size="2">Ejemplo de codificaci&oacute;n Johnson&#45;M&ouml;bius modificado<sup>29</sup></font></p>  	    <p align="justify"><font face="verdana" size="2">Para el mismo conjunto de n&uacute;meros anterior:</font></p>  	    <p align="justify"><font face="verdana" size="2">Para cada n&uacute;mero <i>r<sub>i</sub></i> del conjunto <i>r,</i> se generan <i>r<sub>m&aacute;x</sub>&#45;r<sub>i</sub></i> ceros concatenados con <i>r<sub>i</sub></i> unos. El resultado se muestra en el <a href="#c4">cuadro 4</a>.</font></p>  	    <p align="center"><font face="verdana" size="2"><a name="c4"></a></font></p>  	     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4c4.jpg"></font></p>  	     <p align="justify"><font face="verdana" size="2">Del <a href="#c4">cuadro 4</a>    puede observarse que entre los patrones decimales 5 y 15 representados con el    J&#45;M modificado existe ruido aditivo si tomamos en cuenta como referencia    el 5 ya que estar&iacute;amos cambiando ceros por unos para la representaci&oacute;n    del 15, o ser&iacute;a ruido sustractivo si ahora la referencia fuera el 15,    ya que para la representaci&oacute;n del 5 se estar&iacute;an cambiando unos    por ceros. Por otro lado, si la codificaci&oacute;n utilizada fuera el J&#45;M    y tomando los mismo ejemplos anteriores, puede observarse que la representaci&oacute;n    del 15 decimal ser&iacute;a un patr&oacute;n con ruido mezclado con respecto    al patr&oacute;n del 5 decimal.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">De hecho, puede verse que cualquier patr&oacute;n codificado con el J&#45;M modificado, dentro del rango del 0 al 26 decimal, ser&iacute;a una versi&oacute;n con ruido aditivo o sustractivo de otro patr&oacute;n que se encuentre dentro de ese mismo rango, ning&uacute;n n&uacute;mero en el rango establecido representar&aacute; patrones con ruido mezclado. Por eso es necesario a la hora de codificar con el algoritmo J&#45;M modificado, obtener los valores m&iacute;nimos y m&aacute;ximos, de manera que cualquier n&uacute;mero codificado sea un patr&oacute;n con ruido aditivo o sustractivo y, por tanto, alguna de las dos memorias, <i>m&aacute;x</i> o <i>m&iacute;n</i> ser&aacute;n capaces de recuperarlos.</font></p>  	    <p align="justify"><font face="verdana" size="2">En el dise&ntilde;o de una MA, se crea una memoria por cada conjunto de patrones asociados. En el caso de una multimemoria, el conjunto de patrones asociados es dividido para crear varias memorias que finalmente operaran como una sola memoria. Antes de describir el dise&ntilde;o de la memoria se debe definir lo siguiente: Sean A = {0,1}, n, p Z<sup>+</sup>, &#956; {1, 2,... p}, i {1, 2,..., p} y j {1, 2,... n}, y sean <b>x <i>A</i></b><i><sup>n</sup></i> y <b>y <i>A</i></b><i><sup>p</sup></i> vectores de entrada y salida, respectivamente. A partir de estos vectores es posible construir el conjunto fundamental expresado por {(x<sup>&#956;</sup>, y<sup>&#956;</sup>)|&#956; = 1, 2,..., p} de acuerdo con el algoritmo de memoria heteroasociativa alfa&#45;beta tipo <i>m&iacute;n.</i></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>MULTIMEMORIAS ALFA&#45;BETA</b></font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Fase de aprendizaje</b></font></p>  	     <p align="justify"><font face="verdana" size="2">Para construir a partir de un    solo conjunto fundamental varias matrices de aprendizaje, en lugar de s&oacute;lo    una, es necesario dividir cada patr&oacute;n de entrada <i>x<sup>&#956;</sup></i>    en <i>q</i> particiones, generando as&iacute; <i>q</i> vectores de entrada n/q&#45;dimensionales    y por lo tanto <i>q</i> memorias asociativas. Para cada &#956; {1, 2,..., p}    a partir de la pareja ordenada (x<sup>&#956;</sup>, y<sup>&#956;</sup>) se aplica    la <i>operaci&oacute;n de particionamiento vectorial</i> a cada uno de los vectores    x<sup>&#956;</sup> de las <i>p</i> parejas ordenadas.</font></p>  	    <p align="justify"><font face="verdana" size="2">Por lo que el nuevo conjunto fundamental es:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo1.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Aplicando el operador de particionamiento el conjunto fundamental queda como sigue:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo2.jpg"></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">y por distributividad:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo3.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Ahora, a partir de las parejas <i>(X<sup>&#956;1</sup>,</i> y<sup>&#956;</sup>) se construyen las <i>q</i> matrices:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo4.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Se aplica el operador binario m&aacute;ximo a las matrices obtenidas si lo que se desea es construir una memoria m&aacute;x, y se aplica el operador m&iacute;nimo A si se va a construir una memoria m&iacute;n, como se muestra en las ecuaciones (5) y (6), respectivamente:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4e5.jpg"></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4e6.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">donde V <sup>l</sup> y &#923;<sup>l</sup> representan la l&#45;&eacute;sima memoria m&aacute;x y m&iacute;n, respectivamente.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Fase de recuperaci&oacute;n</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Al igual que en la construcci&oacute;n de las matrices de aprendizaje, para la fase de recuperaci&oacute;n es necesario dividir en <i>q</i> particiones el patr&oacute;n que se presentar&aacute; a las <i>q</i> memorias.</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><i>Paso 1.</i> Al presentarse un patr&oacute;n <i>x<sup>&#969;</sup>,</i> con &#969 {1, 2,...<i>p}</i> a la multimemoria heteroasociativa alfa-beta, lo primero es aplicar el operador de particionamiento al vector <i>x<sup>&#969;</sup></i> De esta forma el vector quedar&aacute; dividido en <i>q</i> nuevos vectores:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo5.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Ahora, para cada una de las q matrices y particiones del vector, se realiza la fase de recuperaci&oacute;n del algoritmo de las memorias heteroasociativas alfa&#45;beta tipo <i>m&aacute;x</i> con la operaci&oacute;n &#916;<sub>&#946;</sub> (ecuaci&oacute;n (7)) y si la memoria es tipo <i>m&iacute;n</i> se realiza con la operaci&oacute;n &#8711;<sub>&#946;</sub> como lo muestra la ecuaci&oacute;n (8). Cualquiera de los dos resultados se asigna al vector <i>z<sup>&#969;l</sup>.</i></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4e7.jpg"></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4e8.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Una vez que se lleve a cabo este procedimiento se obtendr&aacute;n <i>q</i> vectores resultantes, uno por cada una de las matrices de aprendizaje.</font></p>  	    <p align="justify"><font face="verdana" size="2"><i>Paso 2.</i> Se crea un vector intermedio el cual contendr&aacute; la suma de las <i>i</i>&#45;&eacute;simas componentes de los vectores <i>z<sup>&#969;l</sup>.</i></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4e9.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Una vez que se obtiene el vector el vector <i>I<sup>&#969;</sup></i>, se obtendr&aacute; mediante la siguiente expresi&oacute;n:</font></p>  	    <p align="justify"><font face="verdana" size="2"><i>Para la multimemoria</i> m&aacute;x:</font></p>  	    ]]></body>
<body><![CDATA[<p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4e10.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2"><i>Para la multimemoria</i> m&iacute;n:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4e11.jpg"></font></p>  	    <p align="left"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="left"><font face="verdana" size="2"><b>Multimemoria asociativa alfa&#45;beta <i>m&aacute;x.</i> Ejemplo.</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Sean los 4 patrones de entrada, <i>p</i> = 4:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo6.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">y sus correspondientes clases:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo7.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Fase de aprendizaje</b></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Ahora se dividen los patrones de entrada en 3 particiones (q = 3) resultando 3 subvectores de dimensi&oacute;n 2, cada uno. Se aplica el operador de particionamiento vectorial <i>p:</i></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo8.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">que tambi&eacute;n se puede expresar:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo9.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">de manera particular cada partici&oacute;n queda como sigue:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo10.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">por lo que el conjunto fundamental es el siguiente:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo11.jpg"></font></p>  	     <p align="justify"><font face="verdana" size="2">A partir de las parejas <i>(X<sup>&#956;l</sup>,</i>    y<sup>&#956;</sup>), con &#956; = 1, ..., <i>p</i> y <i>l</i> = 1,..., <i>q</i>,    se construyen las <i>q</i> matrices seg&uacute;n la fase de aprendizaje. Por    conveniencia, se construir&aacute; memoria asociativa <i>m&aacute;x,</i> para    el primer subconjunto de aprendizaje, {(<i>x<sup>11</sup>, y<sup>1</sup></i>),    (<i>x<sup>21</sup>, y<sup>2</sup></i><sup></sup>), (<i>x<sup>31</sup>, y<sup>3</sup></i>),    (<i>x<sup>41</sup>, y<sup>4</sup></i><sup></sup>)}:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo12.jpg"></font></p>  	    ]]></body>
<body><![CDATA[<p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo13.jpg"></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo14.jpg"></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo15.jpg"></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo16.jpg"></font></p>  	    <p align="left"><font face="verdana" size="2">Se realiza el mismo procedimiento para obtener las otras dos matrices correspondientes a las memorias <i>M&aacute;x,</i> dando como resultado:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo17.jpg"></font></p>  	     <p align="justify"><font face="verdana" size="2"><b>Fase de</b> <b>recuperaci&oacute;n</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Se le presenta el patr&oacute;n <i>x<sup>4</sup></i> a las tres memorias asociativas <i>m&aacute;x</i> construidas en la fase de aprendizaje.</font></p>  	    <p align="justify"><font face="verdana" size="2">En primer lugar, se le aplica el operador de particionamiento vectorial al patr&oacute;n <i>x<sup>4</sup>:</i></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo18.jpg"></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Ahora, cada uno de los subvectores es presentado a cada una de las tres memorias, como sigue:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo19.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Aplicando los mismos pasos, se obtienen los tres vectores <b>z:</b></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo20.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Se crea el vector intermedio utilizando la ecuaci&oacute;n (9):</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo21.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Debido a que se est&aacute; trabajando con una memoria <i>m&aacute;x,</i> se aplica la ecuaci&oacute;n (10) para encontrar el patr&oacute;n recuperado, tomando en cuenta que el valor m&aacute;ximo dentro del vector intermedio se encuentra en la cuarta componente:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo22.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Por tanto:</font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4fo23.jpg"></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Se observa que se recupera el vector <i>y<sup>4</sup></i> que corresponde precisamente al vector asociado <i>x<sup>4</sup>.</i></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>EXPERIMENTOS Y RESULTADOS</b></font></p>  	    <p align="justify"><font face="verdana" size="2">En esta secci&oacute;n se describir&aacute; la base de datos utilizada en este trabajo. Posteriormente, se describir&aacute;n los experimentos realizados y, finalmente, se presentar&aacute;n los resultados.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Base de datos GENES</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Esta base de datos se encuentra disponible en la p&aacute;gina de KDD 2001<sup>15</sup>. El objetivo de este trabajo es la localizaci&oacute;n en la c&eacute;lula de un gen activo. Son 15 los lugares en donde se puede encontrar este gen y &eacute;stos son: pared celular, citoplasma, citoesqueleto, endosoma, ER, ambiente extracelular, Golgi, membrana integral, part&iacute;cula grasa, mitocondria, n&uacute;cleo, peroxisoma, membrana plasm&aacute;tica, ves&iacute;cula de transporte y vacuola. En la <a href="/img/revistas/rmib/v33n1/a4f2.jpg" target="_blank">figura 2</a> se muestra la posible localizaci&oacute;n de las prote&iacute;nas (genes).</font></p>  	    <p align="justify"><font face="verdana" size="2">La base de datos contiene 862 registros para entrenamiento y 381 para prueba. Cada registro o gen tiene seis atributos: Essential, Class, Complex, Phenotype, Motif y Chromosome. Los valores que puede tomar Chromosome van de 1 a 16. Los otros cinco atributos est&aacute;n compuestos de diversos conjuntos. Por ejemplo, Class es un subconjunto de 24 categor&iacute;as de prote&iacute;nas, el atributo Complex indica los miembros de las 56 prote&iacute;nas complejas codificadas por genes individuales. Phenotype y Motif asignan un gen a uno de los 11 fenotipos o 351 tipos, respectivamente.</font></p>  	    <p align="justify"><font face="verdana" size="2">La base de datos fue depurada debido a que algunos registros no ten&iacute;an la informaci&oacute;n completa de los atributos, o los registros estaban repetidos o asignados a una misma clase (localizaci&oacute;n). El n&uacute;mero de datos en el conjunto de entrenamiento fue de 784, mientras que el conjunto de prueba permaneci&oacute; igual.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Experimentos</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Cada uno de los seis atributos es codificado, por separado, mediante el c&oacute;digo Johnson&#45;M&ouml;bius. Despu&eacute;s, se concatenan las codificaciones individuales para formar un solo vector que representar&aacute; a cada registro. Esto se ilustra en la <a href="#f3">figura 3</a>.</font></p>  	    ]]></body>
<body><![CDATA[<p align="center"><font face="verdana" size="2"><a name="f3"></a>    <br> 	<img src="/img/revistas/rmib/v33n1/a4f3.jpg"></font></p>  	    <p align="justify"><font face="verdana" size="2">Una vez codificados todos los patrones de entrada, se eligen varios conjuntos de aprendizaje aleatoriamente. Del conjunto total de entrenamiento se tom&oacute; desde el 10% hasta el 100%, del conjunto de pruebas se tomaron todos los registros. Los diversos conjuntos de aprendizaje se muestran en el <a href="/img/revistas/rmib/v33n1/a4c5.jpg" target="_blank">cuadro 5</a>.</font></p>  	    <p align="justify"><font face="verdana" size="2">Con los diferentes conjuntos de aprendizaje se entrenan las multimemorias siguiendo el algoritmo de la fase de aprendizaje. Cada una de las memorias entrenada con cada conjunto de aprendizaje es probada con todos los registros del conjunto de prueba.</font></p>  	    <p align="justify"><font face="verdana" size="2">Para cada porcentaje se generaron, aleatoriamente, 100 conjuntos de aprendizaje y se prob&oacute; con los 381 registros de prueba. Por cada una de las 100 pruebas se tomaron los 10 mejores resultados, los cuales se muestran en el <a href="/img/revistas/rmib/v33n1/a4c6.jpg" target="_blank">cuadro 6</a>.</font></p>  	    <p align="justify"><font face="verdana" size="2">Cuando se toma el 100% del conjunto de aprendizaje, el error que se obtiene es de 2.01, lo cual nos dice que la efectividad del modelo utilizado en este trabajo es de 97.99%. Esta efectividad nos indica que de 748 instancias, las multimemorias alfa&#45;beta fallaron en reconocer s&oacute;lo 14.</font></p>  	     <p align="justify"><font face="verdana" size="2">Hayashi <i>et al.,</i> quienes    utilizan la base de datos GENES, obtuvieron una efectividad del 72.5%. Nuestro    modelo sobrepas&oacute; este resultado con un 25.49%. Del <a href="/img/revistas/rmib/v33n1/a4c6.jpg" target="_blank">cuadro    6</a> podemos observar que un resultado similar es obtenido por las multimemorias    alfa&#45;beta cuando se utiliza el 30% del total de los registros de entrenamiento.</font></p>  	    <p align="justify"><font face="verdana" size="2">El <a href="#c7">cuadro 7</a> muestra los resultados obtenidos por algunos algoritmos de clasificaci&oacute;n que se aplicaron a la base de datos GENES mediante la herramienta llamada WEKA<sup>30</sup> versi&oacute;n 3.7.5. Este sistema contiene la implementaci&oacute;n de varios clasificadores con distintos enfoques, por ejemplo: Bayes, regresi&oacute;n lineal, redes neuronales, basados en reglas, machine learning, entre otros. El formato original de la base de datos tuvo que ser modificado y convertido a mano al formato ARFF que maneja el software WEKA.</font></p>  	    <p align="center"><font face="verdana" size="2"><a name="c7"></a></font></p>  	    <p align="center"><font face="verdana" size="2"><img src="/img/revistas/rmib/v33n1/a4c7.jpg"></font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">El <a href="#c7">cuadro 7</a> se puede verificar que el mejor resultado de efectividad, sin incluir nuestra propuesta, lo presenta el algoritmo que utiliza m&aacute;quinas de soporte vectorial con el 90.34%. Una de las razones por las que estos enfoques tienen una baja efectividad puede deberse a la gran cantidad de rasgos que presenta cada registro en la base de datos. Por otra parte, la raz&oacute;n por la que nuestra propuesta presenta la mejor efectividad (97.99%) tiene su origen en la conjunci&oacute;n de dos sucesos: la codificaci&oacute;n de los patrones mediante el c&oacute;digo J&#45;M modificado y el algoritmo de las multimemorias alfa&#45;beta que han demostrado ser herramientas adecuadas para la clasificaci&oacute;n de datos bioinform&aacute;ticos.</font></p>  	    <p align="justify"><font face="verdana" size="2">En el <a href="/img/revistas/rmib/v33n1/a4c8.jpg" target="_blank">cuadro</a> <a href="/img/revistas/rmib/v33n1/a4c8.jpg" target="_blank">8</a> se pueden observar otros algoritmos de clasificaci&oacute;n utilizados en la predicci&oacute;n de la localizaci&oacute;n de prote&iacute;nas utilizando diferentes bases de datos.</font></p>  	    <p align="justify"><font face="verdana" size="2">La efectividad de estos enfoques va desde el 81% hasta el 97%. El enfoque propuesto en este trabajo, los modelos asociativos alfa&#45;beta, presentan un 97.99% de efectividad superando en casi el 1% al algoritmo que presenta el mejor resultado.</font></p>  	    <p align="justify"><font face="verdana" size="2">La baja efectividad presentada por algunos de los algoritmos, de nuevo, es razonable debido a que las bases de datos utilizadas manejan grandes cantidades de informaci&oacute;n y el n&uacute;mero de atributos es muy extenso lo que hace que la tarea de clasificaci&oacute;n se vuelva compleja.</font></p>  	    <p align="justify"><font face="verdana" size="2">Cabe resaltar que, para este caso, no puede hacerse una comparaci&oacute;n directa de los resultados presentados en este trabajo con los resultados mostrados en el <a href="#c7">cuadro 7</a>, debido a que las bases de datos son diferentes y los algoritmos para la prueba de efectividad tampoco son los mismos.</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>Discusi&oacute;n</b></font></p>  	    <p align="justify"><font face="verdana" size="2">En general, los modelos asociativos representan una opci&oacute;n en al &aacute;rea de la inteligencia artificial, para las tareas de reconocimiento de patrones y clasificaci&oacute;n. Los resultados obtenidos son comparables con algoritmos cl&aacute;sicos como las redes neuronales, y muchas veces son mejores. Sin embargo, los modelos asociativos alfa&#45;beta presentan una &laquo;aparente&raquo; desventaja a la hora de su implementaci&oacute;n. A continuaci&oacute;n se explica la raz&oacute;n.</font></p>  	     <p align="justify"><font face="verdana" size="2">Las memorias alfa&#45;beta tienen    la capacidad de manejar grandes cantidades de ruido aditivo o&nbsp;sustractivo;    esta tarea la realizan las memorias asociativas tipo <i>m&aacute;x</i> y <i>m&iacute;n,</i>    respectivamente. Desafortunadamente, ninguno de los dos tipos de memoria puede    manejar el ruido mezclado, sin importar si s&oacute;lo se presenta un cambio    de un 1&nbsp;por un 0 y viceversa. Para tratar de disminuir la aparici&oacute;n    de ruido mezclado en los patrones a reconocer o clasificar, utilizamos la codificaci&oacute;n    Johnson&#45;M&ouml;bius modificada, la cual ha demostrado elevar la eficiencia    de los modelos asociativos alfa&#45;beta. En el <a href="#c2">cuadro 2</a> podemos    apreciar que un patr&oacute;n con un valor de 26 se representa con 26 bits.    Ahora pensemos en un valor real de 9.234, por ejemplo, para que la memoria alfa&#45;beta    pudiera procesarlo ser&iacute;a necesario, primero, multiplicarlo por 1,000    para obtener el valor entero 9,234 y, posteriormente, se representar&iacute;a    con un vector de 9,234 elementos. Para el modelo presentado en este trabajo,    tendr&iacute;amos 18 multimemorias (9,234/18 = 513) construidas con patrones    de 513 bits cada uno, lo que resultar&iacute;a en memorias de 513 x <i>p</i>    bits, donde p es el n&uacute;mero de patrones asociados. Si <i>p</i> fuera igual    a 1,000, entonces tendr&iacute;amos 18 memorias de dimensi&oacute;n 513 x 1000.    Ahora, si representamos cada 1 y 0 con arreglos del tipo car&aacute;cter (8    bits), entonces las memorias ocupar&iacute;an 18 x 513 x 1,000 = 9,234,000 bytes,    lo que equivale a aproximadamente 9 MB de memoria. Otro tipo de memoria es la    memoria asociativa bidireccional alfa&#45;beta, en este caso, se tendr&iacute;a    que construir una sola memoria con patrones de 9,234 + 1,000 = 10,234 elementos    binarios, por tanto, la memoria tendr&iacute;a dimensiones de 10,234 x 10,234    lo que equivale a 104,734,756 &oacute; 105 MB. Esta gran cantidad de memoria    necesaria para almacenar el modelo asociativo es una &laquo;aparente&raquo;    desventaja debido a que actualmente las computadoras disponen de memorias RAM    muy grandes, adem&aacute;s de procesadores muy potentes. Por otra parte, se    pueden buscar algoritmos que puedan reducir los valores a codificar obteniendo    as&iacute;, una menor cantidad de elementos en los vectores. Por supuesto, existen    otros tipos de modelos asociativos como los cl&aacute;sicos y los no cl&aacute;sicos    como las memorias morfol&oacute;gicas que pueden manejar valores reales. Este    tipo de memorias presentan las mismas desventajas que las alfa&#45;beta en cuanto    al manejo del ruido mezclado; sin embargo, utilizan otro tipo de m&eacute;todos    para la disminuci&oacute;n de esta clase de ruido.</font></p>  	    <p align="justify"><font face="verdana" size="2">A pesar de la desventaja del almacenamiento del modelo asociativo en la memoria de la computadora, estos modelos siguen mostrando resultados comparables con las herramientas cl&aacute;sicas de inteligencia artificial.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>CONCLUSIONES</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Las multimemorias asociativas alfa&#45;beta han encontrado su aplicaci&oacute;n en el &aacute;rea de reconocimiento de patrones, incluida la tarea de clasificaci&oacute;n. En particular, este modelo de memoria se ha aplicado en problemas relacionados con la bioinform&aacute;tica, obteniendo resultados favorables. Por lo tanto, en este trabajo se aplic&oacute; este modelo para la localizaci&oacute;n de prote&iacute;nas dentro de la c&eacute;lula. Los resultados obtenidos fueron muy alentadores debido a que la efectividad fue del 97.99%, mientras que el mejor resultado obtenido por otros algoritmos fue del 97%. Cabe se&ntilde;alar que este resultado se obtuvo al aplicar nuestro modelo solamente a la base de datos GENES, a&uacute;n no se ha aplicado a ninguna de las bases de datos que se muestran en el <a href="/img/revistas/rmib/v33n1/a4c8.jpg" target="_blank">cuadro 8</a>.</font></p>  	    <p align="justify"><font face="verdana" size="2">El siguiente paso es aplicar este modelo a las bases de datos que utilizaron los diversos algoritmos de clasificaci&oacute;n que muestran en el <a href="/img/revistas/rmib/v33n1/a4c8.jpg" target="_blank">cuadro 8</a>. Adem&aacute;s, se pretende usar este modelo utilizando otras bases de datos est&aacute;ndar que no pertenezcan a la bioinform&aacute;tica, esperando los mismos resultados favorables, sin embargo, debe recordarse el teorema del <i>&laquo;no free lunch&raquo;</i> que nos indica que un algoritmo puede ser excelente con ciertos datos y fallar con otro tipo de datos, lo que puede confirmarse en el caso de Hayashi <i>et al,</i> ya que ellos utilizan el algoritmo de 1&#45;NN, el cual en la actualidad sigue siendo una de la herramientas m&aacute;s eficaces a la hora de clasificar, sin embargo, los resultados no fueron tan buenos.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>AGRADECIMIENTOS</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Los autores agradecemos la participaci&oacute;n de Israel Rom&aacute;n en la revisi&oacute;n del algoritmo.</font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	    <p align="justify"><font face="verdana" size="2"><b>REFERENCIAS</b></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">1.&nbsp;Lodish H, Berk A, Matsudaira P, Kaiser CA, Krieger M, Scott MP et al. Molecular cell biology, 6th Edition, 2007: 59.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507877&pid=S0188-9532201200010000400001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">2.&nbsp;Juan EYT, Jhang JH, Li WJ. "Predicting protein subcellular localization using PsePSSM and suport vector machines". Proceedings of the 11<sup>th</sup> Join Conference on Information Sciences, 2008: 1&#45;6.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507879&pid=S0188-9532201200010000400002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">3.&nbsp;Sarda D, Chua GH, Li KB, Krishnan A. "pSLIP: SVM based protein subcellular localization prediction using multiple physicochemical properties". BMC Bioinformatics 2005; 6: 152.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507881&pid=S0188-9532201200010000400003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">4.&nbsp;Feng ZP, "An overview on predicting the subcellular location of a protein". In: Silico Biology, 2002: 2.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507883&pid=S0188-9532201200010000400004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">5.&nbsp;Luger GF, Stubblefield WA. Artifical Intelligence: structures and strategies for complex problem solving. Addison&#45;Wesley, Third&#45;Edition, 1998: 20.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507885&pid=S0188-9532201200010000400005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">6.&nbsp;Yu&#45;Dong C, Xiao&#45;Jun L, Kuo&#45;Chen C. "Artificial neural network model for predicting protein subcellular location". Computers and Chemistry 2002; 26: 179&#45;182.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507887&pid=S0188-9532201200010000400006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">7.&nbsp;Yu CS, Chen YC, Lu CH, Hwang JK. "Prediction of protein subcellular localization". Proteins 2006; 64(3): 643&#45;651.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507889&pid=S0188-9532201200010000400007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">8.&nbsp;Nakai K, Kanehisa M. "Expert system for predicting protein localization sites in Gram negative bacteria". Proteins 1991; 11(2): 95&#45;110.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507891&pid=S0188-9532201200010000400008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">9.&nbsp;Gardy JL, Spencer C, Wang K, Ester M, Tusn&aacute;dy GE , Simon I et al. "PSORT&#45;B: Improving protein subcellular localization prediction for Gram negative bacteria". Nucleic Acids Res 2003; 31(13): 3613&#45;3617.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507893&pid=S0188-9532201200010000400009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">10.&nbsp;Yu CS, Lin CJ, Hwang JK. "Predicting subcellular localization of proteins for Gram&#45;negative bacteria by support vector machines based on n&#45;peptide compositions". Protein Sci 2004; 13(5): 1402&#45;1406.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507895&pid=S0188-9532201200010000400010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">11.&nbsp;Lu Z, Szafron D, Greiner R, Lu P, Wishart DS, Poulin B et al. "Predicting subcellular localization of proteins using machine&#45;learned classifier". Bioinformatics 2004; 20(4): 547&#45;556.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507897&pid=S0188-9532201200010000400011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">12.&nbsp;Pierleoni A, Martelli PL, Fariselli P, Casadio R, "BaCelLo: a balanced subcellular localization predictor". Bioinformatics 2006; 22(14): e408&#45;e416.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507899&pid=S0188-9532201200010000400012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">13.&nbsp;Chia&#45;Yu E, Chiu H, Lo A, Hwang JK, Sung TY, Hsu WL. "Protein subcellular localization prediction based on compartment&#45;specific features and structure conservation". BMC Bioinformatics 2007: 8&#45;330.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507901&pid=S0188-9532201200010000400013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">14.&nbsp;Bing N, Yu&#45;Huan J, Kai&#45;Yan F, Wen&#45;Cong L, Yu&#45;Dong C, Guo&#45;Zheng L. "Using AdaBoost for the prediction of subcellular location of prokaryotic and eukaryotic proteins". Mol Divers 2008; 12: 41&#45;45.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507903&pid=S0188-9532201200010000400014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">15.&nbsp;Hayashi H, Sese J, Morishita S. Task: localization in KDD Cup 2001 report. Available: <a href="http://pages.cs.wisc.edu/~dpage/kddcup2001/" target="_blank">http://pages.cs.wisc.edu/~dpage/kddcup2001/</a></font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507905&pid=S0188-9532201200010000400015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">16.&nbsp;Acevedo ME. Memorias asociativas bidireccionales alfa-beta. Tesis de Doctorado. Centro de Investigaci&oacute;n en Computaci&oacute;n, M&eacute;xico, 2006.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507906&pid=S0188-9532201200010000400016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">17.&nbsp;Acevedo ME, Y&aacute;&ntilde;ez C, L&oacute;pez I, "Alpha&#45;beta bidirectional associative memories: theory and applications". Neural Processing Letters 2007; 26(1): 1&#45;40.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507908&pid=S0188-9532201200010000400017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">18.&nbsp;Acevedo ME, Acevedo MA, Felipe F. "Classification of cancer recurrence with alpha&#45;beta BAM". Hindawi Publishing Corporation 2009; 2009: 1&#45;14.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507910&pid=S0188-9532201200010000400018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">19.&nbsp;Acevedo ME, Y&aacute;&ntilde;ez C, Acevedo MA. "Associative models for storing and retrieving concept lattices". Hindawi Publishing Corporation 2010; 2010: 1&#45;26.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507912&pid=S0188-9532201200010000400019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">20.&nbsp;Arg&uuml;elles A. "Redes neuronales Alfa&#45;Beta sin pesos: teor&iacute;a y factibilidad de implementaci&oacute;n". Tesis de Doctorado. Centro de Investigaci&oacute;n en Computaci&oacute;n, M&eacute;xico, 2007.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507914&pid=S0188-9532201200010000400020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">21.&nbsp;L&oacute;pez L, "M&aacute;quinas asociativas alfa&#45;beta con soporte vectorial". Tesis de Doctorado. Centro de Investigaci&oacute;n en Computaci&oacute;n, M&eacute;xico, 2008.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507916&pid=S0188-9532201200010000400021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">22.&nbsp;S&aacute;nchez F. "Modelos Asociativos Alfa&#45;Beta Difusos". Tesis de Doctorado. Centro de Investigaci&oacute;n en Computaci&oacute;n, M&eacute;xico, 2009.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507918&pid=S0188-9532201200010000400022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">23.&nbsp;L&oacute;pez I. "Clasificador autom&aacute;tico de alto desempe&ntilde;o". Tesis de Maestr&iacute;a. Centro de Investigaci&oacute;n en Computaci&oacute;n, M&eacute;xico, 2007.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507920&pid=S0188-9532201200010000400023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">24.&nbsp;Aldape M. "Enfoque asociativo para la selecci&oacute;n de rasgos". Tesis de Doctorado. Centro de Investigaci&oacute;n en Computaci&oacute;n, M&eacute;xico, 2011.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507922&pid=S0188-9532201200010000400024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">25.&nbsp;Rom&aacute;n I, "Aplicaci&oacute;n de los modelos asociativos alfa&#45;beta a la bioinform&aacute;tica". MsD Thesis, Computing Research Center, Mexico City, Mexico, 2007.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507924&pid=S0188-9532201200010000400025&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">26.&nbsp;Rom&aacute;n I, L&oacute;pez I, Y&aacute;&ntilde;ez&#45;M&aacute;rquez C. "Classifying patterns in bioinformatics databases by using alpha&#45;beta associative memories". Stu in Comp Int 2009; 224: 187&#45;210.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507926&pid=S0188-9532201200010000400026&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">27.&nbsp;Y&aacute;&ntilde;ez C. "Memorias asociativas basadas en relaciones de orden y operadores binarios". PhD Thesis. Computing Research Center, Mexico City, Mexico, 2002.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507928&pid=S0188-9532201200010000400027&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">28.&nbsp;Mano M. Dise&ntilde;o digital. Prentice&#45;Hall, 2001: 16&#45;26, 292&#45;294.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507930&pid=S0188-9532201200010000400028&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">29.&nbsp;Flores R. Memorias asociativas alfa&#45;beta basadas en el c&oacute;digo Johnson&#45;M&ouml;bius modificado. MsD Thesis. Computing Research Center, Mexico City, Mexico, 2006.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507932&pid=S0188-9532201200010000400029&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <p align="justify"><font face="verdana" size="2">30.&nbsp;Available: <a href="http://www.cs.waikato.ac.nz/ml/weka/" target="_blank">http://www.cs.waikato.ac.nz/ml/weka/</a></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">31.&nbsp;Reinhardt A, Hubbart T. "Using neural networks for prediction of the subcellular locations proteins". Nucleic Acids Research 1998; 6(9): 2230&#45;2236.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507935&pid=S0188-9532201200010000400030&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">32.&nbsp;Chou KC. "Prediction of protein subcellular locations by incorporating quasy&#45;second&#45;order effect". Biochemical Biophysical Res Commun 2000; 278: 477&#45;483.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507937&pid=S0188-9532201200010000400031&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">33.&nbsp;Wang J, Sung WK, Krishnan A, Li KB. "Protein subcellular localization prediction for Gram negative bacteria using aminoacid subalphabets and a combination of multiple support vector machines". BMC Bioinformatics 2005; 6(174): 1&#45;10.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507939&pid=S0188-9532201200010000400032&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">34.&nbsp;Tamura T, Akutsu T. "Subcellular localization predictions of proteins using support vector machines with alignment of block sequences utilizing amino acid composition". BMC Bioinformatics 2007; 8(466): 1&#45;14.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507941&pid=S0188-9532201200010000400033&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">35.&nbsp;Ogul H, Mumcuoglu E&Uuml;. "Subcellular localization prediction with new protein encoding schemes". IEEE/ACM Trans Comp Bio and Biol Inf 2007; 4(2): 227&#45;232.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507943&pid=S0188-9532201200010000400034&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">36.&nbsp;Jin YH, Niu B, Feng KY, Lu WC, Cai YD, Li GZ. "Predicting subcellular localization with AdaBoost Learner". Protein Pept Lett 2008; 15(3): 286&#45;289.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507945&pid=S0188-9532201200010000400035&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <!-- ref --><p align="justify"><font face="verdana" size="2">37.&nbsp;Xiao RQ, Guo YZ, Zeng YH, Tan HF, Pu XM, Li ML. "Using position specific scoring matrix and autocovariance to predict protein subnuclear localization". J Biomedical Science and Engineering, 2009; 2: 51&#45;56.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507947&pid=S0188-9532201200010000400036&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    ]]></body>
<body><![CDATA[<!-- ref --><p align="justify"><font face="verdana" size="2">38.&nbsp;Chou KC, Shen HB. "Plant&#45;mPloc: A top&#45;down strategy to augment the power" for predicting plant protein subcellular localization". PLoS ONE 2010; 5(6): 1&#45;9.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=8507949&pid=S0188-9532201200010000400037&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></font></p>  	    <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>  	     <p align="justify"><font face="verdana" size="2"><b><a name="nota"></a>Nota</b></font></p>  	    <p align="justify"><font face="verdana" size="2">Este trabajo fue apoyado por el Instituto Polit&eacute;cnico Nacional (COFAA, EDI y SIP) y el Sistema Nacional de Investigadores</font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lodish]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Berk]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Matsudaira]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Kaiser]]></surname>
<given-names><![CDATA[CA]]></given-names>
</name>
<name>
<surname><![CDATA[Krieger]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Scott]]></surname>
<given-names><![CDATA[MP]]></given-names>
</name>
</person-group>
<source><![CDATA[Molecular cell biology]]></source>
<year>2007</year>
<volume>59</volume>
<edition>6</edition>
</nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[EYT]]></surname>
<given-names><![CDATA[Juan]]></given-names>
</name>
<name>
<surname><![CDATA[JH]]></surname>
<given-names><![CDATA[Jhang]]></given-names>
</name>
<name>
<surname><![CDATA[WJ]]></surname>
<given-names><![CDATA[Li]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Predicting protein subcellular localization using PsePSSM and suport vector machines]]></article-title>
<source><![CDATA[Proceedings of the 11th Join Conference on Information Sciences]]></source>
<year>2008</year>
<page-range>1-6</page-range></nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sarda]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Chua]]></surname>
<given-names><![CDATA[GH]]></given-names>
</name>
<name>
<surname><![CDATA[KB]]></surname>
<given-names><![CDATA[Li]]></given-names>
</name>
<name>
<surname><![CDATA[Krishnan]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[pSLIP: SVM based protein subcellular localization prediction using multiple physicochemical properties]]></article-title>
<source><![CDATA[BMC Bioinformatics]]></source>
<year>2005</year>
<volume>6</volume>
<page-range>152</page-range></nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Feng]]></surname>
<given-names><![CDATA[ZP]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[An overview on predicting the subcellular location of a protein]]></article-title>
<source><![CDATA[Silico Biology]]></source>
<year>2002</year>
<page-range>2</page-range></nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Luger]]></surname>
<given-names><![CDATA[GF]]></given-names>
</name>
<name>
<surname><![CDATA[Stubblefield]]></surname>
<given-names><![CDATA[WA]]></given-names>
</name>
</person-group>
<source><![CDATA[Artifical Intelligence: structures and strategies for complex problem solving]]></source>
<year>1998</year>
<edition>Third</edition>
<page-range>20</page-range><publisher-name><![CDATA[Addison-Wesley]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[C]]></surname>
<given-names><![CDATA[Yu-Dong]]></given-names>
</name>
<name>
<surname><![CDATA[Xiao-Jun]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Kuo-Chen]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Artificial neural network model for predicting protein subcellular location]]></article-title>
<source><![CDATA[Computers and Chemistry]]></source>
<year>2002</year>
<volume>26</volume>
<page-range>179-182</page-range></nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Yu]]></surname>
<given-names><![CDATA[CS]]></given-names>
</name>
<name>
<surname><![CDATA[YC]]></surname>
<given-names><![CDATA[Chen]]></given-names>
</name>
<name>
<surname><![CDATA[CH]]></surname>
<given-names><![CDATA[Lu]]></given-names>
</name>
<name>
<surname><![CDATA[JK]]></surname>
<given-names><![CDATA[Hwang]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Prediction of protein subcellular localization]]></article-title>
<source><![CDATA[Proteins]]></source>
<year>2006</year>
<volume>64</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>643-651</page-range></nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Nakai]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[Kanehisa]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Expert system for predicting protein localization sites in Gram negative bacteria]]></article-title>
<source><![CDATA[Proteins]]></source>
<year>1991</year>
<volume>11</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>95-110</page-range></nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Gardy]]></surname>
<given-names><![CDATA[JL]]></given-names>
</name>
<name>
<surname><![CDATA[Spencer]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Wang]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[M]]></surname>
<given-names><![CDATA[Ester]]></given-names>
</name>
<name>
<surname><![CDATA[Tusnády]]></surname>
<given-names><![CDATA[GE]]></given-names>
</name>
<name>
<surname><![CDATA[I]]></surname>
<given-names><![CDATA[Simon]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[PSORT-B: Improving protein subcellular localization prediction for Gram negative bacteria]]></article-title>
<source><![CDATA[Nucleic Acids Res]]></source>
<year>2003</year>
<volume>31</volume>
<numero>13</numero>
<issue>13</issue>
<page-range>3613-3617</page-range></nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[CS]]></surname>
<given-names><![CDATA[Yu]]></given-names>
</name>
<name>
<surname><![CDATA[CJ]]></surname>
<given-names><![CDATA[Lin]]></given-names>
</name>
<name>
<surname><![CDATA[JK]]></surname>
<given-names><![CDATA[Hwang]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Predicting subcellular localization of proteins for Gram-negative bacteria by support vector machines based on n-peptide compositions]]></article-title>
<source><![CDATA[Protein Sci]]></source>
<year>2004</year>
<volume>13</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>1402-1406</page-range></nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Z]]></surname>
<given-names><![CDATA[Lu]]></given-names>
</name>
<name>
<surname><![CDATA[D]]></surname>
<given-names><![CDATA[Szafron]]></given-names>
</name>
<name>
<surname><![CDATA[Greiner]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[P]]></surname>
<given-names><![CDATA[Lu]]></given-names>
</name>
<name>
<surname><![CDATA[Wishart]]></surname>
<given-names><![CDATA[DS]]></given-names>
</name>
<name>
<surname><![CDATA[Poulin]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Predicting subcellular localization of proteins using machine-learned classifier]]></article-title>
<source><![CDATA[Bioinformatics]]></source>
<year>2004</year>
<volume>20</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>547-556</page-range></nlm-citation>
</ref>
<ref id="B12">
<label>12</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Pierleoni]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Martelli]]></surname>
<given-names><![CDATA[PL]]></given-names>
</name>
<name>
<surname><![CDATA[Fariselli]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Casadio]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[BaCelLo: a balanced subcellular localization predictor]]></article-title>
<source><![CDATA[Bioinformatics]]></source>
<year>2006</year>
<volume>22</volume>
<numero>14</numero>
<issue>14</issue>
<page-range>e408-e416</page-range></nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chia-Yu]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[Chiu]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Lo]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Hwang]]></surname>
<given-names><![CDATA[JK]]></given-names>
</name>
<name>
<surname><![CDATA[Sung]]></surname>
<given-names><![CDATA[TY]]></given-names>
</name>
<name>
<surname><![CDATA[Hsu]]></surname>
<given-names><![CDATA[WL]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Protein subcellular localization prediction based on compartment-specific features and structure conservation]]></article-title>
<source><![CDATA[BMC Bioinformatics]]></source>
<year>2007</year>
<page-range>8-330</page-range></nlm-citation>
</ref>
<ref id="B14">
<label>14</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bing]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[Yu-Huan]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Kai-Yan]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Wen-Cong]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Yu-Dong]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Guo-Zheng]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Using AdaBoost for the prediction of subcellular location of prokaryotic and eukaryotic proteins]]></article-title>
<source><![CDATA[Mol Divers]]></source>
<year>2008</year>
<volume>12</volume>
<page-range>41-45</page-range></nlm-citation>
</ref>
<ref id="B15">
<label>15</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hayashi]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Sese]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Morishita]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[Task: localization in KDD Cup 2001 report]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B16">
<label>16</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Acevedo]]></surname>
<given-names><![CDATA[ME]]></given-names>
</name>
</person-group>
<source><![CDATA[Memorias asociativas bidireccionales alfa-beta]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B17">
<label>17</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Acevedo]]></surname>
<given-names><![CDATA[ME]]></given-names>
</name>
<name>
<surname><![CDATA[Yáñez]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[López]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Alpha-beta bidirectional associative memories: theory and applications]]></article-title>
<source><![CDATA[Neural Processing Letters]]></source>
<year>2007</year>
<volume>26</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>1-40</page-range></nlm-citation>
</ref>
<ref id="B18">
<label>18</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Acevedo]]></surname>
<given-names><![CDATA[ME]]></given-names>
</name>
<name>
<surname><![CDATA[Acevedo]]></surname>
<given-names><![CDATA[MA]]></given-names>
</name>
<name>
<surname><![CDATA[F]]></surname>
<given-names><![CDATA[Felipe]]></given-names>
</name>
</person-group>
<source><![CDATA[Classification of cancer recurrence with alpha-beta BAM]]></source>
<year>2009</year>
<page-range>1-14</page-range><publisher-name><![CDATA[Hindawi Publishing Corporation 2009]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B19">
<label>19</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Acevedo]]></surname>
<given-names><![CDATA[ME]]></given-names>
</name>
<name>
<surname><![CDATA[Yáñez]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Acevedo]]></surname>
<given-names><![CDATA[MA]]></given-names>
</name>
</person-group>
<source><![CDATA[Associative models for storing and retrieving concept lattices]]></source>
<year>2010</year>
<page-range>1-26</page-range><publisher-name><![CDATA[Hindawi Publishing Corporation 2010]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B20">
<label>20</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Argüelles]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<source><![CDATA[Redes neuronales Alfa-Beta sin pesos: teoría y factibilidad de implementación]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B21">
<label>21</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[López]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<source><![CDATA[Máquinas asociativas alfa-beta con soporte vectorial]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B22">
<label>22</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sánchez]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<source><![CDATA[Modelos Asociativos Alfa-Beta Difusos]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B23">
<label>23</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[López]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
</person-group>
<source><![CDATA[Clasificador automático de alto desempeño]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B24">
<label>24</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Aldape]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[Enfoque asociativo para la selección de rasgos]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B25">
<label>25</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Román]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
</person-group>
<source><![CDATA[Aplicación de los modelos asociativos alfa-beta a la bioinformática]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B26">
<label>26</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Román]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[López]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[Yáñez-Márquez]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Classifying patterns in bioinformatics databases by using alpha-beta associative memories]]></article-title>
<source><![CDATA[Stu in Comp Int]]></source>
<year>2009</year>
<volume>224</volume>
<page-range>187-210</page-range></nlm-citation>
</ref>
<ref id="B27">
<label>27</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Yáñez]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<source><![CDATA[Memorias asociativas basadas en relaciones de orden y operadores binarios]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B28">
<label>28</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Mano]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[Diseño digital]]></source>
<year>2001</year>
<page-range>16-26</page-range><publisher-name><![CDATA[Prentice-Hall]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B29">
<label>29</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Flores]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<source><![CDATA[Memorias asociativas alfa-beta basadas en el código Johnson-Möbius modificado]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B30">
<label>31</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Reinhardt]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Hubbart]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Using neural networks for prediction of the subcellular locations proteins]]></article-title>
<source><![CDATA[Nucleic Acids Research]]></source>
<year>1998</year>
<volume>6</volume>
<numero>9</numero>
<issue>9</issue>
<page-range>2230-2236</page-range></nlm-citation>
</ref>
<ref id="B31">
<label>32</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chou]]></surname>
<given-names><![CDATA[KC]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Prediction of protein subcellular locations by incorporating quasy-second-order effect]]></article-title>
<source><![CDATA[Biochemical Biophysical Res Commun]]></source>
<year>2000</year>
<volume>278</volume>
<page-range>477-483</page-range></nlm-citation>
</ref>
<ref id="B32">
<label>33</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wang]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Sung]]></surname>
<given-names><![CDATA[WK]]></given-names>
</name>
<name>
<surname><![CDATA[Krishnan]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[KB]]></surname>
<given-names><![CDATA[Li]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Protein subcellular localization prediction for Gram negative bacteria using aminoacid subalphabets and a combination of multiple support vector machines]]></article-title>
<source><![CDATA[BMC Bioinformatics]]></source>
<year>2005</year>
<volume>6</volume>
<numero>174</numero>
<issue>174</issue>
<page-range>1-10</page-range></nlm-citation>
</ref>
<ref id="B33">
<label>34</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Tamura]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[Akutsu]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Subcellular localization predictions of proteins using support vector machines with alignment of block sequences utilizing amino acid composition]]></article-title>
<source><![CDATA[BMC Bioinformatics]]></source>
<year>2007</year>
<volume>8</volume>
<numero>466</numero>
<issue>466</issue>
<page-range>1-14</page-range></nlm-citation>
</ref>
<ref id="B34">
<label>35</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ogul]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Mumcuoglu]]></surname>
<given-names><![CDATA[EÜ]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Subcellular localization prediction with new protein encoding schemes]]></article-title>
<source><![CDATA[IEEE/ACM Trans Comp Bio and Biol Inf]]></source>
<year>2007</year>
<volume>4</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>227-232</page-range></nlm-citation>
</ref>
<ref id="B35">
<label>36</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[YH]]></surname>
<given-names><![CDATA[Jin]]></given-names>
</name>
<name>
<surname><![CDATA[Niu]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Feng]]></surname>
<given-names><![CDATA[KY]]></given-names>
</name>
<name>
<surname><![CDATA[WC]]></surname>
<given-names><![CDATA[Lu]]></given-names>
</name>
<name>
<surname><![CDATA[YD]]></surname>
<given-names><![CDATA[Cai]]></given-names>
</name>
<name>
<surname><![CDATA[GZ]]></surname>
<given-names><![CDATA[Li]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Predicting subcellular localization with AdaBoost Learner]]></article-title>
<source><![CDATA[Protein Pept Lett]]></source>
<year>2008</year>
<volume>15</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>286-289</page-range></nlm-citation>
</ref>
<ref id="B36">
<label>37</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[RQ]]></surname>
<given-names><![CDATA[Xiao]]></given-names>
</name>
<name>
<surname><![CDATA[YZ]]></surname>
<given-names><![CDATA[Guo]]></given-names>
</name>
<name>
<surname><![CDATA[YH]]></surname>
<given-names><![CDATA[Zeng]]></given-names>
</name>
<name>
<surname><![CDATA[HF]]></surname>
<given-names><![CDATA[Tan]]></given-names>
</name>
<name>
<surname><![CDATA[XM]]></surname>
<given-names><![CDATA[Pu]]></given-names>
</name>
<name>
<surname><![CDATA[ML]]></surname>
<given-names><![CDATA[Li]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Using position specific scoring matrix and autocovariance to predict protein subnuclear localization]]></article-title>
<source><![CDATA[J Biomedical Science and Engineering]]></source>
<year>2009</year>
<volume>2</volume>
<page-range>51-56</page-range></nlm-citation>
</ref>
<ref id="B37">
<label>38</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KC]]></surname>
<given-names><![CDATA[Chou]]></given-names>
</name>
<name>
<surname><![CDATA[HB]]></surname>
<given-names><![CDATA[Shen]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Plant-mPloc: A top-down strategy to augment the power" for predicting plant protein subcellular localization]]></article-title>
<source><![CDATA[PLoS ONE]]></source>
<year>2010</year>
<volume>5</volume>
<numero>6</numero>
<issue>6</issue>
<page-range>1-9</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
