<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>1405-7743</journal-id>
<journal-title><![CDATA[Ingeniería, investigación y tecnología]]></journal-title>
<abbrev-journal-title><![CDATA[Ing. invest. y tecnol.]]></abbrev-journal-title>
<issn>1405-7743</issn>
<publisher>
<publisher-name><![CDATA[Universidad Nacional Autónoma de México, Facultad de Ingeniería]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S1405-77432006000100002</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Análisis bayesiano y fusión de datos para la clasificación de escenas urbanas del Distrito Federal]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Rodríguez-Cruz]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Moctezuma-Flores]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,UNAM Facultad de Ingeniería ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>03</month>
<year>2006</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>03</month>
<year>2006</year>
</pub-date>
<volume>7</volume>
<numero>1</numero>
<fpage>17</fpage>
<lpage>28</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_arttext&amp;pid=S1405-77432006000100002&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_abstract&amp;pid=S1405-77432006000100002&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.mx/scielo.php?script=sci_pdf&amp;pid=S1405-77432006000100002&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[En ciudades como México DF, existen crecientes dificultades de administración originadas por la falta de información de las estructuras urbanas y del dinamismo de su evolución. En este contexto, la fotografía aérea de alta resolución de regiones urbanas, puede facilitar tareas en la actualización de cartografía y planeación urbana mediante la segmentación y extracción automática de regiones de interés. En este artículo, se presenta un método para segmentar y clasificar imágenes de fotografía aérea, correspondientes a regiones urbanas de la Ciudad de México. Para lograrlo, primero se realiza una reducción en los niveles de gris de la imagen original, después se calcula su matriz de co-ocurrencia y a partir de ella se obtienen 10 descriptores estadísticos de textura. Posteriormente, se escoge a los descriptores que proporcionan la suficiente información para segmentar a la imagen en regiones características. Después, se realiza un proceso de homogeneización y finalmente, sobre las matrices de textura resultantes se aplica una fusión de datos. En está última etapa, se propone un método de fusión multiclases. El resultado final muestra la funcionalidad de esquema propuesto al mostrar escenas urbanas clasificadas en tres segmentos.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[In cities like Mexico, D.F., there exists in creasing administration difficulties, orignated by the lack of information on the urban structures and the dynamism of their evolution; therefore, the acquisition of aerial high resolution photographs of urban regions, can facilitate tasks in the update of cartography and urban planning through the segmentation and automatic extraction of interest regions. In this article, we present a method to segment and classify aerial photographs of Mexico City. In order to obtain it, first a reduction in the gray levels of the original image is made. Later its matrix of co-occurrence is calculated and from this ten tex tural features are obtained. The textural features that provide the sufficient information to segment to the image are chosen. Later, a homogenization process is made, and finally, the resultant texture matrix is taken into a multiclasses fusion process. In this last stage, we propose a method to fuse several classes. The final result shows the performance of the proposed method, providing urban scenes classified in three different classes.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Matriz de co-ocurrencia]]></kwd>
<kwd lng="es"><![CDATA[descriptores de textura]]></kwd>
<kwd lng="es"><![CDATA[segmentación]]></kwd>
<kwd lng="es"><![CDATA[clasificación]]></kwd>
<kwd lng="es"><![CDATA[homogeneización]]></kwd>
<kwd lng="es"><![CDATA[fusión multiclases]]></kwd>
<kwd lng="en"><![CDATA[Matrix of co-occurrence]]></kwd>
<kwd lng="en"><![CDATA[textural features]]></kwd>
<kwd lng="en"><![CDATA[segmentation]]></kwd>
<kwd lng="en"><![CDATA[classification homogenization]]></kwd>
<kwd lng="en"><![CDATA[multiclasses fusion]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="justify"><font face="verdana" size="4">Estudios e investigaciones recientes</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="center"><font face="verdana" size="4"><b>An&aacute;lisis bayesiano y fusi&oacute;n de datos para la clasificaci&oacute;n de escenas urbanas del Distrito Federal</b></font></p>     <p align="center"><font face="verdana" size="2">&nbsp;</font></p>     <p align="center"><font face="verdana" size="2"><b>M. Rodr&iacute;guez&#150;Cruz y M. Moctezuma&#150;Flores</b></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><i>Facultad de Ingenier&iacute;a, UNAM</i></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>E&#150;mails:</b>    <br>   <a href="mailto:enerlam79@yahoo.com.mx">enerlam79@yahoo.com.mx</a>    ]]></body>
<body><![CDATA[<br>   <a href="mailto:miguelm@verona.fi&#150;p.unam.mx">miguelm@verona.fi-p.unam.mx</a></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2">Recibido: enero de 2005    <br>   Aceptado: junio de 2005</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Resumen</b></font></p>     <p align="justify"><font face="verdana" size="2">En ciudades como M&eacute;xico DF, existen crecientes dificultades de administraci&oacute;n originadas por la falta de informaci&oacute;n de las estructuras urbanas y del dinamismo de su evoluci&oacute;n. En este contexto, la fotograf&iacute;a a&eacute;rea de alta resoluci&oacute;n de regiones urbanas, puede facilitar tareas en la actualizaci&oacute;n de cartograf&iacute;a y planeaci&oacute;n urbana mediante la segmentaci&oacute;n y extracci&oacute;n autom&aacute;tica de regiones de inter&eacute;s. En este art&iacute;culo, se presenta un m&eacute;todo para segmentar y clasificar im&aacute;genes de fotograf&iacute;a a&eacute;rea, correspondientes a regiones urbanas de la Ciudad de M&eacute;xico. Para lograrlo, primero se realiza una reducci&oacute;n en los niveles de gris de la imagen original, despu&eacute;s se calcula su matriz de co&#150;ocurrencia y a partir de ella se obtienen 10 descriptores estad&iacute;sticos de textura. Posteriormente, se escoge a los descriptores que proporcionan la suficiente informaci&oacute;n para segmentar a la imagen en regiones caracter&iacute;sticas. Despu&eacute;s, se realiza un proceso de homogeneizaci&oacute;n y finalmente, sobre las matrices de textura resultantes se aplica una fusi&oacute;n de datos. En est&aacute; &uacute;ltima etapa, se propone un m&eacute;todo de fusi&oacute;n multiclases. El resultado final muestra la funcionalidad de esquema propuesto al mostrar escenas urbanas clasificadas en tres segmentos.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Descriptores:</b> Matriz de co&#150;ocurrencia, descriptores de textura, segmentaci&oacute;n, clasificaci&oacute;n, homogeneizaci&oacute;n y fusi&oacute;n multiclases.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Abstract</b></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">In cities like Mexico, D.F., there exists in creasing administration difficulties, orignated by the lack of information on the urban structures and the dynamism of their evolution; therefore, the acquisition of aerial high resolution photographs of urban regions, can facilitate tasks in the update of cartography and urban planning through the segmentation and automatic extraction of interest regions. In this article, we present a method to segment and classify aerial photographs of Mexico City. In order to obtain it, first a reduction in the gray levels of the original image is made. Later its matrix of co&#150;occurrence is calculated and from this ten tex tural features are obtained. The textural features that provide the sufficient information to segment to the image are chosen. Later, a homogenization process is made, and finally, the resultant texture matrix is taken into a multiclasses fusion process. In this last stage, we propose a method to fuse several classes. The final result shows the performance of the proposed method, providing urban scenes classified in three different classes.</font></p>     <p align="justify"><font face="verdana" size="2"><b>Keywords:</b> Matrix of co&#150;occurrence, textural features, segmentation, classification homogenization, multiclasses fusion.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Introducci&oacute;n</b></font></p>     <p align="justify"><font face="verdana" size="2">La textura puede definirse como la variaci&oacute;n del contraste entre pixeles vecinos y puede utilizarse para detectar o distinguir los diferentes objetos o regiones de una imagen. Con base en estudios experimentales, Julesz (1971), sostiene que el sistema perceptivo humano puede distinguir texturas estad&iacute;sticas de primer y segundo orden. La importancia de tal conjetura es que se verifica adecuadamente en el caso de las texturas naturales (Ecole Nationale Sup&eacute;rieure des Telecommunications, 2004). Diversos autores han discutido la interpretaci&oacute;n estad&iacute;stica de los operadores textural GLCM (Geophys, 1991 y Cossu, 1998). Con independencia de las im&aacute;genes de prueba, Baraldi (1971), determin&oacute; la adecuada discriminaci&oacute;n visual de patrones texturales al emplear matrices de co&#150;ocurrencia (GLCM). Para el caso de datos pacrom&aacute;ticos y ante las limitantes que impone la mezcla de modos de probabilidad, nuestra propuesta es la extracci&oacute;n de regiones de inter&eacute;s v&iacute;a caracterizaciones texturales y de su fusi&oacute;n. As&iacute;, en este art&iacute;culo se realiza el an&aacute;lisis de fotograf&iacute;a a&eacute;rea de alta resoluci&oacute;n, correspondiente a una escena urbana del Distrito Federal. Despu&eacute;s de explicar el m&eacute;todo utilizado en la obtenci&oacute;n de datos estad&iacute;sticos texturales, v&iacute;a la matriz de co&#150;ocurrencia (GLCM), con base en representaciones matriciales se obtienen los descriptores de textura propuestos por Haralick <i>et al.</i> (1973). Ellos son necesarios para realizar la segmentaci&oacute;n, clasificaci&oacute;n y fusi&oacute;n de las im&aacute;genes. Despu&eacute;s se explica el m&eacute;todo de segmentaci&oacute;n y clasificaci&oacute;n que emplea un formalismo bayesiano. Enseguida, se describe un proceso de fusi&oacute;n de datos que implica casos binarios y se propone un m&eacute;todo de fusi&oacute;n para el caso multiclases. Dicho m&eacute;todo constituye una propuesta original. Posteriormente, se presentan los resultados obtenidos en cada etapa de procesamiento, as&iacute; como de la fusi&oacute;n de las im&aacute;genes de textura.</font></p>     <p align="justify"><font face="verdana" size="2">En este trabajo se utiliza una imagen pacrom&aacute;tica del Sur de la Ciudad de M&eacute;xico, adquirida por el INEGI en 1992, con un tama&ntilde;o de p&iacute;xel de 40cm x 40cm. Los resultados obtenidos muestran el potencial de la fotograf&iacute;a a&eacute;rea de alta resoluci&oacute;n en la soluci&oacute;n de problemas urbanos.</font></p>     <p align="justify"><font face="verdana" size="2">En la <a href="#f1">figura 1</a> se presenta el esquema del m&eacute;todo propuesto.</font></p>     <p align="center"><font face="verdana" size="2"><a name="f1"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02f1.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>Matriz de co&#150;ocurrencia y descriptores de textura de Haralick</b></font></p>     <p align="justify"><font face="verdana" size="2">Para prop&oacute;sitos de segmentaci&oacute;n, el empleo &uacute;nicamente de niveles de gris presenta fuertes limitantes. Esto se debe a la alta semejanza en el rango radiom&eacute;trico de los diversos elementos que componen una escena natural. Una alternativa es la incorporaci&oacute;n de datos texturales que permitan distinguir en una escena urbana, por ejemplo, las regiones de bosques y &aacute;reas verdes de las zonas urbanas.</font></p>     <p align="justify"><font face="verdana" size="2">Para caracterizar la informaci&oacute;n contenida en la textura de una imagen, se utiliza la matriz de coocurrencia (Grey Level Co&#150;occurence Matriz &#150;GLCM&#150;). La co&#150;ocurrencia se interpreta como una medida matricial de la dependencia espacial de los niveles de gris. En esta representaci&oacute;n cada elemento matricial representa la probabilidad de ocurrencia de dos valores en la escala de gris, separados por una distancia entre pares de pixeles y un &aacute;ngulo <img src="/img/revistas/iit/v7n1/a02s1.jpg"> en una direcci&oacute;n determinada.</font></p>     <p align="justify"><font face="verdana" size="2">Para obtener la matriz de co&#150;ocurrencia, se emplea una ventana deslizante. El algoritmo comienza con un barrido secuencial en la esquina superior izquierda de la imagen. Las probabilidades de co&#150;ocurrencia se determinan y entonces se calculan los descriptores de esta matriz. Despu&eacute;s, la ventana se desliza una columna hacia la derecha. En este punto, la mayor&iacute;a de las probabilidades no cambian, excepto por las probabilidades que se forman con la nueva columna que ha sido incluida en la ventana y por la columna que ha salido de ella. Por lo tanto, a la matriz de co&#150;ocurrencia original se le suman las probabilidades que se forman con la columna que ha sido incluida y se le restan las probabilidades que se formaban con la columna que ha salido de la ventana. La <a href="#f2">figura 2</a> muestra una representaci&oacute;n del esquema de barrido simplificado.</font></p>     <p align="center"><font face="verdana" size="2"><a name="f2"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02f2.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">Cuando se llega al extremo derecho de la matriz, la ventana se baja una sola fila. Para las filas pares, la ventana se mueve de izquierda a derecha y para las filas impares la ventana se mueve de derecha a izquierda. La ventana se mueve en un patr&oacute;n de zig&#150;zag hasta cubrir toda la imagen.</font></p>     <p align="justify"><font face="verdana" size="2">Cada vez que se calcula la matriz de coocurrencia para una ventana, tambi&eacute;n se calculan sus descriptores de textura. Estos descriptores se&ntilde;alan la dispersi&oacute;n de los elementos matriciales con respecto a la diagonal principal. Para calcular la matriz de co&#150;ocurrencia se utilizaron ventanas de an&aacute;lisis de 5x5, un desplazamiento de un pixel y un &aacute;ngulo de 0&deg; y 180&deg;. Tales par&aacute;metros fueron fijados con base a la resoluci&oacute;n espacial y radiom&eacute;trica de la imagen de prueba, acordes al tama&ntilde;o de los elementos de la escena. A partir de la matriz de co&#150;ocurrencia se calcularon los descriptores de textura de autocorrelaci&oacute;n, contraste, correlaci&oacute;n, cluster shade, cluster prominence, disimilaridad, entrop&iacute;a, m&aacute;xima probabilidad y varianza. El algoritmo empleado es r&aacute;pido y reduce hasta en un 90% el tiempo de c&aacute;lculo, comparado con implementaciones de algoritmo original de Haralick <i>et al.</i> (1973).</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Esquema de segmentaci&oacute;n y clasificaci&oacute;n bayesiana</b></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">La segmentaci&oacute;n divide a una imagen en un conjunto de regiones. Para clasificar estas regiones, se divide el conjunto de pixeles que componen a la imagen en clases tem&aacute;ticas previamente definidas. En este trabajo, la segmentaci&oacute;n y clasificaci&oacute;n de las regiones se hace utilizando la funci&oacute;n discriminante de Bayes, la cual est&aacute; dada por la siguiente expresi&oacute;n:</font></p>     <p align="justify"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02e1.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">donde:</font></p>     <p align="justify"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02e2.jpg">es la probabilidad total de evento/pixel x</font></p>     <p align="justify"><font face="verdana" size="2"><i>p(&omega;<sub>k</sub></i>) es la probabilidad a priori de ocurrencia de la clase <i>&omega;<sub>k</sub></i></font></p>     <p align="justify"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02s2.jpg"> es la probabilidad condicional del p&iacute;xel <i>x</i>, dada la clase <i>&omega;<sub>k</sub></i></font></p>     <p align="justify"><font face="verdana" size="2">M es el n&uacute;mero de clases o regiones t&iacute;picas</font></p>     <p align="justify"><font face="verdana" size="2">La expresi&oacute;n de probabilidad a posteriori se&ntilde;ala una probabilidad de que ocurra un evento <i>&omega;<sub>k</sub></i> dado que <i>x</i> ya ocurri&oacute; y que en una aproximaci&oacute;n tipo M&aacute;ximo a Posteriori constituye la etapa final del c&aacute;lculo. Como <i>p(x)</i> es un t&eacute;rmino com&uacute;n se puede eliminar y la funci&oacute;n discriminante resultante es:</font></p>     <p align="justify"><font face="verdana" size="2"><b><img src="/img/revistas/iit/v7n1/a02e3.jpg"></b></font></p>     <p align="justify"><font face="verdana" size="2">Para aplicar la expresi&oacute;n anterior, se defini&oacute; el proceso de segmentaci&oacute;n en dos partes: la primera es la pre&#150;clasificaci&oacute;n bayesiana y la segunda es la clasificaci&oacute;n.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Pre&#150;clasificaci&oacute;n bayesiana</b></font></p>     <p align="justify"><font face="verdana" size="2">Se define una etapa de pre&#150;clasificaci&oacute;n en virtud de desconocer las probabilidades a priori <i>p(&omega;<sub>k</sub>)</i>  Esta etapa consta de dos partes de procesamiento:</font></p>     <p align="justify"><font face="verdana" size="2"><i>Primera parte</i></font></p>     <blockquote>       <p align="justify"><font face="verdana" size="2">1. Sobre la imagen de prueba se definen 3 ventanas de entrenamiento que identifican a tres clases t&iacute;picas:   la clase  urbana con tonos de gris muy blancos, la clase urbana opaca y la clase no urbana.</font></p>       <p align="justify"><font face="verdana" size="2">2. Sobre   cada   ventana   se   calcula   la media <i>m<sub>k</sub></i> de la clase <i>&omega;<sub>k</sub></i>.</font></p>       <p align="justify"><font face="verdana" size="2">3. Se aproximan las probabilidades conjuntas del numerador de la regla de Bayes mediante las funciones mostradas en la <a href="/img/revistas/iit/v7n1/a02f3.jpg" target="_blank">figura 3</a>,  las cuales  indican  la probabilidad condicional de que un p&iacute;xel dado pertenezca a la clase <i>&omega;<sub>k</sub></i>. Tales funciones identifican a cada clase y corresponden en el histograma a los datos en nivel de gris de la imagen a procesar. Como par&aacute;metros se emplean las medias y medidas de dispersi&oacute;n visibles en los traslapes de las funciones adjuntas.</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><i>Segunda parte: pre&#150;clasificaci&oacute;n</i></font></p>     ]]></body>
<body><![CDATA[<blockquote>       <p align="justify"><font face="verdana" size="2">1. Se aplica la funci&oacute;n discriminante de Bayes:</font></p>       <p align="justify"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02e4.jpg"></font></p>       <p align="justify"><font face="verdana" size="2">2. Como   no   se   conoce   la   probabilidad de ocurrencia de clases <i>p(&omega;<sub>k</sub>)</i>, inicialmente se suponen como equiprobables.</font></p>       <p align="justify"><font face="verdana" size="2">3. Se analiza cada uno de los pixeles de la imagen <i>x</i>, clasificando a cada pixel de acuerdo a los valores m&aacute;ximos de probabilidad a posteriori: <img src="/img/revistas/iit/v7n1/a02s3.jpg">.</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Clasificaci&oacute;n bayesiana</b></font></p>     <p align="justify"><font face="verdana" size="2">En esta etapa se aplica nuevamente el proceso bayesiano anterior. En este caso, se actualizan las probabilidades a priori <i>p(&omega;<sub>k</sub>)</i>. Esta actualizaci&oacute;n se lleva a cabo dividiendo el n&uacute;mero de pixeles que pertenecen a cada clase entre el total de pixeles de la imagen, empleando los resultados de la preclasificaci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">Despu&eacute;s de realizar la actualizaci&oacute;n de probabilidades, se clasifica cada uno de los pixeles de la imagen utilizando la misma funci&oacute;n bayesiana de probabilidad condicional <a href="/img/revistas/iit/v7n1/a02f3.jpg" target="_blank">(Figura 3)</a>. Durante el proceso de pre&#150;clasificaci&oacute;n y clasificaci&oacute;n, el nivel de gris de cada p&iacute;xel se proyecta sobre cada una de las funciones para determinar la probabilidad condicional de que el p&iacute;xel pertenezca a la clase &omega;<sub>i</sub>. El n&uacute;mero de funciones est&aacute; determinado por el n&uacute;mero de clases.</font></p>     <p align="justify"><font face="verdana" size="2">Como se puede observar en la <a href="/img/revistas/iit/v7n1/a02f3.jpg" target="_blank">figura 3</a>, si el nivel de gris del p&iacute;xel analizado est&aacute; en el rango de <i>0 <u>&lt;</u> W<sub>0</sub> <u>&lt;</u> m<sub>0</sub></i>, la probabilidad condicional para la clase <i>&omega;<sub>0</sub></i> es de 1. Para las dem&aacute;s clases, la probabilidad es cero, pero si el nivel de gris del p&iacute;xel analizado est&aacute; en el rango <i>m<sub>0</sub> + s/4</i> y <i>m<sub>0</sub> + 3*s/4</i>, entonces existen 2 valores de probabilidad condicional para este p&iacute;xel, ya que como se observa en la figura, &eacute;ste puede pertenecer a la clase <i>&omega;<sub>0</sub></i> o a la clase <i>&omega;<sub>1</sub></i>. Para obtener la probabilidad condicional de que el p&iacute;xel analizado pertenezca a la clase <i>&omega;<sub>0</sub></i>, se utiliza la siguiente funci&oacute;n:</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02e5.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">Donde</font></p>     <p align="justify"><font face="verdana" size="2">W0 es la probabilidad condicional de la clase W<sub>0</sub></font></p>     <p align="justify"><font face="verdana" size="2"><i>x</i>     es el nivel de gris del p&iacute;xel analizado</font></p>     <p align="justify"><font face="verdana" size="2"><i>m<sub>0</sub></i>   es la media de W<sub>0</sub></font></p>     <p align="justify"><font face="verdana" size="2">S = <i>m<sub>1</sub></i> &#150; <i>m<sub>0</sub></i></font></p>     <p align="justify"><font face="verdana" size="2">De igual forma, para obtener la probabilidad condicional de que el nivel de gris del p&iacute;xel analizado pertenezca a la clase <i>&omega;<sub>1</sub></i>, se utiliza la siguiente funci&oacute;n:</font></p>     <p align="justify"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02e6.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">Para la clase W1, si el nivel de gris del p&iacute;xel a analizar es menor a <i>m<sub>1</sub> &#150; 3*s/4</i> (lado izquierdo de la figura para la clase W1) y mayor a <i>m<sub>1</sub> + 3*s/4</i> (lado derecho de la figura para la clase W1) la probabilidad condicional para W1 es de cero. Si el nivel de gris del p&iacute;xel analizado es mayor o igual a <i>m<sub>1</sub> + s/4</i> y menor o igual a <i>m<sub>0</sub> + s/4</i>, entonces la probabilidad condicional ser&aacute; de 1.</font></p>     <p align="justify"><font face="verdana" size="2">Para el resto de las funciones se realiza un an&aacute;lisis similar. Despu&eacute;s de obtener todos los t&eacute;rminos condicionales:</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02e7.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">se multiplica cada una de ellas por las probabilidades a pri ori, que en la primera etapa se consideran como equiprobables:</font></p>     <p align="justify"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02e8.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">y en la segunda se actualizan.   El p&iacute;xel analizado pertenecer&aacute; a la clase con m&aacute;xima probabilidad a posteriori.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Homogeneizaci&oacute;n</b></font></p>     <p align="justify"><font face="verdana" size="2">En virtud de la variabilidad que para un solo elemento de escena pueden tener los diversos operadores texturales, una vez realizada la segmentaci&oacute;n y clasificaci&oacute;n bayesiana, se realiza un proceso de homogeneizaci&oacute;n. En este proceso se igualan las etiquetas de clasificaci&oacute;n, es decir, si en una imagen aparece la vegetaci&oacute;n como negra y en otra como gris, hacemos que las dos pertenezcan a una misma clase, por lo que se procede a identificarlas con el mismo nivel de gris. Tal proceso se realiza mediante una tabla de equivalencias.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Esquema de fusi&oacute;n</b></font></p>     <p align="justify"><font face="verdana" size="2">Una imagen pancrom&aacute;tica proporciona una informaci&oacute;n muy limitada del espectro electromagn&eacute;tico, por lo que un solo algoritmo de an&aacute;lisis puede   resultar   insuficiente   para   proporcionar resultados confiables y precisos. Por esta raz&oacute;n, Shan YU (1995), propone un m&eacute;todo que consiste en aplicar varios algoritmos para analizar la misma imagen y fusionar resultados binarios de segmentaci&oacute;n. En nuestro caso, la fusi&oacute;n tiene por prop&oacute;sito incorporar las detecciones parcialmente estimadas en cada resultado de textura. Una aportaci&oacute;n del presente art&iacute;culo es la de modificar el algoritmo de Shan YU a fin de realizar fusiones multiclases.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">Para realizar la fusi&oacute;n de im&aacute;genes, primero se debe estimar la confiabilidad de los resultados obtenidos a trav&eacute;s de los diferentes operadores texturales. Para ello, se utiliza un mapa burdo realizado sobre la imagen original y con base en &eacute;l, se estima un error local. Para realizar la fusi&oacute;n de datos asumimos que:</font></p>     <blockquote>       <p align="justify"><font face="verdana" size="2">s      es un sitio o una regi&oacute;n de la imagen.</font></p>       <p align="justify"><font face="verdana" size="2">S     denota a la imagen completa.</font></p>       <p align="justify"><font face="verdana" size="2">L = {l<sub>i</sub>, 1 <u>&lt;</u> i <u>&lt;</u> N} denota un conjunto de clases o de regiones a segmentar.</font></p>       <p align="justify"><font face="verdana" size="2">M(s)    es la clase que pertenece a la regi&oacute;n s de acuerdo al mapa.</font></p>       <p align="justify"><font face="verdana" size="2">I(s)     es   la   clase   de   s   obtenida   por   el resultado del an&aacute;lisis de imagen.</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">Cada  una de  las  regiones  de  la  imagen  debe relacionarse con su vecindad. Supongamos que s' es una regi&oacute;n en la vecindad de la regi&oacute;n s, y d(s, s') la distancia euclidiana entre s y s' <a href="#f4">(Figura 4)</a>.</font></p>     <p align="center"><font face="verdana" size="2"><a name="f4"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02f4.jpg"></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">entonces se calculan las siguientes medidas</font></p>     <p align="justify"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02e9.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">y</font></p>     <p align="justify"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02e10.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">donde <img src="/img/revistas/iit/v7n1/a02s4.jpg"> es el indicador de funci&oacute;n.</font></p>     <p align="justify"><font face="verdana" size="2">El coeficiente a(s) es la suma de las regiones s' en el mapa, que pertenecen a la misma clase a la que corresponde la regi&oacute;n que se est&aacute; analizando. Cada una de estas regiones se divide entre la distancia s, s'. El coeficiente b(s) es la suma de las regiones s' en la imagen que pertenecen a la misma clase a la que corresponde la regi&oacute;n que se est&aacute; analizando en la imagen. Cada una de estas regiones se di vide entre la distancia s, s'.</font></p>     <p align="justify"><font face="verdana" size="2">Una vez obtenidos los coeficientes a(s) y b(s), se calcula el error local para cada regi&oacute;n. Este error se de fine por la siguiente expresi&oacute;n:</font></p>     <p align="justify"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02e11.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">donde X<sub>l l</sub> es un error llamado de riesgo, que se obtiene cuando la regi&oacute;n que se est&aacute; analizando tanto en la imagen como en el mapa, pertenece a clases distintas. En caso de que la regi&oacute;n analizada pertenezca a la misma clase, tanto en la imagen como en el mapa, este error es cero.</font></p>     <p align="justify"><font face="verdana" size="2">Los valores que puede tomar <i>X<sub>li,lj</sub></i> para el caso binario son los siguientes:</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><i>X<sub>li,lj</sub></i>=20, si la regi&oacute;n analizada en el mapa pertenece a la clase 1 y la regi&oacute;n analizada en la imagen es de clase 2.</font></p>     <p align="justify"><font face="verdana" size="2"><i>X<sub>li,lj</sub></i>=0, si la regi&oacute;n analizada en el mapa pertenece a  la misma clase que  la regi&oacute;n analizada en la imagen.</font></p>     <p align="justify"><font face="verdana" size="2"><i>X<sub>li,lj</sub></i>=1, si la regi&oacute;n analizada en el mapa pertenece a la clase 2 y la regi&oacute;n analizada en la imagen es de clase 1.</font></p>     <p align="justify"><font face="verdana" size="2">r es una constante que para el caso binario es igual a 2, que indica que la informaci&oacute;n que brinda el mapa sobre la escena es m&aacute;s confiable que la informaci&oacute;n que proporciona la imagen.</font></p>     <p align="justify"><font face="verdana" size="2">Despu&eacute;s de calcular el error local para cada regi&oacute;n de la imagen se obtiene el coeficiente de confiabilidad, mediante la siguiente expresi&oacute;n:</font></p>     <p align="justify"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02e12.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">Donde el denominador se obtiene sumando los valores que toma <i>X<sub>li,lj</sub></i>, y que son 20, 1 y 0, por lo tanto, el resultado es 21.</font></p>     <p align="justify"><font face="verdana" size="2">Una vez obtenidos los coeficientes de confiabilidad, se realiza el proceso de fusi&oacute;n, aplicando la siguiente expresi&oacute;n:</font></p>     <p align="justify"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02e13.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">Donde p es el n&uacute;mero de im&aacute;genes a fusionar. Esta ecuaci&oacute;n nos dice que debemos analizar la pertenencia de cada regi&oacute;n sobre el conjunto de clases.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02e14.jpg"></font></p>     <p align="justify"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02e15.jpg"></font></p>     <p align="justify"><font face="verdana" size="2">Si una regi&oacute;n de la imagen 1 pertenece a la clase 1, entonces su coeficiente de confiabilidad se acumular&aacute; en l<sub>1</sub>(s). Si para la misma regi&oacute;n en la imagen 2 pertenece a la clase uno, entonces su coeficiente de confiabilidad se sumar&aacute; al valor acumulado en l<sub>1</sub>(s). Pero si esta regi&oacute;n pertenece a la clase 2, su coeficiente de confiabilidad se acumular&aacute; en l<sub>2</sub>(s).</font></p>     <p align="justify"><font face="verdana" size="2">Finalmente, la regi&oacute;n analizada pertenecer&aacute; a la clase que tenga  la  mayor acumulaci&oacute;n  de  los coeficientes de confiabilidad. De esta manera y repitiendo el proceso anterior se obtiene la fusi&oacute;n deseada.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Esquema propuesto: fusi&oacute;n multiclases</b></font></p>     <p align="justify"><font face="verdana" size="2">El m&eacute;todo que se propone en este art&iacute;culo realiza fusi&oacute;n multiclases. Los valores de las variables propuestas son los mismos que se utilizaron en el caso binario, es decir:</font></p>     <blockquote>       <p align="justify"><font face="verdana" size="2">p = 3</font></p>       <p align="justify"><font face="verdana" size="2">r = 2,</font></p>       ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><i>X<sub>li,lj</sub></i>=20,    <i>X<sub>li,lj</sub></i>=1, <i>X<sub>li,lj</sub></i>=0</font></p> </blockquote>     <p align="justify"><font face="verdana" size="2">De acuerdo a una inspecci&oacute;n visual, tres clases eran suficientes al prop&oacute;sito del presente art&iacute;culo, ellas son: clase urbana con niveles de gris muy blancos o clase A, clase urbana opaca o clase B y clase no urbana o clase C. Con base en la fusi&oacute;n binaria se generan 3 pares de clases a analizar, que son: A y B, B y C, finalmente A y C.</font></p>     <p align="justify"><font face="verdana" size="2">La clase 1 siempre ser&aacute; el valor de nivel de gris m&aacute;s bajo. Con esta consideraci&oacute;n se calculan las a(s) y b(s) correspondientes y despu&eacute;s se obtiene <i>X<sub>li,lj</sub></i>, E(s), y el coeficiente de confiabilidad para cada imagen. Al igual que en el caso binario, la regi&oacute;n analizada pertenecer&aacute; a la clase con mayor coeficiente de confiabilidad.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Resultados</b></font></p>     <p align="justify"><font face="verdana" size="2">Se muestran a continuaci&oacute;n resultados del proceso descrito de segmentaci&oacute;n y clasificaci&oacute;n. Los descriptores de textura utilizados son autocorrelaci&oacute;n, entrop&iacute;a y m&aacute;xima probabilidad. Correspondiendo a una zona en la cercan&iacute;a de la pir&aacute;mide de Cuicuilco, la <a href="#f5">figura 5</a> muestra la imagen pancrom&aacute;tica de prueba con un rango de 256 niveles de gris. Las <a href="#f6">figuras 6</a> <a href="#f8">a 8</a> <a href="#f6">(6,</a> <a href="#f7">7,</a> <a href="#f8">8)</a> muestran resultados de los operadores texturales empleados. Las figuras <a href="#f9">9</a> a <a href="#f14">14</a> <a href="#f9">(9,</a> <a href="#f10">10,</a> <a href="#f11">11,</a> <a href="#f12">12,</a> <a href="#f13">13,</a> <a href="#f14">14)</a> muestran los resultados de la segmentaci&oacute;n bayesiana aplicada a las im&aacute;genes de textura, as&iacute; como su homogeneizaci&oacute;n. La <a href="#f15">figura 15</a> muestra un mapa definido manualmente a partir de la imagen original que no debe ser preciso, pero que ayuda al proceso de fusi&oacute;n. La <a href="#f16">figura 16</a> muestra el resultado de la fusi&oacute;n y la <a href="/img/revistas/iit/v7n1/a02f17.jpg" target="_blank">figura 17</a> muestra ventanas de 100x100 pixeles que comparan la imagen original con los resultados de segmentaci&oacute;n mediante un esquema cl&aacute;sico de k&#150;medias y por el esquema propuesto de fusi&oacute;n.</font></p>     <p align="center"><font face="verdana" size="2"><a name="f5"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02f5.jpg"></font></p>     <p align="center"><font face="verdana" size="2"><a name="f6"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02f6.jpg"></font></p>     ]]></body>
<body><![CDATA[<p align="center"><font face="verdana" size="2"><a name="f7"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02f7.jpg"></font></p>     <p align="center"><font face="verdana" size="2"><a name="f8"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02f8.jpg"></font></p>     <p align="center"><font face="verdana" size="2"><a name="f9"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02f9.jpg"></font></p>     <p align="center"><font face="verdana" size="2"><a name="f10"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02f10.jpg"></font></p>     <p align="center"><font face="verdana" size="2"><a name="f11"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02f11.jpg"></font></p>     ]]></body>
<body><![CDATA[<p align="center"><font face="verdana" size="2"><a name="f12"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02f12.jpg"></font></p>     <p align="center"><font face="verdana" size="2"><a name="f13"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02f13.jpg"></font></p>     <p align="center"><font face="verdana" size="2"><a name="f14"></a></font></p>     <p align="center"><font face="verdana" size="2"><img src="/img/revistas/iit/v7n1/a02f14.jpg"></font></p>     <p align="center"><font face="verdana" size="2"><a name="f15"></a></font></p>     <p align="center"><font face="verdana" size="2"><b>Mapa brudo y fusi&oacute;n de los resultados previos de segmentaci&oacute;n </b></font></p>     <p align="center"><font face="verdana" size="2"><b><img src="/img/revistas/iit/v7n1/a02f15.jpg"></b></font></p>     <p align="center"><font face="verdana" size="2"><b><a name="f16"></a></b></font></p>     ]]></body>
<body><![CDATA[<p align="center"><font face="verdana" size="2"><b><img src="/img/revistas/iit/v7n1/a02f16.jpg"></b></font></p>     <p align="justify"><font face="verdana" size="2">Como se puede observar, los descriptores obtenidos utilizando operadores estad&iacute;sticos de segundo orden ayudan a distinguir las diferencias de textura en regiones urbanas, tales como los contornos de calles y casas. Despu&eacute;s de realizar el proceso de segmentaci&oacute;n, clasificaci&oacute;n y homogeneizaci&oacute;n, observamos que los descriptores de entrop&iacute;a y m&aacute;xima probabilidad, nos brindan informaci&oacute;n m&aacute;s precisa sobre la distribuci&oacute;n de la escena. La vegetaci&oacute;n queda definida por la clase urbana opaca, los techos opacos urbanos y las calles quedan definidos dentro de la clase no urbana, y los techos blancos dentro de la clase urbana con niveles de gris muy blancos. Despu&eacute;s, al realizar el proceso de fusi&oacute;n multiclases, podemos observar que la imagen resultante nos brinda informaci&oacute;n sobre tres elementos de la escena y se&ntilde;ala con claridad los contornos de los techos y de las calles. Con este resultado se puede realizar un mapa tem&aacute;tico de esa zona de la Ciudad de M&eacute;xico.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Conclusiones</b></font></p>     <p align="justify"><font face="verdana" size="2">Los datos obtenidos por la percepci&oacute;n remota satelital dan la visi&oacute;n sin&oacute;ptica requerida por la amplia escala de estudios de planificaci&oacute;n para el desarrollo integrado. Los datos que se obtienen mediante la percepci&oacute;n remota a&eacute;rea son &uacute;tiles; por ejemplo, para la visualizaci&oacute;n y valoraci&oacute;n de desastres naturales, enfocando &aacute;reas prioritarias y proporcionando informaci&oacute;n de datos a peque&ntilde;a escala. En este trabajo, se implement&oacute; un esquema estad&iacute;stico para la segmentaci&oacute;n y clasificaci&oacute;n de fotograf&iacute;a a&eacute;rea de alta resoluci&oacute;n. Para lograrlo, se utilizaron representaciones de funciones conjuntas de densidad orientadas al an&aacute;lisis de texturas. Tambi&eacute;n se definieron etapas de segmentaci&oacute;n y clasificaci&oacute;n bayesiana m&aacute;ximo a posteriori, as&iacute; como una t&eacute;cnica de fusi&oacute;n de datos. En esta &uacute;ltima etapa se propuso un m&eacute;todo de fusi&oacute;n multiclases, partiendo de un m&eacute;todo de fusi&oacute;n binaria.</font></p>     <p align="justify"><font face="verdana" size="2">Con base en los resultados obtenidos, se puede decir que el m&eacute;todo propuesto funciona adecuadamente, ya que la imagen resultante qued&oacute; divida en tres clases, dos de ellas urbanas y una tercera no urbana. Consideramos que este trabajo puede servir para derivar mayor informaci&oacute;n sobre elementos de escenas, y con esto lograr un mejor an&aacute;lisis y planificaci&oacute;n de las zonas urbanas.</font></p>     <p align="justify"><font face="verdana" size="2">Etapas posteriores del  presente trabajo consideran la realizaci&oacute;n m&aacute;s autom&aacute;tica de mapas tem&aacute;ticos y la evaluaci&oacute;n de la din&aacute;mica urbana.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Agradecimientos</b></font></p>     <p align="justify"><font face="verdana" size="2">El presente trabajo fue parcialmente financiado por el CONACYT, M&eacute;xico.</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Referencias</b></font></p>     <!-- ref --><p align="justify"><font face="verdana" size="2">Clausi D.A. y Zhao Y.    <i>Rapid Extraction of Image Texture by Co&#150;Occurrence Using a Hybrid Data Structure</i>.   Department  of Systems  Design Engineering, University of Waterloo, <a href="http://www.elsevier.com/gej-ng/10/13/38/73/57/30/abstract.html" target="_blank">http://www.elsevier.com/gej&#150;ng/10/13/38/73/57/30/abstract.html</a>.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4232749&pid=S1405-7743200600010000200001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Cossu R. (1998). Segmentation by Means of Textural Analysis. Pixel, Vol. 1, No. 2, pp. 21&#150;24.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4232750&pid=S1405-7743200600010000200002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Ecole&nbsp;Nationale&nbsp;Sup&eacute;rieure des T&eacute;l&eacute;communications (2004).   <i>Le   Traitement des Images</i>, Tome 2, Sep.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4232751&pid=S1405-7743200600010000200003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Evaluation of Second&#150;Order Texture Parameters for Sea Ice Classification from Radar Images (1991). J. <i>Geophys</i>. Res, Vol. 96, No. 6, pp. 10625&#150;10640.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4232752&pid=S1405-7743200600010000200004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Haralick R.M., Shanmugam K. and Dinstein I. (1973). Texture Features for image Classification. IEEE <i>Trans on Syst. Man Cybern.</i>, Vol. 3, pp. 610&#150;621, Nov.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4232753&pid=S1405-7743200600010000200005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Julesz B. (1971).  <i>Foundations of Cyclopean Perception.</i>   The    University   of   Chicago   Press, Chicago.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4232754&pid=S1405-7743200600010000200006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p align="justify"><font face="verdana" size="2">Shan&#150;YU. (1995). <i>Improving Satellite Image Analysis Quality by Data Fusion.</i> IEEE IGARSS'95, Firenze, It., pp. 2164&#150;2166.</font>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4232755&pid=S1405-7743200600010000200007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font face="verdana" size="2"><b>Bibliograf&iacute;a sugerida</b></font></p>     <p align="justify"><font face="verdana" size="2">Baraldi A. and Parmiggiani F. (1995). An Investi gation of the Textural Characteristics Associated with Gray Level Cooccurrence Matrix Statistical Param e ters. IEEE <i>Trans. Geosci. Remote Sensing,</i> Vol. 33, No. 2, pp. 293&#150;304, March.</font></p>     <p align="justify"><font face="verdana" size="2">Fern&aacute;ndez&#150;Aguirre E. (2002). An&aacute;lisis y clasificaci&oacute;n <i>semi&#150;autom&aacute;tica de escenas urbanas del Distrito Federal</i>. Facultad de Ingenier&iacute;a, UNAM, M&eacute;xico, DF.</font></p>     <p align="justify"><font face="verdana" size="2"><a href="http://www.teledet.com.uy/quees.htm" target="_blank">http://www.teledet.com.uy/quees.htm</a></font></p>     <p align="justify"><font face="verdana" size="2">Morales D.I., Moctezuma M. and Parmiggiani F.  (2004).  Urban Edge Detection by Texture Analysis.<i> IEEE International Geoscience&nbsp;and     Remote     Sensing</i>,      IGARSS      2004, Anchorage Alaska, Vol. 6, pp. 3826&#150;3828, 20&#150;24, Sept.</font></p>     <p align="justify"><font face="verdana" size="2">&nbsp;</font></p>     <p align="justify"><font face="verdana" size="2"><b>Semblanza de los autores</b></font></p>     <p align="justify"><font face="verdana" size="2"><i>Marlene Rodr&iacute;guez&#150;Cruz.</i> Se gradu&oacute; como ingeniera en telecomunicaciones por la Facultad de Ingenier&iacute;a de la UNAM en abril de 2004, con un estudio sobre el an&aacute;lisis bayesiano y la fusi&oacute;n de datos para la clasificaci&oacute;n de im&aacute;genes de percepci&oacute;n remota. Actualmente es analista de ingenier&iacute;a de tr&aacute;fico y evaluaci&oacute;n del desempe&ntilde;o de regi&oacute;n 9 en TELCEL.</font></p>     <p align="justify"><font face="verdana" size="2"><i>Miguel Moctezuma&#150;Flores.</i> Es ingeniero mec&aacute;nico&#150;electricista por la Facultad de Ingenier&iacute;a de la UNAM, donde tambi&eacute;n realiz&oacute; una maestr&iacute;a en ingenier&iacute;a el&eacute;ctrica. Asimismo, finaliz&oacute; una maestr&iacute;a en procesamiento de se&ntilde;ales e im&aacute;genes en la ENST&#150;Telecom Par&iacute;s, donde obtuvo tambi&eacute;n el doctorado en 1995. Ha dirigido diversos proyectos de investigaci&oacute;n nacionales e internacionales y es autor de m&aacute;s de 20 art&iacute;culos internacionales en el &aacute;rea. Actualmente se desempe&ntilde;a como profesor de tiempo completo en la DIE&#150;FI, UNAM.</font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Clausi]]></surname>
<given-names><![CDATA[D.A.]]></given-names>
</name>
<name>
<surname><![CDATA[Zhao]]></surname>
<given-names><![CDATA[Y.]]></given-names>
</name>
</person-group>
<source><![CDATA[Rapid Extraction of Image Texture by Co-Occurrence Using a Hybrid Data Structure]]></source>
<year></year>
<publisher-name><![CDATA[Department of Systems Design Engineering, University of Waterloo]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cossu]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Segmentation by Means of Textural Analysis]]></article-title>
<source><![CDATA[Pixel]]></source>
<year>1998</year>
<volume>1</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>21-24</page-range></nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="">
<collab>Ecole Nationale Supérieure des Télécommunications</collab>
<source><![CDATA[Le Traitement des Images]]></source>
<year>2004</year>
<volume>2</volume>
</nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="journal">
<article-title xml:lang="en"><![CDATA[Evaluation of Second-Order Texture Parameters for Sea Ice Classification from Radar Images]]></article-title>
<source><![CDATA[J. Geophys. Res]]></source>
<year>1991</year>
<volume>96</volume>
<numero>6</numero>
<issue>6</issue>
<page-range>10625-10640</page-range></nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Haralick]]></surname>
<given-names><![CDATA[R.M.]]></given-names>
</name>
<name>
<surname><![CDATA[Shanmugam]]></surname>
<given-names><![CDATA[K.]]></given-names>
</name>
<name>
<surname><![CDATA[Dinstein]]></surname>
<given-names><![CDATA[I.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Texture Features for image Classification]]></article-title>
<source><![CDATA[IEEE Trans on Syst. Man Cybern.]]></source>
<year>1973</year>
<volume>3</volume>
<page-range>610-621</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Julesz]]></surname>
<given-names><![CDATA[B.]]></given-names>
</name>
</person-group>
<source><![CDATA[Foundations of Cyclopean Perception]]></source>
<year>1971</year>
<publisher-loc><![CDATA[Chicago ]]></publisher-loc>
<publisher-name><![CDATA[The University of Chicago Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Shan]]></surname>
<given-names><![CDATA[YU]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Improving Satellite Image Analysis Quality by Data Fusion]]></article-title>
<source><![CDATA[]]></source>
<year>1995</year>
<conf-name><![CDATA[ IEEE IGARSS'95]]></conf-name>
<conf-loc>Firenze </conf-loc>
<page-range>2164-2166</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
