SciELO - Scientific Electronic Library Online

 
vol.20 issue4Delaunay Triangulation Validation Using Conformal Geometric AlgebraChallenges of Cyber Law in Mexico author indexsubject indexsearch form
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • Have no similar articlesSimilars in SciELO

Share


Computación y Sistemas

Print version ISSN 1405-5546

Comp. y Sist. vol.20 n.4 México Oct./Dec. 2016

http://dx.doi.org/10.13053/cys-20-4-2429 

Regular Articles

Reconocimiento de clases de aeronaves con base en patrones del ruido en el despegue

Aircraft Class Recognition based on Take-off Noise Patterns

Luis Alejandro Sánchez Pérez1 

Luis Pastor Sánchez-Fernández1 

Sergio Suarez-Guerra1 

1Instituto Politécnico Nacional, Centro de Investigación en Computación, Ciudad de México, México. l.alejandro.2011 @gmail.com, lsanchez@cic.ipn.mx, ssuarez@cic.ipn.mx.

Resumen

En este trabajo se examina el reconocimiento de la clase de aeronaves a partir de patrones del ruido en el despegue. Se analiza la segmentación de la señal en tiempo y el uso de una red neuronal MLP por cada segmento. Asimismo, se examinan varios algoritmos de decisión por comité para la agregación de las múltiples salidas de los clasificadores paralelos, así como la extracción y selección de características con base en el análisis del espectro del ruido de aeronaves. Por otro lado, se explora un método para estimar la trayectoria georreferenciada durante el despegue únicamente a partir de la señal. La metodología y los resultados están sustentados en la literatura actual.

Palabras clave: Ruido en aeropuertos; clasificación de aeronaves; segmentación de la señal; redes neuronales

Abstract

In this work the aircraft class recognition of based on take-off noise patterns is examined. Signal segmentation in time is analyzed as well as using a MLP neural network as the classifier for each segment. Also, several algorithms for decision by committee in order to aggregate the multiple parallel outputs of the classifiers are examined along with feature extraction and selection based on spectrum analysis of the aircraft noise. Also, a method for georeferenced estimation of the take-off flight path based only on the noise signal is explored. The methodology and results are sustained in the current literature.

Keywords: Airport noise, aircraft class recognition, signal segmentation; neural network

1. Introducción

El ruido en aeropuertos es una preocupación importante en las sociedades modernas. La extensión así como la cantidad de aeropuertos que están siendo construidos es cada vez mayor, con el fin de poder manejar el tráfico aéreo en crecimiento 1-3. En este sentido, mucho esfuerzo se ha realizado para abordar el problema del ruido. Las principales áreas donde se viene trabajando para lograr mejoras en el entorno acústico de los aeropuertos son la reducción en la fuente, la planificación y gestión del uso del suelo, los procedimientos operativos de reducción y las restricciones de operación 4.

La clave en relación con los esfuerzos anteriores es la identificación de un problema de ruido en el aeropuerto 4. En general existen dos técnicas para evaluar la situación sonora, que son medir o estimar los niveles de ruido en ubicaciones alrededor del aeropuerto. Por un lado, se han definido varios métodos para calcular las curvas de ruido alrededor de los aeropuertos 5-9. Una curva de ruido es una línea de valor constante que representa el promedio durante largos períodos de tiempo calculado con base en un día común en el año. Por otra parte, el monitoreo permanente del ruido y las operaciones de aeronaves en las proximidades de los aeropuertos se ha convertido en una práctica común 10-12. En estos casos, las señales registradas en cada evento se utilizan solamente para el cálculo de algunos indicadores estadísticos, tales como el nivel sonoro continuo equivalente.

La condición sonora de los puntos en tierra debido a las aeronaves que vuelan hacia y desde un aeropuerto depende de una serie de factores. Entre ellos, la clase de aeronave que usa el aeropuerto es el más importante, cuando se lleva a cabo una evaluación o acción en particular 4. Por ejemplo, todas las aeronaves que aterrizan o despegan del Ronald Regan National Airport después de las 9:59 pm y antes de las 7:00 am están sujetas a la regulación DCA Night-time Noise Rule impuesta por la Metropolitan Washington Airports Authority 13.

En este sentido y a fin de extraer mayor información de las señales registradas, se propone el reconocimiento de la clase de aeronave a partir de patrones del ruido en el despegue con base en la segmentación de las señales, así como la estimación de la trayectoria georreferenciada, añadiendo así potencialidad y robustez en el monitoreo y evaluación sin excluir la posibilidad de validación a partir de múltiples fuentes de información.

2. Reconocimiento de la clase de aeronave usando segmentación en tiempo

El espectro del ruido de las aeronaves cambia en amplitud y frecuencia durante un despegue debido a múltiples factores. La señal muestreada x(t) en un punto receptor puede ser definida de acuerdo a (1), donde Aij es la amplitud, wj, es la frecuencia y φj es la fase. La señal x(t) puede ser representada con matrices como se muestra en la Eq. (2), donde cada fila denota un lapso de tiempo disjunto mientras que cada columna define una componente de frecuencia como se muestra en la Eq. 1 y 2:

xt=A11cosw1t+φ1A21cosw1t+φ1Am1cosw1t+φ1++A1ncoswnt+φnA2ncoswnt+φnAmncoswnt+φn,0tt1,t1<tt2,tm-1<ttm (1)

cualquier frecuencia puede o no estar presente si la amplitud relativa Aij es despreciable o no:

X=A11A1nA21A2nAm1Amn×cosw1w2wn×t+φ1φ2φn (2)

Cada operación de despegue produce una combinación única de parámetros Aij, wj y φj, debido a muchos factores como la atenuación atmosférica 14,15, el efecto Doppler y otras cuestiones inherentes al ruido de las aeronaves como el mecanismo de generación de ruido que tiene direccionalidad variable 16 y la atenuación lateral 17, 18. Una revisión completa está disponible en 19. Este fenómeno se ilustra en la Fig. usando espectrogramas. Las áreas azules denotan frecuencias despreciables mientras que las áreas rojas representan las significativas.

Fig. 1 Espectrograma de dos señales de ruido de aeronaves muestreadas a 25 kHz: (a) ATR 42-500, (b) Boeing 737-200 

Más aún, la distribución en tiempo de las componentes de frecuencia es diferente en cada espectrograma.

Varios métodos han sido propuestos para identificar la clase de aeronave que despega usando rasgos del espectro de la señal 20-23.

Todos ellos usan la señal completa como entrada principal para la extracción de rasgos. Sin embargo, la señal del ruido de las aeronaves es un proceso no estacionario que conlleva a la variación del espectro durante el despegue. Por lo tanto, al usar la señal completa se pudiera enmascarar ciertos rasgos temporales que solo están presentes durante un corto período de tiempo durante el despegue. En esta sección se propone un modelo computacional para identificar las clases de aeronaves con base en la extracción selectiva de rasgos a partir de diferentes segmentos de la señal.

2.1. Segmentación de la señal en tiempo

La segmentación en el tiempo implica definir un punto común para todas las señales, a partir del cual se pueda extraer los segmentos. En esta sección, dicho punto es nombrado Tmid e intenta representar la posición de la aeronave respecto al punto de medición más cercana durante el despegue. Encontrar este punto no es un problema trivial ya que no se cuenta con información espacial. Varios métodos conocidos son evaluados con el objetivo de hallar Tmid, tales como el máximo de amplitud, el máximo de energía y el centro de masa 24. Todos generan resultados erróneos en un porcentaje significativo de las mediciones, lo que se discute a detalles en 19.

En esta sección se propone un algoritmo para estimar Tmid utilizando la energía y el cruce por cero, como se muestra en la Fig. 2.

Fig. 2 Algoritmo para calcular Tmid  

El punto Tmid es definido como el instante de tiempo correspondiente al máximo local, superior o igual al 0.85[ max E(q)] con el mayor valor Z(q), donde E(q) es el perfil de la energía calculado usando (3) y Z(q) es el perfil de cruce de ceros obtenido mediante la Eq. (4 y 5):

Eq=x=nn+SEyx2 , (3)

Fx= 1,signyxsignyx+1 0,otherwise ,Zq=x=nn+SE-1Fx , (4)

q | q=1,2,,N-SESE1-OSE/100,n=q-1SE1-OSE100, (5)

donde q denota un fragmento de la señal y(x), SE representa que la longitud del fragmento q, N denota la longitud de la señal, sign [ ] simboliza el operador signo, OSE indica el porcentaje de solapamiento, y [ ] denota el entero menor más cercano.

En esta sección se usan los siguientes valores: SE = 200 ms, OSE= 20% y 0.85[maxE(k)], como umbral.

La ubicación de los segmentos se determina de la siguiente manera: si el número de segmentos (Nf) es par, se seleccionan Nf/2 segmentos del mismo tamaño a cada lado de Tmid, si Nf es impar, entonces se seleccionan (Nf - 1)/2 + 1 segmentos delante de Tmid y (Nf - 1)/2 detrás de Tmid. La Fig. 3 muestra las ubicaciones de cuatro segmentos extraídos para dos señales diferentes.

Fig. 3 Ubicación de los segmentos: (a) Fokker F100, (b) Airbus A320 

2.2. Extracción de rasgos

Dado que la frecuencia de muestreo es de 25 kHz, el rango espectral es 12 kHz (Fs/2). Además, como la longitud de los segmentos es de 2s, se tienen 50000 muestras en cada segmento. Consecuentemente, la precisión espectral es de 0.5 (Fs/N) y la longitud del espectro es 25000 puntos. A fin de hacer la clasificación computacionalmente aceptable, se debe realizar una reducción dimensional.

Los coeficientes LPC se obtienen mediante el análisis de predicción lineal 25. En general, estos coeficientes se utilizan para describir el tracto vocal como un filtro IIR (Respuesta Infinita al Impulso). Este filtro puede ser descrito usando la Eq. (6):

Hsz=1A(z)= 11+i=1raiz-i. (6)

Las técnicas que usan coeficientes LPC están fuertemente relacionadas con la idea de un codificador de voz mediante la simulación del tracto vocal humano 26-28. Sin embargo, estos también han sido usados para representar la envolvente del espectro de frecuencia de una señal y lograr una reducción dimensional del mismo 21, 22. El procedimiento de selección de rasgos hasta la obtención de los conjuntos de patrones X1, X2, X3 y X4 se muestra en la Fig. 4, (Refiérase a 19 para más detalles).

Fig. 4 Procedimiento de extracción de rasgos selectivo 

Con el objetivo de mejorar la clasificación es necesario qué rasgos son redundantes o irrelevantes. En esta sección se utiliza el método de selección de rasgos para redes neuronales MLP propuesto por 29. Este utiliza un criterio s^Pj para medir la importancia del rasgo jth.

El criterio s^Pj puede ser usado con eliminación recursiva (RFE, por sus siglas en inglés). En este enfoque se elimina el rasgo menos importante (menor s^Pj), de manera recursiva por medio de entrenamientos sucesivos de la red neuronal MLP. Este método en conjunto, denominado MLP-FSPP-RFE, es menos costoso computacionalmente y generalmente provee mejores resultados que otros métodos 29.

En esta sección, se aplica el método de selección de rasgos MLP-FSPP-RFE para cada segmento. En una iteración, la red neuronal correspondiente al segmento analizado se entrena 10 veces y se pone a prueba con 39 patrones (3 para cada clase), obteniéndose así el error de prueba. La red con el error de prueba más bajo se selecciona para calcular s^Pj. Luego, se eliminan los 5 rasgos menos importantes. El algoritmo se detiene cuando no se observa un claro avance con más eliminaciones. Cada red neuronal tiene una capa oculta de 30 neuronas (ninguna mejora significativa se consigue variando este número en el intervalo 25-45). La función de activación de la capa oculta y de salida es la función tangente hiperbólica. Las clases y la distribución de los patrones entre los conjuntos de entrenamiento, validación y prueba, se muestran en la Tabla 1. Para un análisis detallado de los resultados refiérase a 19.

Tabla 1 Clases y Distribución de Patrones entre Conjuntos de Entrenamiento, Validación y Prueba 

Clases de aeronave (Etiqueta en el modelo) Conjuntos de patrones Entrenamiento/ Validación/ Prueba
A320 1 (A320 1) 08/03/2005
A320 2 (A320 2) 08/03/2006
A320 3 (A320 3) 08/03/2006
A320, B737-800 (A320_B737-800) 08/03/2007
ATR-42 (ATR-42) 08/03/2003
B737-100, B737-200 (B737-1/200) 08/03/2011
B737-600, B737-700 (B737-6/700) 08/03/2009
B747-400 (B747-400) 08/03/2004
F100 (F100) 08/03/2006
F100 2 (F100 2) 08/03/2006
F100, B737-200 (F100 B737-200) 08/03/2003
F100, B737-200 2 (F100 B737-200 2) 08/03/2004
MD87, MD88 (MD) 08/03/2009
TOTAL 104/39/79

2.3. Modelo computacional

Dado que cada red neuronal genera una salida, se necesita un modelo que tome ventaja de estas múltiples respuestas. En esta sección se propone un nuevo modelo computacional que mejora la clasificación por medio de cuatro redes neuronales con diferentes rangos de acuerdo a su desempeño, las cuales interactúan como en un sistema de votación. La Fig. 5 muestra la topología del modelo computacional.

Fig. 5 Topología del modelo computacional 

Cada red neuronal tiene un rango Ir∈{1,2,3,4}, relacionado con su rendimiento durante el entrenamiento y calculado con (7). El subíndice r no está asociada con el número del segmento y cada rango Ir debe cumplir con (8), de modo que NNI1 es la red con el rango más bajo (I1), mientras que NNI4 es la red con el rango más alto (I4):

Ir=1-error de validación de la red NNIr , (7)

I1I2I3I4. (8)

Cada salida ONNIr de la red NNIr se pondera en relación con su rango (Ir ) por un factor ar asociado con las dos salidas ponderadas anteriores Fr-2 y Fr-1. Los valores de a3 y a4 se calculan mediante (9), mientras que α1 = α2 = 0 porque no existen dos salidas previas en ningún caso:

α3=α4=I4-I1*2. (9)

Además, los valores a3 y a4 se actualizan de acuerdo a las siguientes reglas:

Si  argmaxF1=argmaxF2,entonces: α3=-α3;Si argmaxF2=argmaxF3,entonces: α4=-α4,

cuando ar ≠ 0, lo que se busca es aumentar la importancia de la salidas de la red NNIr cuando las clases identificadas por las redes neuronales NNIr-2 y NNIr-1 difieren y se disminuye la importancia cuando las clases identificadas son iguales.

2.4. Resultados y discusión

La base de datos introducida en 22, es usada para entrenar las redes neuronales y probar el modelo computacional. Por lo tanto, se utilizaron 143 señales para entrenamiento y 79 para prueba. En resumen, el modelo propuesto en esta sección se desempeña mejor que los modelos existentes, reduciendo el número de errores del 9/79 a 4/79. Esta mejora está relacionada fundamentalmente con dos factores. En primer lugar, el proceso de selección de rasgos mejora el desempeño individual de la red neuronal de cada segmento. En segundo lugar, el modelo se beneficia de múltiples respuestas. Ambos factores son posibles debido a la segmentación de la señal que se propone en esta sección, la cual permite extraer información relevante de la frecuencia con respecto al tiempo, lo cual no se había realizado, incluso para el seguimiento continuo de la similitud del ruido de entrada y los sonidos de las aeronaves 30.

Además, se realizaron mediciones en cuatro días distintos con el fin de probar el modelo computacional en tiempo real. En total, 83 mediciones de despegue se clasificaron en tiempo real bajo diferentes condiciones climáticas (con excepción de lluvia) y diversos ruidos ambientales, como aves, aeronaves rodando, ladridos, entre otros. La efectividad mínima obtenida es del 85%, al menos un 5% superior a la reportada en 22.

3. Agregación jerárquica dinámica de salidas paralelas

El modelo propuesto en la sección anterior demuestra que la extracción de rasgos de segmentos adyacentes de la señal de ruido en el despegue aumenta el porcentaje de reconocimiento que al usar toda la señal. La motivación para la segmentación surge de considerar el ruido de las aeronaves en el despegue como un proceso no estacionario con espectro dinámico. El objetivo es dividir la señal en K segmentos con características espectrales diferentes. En este sentido, el modelo propuesto en la Sección 2.3 utiliza una red NNk por cada segmento k y rasgos basados en los LPC.

Por otra parte, en 23, se evalúan concurrentemente rasgos extraídos a partir de los MFCC y bandas de 1/24 de octava evaluados por dos redes paralelas. En ambos modelos se define un algoritmo de agregación para ponderar las múltiples salidas producidas por las redes. En la Sección 2 la agregación se basa en una ponderación dinámica de la salida Opk con respecto a la clase p de la red neuronal NNk , la cual es entrenada para reconocer rasgos extraídos del segmento k. Sin embargo, el peso wpk para la salida Opk es el mismo para todas las clases de aeronaves p = 1,2, ..., P.

Por otra parte, la agregación propuesta en 23 se realiza con base en la suma ponderada kwpkOpk. Sin embargo, el peso wpk es estático y no cambia según el contexto (en este caso, k representa el tipo de rasgos utilizado: MFCC u octavas). Más aún, los métodos de agregación anteriores no están diseñados para contrarrestar la salida del mejor clasificador individual con respecto a la clase p, cuando este regresa un falso positivo para esa misma clase p.

Además, wpk se establece teniendo en cuenta únicamente los verdaderos positivos con respecto a la clase p.

En esta sección se define un modelo para la identificación de la clase p con base en la agregación jerárquica dinámica de las salidas Opk de redes neuronales paralelas 31. El modelo pondera dinámicamente cada salida Opk de la red neuronal NNk con respecto a la clase p usando una jerarquía de las redes neuronales. La jerarquía se determina con base a un criterio de ordenamiento definido específicamente para cada clase de acuerdo al desempeño durante el entrenamiento. El criterio de ordenamiento utiliza la métrica Fβ que combina la precisión y exhaustividad ("precision and recall”) de la red neuronal NNk con respecto a cada clase p.

3.1. Definición analítica del modelo de la sección 2

El modelo de la Sección 2 propone una red NNk para cada segmento de señal k.

Dicho modelo propone la ponderación jerárquica dinámica de las salidas Opk de acuerdo con (10) y (11). La etiqueta prevista o nombre de la clase reconocida dada una entrada {x1,..,xK}, se determina una vez que la red NNk ha evaluado el patrón xk, resultando en la salida Opk, la cual se pondera de forma dinámica usando wk+ f(k). El valor de wk se calcula usando (12), con base en el error de validación ek de la red NNk, durante la fase de entrenamiento, mientras que la función f(k) devuelve un factor de ajuste αk, de acuerdo a las salidas de las dos redes neuronales de menor rango anteriores Opi|r(i)=r(k)-2 y Opj|rj=r(k)-1. El valor de αk se calcula usando (13). Además, el vector rk representa los rangos de las redes neuronales NNk| k = 1, 2,..., K de acuerdo a los pesos wk| k = 1, 2,...,K de forma tal que rk contiene la posición ordenada de manera ascendente de wk como se muestra en (14) y (15). Por lo tanto, la componente rk denota el rango de la red neuronal NNk, de tal forma que un valor más alto indica una mayor importancia y en consecuencia un mayor rango:

yx1,,xK=argmaxp=1,2,,PO11O12O1KO21O22O2KOP1OP2Op=Pk=Kw1+f1w2+f2wk=K+fK×1/k=1Kwk+fk, (10)

fk=0,r(k)2αk, r(k)>2,argmaxp=1,2,,POpi|r(i)=r(k)-2argmaxp=1,2,,POpj|rj=r(k)-1,-αk,  otherwise, (11)

wk=1-ek, (12)

αk=2wi|r(i)=K-wj|rj=1, (13)

w1,w2,,wK | w1<w2<<wKr=1,2,,K, (14)

w1,w2,,wK | wK<wK-1<<w1r=K,K-1,,1. (15)

3.2. Modelo propuesto

En el algoritmo de agregación anterior las salidas Opk y Op+nk | nZ-01p+nP son ponderadas de igual forma puesto que el peso wk es el mismo, independientemente del desempeño de red neuronal NNk con respecto a la clase p o p + n, es decir, el error de validación epk de la red NNk con respecto a la clase p no se examina individualmente.

Más aún, el rendimiento de las redes neuronales NNk| k = 1, 2,..., K no se adhiere necesariamente a (16):

p+n | nZ-01p+nP, epk=ep+nk, (16)

en este sentido, cuando la red neuronal NNk tiene un buen rendimiento con respecto a la clase p pero pobre rendimiento en relación a la clase p + n, es decir, epk<ep+nk, las salidas Op+nk y Opk siguen siendo igualmente ponderadas, aun cuando epkep+nk. Por otra parte, dadas las redes neuronales NNk y NNk+m | m Є ℤ - {0} ∧ 1 ≤ k + mK, si wk > wk+m, pero epk>epk+m entonces la salida Opk sigue siendo más ponderada que Opk+m a pesar de que epk>epk+m.

3.2.1. Método de agregación

En esta sección, se propone una agregación con base en una jerarquía específica de las redes NNk| k = 1, 2,..., K por cada clase p. La etiqueta prevista para una entrada {x1,…, xK}, se calcula por medio de (17) y (18). La matriz de criterios de ordenamiento R = [P × K], establece el rango de las redes neuronales NNk | k = 1,2,..., K, con respecto a todas las clases p. El vector R(p) representa la fila p de la matriz R y contiene todos los rangos de las redes neuronales NNk| k = 1,2, ..., K con respecto a los pesos wp1,wp2,,wpK, de manera que R(p,k), es la posición ascendente ordenada del peso wpk como se muestra en la Eq. (19 y 20).

Por lo tanto, la componente R(p,k), indica el rango de la red neuronal NNk con respecto a la clase p de modo que un valor más alto indica una mayor importancia. La expresión diagv, denota la matriz cuadrada con v como diagonal y cero en cualquier otra componente. En este caso, el rango de la red neuronal NNk, con respecto a la clase p depende del peso wpk calculado con (21), teniendo en cuenta el error de validación epk de NNk con respecto a la clase p. El factor αpk devuelto por f(k, p) para ajustar wpk se calcula mediante (22):

yx1,,xK=argmaxp=1,2,,Pk=1KO1kO2kOPkT×diagw1kw2kwPk+diagfk,1fk,2fk,P×diag1/k=1Kw1k+fk,1w1k+fk,2wPk+fk,P, (17)

k,p =0,Rp,k2αpk, Rp,k>2,argmaxp=1,2,,POpi|Rp,i=Rp,k-2argmaxp=1,2,,POpj|Rp,j=Rp,k-1-αpk, otherwise (18)

wp1,wp2,,wpK | wp1<wp2<<wpKRp=1,2,,K, (19)

wp1,wp2,,wpK | wpK<wpK-1<<wp1Rp=K,K-1,,1, (20)

wpk=1-epk, (21)

αpk=2wpi|Rp,i=K-wpj|Rp,j=1, (22)

considerando R(p) = [1,2,..., K] y R(p+n) = [K, K - 1, …, 1] esto implica que la red neuronal NNk=1 es la de menor rango con respecto a la clase p dado que R(p, 1)= 1 (peso wpk más bajo) y la de más alto rango en cuanto a la clase p + n, dado que R(p+n,1)= K (peso wpk más alto).

Sin embargo, dado wpk está directamente relacionado con el error de validación epk, si el número de verdaderos positivos con respecto a la clase p es alto (es decir, epk es bajo y wpk es alto), pero el número de falsos positivos es alto también (examinando (21) los falsos positivos no están relacionados con epk o wpk), un valor incorrecto Opk de red neuronal NNk podrían ser también altamente ponderado por wpk. El problema anterior en relación con el peso wpk tiene un mayor impacto puesto que wpk no está relacionado con los falsos positivos obtenidos por la red neuronal NNk.

En este sentido, la matriz de confusión Ck = [P × P] dada en (23) representa el desempeño de la red neuronal NNk durante la etapa de validación e incluye verdaderos positivos cp,pk, falsos positivosci,pk| i1,2,,P-p y falsos negativos cp,jk| j1,2,,P-p, con respecto a la clase p. Usando la matriz Ck se pueden obtener dos medidas (exhaustividad y precisión). La exhaustividad η(p, k) representa el número de elementos pertenecientes a la clase p que son clasificados correctamente por la red neuronal NNk y se calcula utilizando (24). Vale la pena mencionar que la exhaustividad η(p, k) es igual a 1-epk. Por otro lado, la precisión φ(p, k) simboliza la fracción de elementos identificados por la red neuronal NNk como de la clase p que realmente pertenecen a la clase p y se determina con base en la Eq. (25):

Ck=c1,1kc1,2kc1,Pkc2,1kc2,2kc2,PkcP,1kcP,2kcP,Pk, (23)

ηp,k=cp,pkcp,pk+j1,2,,P-pcp,jk=1-epk, (24)

ϕp,k=cp,pkcp,pk+i1,2,,P-pci,pk  . (25)

Dado que η(p, k) = 1-epk entonces de acuerdo con la Eq. (21) wpk es igual a η(p, k), lo que significa que el peso wpk de la red neuronal NNk no está relacionado con la precisión φ(p, k), es decir, el número de elementos identificados por NNk como clase p que no pertenecen a la clase p no son considerados en el cálculo de wpk.

En este sentido, en esta sección se propone calcular wpk con base en la métrica Fβ de acuerdo con la Eq. (26-28). Usar Fβ permite que el peso wpk refleje la precisión de la red neuronal NNk con respecto a la clase p. Por otra parte, el factor β permite poner más énfasis en la precisión cuando β < 1 o en la exhaustividad cuando β > 1 como se muestra en la Fig. 6.

Fig. 6 Relación de la exhaustividad η(p, k), precisión ϕ(p, k) y la métrica Fβ con respecto a tres valores diferentes de β 

Cuando β = 1, la exhaustividad η(p, k) y la precisión φ(p, k) tienen influencia similar sobre la métrica Fβ tal como se muestra en la Figura 6b. Sin embargo, cuando β = 0.1, la métrica Fβ depende principalmente de la precisión φ(p, k), ya que cualquier variación de η(p, k) solo produce un ligero cambio en la métrica Fβ como se ilustra en la Fig. 6a. Lo opuesto sucede cuando se usa β = 10 como se demuestra en la Fig. 6c.

En consecuencia, ahora la jerarquía de las redes neuronales NNk | k = 1,2, ..., K con respecto a la clase p se define no solo con base en η(p, k) sino también con base en φ(p, k). De acuerdo con (26 y 28), los pesos wpk varían entre ε y uno. El término ε es un valor muy pequeño que se utiliza para evitar que la agregación sea cero, por ejemplo, cuando para una clase p, la expresión ∀k,φ(p, k) = 0 ∨ η(p, k) = 0 se cumple:

wpk=ε,ϕp,k is undefinedε,ϕp,k=0ηp,k=0Fβ,otherwise, (26)

ε=0.0001, (27)

Fβ=1+β2ϕp,k×ηp,kβ2×ϕp,k+ηp,k. (28)

Por otra parte, la agregación dinámica propuesta en (17) Eq. (17) está relacionada con la función f(k,p) que depende del factor αpk, calculado mediante la Eq. (22). Dicho factor αpk se basa en la definición dada en la Eq. (13) y representa la diferencia entre el peso wpk más bajo y más alto. Sin embargo, cuando wpi|Rp,i=Kwpj|Rp,j=1, el factor αpk tiende a cancelar o magnificar de manera excesiva la ponderación wpk+ + f(k,p) en relación con la salida Opk. Más aún, el factor αpk sigue siendo el mismo para todas las redes neuronales NNk | k = 1,2, ..., - En este sentido, se propone calcular el factor dinámico αpk con base en el peso wpk de red neuronal NNk y los pesos wpi|Rp,i=Rp,k-2 y wpj|Rp,j=Rp,k-1 de las dos redes anteriores de menor rango como se muestra en la Eq. (29):

αpk=2×wpk×wpi|Rp,i=Rp,k-2×wpj|Rp,j=Rp,k-1wpk+wpi|Rp,i=Rp,k-2+wpj|Rp,j=Rp,k-1, (29)

Dado que wpk toma valores en el rango [0,1] entonces αpk 2/3. Usar (29) permite ajustar el peso wpk no sólo con base en los rangos de las redes neuronales NNi|Rp,i=Rp,k-2 y NNj|Rp,j=Rp,k-1, sino también con respecto al rango de la red NNk, es decir, el factor αpk depende de los pesos respecto a la clase p de un conjunto de tres redes neuronales con rangos consecutivos. Por ejemplo, cuando los pesos wpk = 0.5 y wpi|Rp,i=Rp,k-2=wpj|Rp,j=Rp,k-1=0.5 entonces αpk=0.167., pero cuando wpk=1 entonces αpk=0.25, es decir, αpk es mayor cuando los pesos wpi|Rp,i=Rp,k-2 y wpj|Rp,j=Rp,k-1 permanecen iguales pero wpk aumenta. De la misma manera, cuando wpi|Rp,i=Rp,k-2=wpj|Rp,j=Rp,k-1=0.3 y wpk=1, entonces αpk=0.112, es decir, el factor αpk disminuye cuando los pesos de las redes NNRp,i=Rp,k-2 y NNj|Rp,j=Rp,k-1 con respecto la clase p disminuyen. Por otra parte, la relación αpk/wpk aumenta a medida que la diferencia entre pesos wpk-wpi|Rp,i=Rp,k-2, o wpk-wpj|Rp,j=Rp,k-1, disminuye, es decir, existe una fuerte cohesión respecto a αpk entre todas las redes neuronales implicadas en la función f(k, p).

3.2.2. Arquitectura del modelo

Cada patrón de entrada xk es un vector correspondiente al segmento k con J - rk rasgos, donde J denota el número de rasgos inicialmente extraídos y rk el número de rasgos eliminados después de un proceso de selección de rasgos. La red neuronal NNk devuelve un vector Opk; que representa qué tan relacionada está la entrada xk con cada clase p Є {1,2,..., P} con base en los patrones de entrada utilizados para entrenar la red neuronal NNk. Después, la agregación Op+. de las salidas Opk. | k = 1,2,..., K se realiza de acuerdo con el algoritmo propuesto anteriormente.

3.2.3. Extracción de rasgos

El proceso de extracción de rasgos aplicado se divide en tareas de pre-procesamiento y procesamiento con base en aquel propuesto en la Sección 2.2. Luego, se definen las entradas xk para ser evaluadas por las redes neuronales NNk I k = 1,2,..., K.

La Fig. 7 representa la respuesta en frecuencia del filtro IIR respecto al segmento k = 1 de una señal de un B737-200. Además en dicha figura se muestra la FFT del segmento k = 1. Similar a lo propuesto en el Sección 2.2, se seleccionan los primeros 140 puntos de los 256 disponibles, lo cual cubre frecuencias hasta 2278 Hz. La Fig. 7 confirma la estrecha relación entre los rasgos basados en los LPC y el espectro de la señal de ruido del segmento k = 1.

Fig. 7 Respuesta en frecuencia del filtro IIR obtenida a partir de los coeficientes a ⃗ para el primer segmento de la señal del ruido en el despegue de un Boeing 737-200 

El siguiente paso es la selección de rasgos lo cual implica la eliminación de aquellos redundantes o irrelevantes. Para ello se utiliza el método para redes neuronales MLP propuesto por 29, el cual se describe en la Sección 2.2. El método calcula la importancia del rasgo jth usando un criterio de ordenamiento s^j. Dicho criterio s^j utiliza la diferencia absoluta entre la función p^wcxi de densidad de probabilidad de xt con el rasgo jth sin cambiar y p^wcxj, i, la cual representa la función de densidad de probabilidad de xi evaluadas por el mismo clasificador MLP después de una permutación aleatoria de los elementos en el conjunto xj xij1N, donde N es el número de muestras y P el número de clases.

El criterio orden s^j se usa en el enfoque de eliminación recursiva (RFE) para remover los r rasgos menos importantes después de entrenamientos sucesivos de la red neuronal NNk. Al igual que en la Sección 2, se realizan 100 entrenamientos por iteración usando NNk. El error de prueba se determina después de cada entrenamiento de manera tal que la red NNk con menor error de prueba, de acuerdo con los pesos W, se selecciona para el cálculo del criterio de ordenamiento s^j. Luego, se eliminan los r = 5 rasgos menos importantes.

3.3. Experimentos

En esta sección se utiliza la misma base de datos usada en la Sección 2 para evaluar el rendimiento del nuevo modelo propuesto en esta sección contra el propuesto en la Sección 2.3. En total se usan P = 13 clases.

Ya que el mismo número de segmentos es usado (K = 4) para ambos casos, las mismas redes neuronales (topología y pesos) se utilizan para los experimentos en esta sección con el fin de comparar ambos modelos con respecto al algoritmo de agregación. Sin embargo, el modelo propuesto en esta sección también es aplicable a cualquier otro conjunto de K redes neuronales paralelas.

La Tabla 2 muestra las topologías de las redes neuronales resultantes de la Sección 2. Estas topologías se determinaron después de la aplicación del algoritmo de selección de rasgos descrito en la misma. Las salidas Opk | p = 1,2, ...,P de la red NNk se modifican de acuerdo a la función softmax definida en (30):

Opk=eOpkn=1,2,PeOnk, (30)

Tabla 2 Topología de la red neuronal NNk  

k Topología de NNk (Neuronas por capa) nk
1 95-30-13 45
2 140-30-13 0
3 95-30-13 45
4 85-30-13 55

En esta sección varios valores de β fueron evaluados a fin de analizar experimentalmente la contribución de la precisión φ(p, k) y la exhaustividad η(p, k) respecto a la salida final. Para este caso en particular, un mejor rendimiento se obtiene generalmente al usar valores que cumplen con β < 1. Esto refuerza la motivación para el cálculo de los pesos wpk con base en la métrica Fβ porque reduce el efecto negativo sobre la agregación de una red neuronal NNk con muchos verdaderos positivos (alta exhaustividad η(p, k)) y muchos falsos positivos (baja precisión < φ(p, k)) en relación a la clase p. Es decir, la red anterior tendrá un rango inferior utilizando β < 1 que al usar β ≥ 1 y en consecuencia, el peso wpk que corresponde a la salida Opk será menor también. En general, se logra el mejor rendimiento con la métrica F01 de manera que β = 0.1.

La Tabla 3 muestra los pesos wpk calculados para las redes neuronales NNk I k = 1,2,..., K que se describen en la Tabla 2 usando (26 a 28), como parte del nuevo algoritmo de agregación propuesto en la Sección 3.2. De acuerdo con los rangos de las redes NNk I k = 1,2,..., K utilizadas en la Sección 2.3, los pesos wpk se definen de la siguiente manera p | p=1,2,,P; wp1=0.897,  wp2=0.950,  wp3=0.949,  wp4=0.846.

Tabla 3 Pesos wpk calculados para k = 1,2 … , K Y p = 1,2,…, P 

p / k 1 2 3 4
1 0.1976 0.0535 0.0682 0.9802
2 0.3699 0.7370 0.4925 0.4225
3 0.4925 0.7370 0.2693 0.6535
4 0.7370 0.7370 0.9612 0.3936
5 0.4925 0.5905 0.6535 0.7370
6 0.4225 0.5905 0.3289 0.4925
7 0.5905 0.9612 0.4225 0.1060
8 0.0341 0.1647 0.0848 0.0309
9 0.7370 0.9612 0.9802 0.9612
10 0.0267 0.0449 0.0848 0.9802
11 0.5905 0.4913 0.4225 0.7370
12 0.3267 0.6535 0.3284 0.1795
13 0.7370 0.7370 0.7370 0.7370

Haciendo referencia a la Tabla 3, el peso de la red NN2 con respecto a la clase p = 2 es w22= 0.7370, que es el más alto con respecto a esa clase. Sin embargo, en relación a la clase p = 1, el peso de la red neuronal NN2 es el más bajo dado que w12= 0.0535. La Tabla 3 confirma que el mejor clasificador con respecto a la clase p no es necesariamente el mejor clasificador respecto a la clase p + n | n Є ℤ - {0} ∧ 1 ≤ p + nP.

Por otro lado, la matriz R que se da en (31) se construye a partir de los pesos que se presentan en la Tabla 3 y refleja los rangos de las redes NNk | k = 1,2,..., K con respecto a la clase p = 1,2, ..., P. En este sentido, la matriz R muestra que la red de mayor rango NNk | k=argmaxkRp respecto a la clase p = 1,2,..., P, no es la misma para todas las clases, por ejemplo, la red NN2 es la de menor rango respecto la clase p = 1 dado que R(1,2) = 1 y la de mayor rango con respecto a la clase p = 2, dado que R(2,2) = 4.

RP×K=3124143224132341123424133421243112431234321424311234. (31)

Por otra parte, la red NN4 es la de mayor rango con respecto a la clase p = 1 = (R(1,4) = 4) pero la segunda de menor rango con respecto a la clase p = 2 (R(2,4) = 2).

En relación con la dinámica introducida en el nuevo modelo por medio de (17) y (18), el término w24+f4,2 se reduce a w24 dado que R(2,4) ≤ 2 y por lo tanto f(4,2) = 0, es decir, la salida O24 de la red neuronal NN4 siempre es ponderada por la misma cantidad w24 + 0. Por otro lado, el peso w14 de la red neuronal NN4 con respecto a la clase p = 1 cambia dinámicamente de acuerdo con f(4,1) dado que R(1,4) > 2. En este sentido, con base en (18) el aumento o disminución de w14 depende de si las redes NNi= 3 y NNj =1 concuerdan en sus salidas respecto a argmaxp=1,2,,POpi|Rp,i=Rp,k-2 y argmaxp=1,2,,POpj|Rp,j=Rp,k-1. Dado que R(1,4) = 4, i = 3 cumple con i|R(p,i) = R(p,k) - 2 puesto que R(1,3) = R(1,4) - 2 = 2.

Similarmente, j = 1 cumple con = j l R(p,j) - 1 dado que R(p,k) = 3 y R(1,4) -1 = 3. En consecuencia, si las redes neuronales NN3 y NN1 coinciden, es decir, argmaxp=1,2,,POp3=argmaxp=1,2,,POp1 entonces la salida O14 se pondera por w14-α14 donde α14 se calcula con (29). En este caso, el factor α14 resta importancia a la salida O14 dado que las redes NN3 y NN1 coinciden respecto a la clase identificada.

La Tabla 4 presenta las salidas Op+ después de aplicar el nuevo modelo propuesto en esta sección (Nuevo Modelo) y aquel presentado en la Sección 2.3 (Modelo ESWA) para una medición perteneciente a la clase 737-600/700 (p = 12). Las salidas agregadas Op+ se muestran para ambos modelos, así como las salidas Opk de las redes NNK | k = 1,2, …, K descritas en la Tabla 6.

Tabla 4 Salidas del modelo con respecto a una medición de la clase B737-600/700 

p Etiqueta de Clases Op1 Op2 Op3 Op4 Modelo de la Sección 2.3 a (Op+) Modelo introducido en esta sección b (Op+)
1 MD 0.0733 0.0678 0.0665 0.0684 0.0687 0.0690
2 F100_B737-200 2 0.0740 0.0676 0.0665 0.0685 0.0689 0.0685
3 F100_B737-200 0.0733 0.0676 0.1670 0.1280 0.1100 0.0980
4 F100 2 0.0733 0.0734 0.0924 0.1170 0.0878 0.0858
5 F100 0.1160 0.0676 0.0665 0.0712 0.0787 0.0765
6 ATR-42 0.0739 0.0676 0.0665 0.0684 0.0688 0.0689
7 A320_B737-800 0.0733 0.0676 0.0665 0.0684 0.0687 0.0690
8 A320 3 0.0768 0.0676 0.0665 0.0684 0.0695 0.0684
9 A320 2 0.0733 0.0676 0.0665 0.0684 0.0687 0.0683
10 A320 1 0.0733 0.0677 0.0665 0.0684 0.0687 0.0683
11 B747-400 0.0733 0.0676 0.0718 0.0684 0.0702 0.0702
12 B737-6/700 0.0733 0.1830 0.0706 0.0684 0.1030 0.1230
13 B737-1/200 0.0733 0.0676 0.0665 0.0684 0.0687 0.0686

a El modelo será referido de aquí en adelante como Modelo ESW

b El modelo será referido de aquí en adelante como Nuevo Modelo

Respecto al Modelo ESWA, las salidas Opk son agregadas usando (10) a (15) y los pesos antes mencionados: w1 = 0.897, w2 = 0.950, w3 = 0.949, w4 = 0.846. Respecto al Modelo Nuevo, los resultados agregados se calculan como se define en la Sección 3.2.

Las clases p = 3, p = 4, p = 5 y p = 12 son las más relevantes en el ejemplo de la Tabla 4; la última de ellas es la clase objetivo a identificar. Respecto a la clase p = 5, las salidas O5k | k=1,2,,K, no son relevantes, salvo la salida que introduce cierta incertidumbre. Sin embargo, la salida errónea de la red NN1 es anulada en ambos modelos con base en una ponderación baja respecto a la clase p = 5. El Modelo ESWA utiliza w1, que es el segundo peso más bajo mientras que el Nuevo Modelo usa w51, que es el más bajo con respecto a la clase p = 5. En ambos casos, la agregación de las salidas O5k | k=1,2,,K conduce a un bajo valor de O5+.

Respecto a la clase p = 4, las salidas O4k | k=1,2,,K, también producen cierta incertidumbre dado que O3k y O4k son altas en comparación con el resto. No obstante, en ambos modelos se logra un valor O4+ bajo. En este sentido, el Modelo ESWA pondera las salidas de la red NN4 con un peso w4 bajo, de modo que aun cuando O44 es el valor más alto con respecto a la clase p = 4, su peso es el más bajo también. Algo similar se consigue con el Nuevo Modelo dado que w44 es el peso más bajo respecto a la clase p = 4. Sin embargo, el Modelo ESWA devuelve incorrectamente el valor Op+ más alto, para la clase p = 3 debido, principalmente, a que O33 es la segunda salida más alta ∀k, p y las salidas Op3 | p=1,2,,P de la red NN3 son ponderadas considerablemente alto. Al contrario, el Nuevo Modelo contrarresta con éxito las salidas Op3 | p=1,2,,P con base en una ponderación más precisa, por ejemplo, el peso w33 es el más bajo con respecto a la clase p = 3.

Respecto a la clase objetivo p = 12, solamente la salida O122 de la red NN2 es significativa. En este sentido, el Nuevo Modelo agrega dinámicamente O122, de acuerdo con w122+α122O122 donde w122+α122=0.950+0.107 mientras que el Modelo ESWA pondera O122 con base en w2+f2O122 donde w2+f2=0.950+0.208. No obstante, aun cuando w2+f2O122>w122+f2,12O122, el Nuevo Modelo obtiene el mayor valor para la salida O12+, lo cual conlleva a una clasificación exitosa ya que la contribución en la agregación de la salida O122 mayor en el Nuevo Modelo dado que w122/kw12k+fk,12>w2/kwk+fk. Al final, el Modelo ESWA no puede clasificar correctamente la medición de la Tabla 4 debido a una ponderación inadecuada de las salidas Opk. Para más ejemplos y análisis refiérase a 31.

3.4. Resultados y discusión

Con base en los extensos experimentos con la base de datos de mediciones del ruido en el despegue, el modelo propuesto en este sección (Nuevo Modelo) mejora el reconocimiento de clases de aeronaves con los modelos existentes en la literatura y aquel introducido en la Sección 2.3. La comparación global entre el Nuevo Modelo y el Modelo ESWA se presenta en la Fig. 8. Ambos modelos dependen de la agregación de las salidas Opk de K redes neuronales paralelas, donde la red NNk I k = 1,2,..., K es entrenada para clasificar patrones del segmento de señal k. El primero utiliza una agregación dinámica basada en una jerarquía selectiva con respecto a las clases p = 1,2,..., P mientras que el segundo usa una jerarquía general.

Fig. 8 Comparación gráfica de ambos modelos 

El mejor rendimiento del Nuevo Modelo está estrechamente relacionado con la capacidad de cambiar la dinámica de agregación con respecto a cada clase p, es decir, la agregación de las salidas Opk | k=1,2,,K se determina con base en la jerarquía respecto a la clase p y no afecta la manera en que las salidas Op+nk | nZ-01p+nP son agregadas. Además, la agregación propuesta en la Sección 3.2.1 utiliza un peso específico wpk para ponderar la salida Opk de la red neuronal NNk de manera que wpk no es necesariamente igual a wp+nk. En este sentido, la jerarquía propuesta en esta sección se basa en el ordenamiento ascendente de pesos wpk. De hecho, el rendimiento de la red NNk I k = 1,2,..., K, que se pondera con base en wpk, varía en dependencia de la clase p.

Además, dada las redes neuronales NNk y NNk+m | m Є ℤ - {0} ∧ 1≤ k + mK entonces se cumple que wpk>wpk+mwp+nk>wp+nk+m, es decir, el hecho de que la red NNk sea el mejor clasificador individual respecto a la clase p no implica que NNk sea también el mejor clasificador individual con respecto la clase p + n. Además, la definición de los pesos wpk propuestos en la Sección 3.2.1 permite la cuantificación del desempeño de la red NNk con base en la exhaustividad η(p, k) y la precisión φ(p, k). La métrica Fβ mejora la agregación reduciendo el efecto negativo de falsos positivos usando valores de β < 1, ya que wpk estaría más sesgado hacia φ(p, k) que hacia η(p, k).

Otro factor que contribuye al mejor desempeño del Nuevo Modelo es la función f(p, k) introducida en la Sección 3.2.1. La función f(p, k) devuelve un factor único αpk para cambiar dinámicamente el peso wpk. El factor αpk se calcula con base en los pesos wpk,  wpi|Rp,i=Rp,k-2 y wpj|Rp,j=Rp,k-1, es decir, depende de un conjunto de tres redes neuronales con rangos consecutivos. Teniendo en cuenta que los rangos de las redes neuronales NNk I k = 1,2,..., K varían según la clase p, la dinámica de agregación también cambia según la clase p.

Más aún, el factor αpk representa la relación entre los pesos de las redes neuronales con rangos consecutivos de manera que, cuando NNi|Rp,i=Rp,k-2 y NNj|Rp,j=Rp,k-1 clasifican las entradas xi y xj, como de la clase p, el factor αpk disminuye a medida que los pesos wpi|Rp,i=Rp,k-2 o wpi|Rp,i=Rp,k-2 aumentan y por tanto el término wpk+fk,p  disminuye, es decir, si NNi|Rp,i=Rp,k-2 y NNj|Rp,j=Rp,k-1 tienen un mejor rango, entonces el cambio dinámico del peso wpk es mayor.

Además, dado que la arquitectura propuesta para el Nuevo Modelo se basa en decisión por comité, el resultado final es alcanzado por un conjunto de redes neuronales NNk | k = 1,2,..., K en lugar de un clasificador único. En consecuencia, si un clasificador falla pero las salidas de los otros coinciden, aún es posible obtener una salida final correcta. Esto depende del desempeño de las redes NNk | k = 1,2,..., K y de la agregación de las salidas Opk | p=1,2,,P del conjunto de redes antes mencionado. Por ese motivo, el algoritmo de la Sección 3.2.1 se define con el fin de disminuir el efecto no deseado en la decisión final de los falsos positivos respecto a la clase p.

Por otra parte, dado que cada segmento de señal k sólo es analizado por la red NNk, las alteraciones encontradas durante el tiempo cubierto por el segmento de señal k, sólo puede afectar al rendimiento de NNk y no aquel de la red NNk+m | m Є ℤ - {0} ∧ 1≤ k + mK, es decir, cualquier otra red. Algunas perturbaciones tales como perros ladrando, personas hablando o gritando, canto de pájaros y claxon de autos, están presentes en las mediciones obtenidas del ruido en el despegue.

Sin embargo, en la mayoría de los casos sólo algunas de las características de los segmentos de señal en los extremos (k = 1 y k = 4) se ven afectados debido a que dichas perturbaciones no son efectivas, en general, a lo largo del espectro completo de la señal del ruido en el despegue, lo cual no deteriora por completo el desempeño de la red neuronal correspondiente.

Además, de acuerdo con la segmentación de la señal descrita en la Sección 2.1, los segmentos interiores (k = 2 y k = 3) están siempre más cerca del punto de mayor amplitud como se muestra en la Fig. 3, donde es poco probable que se enmascarare la señal del ruido de los aviones por su gran intensidad durante dicha etapa en el despegue. En consecuencia, dichos segmentos y las redes asociadas (NN2 y NN3), se ven menos afectadas por perturbaciones tales como las mencionadas anteriormente.

4. Modelo multicapa neuro-difuso

En la Secciones 2 y 3, se utiliza una red neuronal NNk para cada segmento k (véase (19, 31)) mientras que en 23 se usan dos redes paralelas para evaluar dos tipos diferentes de rasgos extraídos de la misma señal. En todos los casos se establece un algoritmo de agregación para construir la respuesta final a partir de las múltiples salidas producidas por todas las redes neuronales. El algoritmo de agregación es muy importante ya que involucra la ponderación de múltiples respuestas sobre el mismo espacio de clases p = 1,2,..., P incluyendo las salidas erróneas. Hasta ahora los algoritmos propuestos anteriormente sólo permiten ponderar cada clase p individualmente, por lo que las relaciones entre las salidas Opk y Op+nk de una misma red neuronal NNk no se consideran. En esta sección se propone un modelo multicapa neuro-difuso para el reconocimiento de la clase de aeronave con base en la segmentación de la señal. El modelo usa redes neuronales y lógica difusa secuencialmente, aprovechando la generalización e inferencia difusa bajo la incertidumbre cognitiva respecto al rendimiento de las redes neuronales. El algoritmo usa la agregación difusa de múltiples salidas Opk para la generación de una salida final con respecto a la clase p.

4.1. Arquitectura multicapa neuro-difusa

Los sistemas híbridos que combinan redes neuronales y lógica difusa han demostrado su eficacia en una amplia variedad de problemas reales 32-34. Los 140-nk rasgos iniciales extraídos como se presenta en la Sección 2.2 son básicamente una reducción dimensional del espectro de la señal del ruido en el despegue, donde nk se determina a partir del método de selección de rasgos descrito en la misma sección. Sin embargo, todavía es complicado derivar de manera sencilla, un mapeo directo entre los rasgos del segmento k y las clases. Por tanto, una red NNk para cada k Є {1,2,..., K} es utilizada para pre-procesar los 140 - nk rasgos y transformarlos al espacio RP, donde P es el número de clases. La transformación anterior representa cuán relacionada está la entrada xk con cada clase p Є {1,2,..., P}, con base en los patrones de entrada que se usan durante el entrenamiento supervisado de las redes.

La salida Opkx,W de la red neuronal NNk del segmento k, dada una entrada xkR140-nk y pesos W, se determina usando (32):

Opkxk=γpWp02bk1+u=1mWpu2φuWu01bk0+j=1140-nkWuj1xkj, (32)

donde Wijl denota los valores de los pesos de la jth neurona de la capa l -1 a la ith neurona de la capa l, W es la colección de Wijl,i,j,l de la red, φu = tanh(∙) es la función de activación de la uth neurona en la capa uno, γc = tanh(∙) es la función de activación del pth salida y bl representa el sesgo para la capa l.

En general, las salidas Opk | p=1,2,,P de la red NNk dada una entrada xk se espera que cumplan con (33 y 34):

y | y=argmaxp=1,2,,COpk :Oyk=1, (33)

y'1,2,,P-y :Oy'k=0. (34)

Las condiciones anteriores indican que la red neuronal NNk clasifica totalmente la entrada xk como clase y, es decir, NNk no detecta similitud alguna con respecto a las clases y'. Bajo una buena generalización NNk normalmente devuelve salidas que no cumplen con una o ambas condiciones. Más aún, las salidas Opk | p=1,2,,P pueden incluir más de una posible clase, lo cual se puede representar con (35). En este sentido, tener en cuenta la relación entre clases y e y' ∈ {1,2,…, P} - {y} es particularmente significativo si xk pertenece a la clase y, pero y'=argmaxp=1,2,,POpk.

y1,2,,P-argmaxp=1,2,,POpk | βy=Oyk-maxp=1,2,,POpk minp=1,2,,POpk-maxp=1,2,,POpk1 (35)

La agregación descrita en la Sección 4 se lleva a cabo con base en la ponderación independiente de K salidas para la clase y, es decir, ∀k Є {1,2,..., K}, Oyk no tiene ningún efecto sobre el valor final de la clase y' Є {1,2, ..., P} - {y}. Por otra parte, se muestra también que y1,2,,P,k | 2<rkK, el valor final de la clase y' estará sesgado hacia Oyi|r(i)=r(k)-2, si y sólo si y=argmaxp=1,2,,POpi|r(i)=r(k)-2, por lo tanto el modelado de las relaciones entre las clases y e y' es limitado.

El algoritmo de agregación propuesto en la Sección III-B-1 permite cambiar dinámicamente el peso wpk perteneciente a Opk con respecto a las clases argmaxp=1,2,,POpi|r(i)=r(k)-2, y argmaxp=1,2,,POpj|rj=r(k)-1, lo cual representa una ponderación selectiva dinámica con respecto a la clase p.

En este caso, f(k, p) devuelve un factor αpk diferente para cada clase p. Sin embargo, si la clase y cumple con (35), entonces Opk no tendrá relevancia en relación con la clase y' incluso cuando OykOy'k y Oy'k=maxp=1,2,,POpk.

Por lo tanto, las asociaciones entre y e y' no están modeladas bajo coincidencia parcial, lo que podría llevarse a cabo con base en la cuantificación del valor de verdad de Oykmaxp=1,2,,POpk o βy ⋘ 1. Además, cuantificar el valor de verdad de Oykmaxp=1,2,,POpk o βy ⋘ 1 con base en la lógica clásica binaria (verdadero o falso), conlleva las mismas limitaciones dado que también se deben establecer límites estrictos.

De acuerdo a lo anterior, se propone una arquitectura neuro-difusa. El modelo calcula el valor de membresía cp a la clase p Є {1,2, ...,P} con base en un sistema de inferencia difuso del tipo Mamdani (FIS). Las entradas O^pk se definen con base en la fuzzificación de Opk | p=1,2,,P de cada red neuronal NNk | 1,2, K mediante la cuantificación del valor de verdad de Opk1 con universo U = [0,1]. Tres valores lingüísticos se definen para cada entrada difusa O^pk (Baja, Media y Alta).

La salida difusa Zp | p = 1,2, ..., P representa el grado de membresía a la clase p. Cinco valores lingüísticos son definidos para cada salida difusa (Muy Baja, Baja, Media, Alta y Muy Alta). Después, las relaciones entre entradas difusas O^pk y cada clase p se modelan utilizando reglas SI-ENTONCES, que se construyen a partir de razonamiento deductivo.

Las reglas de agregación conllevan a un conjunto difuso Reglas rendimientos de agregación a un conjunto Cp con respecto a la clase p, el cual es defuzificado con base el método del centroide, obteniendo el valor real de membresía cp. A continuación, la etiqueta y predicha para una entrada {x1, …,xK} está dada por (36):

yx1,,xK=argmaxp=1,2,,Pcp, (36)

La nueva arquitectura permite la combinación de cualquier número i = 1,2, K × P de entradas difusas con el fin de representar el conocimiento con base en la inferencia difusa mediante reglas. La integración de múltiples salidas Opk con base en inferencia difusa permite lo siguiente:

1. Jerarquía y ponderación individual de clases:

SI O^pk es Alta ENTONCES Zp es Alta.

La membresía difusa a una clase Zp será alta si la entrada difusa O^pk es alta sin importar qué valor tenga O^pk+n, es decir, el resultado respecto a la clase p está altamente relacionado con las salidas de la red neuronal NNk.

Por otra parte, sólo las reglas que tengan Zp como consecuente afectarán a la salida respecto a la clase p. Si una regla tiene un consecuente compuesto que consiste de R > 1 salidas difusas, entonces dicha regla pudiera ser descompuesta en R reglas con el mismo antecedente y sólo una salida difusa Zp.

2. Ponderación de la "concordancia de respuestas":

SI O^pkes Alta YO^pk+1 es Alta YO^pk+2 es Alta ENTONCES Zp es Muy Alta.

La membresía difusa a una clase Zp va a ser muy alta si las salidas de las redes neuronales NNk, NNk+1 y NNk+2 concuerdan regresando valores altos respecto a la clase p.

3. Anular clasificaciones erróneas individuales:

SI O^pk es Alta YO^pk+1 no es Baja YO^p+nk+1 no es Baja ENTONCES Zp es Alta Y Zp+n no es Alta.

Suponiendo que la red neuronal NNk+1 encuentra cierta correlación entre la clase p y p + n con respecto a la entrada xk+1, que en realidad pertenece a la clase p la regla anterior explota el hecho anterior combinando O^pk con O^pk+1 y O^p+nk+1 para compensar la incertidumbre producida por la red NNk+1.

Además, el nuevo modelo introduce un enfoque flexible para cambiar la salida final respecto a la clase p con base en la generación de conocimiento a través de la adición o supresión de reglas o el ajuste de las funciones de membresía, sin volver a calcular los pesos o reentrenar las redes neuronales.

4.2. Experimentos

Extensos experimentos se llevan a cabo con dos bases de datos con mediciones reales del ruido en el despegue. Una descripción general de ambas bases de datos se da en la Tabla XI. Los experimentos incluyen lo siguiente: 1) dividir la señal del despegue en segmentos; 2) extraer los rasgos; 3) aplicar el algoritmo de selección de rasgos; 4) entrenar y evaluar las redes neuronales; 5) definir las funciones de membresía para las entradas y salidas difusas; 6) crear las reglas de inferencia; y 7) evaluar el desempeño del modelo neuro-difuso. Más información de estos experimentos se puede encontrar en 35.

Los experimentos descritos en la Sección 4.2.2 se utilizan para comparar el desempeño del modelo propuesto y aquellos definidos en 19, 22, 23 usando ambas bases de datos de la Tabla 5. Los experimentos de la Sección 4.2.2 utilizan una nueva base de datos más compleja y actualizada, estrictamente construida a partir de mediciones en tiempo real y usando varias fuentes para verificar el horario del despegue, el tipo de aeronave y motor de avión.

Tabla 5 Descripción de las bases de datos 

Nombre a Mediciones P Introducida por
BD Anterior 305 13 Sánchez-Fernández et al. 22, Sección 2
BD Nueva 426 13 Sección 4.2.2

a Los nombres serán usados a partir de aquí para referirse a las BD

4.2.1. Experimentos con la BD anterior

Las mismas redes neuronales (topología y pesos) obtenidas en la Sección 2 se utilizan para los experimentos descritos en esta sección a fin de comparar ambos métodos solo con respecto al algoritmo de agregación. La Tabla 2 muestra la topología de las redes anteriormente referidas.

Cada salida Opk de la red NNk se fuzzifica en O^pk, la cual es etiquetada de acuerdo a Etiqueta Corta de Clase de Aeronave + NNk de modo que la salida de la red neuronal NN1 con respecto a la clase ATR-42 se etiqueta como ATR-42 NN1. Un conjunto difuso Ak,pi se define para cada valor lingüístico i de O^pk con base en la función de Gauss definida en (51). Dado el conocimiento contextual y semántico sobre las salidas de la red NNk (Opk representa la similitud de xk con los patrones que se enseñan a la red NNk con respecto a la clase p), las funciones de Gauss se ajustan manualmente usando la intuición 36, 37. Además, los mismos conjuntos difusos Ak,pi son utilizados para todas las entradas O^pk ya que la evaluación de técnicas para el ajuste automático de las funciones de membresías está fuera del alcance de este trabajo:

fx,α,β=e-x-β22α2 (37)

En esta sección Ak,p1 (Baja) se construye con α = 0.1403, β = 0; Ak,p2 (Media) con α = 0.1021, β = 0.5; y Ak,p3 (Alta) con β = 0.187, β = 1.

Del mismo modo, las salidas difusas Zp están etiquetadas de acuerdo a Clase + Etiqueta Corta de Clase de Aeronave de modo que la salida correspondiente a la clase ATR-42 se etiqueta como Clase ATR-42. Del mismo modo, la definición de los conjuntos difusos Bpj para Zp se realiza a partir de intuición. La función de curva de campana definida en (52) se usa como función de membresía de los valores lingüísticos Muy Baja, Baja, Alta y Muy Alta; mientras que la función de membresía combinación combinada de Gauss presentada en (53) se utiliza para Media.

hx,α,β,γ=11+x-γα2β, (38)

gx,α1,β1,α2,β2=fx,α1,β1,0xβ11,β1<x<β2fx,α2,β2,β2x1, (39)

En este sección Bp1 (Muy Baja) se construye con α = 0.15, β = 3.132, γ = -0.0119; Bp2 (Baja) con α = 0.25, β = 4.42, γ = -0.05525; Bp4 (Alta) con α = 0.201, β = 3.54, γ = 1.028; y Bp5 (Muy Alta) con α = 0.113, β = 2.91, γ = 0.9913; mientras que Bp3 (Media) se construye con α1 = 0.064, β1 = 0.321, α2 = 0.14, β2 = 0.4344.

Se utiliza un sistema disyuntivo de reglas SI-ENTONCES. Las reglas se derivan aprendiendo por ejemplos; es decir, identificando relaciones entre las entradas difusas O^pk y cada salida difusa Zp, con base en un conjunto de observaciones conocidas. En este caso, las observaciones se extraen aleatoriamente del conjunto de pruebas (desconocido para NNk). Dos tipos de reglas intuitivas se definen para las pruebas con la base de datos actual (BD Nueva):

  • 1. ∀(a, b, c) | a, b, c Є {1,2,..., K}, abc;

  • SI O^pa es Alta YO^pb es Alta YO^pc es Alta ENTONCES Zp es Muy Alta.

  • 2. ∀(a, b, c) | a, b, c Є {1,2,..., K}, abc;

  • SI O^pa es Baja YO^pb es Baja YO^pc es Baja ENTONCES Zp es Muy Baja.

Dado que K = 4, 2P[K!/(3! (K - 3)!)] = 104 reglas se crean con base en los criterios anteriores. Después, el sistema de inferencia difuso se mejora mediante la adición de siete reglas más. Tres de estas reglas están relacionadas con la Clase A320 1:

  1. Regla 105: SI A320 1 NN4 es Alta Y A320_B737-800 NN4 no es Baja Y A320 3 NN4 no es Baja ENTONCES Clase A320 1 es Alta.

  2. Regla 106: SI A320 1 NN2 es Alta ENTONCES Clase A320 1 no es Baja.

  3. Regla 109: SI A320 1 NN1 no es Baja ENTONCES Clase A320 1 no es Baja.

La agregación de reglas resulta en un conjunto difuso Cp representado por μCpu, que se calcula de acuerdo con (54) como la unión difusa de cada consecuente de la regla r.

μCpuU=r=1,,Rk,pμAk,pirOpkμBpjr=maxr=1,,Rmink,pμAk,pirOpkμBpjr (40)

La contribución individual de la regla r con respecto a Zp está determinada por la fuerza de disparo de la regla r y la función de membresía μBpjr, de acuerdo con el valor lingüístico j involucrado en la regla r. La fuerza de disparo de la regla r se calcula con base en las salidas Opk asociadas al antecedente de la regla de acuerdo con la función de membresía μAk,pir de la entrada difusa O^pk, para el valor lingüístico i involucrado en la regla r.

El valor de membrecía final cp se calcula utilizando (55). La Fig. 9 presenta la agregación de reglas para una medición correspondiente a la Clase A320 1:

cp=uUμCpuu/uUμCpu, (37)

Fig. 9 Salida del FIS para la Clase A320 1 

La contribución resaltada de la Regla 105 es mayor que la contribución de otras reglas y produce el valor real más alto de membrecía como se muestra en la Tabla 6.

Tabla 6 Salidas del Modelo con respecto a una Medición de la Clase A320 1 

p Modelo propuesto en este sección a Modelo propuesto en el 19 b
Etiqueta Op1 Op2 Op3 Op4 Final (Cp) Op1 Op2 Op3 Op4 Final (Cp)
Etiqueta - - - - 0.897 0.950 0.949 0.846
1 Clase MD 3.77E-09 5.87E-08 6.38E-05 3.9E-14 0.0774 0.0689 0.068 0.0676 0.0551 0.0654
2 Clase F100_B737-200 2 0.000404 0.000676 2.94E-07 2.07E-06 0.0774 0.0689 0.0681 0.0676 0.0551 0.0654
3 Clase F100_B737-200 0.000166 0.000527 9.86E-05 1.02E-10 0.0774 0.0689 0.068 0.0676 0.0551 0.0654
4 Clase F100 2 0.00232 2.38E-07 5.18E-06 0.00866 0.0774 0.0691 0.068 0.0676 0.0556 0.0655
5 Clase F100 4.68E-12 1.11E-15 1.36E-06 0.00014 0.0774 0.0689 0.068 0.0676 0.0551 0.0654
6 Clase ATR-42 0.0727 0.00135 2.02E-12 0 0.0774 0.0741 0.0681 0.0676 0.0551 0.0666
7 Clase A320_B737-800 0.00587 0.753 0.0275 0.996 0.5 0.0693 0.144 0.0695 0.149 0.107
8 Clase A320 3 2.85E-05 0.124 1 0.998 0.564 0.0689 0.077 0.184 0.149 0.121
9 Clase A320 2 1.89E-05 0.000873 0.038 2.87E-13 0.0774 0.0689 0.0681 0.0702 0.0551 0.0662
10 Clase A320 1 0.00814 0.368 2.42E-07 0.999 0.866 0.0695 0.0983 0.0676 0.15 0.0939
11 Clase B747-400 0.874 0.000266 0.00438 2.21E-12 0.0774 0.165 0.068 0.0679 0.0551 0.0868
12 Clase B737-6/700 0.0217 0.000113 0.00204 1.66E-05 0.0774 0.0704 0.068 0.0677 0.0551 0.0658
13 Clase B737-1/200 2.91E-10 5.26E-07 8.77E-09 0 0.0774 0.0689 0.068 0.0676 0.0551 0.0654

a El modelo será referido de aquí en adelante como Nuevo Modelo

b El modelo será referido de aquí en adelante como Modelo ESWA

La Tabla 6 muestra los resultados después de aplicar ambos modelos, el propuesto en este sección (Nuevo Modelo) y aquel presentado en 19 (Modelo ESWA) para una medición perteneciente a la Clase A320 1 (p = 10). La Fig. 9 también destaca la contribución individual de la siguiente regla:

  • 1. Regla 29: SI A320 1 NN1 es Baja Y A320 1 NN2 es Baja Y A320 1 NN3 es Baja ENTONCES Clase A320 1 es Muy Baja.

Sin embargo, dados los conjuntos difusos A1,101,  A2,101,  A3,101 (Baja) y salidas O101=0.00814, O102=0.368, O103=2.42×10-7, la fuerza de disparo de la Regla 29 tiene poco impacto sobre el resultado final. La contribución individual de otras reglas no se aprecia en la Fig. 9, puesto que son insignificantes en comparación con la contribución de otras reglas como la Regla 105 o Regla 29. Más ejemplos y detalles de los resultados obtenidos puede consultarse en 35.

La Tabla 7 muestra una comparación general entre los modelos existentes y el nuevo modelo con respecto a la BD Anterior. Se evalúan un total de 162 mediciones. El Nuevo Modelo clasifica correctamente el 90.7% de estas.

Tabla 7 Comparación general contra modelos existentes 

p Total Clasificaciones correctas
Modelo en 22 Modelo en 23 Modelo ESWA 19 Nuevo Modelo 35
1 12 10 10 10 12
2 15 13 14 14 14
3 14 10 11 11 12
4 17 15 14 16 16
5 7 6 6 7 7
6 18 15 15 15 16
7 17 13 13 13 16
8 9 7 7 7 7
9 13 11 11 11 11
10 10 9 10 10 10
11 6 3 3 3 3
12 8 6 6 6 8
13 16 12 15 15 15
TOTAL (%) 162 (100%) 130 (80%) 135 (83.3%) 138 (85.2%) 147 (90.7%)

4.2.2. Experimentos con la BD Nueva

La nueva base de datos utilizada en esta sección contiene mediciones del ruido en el despegue de aeronaves modernas actualmente en servicio. Un sistema de adquisición de datos similar al propuesto en 38 se utiliza para registrar el ruido de en el despegue durante 24 segundos a una frecuencia de muestreo de 51.2 kHz. Refiérase a 35 para más detalles.

Con el fin de identificar detalladamente el modelo de las aeronaves despegando, las autoridades aeroportuarias suministraron una lista completa de los despegues realizados durante el período de mediciones de cinco días diferentes. La lista incluye entre otras cosas: hora exacta del despegue, línea aérea, etiqueta corta del modelo (A320, AT42, B737, etc.), etiqueta única de registro (identifica plenamente la aeronave, por ejemplo, N833UA), y el número de vuelo.

Varias bases de datos, especificaciones de los fabricantes y páginas web de aerolíneas fueron revisadas para identificar con precisión el modelo de la aeronave 39-41. Los resultados de la búsqueda en las bases de datos realizadas con base en la información provista por el aeropuerto se cotejaron con las observaciones en sitio durante las mediciones (hora del despegue, identificación visual del modelo de la aeronave y aerolínea así como el número de la medición). Las clases de aeronaves se definen con base en el modelo del fuselaje, el tipo de motor y las clases acústicas introducidas en 9, 42. Por lo tanto, las clases que aparecen aquí son muy específicas. La Tabla 8 muestra la descripción de la BD Nueva.

Tabla 8 Descripción de la nueva base de datos 

p Clase de Aeronave Modelo del Fuselaje (Tipo de Motor) Total Conjuntos Entrenamiento/ Validación/ Prueba
1 SU95 (SaM 146) 26 15/4/7
2 ERJ190 (CF34-10E) 36 15/4/17
3 ERJ170/175 (CF34-8E) 32 15/4/13
4 ERJ145(AE3007) 37 15/4/18
5 B737-7xx (CF56-7B22-) 38 15/4/19
6 B737-8xx (CF56-7B22+) 39 15/4/20
7 B737-3xx (CFM56-3) 32 15/4/13
8 ATR72-600 (PW127M) 28 15/4/9
9 ATR42-500 (PW127E) 30 15/4/11
10 ATR42-300 (PW120) 25 15/4/6
11 A319-1xx (V25xx) 28 15/4/9
12 A320-2xx (V25xx) 34 15/4/15
13 A320-2xx (CFM56-5) 41 15/4/22
TOTAL 426 195/52/179

Cuatro segmentos de señal (K = 4) se extraen de cada medición siguiendo el método descrito en la Sección 2.1, mientras que los 140 rasgos iniciales son definidos para cada segmento de acuerdo con la Sección 2.2. Una red neuronal NNk con topología 140-m-13 se define para el segmento k. El número de neuronas ocultas m se determina con base en un proceso de validación cruzada por diez sobre el espacio {5, 10,15,...,60}. El número m con el promedio de error de prueba más bajo entre diez realizaciones es elegido. Posteriormente, el método de selección de rasgos descrito en la Sección 4.2.2 es aplicado a cada segmento k. El análisis y resultados del método anterior puede consultarse en 35. La Tabla 9 presenta las topologías de las redes resultantes de la aplicación del método MLP-FSPP-RFE.

Tabla 9 Topología de la Red Neurona NNk  

k Topología de NNk (Neuronas por capa) nk
1 85-30-13 55
2 90-30-13 50
3 110-30-13 30
4 130-30-13 10

Cada salida Opk se fuzzifica en O^pk, la cual es etiquetada de acuerdo a Clase de Aeronave + NNk. Las mismas funciones de membresía Ak,pi y conjuntos difusos Ak,pi usados para los experimentos con la BD Anterior en la Sección 4.2.1 se asignan a los valores lingüísticos Baja, Media y Alta de cada entrada difusa O^pk. Del mismo modo, las salidas difusas Zp son etiquetadas de acuerdo con Clase + Clase de Aeronave. Las mismas funciones de membresía μBpjr y conjuntos difusos Bpj usados para los experimentos con la BD Anterior se asignan a los valores lingüísticos Muy Baja, Baja, Media, Alta y Muy Alta con respecto a Zp. Inicialmente tres tipos de reglas se utilizan para los experimentos con la BD Nueva:

  • 1. ∀(a, b, c) | a, b, c Є {1,2,..., K}, abc;

  • SI O^pa es Alta YO^pb es Alta YO^pc es Alta ENTONCES Zp es Muy Alta.

  • 2. ∀(a, b, c) | a, b, c Є {1,2,..., K}, abc;

  • SI O^pa es Baja YO^pb es Baja YO^pc es Baja ENTONCES Zp es Muy Baja.

  • 3. ∀(a, b, c) | a, b, Є {1,2,..., K}, ab ;

  • SI O^pa es Media YO^pb es Media ENTONCES Zp es Media.

Con base en los tipos de reglas anteriores y dado que K = 4, P{2[K!/(3!( K - 3)!)] + K!/(2! (K -2)!)} = 182 reglas son generadas. Posteriormente, se incluyen 23 reglas más para mejorar el sistema de inferencia difusa. La Tabla 10 presenta las salidas de ambos modelos con respecto a una medición de la Clase ATR42-500 (PW127E) (Respecto al Modelo ESWA, la importancia de la red NNk se recalcula con base en los nuevos entrenamientos). Tres clases son relevantes en la medición anterior: ATR72-600 (PW127M) (p = 8), ATR42-500 (PW127E) (p = 9), y ATR42-300 (PW120) (p = 10).

Tabla 10 Salidas del Modelo con respecto a una Medición de la Clase ATR42-500 (PW127E) 

p Nuevo Modelo Modelo ESWA
Op1 Op2 Op3 Op4 Final (Cp) Op1 Op2 Op3 Op4 Final(Cp)
- - - - 0.500 0.654 0.558 0.519
1 1.26E-07 1.14E-11 3.5E-13 1.66E-06 0.0774 0.0702 0.0695 0.0749 0.0664 0.0696
2 5.87E-05 0.112 6.83E-09 2.5E-06 0.271 0.0702 0.0777 0.0749 0.0664 0.0713
3 0.00311 4.53E-06 0.0324 3.04E-08 0.0774 0.0705 0.0695 0.0773 0.0664 0.07
4 4.03E-05 4.47E-07 9.36E-11 7.14E-10 0.0774 0.0702 0.0695 0.0749 0.0664 0.0696
5 0.284 0.0882 5.97E-05 1.36E-05 0.0824 0.0933 0.076 0.0749 0.0664 0.0781
6 0.336 6.09E-10 2.01E-05 0.547 0.439 0.0983 0.0695 0.0749 0.115 0.0938
7 1.2E-07 2.58E-12 2.26E-10 5.81E-10 0.0774 0.0702 0.0695 0.0749 0.0664 0.0696
8 0.343 0.011 0.212 0.845 0.129 0.099 0.0703 0.0925 0.155 0.11
9 1.41E-05 3.86E-06 4.82E-05 5.78E-05 0.528 0.0702 0.0695 0.0749 0.0664 0.0696
10 0.0919 0.767 0.0509 3.98E-05 0.0829 0.077 0.15 0.0788 0.0664 0.0895
11 2.53E-06 1.45E-09 1.99E-08 7.1E-05 0.0774 0.0702 0.0695 0.0749 0.0664 0.0696
12 0.000315 7.63E-07 2.29E-13 3.69E-05 0.0774 0.0703 0.0695 0.0749 0.0664 0.0696
13 5.64E-06 0.00514 0.0377 5.44E-08 0.0774 0.0702 0.0699 0.0777 0.0664 0.0701

Las redes neuronales regresan principalmente valores no despreciables para dos de estas clases p = 8 y p = 10. Como se muestra en la comparación técnica de la Tabla 11 43-45, las clases p = [8,9,10] están muy correlacionadas entre sí.

Tabla 11 Comparación técnica entre p = [8,9,10] 

p Aeronave Modelo del motor Longitud Extensión de las alas
8 ATR72-600 PW 127M 27.17 m 27.05 m
9 ATR42-500 PW 127E/M 22.67 m 24.57 m
10 ATR42-300 PW 120/1 22.67 m 24.57 m

Dicha correlación produce incertidumbre entre las salidas Opk de las redes neuronales como se revela en la Tabla 10. Lo anterior sugiere que el conocimiento acerca de las clases de aeronave y su correlación (similitud) puede ser utilizado para identificar incertidumbres (múltiple clases identificadas como correctas) y traducirlos en una clasificación exitosa con base en un sistema de inferencia difusa. Por ejemplo, dado que el avión ATR42-500 tiene ciertas características del ATR42-300 y ATR72-600, la incertidumbre en la Tabla 10 con respecto a p = [8,9,10] podría ser usada para inferir que es una medición de la Clase ATR42-500 (PW127E). Más ejemplos y detalles de los resultados obtenidos puede consultarse en 35.

La comparación global de ambos modelos con respecto a la BD Nueva se muestra en la Tabla 12. Se evaluaron un total de 179 mediciones, de las cuales el 87,2% son clasificadas correctamente por el Nuevo Modelo. El mejor desempeño del modelo propuesto está estrechamente relacionado con la capacidad de cambiar el resultado final respecto a la clase p con base en cualquier salida Op+nk | nZ-0 0<p+nP de la red neuronal NNk. De hecho, cualquier combinación de las salidas Op+nk+m | mZ-0 0<k+mK puede usarse para inferir sobre con respecto a cualquier clase p. Además, la inferencia difusa con respecto a la entrada {x1,…, xk} bajo la correspondencia parcial de las reglas relacionadas con la clase y reduce la incertidumbre incluso cuando Oykmaxp=1,2,,POpk y {x1, ..., xk} pertenezca a la clase y. Más aún, la jerarquía de la red neuronal NNk respecto a la clase p está determinada por las reglas difusas que involucran O^pk como parte del antecedente y Zp como consecuente, lo que reduce la incertidumbre introducida por un alto valor erróneo Opk cuando NNk tiene una alta jerarquía en relación a la clase p, ya que podría ser apoyado por cualquier otra entrada difusa O^p+nk+m.

Tabla 12 Comparación General entre Ambos Modelos) 

p Mediciones Clasificaciones Correctas
Modelo ESWA Nuevo Modelo
1 7 5 7
2 17 13 14
3 13 9 11
4 18 15 16
5 19 11 16
6 20 13 18
7 13 10 11
8 9 6 8
9 11 7 9
10 6 4 6
11 9 6 7
12 15 11 13
13 22 19 20
TOTAL (%) 179 129 156
(100%) (72.1%) (87.2%)

5. Conclusiones

Mediante la segmentación de la señal en el tiempo se logra identificar una disimilitud apreciable entre los espectros de cada segmento, confirmando que el ruido de las aeronaves en el despegue es un proceso no estacionario, que varía tanto en amplitud como en frecuencia. Además, se demuestra que la identificación de la clase de aeronave a partir de un modelo que combine los patrones extraídos por cada segmento es superior al uso de los patrones extraídos de la señal completa.

Dichos modelos con K clasificadores paralelos, uno por segmento k = 1,2,..., K, generan múltiples salidas Opk sobre el mismo espacio de clases p = 1,2,..., P. Las múltiples salidas Opk con respecto a la clase p son combinadas usando un método de agregación que permite un mayor índice de reconocimiento. La agregación o combinación de las salidas se realiza a partir de la definición de una jerarquía por cada clase p de todos los clasificadores con base en la cuantificación del desempeño durante la etapa de validación usando la métrica Fβ. Además se introduce la dinámica en el proceso de ponderado con base en la similitud de las respuestas de todos los clasificadores con respecto a la clase p.

Asimismo, se introduce un modelo multicapa neuro-difuso que permite decidir sobre la clase p no solamente con base en las salidas Opk sino también respecto a las salidas Op+nk+m | mZ-0 0<k+mK. Ello permite modelar relaciones existentes entre clases que están correlacionadas y que algunos clasificadores del conjunto no logran diferenciar. Además, la arquitectura multicapa neuro-difusa propuesta permite una gran flexibilidad para cambiar el resultado final con respecto a la clase p a través de la adición/eliminación de reglas de inferencia difusas. Más aún, el nuevo modelo neuro-difuso es más escalable ya que permite adicionar una nueva serie de salidas Opk respecto a las clases p = 1,2,..., P al proceso de inferencia difusa.

Más detalles de la metodología y resultados obtenidos en este trabajo pueden ser consultados en 19, 22, 23, 31, 35, 38.

Referencias

1. ICAO (2008). Environmental Protection. Aircraft Engine Emissions, International Civil Aviation Organization (ICAO). Annex 16 to the Convention on International Civil Aviation. [ Links ]

2. ICAO (2008). Environmental Protection. Aircraft Noise, International Civil Aviation Organization (ICAO). Annex 16 to the Convention on International Civil Aviation. [ Links ]

3. ICAO (2010). Environmental Report, Aviation and Climate Change. International Civil Aviation Organization (ICAO). [ Links ]

4. ICAO (2007). Guidance on the Balanced Approach to Aircraft Noise Management. International Civil Aviation Organization (ICAO), Doc 9829 AN/451. [ Links ]

5. ICAO (2008). Recommended Method for Computing Noise Contours Around Airports. International Civil Aviation Organization (ICAO), Canada, Doc. 9911. [ Links ]

6. SAE (1986). Procedure for the calculation of airplane noise in the vicinity of airports. Society of Automotive Engineers (SAE), AIR 1845. [ Links ]

7. ECAC (2005). Methodology for Computing Noise Contours around Civil Airports. Application Guide. European Civil Aviation Conference (ECAC), Doc. 29. [ Links ]

8. ECAC (2005). Methodology for Computing Noise Contours around Civil Airports. Technical Guide. European Civil Aviation Conference (ECAC), Doc. 29. [ Links ]

9. FAA (2013). Integrated Noise Model (INM). Computer model to evaluate the aircraft noise impacts in the vicinity of airports, 7.0d ed: Federal Aviation Administration (FAA). [ Links ]

10. MASSPORT (2015). Logan Airport Noise Monitoring System. http://www.massport.com/environment/environmental-reporting/noise-abatement/noise-monitoring/. [ Links ]

11. SAE (2012). Monitoring Aircraft Noise and Operations in the Vicinity of Airports: System Description, Acquisition, and Operation, Society of Automotive Engineers (SAE). ARP 4721 Part 1. [ Links ]

12. SAE (2012). Monitoring Aircraft Noise and Operations in the Vicinity of Airports: System Validation, Society of Automotive Engineers (SAE). ARP 4721 Part 2. [ Links ]

13. MWAA (1981). DCA Nighttime Noise Rule MWAA. http://www.metwashairports.com/reag an/7043.htm. [ Links ]

14. ISO (1996). Acoustics - Attenuation of sound during propagation outdoors - Part 2: General method of calculation, in ISO 9613-2. ed: International Organization for Standardization (ISO). [ Links ]

15. ISO (1993). Acoustics - Attenuation of sound during propagation outdoors - Part 1: Calculation of the absorption of sound by the atmosphere, in ISO 9613-1. ed: International Organization for Standardization (ISO). [ Links ]

16. NASA (1999). Making future commercial aircraft quieter. NASA Glenn Research Center, Cleveland, Ohio. [ Links ]

17. SAE (2006). Method for Predicting Lateral Attenuation of Airplane Noise. Society of Automotive Engineers (SAE), AIR 5662. [ Links ]

18. Plotkin, K. J., Hobbs, C. M., & Bradley K. A. (2000). Examination of the Lateral Attenuation of Aircraft Noise. [ Links ]

19. Sánchez-Pérez, L. A., Sánchez-Fernández, L. P. Suárez-Guerra, S., & Carbajal-Hernández, J. J. (2013). Aircraft class identification based on takeoff noise signal segmentation in time. Expert Systems with Applications, Vol. 40, pp. 5148-5159, [ Links ]

20. Sánchez-Fernández, L. P. Pogrebnyak, O. Oropeza-Rodríguez, J. L., & Suárez-Guerra, S. (2007). Noise Pattern Recognition of Airplanes Taking Off: Task for a Monitoring System. Progress in Pattern Recognition, Image Analysis and Applications, pp. 831-840. [ Links ]

21. Rojo-Ruiz, A. Sánchez-Fernandez, Felipe-Riverón, L. E., & Suárez-Guerra, S. (2008). Computational Model for Aircraft's Takeoffs Pattern Recognition. Progress in Pattern Recognition, Image Analysis and Applications, Vol. 5197, Springer Berlin Heidelberg, pp. 14-21. [ Links ]

22. Sánchez-Fernández, L. P. Sánchez-Pérez, L. A. Carbajal-Hernández, J. J., & Rojo-Ruiz, A. (2013) . Aircraft Classification and Acoustic Impact Estimation Based on Real-Time Take-off Noise Measurements. Neural Processing Letters, Vol. 38, pp. 239-259. [ Links ]

23. Márquez-Molina, M., Sánchez-Fernández, L. P. Suárez-Guerra, S., & Sánchez-Pérez, L. A. (2014) . Aircraft take-off noises classification based on human auditory's matched features extraction. Applied Acoustics, Vol. 84, pp. 83-90. [ Links ]

24. Serway, R. A. & Jewett, J. W. (2010). Physics for Scientists and Engineers. 8 ed. Belmont, USA: Brooks/Cole. [ Links ]

25. Markel, J. & Gray, A. (1976). Linear Prediction of Speech. Berlin, Germany: Springer-Verlag. [ Links ]

26. Li, D., Acero, A., & Bazzi, I. (2006). Tracking vocal tract resonances using a quantized nonlinear function embeddedin a temporal constraint. Audio, Speech, and Language Processing, IEEE Transactions on, Vol. 14, pp. 425-434. [ Links ]

27. Hagen, R., Paksoy, E. & Gersho, A. (1999). Voicing-specific LPC quantization for variable-rate speech coding. Speech and Audio Processing, IEEE Transactions on, Vol. 7, pp. 485-494. [ Links ]

28. Mi Suk, L., Hong Kook, K., & Hwang Soo, L. (1999). LPC analysis incorporating spectral interpolation for speech coding. Electronics Letters, Vol. 35, pp. 200-201. [ Links ]

29. Jian-Bo, Y., Kai-Quan, Chong-Jin, S. O., & XiaoPing, L. (2009). Feature Selection for MLP Neural Network: The Use of Random Permutation of Probabilistic Outputs. Neural Networks, IEEE Transactions on, Vol. 20, pp. 1911-1922. [ Links ]

30. Asensio, C., Ruiz, M., & Recuero, M. (2010). Real-time aircraft noise likeness detector. Applied Acoustics , Vol. 71, pp. 539-545. [ Links ]

31. Sanchez-Perez, L.A., Sanchez-Fernandez, L.P. Suarez-Guerra, S., & Lopez-Pacheco M.G. (2015). Dynamic hierarchical aggregation of parallel outputs for aircraft take-off noise identification. Engineering Applications of Artificial Intelligence, Vol. 46, Part A, pp. 33-42. [ Links ]

32. Ramya, R., Anandanatarajan, R. Priya, R., & Selvan G. A. (2012). Applications of fuzzy logic and artificial neural network for solving real world problem. Advances in Engineering. Science and Management (ICAESM), International Conference on, India. [ Links ]

33. Ózbay, Y., Ceylan, R., & Karlik, B. (2011). Integration of type-2 fuzzy clustering and wavelet transform in a neural network based ECG classifier. Expert Systems with Applications , Vol. 38, pp. 1004-1010, Jan. [ Links ]

34. Yórükoglu, A. & Erding, A. (2013). Estimation of Unbalanced Loads in Washing Machines Using Fuzzy Neural Networks. Mechatronics, IEEE/ASME Transactions on, Vol. 18, pp. 1182-1190. [ Links ]

35. Sanchez-Perez, L.A., Sanchez-Fernandez, L.P., Shaout, A., & Suarez-Guerra, S. (2016). Airport take-off noise assessment aimed at identify responsible aircraft classes. Science of The Total Environment, Vol. 542, Part A, pp. 562-577. [ Links ]

36. Zadeh, L.A. (1972). A Rationale for Fuzzy Control. Journal of Dynamic Systems, Measurement, and Control, Vol. 94, pp. 3-4. [ Links ]

37. Ross, T.J. (2010). Fuzzy Logic with Engineering Applications. 3 ed. United Kingdom: John Wiley & Sons, Ltd. [ Links ]

38. Sánchez-Pérez, L.A., Sánchez-Fernández, L.P., Suárez-Guerra, S., & Márquez-Molina, M. (2014). Geo-referenced flight path estimation based on spatio-temporal information extracted from aircraft take-off noise. Digital Signal Processing, Vol. 30, pp. 1 -14. [ Links ]

39. FAA (2015). Releasable Aircraft Database. http://registry.faa.gov/database/AR022015.zipLinks ]

40. Aumont, A., Antonakis, A., Croy, B., Sloman, B., Duijnmayer, K., Blinkhorn, P., & et al. (2015). Aircraft Registration Database. Available: http://www.airframes.org/Links ]

41. Flightradar24 (2015). Airline fleet database. http://www.flightradar24.com/data/airplanes. [ Links ]

42. ANP (2012). The Aircraft Noise and Performance (ANP) Database. An international data resource for aircraft noise modellers, http://www.aircraftnoisemodel.org/Links ]

43. ATR (2011). ATR 42-300/-320 Brochure. http://www.atraircraft.com/products_app/media/pdf AATR_42-300-320.pdf. [ Links ]

44. ATR (2014). ATR-500 Series Brochure. http://www.atraircraft.com/products_app/media/pdf/Fiche_ATR%2042-500_septembre2014.pdf. [ Links ]

45. ATR (2014). ATR 72-600 Leaflet. http://www.atraircraft.com/products_app/media/pdf/Fiche_72-600_septembre%202014.pdf. [ Links ]

Recibido: 09 de Agosto de 2016; Aprobado: 02 de Noviembre de 2016

Autor de correspondencia. Luis Alejandro Sánchez Pérez.

Luis Alejandro Sánchez-Pérez obtuvo su doctorado en el Centro de Investigación en Computación (CIC) del Instituto Politécnico Nacional (IPN), México 2016, recibiendo la Medalla Lázaro Cárdenas en la categoría de Doctorado en Ingeniería y Ciencias Físico Matemáticas, el mayor reconocimiento académico que otorga el instituto. Actualmente pertenece al Sistema Nacional de Investigadores del CONACYT con nombramiento de Investigador Nacional SIN-I. En este momento pertenece al Departamento de Ingeniería Eléctrica y Computación de la Universidad de Michigan -Dearborn como Académico Afiliado y Posdoctorante. Sus áreas de investigación son Machine Learning, Inteligencia Artificial, Procesamiento Digital de Señales, Arreglo de Sensores y Procesamiento Multicanal.

Luis Pastor Sánchez-Fernández obtuvo su doctorado en ciencias técnicas por el Instituto Superior Politécnico José Antonio Echeverría en 1998, Habana, Cuba. Actualmente se desempeña como Profesor/Investigador en el Centro de Investigación en Computación (CIC) del Instituto Politécnico Nacional (IPN). Pertenece al Sistema Nacional de Investigadores en la categoría de Investigador Nacional SNI-I. Sus áreas de investigación son Instrumentación Virtual, Procesamiento de Señales, Reconocimiento de Patrones y Control Automático.

Sergio Suarez-Guerra obtuvo su doctorado en ciencias técnicas en el Centro de Computación de la Academia de Ciencias de la Unión de Repúblicas Soviéticas (URSS) en 1979. Actualmente es Profesor/Investigador en el Centro de Investigación en Computación (CIC) del Instituto Politécnico Nacional. Pertenece al Sistema Nacional de Investigadores en la categoría de Investigador Nacional SNI-I. Sus áreas de investigación son Procesamiento de Señales, Reconocimiento de Patrones y Voz.

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons