- Adaline
-
El adaline (de ADAptative LINear Element) es un tipo de red neuronal artificial desarrollada por Bernie Widrow en la Universidad de Stanford. Aunque originalmente el nombre correspondía a ADAptative LInear NEuron, al caer las redes neuronales en decadencia el autor decidió pasar a la primera definición dada.
La diferencia entre el Adaline y el perceptrón estándar (McCulloch-Pitts) es que el perceptrón solo tiene capacidad para clasificar, ya que utiliza una función umbral sobre la suma ponderada de las entradas, a diferencia del adaline, que es capaz de estimar una salida real.
Contenido
Definición
Generalmente se compone de una sola capa de n neuronas ( por tanto n valores de salida ) con m entradas con las siguientes características:
- Las m entradas representan un vector x de entrada que pertenece al espacio Rm.
- Por cada neurona, existe un vector w de pesos sinápticos que indican la fuerza de conexión entre los valores de entrada y la neurona. En la práctica representan la ponderación de cada entrada sobre la neurona.
- Una constante θ.
- La salida y de la neurona se representa por la función de activación, que se define como
Aprendizaje
A diferencia del perceptrón, a la hora de modificar los pesos durante el entrenamiento el Adaline tiene en cuenta el grado de corrección de la salida estimada respecto a la deseada. Esto se consigue mediante la aplicación de la regla Delta, y que se define, para un patrón de entrada xp con una salida estimada yp y una salida deseada dp, como | dp − yp | .
Dado que el objetivo del Adaline es poder estimar de la manera más exacta la salida (conseguir una salida exacta es prácticamente imposible en la mayoría de los casos), se busca minimizar la desviación de la red para todos los patrones de entrada, eligiendo una medida del error global. Normalmente se utiliza el error cuadrático medio.
La manera de reducir este error global es ir modificando los valores de los pasos al procesar cada entrada, de forma iterativa, mediante la regla del descenso del gradiente. Suponiendo que tenemos una constante de aprendizaje α:
Si operamos con la derivada, queda:
Que será la expresión que utilizaremos por cada entrada para modificar los pesos.
Ventajas
Con respecto al perceptrón el Adaline posee la ventaja de que su gráfica de error es un hiperparaboloide que posee o bien un único mínimo global, o bien una recta de infinitos mínimos, todos ellos globales. Esto evita la gran cantidad de problemas que da el perceptrón a la hora del entrenamiento debido a que su función de error (también llamada de coste) posee numerosos mínimos locales.
Aplicaciones
- Asociación de patrones: se puede aplicar a este tipo de problemas siempre que los patrones sean linealmente separables.
En el campo del procesamiento de señales:
- Filtros de ruido: Limpiar ruido de señales transmisoras de información.
- Filtros adaptativos: Un adaline es capaz de predecir el valor de una señal en el instante t+1 si se conoce el valor de la misma en los p instantes anteriores (p es >0 y su valor depende del problema). El error de la predicción será mayor o menor según qué señal queramos predecir. Si la señal se corresponde a una serie temporal el Adaline, pasado un tiempo, será capaz de dar predicciones exactas.
Se pueden combinar múltiples Adalines formando lo que se denomina el Madaline.
Referencias
Categoría:- Redes neuronales artificiales
Wikimedia foundation. 2010.