Indice
Consideraciones Prácticas

Perceptron Multicapa


Regla Delta Generalizada

La Regla Delta o LMS entrena un PE o una capa de PE pero cuando trabajamos con una estructura neuronal en donde existen capas ocultas, la Regla Delta no sirve para su entrenamiento. El motivo es que se conoce la salida deseada para cada patrón de entrenamiento (en la última capa de la estructura) y no se conoce la salida deseada para los EPs de las capas ocultas.

La Regla Delta Generalizada o Backpropagation fue creada para generalizar la Regla Delta sobre Redes Neuronales de múltiples capas y funciones de transferencia no lineales y diferenciables. Sus principales características son: Entrenamiento Supervisado por Corrección de Error, Aprendizaje Off Line y Capacidad de Generalización.

Arquitectura de Pesos

Capa de Salida: Como en la capa de salida puede haber un nº >1 de PE, en este caso no nos basta con un único valor de error . El error que se debe minimizar es la suma de los cuadrados de los errores de todas las unidades de salida.

De tal manera que los pesos en la capa de salida se modificarán de la siguiente manera:

Condición NECESARIA: f debe ser derivable. Dos casos:

Capas Ocultas: ¿Como determinamos los valores esperados de los EP en las capas ocultas?. El error Ep está relacionado con la salida de los EP en capas ocultas de la siguiente manera:

Las actualizaciones de los pesos en la capa oculta dependen de todos los términos de errores de la capa de salida. Esto es a lo que se refiere uno con el nombre de propagación hacia atrás.

M. González Penedo