Funciones de Transferencia
Indice
Incremento de la Velocidad de Aprendizaje

Control de Convergencia


En las técnicas de gradiente descendente es conveniente avanzar por la superficie de error con incrementos pequeños de los pesos.

Información local de la superficie.

Incrementos grandes: se corre el riesgo de pasar por encima del punto mínimo sin conseguir estacionarse en él. · Incrementos pequeños: aunque se tarde más en llegar, se evita que ocurra esto.

El elegir un incremento adecuado influye en la velocidad con la que converge el algoritmo. Sabemos que este control lo podemos realizar mediante el parámetro denominado ganancia. Normalmente se le asigna un valor pequeño (0,05-0,25) para asegurar que la red llegue a asentarse en una solución.

Otra manera de incrementar la velocidad de aprendizaje, consiste en utilizar otro parámetro llamado Momento:

Un último aspecto a tener en cuenta es la posibilidad de convergencia hacia alguno de los mínimos locales.

Si se alcanza un mínimo local y el error es satisfactorio, el entrenamiento ha sido un éxito, si no sucede así, puede realizarse varias acciones para solucionar el problema:



M. González Penedo