ENTRENAMIENTO DE REDES NEURONALES: ANÁLISIS DE MÉTODOS GENERALIZADOS DE MINIMIZACIÓN POR DECENSO SEGÚN EL GRADIENTE

Autores/as

  • P. M. Granitto IFIR (Universidad Nacional de Rosario – CONICET)
  • P. F. Verdes IFIR (Universidad Nacional de Rosario – CONICET)
  • H. D. Navone IFIR (Universidad Nacional de Rosario – CONICET)
  • H. A. Ceccatto IFIR (Universidad Nacional de Rosario – CONICET)

Resumen

El entrenamiento de redes neuronales requiere el uso de métodos de minimización sofisticados, de manera de evitar que el proceso de aprendizaje se la información contenida en la base de datos se frustre por la presencia de mínimos locales. En este trabajo se discuten las ventajas relativas de los algoritmos de minimización de Levenberg-Marquardt y gradientes conjugados, y se comparan con el método estándar de retropropagación de errores. Sobre la base de un ejemplo -vinculado a la restructuración de la dinámica de un sistema afectado por ruido- se establece la convivencia de utilizar algoritmos híbridos que combinan los métodos mencionados.

Biografía del autor/a

P. M. Granitto, IFIR (Universidad Nacional de Rosario – CONICET)

IFIR (Universidad Nacional de Rosario – CONICET)

P. F. Verdes, IFIR (Universidad Nacional de Rosario – CONICET)

IFIR (Universidad Nacional de Rosario – CONICET)

H. D. Navone, IFIR (Universidad Nacional de Rosario – CONICET)

IFIR (Universidad Nacional de Rosario – CONICET)

H. A. Ceccatto, IFIR (Universidad Nacional de Rosario – CONICET)

IFIR (Universidad Nacional de Rosario – CONICET)

Descargas

Publicado

2013-03-19

Número

Sección

Mecánica estadística, física no lineal y sistemas complejos