ENTRENAMIENTO DE REDES NEURONALES: ANÁLISIS DE MÉTODOS GENERALIZADOS DE MINIMIZACIÓN POR DECENSO SEGÚN EL GRADIENTE

Authors

  • P. M. Granitto IFIR (Universidad Nacional de Rosario – CONICET)
  • P. F. Verdes IFIR (Universidad Nacional de Rosario – CONICET)
  • H. D. Navone IFIR (Universidad Nacional de Rosario – CONICET)
  • H. A. Ceccatto IFIR (Universidad Nacional de Rosario – CONICET)

Abstract

El entrenamiento de redes neuronales requiere el uso de métodos de minimización sofisticados, de manera de evitar que el proceso de aprendizaje se la información contenida en la base de datos se frustre por la presencia de mínimos locales. En este trabajo se discuten las ventajas relativas de los algoritmos de minimización de Levenberg-Marquardt y gradientes conjugados, y se comparan con el método estándar de retropropagación de errores. Sobre la base de un ejemplo -vinculado a la restructuración de la dinámica de un sistema afectado por ruido- se establece la convivencia de utilizar algoritmos híbridos que combinan los métodos mencionados.

Author Biographies

P. M. Granitto, IFIR (Universidad Nacional de Rosario – CONICET)

IFIR (Universidad Nacional de Rosario – CONICET)

P. F. Verdes, IFIR (Universidad Nacional de Rosario – CONICET)

IFIR (Universidad Nacional de Rosario – CONICET)

H. D. Navone, IFIR (Universidad Nacional de Rosario – CONICET)

IFIR (Universidad Nacional de Rosario – CONICET)

H. A. Ceccatto, IFIR (Universidad Nacional de Rosario – CONICET)

IFIR (Universidad Nacional de Rosario – CONICET)

Published

2013-03-19

Issue

Section

Mecánica estadística, física no lineal y sistemas complejos