ENTRENAMIENTO DE REDES NEURONALES: ANÁLISIS DE MÉTODOS GENERALIZADOS DE MINIMIZACIÓN POR DECENSO SEGÚN EL GRADIENTE
Abstract
El entrenamiento de redes neuronales requiere el uso de métodos de minimización sofisticados, de manera de evitar que el proceso de aprendizaje se la información contenida en la base de datos se frustre por la presencia de mínimos locales. En este trabajo se discuten las ventajas relativas de los algoritmos de minimización de Levenberg-Marquardt y gradientes conjugados, y se comparan con el método estándar de retropropagación de errores. Sobre la base de un ejemplo -vinculado a la restructuración de la dinámica de un sistema afectado por ruido- se establece la convivencia de utilizar algoritmos híbridos que combinan los métodos mencionados.