DISCRIMINACIÓN DE DISTRIBUCIONES DE PROBABILIDAD USANDO DISTANCIAS ENTRÓPICAS

Autores/as

  • Miguel A. Ré Universidad Nacional de Córdoba
  • Domingo P. Prato Universidad Nacional de Córdoba
  • Pedro W. Lamberti Universidad Nacional de Córdoba, CONICET

Resumen

La divergencia de Jensen-Shannon (JSD), una versión simetrizada de la divergencia de Kullback-Leibler, es una medida de distancia en teoría de probabilidad. Esta medida y generalizaciones de la misma han sido utilizadas en diferentes contextos, por ejemplo en el análisis de secuencias simbólicas, en el estudio de textos literarios, y en la discriminación de estados cuánticos. Si bien la extensión de su definición a distribuciones continuas de probabilidad es directa, la aplicación de la JSD ha estado restringida, en general, al estudio de secuencias discretas. En esta comunicación se analiza la aplicación del método para la detección de segmentación de secuencias asociadas a distribuciones continuas de probabilidad. En particular se consideran secuencias generadas con igual distribución de probabilidad pero distinto valor medio y secuencias generadas con distribuciones de probabilidad distintas con igual valor medio.

Biografía del autor/a

Miguel A. Ré, Universidad Nacional de Córdoba

Facultad de Matemática, Astronomía y Física

Domingo P. Prato, Universidad Nacional de Córdoba

Facultad de Matemática, Astronomía y Física

Pedro W. Lamberti, Universidad Nacional de Córdoba, CONICET

Facultad de Matemática, Astronomía y Física

Descargas

Publicado

2007-06-18

Número

Sección

Mecánica estadística, física no lineal y sistemas complejos