GENERALIZACION DE LA DIVERGENCIA DE JENSEN SHANNON A ESTADISTICA NO EXTENSIVA PARA EL ANALISIS DE SECUENCIAS

Autores/as

  • Diego Bussandri Facultad de Matemática, Astronomía y Física, Universidad Nacional de Córdoba
  • Leonel Garro Linck Facultad de Matemática, Astronomía y Física, Universidad Nacional de Córdoba
  • Miguel Ré Facultad de Matemática, Astronomía y Física, Universidad Nacional de Córdoba Facultad Regional Córdoba, Universidad Tecnológica Nacional
  • Pedro Lamberti Facultad de Matemática, Astronomía y Física, Universidad Nacional de Córdoba CONICET

Resumen

La divergencia de Jensen Shannon (JSD), una versión simetrizada de la divergencia de Kullback Leibler,permite cuantificar la diferencia entre distribuciones de probabilidad. Debido a esta propiedad ha sido ampliamente utilizada para el análisis de secuencias simbólicas, comparando la composición simbólica de posibles subsecuencias. Una ventaja que ofrece JSD es que no requiere el mapeo de la secuencia simbólica a una secuencia numérica, necesaria por ejemplo en el análisis de correlación espectral. Se han propuesto distintas extensiones de JSD para mejorar la detecci´on de bordes de subsecuencias en una secuencia, en particular para el análisis de secuencias de DNA. Desde su propuesta original, la extensión propuesta por Tsallis a la entropía de Boltzmann Gibbs ha sido considerada para extender sus resultados y aplicaciones. Sin embargo no surge una única posibilidad para la extensión de JSD a partir de la definición de Tsallis. Consideramos aquí posibles extensiones de la JSD en el marco de la entropía de Tsallis y consideramos los resultados que se obtienen cuando se aplican al análisis de secuencias simbólicas para la detección de bordes de subsecuencias.

Publicado

2014-02-10

Número

Sección

Mecánica Estadística