PROYECTO FIN DE CARRERA

Universidad Rey Juan Carlos Escuela Politécnica Superior Departamento de Teoría de la Señal y Comunicaciones Ingeniería Superior de Telecomunicación
Author:  Irene Cruz Ruiz

7 downloads 41 Views 1MB Size

Story Transcript

Universidad Rey Juan Carlos Escuela Politécnica Superior

Departamento de Teoría de la Señal y Comunicaciones

Ingeniería Superior de Telecomunicación:

PROYECTO FIN DE CARRERA

DETECCIÓN DE FIBRILACIÓN VENTRICULAR MEDIANTE MÉTODOS NO LINEALES APLICADOS AL ELECTROCARDIOGRAMA Autor : Carlos Gutiérrez Hernández Tutor : Felipe Alonso Atienza Co-tutor: Óscar Barquero Pérez Junio de

2014

Universidad Rey Juan Carlos de Madrid Escuela Politécnica Superior

Departamento de Teoría de la Señal y Comunicaciones

Ingeniería Superior de Telecomunicación:

Proyecto Fin de Carrera

DETECCIÓN DE FIBRILACIÓN VENTRICULAR MEDIANTE MÉTODOS NO LINEALES APLICADOS AL ELECTROCARDIOGRAMA Autor:

Carlos Gutiérrez Hernández

Tutor:

Felipe Alonso Atienza

Co-Tutor:

Óscar Barquero Pérez

Fuenlabrada, Junio de

2014

Proyecto Fin de Carrera

DETECCIÓN DE FIBRILACIÓN VENTRICULAR MEDIANTE MÉTODOS NO LINEALES APLICADOS AL ELECTROCARDIOGRAMA

Autor

Carlos Gutiérrez Hernández

Tutor

Felipe Alonso Atienza

Co-Tutor

Óscar Barquero Pérez

La defensa del presente Proyecto Fin de Carrera se realizá el día - - de Junio de 2014, siendo evaluada por el siguiente tribunal:

Presidente:

Secretario:

Vocal:

y habiendo obtenido la siguiente Calificación:

Fuenlabrada, a -io - de Jun de

2014

A los que...

Contenido Agradecimientos

ix

Prefacio

xi

Abreviaturas

xiii

1. Introducción

1

1.1.

Estado del Arte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2

1.2.

Objetivos y Estructura de la memoria

2

. . . . . . . . . . . . . . . . . . .

2. Fundamentos básicos de electrosiología cardíaca 2.1.

Electrocardiogramas 2.1.1.

2.2.

5

. . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5

Arritmias Cardíacas: . . . . . . . . . . . . . . . . . . . . . . . . .

11

Bases de datos públicas

. . . . . . . . . . . . . . . . . . . . . . . . . . .

3. Métodos no Lineales 3.1.

13

17

Métodos no Lineales

. . . . . . . . . . . . . . . . . . . . . . . . . . . . .

19

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

19

3.1.1.

ApEn

3.1.2.

SampEm

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

21

3.1.3.

FuzzyEn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

23

4. Resultados sobre señales sintéticas y reales

27

4.1.

Pruebas sintéticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

27

4.2.

Resultado de los métodos sobre datos clínicos

29

4.3.

Aplicar métodos con parámetros denidos sobre toda la base de datos

.

33

4.4.

Comparación de los parámetros usados con los métodos clásicos . . . . .

36

. . . . . . . . . . . . . . .

5. Conclusiones y líneas futuras 5.1.

Conclusiones

5.2.

Líneas Futuras

39

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

39

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

40

Bibliografía

42 vii

viii / CONTENIDO

Índice de Figuras

43

Índice de Cuadros

45

Agradecimientos

Quiero agradecer...

ix

Prefacio

La patología cardíaca es uno de los principales factores de mortalidad en la sociedad occidental, más concretamente los episodios denominados como Fibrilación Ventricular (FV).

Estos

episodios

se

caracterizan

por

una

contracción

desincronizada

de

los

ventrículos, lo que genera una falta de riego sanguíneo en el sistema circulatorio y si no es tratado en un breve espacio de tiempo la situación puede ser irreversible. Por esto se hace tan importante la detección automática de este estado patológico, y la base de ello se centra en el estudio del Electrocardiograma (ECG) como si fuera una señal propia de Teoría de la Señal.

La investigación en este campo comenzó a nales del siglo pasado sobre la que se han centrado los esfuerzos en tres campos principalmente, extracción de características temporales, frecuenciales y de complejidad. Éste va a ser el campo en el que nos centremos, más concretamente en el estudio de la entropía intrínseca de la señal cardíaca. Para lo cual nos basamos en los parámetros y el estudio de Pincus,

as a measure of system complexity

Approximate entropy

publicado en 1991, en el que se asentaron las bases de

este Proyecto con el parámetro Approximate Entropy (ApEn), que dio lugar a Sample Entropy (SampEn), versión mejorada, ambos ampliamente probados con conjunto de datos sintéticos y clínicos.

El objetivo de este Proyecto es dar un paso más y probar con datos clínicos una nueva versión denominada Fuzzy Entropy (FuzzyEn). Se ha comprobado que con señales sintéticas tiene menos restricciones que los parámetros anteriores y al usar bases de datos con ECG reales (CUDB, VFDB), se ha reducido un 7 % la tasa de error previa a través de una selección adecuada de los parámetros de entrada del propio FuzzyEn. Se

xi

xii / Prefacio

ha considerado también necesario comparar dichos resultados con los métodos clásicos utilizados en la literatura para contextualizar este Proyecto, comprobándose que se consiguen unos resultados similares, lo cual valida este estudio como una alternativa más ante la detección de la FV.

Abreviaturas

Para ayudar al lector se incluyen un conjunto de abreviaturas usadas a lo largo del presente Proyecto.

Abreviaturas FV: Fibrilación Ventricular ECG: Electrocardiograma MIT: Massachusetts Institute of Technology CU: Creighton University VLF: Ventricular Flutter TV: Taquicardia Ventricular PQRS: Complejo P-Q-R-S Pe: Probabilidad de error AUC: Area Under the Curve ROC: Receiving Operating Curve tci: Threshold crossing intervals exp: Exponencial expm: Exponencial modicado xiii

xiv / Abreviaturas

cm: Complexity Measurement veak: Filtro Fv m: 1er

parámetro método Spectral

a2: 2o parámetro método Spectral mav: Mean Absolute Value psr: Phase Space Reconstruction hilb: Transformación de Hilbert

Capítulo 1 Introducción

Dada la sociedad donde vivimos, en la que la primera causa de mortalidad de países como Estados Unidos y la mayoría de países europeos son las patologías cardíacas, es importante tener un conocimiento suciente de su naturaleza, junto con herramientas de análisis e intervención que nos ayude a paliar esta situación.

Estas enfermedades están tratadas por cardiólogos, cirujanos torácicos, neurólogos, radiólogos... pero detrás de ellos hay mucha tecnología de base. El campo de las telecomunicaciones se ha usado para estudiar las señales cardíacas como un subconjunto de señales eléctricas, solo que en este caso, es vital conocer su naturaleza y características para poder tratarlas adecuadamente.

El papel del ingeniero biomédico en este caso se fundamenta en el conocimiento de técnicas de procesado, análisis y aprendizaje de señal, que resultan muy útiles en el campo de la detección patrones anormales del sistema de conducción del corazón. Y es aquí desde donde enfocamos este Proyecto de Fin de Carrera, en el que se van a analizar diversos algoritmos de "medida de complejidad" de la señal, que en lo sucesivo intentaremos explicar y validar. Nos centraremos en una alteración del ritmo cardíaco concreta denominada Fibrilación Ventricular (FV). Durante la FV, los ventrículos se contraen de forma descontrolada, inhibiendo el bombeo de sangre oxigenada al resto del cuerpo. En caso de ocurrir, es necesario un tratamiento adecuado para revertir la situación, ya que si no se actúa rápido, puede resultar letal para el paciente. Se

1

2 / Introducción (C. 1) ha demostrado que el éxito de la intervención es inversamente proporcional al tiempo que se tarda en ejecutarla. La manera de intervenir es

reiniciar el corazón  con una

descarga de alta energía llamada desbrilación.

1.1. Estado del Arte Los problemas cardíacos conllevan 6 millones de muertes en Europa y Estados Unidos. Estos episodios se suelen generar por una taquicardia ventricular rápida que suele degenerar en un brilación ventricular. La pronta detección de estos sucesos es crucial para poder aplicar adecuadamente una terapia de electro-shock, teniendo una tasa de supervivencia inversamente proporcional al tiempo que se tarda en ejecutar.

A lo largo de las últimas décadas se han buscado métodos para la detección de arritmias, pero aún así es un problema abierto que no está resuelto. Los métodos utilizados habitualmente se pueden clasicar en tres campos:



Métodos temporales: basados en la caracterización de la morfología de la señal electrocardigráca.



Métodos frecuenciales:

extraen información de las componentes frecuenciales

de la señal.



Métodos basados en complejidad:

extraen características contenidas en los

patrones de repetición de la señal y métodos basados en teoría de la información.

Este trabajo se va a centrar en el uso de parámetros de complejidad, ya que este campo es más reciente, y puede aportar nuevo conocimiento sobre la señal electrocardiográca que hasta ahora no se ha tenido en cuenta a través de los métodos tradicionales.

1.2. Objetivos y Estructura de la memoria La base de este trabajo es el análisis de tres parámetros no lineales de complejidad,

Aproximate Entropy, Sample Entropy y Fuzzy Entropy,

que miden la complejidad de

ventanas temporales obtenidas de la señal. La caracterización mediante estos métodos

Objetivos y Estructura de la memoria / 3 puede servir como paso previo de un esquema de detección de FV.

Nos vamos a basar en los resultados de estos tres parámetros ejecutados sobre un conjuntos de ECG's reales presentes en dos bases de datos públicas y etiquetadas. Se va a utilizar Physionet (www.physionet.org). Physionet es un repositorio de bases de datos (BBDD) de señales siológicas, entre ellas señales de ECG. Para este trabajo se utilizan registros de ECG etiquetados por episodios. De entre todas las ofrecidas, dos son de interés para el objetivo del trabajo: MITDB (Massachusetts Institute of Technology Data Base), VFDB (Ventricular Fibrillation Data Base).

A la hora de presentar los algoritmos, tras realizar una introducción general junto con otros algoritmos clásicos, se procederá a probarlos con señales sintéticas, esto nos servirá para comprobar si funcionan correctamente, también para determinar los parámetros libres de cada uno para optimizarlos y poder compararlos posteriormente.

La estructura que sigue a continuación se presenta como:



Capítulo 2: Se presentan las bases electrosiológicas del ECG, ritmos patológicos de interés y bases de datos sobre las que se realiza el estudio.



Capítulo 3: Se presenta una introducción de los parámetros clásicos de detección de FV y se incidirá en los que usaremos nosotros del campo de complejidad.



Capítulo 4: Se prueban estos algoritmos inicialmente con señales sintéticas y comprobar su validez, para posteriormente enfrentarlos a ECGs reales de la base de datos, después obtendremos estadísticas y comprobaremos su validez. También se compararán los resultados con el conjunto de métodos clásicos para poder contextualizarlos.



Capítulo 5: Se analizarán los resultados para sacar conclusiones y posibles líneas futuras.

Capítulo 2 Fundamentos básicos de electrofisiología cardíaca

Las patologías cardíacas son la causa número uno de muerte en el mundo occidental, por ello es tan importante el estudio del corazón y del sistema circulatorio. Si vemos el corazón desde un punto de vista anatómico, observamos que su estructura se basa en 4 cámaras (aurículas y ventrículos) que se encargan únicamente de la circulación de la sangre por todo el cuerpo. Desde el punto de vista siológico, es un conjunto de células musculares con un potencial de acción determinado, que se contrae y relaja rítmicamente. Desde el punto de vista de un ingeniero, es un circuito eléctrico que se polariza (carga) y despolariza (descarga) generando una señal característica signicativa y medible que se denomina Electrocardiograma (ECG) que coordina la contracción cardíaca. En esto vamos a basar nuestro trabajo, en el estudio del ECG y sus episodios anómalos.

2.1. Electrocardiogramas Para poder recoger medidas del funcionamiento del corazón la principal herramienta es el ECG. Esta herramienta es la encargada de representar el ciclo cardíaco a través de su comportamiento bioeléctrico. La naturaleza de esta señal representa elmente el funcionamiento del mismo, pudiendo obtener algunos parámetros o patrones fundamentales que permiten la detección de patologías subyacentes.

5

6 / Fundamentos básicos de electrofisiología cardíaca (C. 2)

Los ECG registran la actividad eléctrica, en concreto se basan en los procesos de polarización y despolarización del tejido cardíaco, por lo que para comprender en profundidad el trabajo hecho en este Proyecto empezaremos estructurando las características de la señal basándonos en su realidad siológica.

El corazón es básicamente una bomba impelente pulsátil, cuyo funcionamiento se puede distinguir dos fases:



Sístole, en la que se produce la contracción cardíaca y la sangre es expulsada.



Diástole, en la que se produce la relajación y se produce el llenado de las cavidades.

En cuanto a su función estructural, puede ser asumida como dos bombas en serie, la primera impele la sangre a los pulmones para su oxigenación (circulación pulmonar) y la segunda eyecta la sangre al resto de los tejidos (circulación sistémica).

El ritmo normal del corazón está determinado por el automatismo de un conjunto de células cardíacas. Estas células cardíacas generan de forma espontánea un impulso eléctrico que se propaga por todo el corazón y permite su contracción. Tanto la repolarización como la despolarización son dos comportamientos que toma el corazón en el funcionamiento y de vital importancia para el estudio de un electrocardiograma. Cuando un músculo cardíaco se estimula eléctricamente se contrae. Aunque en un sentido estricto, una célula polarizada en reposo tiene cargas negativas en su interior y positivas en su exterior. El corazón es recorrido por una onda progresiva de estimulación, lo que se denomina despolarización, que produce la contracción del miocardio. La despolarización se puede considerar como una onda de cargas positivas dentro de la célula. El miocardio se estimulan y hace que se contraiga cuando la carga en la célula queda positiva. Este sistema de conducción está formado por varios componentes básicos (ver gura 2.1): el nodo sinoauricular, el nodo aurículoventricular y el haz aurículoventricular o haz de His.



Nodo sinoauricular (S-A): Es una pequeña masa de tejido muscular cardíaco especializado. Se ubica en la porción superior de la aurícula derecha. Este tejido muscular se caracteriza por su capacidad de autoestimularse y provocar la propia contracción. Por esta capacidad se le suele denominar como el

marcapasos

cardíaco.

La señal de contracción generada en el nodo S-A hace que el corazón lata entre 70 a 80 veces (pulsaciones) por minuto en condiciones de reposo. La onda de contracción se propaga luego hacia el resto de la aurícula derecha y a toda la aurícula izquierda con una velocidad aproximada de 0,3 m/s, provocando la contracción auricular.

Electrocardiogramas / 7

Figura 2.1. Sistema de Conducción.

Representación del sistema de

conducción cardíaco. •

Nodo aurículoventricular (A-V):

Se encuentra en la aurícula derecha, cerca

de su base. Este tejido especializado tiene por función provocar un leve retraso en la propagación de la onda de contracción hacia los ventrículos. Esto es importante porque asegura que las aurículas completen su contracción y vacíen la sangre contenida antes que los ventrículos se contraigan. En caso de que el

marcapasos 

deje de funcionar este nódo es capaz de hacer latir el corazón a un ritmo de 40 a 60 latidos por minuto. Luego una onda de contracción abandona el nodo A-V y es transferida hasta un conjunto de células musculares especiales, llamadas bras de Purkinje. Estas se agrupan en una masa llamada haz aurículoventricular o haz de His.



Haz aurículoventricular o haz de His:

Tiene por función acelerar hasta seis

veces la velocidad de conducción de la onda de contracción (unos 4 m/s). De este modo las bras de Purkinje aseguran una transmisión rápida y simultánea de la onda de contracción hacia ambos ventrículos. El haz de His es capaz de estimularse por sí solo, la contracción del corazón a un ritmo de 15 latidos por minuto. Finalmente, las bras del haz de His descienden hacia el tabique interventricular y luego se dividen en dos grandes brazos, llamados rama izquierda y rama derecha

8 / Fundamentos básicos de electrofisiología cardíaca (C. 2) del haz, que originan otras de menor tamaño cada vez. Estas transeren la onda de contracción a los ventrículos.

La despolarización y repolarización de la masa muscular del corazón origina un campo eléctrico. Los líquidos corporales son buenos conductores y el campo eléctrico puede registrarse mediante electrodos externos colocados sobre la piel. El registro de estos potenciales, ECG, se puede denir como el registro de la actividad eléctrica cardíaca medida a distancia. El campo eléctrico generado por la estimulación cardíaca es complejo y resulta de la superposición de la despolarización de todas las bras miocárdicas en las diferentes cámaras cardíacas, lo que genera un vector eléctrico. El vector generado no es más que la suma algebraica de las diferentes bras musculares de distintas magnitudes y direcciones.

Si ese vector se acerca a un electrodo activo o explorador se registra una deexión positiva, y si se aleja, se inscribe una deexión negativa, en tanto que si pasa en dirección transversal entre el electrodo explorador y el electrodo de referencia no se inscribe ningún registro. En consecuencia, el ECG de la gura 2.2, representa el registro de estos potenciales en función del tiempo y es la expresión de la excitación o actividad eléctrica del corazón.

Figura 2.2. Electrocardiograma.

Estructura básica de un ECG.

Si nos detenemos a estudiar cada uno de las divisiones, atendiendo al comportamiento eléctrico, tenemos:



Onda P: Representa la despolarización auricular, siempre deber ir precediendo al complejo QRS.

Electrocardiogramas / 9



Segmento PR: Es el segmento isoeléctrico entre el nal de la onda P y el inicio de los componentes ventriculares; es determinado por el paso del impulso cardíaco por el nodo A-V que ocasiona el retraso siológico necesario para que la contracción ventricular se produzca tras la auricular y así se complete el llenado ventricular.



Intervalo PR: Es el trazo de inscripción comprendido entre el inicio de la onda P y el inicio de los componentes ventriculares..



Complejo QRS: Representa la despolarización ventricular. La primera deexión negativa que se origina por la despolarización de los ventrículos se llama onda Q y la primera deexión positiva se llama onda R, esté o no precedida por una Q. La onda negativa después de la onda R se llama onda S.



Segmento ST: Es la línea entre el punto J y el inicio de la onda de repolarización ventricular (onda T). Se valora en este segmento la elevación y la depresión (característicos de procesos patológicos del miocardio, como IAM, Pericarditis. . . )



Onda T:

Representa la repolarización ventricular. Se valora su forma que en

condiciones anormales puede ser invertida, aplanada o acuminada.



Intervalo QT:

Comprende desde el inicio del QRS hasta el nal de la onda T,

por lo que en él se incluyen la despolarización y la repolarización ventriculares.

Figura 2.3. Electrocardiograma 2.

Comportamiento siológico.

Para recoger esta información usamos el electrocardiógrafo, que recibe diferencias de potencial entre electrodos, llamadas derivaciones. Estos electrodos están situados a nivel cutáneo y reciben la información eléctrica que emite el sistema cardíaco. Registran

10 / Fundamentos básicos de electrofisiología cardíaca (C. 2) el movimiento y desarrollo de los campos eléctricos generados por la propagación del impulso cardíaco desde diversos puntos del corazón y diferentes condiciones técnicas. Sin entrar en detalle, a continuación exponemos los diferentes tipos de derivaciones existentes:



Derivaciones I, II, III:

También denominadas Triángulo de Einthoven, fueron

las primeras descritas en 1913, y su colocación se basa en formar un triángulo equilátero con los vértices en los brazos y pubis, a parte de un electrodo en la pierna derecha que conecta a tierra, los electrodos constan de un electrodo positivo y otro negativo.



Derivaciones aumentadas:

Muy similar al anterior y con la misma disposición

pero a la conexión de los cables de dos extremidades se le une una resistencia de 5000 ohmios y se utiliza el cable de la otra extremidad para incrementar el potencial registrado.



Derivaciones del plano frontal:

Se utilizan seis derivaciones que registran la

dirección de la actividad eléctrica del corazón en este plano. Los ejes de estas derivaciones forman un hexágono que ayuda mediante el análisis vectorial a determinar el eje eléctrico de la actividad eléctrica del corazón y a evaluar las anomalías del músculo cardíaco y del ujo coronario.



Derivaciones precordiales:

Registra la actividad eléctrica del corazón en el

plano transversal. Las derivaciones Precordiales del Electrocardiograma son seis. Se denominan con una V mayúscula y un número del 1 al 6. Son derivaciones monopolares, registran el potencial absoluto del punto donde está colocado el electrodo del mismo nombre. Son las mejores derivaciones del electrocardiograma para precisar alteraciones del Ventrículo Izquierdo, sobre todo, de las paredes anterior y posterior.

El registro gráco del ECG puede obtenerse en diversos aparatos (monitores, ordenadores, etc.) y registrarse en diferentes formas (papel, fotografía, vídeo, computadora, etc.), en las que el registro digital e informático ocupa un lugar cada vez más importante. Como curiosidad, en la electrocardiografía tradicional, el registro se hace en una tira de papel cuadricula con velocidad del papel de 25 mm/s y voltaje calibrado a 1 mV/cm; estos valores están estandarizados internacionalmente y reciben el nombre de unidades Ashman.

Electrocardiogramas / 11

2.1.1. Arritmias Cardíacas: En la gura 2.2 se muestra el comportamiento normal del corazón pero no siempre es así. Existen ciertos ritmos cardíacos anómalos que potencialmente pueden ser mortales y otros con los que podemos convivir sin que alteren nuestro ritmo de vida. Estos ritmos cardíacos anómalos se denominan arritmias y se pueden englobar en:



Arritmias supraventriculares  Taquicardia sinusal  Bradicardia sinusal  Arritmia sinusal  Paro sinusal  Contracción auricular prematura (CAP)  Flutter auricular  Fibrilación auricular  Fibrilo-utter auricular



Trastornos de la conducción  Ritmo de la unión A-V  Taquicardia nodal  Bloqueos AV  Ritmo idioventricular acelerado (RIVA)  Bloqueos de rama



Arritmias ventriculares  Extrasístoles ventriculares  Taquicardia ventricular  Flutter  Fibrilación ventricular

Todas son patologías pertenecientes al sistema de conducción que conllevan alguna alteración de ritmo, variación de la frecuencia o ausencia de algún segmento del ECG. En este proyecto nos vamos a centrar en los que afectan directamente al comportamiento de los ventrículos y que son los potencialmente mortales. Estos son la brilación ventricular, utter ventricular y taquicardia ventricular rápida:

12 / Fundamentos básicos de electrofisiología cardíaca (C. 2)



Taquicardia ventricular rápida: Se caracteriza por una tasa de pulsos de más de 100 latidos por minuto, con al menos tres latidos cardíacos irregulares consecutivos.



Flutter ventricular: Se caracteriza por una sucesión de contracciones ventriculares a más de 200 latidos por minuto, cuyos complejos eléctricos están muy deformados.



Fibrilación ventricular: Se caracteriza por un ritmo ventricular rápido (>250 latidos por minuto), irregular, de morfología caótica y que lleva irremediablemente a la pérdida total de la contracción cardíaca, con una falta total del bombeo sanguíneo y por tanto a la muerte del paciente.

Podemos ver en la gura 2.4 las diferencias entre un rimo sinusal normal y ventricular. Esto se produce porque existen despolarizaciones ventriculares caóticas. Es una emergencia médica caracterizada por un descontrol en la contracción de los ventrículos, por lo tanto, no se produce un gasto cardíaco efectivo. La brilación ventricular es una forma de parada cardíaca que conlleva a la muerte inminente del sujeto a menos que se logre restablecer de inmediato un ritmo cardíaco efectivo. La reanimación cardiopulmonar está indicada en todo sujeto con FV, incluyendo la respiración mecánica, compresión cardíaca y tratamiento con fármacos y eléctrico.

Comparación de comportamiento sinusal normal, frente a Fibrilación Ventricular.

Figura 2.4. Fibrilación Ventricular.

Bases de datos públicas / 13

2.2. Bases de datos públicas Para el análisis y la detección de FV necesitamos un conjunto de ECG de pacientes con los que poder trabajar. En este trabajo se van a usar unas bases de datos públicas ampliamente usadas en el ámbito del análisis de señal cardíaca. Estas bases de datos están obtenidas de Physionet (www.physionet.org), que es una organización encargada de mantener un repositorio de señales siológicas, de las que nosotros únicamente nos centraremos en dos que son de nuestro interés:



CUDB: Creighton University Data Base



VFDB: Ventricular Fibrilation Data Base

Un problema que se nos presenta es que las señales existentes no son completamente deterministas y no existe un criterio jo que nos indique cómo comienza y acaba un conjunto de latidos con propiedades similares. Por ello es necesario que un especialista médico nos etiquete, acorde a sus conocimientos, los tipos de episodios existentes en los electrocardiogramas. Los datos son señales ECG muestreadas, etiquetadas y agrupadas por paciente, es decir, un paciente puede tener un ECG con diversas derivaciones. Estas bases de datos deben ser sometidas a un preproceso para evitar la existencia de artefactos, elementos ruidosos y episodios mal etiquetados ya que los datos son derivaciones del ECG que atraviesan un ltro digital Butterworth con frecuencia de corte 30Hz para no confundir posible ruido con FV.

CUDB Esta base de datos fue desarrollada por la Universidad de Creighton, en Nebraska. Consta de un conjunto de 35 registros electrocardiográcos de 8 minutos cada una, en los que los pacientes pueden presentar aleteo ventricular, TV o FVr severa. Esto es debido a que en episodios de fallo cardíaco por FV, suele existir un conjunto de episodios de taquicardia ventricular que nalmente desemboca en la FV. El comienzo de estos episodios es bastante difícil de identicar con precisión.

En lo relativo a las características técnicas, todos los registros fueron digitalizados a 250Hz muestra con una resolución de 12 bits, y pasados por un ltro activo de Bessel de segundo orden en el rango 0-70Hz, salvo el registro cu01 que fue obtenido por un holter (adquisición de larga duración).

Los registros fueron originalmente recogidos por Floyd M. Nolle en el Creighton University Cardiac Center. Estos registros son muy importantes para el desarrollo y

14 / Fundamentos básicos de electrofisiología cardíaca (C. 2) la evaluación de los detectores de FV debido a su buena denición. Posteriormente, Richard B. Bowser, preservó los registros y los distribuyó públicamente. Los cheros de anotaciones se incluyeron para ayudar en la investigación de la FV, pero no son anotaciones exhaustivas. Todos los latidos se etiquetaron como normales si no son de FV, pese a que muchos de ellos son ectópicos. Las anotaciones marcan el comienzo aproximado de la FV. Los cheros de anotaciones para los registros cu01, cu03 y cu12 se modicaron y añadieron por Janus Irzyk nuevamente en enero de 2006 para incluir FVs no etiquetadas.

Veamos en la gura 2.5 un extracto del registro de FV más limpio y signicativo de FV en CUDB, el cu17 a partir del minuto 6.20.

Figura 2.5. FV en cudb17.

Ejemplo de transición entre episodio nor-

mal y FV.

VFDB Ésta es una base de datos procedente del MIT especializada en FV, contiene 22 registros de 30 minutos cada uno, consta de dos derivaciones y las etiquetas son a nivel de ritmo cardíaco. Como vemos en la imagen 2.6 presenta numerosos episodios a parte de los que estamos tratando.

El hecho de que en esta base de datos existan episodios que no son de nuestro interés, nos obliga a realizar un preprocesado para compensarlos. Lo vamos a afrontar de dos maneras en función del tipo de episodio: - Episodios de ruido: que deben ser eliminados del ECG ya que generan resultados incoherentes en nuestros algoritmos. - Resto de episodios: que van a pasar a ser etiquetados como normales, para que no únicamente nos jemos en los episodios relativos a nuestro estudio.

En la gura 2.7 podemos ver un ejemplo de FV etiquetada de 10 segundos de duración en el minuto 6 del episodio 418.

Figura 2.6. Ritmos presentes.

Figura 2.7. FV en vfdb418.

mal y FV.

Ritmos etiquetados en la BBDD.

Ejemplo de transición entre episodio nor-

16 / Fundamentos básicos de electrofisiología cardíaca (C. 2)

Capítulo 3 Métodos no Lineales

Antes de entrar en detalle sobre los métodos no lineales, es necesario hacer una pequeña introducción sobre los métodos clásicos de detección de episodios anómalos, para presentar los que vamos a usar nosotros. Todos los algoritmos suelen basarse en ventanas temporales extraídas de la señal cardíaca, la longitud de esta ventana depende del implementador, pero se asume que con 8 segundos los resultados son signicativos, [K. U. Anton Amann, 2002].

Los tipos de algoritmos se pueden dividir en 3 grupos atendiendo a su naturaleza, el temporal, el frecuencial y el de complejidad, según el procesado en el que se extraigan las características:

Métodos Dominio Temporal Dentro

del

[A, 2007],

marco el

temporal

Exponencial

[H. M. Arafat MA, 2009], y el

se

estudian

el

Threshold crossing intervals (TCI)

[P. K. Thakor NV, 1990],

el

Mean of absolute value [Clayton

Exponencial

modicado

y Campbell., 1993]. Estos

parámetros buscan características morfológicas contenidas en las ventanas temporales.



Threshold crossing intervals:

Se centra en la cantidad de veces que la señal

supera un cierto umbral establecido previamente.



Exponencial: Se generan dos nuevas señales exponencial decreciente a partir del máximo del ECG original y se contabiliza el número de veces que la señal supera

17

18 / Métodos no Lineales (C. 3) este umbral exponencial, teniendo en cuenta que habría que preprocesar en caso de que el ECG esté invertido.



Exponencial Modicada:

Similar al anterior pero desplazando la exponencial

decreciente entre los máximos relativos del ECG. Este cambio produce detecciones mejoradas.



Mean of absolute value: Estudia la fuerza de la señal medida como en la ecuación 3.1, es decir, el sumatorio del valor absoluto de la señal en la muestra

M AV =

n

N −1 1 X |X(n)| N

(3.1)

n=0

Métodos Frecuenciales: En

el

dominio

frecuencial

[D. C. S. Barro y Mira, 1989],

el

se

spectral

estudian

la

frecuencia

[Clayton y Campbell., 1990]

mediana y

el

ltro

VFleak [P. K. Thakor NV, 1990]. Los tres extraen información de las componentes frecuenciales de la FV en las ventanas obtenidas.



Frecuencia Mediana: El parámetro FM calcula la frecuencia mediana, esto es, en la densidad espectral (d.e.p.) de potencia se calcula la frecuencia que aparta a ambos lados la misma área. Geométricamente se corresponde con la bisección de la densidad espectral de potencia.



Spectral

: El latido tiene comportamiento frecuencial diferente en FV y en estado

no patológico; en el primero la energía se concentra en una banda de 3-10 Hz, mientras que en estado normal es una señal banda base con armónicos hasta los 25Hz. Este algoritmo se basa ese hecho, busca analizar la señal en diferentes bandas de energía en el dominio frecuencial.



VFleak:

Este algoritmo se basa en el parecido de la señal FV con una señal

sinusoidal, por lo que se usa un ltro que hace que la señal de entrada se asemeje a una senoidal. Para ello basta con usar un ltro que elimine la frecuencia mediana y cuanto más se parezca el residuo obtenido a una sinusoide, más probabilidad tendrá la ventana de ser FV.

Métodos de Complejidad: Por último, en el campo de la complejidad se muestran el algoritmo de complejidad CM [N. T. X.S. Zhang y Wang., 1999], y los de reconstrucción fase-espacial,

reconstruction

space-phase

PSR y HILB [Jekova, 2000]. Se buscan extraer características contenidas

en los patrones de repetición de las ventanas.

Métodos no Lineales / 19



Algoritmo CM:

Se centra en la diversidad de la aleatoriedad de las ventanas,

leyendo con reglas de compiladores y de gramáticas para obtener un conjunto de vocabulario.



PSR y HLIB:

La base de este algoritmo es la transformada de Hilbert. Para

PSR se usa la reconstrucción de la señal en el espacio de la fase a través de la transformada mencionada. En el caso del parámetro HLIB, se usa la comparación de la parte real de la transformada de Hilbert con la parte imaginaria.

3.1. Métodos no Lineales Este Proyecto se va a centrar en el estudio de los siguientes tres métodos de detección de FV, ApEn, SampEn y FuzzyEn, buscando más exibilidad a la hora de extraer información. Los tres algoritmos siguen la misma línea, buscan medidas relacionadas con la entropía, con el grado de incertidumbre inherente de la señal o dicho de otra manera, con la cantidad de información que tiene. Los grados de entropía cuantican la irregularidad de las series temporales.

Las medidas de entropía clásicas, tales como la entropía Kolmogorov-Sinai y sus variantes, no son apropiadas para el estudio de datos siológicos; por una parte, exhiben un comportamiento divergente, y de otra no siempre son capaces de distinguir algunos procesos con complejidad diferenciada, [Pincus, 1991]. Fue en 1991 cuando Pincus [Pincus, 1991], determinó la familia de estadísticos para el estudio de series de datos cortas y ruidosas, conocida como Entropía Aproximada (ApEn) y a partir de ahí han surgido diversas modicaciones.

3.1.1. ApEn Este parámetro mide la irregularidad de series temporales, cuantica la verosimilitud de que patrones similares de observaciones no sean seguidos por observaciones similares adicionales, es decir, series con patrones repetitivos tendrán un valor ApEn pequeño mientras que series menos predecibles tendrán un valor de ApEn mayor.

Para el cálculo de la ApEn es preciso denir dos parámetros a Priori: la longitud de los vectores de datos a ser comparados, entre dichos vectores,

r.

1. Se obtienen los vectores

m − 1)],

para

m, y el criterio de semejanza para la comparación

x(1), ..., x(N − m + 1),

i = 1, ..., N − m + 1.

denidos por

x(i) = [u(i), ..., u(i +

La distancia entre dos vectores

x(i)

y

x(j),

20 / Métodos no Lineales (C. 3)

d[x(i), x(j)], se dene como la máxima diferencia, en módulo, entre sus respectivas componentes escalares, esto es:

d[x(i), x(j)] = m´ax (|u(i + k − 1) − u(j + k − 1)|)

(3.2)

k=1,...,m

Ci m (r)

2. Basándonos en esta distancia se dene parecidos a

xm (j)

(respecto a r) donde

N m (i)

cuenta,

d[x(i), x(j)] 6 r

para

para

un

xm (i)

j = 1...N-m-1

Cim (r) = donde

como el número de vectores

N m (i) N −m−1

vector

dado

x(i),

(3.3)

el

número

de

veces

que

j = 1, ..., N − m + 1.

3. Se calcula la media del logaritmo de todos los

1 φ (r) = N −m+1 m

Cm i (r)

N −m+1 X

para todo i,

lnCim (r)

(3.4)

i=1

4. De la misma manera se calcula la media del logaritmo de todos los

Cm+1 i (r)

para

todo i,

φm+1 (r) =

1 N −1

N −m+1 X

lnCim (r)

(3.5)

i=1

5. Se dene la ApEn(m,r) como sigue,

ApEn(m, r) = l´ım [φm+1 (r)/φm (r)] N →∞

(3.6)

6. La cual es estimada por el estadístico ApEn(m,r,N),

ApEn(m, r) = φm+1 (r)/φm (r) •

(3.7)

Propiedades de la ApEn - No es necesario un número grande de muestras para obtener estimaciones razonables. - Es robusta frente a datos atípicos. - Prácticamente es afectada por ruido de magnitud inferior a un umbral jado. - Su aplicación es posible para procesos estocásticos, deterministas y mixtos, ya que se obtienen valores nitos para los tres casos.

Métodos no Lineales / 21



Inconvenientes de la ApEn - La ApEn es un estadístico sesgado. Este sesgo hace que la ApEn sea dependiente de la longitud de los datos y su valor uniformemente menor de lo esperado. - La ApEn carece de consistencia relativa en algunas situaciones.

3.1.2. SampEm Este método surge ([Richman y Moorman, 2000]) para intentar mejorar el algoritmo frente a los problemas que presenta la ApEn. La Entropía Muestral, SampEn se dene como el negativo del logaritmo natural de la probabilidad condicionada de que dos secuencias similares para m puntos continúen siendo similares en el siguiente punto. 1. Se obtienen los vectores

m − 1)],

para

x(1), ..., x(N − m + 1),

i = 1, ..., N − m + 1.

denidos por

x(i) = [u(i), ..., u(i +

La distancia entre dos vectores

x(i)

x(j),

y

d[x(i), x(j)], se dene como la máxima diferencia, en módulo, entre sus respectivas componentes escalares, esto es:

d[x(i), x(j)] = m´ax (|u(i + k − 1) − u(j + k − 1)|)

(3.8)

k=1,...,m

Bi m (r)

2. Basándonos en esta distancia se dene parecidos a

xm (j)

(respecto a r) donde

j = 1...N-m

Bim (r) = N m (i)

donde

cuenta,

d[x(i), x(j)] 6 r

para

para

un

como el número de vectores con

xm (i)

j 6= i

N m (i) N −m−1

vector

dado

(3.9)

x(i),

el

número

de

veces

que

j = 1, ..., N − m + 1.

3. Se calcula la media de los

Bi (r)

para todo i,

B m (r) =

NX −m 1 Bim (r) N −m

(3.10)

i=1

4. De forma similar se dene

xm+1 (j)

parecidos a

xm+1 (i)

5. Se calcula la media de los

Ai m (r)

como

(N-m)−1

(respecto a r) donde

Ai m (r)

veces el número de vectores

j = 1...N-m

con

j 6= i.

para todo ,

NX −m 1 A (r) = Am i (r) N −m m

(3.11)

i=1

Ai (r)

representa la probabilidad de que dos secuencias sean parecidas para

puntos, mientras que para

m+1

puntos.

Bi (r)

m

es la probabilidad de que dos secuencias sean parecidas

22 / Métodos no Lineales (C. 3) 6. Se dene la SampEn(m,r) como sigue,

SampEn(m, r) = l´ım −ln|B m (r)/Am (r)| N →∞

(3.12)

7. La cual es estimada por el estadístico SampEn(m,r,N),

SampEn(m, r) = −ln|B m (r)/Am (r)|B m (r) 8. Si llamamos B al número total de vectores de longitud

m

emparejados,

B = |(N − m − 1)(N − m)/2]B m (r) Y llamamos A al número total de vectores de longitud

m

(3.13)

(3.14)

emparejados,

A = |(N − m − 1)(N − m)/2]Am (r)

(3.15)

9. Substituyendo en la ecuación 3.16 obtenemos,

SampEn(m, r) = −ln(B m (r)/Am (r))

(3.16)

Parámetros libres: la comparación de medidas de SampEn debe hacerse siempre con los parámetros m y r jos. Para la aplicación en señales cardíacas de SampEn, en la bibliografía se recomienda utilizar m como 1 o 2. En cuanto al parámetro r se recomienda utilizar valores entre el 10 % y el 20 % de la desviación estándar de cada señal, obteniendo de esta forma una medida invariante en escala [Pincus, 1991]. Otros estudios revelan sin embargo, mejores resultados escogiendo un valor de r jo, independiente de la desviación estándar de cada señal.



Diferencias con ApEn -SampEn no realiza autocomparaciones de vectores. - En el cómputo sólo son considerados los N - m primeros vectores de longitud m. - La medida de probabilidad se obtiene directamente como el logaritmo natural de la probabilidad condicionada en lugar de como el ratio de las sumas logarítmicas.



Propiedades de SampEn - La SampEn consigue reducir el sesgo y por lo tanto es menos dependiente de la longitud de los datos. - Presenta consistencia relativa en situaciones en las que la ApEn no.

Métodos no Lineales / 23

3.1.3. FuzzyEn En los dos algoritmos anteriores, la similitud entre vectores se basa en la función Heaviside jando el umbral de diferenciación a

( φ(z) =

r,

que puede ser representada como:

1, si z ≥ r

(3.17)

0, si z < r

Esto representa una decisión dura en el unicamente se pueden representar dos estados. En el mundo real las fronteras entre clases pueden ser muy ambiguas, y esto diculta determinar cuando un patrón de entrada pertenece absolutamente a una clase y no a otra. Esta es la razón por la que se introduce el concepto

"fuzzy",

ideado por Zadeh

[Zadeh, 1965] en 1965, el objetivo es jar una medida de caracterización para ambientes donde la relación entre entrada y salida esta llena de imprecisión. Para ello se usa un  grado

de pertenencia

 asociado a una función

µC (x),

la cual transforma un valor dado

a un numero real en el intervalo [0,1]. Como requisitos esta función debe:



ser continua para que la similaridad no cambie abruptamente



ser convexa, siendo representando la auto-similaridad en el máximo

Para fuzzyEntropy la familia de funciones serán exponenciales tales como:

m n /r

µC (x) = e−(dij )

Como vemos existen dos parámetros independientes a denir, que

n

r

(3.18)

r

y

n,

es conveniente

sea el margen limite que queremos multiplicado por la desviación estándar, y para

es mejor enteros pequeños.

representación de µC (x) con diferentes parámetros. a) función con n=2 y varios r. b) función con r=0.2 y varios n. Figura 3.1. Medida de similitud.

En lo relativo al algoritmo en sí, hay que seguir los siguientes pasos:

24 / Métodos no Lineales (C. 3) 1. Para un conjunto de N muestras temporales vector a comparar), se forman los vectores

u(i) : 1 ≤ i ≤ N

Xi m

, dado m(tamaño de

como sigue:

Xim = u(i), u(i + 1), ..., u()i + m − 1 − u0(i), donde

Xi m ,

representa

m

(3.19)

valores comenzando por el iesimo punto y quitamos la

baseline restando la media del conjunto, es decir:

m−1 1 X u0(i) = u(i + j) m

(3.20)

j=0

2. Para cierto vector

se dene la distanciadij

Xi m

m entre

Xi m

y

Xj m

a la máxima

diferencia en valor absoluto de sus componentes escalares, es decir:

m m dm i = d[Xi , Xj ] =

3. Dado unos valores de vectores dados

Xim

y

m´ax |(u(i + k) − u0(i)) − (u(j + k) − u0(j))|

(3.21)

k(0,m−1)

r

y

Xjm

n

m

podemos calcular el grado de similaridad Dij de dos

a través de la función fuzzy

µ(dm ij , n, r)

m Dij (n, r) = µ(dm ij , n, r)

(3.22)

donde la función, según hemos denido anteriormente, es: m n /r

−(dij ) µ(dm ij , n, r) = e

4. Se dene la función

φm

como:

φm (n, r) =

NX −m NX −m 1 1 m Dij (n, r)) ( N −m N −m−1 i=1

5. De misma manera se dene

φm + +1(n, r) =

(3.23)

(3.24)

j=1,j6=i

φm+1

NX −m NX −m 1 1 m+1 ( Dij (n, r)) N −m N −m−1 i=1

6. Finalmente podemos denir el parámetro logaritmo negativo de la desviación de

(3.25)

j=1,j6=i

φm

FuzzyEn(m,n,r) con respecto a

del conjunto como el

φm + 1

F uzzyEn(m, n, r) = l´ım [−lnφm (n, r) − lnφm+1 (n, r)] N →∞

(3.26)

Métodos no Lineales / 25 el cual,para bases de datos nitas, puede ser estimado por el estadístico

F uzzyEn(m, n, r, N ) = −lnφm (n, r) − lnφm+1 (n, r)

(3.27)

Hay tres parámetros que deben ser jados para cada calculo del FuzzyEn. El primer parámetro es el valor de

m, que al igual que en ApEn y SampEn, es la longitud de

las secuencias a comparar. Los otros dos son

r

y

n,

que corresponden con el ancho

y el gradiente de la exponencial a usar para procesar las diferencias.

Capítulo 4 Resultados sobre señales sintéticas y reales

La complejidad es un concepto difícil de explicar, tiene múltiples descripciones. Puede ser referida a como es de imprevisible una señal, o a las dicultades para poder describir o entender una señal. Por ejemplo, las señales irregulares son mas complejas que las regulares porque son mas impredecibles. Esta descripción signica que los números aleatorios son mas completos que las señales sinusoides periódicas, y dentro de estas sinusoidales, las de frecuencias altas tendrán una mayor complejidad que las de frecuencias bajas. En este capítulo se presentaran los resultados de los métodos no lineales, ApEn, SampEn y FuzzyEn, sobre un conjunto de señales sintéticas y sobre señales reales.

4.1. Pruebas sintéticas Esta será la linea de las primeras comprobaciones que haremos para validar la implementación de los algoritmos, usaremos señal aleatoria generada a través de la rutina MIX y una señal aleatorio uniforme idénticamente distribuida.



MIX: En la gura 4.1 mostramos los resultados de los los tres algoritmos sobre un conjunto de datos obtenidos a través del proceso MIX ([Pincus, 1991]), que combina elementos estocásticos y deterministas para obtener un conjunto de números aleatorio. Para un conjunto de valores

p,

tal que,

0 < p < 1,

M IX(p) = (1 − Zj )Xj + Zj Yj 27

se dene MIX(p) como:

(4.1)

28 / Resultados sobre señales sintéticas y reales (C. 4)

√ Xj = 2sin(2πj/12) para todo j , Yj es una variable aleatoria i.i.d en el  √ √  intervalo − 3, 3 y Zj es una variable aleatoria i.i.d , Zj = 1 con una probabiDonde

lidad

p

y

Zj = 0

con una probabilidad

un valor mayor de

p,

1-p,

lo que hace que a medida que tenemos

el conjunto obtenido es más irregular.

Comparación de los tres algoritmos con conjunto de datos de 50(la superior) y 100 (inferior) muestras, y probabilidades de 0.1 y 0.9, m=2 para los tres.

Figura 4.1. Pruebas con conjunto de datos MIX.

En la gura 4.1 podemos ver la consistencia de los valores de

r

para los tres

algoritmos. Para ApEn, en subimagenes centrales observamos como las grácas correspondientes a los procesos MIX(0.9) cruzan sobre la resultante de MIX(0.1), lo que nos indica la pobre consistencia de este parámetro sobre la complejidad de la señal MIX. El parámetro SampEn presenta una consistencia relativa al caracterizar MIX(0.1) y MIX(0.9), únicamente tenemos que tener en cuenta para valores muy pequeños de valores de

N

r

SampEn devuelve un valor muy elevado, siendo más acusado con

pequeños. En contraste, FuzzyEn te permite una mayor libertad a la

hora de seleccionar los parámetros debido a su fuerte consistencia y su validez de entropía para valores de



N

y

r

pequeños.

idd random number: Probamos los tres algoritmos a través de un conjunto de datos creado con una variable aleatoria i.i.d. comprobando su dependencia con

N.

Resultado de los métodos sobre datos clínicos / 29

Comparación de los tres algoritmos en función de r con conjunto de datos de 50 y 1000 muestras, y con r = 0,2 para diferente valores de N . Figura 4.2. Pruebas con conjunto de datos idd.

Vemos como el parámetro FuzzyEn tiene la menor dependencia con respecto al valor de

N , obteniendo valores muy estables para r, con valores de N

(resultados similares) y para

r = 0,2,

a partir de

N = 100

de 50 y 1000

muestras no se aprecian

cambios signicativos. Para ApEn, vemos diferencias notables, necesitamos un conjunto de muestras sucientemente grande para obtener resultados reseñables así como también valores altos de

r. En cuanto a SampEn vemos que se obtienen valo-

res mas razonables que ApEn, y obtiene una buena consistencia similar a FuzzyEn para valores mayores de

r = 0,2

y

N = 100.

4.2. Resultado de los métodos sobre datos clínicos Como se comentó en 2.2, estos algoritmos se van a usar con las bases de datos Cudb y Vfdb, ambas ya preprocesadas y debidamente etiquetadas. En primer lugar, veamos el comportamiento de los algoritmos en un ritmo sinusal normal y con FV. Para ello usaremos inicialmente una ventana deslizante (desplazamiento muestra a muestra) de 8 segundos que con una frecuencia de muestreo (dada por la base de datos) de 250Hz, hace que tomemos 2000 muestras en cada entrada de los algoritmos, también dejaremos por defecto los parámetros de los tres algoritmos serán

= 0.2, m = 2, n=2 (este último solo para FuzzyEn).

r

30 / Resultados sobre señales sintéticas y reales (C. 4)

Vamos a elegir para comenzar el estudio con dos tramos del episodio cu01 (gura 4.3 ) de ritmo normal (segundo 10 hasta segundo 25) y FV(segundo 220 hasta segundo 235).

Representación del primer registro de la base de datos CUDB en la que se presenta ritmo normal y ritmo FV a partir del segundo 200. Figura 4.3. Episodio cu01.

Vemos cómo en las gura 4.4 y 4.5 SampEn y FuzzyEn funcionan bastante bien ya que con los mismos parámetros tenemos valores cercanos a 0.1 para ritmo normal y 0.5 para ritmos FV. No ocurre nada parecido para FuzzyEn, en este caso obtenemos valores, muy próximos a 0 en ambos casos, lo cual nos indica que debemos estudiar sus parámetros libres para mejorar los resultados.

Es interesante ver también como evolucionan los parámetros en otro episodio interesante para el estudio, es el que ya vimos en el segundo capítulo, el cu17, que nos ofrece la posibilidad de observar una transición suave entre situación normal y FV, por lo que vamos a estudiar el comportamiento de los tres algoritmos en este capítulo (segundo 375 hasta segundo 390) 4.6 .

Se observa cómo ascienden los valores de SampEn y ApEn a medida que la ventana deslizante se va adentrando en la FV. En lo referente a FuzzyEn, a pesar de tener un mejor comportamiento en el caso de las pruebas sintéticas, para los ECG FuzzyEn responde con valores mucho menores, por lo que vamos a proceder a ajustar los parámetros de este algoritmo para mejorar los resultados. Para ello vamos a procesar los tramos que usamos anteriormente del episodio cu01 (ritmo normal y FV)

La combinación de parámetros ideal no será la que dé un valor de FuzzyEn más

Resultado de los métodos sobre datos clínicos / 31

Se presentan los resultados de los tres algoritmos sobre dicho tramo con ventana deslizante de 8 segundos. Figura 4.4. Tramo de ECG normal de cu01.

elevado, sino la que presente una diferencia mayor entre ritmo normal y ritmo FV, para que la detección sea acertada. Para ello en la gura 4.7 se ha representado el valor de FuzzyEn para un único tramo de 8 segundos, episodio anterior de cu01 normal, probando combinaciones de los parámetros involucrados, es decir, los valores de

m

son 2, 3, 4 y 5, y los de

n

r

se mueve entre

10−4

y

10−1 ,

1, 2, 3 y 4. También se ha realizado el mismo

estudio en la gura 4.8 para episodio anterior de cu01 FV con el mismo conjuntos de valores para los parámetros. Vemos que cada parámetro tiene una incidencia propia a la hora del cálculo del resultado:



m:

Diferentes valores del tamaño de los vectores a comparar generan diferentes

tendencias de los valores de FuzzyEn pero sin cambios signicativos a tener en cuenta.



n: La reducción de este parámetro tiene la mayor inuencia en el resultado, ya que el cambio de

n = 1

a

n = 2

llega a ser de un orden de magnitud. Por lo que a

medida que es aumenta, el resultado se ve penalizado.



r:

Se observa claramente como, salvo para

n=3

y

n=4

en tramos normal, la

tendencia es que menores valores de r aumentan los resultados del parámetro.

Nos vamos a quedar con unos valores de:



r=0.001

32 / Resultados sobre señales sintéticas y reales (C. 4)

Se presentan los resultados de los tres algoritmos sobre dicho tramo con ventana deslizante de 8 segundos.

Figura 4.5. Tramo de ECG FV de cu01.

Figura 4.6. Tramo de ECG normal y FV de cu17. Se presentan los resultados de los tres algoritmos sobre dicho tramo con ventana deslizante de 8 segundos.



m=2



n=2

Con los que conseguimos unos valores medios para cada parámetro de: Como vemos en la gura 4.9 el resultado varía signicativamente al aplicarlo sobre el segmento cu17 usado anteriormente.

Aplicar métodos con parámetros denidos sobre toda la base de datos / 33

Figura 4.7. Resultados de FuzzyEn con un episodio de normal.

Se estudias las variaciones del algoritmo con varios parámetros, cada gráca corresponde con un valor de n(1, 2, 3, 4), cada curva se obtiene con un valor de m(2, 3, 4, 5) para un conjunto de valores de r (10−4 : 10−1 ). Tipo de ritmo Parámetro

Normal

FV

ApEn(x,0.2,2)

0.1

0.4

SampEn(x,0.2,2)

0.095

0.5

FuzzyEn(x,0.001,2,2)

0.04

0.5

Cuadro 4.1. Tabla resumen comparativa de valores medios sobre ritmo normal y FV. Tabla resumen de los resultados de los tres métodos con los parámetros ajustados.

4.3. Aplicar métodos con parámetros denidos sobre toda la base de datos Una vez analizado el impacto de los parámetros libres se estudiaran los métodos sobre ambas bases de datos y comprobaremos los valores obtenidos. Para ello usaremos una ventana no solapante de 8 segundos para agilizar la ejecución de los algoritmos.

Asociáremos cada valor obtenido sobre su ventana correspondiente a las etiquetas proporcionadas por la base de datos (cada ventana generará un valor asociado a la moda de las etiquetas contenidas en ese intervalo) y nos quedaremos en los que esa moda supere el 90 % del total para evitar las ventanas que están en transición entre ambos estados.

34 / Resultados sobre señales sintéticas y reales (C. 4)

Se estudian las variaciones del algoritmo con varios parámetros, cada gráca corresponde con un valor de n(1,2,3,4), cada curva se obtiene con un valor de m(2,3,4,5) para un conjuntos de valores de r(10−4 : 10−1 ). Figura 4.8. Resultados de FuzzyEn con un episodio de FV.

El objetivo es determinar un valor umbral óptimo para cada uno de los algoritmos y así comprobar su validez para detectar ritmo normal o FV a través de las probabilidades de error generadas.

Veamos entonces como funciona cada algoritmo al enfrentarlo a las Cudb y VFdb. Para ello presentamos los resultados en forma de histograma (normalizado a área=1) junto con un umbral que determina la Probabilidad de error (Pe) menor, así como la curva ROC que enfrenta la

positivos

Tasa de falsos positivos

y lo que nos interesa es que el

frente a la

área bajo la curva(AUC)

Tasa de verdaderos sea igual a 1 o lo

máximo posible.

Vemos en la gura 4.10 como obtenemos mejores resultados con el algoritmo FuzzyEn, con una Probabilidad de error de 0.17 frente a 0.19 y 0.2 de los otros dos algoritmos. En la curva ROC que se observa en la gura 4.11, el área bajo la curva también es signicativamente mejor, 0.75 de FuzzyEn frente a 0.67 de los otros dos.

Tras esto se ha realizado un estudio exploratorio de otros posibles parámetros de entrada para FuzzyEn con el n de mejorar resultados. Los parámetros que mejor resultado han obtenido son:



w : 8, reducimos el tamaño de la ventana a 6 segundos, para que exista un mayor numero de ventanas con un 90 % de etiquetas iguales (con n de evitar solapamiento

Aplicar métodos con parámetros denidos sobre toda la base de datos / 35

Se presentan los resultados de los tres algoritmos con parámetros ajustados sobre dicho tramo con ventana deslizante de 8 segundos. Figura 4.9. Tramo de ECG normal y FV de cu17.

de tramos normales y de FV).



r : 0.0001,

lo hemos reducido para aumentar las diferencias entre los valores

estimados para ritmo normal y ritmo FV.



m : 2, lo mantenemos igual.



n : 1, se reduce para aumentar los valores obtenidos.

Como vemos en ambas imágenes( 4.12 , 4.13 ) los resultados son signicativamente mejores para el parámetro Fuzzy, resumamos resultados en la tabla 4.2

. w = 8 (s)

w = 6 (s)

ApEn(0.2,2) SampEn(0.2,2) FuzzyEn(0.001,2,2)

ApEn(0.2,2) SampEn(0.2,2) FuzzyEn(0.0001,2,1)

Pe

0.189

0.198

0.169

0.173

0.189

0.133

AUC

0.673

0.679

0.75

0.833

0.825

0.849

Tabla resumen de los resultados de los tres métodos con los parámetros ajustados. Cuadro 4.2. Tabla resumen comparativa.

Es evidente la mejoría en los resultados de los tres parámetros ante la reducción del tamaño de la ventana consiguiendo con FuzzyEn una tasa de error sobre ambas bases de datos del 13 % y una AUC en la ROC de 0.85. En lo relativo a SampEn y ApEn, los resultados son similares.

36 / Resultados sobre señales sintéticas y reales (C. 4)

Figura 4.10. Histograma FV(azul) vs Normal(rojo) sobre VFDB

Se presenta el histograma normalizado de los tres algoritmos con parámetros ajustados y ventana de 8 segundos. y CUDB.

Figura 4.11. Curva ROC resultante de las muestras etiqueta-

Se presentan las curvas ROC de los tres algoritmos con parámetros ajustados y ventana de 8 segundos. das sobre VFDB y CUDB.

4.4. Comparación de los parámetros usados con los métodos clásicos Tras el desarrollo de nuestros métodos considero necesario compararlos con los métodos clásicos para poder contextualizar los resultados.

Para ello en la tabla 4.3 se muestra la Probabilidad de Error calculada a partir de los histogramas etiquetados y el AUC correspondientes a cada uno de los algoritmos. Y en la gura 4.14 se presentan todas las curvas ROC con el n de poder compararlas adecuadamente. De todos los resultados vemos como despunta el parámetro Veak, con valores bastante buenos. Respecto a nuestros métodos vemos como están en el rango de los ya

Comparación de los parámetros usados con los métodos clásicos / 37

Figura 4.12. Histograma FV(azul) vs Normal(rojo) sobre VFDB

Se presenta el histograma normalizado de los tres algoritmos con parámetros ajustados y ventana de 8 segundos. y CUDB.

Figura 4.13. Curva ROC resultante de las muestras etiqueta-

Se presentan las curvas ROC de los tres algoritmos con parámetros ajustados y ventana de 8 segundos. das sobre VFDB y CUDB.

existentes sin conseguirse mejoras sustanciales sobre las investigaciones ya realizadas.

También se debe comentar que no hemos dividido los datos en conjunto de Entrenamiento y Test por lo los resultados están sobreajustados,esto es válido ya que unicamente los usamos como medida de comparación entre ellos.

P error

AUC

tci

0.1766

0.824

exp

0.2171

0.7916

expm

0.2437

0.8717

cm

0.3480

0.7546

0.094

0.9575

m

0.1984

0.8251

a2

0.1295

0.9042

mav

0.1914

0.9120

psr

0.1881

0.9278

hilb

0.1252

0.9332

ApEn

0.173

0.833

SampEn

0.189

0.825

FuzzyEn

0.133

0.849

veak

Tabla resumen de los resultados de todos los métodos presentados en este proyecto Cuadro 4.3.

Figura 4.14. Curva ROC resultante usar todos los métodos pre-

Se presentan las curvas ROC de los métodos presentados en este Proyecto sobre las bases de datos CUDB y VFDB. sentados.

Capítulo 5 Conclusiones y líneas futuras

5.1. Conclusiones Tras concluir la memoria me he dado cuenta de la importancia de este tipo de estudios relacionados con el campo de la Ingeniería Biomédica. Para mí ha sido un reto dejar de lado las ideas preconcebidas en la carrera sobre señales para enfocar el esfuerzo en tratar señales biológicas y comprender el funcionamiento de la electrosiología cardíaca, así como manejar bases de datos clínicos.

El objetivo de este Proyecto era comprobar la validez del parámetro de complejidad FuzzyEn en el campo de los ECG y compararlos con los parámetros ApEn y SampEn, mas establecidos y trabajados. El principal problema radicaba en la escasa literatura sobre el mismo, únicamente existían algunos estudios de su viabilidad o no sobre casos sintéticos, nunca con señal siológica real, a diferencia de los otros parámetros. Y como comentario extra, he de añadir que he detectado incoherencias en el desarrollo de la implementación del algoritmo de FuzzyEn en diferentes papers estudiados, haciéndose necesario el contacto a través de mail con los investigadores, ante los cuales no se recibió respuesta alguna. Esto nos lleva a pensar que no ha habido un gran desarrollo de este campo de investigación tras el trabajo presentado por Pincus en 1991.

Finalmente podemos concluir que los resultados han sido satisfactorios ya que, con el ajuste de parámetros de entrada adecuados, se logra reducir un 7 % las tasas de error que proporcionan los métodos de complejidad previos, aunque con más exploración se

39

40 / Conclusiones y líneas futuras (C. 5) puedan mejorar aún más.

5.2. Líneas Futuras Como se ha comentado, esta línea de investigación de los algoritmos de detección de FV no está del todo explotada, por lo que es un campo en el que se pueden obtener notables mejoras. Creo rmemente que usando algoritmos estadísticos de minería de datos se podrían ajustas parámetros de entrada que mejorarían notablemente los resultados.

Creo necesario también que, como propuesta de otro Proyecto, se comparen más en profundidad los resultados de este algoritmo con el resto de métodos comentados, así como combinarlos en algún sistema de aprendizaje máquina con el n de no solo diferenciar FV de ritmo normal, sino poder discernir de entre más tipos de ritmos cardíacos existentes.

Un punto que no se ha tocado en este Proyecto es el hecho de realizar análisis de ECG en tiempo real y poder comprobar su funcionalidad en un entorno donde los datos no estén preparados y existan multitud de artefactos, esto sería vital para la implantación de este método, ya que el n de todo ingeniero es poder llevar su investigación al mundo real.

Bibliografía [A, 2007] U.

K.

A.

A, Detecting ventricular brillation by time-delat methods,

IEEE/Trans Biomed Eng,

(54):174179, 2007.

[Asvanund et al., 2004] A. Asvanund, R. Krishnan, M. D. Smith y R. Telang, InterestBased SelfOrganizing PeertoPeer Networks: A Club Economics Approach,

Informe Técnico,

H. John Heinz III School of Public Policy and Manage-

ment (Carnegie Mellon University), Setiembre de 2004. [Baumgarten, 1999] C. Baumgarten,

Probabilistic Information Retrieval in a Distri-

buted Heterogeneous Environment, Tesis Doctoral, Fakultt Informatik (Technischen Universitt Drenden), Febrero de 1999. [Byers et al., 2004] J. W. Byers, J. Considine, M. Mitzenmacher y S. Rost, Informed Content Delivery across Adaptive Overlay Networks,

tions on Networking,

IEEE/ACM Transac-

12(5):767780, Octubre de 2004.

[Callan, 2000] J. Callan,

Advances in Information Retrieval,

cap. Distributed Infor-

mation Retrieval, págs. 127150, Kluwer Academic Publishers, 2000. [Clayton y Campbell., 1990] A. M. R. Clayton y R. Campbell., Changes in the surface ecg frequency spectrum during the onset of ventricular brillation,

Com-

puters in Cardiology 1990, Los Alamitos, CA: IEEE Computer Society Press,

págs.

515518, 1990. [Clayton y Campbell., 1993] A. M. R. Clayton y R. Campbell., Clayton and R. Campbell. Comparison of four techniques for recognition of ventricular brillation from the surface ecg,

Med Biol Eng Comput,

31(2):111117, 1993.

[D. C. S. Barro y Mira, 1989] R. R. D. C. S. Barro y J. Mira, Algorithmic sequential decision-making in the frequency domain for life threatening ventricular arrhythmias and imitative artefacts: a diagnostic system,

J Biomed Eng,

11(4):320328,

1989. [Gnutella Web Site, 2006] Gnutella Web Site,

41

http://gnutella.wego.com,

2006.

42 / BIBLIOGRAFÍA [H. M. Arafat MA, 2009] S. J. H. M. Arafat MA, Detection of ventricular brillation using empirical mode decomposition and bayes decision theory,

Biology and Medicine,

Computers in

(39):10511057, 2009.

[Jekova, 2000] I. Jekova, Comparison of ve algorithms for the detection of ventricular brillation from the surface ecg,

Physiol Meas,

24(4):429439, 2000.

[K. U. Anton Amann, 2002] R. T. K. U. Anton Amann, Reliability of old and new ventricular brillation detection algorithms for automated external debrillators,

IEEE Trans Biomed Eng.,

(123):54:100, 2002.

[Kleinberg et al., 2001] J. Kleinberg, C. H. Papadimitriou y P. Raghavan, On the Value of Private Information, en

Proceedings of the 8th Conference on Theo-

retical Aspects of Rationality and Knowledge,

págs. 249257, Siena (Italy), Julio de

2001. [N. T. X.S. Zhang y Wang., 1999] Y. Z. N. T. X.S. Zhang y Z. Wang., Detecting ventricular tachycardia and brillation by complexity measure,

Eng,

IEEE Trans Biomed

46(5):548555, 1999.

[P. K. Thakor NV, 1990] Z. Y. P. K. Thakor NV, Ventricular tachycardia and brillation detection by a sequential hypothesis testing algorithm,

Eng.,

IEEE Trans Biomed

(37):837843, 1990.

[Pincus, 1991] S. M. Pincus, Approximate entropy as a measure of system complexity,

Proc. Natl. Acad. Sci.,

(88):22972301, 1991.

[Richman y Moorman, 2000] J. S. Richman y J. R. Moorman, Physiological timeseries analysis using approximate entropy and sample entropy.,

Heart. Circ. Physiol.,

(278):20392049, 2000.

[Zadeh, 1965] L. A. Zadeh,

Modern Information Retrieval,

8, 1965.

Am. J. Physiol.

Índice de Figuras 2.1.

Sistema de Conducción . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7

2.2.

Electrocardiograma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

8

2.3.

Electrocardiograma 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9

2.4.

Fibrilación Ventricular . . . . . . . . . . . . . . . . . . . . . . . . . . . .

12

2.5.

FV en cudb17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

14

2.6.

Ritmos presentes

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

15

2.7.

FV en vfdb418

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

15

3.1.

Medida de similitud

4.1.

Pruebas con conjunto de datos MIX

4.2.

Pruebas con conjunto de datos idd

. . . . . . . . . . . . . . . . . . . . . . . . . . . . .

23

. . . . . . . . . . . . . . . . . . . .

28

. . . . . . . . . . . . . . . . . . . . .

29

4.3.

Episodio cu01 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

30

4.4.

Tramo de ECG normal de cu01 . . . . . . . . . . . . . . . . . . . . . . .

31

4.5.

Tramo de ECG FV de cu01

. . . . . . . . . . . . . . . . . . . . . . . . .

32

4.6.

Tramo de ECG normal y FV de cu17 . . . . . . . . . . . . . . . . . . . .

32

4.7.

Resultados de FuzzyEn con un episodio de normal

. . . . . . . . . . . .

33

4.8.

Resultados de FuzzyEn con un episodio de FV

. . . . . . . . . . . . . .

34

4.9.

Tramo de ECG normal y FV de cu17 . . . . . . . . . . . . . . . . . . . .

35

4.10. Histograma FV(azul) vs Normal(rojo) sobre VFDB y CUDB

. . . . . .

36

4.11. Curva ROC resultante de las muestras etiquetadas sobre VFDB y CUDB

36

4.12. Histograma FV(azul) vs Normal(rojo) sobre VFDB y CUDB

37

. . . . . .

4.13. Curva ROC resultante de las muestras etiquetadas sobre VFDB y CUDB

37

4.14. Curva ROC resultante usar todos los métodos presentados . . . . . . . .

38

43

Índice de Cuadros 4.1.

Tabla resumen comparativa de valores medios sobre ritmo normal y FV

33

4.2.

Tabla resumen comparativa

35

4.3.

Tabla resumen de los resultados de todos los métodos presentados en este

. . . . . . . . . . . . . . . . . . . . . . . . .

proyecto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

45

38

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.