Universidad Tecnológica Nacional Facultad Regional Buenos Aires

Universidad Tecnológica Nacional Facultad Regional Buenos Aires Tesis Doctoral Métodos de Imágenes para Tomografía Gamma, PET y SPECT Ing. Martín Be

12 downloads 76 Views 15MB Size

Story Transcript

Universidad Tecnológica Nacional Facultad Regional Buenos Aires Tesis Doctoral

Métodos de Imágenes para Tomografía Gamma, PET y SPECT

Ing. Martín Belzunce

Director: Dr. Isaac Marcos Cohen

Codirector: Mg. Claudio Verrastro Buenos Aires, 2013

Resumen La tomografía por emisión es una técnica que genera imágenes tridimensionales de la distribución de uno o más radioisótopos dentro de un cuerpo bajo estudio. Su principal aplicación es en el campo de la medicina nuclear, donde ha tenido un impacto importante en el diagnóstico médico, gracias a su propiedad de brindar información molecular y metabólica in vivo. Entre las tecnologías disponibles se destaca la tomografía por emisión de positrones (PET), que es la herramienta más adecuada para el diagnóstico y el seguimiento del cáncer; sin embargo, su disponibilidad es acotada en Argentina, en razón de su alto costo. Por esta causa, la Comisión Nacional de Energía Atómica está desarrollando un tomógrafo, denominado AR-PET, con la intención de facilitar el acceso a esta técnica en el ámbito nacional y dotar al país de capacidades productivas relacionadas con esta tecnología. Uno de los aspectos fundamentales de los sistemas tomográficos es el algoritmo de reconstrucción de imagen, mediante el cual es posible obtener la distribución espacial del radioisótopo en el cuerpo del paciente, a partir de las líneas de respuesta adquiridas con el equipo. Las imágenes producidas con el empleo de algoritmos iterativos son de mayor calidad y resolución, en comparación con las generadas por aplicación de los algoritmos analíticos basados en la transformada de Radon, pero requieren utilizar una matriz del sistema que modele de manera precisa el proceso de adquisición del scanner utilizado. La característica iterativa del algoritmo, sumada al volumen considerable de datos que se debe manejar y el cálculo intensivo necesario para obtener la matriz del sistema, hacen que este tipo de algoritmos sea muy intenso computacionalmente y, en consecuencia, su implementación en forma optimizada resulta un requisito fundamental. Se ha estudiado en el presente trabajo la utilización de unidades de procesamiento gráfico para poder ejecutar un algoritmo de reconstrucción 3D de forma acelerada. Los resultados mostraron la factibilidad de conseguir importantes factores de aceleración respecto de implementaciones en CPU, incluso con relación a servidores i

de altas prestaciones. El estudio fue acompañado por un análisis de la evolución de las arquitecturas de este tipo de procesadores y de la conveniencia de su utilización en los algoritmos de reconstrucción 3D. En lo concerniente al AR-PET, se diseñó un algoritmo de reconstrucción que cubre todos los aspectos necesarios para generar imágenes de buena calidad y resolución. Con el fin de disponer de datos a reconstruir y determinar las condiciones de trabajo del AR-PET se elaboró un modelo del scanner para ejecutar simulaciones Monte Carlo, con el cual se simularon los ensayos de sensibilidad y tasa de conteo estandarizados en la norma NEMA NU 2-2001. Este análisis permitió obtener los valores de concentración de actividad adecuados para los estudios con el AR-PET. Se cuantificó la influencia de algunas propiedades de los detectores en los parámetros ensayados y el impacto que tendría la implementación de ciertas mejoras en la electrónica de procesamiento. Adicionalmente, se corrieron simulaciones Monte Carlo de ensayos con fantomas para evaluar la resolución y calidad de las imágenes reconstruidas. El algoritmo de reconstrucción propuesto para el AR-PET trabaja en modo histograma y es totalmente 3D. Se determinó que una configuración eficiente para las características del scanner en cuestión es de sinogramas 3D de 41 anillos con span de 7 y cada sinograma 2D de 192x248 bins. En el algoritmo diseñado se propone una matriz del sistema que modela la geometría de detección hexagonal del scanner y las variaciones de sensibilidad en cada zona del campo de visión. Dicho modelo permitió obtener imágenes con buena calidad, cubriendo todo el campo de visión. Asimismo, el modelo de la matriz tiene en cuenta las zonas ciegas que se forman en el borde de los detectores. En otro ámbito de aplicación, se estudió el empleo de tomografías por emisión de fotón único (SPECT) en el ensayo no destructivo de residuos radiactivos. Para ello se diseñó un gamma scanner tomográfico con seis detectores de NaI(Tl), con el que se logró aumentar la sensibilidad del sistema y bajar los costos respecto de los sistemas tradicionales. Para el scanner diseñado se desarrolló un algoritmo de reconstrucción 2D con dos matrices del sistema que modelan las características del colimador, la sensibilidad de

ii

detección y la atenuación en el medio. Con el objeto de completar el algoritmo de reconstrucción se propuso un método de calibración en actividad. Los métodos propuestos se evaluaron a través de datos generados con simulaciones Monte Carlo y de experimentos de medición en distintas condiciones. Se comprobó que las matrices del sistema modelan adecuadamente el proceso de adquisición y permiten llevar la resolución del sistema a menos de 5 cm en todo el campo de visión. Las imágenes cuantificadas en actividad tuvieron errores menores que el 15%.

iii

iv

Abstract Emission tomography is an imaging technique that produces a three-dimensional image of the spatial distribution of radioisotopes inside an object or a human body. It is mainly used in nuclear medicine as a diagnostic tool, since it has the ability to provide functional and molecular information in vivo. Positron emission tomography (PET) is an outstanding technique among other nuclear medicine imaging methods and its use in oncology is essential for detecting cancer tumors and for evaluating their degree of malignancy. For this reason, the Comisión Nacional de Energía Atómica is developing a scanner, named AR-PET, in order to increase the availability of this technique in our country and to generate technological capacities related with this area. An important issue in a tomographic system is the image reconstruction algorithm, which produces the spatial distribution of the radioisotope inside the patient using the acquired projections. Better quality and resolution is achieved in the reconstructed images by utilizing iterative methods, compared with the use of analytical algorithms based on Radon transform. To achieve this, a system response matrix that models precisely the acquisition process is required. The implementation of the algorithm must be optimized in order to reconstruct the images in a reasonable time because of the computing requirements of the iterative process, the large volume of the data sets and the intense calculations performed to get the system matrix. In the present work, the use of graphics processing units is proposed to accelerate a 3D image reconstruction algorithm. The results showed that important acceleration factors can be achieved with respect to CPU implementations, even when using high performance servers. The study included an examination of the evolution of graphics processor units and its architecture for general purpose applications, such as 3D image reconstruction. Regarding the AR-PET, an image reconstruction algorithm and all its components were designed in order to obtain good image quality and resolution. So as to generate reconstruction data sets and to establish the working conditions of the ARv

PET, a model of the scanner was created to run Monte Carlo simulations of the sensitivity and count rate assays described in the NEMA NU 2-2001 standard. The proper activity concentration to be used in the AR-PET scans was found. In addition, the influence of some detector properties in the sensitivity and the count rate parameters was evaluated. Moreover, Monte Carlo simulations of acquisitions with different phantoms were performed in order to evaluate the image quality and resolution of the reconstructed images. The developed image reconstruction algorithm for the AR-PET is fully 3D and works in histogram mode. It was found that an efficient configuration for the ARPET’s algorithm uses sinograms 3D with 41 rings and a span of 7 and with each sinogram 2D of 192x248 bins. An analytical system response matrix that models the hexagonal geometry of the scanner and the spatially-variant point spread function was proposed for the AR-PET image reconstruction algorithm. The use of that system matrix produced good image quality and uniformity in the whole field of view. In addition, the model takes into account the blind area in the detector’s edges. In another field of application, the use of single photon emission tomography (SPECT) for nondestructive assay of nuclear waste drums was studied. In this sense, a tomographic gamma scanner that uses six NaI(Tl) detectors was designed in order to increase the sensitivity and reduce costs with respect to traditional systems. A 2D image reconstruction algorithm and two different system response matrices were developed for the tomographic gamma scanner. Both matrices model the geometry of the system, the collimator’s response and the attenuation in the field of view. Additionally, a method to perform an activity calibration of the images was elaborated. The image reconstruction algorithm and its system matrices were evaluated using Monte Carlo simulations and experimental data. The results showed that the matrices model accurately the acquisition process of the scanner and that the use of them allowed achieving a resolution below 5 cm in every region of the field of view. The error in activity quantification was less than 15%.

vi

Índice general 1

INTRODUCCIÓN 1.1.

TOMOGRAFÍAS POR EMISIÓN

3

1.2.

ALGORITMOS DE RECONSTRUCCIÓN TOMOGRÁFICA

4

1.3.

MOTIVACIÓN

5

1.4.

OBJETIVOS

6

1.4.1. Tomógrafo por Emisión de Positrones

7

1.4.2. Tomógrafo de Residuos Radiactivos

7

1.5.

2

1

ESTRUCTURA DE LA TESIS

8

TOMOGRAFÍAS POR EMISIÓN GAMMA 2.1.

PRINCIPIOS FÍSICOS DE LAS TOMOGRAFÍAS POR EMISIÓN

11 11

2.1.1. Tipos de Decaimientos Radiactivos

12

2.1.2. Emisiones Gamma

14

2.2.

INTERACCIÓN DE LA RADIACIÓN CON LA MATERIA

14

2.2.1. Efecto Fotoeléctrico

15

2.2.2. Dispersión por Efecto Compton

16

2.2.3. Producción de Pares

16

2.2.4. Atenuación de Fotones

17

2.3.

DETECTORES DE RADIACIÓN GAMMA

18

2.3.1. Fotodetectores 2.4.

20

TOMOGRAFÍA PET

23

2.4.1. Tipo de Detectores en PET

26

2.4.2. Geometrías de Detección

31

2.4.3. Adquisición de Eventos

32

2.4.4. Tiempo de Vuelo

36

2.4.5. Modos de Adquisición 2D y 3D

36

2.4.6. Generación de la Imagen PET

38

2.4.7. Corrección de los Datos Adquiridos

42

2.5.

TOMOGRAFÍA SPECT

45

2.5.1. Corrección de los Datos Adquiridos

47

2.5.2. Aplicaciones

48

2.6.

ESPECTROMETRÍA GAMMA

49

2.7.

SIMULACIÓN DE SISTEMAS

51

vii

3

ALGORITMOS DE RECONSTRUCCIÓN DE IMAGEN EN TOMOGRAFÍAS DE EMISIÓN

55

3.1.

RECONSTRUCCIÓN 2D

56

3.2.

MÉTODOS ANALÍTICOS 2D

57

3.2.1. Retroproyección

60

3.2.2. Retroproyección Filtrada

61

3.2.3. Evaluación de la Retroproyección Filtrada

63

3.3.

ALGORITMOS ITERATIVOS

70

3.3.1. MLEM

71

3.3.2. OSEM

77

3.3.3. Reconstrucción Bayesiana

79

3.3.4. ART

82

3.3.5. RAMLA

83

3.4.

RECONSTRUCCIÓN 3D

83

3.4.1. Reconstrucción Analítica 3D

84

3.4.2. Reconstrucción Iterativa 3D

85

3.4.3. Métodos de Rebinning

86

3.5.

IMPLEMENTACIÓN DE UN ALGORITMO ITERATIVO

3.5.1. Proyectores 3.6.

89

CORRECCIONES

91

3.6.1. Decaimiento de Actividad

91

3.6.2. Eventos Aleatorios

92

3.6.3. Atenuación

93

3.6.4. Dispersión

97

3.6.5. Normalización

99

3.6.6. Tiempo Muerto

99

3.6.7. Respuesta del Colimador

4

87

100

IMPLEMENTACIÓN DE UN ALGORITMO DE RECONSTRUCCIÓN ITERATIVO 3D PARA SCANNERS CILÍNDRICOS

101

4.1.

IMPLEMENTACIÓN DE ALGORITMO MLEM

102

4.2.

BIBLIOTECA DE RECONSTRUCCIÓN

105

4.3.

IMPLEMENTACIÓN DE ALGORITMO MLEM 3D PARA UN SCANNER CILÍNDRICO

106

4.3.1. Algoritmo de Siddon

107

4.3.2. Operación de Proyección

112

4.3.3. Operación de Retroproyección

113

4.3.4. Verificación del Proyector

113

4.4.

RECONSTRUCCIÓN DE DATOS DE SCANNER CILÍNDRICO viii

117

4.4.1. Dos Fuentes Puntuales en Siemens Biograph 16

117

4.4.2. Fantoma Cilíndro y Estudio de Cerebro en GE Discovery STE

117

4.5.

119

4.5.2. Arquitectura Tesla

121

4.5.3. Arquitectura Fermi

131

4.5.4. Arquitectura Kepler

135

IMPLEMENTACIÓN DE MLEM 3D EN GPU

136

4.6.1. Implementación en CUDA

138

4.6.2. Evaluación de la Implementación

143

4.6.3. Resultados de Reconstrucción con CUDA

145

4.6.4. Análisis de los Resultados

149

4.7.

CONCLUSIÓN

152

AR-PET 5.1.

155

CARACTERÍSTICAS GENERALES

157

5.1.1. Procesamiento de Pulso

159

5.1.2. Resolución en Energía

160

5.1.3. Marca de Tiempo

161

5.1.4. Posicionamiento del Destello

162

5.1.5. Clustering Dinámico

164

5.1.6. Cabezal de Atenuación

165

5.2.

ESTADO ACTUAL DEL EQUIPO

165

5.3.

SIMULACIÓN DEL SISTEMA

168

5.3.1. Análisis de Sensibilidad

171

5.3.2. Análisis de Tasa de Conteo, Fracción de Dispersión y Eventos Aleatorios

178

5.4.

GENERACIÓN DE DATOS PARA RECONSTRUCCIÓN

5.4.1. Procesamiento de las Simulaciones 5.5.

6

119

4.5.1. Evolución de los Procesadores Gráficos

4.6.

5

DESARROLLO DE ALGORITMO EN UNIDADES DE PROCESAMIENTO GRÁFICO (GPUS)

191 194

CONCLUSIONES

194

ALGORITMO DE RECONSTRUCCIÓN PARA EL TOMÓGRAFO AR-PET

197

6.1.

SISTEMAS DE COORDENADAS

198

6.2.

GENERACIÓN DE SINOGRAMAS

202

6.2.1. Procesamiento de las Simulaciones

205

6.2.2. Rebinning para Generación de Sinogramas 2D

206

6.2.3. Sinogramas Generados

207

6.3.

ALGORITMO DE RECONSTRUCCIÓN ITERATIVO PARA EL AR-PET

6.3.1. Modelo de Detección

209 210

ix

6.3.2. Corrección de Atenuación

219

6.3.3. Corrección de Eventos Aleatorios

221

6.3.4. Corrección de Dispersión

221

6.3.5. Extensión a OSEM

222

6.4.

RESULTADOS DE RECONSTRUCCIÓN

223

6.4.1. Control de Ruido

224

6.4.2. Análisis de Calidad de Imagen y Resolución Espacial

225

6.4.3. Impacto del Tiempo de Adquisición y la Concentración de Actividad

231

6.5.

RECONSTRUCCIÓN CON ZONAS CIEGAS

234

6.5.1. Análisis con Fantoma Cilíndrico Uniforme

235

6.5.2. Análisis con Fantoma de Calidad de Imagen

238

6.6.

RECONSTRUCCIÓN DE DATOS DE MEDICIÓN

239

6.6.1. Validación del Sistema

240 22

6.6.2. Tomografía con una Fuente Puntual de Na 6.7.

7

CONCLUSIONES

241

TOMOGRAFÍA DE EMISIÓN EN ENSAYO DE CONTENEDORES DE RESIDUOS RADIACTIVOS 7.1.

245

GESTIÓN DE RESIDUOS RADIACTIVOS

246

7.1.1. Clasificación

246

7.1.2. Tratamiento de los Residuos Radiactivos

248

7.1.3. Caracterización de los Residuos Radiactivos

249

7.2.

GAMMA SCANNER TOMOGRÁFICO

251

7.3.

AR-TGS

253

7.3.1. Diseño de Colimador

8

241

255

7.4.

ANÁLISIS DE SENSIBILIDAD DEL SISTEMA

261

7.5.

CONCLUSIONES

262

ALGORITMO DE RECONSTRUCCIÓN DE IMAGEN PARA EL AR-TGS

263

8.1.

GENERACIÓN DE SINOGRAMAS

265

8.2.

CONSIDERACIONES GENERALES DEL ALGORITMO DE RECONSTRUCCIÓN

266

8.2.1. Fantomas

268

8.2.2. Generación de Datos Simulados

270

8.3.

PROYECTORES

276

8.3.1. Cono de Respuesta Atenuado - Ray-Driven

277

8.3.2. Cono de Respuesta Atenuado – Pixel-Driven

283

8.3.3. Comparación de Proyectores

287

8.4.

RECONSTRUCCIÓN DE DATOS SIMULADOS

x

293

9

8.4.1. Cuantificación de Actividad

294

8.4.2. Fantomas en Aire

296

8.4.3. Fantomas con Arena

299

8.4.4. Fantomas con Arena y Altura de Segmento de 100 mm

303

8.5.

RECONSTRUCCIÓN PENALIZADA

305

8.6.

CONCLUSIONES

306

EVALUACIÓN DEL SISTEMA DE IMÁGENES DEL AR-TGS 9.1.

CUANTIFICACIÓN DE ACTIVIDAD

309 310

9.1.1. Cuantificación de Fuentes Puntuales

310

137

Cs

312

60

9.1.3. Cuantificación en Fantomas con Co

314

9.1.2. Cuantificación en Fantomas con

9.2.

ANÁLISIS DE RESOLUCIÓN ESPACIAL

315

9.2.1. Análisis con Fuentes Puntuales

315

9.2.2. Análisis con Fantoma de Resolución Espacial

318

9.3.

SENSIBILIDAD

321

9.3.1. Fuente de Fondo

323

9.3.2. Generación de Sinogramas

325

9.3.3. Reconstrucción de Imágenes

327

9.3.4. Cuantificación de Actividad

331

9.4.

SEPARACIÓN DE RADIOISÓTOPOS

333

9.4.1. Generación de Sinogramas 9.5.

333

DATOS DE MEDICIONES REALES

336

9.5.1. Generación de Sinogramas

338

9.5.2. Reconstrucción de Mediciones

339

9.5.3. Cuantificación de Actividad

342

9.6.

CONCLUSIÓN

343

10 CONCLUSIONES

347

11 BIBLIOGRAFÍA

355

xi

xii

Índice de Tablas Tabla 2-1. Propiedades de los distintos cristales centelladores que se han utilizado o se utilizan actualmente en PET [19]. ........................................................................................................... 31 Tabla 4-1. Características de los procesadores utilizados para evaluar la implementación del algoritmo MLEM 3D en CUDA. ............................................................................................. 138 Tabla 4-2. Tiempo de ejecución en segundos de una iteración para las dos CPUs y las dos GPUs utilizados en sus diferentes versiones de implementación. ...................................................... 145 Tabla 4-3. Factores de aceleración de las implementaciones paralelas en CPU y GPU respecto de la de CPU de un único hilo en el procesador Intel Xeon E5-2630. .............................................. 146 Tabla 4-4. Desvío estándar en las ROIs de actividad uniforme del fantoma cilíndrico y de calidad de imagen para las imágenes reconstruidas de 256x256x47 píxeles y FOV de 40 cm. ................ 149 Tabla 4-5. Valores de recuperación de contraste para cada uno de las esferas frías y calientes obtenidos con las distintas implementaciones del algoritmo MLEM 3D. ................................ 149 Tabla 4-6. Resumen de precios y años de lanzamiento de cada uno de los procesadores utilizados. 151 Tabla 5-1. Diámetros de los tubos de soporte de fuente utilizados en el ensayo de sensibilidad de la norma NEMA NU-2 2001. ....................................................................................................... 172 Tabla 5-2. Valores de tasa de coincidencias corregida para cada medición, sin zona muerta. ........... 174 Tabla 5-3. Comparación de las tasas obtenidas para la medición con fuente centrada y desplazada, para los distintos tamaños de zona muerta propuestos. ............................................................ 175 Tabla 5-4. Resultados del ensayo de sensibilidad para los distintos tamaños de zona muerta analizados. Se muestran los valores RCORR,0 y μM obtenidos del ajuste a la curva (5.5) y la sensibilidad obtenida a partir de ellos. ..................................................................................... 176 Tabla 5-5. Valores de sensibilidad según norma NEMA NU2-2001 de distintos tomógrafos PET comerciales, todo ellos con modos de adquisición 3D. Solo se incluyen los resultados para la vara con la fuente ubicada en el centro (r = 0 mm). ................................................................. 177 Tabla 5-6. Actividades de las mediciones que tendría un ensayo completo y el tiempo en el que se realizaría la medición. Solo las mediciones pares, más la inicial, han sido simuladas. ............ 182 Tabla 5-7. Valores de fracción de dispersión (SF) obtenidos de la simulación del AR-PET para distintos parámetros de procesamiento. Se utilizaron dos ventanas de energía diferentes y las mismas zonas ciegas utilizadas en el análisis de sensibilidad. ................................................. 184 Tabla 5-8. Tasas máximas NEC y de eventos verdaderos para las distintas cadenas de procesamiento y considerando una zona ciega de ½ PMT. La ventana de energía utilizada fue de 470-600 keV. ................................................................................................................................................. 187 Tabla 5-9. Tasas máximas NEC y de eventos verdaderos para las distintas cadenas de procesamiento y considerando una zona ciega despreciable. La ventana de energía utilizada fue de 470-600

xiii

keV. .......................................................................................................................................... 188 Tabla 5-10. Tasas máximas NEC y de eventos verdaderos para las distintas cadenas de procesamiento y considerando una zona ciega despreciable. La ventana de energía utilizada fue de 430-600 keV. .......................................................................................................................................... 189 Tabla 5-11. Valores de tasa máxima NEC y de eventos verdaderos y sus respectivos valores de concentración de actividad según norma NEMA NU2-2001 de distintos tomógrafos PET comerciales, todo ellos con modos de adquisición 3D. ............................................................ 190 Tabla 5-12. Simulaciones del AR-PET con adquisiciones de distintos fantomas. Se muestran el tiempo simulado de adquisición, la cantidad de eventos singles adquiridos en todo el scanner, la cantidad de coincidencias y su tasa. ..................................................................................... 193 Tabla 6-1. Valores de recuperación de contraste para esferas frías y calientes obtenidos para el fantoma de calidad de imagen NEMA con relación de contraste 8:1. Además se incluye el porcentaje de cuentas residuales en el inserto de baja densidad............................................... 228 Tabla 6-2. Valores de desvío estándar normalizado de las cuentas promedio de cada una de las 60 ROIs para los distintos diámetros procesados. ......................................................................... 229 Tabla 6-3. Valores de recuperación de contraste obtenidos para los tres ensayos simulados con el fantoma NEMA de calidad de imagen con relación de actividad 4 a 1 y sinogramas de alta resolución. ................................................................................................................................ 232 Tabla 6-4. Valores del desvío estándar en de las 60 ROIs de fondo con distintos diámetros para los tres ensayos simulados con el fantoma NEMA de calidad de imagen con relación de actividad 4 a 1 y sinogramas de alta resolución. ......................................................................................... 234 Tabla 6-5. Valores de desvío estándar de las media de cada ROI dentro de distintos slices de las imágenes reconstruidas para la simulación de cilindro uniforme con y sin zona ciega. .......... 236 Tabla 6-6. Valores de recuperación de contraste obtenidos para los tres ensayos simulados con el fantoma NEMA de calidad de imagen con relación de actividad 8 a 1 y distintos tamaños de zonas ciegas en el detector (determinados por LZM). ............................................................... 238 Tabla 6-7. Valores del desvío estándar en de las 60 ROIs de fondo con distintos diámetros para las imágenes reconstruidas del fantoma NEMA con relación de actividad 8 a 1 y distintos tamaños de zonas ciegas en el detector (determinados por LZM). ........................................................... 238 Tabla 6-8. Comparación de ensayo de coincidencia entre simulación Monte Carlo (GATE) y medición con prototipo de AR-PET. ........................................................................................................ 240 Tabla 7-1. Comparación de resolución y sensibilidad de los colimadores propuestos. La resolución espacial se obtiene con el ancho del cono en el eje central y en el punto más alejado del FOV. ................................................................................................................................................. 257 Tabla 7-2. Tabla comparativa de la performance de los colimadores propuestos. ............................. 260 Tabla 7-3. Resultados de simulación de sensibilidad para sistema con seis detectores y colimadores con un agujero para NaI(Tl), HPGe y CZT. ............................................................................. 261 Tabla 8-1. Posición de cada una de las fuentes puntuales del fantoma Múltiples Fuentes Puntuales.269

xiv

Tabla 8-2. Radio y centro de las varillas que forman parte del fantoma de resolución. .................... 270 Tabla 8-3. Resumen de simulaciones del AR-TGS realizadas con GATE para distintos fantomas. . 274 Tabla 8-4. Simulaciones realizadas con altura de segmento despreciable. ........................................ 274 Tabla 8-5. Comparación de los distintos proyectores implementados, según los factores considerados en cada uno de ellos. ................................................................................................................ 288 Tabla 8-6. Error Cuadrático Medio entre sinogramas proyectados y sinogramas simulados con GATE para fantomas de fuentes puntuales en aire. ............................................................................. 290 Tabla 8-7. Error Cuadrático Medio entre sinogramas proyectados y sinogramas simulados con GATE para fantomas en arena y con 100 mm de altura de segmento. ................................................ 292 Tabla 8-8. Comparación del Error Cuadrático Medio entre los proyectores evaluados y los sinogramas de referencia para cada uno de los fantomas. ........................................................................... 293 Tabla 9-1. Fuentes del fantoma de Múltiples Fuentes Puntuales que se utilizaron para el análisis de cuantificación de actividad y de resolución espacial. ............................................................... 310 Tabla 9-2. Actividad total obtenida por imagen para cada una de las fuentes reconstruidas y por cada método de reconstrucción. Las fuentes se encontraban en aire. ............................................... 311 Tabla 9-3. Actividad total obtenida por imagen para cada una de las fuentes reconstruidas y por cada método de reconstrucción. Las fuentes se encontraban en arena. ............................................ 311 Tabla 9-4. Actividad total obtenida por imagen para cada una de las fuentes en arena reconstruidas y por cada método de reconstrucción, para los sinogramas corregidos con el método de la triple ventana. .................................................................................................................................... 312 Tabla 9-5. Actividad total obtenida por imagen para cada uno de los fantomas de espesor despreciables reconstruidas y por cada método de reconstrucción. Las fuentes se encontraban en arena. ................................................................................................................................... 313 Tabla 9-6. Actividad total obtenida por imagen para cada uno de los fantomas de 100 mm de altura reconstruidas y por cada método de reconstrucción. Las fuentes se encontraban en arena...... 314 Tabla 9-7. Resultados de cuantificación para fondo de 60Co en fantoma de Resolución Espacial. ... 314 Tabla 9-8. FWHM obtenido en el corte por el eje X para la reconstrucción de distintas fuentes puntuales con distintos métodos de reconstrucción. ................................................................ 316 Tabla 9-9. FWHM obtenido en el corte por el eje Y de las fuentes reconstruidas. ............................ 317 Tabla 9-10. Concentración de actividad en µCi por píxel en las distintas ROIs analizadas para el Fantoma de Resolución Espacial. ............................................................................................ 320 Tabla 9-11. Valores de recuperación de contraste para el Fantoma de Resolución Espacial con 100 mm de altura. ........................................................................................................................... 321 Tabla 9-12. Valores de recuperación de contraste para el Fantoma de Resolución Espacial con altura despreciable.............................................................................................................................. 321 Tabla 9-13. Cuentas adquiridas en cada sinograma para cada radioisótopo y actividad de fuente. ... 327 Tabla 9-14. Actividades obtenidas en las imágenes reconstruidas con MLEM con CDRA-PC-H-RD – CDRA-PC-H-RD. .................................................................................................................... 332

xv

Tabla 9-15. Actividades obtenidas en las imágenes reconstruidas con MLEM con CDRA-PD – CDRA-PD. ............................................................................................................................... 332 Tabla 9-16. Tiempos de adquisición y eventos adquiridos en cada una de las cinco mediciones realizadas con el prototipo del AR-TGS. ................................................................................. 339 Tabla 9-17. FWHM sobre el eje X de las fuentes reconstruidas para la mediciones 1 y 2. ............... 341 Tabla 9-18. FWHM sobre el eje Y de las fuentes reconstruidas para la mediciones 1 y 2. ............... 341 Tabla 9-19. Actividades estimadas de cada una de las mediciones y el error relativa para cada una de ellas. ......................................................................................................................................... 342

xvi

Índice de Figuras

Figura 2.1. En la izquierda tubos fotomultiplicadores de vacío de distintas formas y tamaños. A la derecha dos fotomultiplicadores de estado sólido. ..................................................................... 23 Figura 2.2. Principio de funcionamiento de un tomógrafo por emisión de positrones. Un radiotrazador con decaimiento β+ es inyectado al paciente. El positrón emitido pierde su energía cinética en unos pocos mm y se aniquila con un electrón, generando dos fotones gamma emitidos en direcciones opuestas. Ambos fotones son medidos por dos detectores, donde se verifica que la diferencia de tiempo sea menor que una ventana de 20 ns. De esta forma se obtiene la línea de respuesta que atraviesa la posición donde fue emitido el positrón. ............................................ 25 Figura 2.3. Esquema de detección con detector continuo. En la imagen a) se observa un cristal continuo de gran tamaño. En b) se encuentra el cristal con la matriz de fotomultiplicadores acoplados. En c) se muestra cómo es el proceso de detección de un destello en el cristal, donde a la salida de los PMTs más cercanos al mismo se tienen señales de mayor intensidad. Las intensidades relativas de las señales se utilizan para procesar el evento. ................................... 28 Figura 2.4. Ejemplo de un detector con un cristal de 8x8 píxeles y cuatro fotomultiplicadores acoplados para la adquisición de la luz generada en el cristal. En la parte inferior de la imagen, se muestran tres detectores posibles para el mismo cristal pixelado. De izquierda a derecha, un esquema con cuatro PMTs cuadrados que cubren la superficie del cristal, otro con cuatro PMTs cilíndricos dentro de la superficie del cristal y por último una geometría de bajo costo que utiliza PMTs de mayor tamaño. ................................................................................................. 30 Figura 2.5. Distintas geometrías utilizadas en los scanners PET. En a) una geometría hexagonal con seis detectores continuos, en b) un scanner cilíndrico con detectores de bloque y en c) un scanner incompleto con solos dos detectores enfrentados y un movimiento rotatorio. ............. 33 Figura 2.6. Distintos tipos de coincidencias adquiridas en un scanner PET. En a) una coincidencia del tipo verdadera. En b) se muestra una coincidencia aleatoria, donde la coincidencia detectada está formada por dos fotones gamma originados en aniquilaciones electrónicas diferentes. En rojo se muestra la LORs interpretada en la adquisición. En c) se muestra un evento de dispersión donde un fotón es desviado previo a la detección, como consecuencia se considera una LOR errónea (en rojo en la figura). En d) se muestra un caso de dos coincidencias que ocurren en la misma ventana. En la adquisición se tendrán cuatro LORs posibles, dos de ellas correctas (en negro) y dos incorrectas (en rojo). ........................................................................ 35 Figura 2.7. Modos de adquisición en PET. A la izquierda el modo 2D donde las septas permiten solo coincidencias en un mismo anillo o con el anillo vecino. El scanner mostrado cuenta con ocho anillos y en la figura se muestran en azul las LORs aceptadas y en rojo y línea punteada las

xvii

LORs frenadas por las septas. En el esquema de la derecha se muestran algunas LORs admitidas en el modo de adquisición 3D. Se puede observar cómo se aceptan LORs entre anillos diferentes. ....................................................................................................................... 37 Figura 2.8. Llenado de sinograma durante el procesamiento de los datos. Cada LOR adquirida es parametrizada mediante la distancia r y el ángulo θ, y luego se incrementa el valor del elemento del sinograma correspondiente a esos valores de r y θ. Como resultado se obtienen en cada fila las proyecciones de la distribución de actividad en ángulos equiespaciados entre 0º y 180º. .... 39 Figura 2.9. Representación de una LOR en adquisición 3D. La recta se proyecta en el plano XY y se obtienen las coordenadas polares de su proyección, adicionalmente se obtienen las coordenadas axiales en z de los dos eventos. Con esos cuatro parámetros queda definida la línea de respuesta. .................................................................................................................................... 40 Figura 2.10. A la izquierda un michelograma de ejemplo. Cada punto de la matriz es un sinograma para una combinación de anillos dada. Los sinogramas unidos con líneas son unificados en un único sinograma para reducir los datos. Los de líneas punteadas tienen cuatro sinogramas fusionados, mientras que los de línea solido tres. La suma de ambos da un valor de span de siete para este michelograma. A la derecha se muestra como se fusionan los sinogramas para esta configuración. ..................................................................................................................... 42 Figura 2.11. En PET la atenuación de una LOR está dada por el producto de la atenuación de ambos fotones, que es igual a la atenuación total a lo largo de toda la LOR sin importar la posición de emisión del positrón. .................................................................................................................. 44 Figura 2.12. Principio de funcionamiento de la tomografía SPECT. El radioisótopo emite un único fotón gamma que es detectado en ángulos incidentes perpendiculares al detector mediante la utilización de un colimador. En la imagen se muestra en rojo una emisión que es frenada en el colimador, en verde un fotón detectado ya que tiene el ángulo de incidencia adecuado y en azul uno que adquiere el ángulo de incidencia correcto luego de una interacción Compton en el paciente. El detector rota alrededor del paciente para obtener la proyección en ángulos que van desde 0º a 360º. .......................................................................................................................... 46 Figura 2.13. En SPECT la distancia de atenuación L depende de la posición de emisión del fotón gamma. ....................................................................................................................................... 47 Figura 2.14. Espectro ideal de energía para un radioisótopo que emite fotones con una única energía, menor que 1,022 MeV y sin material entre la fuente y el detector. ............................................ 50 Figura 2.15. Ejemplo de una geometría de detección realizada con GATE. El scanner es un sistema del tipo CylindricalPET, formado con múltiples detectores agrupados en bloques. .................. 53 Figura 2.16. Ejemplo de una cadena de procesamiento de eventos singles formada por múltiples módulos que hacen que se colecten y sumen las distintas interacciones (hits) de un fotón con un sector configurable del detector. Además se incluyen módulos para configurar la resolución en energía y espacial del detector, un discriminador de eventos por umbral de energía y el tiempo muerto del detector. Imagen obtenida de [16]. ........................................................................... 53

xviii

Figura 3.1. Ejemplo de la generación de un sinograma para la imagen que se observa arriba y a la izquierda. Cada fila del sinograma es la proyección de la imagen en un ángulo dado. En la figura se muestran las proyecciones en 0º, 40º y 80º. Las filas correspondientes a cada proyección se encuentran remarcadas en el sinograma de la derecha. ....................................... 57 Figura 3.2. El Teorema de la Sección Central de Fourier muestra que la transformada de Fourier de las proyecciones

es igual a evaluar la transformada de la imagen f(x,y) en la recta con la

dirección de la proyección. En la imagen de la derecha se observa la transformada de Fourier de la imagen y las distintas proyecciones. Se observa que cuando la cantidad de proyecciones es limitada, la cantidad de muestras obtenidas en el dominio de la frecuencia no están uniformemente distribuidas sino que en la zona central hay más muestras que en la periferia. 59 Figura 3.3. Ejemplo de la operación de retroproyección utilizando solo ocho proyecciones del sinograma de la Figura 3.1. ........................................................................................................ 61 Figura 3.4. Respuestas en frecuencia de los filtros Rampa, Shepp-Logan, Coseno, Hamming y Hann. Todas para una frecuencia de corte relativa de 1........................................................................ 63 Figura 3.5. Fantoma Shepp-Logan. ..................................................................................................... 64 Figura 3.6. Reconstrucciones del sinograma con 180 proyecciones del fantoma Shepp-Logan. A la izquierda, la reconstrucción se realizó sin el filtro rampa donde se obtiene una imagen borroneada. A la derecha, se realiza la retroproyección con el filtro rampa y la imagen obtenida es prácticamente igual al fantoma original. ................................................................................ 64 Figura 3.7. Imágenes reconstruidas con el algoritmo de retroproyección filtrada para sinogramas con 180, 90, 60, 30, 15 y 8 proyecciones. En todos los casos se aplicó el algoritmo utilizando el filtro rampa. ............................................................................................................................... 65 Figura 3.8. Ocho sinogramas simulados computacionalmente con un código de MATLAB que tiene en cuenta que el proceso de adquisición es del tipo Poisson. Cada sinograma tiene una cantidad de eventos aleatoria que va desde aproximadamente 1.10 4 a 3.107. ........................................... 66 Figura 3.9. Imágenes reconstruidas de los sinogramas simulados con distinta cantidad de eventos. En todas las reconstrucciones se utilizaron el filtro rampa y la interpolación bilineal. ................... 68 Figura 3.10. Imágenes reconstruidas para el fantoma simulado con 10 7 eventos utilizando los filtros Shepp-Logan, Coseno, Hamming y Hann. Todos con una frecuencia de corte relativa ωc de 0,7. ................................................................................................................................................... 69 Figura 3.11. Imágenes reconstruidas con FBP para el fantoma simulado con 10 7 eventos utilizando el Hann con frecuencias de corte relativa ωc de 0,4, 0,6, 0,8 y 1. .................................................. 69 Figura 3.12. Esquema de reconstrucción con MLEM. A partir de una imagen inicial, se inicia un proceso iterativo. En él, la imagen Xk es proyectada para obtener un sinograma estimado PE, que es comparado con el sinograma adquirido B realizando una división bin a bin. El sinograma de comparación es retroproyectado para obtener la imagen de corrección X_correc. Finalmente, se corrige y normaliza la imagen actual, y se obtiene la imagen de la nueva iteración. En este esquema, en gris se encuentran las etapas que están en el dominio de la imagen y en rojo el de

xix

las proyecciones. ........................................................................................................................ 75 Figura 3.13. Imágenes reconstruidas con el algoritmo MLEM para sinogramas con distintas cantidad de eventos en el proceso Poisson simulado. Se utilizó un proyector geométrico y 20 iteraciones. ................................................................................................................................................... 76 Figura 3.14. Evolución de la reconstrucción con MLEM del sinograma simulado con 3.10 6 eventos. Se muestran las imágenes obtenidas en las iteraciones 1, 20, 30, 40 y 50. ................................ 77 Figura 3.15. Funciones de penalización utilizadas en la reconstrucción MAP. Los parámetros de las mismas fueron seleccionados para poder compararlas entre sí. ................................................. 81 Figura 3.16. Tratamiento de las coincidencias oblicuas en los métodos de rebinning SSRB y MSRB. A la izquierda se muestra el SSRB, donde la LOR se transforma en directa en el medio de su recorrido axial. A la derecha se observa cómo el MSRB muestrea la LOR en puntos equiespaciados formando múltiples LORs directas. .................................................................. 87 Figura 3.17. Tres tipos de proyectores geométricos. Un proyector ray-driven, en el cual se parte de la LOR generada entre dos detectores y se obtiene el largo del segmento de intersección con cada píxel (izquierda). Otro del tipo pixel-driven, en el cual a partir de la coordenada de cada píxel se proyecta una recta con el ángulo deseado hacia el detector y se asigna una proporción a cada elemento detector vecino (centro). El tercero es un proyector distance-driven, donde se proyecta sobre una fila tanto desde el detector como desde los bordes de los píxeles y se utiliza la distancia entre ellos como peso de la proyección (derecha). .................................................. 91 Figura 3.18. Medición de Transmisión en PET utilizando tres fuentes de 137Cs que rotan alrededor del FOV. ..................................................................................................................................... 95 Figura 4.1. Diagrama del algoritmo de Siddon en dos dimensiones. Se recorre la recta de la LOR a proyectar desde el punto de entrada al FOV (Punto Inicial) al de salida (Punto Final) y se obtienen el largo del segmento que se forma en cada píxel intersecado. ................................. 108 Figura 4.2. Ejemplo de cómo se recorre la LOR en el algoritmo de Siddon para el caso de dos dimensiones. En la imagen de la izquierda, el valor de αc se encuentra al inicio del píxel en proceso y los valores de αx y αy indican los próximos límites a cruzar en cada dimensión. Al ser αx menor que αy se debe pasar al próximo píxel en el sentido de x, incrementando la coordenada i en 1. Previamente se almacena el largo del segmento que se obtiene de la diferencia de αx con αc multiplicada por el largo total de la LOR (LLOR). El valor de αc se actualiza al valor de αx y este último se incrementa en αx_u para ir al próximo límite en x. Este proceso se repite para el nuevo píxel (imagen central) pero en este caso αy es menor que αx por lo que el próximo píxel se encuentra incrementando una posición en el sentido del eje y. Por esta razón las variables se actualizan utilizando αy en vez de αx. ....................................................................................... 110 Figura 4.3. Ejemplo de la proyección de la imagen de una fuente puntual levemente desplazada del centro (Izquierda). A la derecha se observa el sinograma obtenido. ........................................ 114 Figura 4.4. Imagen de un cilindro uniforme (izquierda) y su sinograma proyectado con el algoritmo de Siddon (derecha). ................................................................................................................ 114

xx

Figura 4.5. Volumen con seis fuentes puntuales. Tres en el slice central y otras tres a 4 cm del centro. Izquierda: slice central con sus tres fuentes puntuales. Derecha: corte axial del volumen donde se observan las dos fuentes con x=0 en los respectivos slices. ................................................ 115 Figura 4.6. Sinogramas 2D del 37 al 42 de los 537 del michelograma. Se forman tres senoides correspondientes a tres de las seis fuentes puntuales que son observadas en la dirección de dicho sinograma 2D. ................................................................................................................ 115 Figura 4.7. Sinogramas 2D del 115 al 120 de los 537 del michelograma. ......................................... 116 Figura 4.8. Imagen de sensibilidad para el proyector de Siddon ....................................................... 116 Figura 4.9. Volumen reconstruido de dos fuentes puntuales formado por 47 slices. Las fuentes se encuentran centradas en el slice 21 y 33. ................................................................................. 118 Figura 4.10. Volumen reconstruido de un estudio de cerebro. Se observan 45 de los 47 slices totales, cada uno de ellos de 256x256 píxeles. ..................................................................................... 118 Figura 4.11. Comparación de la evolución de la capacidad de procesamiento en GFLOP/s para operaciones de precisión simple y doble entre GPUs de NVIDIA y CPUs de Intel [138]. ...... 121 Figura 4.12. Diagrama de bloques del GPU Geforce 8800 de NVIDIA. Imagen adaptada de [129]. 122 Figura 4.13. Diagrama funcional de la arquitectura Tesla formada por Streaming Processors agrupados en streaming multiprocessors y con distintas jerarquías de memoria. Imagen adaptada de[138]. ..................................................................................................................... 123 Figura 4.14. Estructura de un Streaming Multiprocessor. Imagen adaptada de [129]. ...................... 124 Figura 4.15. Organización y ejecución de threads dentro de un SM. Imagen adaptada de [129]. ..... 126 Figura 4.16. Descomposición en bloques de threads paralelos en la ejecución de una aplicación en CUDA (Izquierda) y las jerarquías de memoria en dicho esquema de ejecución (Derecha). Imagen adaptada de [138]. ....................................................................................................... 130 Figura 4.17. Diagrama del Streaming Multiprocessor de Fermi. Imagen adaptada de [140]. ........... 134 Figura 4.18. Esquema de procesamiento de las operaciones de proyección y retroproyección. ........ 137 Figura 4.19. Problema de condición de carrera en el kernel de retroproyección. En el GPU hay n threads ejecutándose en paralelo, cada uno de ellos realizando el algoritmo de Siddon y actualizando los píxeles de la imagen de retroproyección. Dos threads intentan actualizar un píxel de forma simultánea, lo que provoca un error en el mismo. ........................................... 140 Figura 4.20. Distribución de los threads y bins del sinograma dentro de un bloque para disminuir la posibilidad de errores por condiciones de carrera. ................................................................... 142 Figura 4.21. Slices centrales de los fantomas utilizados para evaluar el algoritmo de reconstrucción de imagen 3d implementado para scanners cilíndricos. Izquierda: fantoma cilíndrico con ROI de evaluación en azul. Centro: fantoma computacional de calidad de imagen con las ROIs de las esferas calientes y frías marcadas en azul. Derecha: mismo fantoma que en la imagen del centro pero con las ROIs utilizadas para evaluar el fondo en azul. ..................................................... 144 Figura 4.22. Distribución del tiempo de ejecución de cada kernel dentro de una iteración para la reconstrucción de la imagen de 128x128x47. .......................................................................... 147

xxi

Figura 4.23. Corte en el slice central de la reconstrucción de la adquisición de fantoma cilíndrico para sus versiones en CPU y en GPU. Arriba-izquierda: versión CPU de un único hilo. Arribacentro: GTX-480 con instrucción atómica en retroproyección. Arriba-derecha: Tesla K10 con instrucción atómica en retroproyección. Abajo-izquierda: GTX-285 sin instrucción atómica. Abajo-centro: GTX-480 sin instrucción atómica. Abajo-derecha: Tesla K10 sin instrucción atómica. .................................................................................................................................... 148 Figura 4.24. Corte en el slice central de la reconstrucción del fantoma de calidad de imagen para sus versiones en CPU y en GPU. Arriba-izquierda: versión CPU de un único hilo. Arriba-centro: GTX-480 con instrucción atómica en retroproyección. Arriba-derecha: Tesla K10 con instrucción atómica en retroproyección. Abajo-izquierda: GTX-285 sin instrucción atómica. Abajo-centro: GTX-480 sin instrucción atómica. Abajo-derecha: Tesla K10 sin instrucción atómica. .................................................................................................................................... 148 Figura 4.25. Cantidad de ramificaciones divergentes en la ejecución de las reconstrucciones en GPU para los distintos tamaños de imagen utilizados. ..................................................................... 152 Figura 5.1. Geometría y diseño mecánico del AR-PET. Se cuenta con seis cabezales detectores dispuestos en geometría hexagonal. ......................................................................................... 156 Figura 5.2. Vista de perfil de un cabezal del AR-PET. En ella se pueden ver los tubos fotomultiplicadores, la electrónica asociada a cada uno de ellos y la electrónica de Procesamiento de Cabezal en el nivel superior. ....................................................................... 157 Figura 5.3. Ejemplo de dos pulsos reales provenientes de un destello, uno con 1000 fotones y otro con 500. Imagen obtenida de [150]. ......................................................................................... 159 Figura 5.4. Proceso de calibración con medición de campo inundado. En a) se encuentran tres espectros de los PMTs 1, 12 y 28 como centroides, donde se puede ver la dispersión en el canal del pico de energía. Como consecuencia, el espectro de energía para todos los eventos del cabezal, observado en el gráfico b), tiene una resolución de aproximadamente 20%. En c) se observan los espectros de los PMTs luego del proceso de calibración descripto en [151], donde los espectros quedan centrados en el mismo canal de energía. Finalmente, en d) se observa el espectro de energía del cabezal calibrado con una resolución en energía de aproximadamente 9%. Las imágenes fueron adaptadas de [151]. ......................................................................... 161 Figura 5.5. Implementación de CFD para obtención de marca de tiempo. La misma se considera cuando el pulso llega al 10% de su pico, este último se obtiene con la intersección de una recta de subida y otra de bajada. ....................................................................................................... 162 Figura 5.6. Colimadores utilizados para obtener el set de entrenamiento para las redes neuronales de posicionamiento. A la izquierda, el colimador con un pequeño agujero para generar las mediciones de haz colimado. A la derecha, el bloque de plomo utilizado para la sustracción de fondo en las mediciones anteriores. ......................................................................................... 163 Figura 5.7. Ejemplo de tres destellos que ocurren en el cristal y pueden ser procesados en forma simultánea. En colores cada uno de los clústeres formados. .................................................... 165

xxii

Figura 5.8. Estado actual del AR-PET. Se cuenta con el cilindro del gantry, dos cabezales montados con una PC cada uno para la descarga de los datos, dos anillos de cobre para alimentar el equipo y la base de soporte. ..................................................................................................... 166 Figura 5.9. Vista del equipo con dos cabezales y camilla preparada para montar un fantoma. ......... 167 Figura 5.10. Visualización del scanner AR-PET simulado en GATE. En verde se observan los cristales de NaI(Tl), en azul la camilla, en gris el blindaje de plomo y en blanco parte de la caja de aluminio que contiene cada detector.................................................................................... 170 Figura 5.11. Grafico de la tasa de cuentas corregida por actividad

para cada una de las

mediciones simuladas con la fuente en el centro, la curva ajustada a partir de las mediciones y el valor estimado de

a partir de la ecuación de la curva. .......................................... 174

Figura 5.12. Sensibilidad por slice para fuente en eje central y sin zonas muertas. .......................... 175 Figura 5.13. Sensibilidad obtenida por slice para cada zona muerta considerada. ............................ 176 Figura 5.14. Cortes de los sinogramas generados para le medición 8 y la cadena de procesamiento con pulso de 300 ns y sin clustering dinámico. A la izquierda se consideró que no había zona muerta, mientras que a la derecha se tomó en cuenta una zona muerta del tamaño de 1 PMT en los bordes. ................................................................................................................................ 184 Figura 5.15. Tasa de eventos totales, verdaderos, de dispersión, aleatorios y NEC obtenidas para las distintas cadenas de procesamiento simuladas. Arriba a la izquierda, 300 ns de pulso; abajo a la izquierda, 300 ns y clustering dinámico; arriba a la derecha, 150 ns de pulso y abajo a la derecha 150 ns de pulso y clustering dinámico. En todos estos casos solo se descartaron aquellos eventos a 1/8 de PMT del borde del cristal. ............................................................... 185 Figura 5.16. Tasa de eventos trues frente a distintos niveles de concentración de actividad, obtenidas para cada cadena de procesamiento y con zona ciega despreciable en los bordes de los detectores. ................................................................................................................................ 186 Figura 5.17. Tasas NEC respecto de concentración de actividad según la zona ciega en los bordes del detector, para la cadena de procesamiento de 300 ns y clustering dinámico. .......................... 186 Figura 5.18. Dos cortes de las imágenes de atenuación (izquierda) y de actividad (derecha) del fantoma de calidad de imagen simulados en GATE de forma voxelizada. En la imagen de atenuación se indican los tres materiales que forman el mismo. En la de actividad se indica la concentración de actividad de cada región, las zonas en negro no contienen 18F, el fondo con el número 1 tiene una concentración de actividad definida y las esferas blancas cuatro veces más. ................................................................................................................................................. 192 Figura 5.19. Corte ubicado en la mitad inferior del fantoma Jaszczak. El fondo tiene actividad uniforme y cuenta con insertos distribu6dos en seis rodajas según su diámetro. ..................... 193 Figura 6.1. Sistema de coordenadas intra cabezal. El eje X representa el lado largo de cada cabezal y el eje Y el corto. También se observa la numeración de cada PMT dentro del detector. .......... 199 Figura 6.2. Representación del sistema de coordenadas global del AR-PET. El plano XY es el plano transaxial del sistema y el eje Z es el eje axial. En la imagen se observan el campo de visión

xxiii

(FOV) y sus dimensiones. En rojo se muestra una LOR donde la posición de uno de los eventos gamma se remarca con un punto y sus coordenadas son (Xw,Yw,Zw). Los detectores se encuentran numerados al costado de cada uno de ellos. .......................................................... 200 Figura 6.3. Diagrama del michelograma utilizado en el AR-PET. Se tienen 41 anillos y se comprimen sinogramas axialmente con un span de 7. ................................................................................ 204 Figura 6.4. Sinograma 3D de la simulación de fantoma de cilindro uniforme. En la imagen de la izquierda se observa un corte a lo largo del mismo, donde se puede observar cómo quedan almacenados todos los sinogramas 2D de cada segmento. Entre paréntesis se encuentra la cantidad de sinogramas por cada segmento. A la derecha se encuentra uno de los sinogramas directos (primer segmento) de dicho sinograma 3D. En cada una de las regiones del sinograma 2D se señala a qué combinación de cabezales corresponden los bins de las mismas. .............. 208 Figura 6.5. Sinogramas 2D generados con el método de rebinning SSRB para la simulación del fantoma de calidad de imagen .................................................................................................. 209 Figura 6.6. Ángulo sólido de detección en el plano transversal de la LOR (θ,r) para dos fotones colineales emitidos desde un píxel con coordenadas (Xj, Yj). Se forman dos ángulos sólidos (φ1,φ2) en cada uno de los sentidos, de los cuales el más restrictivo es el correspondiente a toda la LOR...................................................................................................................................... 213 Figura 6.7. Ángulo sólido de detección en el sentido axial. Para un sinograma con combinación de anillos z1 y z2, se forman dos ángulos sólidos (α1,α2) desde el píxel ubicado a distancia d1j y d2j de cada uno de los anillos. El cálculo del ángulo requiere utilizar el espesor de anillo proyectado sobre un eje perpendicular a la inclinación de la LOR en el eje axial (Δzp). A la derecha se encuentra la zona cercana al detector aumentada, para visualizar Δzp y las dimensiones necesarias para su cálculo. .................................................................................. 214 Figura 6.8. Parámetros involucrados en el cálculo de la distancia recorrida dentro del detector para los cabezales Nº 1 y 2. A partir del ángulo θ se obtienen los ángulos que forman un triángulo rectángulo con la distancia en el detector como hipotenusa. El detector Nº 2 forma un ángulo de 30º con el eje X. ....................................................................................................................... 215 Figura 6.9. Sinograma número 24 del michelograma obtenido de la simulación en GATE de cilindro con actividad uniforme en aire (a) y aquellos proyectados con tres SRM distintas: Siddon (b), Siddon con geometría hexagonal (c) y modelo hexagonal completo. ...................................... 217 Figura 6.10. Corte en la proyección con ángulo 50º del sinograma 2D número 24 del primer segmento de los michelogramas simulados con GATE y proyectados con Siddon y con el modelo hexagonal completo. ................................................................................................................ 218 Figura 6.11. Corte en la proyección con ángulo 20º del sinograma 2D número 24 del primer segmento de los michelogramas simulados con GATE y proyectados con Siddon y con el modelo hexagonal completo. ................................................................................................................ 218 Figura 6.12. Slice reconstruido del sinograma de fantoma cilíndrico en aire y que cubre todo el FOV para las tres matrices de respuesta: geometría cilíndrica (a), geometría hexagonal (b) y

xxiv

geometría hexagonal con modelo de sensibilidad completo (c). .............................................. 219 Figura 6.13. Slice central del mapa de atenuación lineal con los coeficientes de atenuación lineal para cada píxel. En el centro se encuentra el fantoma de calidad de imagen y en la parte inferior la camilla del sistema, tal como fue simulado en GATE. La escala de colores se encuentra en cm-1. ................................................................................................................................................. 220 Figura 6.14. Factores de corrección de atenuación para uno de los sinogramas 2D del michelograma del fantoma de calidad de imagen con presencia de la camilla. ............................................... 221 Figura 6.15. Corrección de dispersión en el sinograma directo del slice 20 para el michelograma simulado del fantoma de calidad de imagen. a) Sinograma de la ventana de energía principal. b) Sinograma de corrección de dispersión Si. c) Sinograma de b) luego de aplicarle un filtro de media con kernel de 3x3. d) Sinograma corregido resultante de la resta de a) con c). ............. 222 Figura 6.16.Imágenes reconstruidas del slice número 30 del fantoma Jaszczak con OSEM utilizando 16 subsets. En la fila superior para 1 iteración (izquierda), 2 iteraciones (centro) y 3 iteraciones (derecha) sin aplicar filtro post reconstrucción. En la fila inferior para 2 iteraciones y filtro de mediana (izquierda), 2 iteraciones y filtro gaussiano (centro) y 3 iteraciones y filtro de mediana (derecha). Todos los slices se encuentran normalizados a su valor máximo. ........................... 224 Figura 6.17. ROIs utilizadas en el análisis de las imágenes reconstruidas para el fantoma de calidad de imagen NEMA. Las ROIs de fondo se muestran con los distintos diámetros utilizados. ... 226 Figura 6.18. Slice central de las imágenes reconstruidas del fantoma NEMA con relación de actividad 8:1 para OSEM 2D y OSEM 3D con distintos tamaños de sinogramas. En la fila superior, reconstrucción con OSEM 2D luego de aplicar el rebinning SSRB para sinogramas de 96x124 y 192x248 bines. En la segunda fila, mismos resultados para rebinning con MSRB. La tercera fila, corresponde a los resultados de reconstrucción 3D con sinogramas 2D de 96x124 y 192x248 bines. La última fila corresponde a la reconstrucción 3D con sinogramas 2D de 384x496. .................................................................................................................................. 230 Figura 6.19. Slice con ubicado axialmente en z = 95 mm del volumen reconstruido del fantoma Jaszczak con OSEM 3D y los tres tamaños de sinogramas utilizados. .................................... 231 Figura 6.20. Slices centrales reconstruidos para el fantoma NEMA de calidad de imagen con relación de actividad 4 a 1 y sinogramas de alta resolución (cada sinograma 2D de 192x248 bines). Arriba-Izquierda: reconstruida con rebinning SSRB y OSEM 2D para adquisición de 12 minutos. Arriba-Derecha: reconstruida con OSEM 3D para adquisición de 12 minutos. AbajoIzquierda: reconstruida con rebinning SSRB y OSEM 2D para adquisición de 20 minutos. Abajo-Derecha: reconstruida con rebinning SSRB y OSEM 2D para adquisición de 20 minutos. ................................................................................................................................................. 233 Figura 6.21. Ejemplo de sinograma proyectado a partir de una imagen constante que incluye una zona ciega de 26 mm a cada lado del detector. ................................................................................. 235 Figura 6.22. ROIs utilizadas para evaluar el ruido en las imágenes reconstruidas para el fantoma cilíndrico con actividad uniforme. ........................................................................................... 236

xxv

Figura 6.23. Valor promedio de cuentas en las ROIs de cada slice para sinograma adquirido sin zona ciega y con 26 mm de zona ciega. Las mismas se han normalizado respecto del valor medio de todos los slices. ........................................................................................................................ 237 Figura 6.24. Slice central de la imagen reconstruida para sinograma adquirido sin zona ciega y con 26 mm de zona ciega. Las cuentas se normalizaron a su valor máximo para su visualización. .... 237 Figura 6.25. Imágenes reconstruidas del fantoma NEMA de calidad de imagen con relación de actividad 8 a 1 para sinogramas generados sin zonas ciega y con zonas ciegas de 13 mm, 26 mm y 52 mm de largo a cada lado de los detectores. ............................................................... 239 Figura 6.26. Slices centrales de las imágenes reconstruidas con datos reales de medición de una fuente de 22Na. Izquierda: reconstrucción 2D utilizando SSRB. Derecha: reconstrucción OSEM 3D. ........................................................................................................................................... 241 Figura 7.1. Proceso de compactado. .................................................................................................. 249 Figura 7.2. Segmented Gamma Scanner de Canberra. Se observa el detector de HPGe con un movimiento vertical y la plataforma rotatoria bajo el tambor de residuos radiactivos [174]. .. 250 Figura 7.3. Gamma Scanner Tomográfica WM2900 de Canberra. .................................................... 252 Figura 7.4. Diagrama del Sistema de Adquisición Tomográfico del AR-TGS y su sistema de coordenadas. A la izquierda se observa un corte en el plano XY, con el cabezal de detectores en su posición inicial y su movimiento señalado. A la derecha, un corte del plano XZ del FOV, donde se observan los segmentos en que se divide el mismo. ................................................. 254 Figura 7.5. Apertura de la visión del colimador según el largo del mismo y su agujero. .................. 256 Figura 7.6. Variación con la energía del Coeficiente de Atenuación Lineal del Plomo. .................... 258 Figura 7.7. Visualización de la geometría simulada en GATE para análisis de sensibilidad. Izquierda: corte en plano YZ. Derecha: corten en plano XY. Dibujados en gris, se encuentran cada uno de los 6 bloques detectores con sus blindajes y colimadores. En líneas cyan se encuentra delimitada la estructura del fantoma y en rojo el blindaje adicional de plomo. ....................... 259 Figura 8.1. Ejemplo de Sinograma simulado para el AR-TGS con una fuente puntual en el FOV. ... 266 Figura 8.2. Fantomas utilizados para evaluar el AR-TGS y su algoritmo de reconstrucción. a) Fuente Puntual. b) Cilindro Uniforme. c) Dos Fuentes Puntuales. d) Múltiples Fuentes Puntuales. e) Fantoma de Resolución Espacial sin fondo. f) Fantoma de Resolución Espacial con fondo de 60

Co. ......................................................................................................................................... 269

Figura 8.3. Sinogramas adquiridos en simulaciones Monte Carlo para: a) Simulación de Fuente Puntual en aire, b) Simulación de Dos Fuentes Puntuales en Aire, c) Simulación de Cilindro Uniforme en aire, d) Simulación de Cilindro Uniforme en arena, e) Simulación de Múltiples Fuentes Puntuales en aire, f) Simulación de Múltiples Fuentes Puntuales en arena, g) Simulación de Fantoma de Resolución Espacial en aire, h) Simulación de Fantoma de Resolución Espacial en arena. .................................................................................................. 271 Figura 8.4. Histograma de energías para la simulación del Fantoma de Resolución Espacial con fondo de 60Co. .................................................................................................................................... 273

xxvi

Figura 8.5. Sinogramas procesados para el Fantoma de Resolución Espacial con fondo de 60Co. a) Sinograma adquirido en la ventana de del fotopico de 137Cs. b) Sinograma obtenido en la ventana de estimación de eventos dispersos. c) Sinograma corregido resultante de la resta entre a) y b). ...................................................................................................................................... 273 Figura 8.6. Comparación de de sinogramas de Fantoma Cilíndrico y de Resolución Espacial, ambos en arena, para altura de segmento de 100 mm (fila superior) y altura de 4 mm (fila inferior). a) y d) para fantoma Cilíndrico. b) y e) para fantoma de Resolución Espacial sin fondo. c) y f) para fantoma de Resolución Espacial con fondo de 60Co......................................................... 275 Figura 8.7. Cortes de los sinogramas de Fantoma de Resolución Espacial para las proyecciones con θ=237º. En azul, sinograma simulado con altura de segmento de 100mm y en verde con solo 4mm de altura. ......................................................................................................................... 276 Figura 8.8. Conjunto Detector-Colimador con los N puntos utilizados en la cara del detector y en la del exterior del agujero para modelar la sensibilidad geométrica del mismo. .......................... 278 Figura 8.9. A la izquierda, Cono de Respuesta sin penetración de colimador, en el que se muestran las LORs generadas para solo dos puntos del detector. A la derecha, esquema del Cono de Respuesta con Penetración de Colimador, donde se pueden observar el parámetro de offset y las LORs generadas para el primer punto sobre el detector. .......................................................... 279 Figura 8.10. A la izquierda se muestran los componentes que son parte de la proyección de una única LOR. En el detector de la derecha se ejemplifica la forma en que las diferentes LORs del Cono de Respuesta atraviesan el FOV. .............................................................................................. 281 Figura 8.11. Calculo del peso Hmj de altura de segmento. En a) se observa en el plano XY la LOR m del Cono de Respuesta para el bin i del sinograma. En b) se encuentra el corte YZ de la misma LOR, en el que se observa la variación del peso Hmj según la distancia al detector. ................ 282 Figura 8.12. Dos ejemplos de proyección geométrica de un píxel en un detector para el proyector CDRA-PD. El mismo utiliza el ángulo de emisión detectable. ................................................ 283 Figura 8.13. Cálculo del ángulo de detección para un píxel y un detector dados. En CDRA-PD se calcula el ángulo considerando el caso de la izquierda. En el esquema de la derecha, el cálculo se realiza de forma aproximada considerando ldet igual a ldet_corr. ............................................ 284 Figura 8.14. Elementos para el cálculo del segmento sobre el detector, visto desde un píxel dado. . 286 Figura 8.15. Factor de Corrección de Altura de Segmento en proyector CDRA-PD. ....................... 286 Figura 8.16. Comparación de sinogramas estimados con distintos proyectores y simulado con GATE. La escala de colores se encuentra en cuentas por segundo. Fila superior: imagen del fantoma de Una Fuente Puntual, el sinograma adquirido de simulación con GATE y sinogramas estimados con proyectores Siddon, CDRA-RD, CDRA-PC-RD y CDRA-PD en ese orden. Fila intermedia: ídem para el caso del fantoma Dos Fuentes Puntuales. Fila inferior: mismos resultados para fantoma Múltiples Fuentes Puntuales en aire. ................................................. 290 Figura 8.17. Comparación de sinogramas estimados con distintos proyectores y simulado con GATE. La escala de colores se encuentra en cuentas por segundo. Fila superior: imagen del fantoma de

xxvii

Múltiples Fuentes Puntuales en arena, el sinograma adquirido de simulación con GATE y sinogramas estimados con proyectores Siddon, CDRA-RD, CDRA-PC-RD y CDRA-PD en ese orden. Fila intermedia: ídem para fantoma Cilindro Uniforme en arena. Fila inferior: mismos resultados para fantoma de Resolución Espacial. .................................................................... 291 Figura 8.18. Comparación de sinogramas estimados con distintos proyectores y simulados con GATE. Fila superior: sinograma adquirido de simulación con GATE con altura de segmento de 100mm (izquierda) y sinogramas estimados con proyectores Siddon CDRA-PC-RD, CDRA-PC-H-RD, CDRA-PD y CDRA-H-PD en ese orden. Fila inferior: mismos resultados para fantoma Cilindro Uniforme de 100 mm de altura. ............................................................................................... 292 Figura 8.19. Cortes de sinogramas de Cilindro Uniforme para la proyección de θ=180º. ................. 293 Figura 8.20. Imágenes reconstruidas para simulación de fantoma de Una Fuente Puntual con distintas combinaciones de proyectores y retroproyectores. La escala de colores se encuentra en µCi/píxel. En la columna de la izquierda se encuentran los resultados para el proyector Siddon, en la del medio para el proyector CDRA-PC-RD y en la de la derecha para el CDRA-PD. En las filas se encuentran los retroproyectores usados: Siddon, CDRA-PC-RD y CDRA-PD de arriba hacia abajo. .................................................................................................................... 296 Figura 8.21. Imágenes reconstruidas y calibradas en µCi/píxel para simulación de fantoma de Dos Fuentes Puntuales para distintas combinaciones de proyectores y retroproyectores. En la columna de la izquierda se encuentran los resultados para el proyector Siddon, en la del medio para el proyector CDRA-PC-RD y en la de la derecha para el CDRA-PD. En las filas se encuentran los retroproyectores usados: Siddon, CDRA-PC-RD y CDRA-PD de arriba hacia abajo. ........................................................................................................................................ 297 Figura 8.22. Evolución de los valores de Log-Likelihood durante la reconstrucción MLEM del sinograma del fantoma de Dos Fuentes Puntuales en aire. ...................................................... 298 Figura 8.23. Imágenes reconstruidas y calibradas en µCi/píxel para simulación de fantoma de Múltiples Fuentes Puntuales para distintas combinaciones de proyectores y retroproyectores. En la columna de la izquierda se encuentran los resultados para el proyector Siddon, en la del medio para el proyector CDRA-PC-RD y en la de la derecha para el CDRA-PD. En las filas se encuentran los retroproyectores usados: Siddon, CDRA-PC-RD y CDRA-PD de arriba hacia abajo. ........................................................................................................................................ 299 Figura 8.24. Evolución de los valores de Log-Likelihood durante la reconstrucción MLEM del sinograma del fantoma de Múltiples Fuentes Puntuales en aire. .............................................. 299 Figura 8.25. Imágenes reconstruidas para simulación de fantoma de Múltiples Fuentes Puntuales en arena para distintas combinaciones de proyectores y retroproyectores. Los proyectores utilizados se identifican con las columnas, mientras que los retroproyectores en las filas. Estos últimos incluyen corrección por atenuación. ............................................................................ 301 Figura 8.26. Imágenes reconstruidas para simulación de fantoma de Múltiples Fuentes Puntuales en arena para distintas combinaciones de proyectores y retroproyectores. Los proyectores

xxviii

utilizados se identifican con las columnas, mientras que los retroproyectores en las filas. Estos últimos no tienen en cuenta la atenuación del medio. .............................................................. 301 Figura 8.27. Imágenes reconstruidas para simulación de fantoma de Resolución Espacial para distintas combinaciones de proyectores y retroproyectores. Los retroproyectores incluyen corrección por atenuación. ....................................................................................................... 302 Figura 8.28. Imágenes reconstruidas para simulación de fantoma de Resolución Espacial para distintas combinaciones de proyectores y retroproyectores. Los retroproyectores no incluyen corrección por atenuación. ....................................................................................................... 303 Figura 8.29. Imágenes reconstruidas para simulación de fantoma de Cilindro Uniforme en arena para distintas combinaciones de proyectores y retroproyectores. En las columnas de izquierda a derecha se encuentran los resultados para los proyectores CDRA-PC-RD, CDRA-PC-H-RD, CDRA-PD y CDRA-H-PD respectivamente. En las filas se encuentran los retroproyectores usados: Siddon, CDRA-PC-H-RD y CDRA-H-PD de arriba hacia abajo. .............................. 304 Figura 8.30. Imágenes reconstruidas para simulación de fantoma de Resolución Espacial para distintas combinaciones de proyectores y retroproyectores. En las columnas de izquierda a derecha se encuentran los resultados para los proyectores CDRA-PC-RD, CDRA-PC-H-RD, CDRA-PD y CDRA-H-PD respectivamente. En las filas se encuentran los retroproyectores usados: Siddon, CDRA-PC-H-RD y CDRA-H-PD de arriba hacia abajo. .............................. 304 Figura 8.31. Imágenes reconstruidas para fantoma de Cilindro Uniforme, con MLEM para 60 iteraciones con filtro de mediana post-procesamiento(a) y con penalización OSL por filtro de mediana para distintos valores de β (0,2, 0,4 y 0,6 para imágenes b, c y d respectivamente. . 305 Figura 8.32. Imágenes reconstruidas para fantoma de Resolución Espacial, con MLEM para 60 iteraciones con filtro de mediana post-procesamiento(a) y con penalización OSL por filtro de mediana para distintos valores de β (0,2, 0,4 y 0,6 para imágenes b, c y d respectivamente. . 306 Figura 8.33. Imágenes reconstruidas para fantoma de Múltiples Fuentes Puntuales, con MLEM para 60 iteraciones con filtro de mediana post-procesamiento(a) y con penalización OSL por filtro de mediana para distintos valores de β (0,2, 0,4 y 0,6 para imágenes b, c y d respectivamente. ................................................................................................................................................. 306 Figura 9.1. Dos ejemplos del ajuste de una gaussiana en corte sobre el eje Y de la imagen reconstruida para la fuente 8. A la izquierda para la imagen reconstruida con MLEM y CDRAH-PD como proyector-retroproyector, y a la derecha con retroproyección filtrada. ................ 316 Figura 9.2. Imágenes reconstruidas de fuente en el centro del FOV utilizando distintos métodos. a) FBP. b) MLEM con CDRA-PC-H-RD como proyector y retroproyector. c) MLEM con CDRAH-PD como proyector y retroproyector. d) MLEM con CDRA-H-PD como proyector y Siddon como retroproyector. e) MLEM con Siddon como proyector y retroproyector. ....................... 317 Figura 9.3. Resolución espacial en FWHM en el eje x a lo largo del FOV para distintos métodos de reconstrucción. ......................................................................................................................... 318 Figura 9.4. Resolución espacial en FWHM en el eje y a lo largo del FOV para distintos métodos de

xxix

reconstrucción. ......................................................................................................................... 318 Figura 9.5. Imágenes reconstruidas solapadas con las máscaras donde se evaluaron las concentraciones de actividad. A la izquierda la imagen para 137Cs y a la derecha la de 60Co. . 319 Figura 9.6. Histograma de energías de fuente de 133Ba utilizada en la simulación. La intensidad de cada emisión gamma es relativa por cada decaimiento. ........................................................... 322 Figura 9.7. Espectro de energía adquirido con un detector en la instalación donde funcionará el ARTGS. ......................................................................................................................................... 323 Figura 9.8. Histograma de energías de la fuente de fondo definida en GATE. .................................. 324 Figura 9.9. Comparación de ensayo simulado con la fuente de fondo estimada y la medición de fondo real realizada en las instalaciones de trabajo. ........................................................................... 324 Figura 9.10. Sinogramas para fuente de 137Cs en aire con distintos niveles de actividad y fuente de fondo de laboratorio. La actividad de la fuente de 137Cs es en cada caso de a) 1mCi, b) 100 µCi, c) 50 µCi, d) 20 µCi, e) 10 µCi, f) 5 µCi, g) 2 µCi, h) 1 µCi y i) 0,1 µCi. .............................. 325 Figura 9.11. Sinogramas para fuente de 137Cs en arena con distintos niveles de actividad y fuente de fondo de laboratorio. La actividad de la fuente de 137Cs es en cada caso de a) 1mCi, b) 100 µCi, c) 50 µCi, d) 20 µCi, e) 10 µCi, f) 5 µCi, g) 2 µCi, h) 1 µCi y i) 0,1 µCi. .............................. 326 Figura 9.12. Sinogramas para fuente de 133Ba en arena con distintos niveles de actividad y fuente de fondo de laboratorio. La actividad de la fuente de 133Ba es en cada caso de a) 1mCi, b) 100 µCi, c) 50 µCi, d) 20 µCi, e) 10 µCi, f) 5 µCi, g) 2 µCi, h) 1 µCi y i) 0,1 µCi. .............................. 326 Figura 9.13. Sinogramas para fuente de 60Co en arena con distintos niveles de actividad y fuente de fondo de laboratorio. La actividad de la fuente de 60Co es en cada caso de a) 1mCi, b) 100 µCi, c) 50 µCi, d) 20 µCi, e) 10 µCi, f) 5 µCi, g) 2 µCi, h) 1 µCi y i) 0,1 µCi. .............................. 327 Figura 9.14. Imágenes reconstruidas para fuente 60Co de actividades de 0,1 µCi a 5 µCi en aire, utilizando distintos métodos. Las imágenes están divididas por actividad en las filas y por métodos de reconstrucción en las columnas. Estos son: a) MLEM con CDRA-PC-H-RD como proyector y retroproyector. b) MLEM con CDRA-H-PD como proyector y retroproyector. c) MLEM con CDRA-H-PD como proyector y Siddon como retroproyector. d) MLEM con Siddon Atenuado como proyector y retroproyector. e) FBP. .................................................... 328 Figura 9.15. Imágenes reconstruidas para fuente 133Ba de actividades de 0,1 µCi a 5 µCi en aire, utilizando distintos métodos. a) MLEM con CDRA-PC-H-RD - CDRA-PC-H-RD. b) MLEM con CDRA-H-PD - CDRA-H-PD. c) MLEM con CDRA-H-PD - Siddon. d) MLEM con Siddon - Siddon. e) FBP. ...................................................................................................................... 329 Figura 9.16. Imágenes reconstruidas para fuente 133Ba de actividades de 0,1 µCi a 5 µCi en arena, utilizando distintos métodos. a) MLEM con CDRA-PC-H-RD - CDRA-PC-H-RD. b) MLEM con CDRA-H-PD - CDRA-H-PD. c) MLEM con CDRA-H-PD - Siddon. d) MLEM con Siddon - Siddon. e) FBP. ...................................................................................................................... 330 Figura 9.17. Imágenes reconstruidas para fuente 137Cs de actividades de 0,1 µCi a 5 µCi en arena, utilizando distintos métodos. a) MLEM con CDRA-PC-H-RD - CDRA-PC-H-RD. b) MLEM

xxx

con CDRA-H-PD - CDRA-H-PD. c) MLEM con CDRA-H-PD - Siddon. d) MLEM con Siddon - Siddon. e) FBP. ...................................................................................................................... 330 Figura 9.18. Imágenes reconstruidas para fuente 60Co de actividades de 0,1 µCi a 5 µCi en arena, utilizando distintos métodos. a) MLEM con CDRA-PC-H-RD - CDRA-PC-H-RD. b) MLEM con CDRA-H-PD - CDRA-H-PD. c) MLEM con CDRA-H-PD - Siddon. d) MLEM con Siddon - Siddon. e) FBP. ...................................................................................................................... 331 Figura 9.19. Histogramas de energías de simulación de ensayo con 3 fuentes de 133Ba, 137Cs y 60Co, todas de 1 mCi. ........................................................................................................................ 334 Figura 9.20. Corrección de sinogramas por radiación dispersa utilizando sustracción de sinograma con ventana de energía desplazada. a) Sinograma adquirido para ventana de energía de 133Ba. b) Sinograma de radiación dispersa adquirido en ventana desplazada. c) Sinograma resultante de la resta de a) y c). ..................................................................................................................... 334 Figura 9.21. Sinogramas generados para la simulación con tres fuentes puntuales de 133Ba, 137Cs y 60

Co en fantoma de arena y corregidos por radiación dispersa. Los mismos se encuentran

separados en filas por la actividad de las fuentes del ensayo, y en las columnas por la ventana utilizada dentro del mismo ensayo. .......................................................................................... 335 Figura 9.22. Imagen compuesta de los tres radioisótopos reconstruidos para distintos niveles de actividad y métodos de reconstrucción. a) MLEM con CDRA-PC-H-RD - CDRA-PC-H-RD. b) MLEM con CDRA-H-PD - CDRA-H-PD. c) MLEM con CDRA-H-PD – Siddon. d) MLEM con Siddon Atenuado – Siddon Atenuado. e) FBP. .................................................................. 335 Figura 9.23. Prototipo para validación del sistema AR-TGS. Consta de un único bloque detector, una plataforma rotatoria, un software de adquisición y un fantoma de segmento. ......................... 337 Figura 9.24. Componentes del bloque detector: Módulo Electrónico de Multicanal, detector 2M2 de Saint-Gobain, blindaje para la parte trasera del detector, colimador con agujero de 20 mm diámetro y tubo para ensamble. ............................................................................................... 337 Figura 9.25. En las dos imágenes superiores se encuentran los sinogramas adquiridos para las mediciones 2 (Izq.) y 4 (Der.). En la parte inferior se encuentran los sinogramas escalados a un tamaño de 60x60 mediante interpolación bilineal. ................................................................... 339 Figura 9.26. Imágenes reconstruidas para cada medición. En las filas de arriba hacia abajo se encuentran las imágenes para las mediciones desde 1 a 5. Las imágenes a), b), c) y d) fueron reconstruidas con MLEM utilizando los proyectores CDRA-PC-H-RD apareado, CDRA-H-PD apareado, combinación CDRA-H-PD – Siddon y Siddon apareado, respectivamente. Las imágenes e) fueron reconstruidas con el algoritmo analítico de retroproyección filtrada. ....... 340 Figura 9.27. Corte sobre el eje X de las imágenes reconstruidas para la medición 2. ....................... 341 Figura 9.28. Visualización de las imágenes de la medición 5 como superficies. A la izquierda la reconstruida con CDRA-H-RD y a la derecha la reconstruida con FBP. ................................. 342

xxxi

xxxii

Capítulo 1

Introducción El descubrimiento accidental de los rayos X por parte del físico Wilhelm Conrad Röntgen en 1895 puede considerarse el inicio de las imágenes médicas. En su informe inicial, Röntgen dio pruebas de la existencia de los rayos X y, adicionalmente, describió algunas propiedades que serían de interés para las técnicas de imágenes en medicina. El informe mencionaba que la transmisión de los rayos X a través de distintos materiales disminuía con su densidad, cuando los mismos tenían un mismo espesor; que para un mismo material, la transmisión disminuía con el espesor del mismo y que las placas fotográficas eran sensibles a este nuevo tipo de radiación. Junto a ese informe, adjuntó lo que sería la primera imagen de rayos X, una radiografía de la mano de su esposa. El descubrimiento de Röntgen fue utilizado inmediatamente para generar imágenes de rayos X para obtener información de las estructuras internas del cuerpo sin realizar ninguna cirugía. Esta primera técnica planar fue evolucionando, empujada principalmente por los avances tecnológicos, hasta llegar a la tomografía computada [1]. Por otro lado, el descubrimiento de la radioactividad por el francés Antoine-Henri Becquerel en 1896, asentó las bases para un nuevo principio físico a utilizar en las imágenes médicas. Basándose en el descubrimiento de Becquerel, George Charles de Hevesy sería el primero en proponer la utilización de la radiactividad para marcar moléculas de interés y poder emplearlas como trazadores en sistemas biológicos. Con el desarrollo de los detectores de radiación gamma, fue posible la obtención de imágenes de la distribución de radiactividad en organismos vivos, dando inicio al 1

campo de las imágenes moleculares o funcionales en medicina. Una de las primeras aplicaciones en este campo, fue un estudio realizado por Paul Blanquet en 1952, donde se inyectó

131

I para trazar su absorción en la glándula tiroides. La tecnología

para generar las imágenes fue mejorando y en 1963 David Kuhl y Roy Edwards propusieron un método que derivaría en la tomografía computada por fotón único (SPECT) [2] y que consistía en mover detectores colimados en distintos ángulos alrededor del paciente. Todos estos avances en el campo de las imágenes médicas fueron posibles gracias al desarrollo simultáneo de los principios matemáticos de la tomografía. En 1917 Johann Radon formalizó la matemática que permite reconstruir una función a partir de sus proyecciones, dando origen a la transformada que lleva su nombre, considerada la base de la tomografía computada. A partir de la década del 20, distintos investigadores intentaron diseñar técnicas que permitieran obtener imágenes del cuerpo, a partir de mediciones de rayos X, que fueran útiles para el diagnóstico de enfermedades. Pero fue recién a mediados de los 60 que Allan Cormack creó el primer tomógrafo que utilizaba rayos X. El scanner realizaba la reconstrucción de imagen basada en el método de Radon. En la misma época, y de manera independiente a Cormack, Godfrey Hounsfield creó un tomógrafo que utilizaba una fuente de rayos gamma y que realizaba cálculos complejos mediante computadoras para realizar la reconstrucción de la imagen. Este fue el primer tomógrafo computado (CT). Cormack y Hounsfield recibirían el premio Nobel en 1979 por los grandes avances logrados en esta área. En 1973, Michael Phelps logró nuevos avances en las imágenes moleculares, al crear el primer tomógrafo por emisión de positrones, aún cuando no se obtuvieron imágenes de calidad por problemas de muestreo y de atenuación. Una segunda versión del scanner propuesto por Phelps, en este caso junto a Edward Hoffman, utilizaba coincidencia temporal, corrección por atenuación y reconstrucción de imagen con el algoritmo de retroproyección filtrada. Estos equipos permitieron a Phelps y sus colaboradores establecer los principios físicos y matemáticos de la tomografía PET. Desde entonces el avance de las tomografías por emisión de positrones y por emisión de fotón único ha sido constante. Su empleo en los

2

primeros años de su aparición estuvo orientado a la investigación para luego pasar al uso clínico. Hoy en día es una herramienta fundamental para el diagnóstico del cáncer y el seguimiento de su tratamiento. En la actualidad se siguen desarrollando nuevos scanners tanto para aplicaciones específicas como para investigación, con una fuerte tendencia a equipos híbridos donde se emplea una tomografía computada (CT) para identificar estructuras anatómicas y un scanner PET para cuantificar la actividad metabólica. Esta combinación de imágenes anatómicas con las de PET, también ha empezado a realizarse con un resonador magnético gracias a la evolución de los detectores de radiación.

1.1.

Tomografías por Emisión

La tomografía es una técnica que permite reconstruir una imagen volumétrica de un objeto desconocido, a través de mediciones externas a él. Existen distintos tipos de tomografías y en distintos campos de aplicación; en cada una de ellas el sistema tomográfico es sensible a distintas propiedades del objeto bajo estudio. En las llamadas tomografías por emisión se obtiene la distribución espacial de la emisión de fotones en un cuerpo [3]. En medicina nuclear existen dos tipos de estas tomografías: las de fotón único o SPECT (Single Photon Emission Computed Tomography) y las de emisión de positrones o PET (Positron Emission Tomography). En ellas se mide radiación gamma generada por decaimiento radiactivo en un radioisótopo químicamente enlazado con una molécula de interés. Ambos componentes conforman así un trazador radiactivo, corrientemente llamado radiofármaco, que es inyectado en el cuerpo del paciente. De tal forma se puede realizar un seguimiento no invasivo de estas moléculas marcadas y, como consecuencia, obtener imágenes in vivo con información molecular o funcional del cuerpo o de un órgano del paciente, incluyendo anormalidades como por ejemplo tumores. Por esta razón, estas técnicas son herramientas muy poderosas para el diagnóstico médico y el seguimiento de distintas enfermedades. La principal aplicación de las tomografías PET es en el diagnóstico de cáncer y control de su tratamiento, aunque también es utilizada para el diagnóstico de

3

patologías cerebrales y cardiovasculares [4][5]. El radiotrazador utilizado en la mayoría de los casos es el FDG (fluorodesoxiglucosa), que es una molécula análoga a la glucosa donde el átomo de flúor es convertido en

18

F, un emisor de positrones.

Al ser la molécula similar a la glucosa su absorción en las células está directamente relacionada con la tasa de glucólisis en ellas. Sin embargo, el FDG se diferencia de la glucosa en que no puede ser metabolizada y, por lo tanto, queda atrapada dentro de las células, permitiendo marcar las regiones con mayor metabolismo [6]. Además de las tomografías gamma empleadas en medicina nuclear existen otras aplicaciones para esta técnica, una de las cuales es el ensayo no destructivo de contenedores con residuos radiactivos. En este caso, la emisión de radiación gamma es generada en el interior de los contenedores por los materiales radiactivos presentes. Esta radiación debe ser colimada para adquirir solo aquellos fotones que inciden en una dirección dada, por lo que es una técnica de tomografía de fotón único o SPECT. En esta aplicación puede haber varios radioisótopos presentes, que primero deben ser identificados y luego generar las imágenes con su distribución espacial.

1.2.

Algoritmos de Reconstrucción Tomográfica

El objetivo de los algoritmos de reconstrucción en las tomografías de emisión, tanto para PET como para SPECT, es generar imágenes precisas que cuantifiquen la distribución de uno o más radioisótopos en el cuerpo bajo estudio. En el caso de PET se busca obtener la distribución de un radiotrazador emisor de positrones, que por aniquilación con un electrón del medio circundante genera dos rayos gamma en oposición, mientras que en SPECT la distribución corresponde a un emisor de un único fotón gamma [4]. La reconstrucción es necesaria porque la información cruda del PET o SPECT solo define la posición del átomo emisor a lo largo de una línea de respuesta (LOR) que cruza la estructura del mismo. Existen dos enfoques distintos para resolver la reconstrucción de imágenes tomográficas: uno de ellos tiene naturaleza analítica y utiliza la matemática de la tomografía computada (Transformada de Radon), mientras que el otro se basa en métodos iterativos para obtener una solución de la

4

imagen tomográfica [7][8][9]. Estos últimos han demostrado lograr mejor calidad de imagen y resolución; sin embargo, para conseguir esos resultados es necesario modelar precisamente el proceso de recolección de datos en el scanner [5][10][11][12][13]. Adicionalmente, los algoritmos iterativos tienen una carga de procesamiento mucho mayor que los analíticos, por lo que su implementación no es trivial. Los algoritmos iterativos basados en el estimador maximum likelihood son ampliamente utilizados en la mayoría de los scanners comerciales y están aceptados como los algoritmos de referencia en las tomografías por emisión. No obstante, el tema sigue abierto y la comunidad internacional hace intensos esfuerzos para mejorar los modelos utilizados en la reconstrucción (los cuales son siempre dependientes del scanner utilizado) para disminuir el ruido en las imágenes y poder acelerar los tiempos de reconstrucción, ya que la calidad de la imagen tomográfica es fuertemente dependiente del método de reconstrucción empleado, teniendo un impacto equivalente a la resolución a nivel de hardware.

1.3.

Motivación

Las técnicas de imágenes de medicina nuclear son herramientas fundamentales para el diagnóstico y el tratamiento de enfermedades cardiovasculares, cáncer, disfunciones cerebrales o glandulares. Su importancia radica en que proveen información de función metabólica, a diferencia de otras técnicas de imágenes en medicina que brindan información anatómica. En Argentina, la cantidad de tomógrafos PET disponibles es reducida, comparada con su disponibilidad en países desarrollados. Adicionalmente, se encuentran principalmente localizados en las ciudades más importantes y no hay equipos instalados en hospitales públicos. El motivo fundamental de esto es su alto costo de instalación y operación y la falta de ciclotrones para producir el isótopo que se utiliza en los estudios. Suplementariamente, los equipos son importados en su totalidad y su mantenimiento depende de servicios que no se encuentran disponibles en el país. Por todo lo mencionado anteriormente, es importante desarrollar capacidades

5

tecnológicas y productivas relacionadas con esta área. Con el propósito de satisfacer estas demandas, en la Comisión Nacional de Energía Atómica (CNEA) se creó el proyecto AR-PET, cuyo objetivo es lograr un scanner PET de bajo costo y con prestaciones competitivas. En la tecnología desarrollada se puso especial énfasis en reducir los insumos importados, limitándolos a los estrictamente imprescindibles, como cristales centelladores, fotomultiplicadores y microchips electrónicos. Tal como se mencionó anteriormente, los algoritmos de reconstrucción utilizados dependen de las características particulares del scanner empleado y son de gran importancia para mejorar la capacidad de diagnóstico a nivel clínico. En este trabajo de tesis se abarcan todos los temas relacionados a la reconstrucción de imágenes en el tomógrafo AR-PET. Por lo anteriormente mencionado, el estudio realizado es importante para poder resolver una problemática esencial en el desarrollo exitoso de dicho scanner y brindará una serie de conocimientos y desarrollos tecnológicos que podrán ser utilizados en otros proyectos. Un ejemplo de una aplicación derivada del algoritmo para el AR-PET, se presenta también en esta tesis. Dicha aplicación es el diseño de un gamma scanner tomográfico (denominado AR-TGS) y su algoritmo de reconstrucción de imagen, para el ensayo no destructivo de tambores de residuos radiactivos. Esto permitirá dotar a un gamma scanner con capacidad tomográfica y así mejorar sus prestaciones para caracterizar los contenedores con baja y media actividad. Este tipo de ensayo tomográfico se caracteriza por ser de fotón único (SPECT) y multi-radioisótopo. De esta forma, en la presente tesis se cubrirán los aspectos más importantes de la generación de imágenes tomográficas para los dos tipos de tomografías por emisión gamma más utilizados: PET y SPECT.

1.4.

Objetivos

El objetivo principal de este trabajo de tesis es resolver la problemática de la reconstrucción de imágenes tomográficas por emisión en dos sistemas de distintas características: Tomógrafo por emisión de positrones AR-PET. Tomógrafo de contenedores de residuos radiactivos AR-TGS.

6

Las diferencias en sus principios físicos de funcionamiento hacen que ambos temas deban ser tratados con soluciones diferentes, aunque con ciertos puntos en común, ya que en ambos casos se trata de tomografías por emisión.

1.4.1. Tomógrafo por Emisión de Positrones El objetivo principal en lo que respecta a tomografía por emisión de positrones es obtener un algoritmo de reconstrucción de imagen para el tomógrafo AR-PET que permita obtener imágenes de calidad en un tiempo adecuado para ser utilizado clínicamente. Con tal fin se propone la utilización de procesadores gráficos para lograr una aceleración de los tiempos de reconstrucción y la generación de una matriz del sistema que considere las características particulares del AR-PET. Para alcanzar este objetivo, en un scanner que se encuentra en desarrollo, se requiere alcanzar los siguientes objetivos secundarios: Crear una plataforma para desarrollar algoritmos de reconstrucción de imagen, flexible para introducir nuevos algoritmos y que permita reconstruir imágenes de otros scanners comerciales para realizar comparaciones. Generar un modelo de simulación del scanner AR-PET que incluya todos los factores geométricos, físicos y de procesamiento que influyen en la reconstrucción de imagen en PET. Para ello se utilizará GATE [14][15][16], que es una aplicación para simulaciones Monte Carlo específica para tomógrafos por emisión. Obtener los niveles de concentración de actividad con los que trabajará el AR-PET. Para ello se obtendrán, mediante simulaciones Monte Carlo de ensayos estandarizados, los valores de sensibilidad y tasa máxima de conteo de eventos. Generar datos de simulación para la reconstrucción de imagen, teniendo en cuenta los niveles de concentración de actividad adecuados para el AR-PET. Definir el procesamiento que se realizará con los datos adquiridos antes de la reconstrucción de imagen.

1.4.2. Tomógrafo de Residuos Radiactivos Originalmente se propuso la adaptación de un equipo Gamma Scanner, que realiza 7

espectrometría gamma de contenedores de residuos radiactivos, para brindarle capacidad tomográfica con el objeto de mejorar sus prestaciones y tener una plataforma de evaluación de algoritmos de reconstrucción tomográfica más simple que la del tomógrafo por emisión de positrones, ya que la complejidad de la electrónica y el menor volumen de datos involucrados permite tener datos experimentales más accesibles. Dicho objetivo se extendió a lograr el diseño de un sistema tomográfico nuevo para el ensayo de residuos radiactivos (dando origen al scanner AR-TGS) y el desarrollo de su algoritmo de reconstrucción tomográfica que tuviera en cuenta los principios físicos de la tomografía por detección de fotón único (SPECT). Para alcanzar este objetivo, se deben cumplir los siguientes objetivos secundarios: Definir la geometría de detección del sistema tomográfico. Diseñar los colimadores necesarios en tomografías del tipo SPECT. Realizar un modelo del scanner propuesto para el simulador Monte Carlo. Generar datos simulados para su reconstrucción. Diseñar un algoritmo de reconstrucción tomográfica que tenga en cuenta las particularidades de las tomografías SPECT y que modele el proceso de adquisición del AR-TGS. Validar el sistema y los algoritmos con datos experimentales.

1.5.

Estructura de la Tesis

En el Capítulo 2 se describen los principios de funcionamiento de los tomógrafos PET y SPECT. En él se incluyen los procesos físicos, los detectores y las técnicas de procesamiento más comunes de este tipo de scanner. En el Capítulo 3 se describe en forma exhaustiva el estado del arte de los algoritmos de reconstrucción de imagen en PET y SPECT, recorriendo las distintas alternativas empleadas con éxito en la reconstrucción de tomografías por emisión. Adicionalmente, se enumeran los métodos más comunes de corrección de los datos adquiridos, necesarios para obtener imágenes de calidad. En el Capítulo 4 se propone una implementación del algoritmo MLEM 3D para ser ejecutada en procesadores gráficos, utilizando CUDA, una plataforma de 8

programación paralela. Por ello se brinda una introducción a CUDA y se desarrollan las optimizaciones utilizadas en la implementación. En el Capítulo 5 se realiza una descripción completa del tomógrafo AR-PET y se presenta un modelo del scanner para su simulación con GATE. Se ejecutan y procesan simulaciones de los ensayos de sensibilidad y tasa de conteo definidos por la norma NEMA NU 2-2001. Finalmente, se generan datos para reconstrucción realizando simulaciones de distintos fantomas. En el Capítulo 6 se desarrolla el algoritmo de reconstrucción tomográfico a ser utilizado en el AR-PET, que incluye a toda la cadena de procesamiento, desde el procesamiento de los eventos crudos, las correcciones de los datos y el proceso de reconstrucción. Para esto último, se formula un modelo de la matriz del sistema que modela la geometría del AR-PET. En el Capítulo 7 se realiza una introducción a las tomografías de emisión en ensayos de contenedores de residuos radiactivos y se presenta el diseño de un cabezal tomográfico para ser utilizado en el AR-TGS. En el Capítulo 8 se desarrolla un algoritmo de reconstrucción de imágenes 2D para el AR-TGS. Se describe la generación de datos simulados con GATE, el proceso de generación de sinogramas y dos modelos para la matriz del sistema utilizada en el algoritmo de reconstrucción. En el Capítulo 9 se realiza una evaluación general de la performance del AR-TGS y los algoritmos de reconstrucción propuestos, a partir de datos simulados. Adicionalmente, se incluyen datos experimentales que validan las simulaciones realizadas. En el Capítulo 10 se enumeran las conclusiones obtenidas en este trabajo, separadas en aquellas relacionadas con las tomografías PET y las SPECT. Finalmente, se describen algunas líneas de trabajo a futuro como continuación de este trabajo de investigación.

9

10

Capítulo 2

Tomografías por Emisión Gamma En este capítulo se describirán los principios físicos de las tomografías por emisión gamma. Se hará inicialmente un recuento de las distintas formas de decaimiento radiactivo, de la interacción con la materia de la radiación generada a partir de estas transformaciones y de los métodos de detección de la misma. Luego se analizarán los principios de funcionamiento de las tomografías PET y SPECT.

2.1.

Principios Físicos de las Tomografías por Emisión

El núcleo de un átomo está formado por protones y neutrones que se mantienen fuertemente unidos por acción de la fuerza fuerte, de atracción entre nucleones (protones y neutrones). En los núcleos estables la dimensión de la fuerza fuerte supera a la de repulsión entre las cargas positivas de los protones. Si el núcleo tiene exceso de protones o neutrones, su configuración es inestable y tiende a cambiar su número de protones o neutrones para alcanzar una configuración más estable. Este proceso es denominado transformación, desintegración o decaimiento radiactivo y se caracteriza por la emisión de una partícula cargada, que puede ser acompañada por la emisión de rayos gamma (puede ocurrir también que la transformación ocurra solo por emisión de radiación gamma). Las partículas emitidas se dividen en poco penetrantes (α) y más penetrantes (β) [17]. Estas últimas se dividen a su vez por su

11

carga eléctrica, en positivas (β+) y negativas (β-). Tanto las partículas emitidas como los fotones gamma emitidos tienen energías características para cada radioisótopo. Los átomos que presentan núcleos con configuraciones inestables se denominan radionucleidos o radioisótopos. Nucleído es toda especie caracterizada por su número atómico, su número másico y su estado energético; el término radionucleido indica la condición de inestabilidad del núcleo, que lo convierte en radiactivo. La tasa a la que ocurren los decaimientos radiactivos se denomina actividad y su unidad en el Sistema Internacional es el Becquerel (Bq), que equivale a una desintegración por segundo. Otra unidad comúnmente utilizada es el Curie (Ci), equivalentes a 3,7.1010 Bq, y que es la actividad de 1 gr de

226

Ra. La actividad de un radioisótopo

varía de forma exponencial con el tiempo y depende de un parámetro denominado constante de decaimiento, que tiene unidades de 1/s y es característico de cada radioisótopo. Con referencia a lo anterior, la actividad presente de un radionucleido en un tiempo t queda definida por la ecuación (2.1). (2.1) Donde A0 es la actividad inicial, λ la constante de decaimiento y At la actividad presente luego de un período de tiempo t. Otra forma de caracterizar la variación de la actividad de un radioisótopo con el tiempo es a través del período de semidesintegración, o simplemente periodo (t1/2), que es el lapso necesario para que se desintegren la mitad de los núcleos inicialmente presentes. El mismo se relaciona con la constante de decaimiento de la siguiente manera: (2.2)

Los decaimientos radiactivos también están caracterizados por su probabilidad de emisión o intensidad de la radiación que es la fracción de átomos que decaen por la emisión de algún tipo de radiación en particular. Por ejemplo, el probabilidad de emisión de 28 % para su decaimiento del tipo

228

Th tiene una

al nivel excitado de

84 keV, del 224Ra. 2.1.1. Tipos de Decaimientos Radiactivos Ya se ha mencionado que existen distintos tipos de decaimientos radiactivos. A continuación se repasarán las características de aquellos que involucran la emisión

12

de partículas. En el decaimiento Helio (

2+

se emite una partícula del mismo nombre, que es un núcleo de

). Es característico de núcleos pesados, es decir, con alto número

atómico. Este proceso puede ser representado de forma genérica por la fórmula (2.3). (2.3)

Donde X e Y son los elementos atómicos iniciales y finales respectivamente. Por su gran masa, las partículas

entregan una gran cantidad de energía a la materia

que lo rodea en una distancia muy corta. Sin embargo, al ser relativamente fáciles de frenar, se las puede blindar fácilmente. Estas características hacen que el mayor riesgo para su utilización esté en la posibilidad de ingesta o inhalación. Un ejemplo de radioisótopo con decaimiento alpha es el

238

U. El mismo responde a

la ecuación (2.4) y tiene un período de semidesintegración de 4,5x109 años. (2.4)

En los decaimientos β- un neutrón se convierte en un protón más un electrón y un antineutrino ( ) que son emitidos desde el núcleo (2.5). La partícula β- emitida tiene un rango de energías continuo de 0 a un valor máximo característico de cada radioisótopo. (2.5) La mayoría de los decaimientos de este tipo dejan al núcleo en un estado de excitación, por lo que son acompañados por un proceso de desexcitación en el que son emitidos uno o más rayos gamma. Un ejemplo de este tipo de decaimiento es el del 14C:

El

14

(2.6) C tiene una vida media de 5730 años y la partícula β emitida más abundante -

tiene una energía máxima de 156 keV. Por último, en el decaimiento del tipo β+ un protón es convertido en un neutrón y un positrón es emitido junto a un neutrino (2.7). Un positrón es la antipartícula del electrón con la misma masa pero con carga eléctrica positiva. (2.7)

13

Como el núcleo queda con un protón menos, uno de los electrones orbitales debe ser expulsado para balancear cargas. El positrón emitido, al igual que para el decaimiento del tipo β-, tiene una energía inicial que va desde 0 a un valor máximo. Luego de su emisión, pierde su energía cinética mediante la interacción con la materia que lo rodea, sufriendo colisiones inelásticas y varios tipos de dispersiones. Esto hace que sea muy difícil determinar el rango, o sea cuanto se desplaza, el positrón en un material dado.

2.1.2. Emisiones Gamma Los rayos gamma son radiaciones electromagnéticas emitidas desde el núcleo de un átomo, en general luego de decaimientos radiactivos con emisión de partículas, donde los núcleos quedan excitados con energía remanente que es liberada por emisión de fotones. La energía de la radiación gamma es característica del radioisótopo que la emitió. Este tipo de emisiones son las utilizadas en las tomografías de fotón único SPECT. Se generan también fotones γ luego de un decaimiento del tipo β+. El positrón emitido, una vez que perdió su energía cinética, se combina con un electrón en reposo, proceso que representa la aniquilación de ambas partículas, cuya energía es convertida en dos rayos gamma emitidos a 180º uno del otro. Cada fotón tiene una energía de 511 keV, energía equivalente a la masa de un electrón en reposo. Estos dos rayos γ colineales que forman una recta, son utilizados en las tomografías por emisión de positrones. Los rayos son emitidos a 180º para conservar el momento, sin embargo cuando la aniquilación ocurre con un momento distinto de cero, el ángulo no es de exactamente de 180º, teniendo una incertidumbre de 1,175º de desvío estándar en agua. Este efecto, más el rango del positrón, agrega una incertidumbre siempre presente en las tomografías PET que limita su máxima resolución espacial.

2.2.

Interacción de la Radiación con la Materia

Las radiaciones de alta energía interactúan con la materia que atraviesan entregándole energía. Como consecuencia se produce la ionización o excitación de los átomos del material absorbente. La probabilidad de que una partícula sea

14

absorbida por un material aumenta con la masa de la primera. Por esta razón las partículas α tienen un alcance corto, mientras que las β son más penetrantes. Los fotones γ, al no tener masa, son muy penetrantes [18]. En esta sección se analiza solo la interacción de los fotones gamma con la materia, ya que es la que interesa en las técnicas analizadas en los capítulos siguientes. De la interacción de partículas con la materia, solo cabe destacar la aniquilación de los positrones, descripta previamente. De todos los mecanismos de interacción de los fotones con la materia, solo tres tienen importancia en la detección y la medición de radiación: la absorción fotoeléctrica, la dispersión por efecto Compton y la producción de pares. En medicina nuclear, y en particular para el caso de las tomografías PET y SPECT, se trabaja con energías menores a las necesarias para la producción de pares. En cambio, en la tomografía de residuos radiactivos existen radioisótopos con energías que pueden provocar la generación de pares electrón-positrón. Otro tipo de interacción, es la dispersión coherente (Rayleigh) pero esta es predominante solo para energías menores a 50 keV.

2.2.1. Efecto Fotoeléctrico El efecto fotoeléctrico fue descubierto por Heinrich Hertz en 1887 al observar que el arco formado entre dos electrodos conectados a alta tensión aumentaba cuando se los iluminaba con luz ultravioleta. Luego, Philipp Lenard demostró en 1899 que la luz provocaba la emisión de electrones en los metales, proporcional a la intensidad de la luz. Estas observaciones no podían ser explicadas con la teoría ondulatoria de la luz y llevaron a Einstein a proponer la teoría cuántica de la radiación electromagnética en 1905, por la cual recibiría el premio Nobel años después. En el efecto fotoeléctrico un fotón interactúa con un átomo entregándole toda su energía a uno de los electrones en sus orbitales. Este electrón utiliza esta energía para escapar del átomo con cierta energía cinética, pero es rápidamente absorbido en medios líquidos y sólidos. El efecto fotoeléctrico ocurre habitualmente con los electrones de las órbitas internas, por lo que luego de la ionización un electrón menos ligado de las órbitas exteriores pasa a ocupar la posición vacante en la órbita interior. En este proceso se emite un rayo X de energía igual a la diferencia de 15

energías entre los niveles, típicamente de decenas de keV y que es rápidamente absorbido en el medio. En algunos casos, en lugar de la emisión de un rayo X se libera un segundo electrón denominado electrón Auger. En resumen, el resultado neto de una interacción fotoeléctrica es la absorción completa de la energía del fotón en el material que rodea al mismo. La probabilidad de interacción fotoeléctrica por unidad de distancia depende del número atómico del medio en que se propaga el fotón y de su energía.

2.2.2. Dispersión por Efecto Compton En el efecto o dispersión Compton (scatter) la interacción del fotón ocurre con un electrón libre o débilmente enlazado a un átomo. En este proceso el fotón transfiere parte de su energía al electrón y este es expulsado del átomo. Como consecuencia, se emite un nuevo fotón en una nueva dirección, cambio impuesto por la conservación de la energía y el momento. La relación entre la energía entregada por el fotón y el ángulo de dispersión está dada por la ecuación (2.8). (2.8) Donde Ed es la energía con la que queda el fotón dispersado, E la energía original del fotón, θ el ángulo en que se dispersa la trayectoria del fotón, me la masa del electrón y c la velocidad de la luz. La máxima pérdida de energía del fotón se da cuando el ángulo de dispersión es 180º y se llama retrodispersión (back-scatter). La probabilidad de interacción no es equiprobable para todos los ángulos y depende de la energía del fotón y del número atómico del material. La probabilidad de dispersión del fotón se puede obtener de la ecuación de Klein-Nishina. En tejido humano, las interacciones por efecto Compton son las dominantes para energías que van desde 100 keV hasta 2 MeV.

2.2.3. Producción de Pares Los fotones de energías mayores a 1,022 MeV, energía equivalente a dos veces la masa en reposo de un electrón, pueden convertirse espontáneamente en un electrón y un positrón cuando pasa por las cercanías de un núcleo. De esta forma se conserva la energía y la carga neta nula del fotón. La probabilidad de este tipo de interacción 16

aumenta a medida que aumenta la energía y para 10 MeV llega al 60%. La energía restante luego de la producción de pares es transferida como energía cinética a ambas partículas.

2.2.4. Atenuación de Fotones Los fotones gamma que atraviesan un material se ven atenuados como consecuencia de su interacción con la materia. Este proceso puede ser descripto mediante una relación exponencial: (2.9) Donde I0 es la intensidad de un haz de fotones, provenientes de una fuente radiactiva bien colimada, Ix es la intensidad del haz de fotones luego de atravesar un material de espesor x y µ es el coeficiente de atenuación lineal del material. Este último tiene unidades de cm-1 y depende del número atómico del material y de la energía de los fotones. El coeficiente de atenuación lineal se obtiene a partir del coeficiente de atenuación másico (µ/ρ) en cm2.g-1 y la densidad del material (2.10). A su vez el coeficiente de atenuación másico es obtenido de las secciones eficaces (σ) para cada tipo de interacción. (2.10) Las secciones eficaces brindan la probabilidad de interacción de un fotón con un material. Se expresan como una relación entre el área esperada que recorre un fotón en un material para que ocurra una interacción, por la cantidad total de material presente. Tiene unidades de cm2/átomos. La sección eficaz total para un material se obtiene de la suma de las secciones eficaces para cada tipo de interacción. En tomografías SPECT y PET para medicina nuclear quedaría formada solo por las secciones eficaces de absorción fotoeléctrica y dispersión por efecto Compton: (2.11) Para el caso de tomografía de residuos radiactivos se sumaría la sección eficaz de producción de pares. Mediante la sección eficaz total se obtiene el coeficiente de atenuación másico convirtiendo la relación de átomos a masa, utilizando para esto el número másico (A) del material y el número de Avogadro (NA) como en la (2.12). 17

(2.12)

2.3.

Detectores de Radiación Gamma

Existen diferentes tipos de detectores para los distintos tipos de radiación, pero en general todos tienen ciertas características en común. En primer lugar, un detector debe frenar la radiación incidente mediante algunos de los mecanismos de interacción de la radiación con la materia descriptos previamente y, además, medir la energía depositada en el detector. Esta última es transformada en carga eléctrica que debe ser procesada por un circuito electrónico. La integral de la señal eléctrica es proporcional a la energía depositada. La cantidad de carga generada en el detector determina el ruido estadístico en la señal generada y como consecuencia influye en la resolución de la medición de energía. El tiempo que se tarda en colectar la carga varía con el tipo de detector y es otro de los parámetros a considerar en la elección del mismo [19]. En esta sección nos centraremos en los detectores de radiación gamma, ya que es la utilizada en las tomografías PET y SPECT. En PET se trabajan con fotones gamma de 511 keV. Por otro lado, en las tomografías SPECT de residuos radiactivos se trabaja con fotones gamma que pueden ir desde decenas de keV hasta más de 1MeV. Los detectores de radiación se dividen a grandes rasgos en detectores de ionización gaseosa, detectores semiconductores y cristales centelladores. Los detectores de ionización gaseosa se caracterizan por tener baja eficiencia para fotones gamma de las energías mencionadas y poca resolución en energía, por lo que son inadecuados para las aplicaciones tomográficas. En los detectores semiconductores o de estado sólido la radiación incidente excita a los electrones que se encuentran en la banda de valencia, de manera tal que alcanzan la banda de conducción y pueden circular libremente por el cristal. Si el semiconductor está polarizado con un campo eléctrico, las cargas libres generadas resultarán en una señal eléctrica que fluye por el detector. Estos detectores tienen una excelente resolución en energía pero relativamente baja eficiencia para fotones gamma [20]. Además, algunos de ellos

18

necesitan un sistema de enfriamiento externo para funcionar correctamente. Estas características los hacen adecuados para aplicaciones de espectrometría pero no en tomografía, donde se necesita alta eficiencia y un gran número de detectores. El último tipo de detector son los centelladores. Los hay orgánicos e inorgánicos. Estos últimos son los que más interesan en las aplicaciones tratadas en esta tesis. Son cristales que emiten fotones de luz visible luego de la interacción de fotones gamma con el detector [19]. Se utiliza un foto-detector para medir la luz visible emitida. La cantidad de fotones luminosos es habitualmente proporcional a la energía depositada por el fotón gamma. La mayoría de los materiales centelladores son densos, ya que tienen un número atómico grande, y eso hace que su eficiencia de detección sea alta. La resolución en energía es mejor que las de las cámaras de ionización, detectores de ionización gaseosa utilizados en otros procesos de medición de fotones, pero peor que la de los detectores de estado sólido. Sin embargo, la combinación de alta eficiencia con aceptable resolución en energía hace que sean los más utilizados en las tomografías PET y SPECT. Los cristales centelladores tienen una estructura cristalina con bandas de energías discretas. La última banda con electrones es la banda de valencia y la primera banda vacía es la de conducción; en el medio hay una serie de bandas prohibidas. El salto de energía entre las bandas de conducción y valencia es de unos pocos eV. Cuando un electrón de la banda de valencia absorbe energía de un fotón que incide en el cristal, se excita y alcanza la banda de conducción, dejando un hueco en la banda de valencia. Luego el electrón se desexcita y vuelve a la banda de valencia, emitiendo isotrópicamente fotones de luz con la energía equivalente a la diferencia entre ambas bandas. Esta energía corresponde a fotones de luz ultravioleta, que no se encuentra en el rango visible del espectro electromagnético. Para poder lograr emisiones de luz visible se incorporan impurezas en el cristal, habitualmente llamadas activadores. Estos producen niveles de energía por encima de la banda de valencia y por debajo del de la de conducción donde antes estaba la región de bandas prohibidas. Como consecuencia, el proceso de desexcitación ocurre entre niveles de energía más cercanos y la luz emitida está en el rango visible del espectro. Las zonas donde ocurre este proceso se las llama centros de

19

luminiscencia. Un electrón, generado en forma primaria o secundaria por la interacción entre el fotón gamma y el material, genera al pasar a través del cristal un gran número de pares electrón – hueco, lo que implica el paso de electrones de la banda de valencia a la de conducción. El tiempo en que el electrón pierde toda su energía generando todos los estados excitados es despreciable y se puede considerar prácticamente instantáneo. Sin embargo el proceso de desexcitación es del orden de 30-500 ns y depende del material del cristal. Este tiempo se denomina tiempo de decaimiento y determina las características temporales de la señal lumínica. La eficiencia lumínica de este tipo de detector está dada por la cantidad de fotones visibles generados por MeV del fotón gamma. La luz visible emitida tiene un espectro continuo con un máximo en ciertas longitudes de onda. Para aprovechar de la mejor manera la señal lumínica, el fotodetector utilizado debe tener su máxima sensibilidad en longitudes de onda próximas a la de máxima emisión del cristal. El cristal centellador más utilizado en todo tipo de aplicaciones es el yoduro de sodio activado con talio (NaI(Tl)). La longitud de onda de máxima emisión es 415 nm y la emisión lumínica responde a una distribución exponencial con un tiempo de decaimiento de 230 ns. Su eficiencia lumínica es de 38000 fotones/MeV.

2.3.1. Fotodetectores Como se mencionó anteriormente, los cristales centelladores necesitan ser acompañados de dispositivos que permitan convertir la débil señal lumínica generada en el cristal en una señal eléctrica. Estos dispositivos se denominan fotodetectores,

de

los

fotomultiplicadores

cuales y

los

existen

dos

grandes

categorías:

basados

en

semiconductores

los

tubos

(fotodiodos

y

fotomultiplicadores de estado sólido). Los fotodetectores deben tener gran ganancia, una alta eficiencia cuántica o de foto-detección, bajo ruido intrínseco y un área activa grande [21]. Los tubos fotomultiplicadores (PMTs) son los fotodetectores más utilizados y logran adecuadamente convertir cientos de fotones en un pulso de corriente utilizable sin agregar mucho ruido aleatorio. Los fotomultiplicadores son tubos de vidrio sellados al vacío, que contienen una cara fotosensible, denominada fotocátodo, acoplada a 20

una estructura multiplicadora de electrones. El fotocátodo convierte gran parte de la luz incidente en electrones de baja energía. La duración de la señal eléctrica es del mismo largo que el pulso de luz generado en el cristal y la cantidad de electrones de la misma es muy poca para generar una señal adecuada. Por esta razón se utiliza una estructura de multiplicación de electrones que logra una amplificación del orden de 106. Con ella se logra una señal de carga adecuada para procesar, que se colecta en el ánodo del tubo. La amplificación de la señal es lineal para todo el rango de amplitudes, como consecuencia la señal de salida sigue siendo proporcional a la energía del destello lumínico. El proceso de conversión en el fotocátodo se basa en la utilización de una fina capa de un material capaz de absorber la energía de los fotones que inciden en ella. Por efecto fotoeléctrico, los fotones producen electrones libres que son atraídos por el campo eléctrico establecido entre el fotocátodo y el primer dinodo o grilla del fotomultiplicador. No todos los fotones son convertidos en electrones, proceso que es cuantificado mediante la eficiencia cuántica del fotocátodo, que es la relación entre los fotoelectrones emitidos y el número de fotones incidentes. Los fotocátodos más usuales tienen una eficiencia cuántica de 20-30%. Una vez que el electrón es liberado del fotocátodo, es acelerado mediante una diferencia de potencial hacia el primer dinodo. El impacto del electrón en la superficie del dinodo produce emisión secundaria de electrones, que a su vez son acelerados hacia otra etapa de dinodos donde se vuelve a multiplicar su cantidad. Se realiza el mismo proceso en varias etapas hasta que los electrones llegan al ánodo con una amplificación final del orden de 106. Usualmente esto se logra utilizando alrededor de 10 dinodos con una diferencia de potencial entre el primero y el último de entre 1000 y 2000 V. El tiempo promedio entre que un fotón llega al fotocátodo y la colección del pulso de fotoelectrones en el ánodo es llamado el tiempo de tránsito de electrones (electron transit time) y comúnmente se encuentra entre 20 y 80 ns. El mismo no trae problemas en la obtención de una marca de tiempo del evento ya que es un valor constante que solo introduce una demora fija en el arribo de la señal. Por lo contrario, el spread in transit time caracteriza el ancho de los pulsos que arriban al ánodo del fototubo. Este depende de la región de arribo del fotón en el fotocátodo,

21

de su energía cuando es expulsado hacia el primer dinodo y de la cantidad inicial de fotoelectrones generados. Este tiempo está en el orden de unos pocos nanosegundos y es un parámetro de gran importancia en aplicaciones que se necesita gran resolución temporal como en PET. Los PMTs se ofrecen comercialmente en una gran variedad de tamaños e incluso con modelos sensibles a la posición (En la Figura 2.1 se pueden observar algunos modelos). Sus mayores ventajas son su gran poder de amplificación, lo que genera pulsos con muy buena relación señal-ruido, y su rápida respuesta que genera una buena resolución temporal. Sus desventajas principales son su tamaño relativamente grande, su costo y su elevada sensibilidad a los campos magnéticos. El otro tipo de fotodetectores son los basados en fotodiodos de silicio. Un fotodiodo es un semiconductor adecuadamente dopado para generar una juntura p-n como un diodo convencional. Aunque habitualmente también se utiliza una juntura PIN, donde entre el material tipo N y el tipo P se encuentra una región de semiconductor intrínseco. El fotodiodo es polarizado con una tensión del orden de unos pocos cientos de voltios. Cuando un fotón incide sobre el fotodiodo e interactúa con el silicio, un electrón es liberado por efecto fotoeléctrico generando un hueco en la estructura cristalina del silicio. El electrón se dirige hacia el ánodo por acción del campo eléctrico aplicado, mientras que el hueco deriva al cátodo, generando una corriente eléctrica que puede ser medida. La eficiencia cuántica de los fotodiodos es de 60-80%, mucho mayor que la de los PMTs. Sin embargo, al no tener amplificación la relación señal-ruido es mucho menor y, como consecuencia, la resolución en energía es peor. Por esta razón, en PET se usa una modificación de los fotodiodos denominados fotodiodos avalancha (APDs). En ellos la tensión aplicada para la polarización es mucho mayor, generando una avalancha de electrones proporcional a los liberados por efecto fotoeléctrico. De esta forma se obtiene una amplificación del orden de 100 veces. En lo que respecta a la respuesta temporal de los APDs, el factor más influyente es la posición en la que el fotón interactúa dentro del semiconductor, la cual genera variaciones del orden del nanosegundo en el tiempo de disparo de la avalancha. Con estos detectores, se suele obtener una resolución temporal de unos pocos nanosegundos, pero bajo ciertas circunstancias se

22

puede llegar a cientos de picosegundos o incluso menos. En resumen, la gran ventaja de los APDs es su volumen compacto, la poca sensibilidad a los campos magnéticos, una buena resolución temporal y el no necesitar alta tensión. Como desventaja se tiene la limitación para generar detectores de volúmenes medianos o grandes.

Figura 2.1. En la izquierda tubos fotomultiplicadores de vacío de distintas formas y tamaños. A la derecha dos fotomultiplicadores de estado sólido.

Para finalizar, en los últimos años han aparecido los fotomultiplicadores de estado sólido (SiPM) que consisten en una matriz de pequeños fotodiodos avalancha. Cada uno de estos elementos que forman el SiPM trabaja en modo Geiger al ser polarizados con una tensión lo suficiente alta. Esto significa que cada fotodiodo genera una avalancha con similar cantidad de portadores sin importar cuántos fotones interactuaron en el dispositivo. El tamaño de cada fotodiodo se diseña de manera que la posibilidad de que dos fotones incidan en un mismo elemento de la matriz sea muy baja. De esta forma, la cantidad de fotodiodos en los que se produce la avalancha es proporcional a los fotones que inciden sobre el SiPM y a la energía del destello en el cristal centellador. Este tipo de foto-detector se encamina a reemplazar a los fotomultiplicadores en las aplicaciones de PET y SPECT, ya que cuentan con similares valores de ganancia y eficiencia cuántica, requieren tensiones de trabajo mucho menores que los PMTs de vacío, tienen excelente respuesta temporal, son compactos y no son sensibles a los campos magnéticos.

2.4.

Tomografía PET

En la tomografía por emisión de positrones [5][22][4] un radioisótopo emisor β+ de

23

corto período es incorporado a una molécula metabólicamente activa, para formar un radiotrazador que es inyectado al paciente. En su aplicación más común, se utiliza como radiotrazador fluorodesoxiglucosa (FDG) en el cual el flúor de dicha molécula es

18

F producido en un ciclotrón y de esta forma se obtiene una molécula

metabólicamente activa que emite positrones. Este radiotrazador se concentrará en aquellas zonas de mayor actividad metabólica o consumo de energía, como por ejemplo tumores. Es por esto que la principal aplicación de PET es el diagnóstico y el seguimiento de distintos tipos de cáncer. En el cuerpo del paciente, el radiotrazador emite un positrón con cierta energía cinética, que se va perdiendo mediante interacciones inelásticas con los electrones de los átomos del tejido del paciente. Tal como ha sido mencionado, cuando la partícula perdió casi la totalidad de su energía, se combina espontáneamente con un electrón y se produce la aniquilación de ambas partículas. El electrón y el positrón liberan la energía de sus masas en reposo formando dos rayos gamma de 511 keV que se emiten en direcciones opuestas. Estos dos fotones gamma, al ser suficientemente energéticos, tienen muy buenas probabilidades de atravesar el cuerpo del paciente. Si ambos fotones se detectan y localizan espacialmente con detectores que se encuentran alrededor del paciente, se obtiene una línea que cruza su cuerpo. Como la aniquilación ocurre muy cerca de la posición donde se emitió el positrón, se sabe que a lo largo de esa línea se encontraba la molécula del radiotrazador. Esto se denomina colimación electrónica, ya que se logra obtener la dirección de los fotones gamma sin ningún colimador físico. Este tipo de colimación tiene la gran ventaja de admitir todo tipo de direcciones de incidencia de forma simultánea, lo que aumenta la sensibilidad del sistema en uno o dos órdenes de magnitud respecto de sistema con colimadores físicos como en SPECT. Para poder identificar que dos fotones gamma detectados fueron generados por el mismo positrón se necesita que los fotones detectados sean medidos dentro de una ventana temporal de entre 5 y 20 ns. Ya que un fotón que viaja a la velocidad de la luz tarda unos pocos nano segundos en atravesar todo el campo de medición. Adicionalmente, el detector debe poder verificar que los fotones detectados tienen una energía de 511 keV. En la Figura 2.2 se presenta un esquema de este principio de funcionamiento.

24

Figura 2.2. Principio de funcionamiento de un tomógrafo por emisión de positrones. Un radiotrazador con decaimiento β+ es inyectado al paciente. El positrón emitido pierde su energía cinética en unos pocos mm y se aniquila con un electrón, generando dos fotones gamma emitidos en direcciones opuestas. Ambos fotones son medidos por dos detectores, donde se verifica que la diferencia de tiempo sea menor que una ventana de 20 ns. De esta forma se obtiene la línea de respuesta que atraviesa la posición donde fue emitido el positrón.

La adquisición de millones de estas líneas de respuestas (LORs: Lines of Response) formadas por los dos rayos gamma colineales, más la aplicación de un algoritmo de reconstrucción tomográfica, permiten obtener una imagen con la distribución del radiotrazador dentro del paciente. En resumen, un tomógrafo PET es un scanner formado por un grupo de detectores ubicados alrededor del paciente capaz de adquirir y procesar fotones de aniquilación de 511 keV en una ventana temporal menor que 20 ns; y que, con las LORs adquiridas, permite la generación de una imagen por medio de un algoritmo de reconstrucción tomográfica implementado en una computadora.

25

2.4.1. Tipo de Detectores en PET En PET se necesitan como mínimos dos detectores enfrentados para poder detectar eventos en coincidencia. Estos detectores deben tener muy buena eficiencia de detección de fotones de 511 keV, ya que mientras más eventos se detecten, menor ruido estadístico se tendrá en la imagen. Deben además ser capaces de localizar espacialmente de forma precisa los eventos detectados, porque esto influye en la resolución espacial de las imágenes. Adicionalmente, deben obtener una marca de tiempo con una resolución suficiente para poder determinar que la diferencia de tiempo entre dos fotones gamma está dentro de una ventana de tiempo menor que 20 ns. Para esto la resolución temporal del detector debe ser como mínimo de 5 ns en ancho a mitad de altura (FWHM: Full Width Half Maximum). Por último, los detectores deben ser capaces de discriminar entre los fotones que alcanzaron el detector sin desviarse en el trayecto de aquellos fotones que se han dispersado en el cuerpo del paciente. Para esto se debe tener una buena resolución en energía, ya que los fotones dispersados dejan parte de su energía en la interacción [23]. Como se mencionó anteriormente, los detectores que mejor cumplen con estos requisitos son los centelladores inorgánicos. Los parámetros más importantes de este tipo de detectores para satisfacer los requerimientos del párrafo anterior son el poder de frenado (stopping power) de fotones de 511 keV, el tiempo de decaimiento, la eficiencia lumínica y la resolución en energía intrínseca. El stopping power se caracteriza por la distancia media que viaja un fotón antes de depositar toda su energía en el cristal y tiene gran relación con la densidad del material. Se cuantifica mediante el coeficiente de atenuación lineal. A pesar de que los cristales centelladores inorgánicos son materiales densos con buen stopping power, se necesitan varios centímetros para frenar un porcentaje importante de la radiación incidente. Dentro del cristal ocurren más interacciones por efecto Compton que por fotoeléctrico, por lo que es importante que el cristal tenga un tamaño lo suficientemente grande como para que el fotón deje el total de su energía por interacciones Compton sucesivos. Como contrapartida, cristales más grandes empeoran la resolución espacial y aumentan el costo del equipo. La eficiencia lumínica es la cantidad de fotones de luz visible que se generan por

26

cada fotón de 511 keV que es absorbido en el detector. Este factor es importante porque la señal de fotones visibles es utilizada para medir la energía del fotón detectado y a su vez, en algunos tipos de detectores, se utiliza para la localización espacial de dicho evento. Mientras menos fotones de luz visible se generen, mayor ruido estadístico tendrá la señal y se obtendría peor resolución en energía y espacial. Las fluctuaciones en la señal lumínica se reducen con

como en todo proceso

Poisson, siendo n la cantidad de fotones visibles. La resolución en energía del detector también está determinada por la resolución intrínseca del material. En lo que respecta a la resolución temporal del detector, un factor importante es el tiempo de decaimiento de la señal lumínica. Mientras menor sea este, mayor precisión se tendrá en la marca temporal del evento. Este parámetro también indica cuánto tiempo el detector queda imposibilitado para recibir un nuevo fotón gamma, ya que si la señal de un primer arribo no se ha extinguido y un nuevo fotón es absorbido, ambas señales se sumarían y no se podría determinar la energía y la marca de tiempo de cada uno. Cuanto esto ocurre se dice que hay apilamiento (pile up) de pulsos. Por esta razón, mientras menor sea el tiempo de decaimiento mayor tasa de eventos podrá recibir el detector sin que haya apilamiento. Existen a grandes rasgos dos formas de implementar los detectores con cristales centelladores en PET. Por un lado están los detectores continuos, caracterizados por tener una gran área y una matriz de foto-detectores acoplados al cristal (Figura 2.3). En ellos, entre los PMTs y la superficie del cristal puede colocarse una guía de luz para distribuir los destellos en toda su superficie. La energía de un evento se obtiene sumando las señales de todos los PMTs presentes y las intensidades relativas se utilizan para el posicionamiento del evento [24][25]. Como ventaja tiene un menor costo y como desventaja una baja tasa de conteo por mayor probabilidad de apilamiento de los pulsos adquiridos, ya que todo el cristal queda iluminado cuando ocurre un destello lumínico.

27

Figura 2.3. Esquema de detección con detector continuo. En la imagen a) se observa un cristal continuo de gran tamaño. En b) se encuentra el cristal con la matriz de fotomultiplicadores acoplados. En c) se muestra cómo es el proceso de detección de un destello en el cristal, donde a la salida de los PMTs más cercanos al mismo se tienen señales de mayor intensidad. Las intensidades relativas de las señales se utilizan para procesar el evento.

Por otro lado, se encuentran los detectores pixelados, formados por pequeños cristales independientes denominados píxeles, que contienen reflectores en sus caras laterales para que la luz quede confinada en el píxel. La posición del evento está dada por el píxel en el que ocurrió, por lo que la resolución espacial sobre el detector es el tamaño de píxel. La gran ventaja de esta configuración es su alta capacidad de conteo, ya que se tienen múltiples canales de detección de forma simultánea. Existen distintas geometrías para la construcción de este tipo de detectores. Utilizar un PMT por cada píxel es impracticable por cuestiones de tamaño y de precio. Por esta razón, se utilizan los llamados detectores en bloque (block detectors) donde un bloque con una matriz de píxeles del cristal es acoplado con un número menor de fotomultiplicadores [26]. Por ejemplo, para un bloque de 8x8 píxeles se pueden utilizar cuatro PMTs que cubren toda su superficie. La luz emitida desde un píxel es 28

recibida por todos los PMTs del mismo bloque, lo que permite, a partir de las intensidades relativas de la señal de cada PMT, identificar al píxel donde ocurrió el destello. Los PMTs utilizados pueden ser cuadrados, ocupando toda la superficie del bloque, o cilíndricos que ocupan solo un porcentaje de la superficie del mismo. El reto para este último caso es obtener una performance equivalente con un menor porcentaje de luz adquirida [27]. En los scanners que utilizan detectores de bloque se obtiene una mayor tasa de conteo por tener mayores canales de adquisición. Cuando ocurre un destello en el detector, todos los PMTs del bloque reciben su señal, por lo que ocurre un apilamiento de pulsos si llegan dos eventos en dos píxeles distintos [28]. Como consecuencia, la cantidad de canales de adquisición independientes es el número de bloques del scanner y no la cantidad de píxeles. Existe una alternativa que combina las características de los detectores continuos con los pixelados. En ella se utiliza fotomultiplicadores de gran tamaño acoplados a más de un bloque de píxeles. El objetivo es reducir el costo del detector, pero como contrapartida se tiene una menor tasa de conteo ya que el apilamiento ahora ocurre también entre bloques vecinos. Este tipo de detector se denomina PhotomultiplierQuadrant-Sharing (QPS) y utiliza un esquema de reflectores codificados para poder posicionar los eventos con una menor cantidad de PMTs [29][30]. En la Figura 2.4 se muestra un esquema tridimensional de un bloque detector y tres alternativas de lectura para los PMTs: una con PMTs cuadrados, otra con cilíndricos y la última con cilíndricos de gran tamaño (QPS).

29

Figura 2.4. Ejemplo de un detector con un cristal de 8x8 píxeles y cuatro fotomultiplicadores acoplados para la adquisición de la luz generada en el cristal. En la parte inferior de la imagen, se muestran tres detectores posibles para el mismo cristal pixelado. De izquierda a derecha, un esquema con cuatro PMTs cuadrados que cubren la superficie del cristal, otro con cuatro PMTs cilíndricos dentro de la superficie del cristal y por último una geometría de bajo costo que utiliza PMTs de mayor tamaño.

Tanto para los detectores continuos como para los pixelados se pueden utilizar distintos cristales centelladores. Durante la evolución de los tomógrafos PET han existido algunos basados en detectores continuos de yoduro de sodio (NaI(Tl)) [25][31][32] por ser un detector con aceptable poder de frenado y muy buena eficiencia lumínica, además de la ventaja de ser conocido y utilizado por décadas en otras aplicaciones. Pero este material tiene la desventaja de ser higroscópico por lo que no se pueden realizar detectores pixelados. La aparición del cristal de germanato de bismuto (BGO) a fines de la década del 80 lo hizo el material de elección por muchos años, ya que permitió implementar los primeros detectores pixelados. El germanato de bismuto tiene un gran poder de frenado, pero como desventaja su 30

resolución en energía es pobre. A fines de la década del 90 y entrando en los años 2000 aparecieron los PET con detectores pixelados de oxiortosilicato de lutecio (LSO) y oxiortosilicato de lutecio con itrio (LYSO) que combinan excelente poder de frenado y tiempo de decaimiento, y aceptable resolución en energía. La combinación de estas características los convierte en materiales de elección para los PET actuales. Otros cristales que se han utilizado son el floruro de bario (BaF2) y silicato de gadolinio (GSO). En la actualidad han aparecido nuevos materiales con buen potencial como por ejemplo el bromuro de lantano dopado con cerio (LaBr3(Ce)), pero con costos todavía muy altos para ser utilizados en scanners comerciales. En la Tabla 2-1 se encuentran las características de los materiales mencionados. Vale destacar que los valores de resolución en energía son los máximos obtenidos para cada material bajo condiciones especiales. La resolución en energía en los detectores para PET es sensiblemente mayor, por ejemplo un valor habitual para NaI(Tl) es de 8% y para BGO de 14% FWHM. Densidad [gr/cm3]

Tiempo de

Máxima

Eficiencia

Resolución en

Decaimiento

Longitud de

Lumínica

Energía

[ns]

Onda

[fotones/MeV]

Intrínseca

[nm]

[FWHM a 662keV]

NaI(Tl)

3,67

230

415

38000

5,5 %

BGO

7,13

300

480

8200

9%

LSO

7,4

40

420

25000

8%

BaF2

4,9

630

310

10000

7,7 %

LaBr3(Ce)

5,1

35

360

61000

2,5 %

Tabla 2-1. Propiedades de los distintos cristales centelladores que se han utilizado o se utilizan actualmente en PET [19].

2.4.2. Geometrías de Detección La geometría de detección está determinada por la disposición de los detectores alrededor del objeto a ser medido. Los scanners con detectores pixelados contienen un gran número de bloques detectores. Como se explicó en la sección anterior, estos detectores están formados por una matriz de píxeles (por ejemplo de 8x8) con algunos pocos PMTs acoplados a ellos. La geometría de detección más común es la de anillo, dónde con múltiples bloques se generan anillos de detección que rodean al

31

campo de visión. Un anillo es un cilindro con un píxel de profundidad, por lo que un cilindro formado por una fila de bloques detectores de 8x8 tendrá 8 anillos. Por ejemplo, el scanner de EXACT HR+ utiliza 288 bloques de 8x8 píxeles de 4,05 x 4,39 x 30 mm3 con 4 PMTs cilíndricos acoplados [33]. De esta forma la geometría cilíndrica queda formada con 32 anillos, cada uno de ellos con 576 píxeles. Por otra parte, los scanners con detectores continuos de gran tamaño realizan la coincidencia con los cabezales detectores del lado opuesto. La geometría que se encuentra con este tipo de detectores puede ser cilíndrica con cristales curvos [31] o hexagonal para detectores rectangulares [25]. Un ejemplo de este tipo de tomógrafo es el C-PET [32], constituido por seis cristales de NaI(Tl) curvos que forman un anillo de 90 cm de diámetro y 25,6 cm axiales. Existen otras geometrías que utilizan un anillo parcial o dos cabezales enfrentados y que cuentan con un movimiento rotatorio para poder completar la adquisición de todas las proyecciones. Esta estrategia tiene el objetivo de reducir los costos pero se pierde considerablemente sensibilidad. Un scanner comercial que tiene esta geometría es el ECAT EMERGE. En la Figura 2.5 se pueden observar posibles configuraciones para las distintas geometrías descriptas.

2.4.3. Adquisición de Eventos En un scanner PET los detectores procesan eventos generados por la interacción de un fotón gamma con el cristal centellador. Los fotones detectados de forma individual en uno de los detectores y que se encuentran en una ventana de energía centrada en 511 keV se denominan singles o simples. Cuando dos eventos singles se detectan, en dos detectores distintos, dentro de una ventana temporal que puede ir entre 5 y 20 ns, se tiene una coincidencia que determina una línea de respuesta (LOR) que cruza la posición donde se aniquiló el electrón. De los eventos simples detectados solo un porcentaje menor forma una coincidencia. Esto se debe a que de los dos fotones gamma colineales generados en la aniquilación electrónica, la mayoría de las veces se detecta sólo uno o incluso ninguno de los fotones. Las razones de esto es que los rayos gamma pueden escapar del scanner por la geometría del mismo, por la probabilidad de atravesar los detectores sin interactuar con ellos y 32

por que pueden ser completamente frenados en el paciente o el objeto bajo estudio.

Figura 2.5. Distintas geometrías utilizadas en los scanners PET. En a) una geometría hexagonal con seis detectores continuos, en b) un scanner cilíndrico con detectores de bloque y en c) un scanner incompleto con solos dos detectores enfrentados y un movimiento rotatorio.

Idealmente todas las coincidencias detectadas, llamadas coincidencias totales o instantáneas (prompts), deberían estar formadas por fotones generados en la misma aniquilación y que no fueron desviados previamente a la detección. Las coincidencias de este tipo son llamadas verdaderas o trues, ya que son las que brindan información válida para la reconstrucción de la imagen. Sin embargo, las coincidencias están contaminadas por eventos no deseados. En primer lugar se encuentran las coincidencias aleatorias (random), que ocurren cuando dos fotones gamma son detectados dentro de la ventana temporal pero fueron originados en aniquilaciones diferentes. De esta forma, la LOR tiene una dirección errónea. Las

33

coincidencias randoms aumentan cuadráticamente con el nivel de actividad, mientras que las coincidencias válidas crecen linealmente con la actividad. Por lo que en altos niveles de actividad, los eventos aleatorios son dominantes. Otro tipo de coincidencia no deseada, se refiere a aquellas en las que uno o ambos fotones han tenido una o varias interacciones Compton antes de ser frenados por el detector. En estos casos el fotón es dispersado por lo que pierde su dirección original y termina formando una LOR que no es correcta. Este tipo de coincidencias se las denomina dispersión o scatter y son un porcentaje considerable de las totales, ya que en el tejido humano la dispersión Compton es el tipo de interacción más probable para los fotones de 511 keV. Estos eventos son parcialmente filtrados con la ventana de energía utilizada para retener solo los fotones de 511 keV, o sea con aquellos que no interactuaron previamente. No obstante, debido a la limitada resolución en energía de los detectores, un porcentaje del scatter ingresa en la ventana. Por último, están las coincidencias múltiples que ocurren cuando se detectan tres o más eventos simples dentro de la ventana de energía. En este caso, no se puede determinar cuáles son los pares de eventos de la coincidencia verdadera. Existen distintas formas de tratar estos eventos: se pueden descartar todos los eventos cuando haya una coincidencia múltiple, quedarse con el par cuyas energías se encuentran más cercanas a 511 keV o tomar todas las combinaciones posibles. Para resumir, los fotones detectados en cada detector se llaman singles y cuando están en ventana temporal forman una coincidencia. La totalidad de ellas recibe la denominación de coincidencias totales o prompts e incluyen las coincidencias verdaderas (trues), las aleatorias (randoms), las de dispersión (scatter) y las múltiples (si es que se decide adquirirlas). En la Figura 2.6 se muestran gráficamente cada uno de estos eventos.

34

Figura 2.6. Distintos tipos de coincidencias adquiridas en un scanner PET. En a) una coincidencia del tipo verdadera. En b) se muestra una coincidencia aleatoria, donde la coincidencia detectada está formada por dos fotones gamma originados en aniquilaciones electrónicas diferentes. En rojo se muestra la LORs interpretada en la adquisición. En c) se muestra un evento de dispersión donde un fotón es desviado previo a la detección, como consecuencia se considera una LOR errónea (en rojo en la figura). En d) se muestra un caso de dos coincidencias que ocurren en la misma ventana. En la adquisición se tendrán cuatro LORs posibles, dos de ellas correctas (en negro) y dos incorrectas (en rojo).

Con las coincidencias adquiridas se deben generar y almacenar los datos utilizados para la reconstrucción de la imagen. Existen dos formas de hacerlo: una es mediante el modo lista y la segunda mediante histogramas. En la primera simplemente se almacena una lista con las coordenadas espaciales de cada coincidencia, mientras que en la segunda se acumulan las coincidencias en un histograma según su

35

dirección. En la sección 2.4.6 se brindan los detalles de esto último.

2.4.4. Tiempo de Vuelo Con el avance de la resolución temporal de los detectores, algunos tomógrafos PET han incorporado la capacidad de medir el tiempo de vuelo de cada fotón en coincidencia. Para tal fin se debe tener una muy buena resolución temporal que permita medir la diferencia de tiempo de arribo entre los dos fotones generados por un mismo positrón, lo cual permite reducir la línea de respuesta a solo un segmento de la misma. La condición necesaria para lograr esto es disponer de una resolución temporal menor que 1 ns. Mientras mayor sea la resolución temporal, en más segmentos se dividirá la LOR y mejor será la relación señal a ruido de la imagen. En [34] se muestra que dicha ganancia depende de las dimensiones del scanner y de la resolución temporal mediante: (2.13)

donde D es el diámetro del scanner, c la velocidad de la luz y

la

resolución temporalel del sistema en FWHM.

2.4.5. Modos de Adquisición 2D y 3D En las primeras generaciones de scanners PET, se utilizaba el modo adquisición 2D que permite solo coincidencias directas, que son aquellas detectadas en un mismo anillo o slice. Para esto, se utilizan unas láminas de tungsteno entre los anillos, llamadas septas, que hacen de blindaje. La ventaja de este modo de adquisición es que se reduce considerablemente la tasa de conteo y esto implica una reducción de los eventos randoms. A su vez, al limitar los ángulos de incidencia, se reduce la detección de los eventos que sufrieron scatter en el cuerpo del paciente. Como desventaja, se pierde mucha sensibilidad por lo que se debe inyectar al paciente con mayor actividad, aumentando la dosis recibida y el costo del estudio. En algunos casos, se permite también eventos entre anillos vecinos, lográndose una solución intermedia.

36

En el modo de adquisición 3D, se eliminan las septas que bloquean la adquisición de coincidencias entre anillos. De esta forma se incrementa radicalmente la sensibilidad del sistema, permitiendo mejorar la relación señal a ruido de las imágenes, reducir los tiempos de los estudios o disminuir la actividad inyectada al paciente. Como contrapartida, el scanner es afectado por los eventos aleatorios a una menor actividad y la cantidad de scatter se hace considerable. Por esta razón, dependiendo de la actividad y del cuerpo bajo estudio, la calidad de la imagen se puede degradar considerablemente. En la actualidad todos los scanners trabajan en modo 3D y algunos incluyen la opción de adquirir en modo 2D mediante la utilización de septas retraibles. En la Figura 2.7 se da un ejemplo de los modos de adquisición 2D y 3D para un scanner que cuenta con ocho anillos.

Figura 2.7. Modos de adquisición en PET. A la izquierda el modo 2D donde las septas permiten solo coincidencias en un mismo anillo o con el anillo vecino. El scanner mostrado cuenta con ocho anillos y en la figura se muestran en azul las LORs aceptadas y en rojo y línea punteada las LORs frenadas

37

por las septas. En el esquema de la derecha se muestran algunas LORs admitidas en el modo de adquisición 3D. Se puede observar cómo se aceptan LORs entre anillos diferentes.

2.4.6. Generación de la Imagen PET Las líneas de respuesta adquiridas a partir de dos fotones en coincidencia temporal deben ser procesadas para generar una imagen que represente la distribución espacial del radiotrazador en el campo de visión. Para lograr esto se deben utilizar los algoritmos de reconstrucción tomográfica que se describirán en el próximo capítulo, pero previamente los datos deben ser procesados y almacenados de forma adecuada. La forma de hacer esto último dependerá del modo de adquisición del scanner y de otros parámetros del mismo. El modo más sencillo de tratar los datos es en el modo de adquisición 2D, donde se trata las coincidencias de cada anillo de forma independiente. Para cada anillo, las LORs se almacenan en un histograma de dos dimensiones que se denomina sinograma. Las LORs se representan con coordenadas polares mediante: (2.14) siendo r la distancia perpendicular a la LOR desde el origen y θ el ángulo que forma dicha perpendicular con el eje x. En la Figura 2.8 se representan gráficamente dichos parámetros. El sinograma llenado para cada anillo es una matriz donde en las filas se representan los ángulos θ y en las columnas las distancias r. En cada elemento, también llamado bin, se almacenan LORs con la misma dirección, como se puede observar en la Figura 2.8. El total de cuentas medidas a lo largo de cada línea de respuesta será proporcional al registro de la actividad a lo largo de dicha LOR. Cada fila del sinograma representa la proyección de la imagen en un ángulo θ cuyos valores van entre 0º y 180º. Las proyecciones entre 180º y 360º no son necesarias ya que son simétricas a las primeras. Cada sinograma 2D tiene algunas decenas de miles de bins, donde se colectan millones de eventos. Se puede observar que la reducción del volumen de datos, gracias a la utilización de un histograma, es considerable.

38

Figura 2.8. Llenado de sinograma durante el procesamiento de los datos. Cada LOR adquirida es parametrizada mediante la distancia r y el ángulo θ, y luego se incrementa el valor del elemento del sinograma correspondiente a esos valores de r y θ. Como resultado se obtienen en cada fila las proyecciones de la distribución de actividad en ángulos equiespaciados entre 0º y 180º.

El tamaño del sinograma depende de la resolución espacial en los detectores. Se puede reducir juntando pares de columnas contiguas, con el objetivo de reducir el volumen de los datos y aumentar las cuentas por cada elemento del sinograma, ya que esto último reduce el ruido estadístico en el mismo. Cuando el scanner PET trabaja en modo de adquisición 3D, la LOR ya no es una recta en un plano del campo de visión, sino que se encuentra en todo su volumen. La parametrización de las LORs 3D se realiza con los parámetros θ, r, z1 y z2, donde θ y r tienen el mismo significado que en una LOR 2D y se calculan respecto de la proyección de la recta sobre el plano transversal XY, mientras que z1 y z2 son las coordenadas en el eje axial z de cada una de las coincidencias [35][36]. En sistemas con detectores pixelados z representa el índice del anillo detector, mientras que en equipos con detectores continuos es la coordenada axial dentro del mismo. La proyección de la LOR 3D sobre el plano YZ genera una recta que une los puntos (z1,y1) y (z2,y2). También se suele utilizar los parámetros z0 y Δz en reemplazo de z1 y z2, donde:

39

(2.15) (2.16) Entonces toda LOR 3D quedará definida en función de (θ, r, z1, z2) o (θ, r, z0, Δz). En la Figura 2.9 se puede observar geométricamente el significado de estos parámetros mediante la proyección de una LOR 3D sobre los planos XY e YZ.

Figura 2.9. Representación de una LOR en adquisición 3D. La recta se proyecta en el plano XY y se obtienen las coordenadas polares de su proyección, adicionalmente se obtienen las coordenadas axiales en z de los dos eventos. Con esos cuatro parámetros queda definida la línea de respuesta.

El almacenamiento de las LORs de adquisición 3D se puede realizar mediante histogramas, con lo que se denominan sinogramas 3D o michelogramas, o en modo lista. En este último, se guardan los datos de cada coincidencia de forma individual mediante las coordenadas exactas de la línea de respuesta y opcionalmente se pueden registrar otros datos útiles como por ejemplo la energía de los eventos en coincidencia. La elección del modo de almacenamiento depende del volumen de los datos, que está muy relacionado a la resolución espacial. La cantidad de bins necesarios para un sinograma 3D alcanza a varias decenas de millones. Si se tiene en

40

cuenta que en un estudio 3D la cantidad de coincidencias puede ir desde decenas de millones a algunos cientos, ya no es tan ventajoso trabajar con histogramas. Por lo tanto, cuando la cantidad de bins es similar o mayor a la cantidad de eventos colectados en un estudio promedio, se opta por guardar los datos en modo lista. Este último cuenta con la ventaja de que no tiene pérdida de información espacial como ocurre en el proceso de llenado del sinograma y se adapta especialmente al caso de detectores con cristales continuos y/o que tienen movimientos de rotación. En el modo histograma para adquisición 3D, se deben almacenar coincidencias que ocurren dentro de un mismo o entre otros anillos [9]. A tal efecto se utilizan múltiples sinogramas 2D, para las distintas combinaciones de anillos de los dos eventos. Los sinogramas que corresponden a un mismo anillo se llaman directos, mientras que al resto oblicuos. El número de sinogramas oblicuos depende de la cantidad de anillos disponibles en el scanner y de la máxima diferencia entre anillos o máximo ángulo de incidencia admitido en las coincidencias oblicuas. El conjunto de sinogramas bidimensionales con todas las combinaciones de anillos se llama sinograma 3D o michelograma. El mismo contiene un sinograma 2D para cada combinación de anillos, ordenados en una matriz según los parámetros z1 y z2 de las LORs 3D (Ver Figura 2.9). En la matriz las columnas representan las posiciones en el eje axial o anillo del primer evento, mientras que las filas representan la posición axial o anillo del segundo (ver michelograma de ejemplo en la Figura 2.10). Los parámetros que caracterizan un michelograma son la cantidad de anillos, la máxima diferencia entre anillos y el span. Este último parámetro define cantidad de sinogramas que se combina por posición axial con el objetivo de reducir el tamaño de los datos y aumentar las cuentas por bin para reducir el ruido estadístico. Para un valor de span, se generan grupos de sinogramas de dos cantidades diferentes, una par y otra impar diferenciadas en la figura con trazas diferentes. Esta fusión de sinogramas genera grupos que tienen una diferencia entre anillos equivalente denominados segmentos. En la Figura 2.10 se encuentra un Michelograma con span 7 y con sus segmentos marcados. Se muestra también cómo son fusionados los sinogramas de distintos anillos según el span utilizado.

41

Figura 2.10. A la izquierda un michelograma de ejemplo. Cada punto de la matriz es un sinograma para una combinación de anillos dada. Los sinogramas unidos con líneas son unificados en un único sinograma para reducir los datos. Los de líneas punteadas tienen cuatro sinogramas fusionados, mientras que los de línea solido tres. La suma de ambos da un valor de span de siete para este michelograma. A la derecha se muestra como se fusionan los sinogramas para esta configuración.

2.4.7. Corrección de los Datos Adquiridos Los datos adquiridos en los tomógrafos PET deben ser corregidos a causa de distintos factores físicos y geométricos que distorsionan y degradan la medición. Las correcciones se pueden aplicar sobre los sinogramas, directamente sobre las coincidencias o durante el proceso de reconstrucción de la imagen. Los factores físicos que más influyen, cuya corrección es mandatoria, son la atenuación y la dispersión [3]. Ambos efectos son generados por las interacciones de los fotones con el cuerpo del paciente. Cuando el fotón es absorbido por efecto fotoeléctrico, no será detectado en el scanner. Como consecuencia, aquellas LORs que atraviesen zonas más densas serán más atenuadas y por lo tanto las cuentas obtenidas en esa dirección resultarán menores. De esta forma, si no se corrigiera este efecto habría una distorsión que aparentaría que en el centro del cuerpo del paciente hay menos actividad que la que realmente hay. La atenuación en un medio está dada por el coeficiente de atenuación lineal. Por tal razón, para poder estimar cuánto se atenúa cada LOR adquirida es necesario tener un mapa de los coeficientes de

42

atenuación lineal del cuerpo presente en el campo de visión [37]. Para obtener este mapa, se suele acompañar al scanner PET de un CT (X-ray computed tomography) que realiza una tomografía computada de rayos X [38][39]. La ventaja de obtener el mapa de atenuación con un CT es que se obtiene una imagen de alta resolución con el mapa de los coeficientes de atenuación lineal en un lapso muy breve. Como desventaja, se aumenta la dosis en el paciente considerablemente y se tiene el problema de llevar los coeficientes de atenuación obtenidos para rayos X (20-140 keV) a los de 511 keV de los fotones detectados en PET. Esto no es sencillo y los errores en ese proceso generan artefactos en la imagen PET, especialmente en zonas donde los rayos X son muy atenuados. Existe otra alternativa para obtener el mapa de atenuación y es mediante una adquisición de transmisión con los mismos detectores del scanner PET. Este era el método utilizado antes de la aparición de los scanners híbridos PET/CT. Para realizar el escaneo de transmisión se cuenta con una fuente puntual de 137Cs o 68Ge, que durante la adquisición se rota sobre el cilindro de detección [40][41][42]. Una vez que se finaliza este proceso se guarda la fuente en un compartimento blindado y se continúa con la adquisición PET. La desventaja de este método es que aumenta considerablemente el tiempo total de un estudio, ya que el escaneo de transmisión se realiza previamente y el tiempo que lleva es comparable con el del estudio de emisión posterior. Además la imagen es de poca calidad y se debe acompañar del segmentado [43] de la misma para identificar regiones uniformes del mapa de atenuación y reducir el ruido del mismo. Como ventaja, los coeficientes de atenuación lineal corresponden a la misma energía o a energías similares a la del proceso de emisión, por lo que no aparecen los artefactos que generan la corrección con CT. Con un mapa de coeficientes de atenuación se puede estimar cuánto se atenúa cada LOR del sinograma. En PET, la atenuación de una LOR detectada no depende de la posición donde fue emitido el positrón (Figura 2.11). Cada fotón es atenuado por la suma de las denominadas distancias de atenuación (el producto del coeficiente de atenuación lineal del material por la distancia que el fotón debe atravesar en su interior).

43

Figura 2.11. En PET la atenuación de una LOR está dada por el producto de la atenuación de ambos fotones, que es igual a la atenuación total a lo largo de toda la LOR sin importar la posición de emisión del positrón.

Como se observa en la ecuación (2.17) la atenuación total es el producto de la atenuación de cada fotón, ya que son eventos independientes. Como resultado se obtiene la suma de las distancias de atenuación a lo largo de toda la LOR sin importar la posición de emisión de los fotones. La suma de ambas distancias es la distancia total entre los dos detectores. (2.17) = En lo que respecta al scatter o dispersión, muchos fotones que interactúan por efecto Compton en el cuerpo bajo estudio llegan al detector con menos energía, pero de todas formas entran en la ventana por la resolución limitada del detector. Las coincidencias que sufrieron de dispersión generan LORs erróneas por lo que agregan ruido a la imagen. Como consecuencia, se empeora la relación señal ruido y el contraste de la imagen. Para corregir este inconveniente, se busca estimar la cantidad de eventos de dispersión en el estudio realizado, para luego restarlo a los datos adquiridos. Hay distintos métodos para la estimación del scatter [44], los hay basados en múltiples ventanas de energía [45][46][47], en estimaciones analíticas teóricas [48][49][50][51] y en simulaciones Monte Carlo [52][53]. Las dos últimas necesitan el mapa de atenuación para realizar la estimación. Tanto los métodos de 44

simulación analíticos como los basados en Monte Carlo son muy complejos y muy costosos computacionalmente. Además de la atenuación y la dispersión, es importante corregir las coincidencias aleatorias. Su efecto de degradación en la imagen es similar al del scatter, ya que agrega coincidencias con LORs erróneas. Sin embargo, la corrección de las coincidencias aleatorias es relativamente sencilla. En ella se utiliza una ventana de coincidencias demorada entre los distintos detectores. De esta forma, al desincronizar los detectores todas las coincidencias resultantes son aleatorias y se puede generar un sinograma de eventos randoms. Este último se restará al sinograma originalmente adquirido. Otros factores físicos que se pueden corregir para mejorar la resolución de las imágenes, son el alcance del positrón antes de su aniquilación y la no colinearidad de los dos fotones gamma. Por último, hay correcciones relacionadas con la geometría del scanner. Por ejemplo, se debe corregir que las LORs de los sinogramas no están equiespaciadas, como se supone teóricamente; esto se denomina corrección de arco y depende de la geometría del scanner. Además, se deben aplicar pesos de corrección según la sensibilidad de cada detector del scanner y se puede modelar la respuesta del sistema para cada combinación de detectores. Esto último se puede implementar mediante una PSF (point spread function), que es la respuesta del sistema a una fuente puntual en las distintas regiones del campo de visión.

2.5.

Tomografía SPECT

En las tomografías de fotón único SPECT (Single Photon Emission Computed Tomography) los radioisótopos utilizados para marcar la molécula químicamente activa emiten un único fotón gamma en una dirección aleatoria. Dicha radiación es medida con un detector sensible a la posición de interacción que puede ser continuo o pixelado. El detector cuenta con un colimador para recibir fotones de un ángulo de incidencia acotado. Su apertura física define cuán angosto es el cono visto por cada elemento del detector. Como consecuencia de esto, la mayoría de los fotones incidentes son frenados en el detector y, por lo tanto, la sensibilidad de estos

45

sistemas es muy baja. El detector rota alrededor del paciente para obtener las proyección en ángulos que van entre 0º y 360º. En SPECT no se puede aplicar la misma simetría que en PET para reducir los ángulos de proyecciones hasta 180º, ya que la atenuación afecta de manera distinta a las proyecciones simétricas. En la Figura 2.12 se muestra cómo el colimador permite rayos gamma incidentes solo en un ángulo muy acotado. También se puede observar cómo el scatter también afecta a este tipo de tomografía.

Figura 2.12. Principio de funcionamiento de la tomografía SPECT. El radioisótopo emite un único fotón gamma que es detectado en ángulos incidentes perpendiculares al detector mediante la utilización de un colimador. En la imagen se muestra en rojo una emisión que es frenada en el colimador, en verde un fotón detectado ya que tiene el ángulo de incidencia adecuado y en azul uno que adquiere el ángulo de incidencia correcto luego de una interacción Compton en el paciente. El detector rota alrededor del paciente para obtener la proyección en ángulos que van desde 0º a 360º.

Existen distintas geometrías para los colimadores. La más sencilla consta de un bloque de material blindante, como por ejemplo plomo o tungsteno, y un gran número de agujeros de diámetro pequeño (aproximadamente 2 mm). El mismo tiene un espesor lo suficientemente grueso como para frenar la radiación incidente (para fotones de 140 keV se suele utilizar un espesor de 30 mm) y es colocado sobre la superficie del detector. Otro tipo de geometría de colimador es la de pinhole, que consiste en un único agujero muy pequeño colocado sobre un bloque de material blindante y ubicado a cierta distancia de la superficie del detector. Los detectores para SPECT tienen características similares a los de PET, ya que se

46

usan cristales centelladores tanto continuos como pixelados. Como la energía de los fotones a detectar es menor, se pueden utilizar cristales de espesor más bajo. Además al contar con colimación física en vez de electrónica, los requerimientos en la tasa de detección son menores. El procesamiento de los datos se realiza generando sinogramas igual que en PET, pero en este caso las proyecciones van entre 0º y 360º. Los eventos utilizados son los fotones detectados que caen dentro de la ventana de energía. En SPECT se debe corregir la atenuación, el scatter y tener en cuenta la apertura del colimador.

2.5.1. Corrección de los Datos Adquiridos En SPECT la atenuación depende de la posición de emisión del fotón gamma, ya que esta determina el largo del recorrido del fotón en el medio atenuante (Figura 2.13), por cuya razón la corrección por atenuación no se puede realizar para una LOR del sinograma.

Figura 2.13. En SPECT la distancia de atenuación L depende de la posición de emisión del fotón gamma.

La atenuación de cada fotón emitido está definida en la ecuación (2.18) y como se puede observar los límites de integración dependen de la distancia L, que depende de cada emisión y no es conocida, a diferencia de PET donde se integra a lo largo de la distancia entre detectores.

47

(2.18) En las tomografías de fotón único también existe el efecto indeseado de la radiación dispersa, ya que fotones que cambian su dirección en el medio pueden incidir en el cono visto por el colimador. A estos factores, presentes también en PET, se pueden agregar otros a ser tenidos en cuenta exclusivamente en SPECT, por la utilización de un colimador. Uno de ellos es que la resolución espacial depende de la distancia al detector, ya que la apertura del cono visto por el mismo aumenta con la distancia. Además, se debe tener en cuenta que el colimador puede no blindar totalmente la radiación incidente en las direcciones prohibidas. Esto genera un número de eventos erróneos que han sido detectados como válidos.

2.5.2. Aplicaciones En este tipo de tomografía para medicina nuclear el radio nucleído más utilizado es el tecnecio (99mTc), cuyos fotones emitidos tienen una energía de 140 keV. Su aplicación más importante es la evaluación del estado funcional del corazón y del bombeo de sangre. Las imágenes obtenidas permiten diagnosticar enfermedades cardiacas y evaluar si es conveniente o no realizar una cirugía. Además, esta técnica se puede utilizar para aplicaciones fuera del campo de la medicina nuclear. Este es el caso de la tomografía de contenedores de residuos radiactivos, dónde se generan imágenes tomográficas con la distribución espacial de los radioisótopos presentes en tambores utilizados para almacenar residuos nucleares. En estos contenedores hay múltiples radioisótopos presentes, por lo que se debe poder identificar a cada uno de ellos para luego generar su correspondiente imagen de actividad. Para ello, se requiere que el sistema cuente con la capacidad de realizar espectrometría para identificar los radioisótopos y la de tomografía para generar las imágenes de distribución. La tomografía es similar a la de medicina nuclear, ya que los radioisótopos emiten un único fotón gamma por cada decaimiento radiactivo. En esta aplicación el radioisótopo ya se encuentra presente en el sistema bajo estudio, a diferencia de las aplicaciones de medicina nuclear donde el radioisótopo es inyectado en el paciente. La necesidad de trabajar con múltiples radioisótopos emisores de fotones gamma con energías que pueden ir de unos pocos keV hasta más de 1 MeV y los bajos requerimientos de resolución 48

espacial, hacen que los detectores utilizados sean distintos a los de SPECT para medicina nuclear. En el Capítulo 7 se describe detalladamente esta aplicación de las tomografías de fotón único.

2.6.

Espectrometría Gamma

La espectrometría gamma es un método que permite obtener la energía de la radiación gamma incidente en un detector y, con dicha información, identificar los distintos emisores gamma presentes. Esto es factible gracias a que la mayoría de los radionucleidos producen rayos gamma con una o varias energías características [54]. Como se ha explicado anteriormente, la detección de los fotones gamma se realiza mediante la interacción del fotón con el material del detector, donde la energía total o parcial es transferida a electrones que son liberados de los átomos del material. La energía de cada evento detectado es almacenada en un histograma o espectro de energía. Dependiendo del tipo de interacción que ocurra producirá un efecto distinto en el espectro. Cuando la interacción es por efecto fotoeléctrico, la totalidad de la energía es absorbida y esto hace que se observe un pico en el espectro correspondiente a la energía del fotón gamma. Al mismo se lo llama fotopico. Cuando la interacción es del tipo Compton, el fotón deja solo parte de su energía en el detector. El nuevo fotón viaja con la energía remanente y puede volver a interactuar con el detector. La energía obtenida y almacenada en el espectro es la de la suma de todas las interacciones. Por último, cuando el fotón tiene más de 1,022 MeV puede haber creación de pares y en ese caso se observa un pico con la energía remanente. Un efecto que suele observarse es la retrodispersión, que se origina cuando el fotón interactúa con otros materiales circundantes al detector por efecto Compton con ángulos de dispersión cercanos a 180o; se genera así en el espectro un pico con menor energía que la del pico de absorción total. En la Figura 2.14 se puede observar un espectro ideal para la medición de un radioisótopo con emisiones gamma de una única energía característica menor que 1,022 MeV, por lo que no se ven los picos adicionales (de energía igual a E -511 keV y E - 1022 keV) resultantes de la producción de pares. La relación entre la cantidad de cuentas entre la zona de Compton y el pico de absorción total depende

49

principalmente del poder de frenado del detector y de sus dimensiones, ya que mientras más grande sea, más posibilidad hay que el fotón deje toda su energía en el detector (por efecto fotoeléctrico o por efectos Compton sucesivos). El ancho del pico depende de la resolución en energía del detector. El pico se ensancha cuanto menor es la resolución y puede solaparse con la zona de Compton. Cuando la fuente se encuentra rodeada por material atenuador se observa un crecimiento en la zona de Compton y disminución del fotopico, ya que muchos fotones dejan parte de la energía antes de llegar al detector.

Figura 2.14. Espectro ideal de energía para un radioisótopo que emite fotones con una única energía, menor que 1,022 MeV y sin material entre la fuente y el detector.

Cuando existen varios radioisótopos presentes el espectro cuenta con la totalidad de los eventos provenientes de los distintos radionucleidos, por lo que se tienen todos los picos y las distintas zonas de Compton acumuladas. Esto hace que sea necesario tener una buena resolución en energía para poder identificar los distintos picos y que ellos no se superpongan. Adicionalmente, los eventos Compton generados de los radioisótopos de mayor energía se solaparán con los picos de los de menor energía. Una buena resolución hace que el pico tenga mayor altura y disminuya el efecto de su solapamiento con el fondo de los eventos Compton de otros radioisótopos. Los mejores detectores para espectrometría son los semiconductores de germanio hiperpuro (HPGe) que pueden lograr una resolución de energía de aproximadamente 0,3 % FWHM para 662 keV. La desventaja de este tipo de detector es su baja eficiencia y que requiere un sistema de enfriamiento para funcionar. Por otro lado, se 50

puede hacer espectrometría con cristales centelladores como los descriptos en la Tabla 2-1. La espectrometría gamma es utilizada en el ensayo no destructivo de tambores de residuos radiactivos y forma parte del sistema tomográfico presentado en el Capítulo 7. La espectrometría permite identificar los radioisótopos presentes en el contenedor, para luego generar una imagen con la distribución espacial de cada uno de ellos.

2.7.

Simulación de Sistemas

El uso de simulaciones es de gran importancia para el diseño de nuevos equipos de tomografía gamma, para el desarrollo de algoritmos de reconstrucción tomográfica o para implementar métodos de corrección de scatter en PET y SPECT. Las complejas geometrías de los detectores, los procesos físicos involucrados y la interacción de los fotones con las estructuras muy variadas de los fantomas, pacientes o estructuras bajo estudio hacen que los modelos analíticos sean poco representativos. Por esta causa, se utilizan métodos de Monte Carlo en las simulaciones de sistemas de tomografía gamma [55]. Además, estos métodos se ajustan perfectamente a la naturaleza estocástica de la emisión de radiación, la interacción con el medio y su detección. Las simulaciones Monte Carlo se basan en la descripción de un sistema mediante funciones de densidad de probabilidad (FDP). Durante el proceso de simulación se muestrean dichas FDP utilizando un generador de números aleatorios entre 0 y 1 con distribución uniforme. La emisión de los fotones en el cuerpo bajo estudio y su transporte por un medio físico es simulado mediante este muestreo de FDPs, hasta que el fotón escapa del volumen de interés y es absorbido en el medio o en el detector. Los resultados de cada fotón generado son almacenados para poder luego analizar los resultados de la simulación. De esta forma se puede simular el proceso de adquisición de un fantoma, teniendo en cuenta factores como la dispersión, la atenuación, la eficiencia de los detectores, etc. Los tiempos de ejecución de este tipo de simulaciones son muy grandes, ya que se procesa cada fotón de forma individual y en la adquisición de una imagen están involucrados cientos o miles de millones de fotones.

51

Existe una gran variedad de códigos Monte Carlo desarrollados especialmente para simular sistemas PET y SPECT, pero los mismos tienen problemas de soporte o no están del todo validados. Por otro lado, existen códigos precisos, validados, versátiles y con buen soporte para simulación de física de grandes energías, como los son el MNCP [56] y el Geant4 [57][58][59]. Sin embargo, estas herramientas son más complejas de utilizar. Por las consideraciones anteriores, una de las soluciones más adecuadas para simular sistemas PET y SPECT es la aplicación GATE (Geant4 Application for Tomographic Emission) [14][15][16] basada en Geant4, que reúne los beneficios de los dos tipos de códigos mencionados previamente. Por un lado, se cuenta con la validez de los procesos físicos del Geant4 y por otro, una interfaz sencilla para el usuario orientada específicamente a simular sistemas de medicina nuclear. GATE permite definir geometrías de detección, fuentes radiactivas puntuales o distribuidas, fantomas complejos, cadenas de procesamiento de eventos e incluso opciones más avanzadas, como detectores con movimientos o fuentes radiactivas dinámicas. Este software ha sido validado con distintos tomógrafos comerciales. Para generar una simulación se debe definir un volumen, llamado world, donde estarán incluidos todos los elementos físicos que forman parte de la misma. Se pueden definir distintos tipos genéricos de scanners o sistemas, como por ejemplo Cylindrical PET, ECAT, SPECT Head, etc. Las características de cada sistema limitarán las propiedades o geometrías a definir. Para cada scanner se define una geometría que puede estar formada por múltiples detectores que se repiten en el espacio (En la Figura 2.15 se puede observar una geometría definida con GATE). Dentro de la geometría se debe definir además de sus dimensiones, el tipo de material utilizado. Existe una amplia gama de materiales que pueden ser simulados, incluyendo los cristales centelladores utilizados en medicina nuclear. En cada simulación se debe indicar cuál es el objeto de detección (denominado sensitive detector), ya que solo los eventos que depositen energía en ese objeto serán almacenados en los archivos de salida de la simulación.

52

Figura 2.15. Ejemplo de una geometría de detección realizada con GATE. El scanner es un sistema del tipo CylindricalPET, formado con múltiples detectores agrupados en bloques.

Cada interacción de un fotón gamma con el sensitive detector registrará un tipo de evento denominado hit. Todos los hits son procesados por una cadena de procesamiento que genera el evento single. Para eso se debe indicar como se suman las energías de los eventos hits y el resto de la electrónica de readout. La cadena de procesamiento se puede configurar con distintos módulos para simular de forma completa las distintas características del scanner. Por ejemplo, se puede agregar la resolución en energía del detector, la resolución temporal, la resolución espacial de un detector continuo, el apilamiento o el tiempo muerto entre otros. En la Figura 2.16 se puede observar una cadena de procesamiento típica.

Figura 2.16. Ejemplo de una cadena de procesamiento de eventos singles formada por múltiples módulos que hacen que se colecten y sumen las distintas interacciones (hits) de un fotón con un sector configurable del detector. Además se incluyen módulos para configurar la resolución en energía y espacial del detector, un discriminador de eventos por umbral de energía y el tiempo muerto del detector. Imagen obtenida de [16].

A partir de una cadena de procesamiento de singles, se puede configurar una ventana

53

temporal para generar la salida de coincidencias. Adicionalmente, se pueden agregar ventanas de tiempo demoradas para poder realizar estimación de randoms. En cuanto a las fuentes y fantomas, se pueden definir a partir de formas geométricas predefinidas con una actividad o material dado, o para casos más complejos de forma voxelizada. En este último modo, se tiene una imagen volumétrica para la distribución de la actividad de las fuentes radiactivas y otra con un mapa de los coeficientes de atenuación lineal de los materiales que forman el fantoma. La simulación es ejecutada en pasos fijos de tiempo (time-steps) que sirven para sincronizar los movimientos y la actividad de la fuente. Durante cada paso los elementos geométricos se encuentran fijos, al igual que la actividad en cada fuente. En el cambio de paso, se actualizan las posiciones de los objetos, si es que estos tienen algún movimiento definido, y la actividad de la fuente se actualiza según la ley de decaimiento exponencial. La ejecución continúa paso por paso hasta llegar al tiempo final de la misma. Los resultados de salida se pueden generar en distintos formatos, pero el más genérico y completo es en formato ASCII. Se puede generar una salida con los hits, una por cada cadena de procesamiento de singles y lo mismo para la de coincidencias. En la salida de tipo ASCII se guarda una lista con un registro de cada evento detectado. La información que se registra por cada uno de ellos es el tiempo del evento, la posición de detección en el sistemas de coordenadas global, la posición donde ocurrió el decaimiento radiactivo que generó el fotón detectado, la energía del mismo, la cantidad de interacciones Compton previas a la detección, etc. En esta tesis se utiliza la aplicación GATE para poder evaluar las prestaciones del AR-PET, ajustar sus parámetros y generar datos para evaluar los algoritmos de reconstrucción tomográfica. A su vez, se utilizó esta herramienta para diseñar el sistema SPECT para ensayo de contenedores con residuos radiactivos y generar datos simulados para evaluar los algoritmos de reconstrucción de imagen.

54

Capítulo 3

Algoritmos de Reconstrucción de Imagen en Tomografías de Emisión El objetivo de los algoritmos de reconstrucción en las tomografías de emisión, tanto para PET como para SPECT, es generar imágenes precisas que cuantifiquen la distribución de uno o más radioisótopos en el cuerpo bajo estudio. En el caso de PET, se busca obtener la distribución de un radiotrazador emisor de positrones mientras que en SPECT la distribución corresponde a un emisor gamma. La reconstrucción es necesaria porque los eventos adquiridos tanto en PET como SPECT solo definen la posición del átomo emisor a lo largo de una línea de respuesta (LOR). A grandes rasgos los algoritmos para ambos métodos son similares, habiendo solo algunas diferencias como consecuencia de tener principios físicos de funcionamiento distintos. Los métodos de reconstrucción utilizan la radiación escaneada como información de entrada. Como se mencionó en el capítulo anterior, la misma puede estar ordenada en sinogramas, michelogramas o en modo lista. A su vez, los datos pueden adquirirse en modo 2D o 3D. Todos estos factores influyen en los algoritmos a utilizar y la implementación que se hace de cada uno de ellos. Hay una gran variedad de algoritmos utilizados en la reconstrucción tomográfica, que se dividen en dos grandes grupos: los métodos analíticos y los iterativos. Los 55

primeros se basan en los principios matemáticos de la tomografía computada que relacionan una imagen bidimensional con sus proyecciones utilizando la transformada de Radon [60][61][8][4]. El segundo grupo tiene en cuenta la naturaleza estocástica de los datos adquiridos y utiliza un algoritmo de optimización iterativo para encontrar la imagen más consistente con los datos medidos [8][7][4]. Para esto se necesita modelar el proceso de adquisición de los datos. Los métodos analíticos fueron los más utilizados por muchos años. Los algoritmos iterativos existen desde hace varias décadas, pero recién en los últimos diez años se han empezado a utilizar en equipos comerciales por su alto costo computacional. En este capítulo se introducirán los algoritmos analíticos e iterativos más importantes. Primero se considerará el caso de adquisición 2D, donde los datos son más fáciles de interpretar y procesar, para luego extender el tratamiento al modo 3D. Para esta última modalidad, existen múltiples opciones en el manejo de los datos y la implementación de algoritmos, que también serán revisadas.

3.1.

Reconstrucción 2D

Como se explicó en el capítulo anterior, en las tomografías 2D solo se consideran las líneas de respuesta que yacen sobre un mismo plano o slice. Por cada uno de ellos se obtiene un sinograma bidimensional. El algoritmo de reconstrucción se encarga de generar una imagen bidimensional a partir de dicho sinograma. De esta forma, para reconstruir un volumen que cuenta con n slices, se realizan n reconstrucciones bidimensionales independientes. En la Figura 3.1 se encuentra un ejemplo de generación de un sinograma simulado computacionalmente para una imagen propuesta como fantoma. El sinograma es una matriz que en cada fila tiene la proyección de la imagen para un ángulo dado. En este caso el sinograma cuenta con 180 proyecciones equiespaciadas en 1º. Este proceso es equivalente a lo obtenido en una adquisición PET. Sin embargo, en este último el sinograma cuenta con varios factores que lo alteran y lo distorsionan. Estos pueden ser factores geométricos, ya que las proyecciones dependen de la disposición de los detectores, como también factores físicos como la atenuación y el scatter. Para compensar esto, se pueden realizar correcciones sobre el sinograma para que se

56

aproxime de la mejor manera al ideal. Además los sinogramas generados en una adquisición PET tienen ruido estadístico por la naturaleza Poisson del proceso mismo.

Figura 3.1. Ejemplo de la generación de un sinograma para la imagen que se observa arriba y a la izquierda. Cada fila del sinograma es la proyección de la imagen en un ángulo dado. En la figura se muestran las proyecciones en 0º, 40º y 80º. Las filas correspondientes a cada proyección se encuentran remarcadas en el sinograma de la derecha.

3.2.

Métodos Analíticos 2D

Los métodos analíticos de reconstrucción se basan en la transformada de Radon [62], que se define como: (3.1)

La misma indica que una imagen o función bidimensional f(x,y) puede representarse por sus proyecciones R(r,θ), que sería otra función bidimensional continua, a través de integrales de línea de f(x,y) a lo largo de rectas definidas en coordenadas polares: (3.2)

La función R(r,θ) es el equivalente al sinograma de una adquisición PET, por lo que 57

para un valor dado de θi, R(r,θi) es la proyección de la imagen en ese ángulo. Los métodos de reconstrucción tomográfica deben reconstruir la función f(x,y) a partir de R(r,θ). Esta operación se denomina retroproyección y una primera aproximación intuitiva al problema indica que se debería promediar los valores de todas las rectas R(r,θ) que cruzan un punto f(x,y): (3.3)

Si uno reconstruye la función f(x,y) con esta fórmula de inversión se observará que la imagen queda borrosa. Esto se debe a que la ecuación (3.3) no es la fórmula de inversión exacta. Para obtener esta fórmula exacta se lo debe hacer indirectamente, pasando R(r,θ) al dominio de Fourier y utilizar el Teorema de la Sección Central de Fourier. Dicho teorema expresa que la transformada de Fourier unidimensional de la proyección con ángulo θi es igual a la transformada de Fourier bidimensional de la imagen evaluada en un corte radial con ese mismo ángulo. La transformada de Fourier de una proyección de R(r,θ) queda definida por: (3.4)

Mientras que la transformada bidimensional de la imagen es: (3.5)

De esta forma el Teorema de la Sección Central de Fourier indica que: (3.6)

Estas ecuaciones indican que si la cantidad de proyecciones fueran infinitas, se podría obtener f(x,y) a través de la transformada inversa de Fourier de

.

Sin embargo, cuando las proyecciones se obtuvieron en una cantidad de ángulos acotada se generan inconvenientes como se puede deducir a partir del Teorema de la Sección Central de Fourier. En la Figura 3.2 se puede ver que al tener proyecciones limitadas, la función F(ωx,ωy) se evalúa en cortes radiales equiespaciados angularmente, pero la cantidad de muestras no se distribuyen de forma uniforme en F(ωx,ωy). Hay un sobremuestreo de la zona central del espectro, es decir de las componentes de baja frecuencia, y un submuestreo de la región de alta frecuencia.

58

Esto hace que las altas frecuencias, que representan los detalles de la imagen, se estimen con mayor error. Como consecuencia, cuando se utiliza la ecuación (3.3) se obtiene una imagen borrosa o suavizada.

Figura 3.2. El Teorema de la Sección Central de Fourier muestra que la transformada de Fourier de las proyecciones es igual a evaluar la transformada de la imagen f(x,y) en la recta con la dirección de la proyección. En la imagen de la derecha se observa la transformada de Fourier de la imagen y las distintas proyecciones. Se observa que cuando la cantidad de proyecciones es limitada, la cantidad de muestras obtenidas en el dominio de la frecuencia no están uniformemente distribuidas sino que en la zona central hay más muestras que en la periferia.

De lo anteriormente mencionado surge la necesidad de obtener una fórmula exacta para la transformada inversa de Radón. Para esto se parte de la transformada inversa de Fourier de F(ωx,ωy): (3.7)

En la ecuación (3.7) se reemplaza

por

utilizando el Teorema de

la Sección Central de Fourier. Para ello hay que reemplazar el sistema de coordenadas rectangular en el dominio de las frecuencias por el polar y a su vez sus diferenciales: (3.8)

Con este reemplazo y aplicando la simetría a 180º se llega a: (3.9)

Lo que se observa en la ecuación (3.9) es que la transformada de cada proyección debe ser multiplicada por

, que es equivalente a multiplicar por un filtro rampa 59

pasa altos. De esta forma se obtiene la inversión de la Transformada de Radon y la misma da origen al algoritmo de reconstrucción tomográfico denominado Retroproyección Filtrada (FBP: Filtered Back-projection). A continuación se presentan algunos de los algoritmos derivados de la Transformada de Radon. En ellos se debe tener en cuenta que el sinograma y la imagen a reconstruir en PET son discretas y no continuas como en la transformada mencionada.

3.2.1. Retroproyección La retroproyección o backprojection es la operación inversa a la proyección de una imagen. Se relaciona con la ecuación (3.3), por lo que la imagen se genera a partir de una superposición lineal de las proyecciones. En las proyecciones se tiene la cantidad de eventos adquiridos para cada línea de respuesta (LORs) representada en coordenadas polares por los parámetros r y θ, donde θ es el ángulo de la proyección y r es la distancia al origen de cada muestra de la proyección. La operación de retroproyección se inicia con la matriz imagen con todos sus píxeles en cero. Luego se debe sumar cada proyección con ángulo θi en la imagen. Esto se puede implementar de distintas formas. En una de ellas, cada LOR es dibujada sobre la imagen y a todos los píxeles interceptados se les suma el valor resultante de la multiplicación de la cantidad de eventos adquiridos en esa LOR por un peso proporcional al largo del segmento de intersección entre la LOR y cada píxel. Esta operación es repetida para todas las LORs del sinograma. Resumiendo, el valor de cada píxel de la imagen estará dado por una suma ponderada de todas las LORs que lo atraviesan. Otra forma de implementar la retroproyección es a partir de las coordenadas de los píxeles de la imagen. Para cada ángulo θi de las proyecciones, se calcula el valor de la coordenada r que interceptaría a cada píxel (x,y) de la imagen y se incrementa el valor de cada píxel con el correspondiente valor del sinograma R(r, θi). Como difícilmente cada píxel (x,y) se corresponda a un bin (r, θ) del sinograma, se necesita utilizar algún método de interpolación como por ejemplo vecino más próximo o el método bilineal. Esta operación se puede resumir en la siguiente ecuación: 60

(3.10)

donde Nθ es la cantidad de proyecciones que tiene el sinograma y θn es el ángulo de cada una de ellas. En la Figura 3.3 se puede observar cómo se forma la imagen a través de este proceso. En ella, con solo ocho proyecciones tomadas cada 20º, la imagen reconstruida se empieza a acercar a la imagen original. Por el limitado número de proyecciones se muestran algunos artificios. Además los círculos de mayor intensidad se observan difuminados por lo descripto en la sección anterior.

Figura 3.3. Ejemplo de la operación de retroproyección utilizando solo ocho proyecciones del sinograma de la Figura 3.1.

3.2.2. Retroproyección Filtrada La retroproyección filtrada (FBP) es el algoritmo de reconstrucción analítico de referencia para los sistemas tomográficos. Previamente se analizaron los fundamentos matemáticos de la inversión de la Transformada de Radon y se obtuvo la ecuación (3.9). Para el caso de una adquisición PET/SPECT, R(r,θ) es una función discreta, por lo que se la puede escribir como: (3.11)

La retroproyección filtrada se implementa a partir de la solución de la ecuación (3.9). Para esto, el algoritmo debe filtrar en frecuencia cada proyección. El filtro rampa

tiene el defecto de incrementar el ruido, por lo que se suelen utilizar

61

otros filtros que combinen la rampa con un filtro pasa bajos. La implementación del algoritmo tiene los siguientes pasos: 1. Se calcula la transformada de Fourier 1-D de cada proyección con ángulo θi del sinograma. Es decir, se calcula la transformada para cada fila del sinograma, obteniendo

.

2. Se multiplica la respuesta en frecuencia de cada proyección (

con

la respuesta en frecuencia del filtro a aplicar. 3. Se realiza la transformada inversa de Fourier 1-D de los

filtrados,

obteniendo un nuevo sinograma. 4. Se realiza la retroproyección del sinograma obtenido en el punto 3 utilizando el método descripto en 3.2.1. Los filtros utilizados comúnmente se caracterizan por tener la misma respuesta que el filtro rampa para las bajas y medias frecuencias, pero atenúan las altas para reducir el nivel de ruido de la imagen. La frecuencia de corte de los filtros debe ser mayor que

, siendo Δr la separación entre las muestras de las proyecciones, para

no degradar la resolución espacial del sistema. Los filtros usados en FBP pueden visualizarse en la Figura 3.4 y responden a las siguientes respuestas en frecuencia: Filtro Shepp-Logan: (3.12)

Filtro Coseno: (3.13)

Filtro Hamming: (3.14)

Filtro Hann: (3.15)

62

Figura 3.4. Respuestas en frecuencia de los filtros Rampa, Shepp-Logan, Coseno, Hamming y Hann. Todas para una frecuencia de corte relativa de 1.

3.2.3. Evaluación de la Retroproyección Filtrada En esta sección se analizará el comportamiento de la retroproyección filtrada para los distintos parámetros que la afectan, como la cantidad de proyecciones, el tipo de filtro utilizado y el ruido estadístico del sinograma. Con este fin se utilizan algunas rutinas de MATLAB y otros códigos propios generados para esa plataforma. Para iniciar, se compara la reconstrucción con la retroproyección con y sin filtro rampa de un sinograma generado computacionalmente del fantoma Shepp-Logan (Figura 3.5). El sinograma generado se realizó con 180 proyecciones. Los resultados de la reconstrucción se pueden observar en la Figura 3.6. En ella se observa que la retroproyección sin filtro, como la de la ecuación (3.3) y el algoritmo descripto en la sección 3.2.1, resulta en una imagen borroneada, como se anticipó previamente. Por lo contrario, la utilización del filtro rampa derivado de la formula de inversión más precisa (3.9) genera una imagen bien definida y que prácticamente no presenta diferencias con el fantoma original.

63

Figura 3.5. Fantoma Shepp-Logan.

Figura 3.6. Reconstrucciones del sinograma con 180 proyecciones del fantoma Shepp-Logan. A la izquierda, la reconstrucción se realizó sin el filtro rampa donde se obtiene una imagen borroneada. A la derecha, se realiza la retroproyección con el filtro rampa y la imagen obtenida es prácticamente igual al fantoma original.

Luego se examina la influencia de la cantidad de proyecciones en la reconstrucción. Recordamos que la cantidad de proyecciones en un sistema tomográfico estará directamente relacionada con la resolución espacial de los detectores. Para realizar el análisis se generan sinogramas con distinta cantidad de proyecciones del fantoma Shepp-Logan (Figura 3.5). Se utilizaron 180, 90, 60, 30 y 15 proyecciones. Cada uno de estos sinogramas fue reconstruido utilizando la retroproyección filtrada. Se empleó el filtro rampa ya que en estos sinogramas generados computacionalmente no hay presencia de ruido. En la Figura 3.7 se pueden observar los resultados 64

obtenidos. Se puede ver cómo la imagen empieza a perder calidad y resolución cuando las proyecciones no son suficientes. Esto se hace más notable a partir de las 30 proyecciones, donde la imagen ya presenta artificios considerables y los círculos más pequeños del fantoma ya no pueden ser visualizados.

Figura 3.7. Imágenes reconstruidas con el algoritmo de retroproyección filtrada para sinogramas con 180, 90, 60, 30, 15 y 8 proyecciones. En todos los casos se aplicó el algoritmo utilizando el filtro rampa.

Uno de los problemas fundamentales de las imágenes PET es el ruido estadístico producido por la escasez de cuentas adquiridas en el sinograma. Para analizar el efecto del ruido estadístico en la retroproyección filtrada, se simularon computacionalmente sinogramas a partir de un proceso Poisson. Esto se realizó desarrollando un código en MATLAB que simula la adquisición de un fantoma a 65

partir del valor esperado de eventos generados. Primero se obtiene la cantidad de eventos esperados en cada píxel. Luego se genera una cantidad de eventos aleatoria a partir de la media esperada en cada píxel. Los eventos generados tienen un ángulo de emisión aleatorio con distribución uniforme entre 0º y 180º. Cada evento generado es almacenado en el sinograma a partir del ángulo de emisión y el valor de r obtenido a partir de las coordenadas del píxel procesado utilizando la ecuación (3.2). En la Figura 3.8 se encuentran sinogramas generados con este código para el fantoma Shepp-Logan y con una cantidad de eventos que van desde aproximadamente 1.104 a 3.107. Los sinogramas son de 180 x 425 bins.

Figura 3.8. Ocho sinogramas simulados computacionalmente con un código de MATLAB que tiene en cuenta que el proceso de adquisición es del tipo Poisson. Cada sinograma tiene una cantidad de eventos aleatoria que va desde aproximadamente 1.104 a 3.107.

Los sinogramas fueron utilizados para observar la forma en que la retroproyección filtrada es afectada por el ruido estadístico. En primer lugar se realizó la reconstrucción tomográfica de cada uno de los sinogramas utilizando el filtro rampa

66

e interpolación bilineal. Las imágenes obtenidas son de 256 x 256 píxeles y pueden observarse en la Figura 3.9, donde se visualiza cómo el algoritmo de FBP es afectado en gran medida por el ruido Poisson. Recién cuando las imágenes son obtenidas con los sinogramas de 1.107 eventos o más se logra obtener una calidad aceptable. Esto también está relacionado con el tamaño de los sinogramas y las imágenes. Si se disminuyera dichos tamaños, el ruido Poisson afectaría menos, ya que el mismo depende de la cantidad de cuentas obtenidas en cada bin del sinograma. Como contrapartida, se observaría una pérdida de la resolución espacial. Luego, para el caso de 1.107 eventos se utilizaron los filtros Shepp-Logan, Coseno, Hamming y Hann con una frecuencia de corte relativa de ωc de 0,7 (ver Figura 3.10) En ella se puede observar que los resultados obtenidos se condicen con las respuestas en frecuencia de los filtros (Figura 3.4), ya que las imágenes con los filtros Hamming y Hann (los que más atenúan las altas frecuencias) muestran menor ruido pero a su vez imágenes más suavizadas. En estos resultados, donde los sinogramas contenían ruido Poisson, se pudo observar la conveniencia de utilizar un filtro que suavice las altas frecuencias. Finalmente, en la Figura 3.11 se puede observar cómo afecta la frecuencia de corte del filtro. Las imágenes muestran la reconstrucción utilizando el filtro de Hamming para frecuencias de corte de 0,4, 0,6, 0,8 y 1. La imagen para la frecuencia de corte de 0,6 es la que muestra una mejor relación de compromiso entre ruido y resolución espacial.

67

Figura 3.9. Imágenes reconstruidas de los sinogramas simulados con distinta cantidad de eventos. En todas las reconstrucciones se utilizaron el filtro rampa y la interpolación bilineal.

68

Figura 3.10. Imágenes reconstruidas para el fantoma simulado con 107 eventos utilizando los filtros Shepp-Logan, Coseno, Hamming y Hann. Todos con una frecuencia de corte relativa ωc de 0,7.

Figura 3.11. Imágenes reconstruidas con FBP para el fantoma simulado con 107 eventos utilizando el Hann con frecuencias de corte relativa ωc de 0,4, 0,6, 0,8 y 1.

69

Con los análisis realizados se pudo comprobar que es importante tener una cantidad grande de proyecciones para mejorar la resolución espacial y disminuir los artefactos en las imágenes. Además fue posible observar que este tipo de reconstrucción se ve afectada de manera considerable por el ruido estadístico en los sinogramas.

3.3.

Algoritmos Iterativos

Los algoritmos iterativos de reconstrucción de imágenes modelan el proceso de recolección de datos en el scanner PET/SPECT e intentan, a través de iteraciones sucesivas, encontrar la imagen más consistente con los datos medidos. Estos algoritmos están compuestos por un modelo de los datos, un modelo de la imagen, una función objetivo y un algoritmo de optimización. El modelo de la imagen utilizado comúnmente es el de una imagen digital tradicional, formada por píxeles discretos cuadrados, dispuestos en una grilla cartesiana y sin solapamiento. Sin embargo, ha habido propuestas para utilizar distintas geometrías de píxeles, por ejemplo esféricas [63], como también grillas no cartesianas [63][64]. El modelo de los datos se basa en el análisis del proceso de adquisición. Los más sencillos utilizan un modelo exclusivamente geométrico, mientras que otros también tienen en cuenta factores físicos, como por ejemplo atenuación, resolución y no uniformidad de los detectores, etc. Usualmente, los datos sin procesar son números de cuentas en el sinograma que pueden considerarse como variables Poisson independientes. Sin embargo, debido al pre-procesamiento de los datos y de los distintos factores que afectan la colección de los mismos, los bines del sinograma solo responden a una distribución Poisson de forma aproximada. La modelización de la adquisición sirve para componer una matriz que obtenga para cada píxel o vóxel dentro del Campo de Visión (FOV), la probabilidad de que un fotón emitido desde dicho píxel sea detectado en cada una de las combinaciones de detectores o en cada bin del sinograma. Tal probabilidad depende tanto de factores geométricos como físicos y su valor dependerá de cómo se modele el proceso de adquisición. Por lo tanto, la matriz del sistema (SRM: System Response Matrix) tendrá tantas filas como bines el sinograma y tantas columnas como píxeles la

70

imagen. Como cada LOR del sinograma cruza solo una pequeña cantidad de píxeles; un gran porcentaje de los elementos de la matriz valen cero. Esta matriz del sistema permite generar un sinograma a partir de una imagen o una imagen a partir de un sinograma. Los algoritmos iterativos utilizan una función de evaluación para comparar un sinograma, estimado a partir de una imagen propuesta, con el sinograma adquirido con el scanner. Por último, existe un algoritmo de optimización que, a partir de una imagen inicial, se encarga, mediante iteraciones sucesivas, de obtener la imagen que más corresponda con las proyecciones medidas. Idealmente dicho algoritmo debe tener convergencia asintótica, ser estable, numéricamente eficiente, y debe asegurar una convergencia rápida independientemente de la elección de la imagen inicial.

3.3.1. MLEM El algoritmo de Maximum Likelihood Expectation Maximization (MLEM) [10][11] es el algoritmo iterativo más utilizado, junto a su versión optimizada OSEM [65], para la reconstrucción de imágenes tomográficas en PET y SPECT. En este algoritmo la función de evaluación es el estimador Maximum Likelihood (ML) o de Máxima Verosimilitud para variables Poisson, mientras que el algoritmo de optimización es el Expectation Maximization (EM). El estimador ML [66] es un método que permite encontrar el conjunto de parámetros de una población que más se corresponden con una muestra dada de dicha población. Dado un vector ω con observaciones o muestras de N variables aleatorias, se busca estimar otro vector θ con K parámetros de la población. Para ello se define la función de likelihood l(ω/θ), que indica la probabilidad de que el conjunto de parámetros θ corresponda a la población de la que se tienen las muestras ω. Al contrario que en la función densidad de probabilidad, el likelihood es una función donde las variables independientes son los parámetros de la población y los parámetros de la función son la muestra de la población. El método de ML busca maximizar el l(ω/θ). Muchas veces es conveniente utilizar el logaritmo del likelihood, al cual se lo llama log-likelihood L(ω/θ). En el caso de la reconstrucción tomográfica para PET y SPECT, cada píxel o voxel 71

de la imagen es una variable aleatoria que representa la radiactividad en ese punto del FOV. El objetivo es encontrar la media de cada variable aleatoria (la actividad de cada píxel) que maximice la probabilidad de que una muestra u observación obtenida pertenezca a ese conjunto de variables aleatorias. La observación con la que se cuenta es en este caso el sinograma adquirido. Este es un caso de datos incompletos, donde hay dos espacios muestrales: P, el de las proyecciones, y X, el de la imagen, donde X no puede ser observado directamente, sino solo a través de P. El algoritmo de Expectation Maximization (EM) [67] es apropiado para la búsqueda del estimador de ML cuando se está frente a datos incompletos. Por esta razón, Shepp y Vardi [11] por un lado y Lange y Carson [10] por otro, propusieron casi de forma simultánea el algoritmo de MLEM para la reconstrucción tomográfica. En MLEM se considera que la colección de eventos es un proceso Poisson, aunque como se aclaró anteriormente esto no es exactamente así por factores físicos y por el procesamiento que se le hacen a los datos. En este proceso, la distribución real de actividad del radioisótopo en el cuerpo bajo estudio es f(x,y,z) y X es la imagen discreta con que se representa dicha f(x,y,z). La cantidad de emisiones que se realizaron en un píxel xj de la imagen responde a una distribución Poisson: (3.16)

Dónde f(xj) es la cantidad de cuentas esperada en dicho píxel. En el proceso de adquisición se desea modelar la forma en que son adquiridos los datos, lo que es equivalente a obtener la probabilidad de que un evento emitido en el píxel j sea detectado en un par de detectores o bin de sinograma i. Esta probabilidad condicional es obtenida para cada combinación de píxel con pares de detectores o bin del sinograma, a partir de un modelo del sistema. En resumen, en este algoritmo se involucran las siguientes variables: X: vector imagen. Donde xj es el número de emisiones esperadas por unidad de área para el píxel j. Con j = 1, …, n. B: vector de medición. Con bi el número de coincidencias contadas en la LOR i del sinograma. Con i = 1, …, m. A: Matriz de Respuesta del Sistema (SRM). Cada elemento de la misma es la probabilidad de que un positrón emitido en el píxel j resulte en una 72

coincidencia en la LOR i. Con dichas variables, se puede definir la operación de proyección, donde a partir de una imagen de entrada X y de la matriz del sistema A se obtiene un sinograma estimado PE, que es el sinograma que se esperaría obtener si la distribución de actividad fuera la de la imagen. Esto se realiza mediante el producto matricial entre la matriz A y el vector imagen X: (3.17)

En MLEM se busca obtener la imagen X que maximiza el likelihood, es decir la probabilidad de que dicha imagen haya generado el sinograma B. Utilizando la ecuación (3.17) se puede obtener dicha probabilidad: (3.18)

Si se aplica el logaritmo a (3.18) se obtiene el log-likelihood: (3.19)

Finalmente, utilizando el algoritmo de optimización EM se llega a la fórmula del MLEM: (3.20)

Siendo

los píxeles de la imagen en la iteración k,

resultante de la nueva iteración,

los píxeles de la imagen

los bins del sinograma adquirido y

la matriz

del sistema. La ecuación (3.20) muestra que este es un proceso iterativo, donde se inicia con una imagen

arbitraria, como por ejemplo una imagen constante, a

partir de la cual se empieza a obtener una imagen que hace crecer el likelihood con cada iteración. Luego de n iteraciones, el algoritmo converge a una solución que es la imagen de distribución de actividad. En cada iteración se pueden distinguir tres operaciones básicas: Proyección. La imagen actual

es proyectada para generar un sinograma:

73

(3.21)

Retroproyección. El cociente del sinograma medido

por el estimado

resulta en un nuevo sinograma que es retroproyectado mediante su multiplicación con la traspuesta de la matriz del sistema. Se obtiene una imagen con factores de actualización

. (3.22)

Actualización y Normalización. Se corrige la imagen de corrección

mediante la imagen

y luego se divide por una imagen de normalización.

Esta última se obtiene de los coeficientes de la matriz y sirve para ecualizar la sensibilidad del sistema a cada píxel. Las operaciones se realizan píxel a píxel. (3.23)

En la Figura 3.12 se observa un esquema gráfico del proceso de reconstrucción en el algoritmo MLEM. En él se trabaja tanto en el dominio de la imagen como del sinograma; esto se muestra en el gráfico utilizando color gris para el primero y rojo para el segundo. La reconstrucción se inicia con una imagen constante con píxeles con valores mayores a cero y en cada iteración se obtiene una imagen que se empieza a aproximar a la de Maximum Likelihood. En las primeras iteraciones aparecen las bajas frecuencias de la imagen. Con el avance de las iteraciones, la imagen se acerca al ML y se ven las altas frecuencias o detalles, pero esto se ve asociado a un aumento de la varianza en la imagen, es decir, a un aumento de su ruido. Para evitar esto, se opta por frenar el algoritmo de forma anticipada o aplicarle un filtro de suavizado como post-procesamiento. En general, para obtener una imagen de calidad suficiente se necesitan entre 20 y 50 iteraciones. Si se tiene en cuenta que en cada iteración se realiza una operación de proyección y retroproyección, se puede observar que el costo computacional de este algoritmo es como mínimo decenas de veces mayor que el del algoritmo analítico

74

FBP. Cuando se utiliza una matriz del sistema que tiene en cuenta solo factores geométricos, los datos deben ser corregidos de los factores que alteran la adquisición PET/SPECT. MLEM permite incorporar los factores físicos en la matriz del sistema, mostrando mejores resultados que con datos pre-corregidos [68][69]. Como contrapartida el costo computacional se incrementa considerablemente. El MLEM genera imágenes de mejor calidad que el FBP [70][71], pero su costo computacional es mucho mayor, en particular para el caso de reconstrucción 3D. Por esta razón, este algoritmo debe implementarse forma optimizada tanto en hardware como algorítmicamente. Con este propósito Hudson y Larkin propusieron el algoritmo Ordered Subsets – Expectation Maximization (OSEM) [65] que permite acelerar la convergencia. El mismo se describirá en la próxima sección.

Figura 3.12. Esquema de reconstrucción con MLEM. A partir de una imagen inicial, se inicia un proceso iterativo. En él, la imagen Xk es proyectada para obtener un sinograma estimado PE, que es comparado con el sinograma adquirido B realizando una división bin a bin. El sinograma de comparación es retroproyectado para obtener la imagen de corrección X_correc. Finalmente, se corrige y normaliza la imagen actual, y se obtiene la imagen de la nueva iteración. En este esquema, en gris se encuentran las etapas que están en el dominio de la imagen y en rojo el de las proyecciones.

Para comparar la performance ante la presencia de ruido del MLEM, se reconstruyeron los mismos sinogramas simulados computacionalmente que se utilizaron para el algoritmo FBP (ver Figura 3.8). La reconstrucción se hizo con 20 iteraciones y puede observarse en la Figura 3.13. Si se compara con los resultados obtenidos para FBP (Figura 3.9), se observa que ante la presencia de ruido Poisson el MLEM genera mejores imágenes.

75

Figura 3.13. Imágenes reconstruidas con el algoritmo MLEM para sinogramas con distintas cantidad de eventos en el proceso Poisson simulado. Se utilizó un proyector geométrico y 20 iteraciones.

76

Luego, en la Figura 3.14 se observa cómo evoluciona el proceso de reconstrucción desde la primera iteración a la 50 para el sinograma de 3.106 eventos. La primera iteración genera una imagen aproximada difuminada y luego se empieza a formar la imagen con mayor resolución. Entre las iteraciones 10 y 20 se alcanza una imagen adecuada en resolución. A partir de la 30 el ruido se empieza a incrementar considerablemente con las iteraciones. Con esto se verifica la necesidad de frenar el algoritmo con antelación para evitar el aumento de la varianza en la imagen.

Figura 3.14. Evolución de la reconstrucción con MLEM del sinograma simulado con 3.106 eventos. Se muestran las imágenes obtenidas en las iteraciones 1, 20, 30, 40 y 50.

3.3.2. OSEM El algoritmo Ordered Subsets – Expectation Maximization (OSEM) [65] es una versión modificado del algoritmo MLEM, donde el problema se divide en partes más pequeñas que permiten acelerar la convergencia. La división del problema se hace en el dominio de las proyecciones. El sinograma se divide en subconjuntos de datos más pequeños. La forma de dividir las proyecciones se puede realizar de distintas maneras: Grupos de Proyecciones Secuenciales. Si se cuenta con N proyecciones, se las divide en n subgrupos de T proyecciones. Cada subconjunto queda

77

formado

por

proyecciones

consecutivas:

S1={1,2,..T},

S2={T+1,T+2,…,2T},…, Sn={(n-1)T+1, (n-1)T+2,…,nT}. En un sinograma significaría dividirlo en pequeños grupos de filas consecutivas. Grupos de Proyecciones Equiespaciadas. Los subconjuntos se forman por proyecciones equiespaciadas que recorren todo el rango de ángulos. Los subconjuntos

quedarían

formados

por

S1={1,T+1,..(n-1)T+1},

S2={2,T+2,…,(n-1)T+2},…, Sn={T, 2T,…,nT}. En un sinograma se formarían juntando aquellas filas que están separadas en T. Este ordenamiento pareciera ser el más adecuado, ya que las proyecciones de cada subconjunto recorren los 180º para PET y 360º para SPECT y las contribuciones de cada una de ellas a cada píxel es más balanceada. Subconjuntos Acumulativos. En este caso los subconjuntos son de distintos tamaños. Arranca con un primer subconjunto limitado y va creciendo progresivamente hasta el último subconjunto que tiene todas las proyecciones. Un ejemplo podría ser: S1={1,2,..T}, S2={1,2,…,2T},…, Sn={1,2,…,nT}. Subconjuntos divididos por tiempo. Los subconjuntos se forman por grupos de LORs separadas por el tiempo de adquisición. Esto se utiliza para reconstrucciones en modo lista. Con los subconjuntos formados se implementa una adaptación del MLEM donde en cada iteración se recorre cada subconjunto y se aplica la ecuación (3.24). Para una implementación con B subconjuntos, por cada iteración se realizan B subiteraciones sucesivas para cada uno de los subconjuntos Sb. (3.24)

La cantidad de subconjuntos se selecciona de manera de tener la misma cantidad de proyecciones en cada uno de ellos. Los valores típicos van entre 4 y 16 subconjuntos. Mientras mayor sea la cantidad de subconjuntos, mayor es la velocidad de convergencia; como contrapartida, se produce un pequeño incremento en el ruido de las imágenes. La implementación del MLEM mediante estos subconjuntos logra acelerar la 78

convergencia considerablemente, haciéndola muy conveniente desde el punto de vista computacional. A pesar de que este tipo de implementación no asegura la convergencia a la solución de ML, en la práctica converge a una solución similar a la de MLEM pero B (cantidad de subconjuntos) veces más rápido. OSEM logra obtener imágenes de mayor calidad que los métodos analíticos [72] [73] a un costo computacional más accesible que MLEM. Por esta razón es el método más utilizado en la actualidad.

3.3.3. Reconstrucción Bayesiana Anteriormente se mencionó la tendencia del algoritmo MLEM de generar imágenes ruidosas. Esto se debe a que imágenes ruidosas generan proyecciones ruidosas como las adquiridas en PET y el algoritmo MLEM busca estimar proyecciones que más se parezcan a las adquiridas. Para resolver este problema existe una modificación del MLEM en la que se utiliza el análisis bayesiano de imágenes [74]. En este tipo de reconstrucción se da por supuesto que las imágenes tienen ciertas características, conocidas previamente, en la distribución de intensidades de sus píxeles. Esta información a priori (priors) se utiliza para penalizar con un factor de peso los valores de los píxeles bajo análisis. Un prior sobre las imágenes reales es que estas no son muy ruidosas. Entonces en cada iteración se penaliza la reconstrucción mediante un término que fuerza las condiciones del prior. Esto se llama regularización y suele favorecer la convergencia del algoritmo. También es denominado Maximum a Posteriori (MAP) [74][75][76] ya que el máximo estimador se obtiene después de la penalización. Las mismas suponen que la imagen está formada por regiones bien definidas con poco nivel de ruido, por lo que deben eliminar el ruido puntual, sin degradar las estructuras presentes en la imagen. Para ello, las funciones de penalización se aplican para cada píxel de la imagen, analizando la diferencia de intensidades con sus píxeles vecinos. Si la diferencia con alguno de ellos es muy grande, la penalización juega a favor de dicha diferencia incrementándola aún más, ya que se estaría ante la presencia de un borde que se quiere preservar. Por otro lado, si la diferencia es poca esta se disminuye todavía más, puesto que se considera que se está en una zona de actividad uniforme con presencia de ruido. Existen distintas 79

maneras de implementar las penalizaciones en MLEM. Una de ellas es la denominada One Step Late (OSL) [77][78], que se define como: (3.25)

Donde xkmlem_j es el píxel j de la imagen X luego de la iteración k en el algoritmo MLEM, xkosl_j es la imagen anterior luego de la penalización y xk+1osl_j es la imagen penalizada en la iteración k+1. La función dV(xj)/dxj es la derivada de una función de energía V, utilizada como penalización en base a la diferencia de xj con sus píxeles vecinos; β es un parámetro del algoritmo bayesiano que pondera la penalización. Algunas de las funciones de energía utilizadas son [79]: Geman – McClure [80]: (3.26)

Hebert – Leahy [75]: (3.27)

Green [74]: (3.28)

donde r es la diferencia entre un píxel y uno de sus vecinos, V(r) la función de energía para la penalización y δ un

parámetro de ajuste de la función de

penalización. En la Figura 3.15 se puede observar la respuesta de las tres funciones.

80

Figura 3.15. Funciones de penalización utilizadas en la reconstrucción MAP. Los parámetros de las mismas fueron seleccionados para poder compararlas entre sí.

Las ecuaciones de las funciones de penalización tienen un parámetro de ajuste, más el

β de la ecuación de iteración, que dificultan su implementación de forma

genérica para distintas imágenes sin supervisión de un usuario. Por otro lado, existe una penalización más sencilla basada en el filtro de mediana [77]. La misma mejora las imágenes con concentraciones locales monótonas de radioisótopos. El algoritmo OSL con este tipo de penalización responde a: (3.29)

en la cual

es la mediana de un clúster de 3x3 píxeles centrado en el

píxel j. En general, la reconstrucción con MAP puede resolver el inconveniente del aumento de la varianza en las imágenes obtenidas con MLEM. Con su uso se logra disminuir el ruido de las imágenes preservando parcialmente los bordes. Si se cuenta con

81

información anatómica (por ejemplo de CT o MRI) se pueden implementar priors que la tengan en cuenta y así poder definir de mejor manera los bordes de la imagen [81]. Sin embargo, su implementación en ambientes clínicos es dificultosa, ya que se necesita el ajuste de varios parámetros (β y los de la función de energía). Adicionalmente, con MLEM MAP no se asegura que los píxeles de la imagen no sean negativos y la imagen no mantiene la cantidad de cuentas de adquisición, aunque en general la diferencia de cuentas no es mayor al 2% del total.

3.3.4. ART El algoritmo Algebraic Reconstruction Technique (ART) [82][83][84] es otro algoritmo iterativo utilizado en la reconstrucción tomográfica. En él, a diferencia del MLEM, no hay un modelado estadístico de los datos sino que se tienen en cuenta solo los factores geométricos de la tomografía. Básicamente es un algoritmo iterativo para resolver un sistema lineal de ecuaciones, por lo que los datos deben ser corregidos previamente por los factores físicos que afectan la adquisición. La actualización de cada imagen se hace de forma aditiva y se utiliza un coeficiente de relajación λ para ajustar su convergencia, como se puede observar en la ecuación (3.30). (3.30)

donde x, a, b, k e i tienen el mismo significado que en la ecuación del MLEM (Ecuación (3.20)). λk es un parámetro de relajación, el cual puede valer entre 0 y 2. La ventaja de este algoritmo, frente al FBP, es que puede adaptarse a geometrías complejas con proyecciones incompletas o que no han sido obtenidas uniformemente. Su convergencia es más rápida respecto del MLEM y menor su costo computacional, pero sus resultados no son tan satisfactorios. Ante la presencia de ruido no converge a una única solución y se tiene la dificultad de asignar un valor para el coeficiente de relajación λ. En su implementación se recorre cíclicamente cada proyección y se actualizan los valores de aquellos píxeles atravesados por la misma. El índice con que se procesa las proyecciones ik puede variar con las iteraciones. La imagen reconstruida a partir de la iteración es muy dependiente de este orden como del coeficiente de relajación.

82

Se ha mostrado que el orden de permutación más adecuado es aquel en que la proyección a procesar es lo más ortogonal posible respecto de la proyección anteriormente procesada [83]. Esto significa que proyecciones consecutivas en el orden de iteración intercepten la menor cantidad posible de píxeles en común. En lo que respecta al coeficiente de relajación, el valor óptimo depende de la geometría de adquisición, del nivel de ruido, del ciclo de iteración y de la imagen a reconstruir. La selección de dicho valor se suele realizar de forma empírica, lo que tiene consecuencias en los tiempos y costos de procesamiento para una convergencia adecuada del algoritmo.

3.3.5. RAMLA Existe una combinación del algoritmo ART con el MLEM, que se denomina RowAction Maximum Likelihood Algorithm (RAMLA) [13][85]. En RAMLA se procesa la reconstrucción de a una LOR por vez, es decir de a una fila por vez de la matriz del sistema A. Al igual que en ART, se realiza un ordenamiento de las proyecciones a procesar de forma que sean ortogonales entre elementos vecinos. La imagen se actualiza según la dirección del gradiente del Likelihood para variables Poisson de manera acelerada. El algoritmo de iteración utilizado es el siguiente: (3.31)

A través de este algoritmo se logra obtener una convergencia al ML en un orden de magnitud menor de iteraciones respecto del MLEM, pero sigue siendo dependiente del λk para realizar una buena reconstrucción. Esto último dificulta su uso clínico.

3.4.

Reconstrucción 3D

En el Capítulo 2 se describió el modo de adquisición 3D en PET, donde se adquieren coincidencias paralelas al plano transaxial (dentro del mismo anillo en scanners con detectores pixelados) así como también oblicuas (entre distintos anillos). Para almacenar estos datos se utilizan los sinogramas 3D o Michelogramas descriptos en la sección 2.4.6. Con el aumento de la resolución espacial, la cantidad de bins necesarios para un sinograma 3D alcanza a varias decenas de millones. Si se tiene en

83

cuenta que en un estudio 3D la cantidad de coincidencias puede ir desde decenas de millones a algunos cientos, ya no es clara la conveniencia de trabajar con estos histogramas. Por esta razón, en adquisición 3D puede ser conveniente almacenar los datos en modo lista. Los algoritmos utilizados en la reconstrucción tridimensional son una extensión de los ya vistos para el caso bidimensional y los hay tanto analíticos como iterativos. Además, existe la posibilidad de convertir los sinogramas 3D o directamente las LORs oblicuas, en sinogramas 2D directos. Aplicando dicho proceso, denominado rebinning, se puede realizar una reconstrucción 2D por cada slice a partir de una adquisición 3D, reduciendo considerablemente los tiempos de procesamiento y las dificultades de implementación.

3.4.1. Reconstrucción Analítica 3D El algoritmo analítico de reconstrucción 3D se denomina 3DRP (Three-Dimensional Reprojection) [86] y aprovecha la redundancia de los datos. Para generar un volumen es suficiente con las LORs adquiridas en los planos directos, por lo que si se pudieran adquirir todos los eventos posibles en dichos planos la reconstrucción solo necesitaría de esos eventos. Sin embargo, el ruido estadístico influye considerablemente, ya que los eventos adquiridos en los sinogramas directos son pocos. Para aprovechar todas las LORs oblicuas se debe hacer una retroproyección tridimensional. La misma tiene el inconveniente de que, al ser los scanners cilíndricos, la medición de una fuente puntual es invariante en el espacio. Esto es más notable cuando se la mueve axialmente, ya que la sensibilidad varía en esa dirección. Para poder tener un sistema invariante en el espacio el scanner debería cubrir el FOV en todas las direcciones (por ejemplo con una geometría esférica). El algoritmo 3DRP busca simular una adquisición completa, realizando la retroproyección de los sinogramas directos para tener un volumen aproximado reconstruido y luego proyectando dicho volumen en las direcciones incompletas de la adquisición 3D (las que salen del scanner). De esta forma se obtienen las proyecciones 3D completas e invariantes en el espacio, y se puede aplicar una retroproyección tridimensional que aprovecha todas las LORs.

84

3.4.2. Reconstrucción Iterativa 3D Los algoritmos iterativos se adaptan perfectamente a la reconstrucción 3D, ya que simplemente la matriz del sistema deberá considerar las LORs oblicuas. Esto hace que la SRM tenga un volumen considerable (las filas de la matriz es la cantidad de bins) y su complejidad aumente. Tanto MLEM como OSEM, en sus versiones 3D, son los algoritmos más utilizados, pero son muy costosos computacionalmente por el gran volumen de datos de las proyecciones. Su implementación es posible mediante la utilización de arquitecturas de hardware paralelas. La versión del MLEM para sinogramas 3D responde a la misma ecuación (3.20) y el índice i recorrerá todos los bins de cada sinograma directo y oblicuo. En lo que respecta al modo lista, se debe hacer una pequeña modificación al algoritmo como se ha propuesto en [87][88]. Al no contarse con un sinograma con cantidad de cuentas, las operaciones de proyección y retroproyección se hacen para cada LOR adquirida cuyo valor es 1. Entonces, la ecuación del MLEM para el modo lista queda definida como: (3.32)

donde M es la cantidad de LORs adquiridas en el modo lista e I todas las LORs posibles de adquirir. Se puede optar por calcular analíticamente el factor de normalización

, que requiere incluir todas las LORs posibles. Los

coeficientes de la matriz del sistema aij deben obtenerse a partir de las coordenadas de la LOR, ya que es el dato adquirido. La utilización del modo Lista puede ser adecuada para adquisiciones con detectores continuos o con movimientos en su detector. La dificultad de la implementación del MLEM para modo Lista radica en cómo generar subconjuntos de datos para acelerar la convergencia [89][90][91], ya que esto no es directo como para los sinogramas. En lo que respecta a la implementación de un algoritmo iterativo 3D, la matriz del sistema tiene un tamaño considerable, ya que se cuenta con una gran cantidad de LORs adquiribles por el sistema. Por ejemplo, un sinograma 3D con 24 anillos, con span 5, máxima diferencia entre anillos de 23 y cada uno de los sinogramas 2D de 192x192 proyecciones, tiene en total ~20.106 bines. Si además se desea reconstruir 85

una imagen de 192x192 píxeles, entonces la matriz del sistema deberá tener ~20.106 filas y ~36.103 columnas, un tamaño inmanejable en RAM. Por esta razón, una estrategia ampliamente utilizada es el cálculo on the fly de los coeficientes de la matriz. Esto significa que cada vez que se requiere un coeficiente de la matriz, se calcula a partir del modelo geométrico y físico propuesto. Otra estrategia de implementación aprovecha que la SRM tiene una gran proporción de elementos en cero (sólo 0,5-2% de los elementos es distinto de cero), para almacenarla en modo sparse y además aplicar técnicas de compresión que permitan guardarla en memoria.

3.4.3. Métodos de Rebinning El proceso de conversión de sinogramas oblicuos en directos se denomina rebinning, y existen distintas metodologías para llevarlo a cabo. La técnica más sencilla es la denominada SSRB (Single Slice Rebinning) [35], la cual transforma las LORs oblicuas en LORs directas ubicadas en el slice correspondiente al promedio de las dos posiciones de detección axial. Esta técnica es efectiva en zonas cercanas al centro del FOV, pero provoca una importante pérdida de resolución en la zona periférica del mismo, tanto radial como axialmente. El MSRB (Multi-slice Rebinning) [92] distribuye cada LOR oblicua en todos los sinogramas directos atravesados por ella. Es efectivo para disminuir el efecto de degradación en la resolución en la periferia, pero genera imágenes ruidosas [93]. En la Figura 3.16 se muestra una comparación de ambos métodos de rebinning en lo que hace al tratamiento de una LOR oblicua. Para la implementación del MSRB se divide la LOR en puntos equiespaciados y para cada uno de ellos se asigna una LOR 2D en cada sinograma directo correspondiente. Por último, existen dos método más complejos que generan imágenes de mayor calidad y que no degradan el SNR de la imagen, ellos son el rebinning exacto, basado en la retroproyección 3D, y el algoritmo aproximado FORE (Fourier Rebinning) [36]. Estas técnicas reducen el procesamiento en un orden de magnitud para los algoritmos analíticos e incluso más para los algoritmos iterativos.

86

Figura 3.16. Tratamiento de las coincidencias oblicuas en los métodos de rebinning SSRB y MSRB. A la izquierda se muestra el SSRB, donde la LOR se transforma en directa en el medio de su recorrido axial. A la derecha se observa cómo el MSRB muestrea la LOR en puntos equiespaciados formando múltiples LORs directas.

3.5.

Implementación de un Algoritmo Iterativo

Se ha mencionado anteriormente que un elemento indispensable en los algoritmos iterativos es la matriz del sistema. La obtención de la misma es la tarea más dificultosa a la hora de implementar estos algoritmos. La versión más simple se basa en modelar geométricamente el proceso de adquisición. Los algoritmos que definen dicha matriz se denominan proyectores, ya que permiten proyectar una imagen en un sinograma y viceversa, y serán descriptos en la próxima sección. Los proyectores geométricos consideran que las LORs son líneas perfectas, aunque en realidad representan un tubo cuyo ancho y distribución dependen de la zona del FOV que atraviese. Esto se debe a que se ven afectadas por la resolución espacial de los detectores, el rango del positrón y la no colinealidad de los fotones emitidos, entre otros factores. Implementar un algoritmo para generar analíticamente una matriz del sistema que tenga en cuenta todos estos factores tiene una gran dificultad, por lo que

87

en la práctica se suele optar por usar mediciones de una fuente puntual en las distintas regiones del FOV y así obtener la respuesta del sistema [94][95]. Esta función de respuesta se denomina PSF (point spread function) y cuando se la utiliza para generar la SRM permite recuperar parcialmente la resolución espacial. La PSF también puede obtenerse a partir de simulaciones Monte Carlo [96][97][98]. En cuanto a los proyectores y las SRM, existe la alternativa de utilizar una matriz para proyectar y otra diferente para la retroproyección. Cuando esto ocurre, se dice que se cuenta con proyectores no apareados. Esta configuración es muchas veces utilizada para acelerar la convergencia y disminuir el costo computacional del algoritmo [99][100]. En estos casos se utiliza un proyector con la máxima cantidad de factores y detalles posible, como por ejemplo respuesta del colimador, corrección por atenuación y radiación dispersa, mientras que en el retroproyector se puede utilizar un modelo más simple del sistema [99][100][101][102]. El algoritmo MLEM para proyectores desapareados queda definido de la siguiente manera: x

k

x

1

j

k

c ij . b i

.

m

c ij i

m

j n i

1

(3.33)

1

a j

ij

.x

j

1

donde A es la matriz del sistema utilizada para la proyección y C la correspondiente al modelo de retroproyección. En este último caso se usa la traspuesta Ct correspondiente a la operación de retroproyección. Adicionalmente, en la adquisición real de un tomógrafo PET o SPECT, factores físicos como la atenuación, la dispersión y los eventos aleatorios deben ser tenidos en cuenta para modelar de forma precisa el sistema de adquisición. Una opción es corregir los sinogramas antes del proceso de reconstrucción, método utilizado obligatoriamente para los algoritmos analíticos, aunque también se emplea en iterativos. Un segundo enfoque es aplicar dichas correcciones en el proceso iterativo de reconstrucción. Esto ha demostrado generar mejores imágenes, ya que los datos proyectados serán más consistentes con el proceso real de adquisición [68][69]. La manera de incluir estos parámetros dependerá de cada uno de ellos, así la atenuación será un factor multiplicativo del coeficiente geométrico, mientras que los eventos randoms y el scatter deberán sumarse al sinograma proyectado [69][103]. Esto

88

puede sintetizarse en la ecuación (3.34), que es una extensión de la ecuación (3.20). En este caso los coeficientes aij tiene en cuenta el coeficiente geométrico del proyector corregido por todos los factores multiplicativos, que pueden ser los de atenuación, normalización, etc. Luego de la proyección de la imagen se le suman bin a bin de la proyección el scatter y los eventos randoms estimados. De esta forma la operación de proyección del algoritmo MLEM se ajusta de forma precisa al proceso de adquisición. (3.34)

En la ecuación también se observa que solo en la operación de proyección se tienen en cuenta los eventos aleatorios y la dispersión. Esto se realiza con el objetivo de reducir los tiempos de procesamiento y acelerar la convergencia [102]. A su vez la matriz del sistema utilizada para la retroproyección puede incluir solo factores geométricos, teniendo proyectores no apareados. Se ha definido dónde y de qué forma corregir los sinogramas, pero no como obtener los coeficientes de corrección. Los métodos para obtener cada uno de ellos se resumen en la sección 3.6.

3.5.1. Proyectores Los proyectores geométricos permiten realizar las operaciones de proyección y retroproyección necesarias en los algoritmos de reconstrucción iterativos. La operación de proyección busca obtener las integrales de líneas de las LORs que se obtendrían a partir de una imagen dada. Con el proyector se puede obtener una matriz de respuesta del sistema que permita esa operación y con la traspuesta de la matriz la retroproyección. Existen distintos algoritmos que en su mayoría presentan una relación de compromiso entre precisión, complejidad y costo computacional. Los proyectores se clasifican según la forma en que se calculan los coeficientes de la matriz. Si el algoritmo parte de las LORs para calcular los coeficientes de la matriz se dice que el mismo es ray-driven, si se computa a partir de los píxeles o vóxeles de la imagen se los denomina pixel-driven; por último existe un tercer tipo, llamados distance-driven, que es una combinación de los dos anteriores.

89

Los métodos del tipo ray-driven trazan cada LOR a proyectar y aproximan la integral de línea utilizando una suma pesada de todos los píxeles atravesados por la línea de respuesta. El proyector de este tipo más utilizados realiza la proyección con el largo del segmento de intersección entre la LOR y cada píxel, y se lo conoce como el algoritmo de Siddon [104][105]. Otro algoritmo ray-driven realiza una interpolación entre dos píxeles vecinos, para cada fila o columna de la imagen interceptada por la LOR [106]. Los algoritmos ray-driven son precisos para la proyección pero generan ciertos artefactos en la retroproyección. En lo que respecta a los métodos pixel-driven existe una gran variedad de algoritmos con diferentes complejidades. Las implementaciones del algoritmo FBP, como la de 3.2.1, suelen utilizar este tipo de algoritmos. Uno de ellos consiste en trazar una recta, desde el centro de cada píxel y con la dirección a proyectar, hacia el detector. El peso de los coeficientes se obtiene interpolando entre los dos bins del detector alcanzados [107]. Otro método se basa en rotar la imagen en el ángulo de proyección y luego sumar todas las filas sobre el detector [108][109], para lo cual se requiere un método de interpolación. Los proyectores ray-driven se adaptan mejor a la operación de retroproyección y generan algunos artefactos de alta frecuencia. Los proyectores distance-driven [110] combinan las características de los proyectores ray-driven y pixel-driven para lograr un algoritmo que es ventajoso computacionalmente y que no genera los artefactos de los dos anteriores [111]. Este algoritmo extiende rectas desde cada punto de los dos detectores opuestos en la dirección de la proyección a evaluar. Se obtiene el punto de intersección de cada recta trazada con el centro de una fila o columna de los píxeles a procesar. Luego se tiene en cuenta el largo del segmento formado entre los dos puntos de intersección para darle un peso a la proyección. En la Figura 3.17 se expone gráficamente la interpretación de los tres tipos de proyectores mencionados.

90

Figura 3.17. Tres tipos de proyectores geométricos. Un proyector ray-driven, en el cual se parte de la LOR generada entre dos detectores y se obtiene el largo del segmento de intersección con cada píxel (izquierda). Otro del tipo pixel-driven, en el cual a partir de la coordenada de cada píxel se proyecta una recta con el ángulo deseado hacia el detector y se asigna una proporción a cada elemento detector vecino (centro). El tercero es un proyector distance-driven, donde se proyecta sobre una fila tanto desde el detector como desde los bordes de los píxeles y se utiliza la distancia entre ellos como peso de la proyección (derecha).

3.6.

Correcciones

Se mencionó con anterioridad la necesidad de realizar correcciones en los datos medidos en PET y SPECT para poder generar imágenes cuantificables y de calidad. Las correcciones se pueden dividir a grandes rasgos en dos grupos: aquellas que están relacionadas con el proceso físico del decaimiento radiactivo y la interacción de los fotones con la materia antes de llegar al detector; y aquellas relacionadas con la geometría y el proceso de detección [112]. En el primer grupo se encuentran el decaimiento de la actividad con el tiempo, la atenuación, los eventos aleatorios y la dispersión; mientras que en el segundo se halla la diferencia de sensibilidad y uniformidad de las distintas LORs detectables, principalmente debido a la resolución espacial del detector, la profundidad de interacción y diferencias de ganancia en los detectores; también se deben incluir el tiempo muerto de los detectores y, en el caso de SPECT, la influencia del colimador.

3.6.1. Decaimiento de Actividad La corrección por la disminución exponencial de la actividad con el tiempo no afecta la calidad de la imagen, ya que no depende de la distribución espacial. Sin embargo, la cuantificación sí se ve afectada, en particular para estudios dinámicos donde se generan imágenes en varios cuadros de tiempo (time frames). Para calcular el factor 91

de corrección por decaimiento (DCF: decay correction factor) se debe tener en cuenta la actividad total a partir del tiempo inicial (t1) y durante el período de tiempo del frame (Δt). Dicho factor es la relación entre la actividad por tiempo si la misma fuera constante y la actividad por tiempo teniendo en cuenta su función exponencial decreciente: (3.35)

donde λ es la constante de desintegración del radioisótopo, t1 es el tiempo de inicio del frame y Δt la duración del mismo. El tiempo t=0 es el tiempo inicial de la medición con una actividad A0.

3.6.2. Eventos Aleatorios La corrección por eventos aleatorios o randoms es exclusiva de PET y agrega un fondo de ruido a la imagen, disminuyendo su contraste y afectando la cuantificación de actividad. Las variables que afectan a este factor son principalmente la actividad y el ancho de la ventana de tiempo. La corrección se realiza restando a la cantidad de coincidencias entre dos detectores, un número estimado de eventos aleatorios. La estimación se puede realizar a partir de los eventos singles o con una ventana de tiempo demorada. El primero de los métodos estima la cantidad de eventos aleatorios entre dos detectores a partir de la tasa de singles en ellos: (3.36)

donde si y sj son la tasa de eventos singles en cada detector, y τcoin el ancho de la ventana de tiempo. La ventaja de este método es el poco ruido estadístico de la estimación, ya que la cantidad de eventos singles es mucho mayor que las coincidencias. Sin embargo, para realizar una buena estimación se debe tener un buen conocimiento de los tiempos muertos de los detectores, lo que puede dificultar su implementación. Un segundo método se basa en la medición casi directa de los eventos randoms. Esto se realiza utilizando una ventana de coincidencias demoradas en la cual los tiempos entre los detectores procesados están desfasados en un offset. Para ello, se aplica a uno de los detectores una demora mucho mayor al tiempo de la ventana de 92

coincidencia principal. Como consecuencia, la probabilidad de que los eventos detectados en la ventana de coincidencia demorada sean originados por un mismo positrón es nula. La cantidad de eventos obtenidos en dicha ventana se utiliza como estimación de los eventos aleatorios entre ambos detectores. Esta cantidad de eventos estimados se sustrae a la cantidad de coincidencias obtenidas entre los dos detectores bajo análisis. En este caso el tiempo muerto de los detectores no es un inconveniente, ya que ambas ventanas de coincidencias se ven afectadas por igual. Al ser una medición con pocos eventos, el resultado tiene una varianza grande. Para reducirla es conveniente generar un sinograma con las coincidencias demoradas y filtrarlo, disminuyendo el ruido. Luego se resta bin a bin el sinograma filtrado de eventos aleatorios al sinograma de coincidencias adquirido.

3.6.3. Atenuación En las secciones 2.4.7 y 2.5.1 se introdujo el problema de la atenuación en las tomografías PET y SPECT respectivamente, donde la atenuación de los fotones gamma al atravesar la materia hace que las mediciones obtenidas estén distorsionadas. Sin aplicar la corrección por atenuación, aquellas regiones que atraviesan zonas densas o mayores extensiones de materia aparentarán tener menor actividad que la real. Se mencionó en este capítulo que la corrección se realiza aplicando coeficientes multiplicativos a los sinogramas adquiridos. En PET la corrección se puede aplicar antes o durante la reconstrucción, mientras que en SPECT hay métodos para hacerlo durante o después de la reconstrucción. Los coeficientes de corrección se denominan ACF (Attenuation Correction Factors). En PET el ACF para una LOR solo depende de la distancia total recorrida entre los dos fotones, sin importar la posición de emisión del positrón. Por lo contrario, en SPECT los ACF para una LOR dependen de la posición donde se emitió el fotón gamma, información no disponible de manera directa [112][37]. Esto hace que la corrección en SPECT sea más dificultosa y menos precisa que en PET. En ambos casos se necesita obtener un mapa de los coeficientes de atenuación del cuerpo bajo estudio. Para esto hay tres tipos de métodos: los aproximados sin medición de transmisión, los basados en mediciones de transmisión con fuente de rayos gamma y los que utilizan la transmisión con rayos X mediante una tomografía 93

axial computada (TAC o CT). Los métodos que no utilizan medición de transmisión estiman los coeficientes de atenuación a partir de un contorno conocido del cuerpo bajo estudio o a partir de las mediciones de emisión. Los primeros se utilizan principalmente en estudios de cerebro o abdomen donde los tejidos blandos son dominantes y homogéneos. La región bajo estudio se delimita de forma asistida o automática a través de la detección de bordes y luego, se asignan a la región delimitada los coeficientes de atenuación correspondientes a tejidos blandos [113]. En el caso de estudios de cerebro, existen métodos para agregar la influencia del cráneo. Esta técnica de obtención de mapa de atenuación se utiliza básicamente en estos estudios, ya que no existen diferencias significativas entre pacientes y es una región homogénea. Existen resultados que muestran que no hay diferencias significativas con los métodos que utilizan mediciones de transmisión [114]. En casos de estructuras más heterogéneas, como el tórax, este método es impracticable. Un segundo enfoque para la estimación del mapa de atenuación sin realizar mediciones de transmisión busca obtener el mapa de atenuación directamente de las mediciones de emisión. Para esto hay métodos en los que el algoritmo iterativo alterna entre una iteración para estimar la distribución de emisión y otra para estimar el mapa de atenuación [115]. También hay algoritmos de optimización que buscan exclusivamente el mapa de atenuación con la medición de emisión como entrada [116]. Estos métodos han tenido algunos resultados satisfactorios, pero suelen tener artefactos que no los hacen aptos para el uso clínico. En lo que respecta a los métodos de transmisión gamma, se utiliza el mismo equipo PET o SPECT para obtener el mapa de atenuación. Para esto se debe realizar una medición de transmisión con una fuente radiactiva de una energía similar a la del radioisótopo utilizado en cada caso. Las fuentes deben rotar alrededor del cuerpo bajo estudio y su transmisión se mide con los mismos detectores del PET [117]. Las fuentes utilizadas son 68Ge o 137Cs. El primero es emisor de positrones, por lo que la medición de transmisión se debe realizar por separado de la de emisión; en cambio, para el 137Cs se puede realizar de forma simultánea ya que al tener picos de distintas energías se pueden separar las mediciones de emisión y transmisión a través de la

94

ventana de energía [41][42]. En razón de la diferencia en energías, los ACF deben trasladarse de los 662 keV del 137Cs a los 511 keV medidos en el estudio de emisión. A pesar de que existe un crosstalk o interferencia entre ambas mediciones que puede elevar el nivel de ruido, la transmisión con

137

Cs es preferida sobre la de fuente de

positrones por reducir considerablemente los tiempos de medición, lo que es de vital importancia en la práctica clínica.

Figura 3.18. Medición de Transmisión en PET utilizando tres fuentes de 137Cs que rotan alrededor del FOV.

Para obtener los ACFs se realiza una medición de transmisión con el campo de visión vacío y se obtiene un sinograma ―en blanco‖. Luego se realiza la medición de transmisión con el paciente o fantoma, obteniendo un nuevo sinograma. Los ACFs quedan definidos por el cociente bin a bin de ambos sinogramas: (3.37)

siendo bi el sinograma de la adquisición en blanco y ti el sinograma de transmisión. Sin embargo, para utilizar estos ACFs las mediciones deben ser largas, con el objeto de evitar el ruido estadístico que luego se trasladará a las imágenes de emisión. Para obtener ACFs sin ruido, se reconstruye tomográficamente el mapa de atenuación, teniendo en cuenta que:

95

(3.38)

Este mapa de atenuación será ruidoso, pero se le aplica un proceso de segmentación para identificar regiones uniformes según los valores posibles de los coeficientes de atenuación en el cuerpo humano (por ejemplo hueso, tejido blando y pulmón) [43]. Finalmente, se proyecta la imagen de los coeficientes de atenuación, segmentada y sin ruido, y se obtienen los ACF sin ruido. La obtención de los ACF en SPECT con este mismo método muestra dos diferencias: las fuentes que se utilizan son otras para que la transmisión corresponda a un rango de energías cercano al de la emisión (por ejemplo, 57Co, 99mTc, 139Ce) y la geometría de medición se debe adaptar, ya que con una única fuente puntual no se puede hacer la adquisición completa, por la presencia del colimador. Para resolver esto último, se utiliza un colimador espacial que pueda adquirir en modo cone-beam o se usan fuentes lineales distribuidas. El último método para obtener el mapa de atenuación, y el más popular en la actualidad, es la utilización de equipos híbridos PET/CT y SPECT/CT. En ellos se utiliza una tomografía axial computada de rayos X (CT) para obtener el mapa de atenuación en unidades de Hounsfield, que es la atenuación relativa a la del agua. Dichos coeficientes deben convertirse a las energías de trabajo del scanner PET o SPECT. Para ello se debe generar constantes de escalamiento correspondiente a cada tipo de material, ya que el tipo de interacción dominante cambia mucho entre los rayos X (80 keV) y los fotones de 511 keV [39]. La gran ventaja de la corrección de atenuación basada en CT es su rapidez (la medición tarda solo unos segundos); se obtiene además un mapa de atenuación de alta resolución y bajo ruido con información anatómica, que se puede corregistrar con la imagen funcional del PET/SPECT. Sin embargo, la corrección con CT tiene algunos inconvenientes. En primer lugar, cuando se aplica un contraste (una sustancia con alto número atómico, por ejemplo bario) para mejorar la visualización de tejidos blandos, el escalamiento a 511 keV no identificará como tejido blando esa zona, sino que probablemente se le asignará el valor del hueso. Esto genera artefactos en la imagen y distorsiona la cuantificación del FDG en la imagen de

96

emisión. Un problema similar ocurre cuando el paciente tiene implantes metálicos, como prótesis en las caderas o marcapasos. Otro inconveniente de este método está relacionado con la gran diferencia entre los tiempos de adquisición del CT con el PET/SPECT. En el primero se tomará una imagen prácticamente estática de un instante en el ciclo respiratorio del paciente, mientras que en las segunda se obtendrá una imagen que promediará todos los ciclos respiratorios que dure la adquisición. Esto puede generar una mala alineación entre el mapa de atenuación y la imagen de emisión, provocando artefactos en la reconstrucción. Una vez que se ha obtenido el mapa de atenuación, la aplicación de los ACFs es directa en PET. En SPECT, como se mencionó con anterioridad, no se pueden corregir los sinogramas, porque la atenuación depende de la posición de emisión. Entonces la atenuación se debe introducir en el modelo de la SRM de los algoritmos iterativos [118] o aplicar la corrección sobre la imagen reconstruida sin haber tenido en cuenta la atenuación. Para esto, el método de Chang [119] permite corregir por atenuación imágenes adquiridas en regiones con coeficientes de atenuación uniformes. En este método, todos los píxeles se compensan mediante la ecuación (3.39). (3.39)

donde

es el píxel j de la imagen sin compensar por atenuación,

es el

correspondiente a la imagen corregida, M la cantidad de ángulos de las proyecciones, i el índice de cada ángulo, µ el coeficiente de atenuación de la región uniforme y li la longitud desde el pixel j al borde de la región atenuante. El mismo método puede adaptarse a mapas de atenuación no uniformes, para ello en vez de multiplicar µ por li se debe realizar la integral de línea de los coeficientes de atenuación desde el píxel al borde del detector.

3.6.4. Dispersión Bajo la denominación dispersión o scatter se agrupan todos aquellos eventos que han sufrido una interacción Compton antes de llegar al detector y que de todas formas entran en la ventana de energía. Esto hace que esas LORs brinden 97

información errónea que de alguna manera hay que sustraer. Si no se logra sustraer los eventos de dispersión se observará una pérdida en el contraste de la imagen y un error en su cuantificación, ya que incrementa el fondo de la imagen. Los métodos para corregir el scatter se dividen en tres grupos: los métodos basados en mediciones con distintas ventanas de energía, los que estiman la dispersión a partir de cálculos analíticos simples y aquellos que realizan simulaciones Monte Carlo. El primer método es el más sencillo de implementar y se basa en la utilización de dos ventanas de energías. Una centrada en el fotopico y otra por debajo de ella para estimar la dispersión [46]. Se generan los sinogramas para cada ventana de energía y luego se los reconstruye obteniendo las imágenes X1 y X2. Finalmente se obtiene la imagen corregida por dispersión realizando la resta entre la imagen del fotopico y la imagen de la segunda ventana modificada por una constante: (3.40)

El valor de la constante k se debe obtener a partir de simulaciones o mediciones. Por ejemplo, en SPECT se puede utilizar una ventana de energía principal de 127153 keV y una ventana de dispersión de 92-125 keV [120]. En el caso de PET, una típica ventana de fotopico utilizada con detectores de NaI(Tl) es de 460-665 keV y la de scatter en 400-450 keV. Otra posibilidad es utilizar una ventana en la parte superior del rango de energías del fotopico, por ejemplo en 511-665 keV, y utilizarla como estimación de la imagen sin dispersión. A partir de esta última se puede estimar el scatter y luego corregir la imagen con la ventana de energía completa [121]. Los métodos analíticos de estimación directa de la dispersión utilizan la información de las mediciones de emisión y transmisión, un modelo del scanner y un modelo físico de las interacciones Compton para calcular la dispersión esperada en una medición dada. Se utiliza principalmente la fórmula de Klein-Nishina que expresa la probabilidad de interacción Compton para cada material y el ángulo con el que es desviado cada fotón. Estos métodos son costosos computacionalmente pero con el poder de cálculo actual son utilizables. La mayoría de los métodos busca estimar la cantidad de fotones que solo sufren una interacción Compton antes de

98

llegar al detector, ya que así ocurre en la gran mayoría de los casos. Por esta razón se los llama Single Scatter Simulation (SSS) [48][49][50]. Por último, la estimación se puede realizar por método Monte Carlo utilizando paquetes de software comerciales, como GATE o Geant4, o con códigos propietarios más simples que permitan acelerar los tiempos de la simulación. Estos métodos son tan costosos computacionalmente que todavía no pueden ser utilizados de forma cotidiana.

3.6.5. Normalización En scanners PET, tanto con detectores pixelados como continuos, la densidad de distribución de LORs en el FOV es inhomogénea. Esto se debe a factores como la profundidad de interacción, zonas muertas en los detectores, pequeñas diferencias entre los cristales y PMTs que forman los detectores (por el proceso dificultoso de fabricación que tienen), variaciones en la electrónica de cada detector, la diferencia de luz generada entre el centro y los bordes del detector, la mayor probabilidad de detección en las LORs oblicuas que en las directas (por realizar mayor recorrido en el detector), entre otros. Estos factores deben ser compensados, en especial los geométricos, que son más fáciles de estimar. En el caso ideal se debería medir o simular cada LOR posible para obtener su sensibilidad. Esto es muy difícil de realizar, por la cantidad de LORs existentes en un scanner con adquisición 3D. Como consecuencia, en la práctica se opta por calcular analíticamente aquellos parámetros que se pueden estimar, como por ejemplo los geométricos, y la eficiencia de los cristales se obtiene de una medición con un fantoma cilíndrico. El mismo debe ser de baja actividad uniformemente distribuida. De esta forma, se obtiene un sinograma de normalización que permite corregir una parte importante de los factores relacionados con los detectores [122].

3.6.6. Tiempo Muerto El tiempo muerto de un detector es el tiempo en el cual el sistema de procesamiento de pulso se encuentra procesando un evento y durante el cual no puede procesar otro evento que pudiera arribar. Cuando se trabaja a altas tasas de actividad, el tiempo muerto de los detectores genera que se pierdan eventos y, como consecuencia, la 99

cantidad de eventos detectados no es proporcional a la actividad en el FOV. Para corregir esto se elabora una tabla con la cantidad de eventos reales para una tasa de singles medida. Luego, utilizando la misma, se puede corregir la cantidad de eventos adquiridos en cada detector a partir de la tasa de singles y así obtener una cantidad de cuentas que se corresponda con la actividad presente en el FOV.

3.6.7. Respuesta del Colimador En SPECT se utilizan colimadores para localizar en el espacio los fotones gamma detectados. El colimador más común es una capa de material denso con agujeros paralelos distribuidos sobre su superficie, aunque existen otra variedad de colimadores como los pinhole utilizados para obtener imágenes de alta resolución. Sea cual fuere el colimador usado, ellos son el factor dominante en la degradación de la resolución espacial. La resolución de un colimador depende de la relación entre el ancho y el largo de los agujeros. Además, la resolución espacial varía con la distancia de la fuente al detector, ya que mientras más lejos se encuentra el objeto a medir, más se ensancha la vista del colimador. Otro factor a tener en cuenta es que el material del colimador (por ejemplo, tungsteno o plomo) frena una parte importante de los fotones gamma incidentes, pero una pequeña proporción lo atraviesa sin interactuar con él. Todos estos factores hacen que una medición realizada con un detector SPECT no esté formada solo por fotones perpendiculares al detector, como sería en el caso ideal, sino que habrá una distribución de fotones adquirido en distintas direcciones y con distintas probabilidades de ocurrencia. Esta respuesta del colimador debe ser modelada para poder corregir los datos medidos. El modelado puede ser analítico u obtenido a partir de simulaciones y mediciones. La utilización de un buen modelo del colimador en los algoritmos iterativos permite recuperar una proporción importante de la degradada resolución espacial.

100

Capítulo 4

Implementación de un Algoritmo de Reconstrucción Iterativo 3D para Scanners Cilíndricos Uno de los principales objetivos de esta tesis es el diseño y desarrollo de un algoritmo de reconstrucción para el tomógrafo AR-PET que genere imágenes de buena calidad y sea eficiente computacionalmente. El algoritmo de reconstrucción tomográfica es una pieza fundamental del scanner, cuya influencia en la resolución espacial del sistema es tan importante como la resolución de los detectores. El algoritmo a utilizar debe ser seleccionado entre los expuestos en el Capítulo 3 y se deben definir las distintas configuraciones que mejor se ajusten al AR-PET. En el Capítulo 3 se mostró el mejor comportamiento del algoritmo iterativo MLEM frente al ruido Poisson característico de las adquisiciones en PET y SPECT. Además existe evidencia de que genera mejores resultados que los analíticos y que permiten recuperar la resolución espacial a través de un buen modelado del sistema de adquisición [11][70]. Por esta razón, para el AR-PET se implementará un algoritmo MLEM 3D y su versión acelerada OSEM. En este capítulo se presenta la implementación de los algoritmos MLEM y OSEM 3D, para un scanner cilíndrico genérico, que utiliza una matriz de repuesta o 101

proyector exclusivamente geométrico. Esta implementación se utilizará luego como plataforma para la construcción del algoritmo de reconstrucción para el scanner ARPET, el cual será desarrollado en el Capítulo 6. La implementación de un algoritmo iterativo 3D presenta múltiples desafíos, por los recursos computacionales que consume y por la gran cantidad de LORs involucradas en un tomógrafo de adquisición 3D. Por esta razón, en este capítulo se cubrirán los aspectos generales de una implementación eficiente de este tipo de algoritmos en arquitecturas paralelas para que puedan ser utilizados clínicamente, desde el punto de vista de tiempo de reconstrucción y calidad de las imágenes. Tradicionalmente los algoritmos iterativos 3D se han implementado utilizando múltiples CPUs o clústeres de procesamiento [123][124] y, en los últimos años, también en unidades de procesamiento gráfico (GPUs: Graphics Processor Units) [125]. Para el AR-PET se utilizará un servidor en procesamiento con GPUs por la gran capacidad de cómputo disponible a un costo relativamente bajo. Como contrapartida, se requiere un mayor esfuerzo en la implementación y la codificación del algoritmo. En este capítulo se presenta la implementación del algoritmo MLEM 3D para dos plataformas distintas, CPU y GPU, con el objeto de realizar comparaciones en cuanto a desempeño y calidad. El algoritmo de reconstrucción se desarrolla dentro de una biblioteca de código más amplia y flexible, que permite agregar funcionalidades y nuevos algoritmos fácilmente. En la reconstrucción se trabaja en modo histograma, por lo que se utilizan michelogramas de entrada, y tiene en cuenta solo los aspectos geométricos de la reconstrucción para un scanner cilíndrico. La implementación en GPU se acompaña con una introducción a los procesadores gráficos y sus arquitecturas, en particular las utilizadas en la implementación. Como resultado de algunos aspectos de este capítulo se ha realizado una publicación [126].

4.1.

Implementación de Algoritmo MLEM

Como se describió en el capítulo anterior, los métodos de reconstrucción iterativos estiman la imagen reconstruida progresivamente, con el objetivo de alcanzar la solución que mejor se ajuste a un modelo propuesto del sistema de adquisición. Los algoritmos más utilizados son el MLEM y su versión acelerada OSEM definidos por

102

las ecuaciones (3.20) y (3.24) respectivamente. En cada iteración del algoritmo MLEM se distinguen tres operaciones: proyección, retroproyección y actualización de píxel (incluye normalización) como se explicó en el Capítulo 3 (ver Figura 3.12). En las tres etapas se deben obtener los coeficientes aij de la matriz de respuesta del sistema (SRM), que representan la probabilidad de que un fotón emitido desde un positrón en el píxel j sea detectado en la LOR del bin i del sinograma. En una adquisición 3D la matriz del sistema es de un tamaño considerable, requiriendo usar técnicas de compresión por simetría de las LORs y matrices dispersas. Otra alternativa, adoptada en esta tesis, es el cálculo a demanda (on-the-fly) de cada coeficiente. De esta forma, los coeficientes de la matriz no se almacenan, sino que se computan cada vez que se utilizan. Esta estrategia se ajusta adecuadamente a las arquitecturas de procesamiento con gran poder de cálculo como los GPUs, que disponen de una gran cantidad de procesadores para realizar cálculos de punto flotante. En el Algoritmo 4.1 se muestra un pseudocódigo del algoritmo MLEM con sus operaciones básicas:

Algoritmo 4.1. Descripción del algoritmo MLEM en pseudocódigo.

A la entrada del algoritmo se tiene un sinograma adquirido con N bins, llamado B, y se espera obtener a la salida la imagen Xk, que tiene M píxeles, luego de k iteraciones. Antes de iniciar el proceso iterativo, se debe inicializar la imagen de la 103

iteración 0 con todos sus píxeles en 1 y generar la imagen de sensibilidad S. Esta última se obtiene realizando la retroproyección de un sinograma de las mismas dimensiones que el de entrada, pero con todos sus bines en 1: (4.1)

De esta forma, cada píxel Sj de la imagen de sensibilidad se obtiene sumando los N coeficientes aij con j igual al del píxel procesado. Luego de obtener la imagen de sensibilidad, se inicia el proceso iterativo en el que la imagen Xk se proyecta en un sinograma de las mismas dimensiones que el de entrada realizando la multiplicación matricial entre la imagen y la SRM (ver Ecuación (3.21)). Este sinograma proyectado (

) es una estimación del sinograma que se

adquiriría si la actividad en el campo de visión fuera la de Xk, considerando el modelo de adquisición de la SRM. En el siguiente paso, se genera un sinograma de corrección (

) que pondera las

diferencias entre el sinograma adquirido (B) y el sinograma estimado (

). Esto se

realiza mediante la división bin a bin de ambos: (4.2)

El sinograma de corrección se transforma en una imagen de corrección ( mediante la retroproyección del mismo. Esta operación se realiza multiplicando matricialmente el sinograma con la traspuesta de la SRM (ver Ecuación (3.22)). Finalmente, la imagen de la iteración actual Xk es actualizada mediante la multiplicación píxel a píxel con la imagen de corrección

y la división píxel a

píxel con la imagen de sensibilidad S. Este último proceso de normalización es fundamental para compensar la sensibilidad de cada píxel en el proceso de adquisición. Las operaciones más intensas computacionalmente son la de proyección y retroproyección, ya que necesitan calcular los coeficientes de la SRM. Para una reconstrucción con K iteraciones se deben calcular 2.K veces cada coeficiente de la matriz. La cantidad de instrucciones necesarias para el cálculo de cada coeficiente depende del proyector geométrico utilizado para el cálculo de la SRM y, en caso de 104

que sean incluidos, de los modelos utilizados para los factores físicos. En la implementación que se presenta en este capítulo, utilizaremos como proyector el algoritmo de Siddon [104][105] por su eficiencia y su flexibilidad para extenderlo a modelos más complejos, como se mostrará en los Capítulo 6 y Capítulo 8.

4.2.

Biblioteca de Reconstrucción

Para la generación de los algoritmos desarrollados en esta tesis se generó una biblioteca de código que contuviera todos los tipos de datos y herramientas involucrados en ellos. Dicha biblioteca de reconstrucción tomográfica fue escrita en C++. La misma cuenta con una clase para definir imágenes, que pueden ser de 2 y 3 dimensiones, y varias clases para definir distintos tipos de sinogramas. Para estos últimos, se utiliza una clase abstracta llamada Proyección y a partir de ella se generan clases derivadas para definir sinogramas 2D, múltiples sinogramas 2D de una adquisición multislice y sinogramas 3D o michelogramas. Cada una de estas clases define sinogramas genéricos de tamaño configurable. En el caso de un sinograma 3D se debe definir la cantidad de segmentos, la cantidad de sinogramas por segmento y la mínima y máxima diferencia entre anillos o slices de adquisición para cada uno de ellos. La organización de esta forma de los datos permite generar nuevas clases derivadas para sinogramas de scanners particulares. Por ejemplo, el sinograma de un scanner cilíndrico deberá contener como parámetros el radio del scanner, el largo axial del mismo y las dimensiones del campo de visión. Por otro lado, existen clases para cada método de reconstrucción, por ejemplo MLEM y OSEM. Los métodos de reconstrucción contienen un proyector con que se calcula matriz de respuesta. Para los proyectores se cuenta con una clase abstracta llamada Proyector, de la cual se generan clases derivadas para cada proyector implementado. De esta manera, se puede aprovechar la capacidad de polimorfismo que brinda C++ para utilizar los mismos códigos de MLEM o OSEM con los distintos proyectores utilizados. La arquitectura implementada en esta biblioteca de código permite agregar nuevos proyectores y nuevos tipos de datos de entrada fácilmente. Esto ha sido de utilidad para evaluar distintos algoritmos en esta tesis, además de dejar una plataforma de

105

trabajo para innovaciones futuras. El sistema de coordenadas geométrico utilizado en esta biblioteca tiene el origen en el centro del FOV. El eje z es el eje axial y crece desde el límite del scanner que da a la camilla hacia el extremo opuesto. El plano XY es el plano transversal y se encuentra paralelo a cada anillo del scanner. El eje y crece de abajo hacia arriba, mientras que el eje x de izquierda a derecha si se observa el scanner de frente desde el lado de la camilla. Respecto de los índices de los píxeles del volumen que representa el FOV, cada slice de la imagen es un corte transversal, las columnas representan el eje x y crecen en el mismo sentido que las coordenadas geométricas, mientras que las filas representan el eje y y crecen de forma opuesta a las coordenadas geométricas (la fila 0 se encuentra en el máximo valor de y dentro del FOV). Los slices crecen en el mismo sentido que el eje z, por lo que el slice número 0 tiene el valor geométrico más negativo dentro del FOV.

4.3.

Implementación de Algoritmo MLEM 3D para un Scanner

Cilíndrico Se desarrolló el algoritmo de reconstrucción iterativo MLEM 3D utilizando como proyector el algoritmo de Siddon [104][105]. Dicha implementación reconstruye sinogramas 3D de tamaños configurables y corregidos previamente de los distintos efectos que afectan la adquisición del mismo. El proyector de Siddon es ray-driven y realiza la integral de línea a lo largo de cada LOR. Tanto para la proyección como la retroproyección se debe ejecutar el algoritmo de Siddon para cada una de las LORs del sinograma. A modo de ejemplo, un sinograma 3D del scanner comercial GE Discovery STE, que cuenta con 24 anillos, tiene 242 sinogramas de 280x329 bins, dando un total de aproximadamente 53.106 LORs distintas. Si además se tiene en cuenta que una reconstrucción típica tiene 40 iteraciones, o sea 80 operaciones de proyección y retroproyección, entonces se requiere ejecutar un total de 4,2.109 veces el algoritmo de Siddon para reconstruir el volumen dentro del FOV. Por esta razón es importante lograr implementaciones paralelas y eficientes que permitan reconstruir imágenes en tiempos clínicamente aceptables. A continuación se describirá el algoritmo de Siddon implementado, así como las

106

operaciones de proyección y retroproyección que lo utilizan. Luego, se verifica la implementación y el modelo geométrico realizando la reconstrucción de distintos sinogramas obtenidos de un scanner comercial. Finalmente, se mostrará como optimizar el algoritmo para reducir sus tiempos de ejecución utilizando procesadores gráficos y verificando que la calidad de las imágenes se mantenga.

4.3.1. Algoritmo de Siddon Este proyector utiliza el largo de los segmentos que se forman en la intersección de una LOR con los píxeles de una imagen. El largo de dichos segmentos es el peso que se utilizará para proyectar cada píxel sobre las LORs de un sinograma. De esta forma, para proyectar una imagen X sobre un sinograma P, para cada LOR i se realiza la sumatoria del largo de intersección (aij) de dicha LOR con cada píxel j multiplicado por el valor del mismo píxel como se observa en la ecuación (4.3). (4.3)

donde aij es el largo del segmento de intersección entre la LOR i y el píxel j. El algoritmo de Siddon brinda un método eficiente para el cálculo de cada uno de los segmentos aij. Para ello se parte de uno de los extremos de la LOR y se recorre secuencialmente cada píxel atravesado hasta llegar al otro extremo (Figura 4.1). En su implementación, el primer paso a realizar es obtener las coordenadas de los puntos sobre los detectores de la LOR bajo análisis. Para un scanner cilíndrico las mismas se obtienen mediante: (4.4) (4.5) (4.6) (4.7)

donde θ y r son las coordenadas transversales de la LOR, x1 e y1 son las coordenadas transversales de uno de los puntos de intersección de la LOR con el scanner y x2 e y2 las del punto restante. Rscanner es el radio del scanner cilíndrico. Las coordenadas axiales (sobre el eje z) de cada uno de los puntos son las mismas que las de la LOR.

107

Figura 4.1. Diagrama del algoritmo de Siddon en dos dimensiones. Se recorre la recta de la LOR a proyectar desde el punto de entrada al FOV (Punto Inicial) al de salida (Punto Final) y se obtienen el largo del segmento que se forma en cada píxel intersecado.

Con ambos puntos sobre el scanner, se define la ecuación paramétrica de la LOR en el espacio: (4.8)

donde

y

son los puntos a ambos extremos del scanner y α, el

parámetro que recorre la misma, toma valores entre 0 y 1 dentro del scanner. Luego se obtienen los valores de α para los puntos de entrada y salida del FOV con el objetivo de realizar el ray tracing solo en el volumen de interés. Llamamos a dichos puntos, que corresponden respectivamente a αmín y αmax,

y

. Las coordenadas geométricas de ambos puntos se transforman en los índices (i,j,k) de los píxeles donde se localizan. Esto se realiza mediante: (4.9) (4.10)

108

(4.11)

donde (imin-max, jmin_max y kmin-max) son los índices de los píxeles correspondientes a los puntos de entrada y de salida del FOV. Δx, Δy y Δz representan el largo del píxel en cada una de las dimensiones. Con estos valores inicializados se recorre la recta desde el píxel (imin, jmin, kmin) hasta (imax, jmax, kmax), obteniendo los índices de cada píxel atravesado y el largo del segmento para cada uno de ello. Para implementar esto de forma eficiente se utiliza el método descripto en [105]. En él se calculan los incrementos del parámetro α para el avance de un píxel en cada una de las tres direcciones posibles. Dichos incrementos, a los cuales denominamos αx_u, αy_u y αz_u, son fijos para cada LOR y dependen de la pendiente de la misma: (4.12) (4.13) (4.14)

Para recorrer la LOR se utiliza el parámetro αc, el cual se inicia en αmín y se incrementa en αx_u, αy_u o αz_u, según la ubicación del próximo píxel intersecado. En este proceso, se utilizan tres variables αx, αy y αz para almacenar el valor de alfa del próximo límite de píxel en cada sentido. Se verifica cual de los tres valores es el menor de ellos, indicando en que dimensión ocurrirá la transición al próximo vóxel. Previamente a su actualización, se guardan las coordenadas del vóxel anterior y el largo del segmento en él. Luego se actualiza el valor de αc con el valor de αx, αy o αz según la dimensión donde ocurrió la transición de vóxel y se incrementa dicha variable en αx_u, αy_u o αz_u, según corresponda. Por ejemplo, si se debe pasar a un nuevo píxel en el sentido de x (porque αx es menor que αy y αz), ambos αx y αc deben incrementarse en αx_u (ver Figura 4.2).

109

Figura 4.2. Ejemplo de cómo se recorre la LOR en el algoritmo de Siddon para el caso de dos dimensiones. En la imagen de la izquierda, el valor de αc se encuentra al inicio del píxel en proceso y los valores de αx y αy indican los próximos límites a cruzar en cada dimensión. Al ser αx menor que αy se debe pasar al próximo píxel en el sentido de x, incrementando la coordenada i en 1. Previamente se almacena el largo del segmento que se obtiene de la diferencia de αx con αc multiplicada por el largo total de la LOR (LLOR). El valor de αc se actualiza al valor de αx y este último se incrementa en αx_u para ir al próximo límite en x. Este proceso se repite para el nuevo píxel (imagen central) pero en este caso αy es menor que αx por lo que el próximo píxel se encuentra incrementando una posición en el sentido del eje y. Por esta razón las variables se actualizan utilizando αy en vez de αx.

En el Algoritmo 4.2 se brinda un pseudocódigo del algoritmo de Siddon para procesar una LOR. A la entrada del algoritmo se ingresan los dos puntos sobre el scanner que forman la LOR y la imagen a recorrer; a la salida se obtiene una lista con los índices de todos los píxeles intersecados y el largo del segmento de intersección. En él se observa cómo se recorren los píxeles intersecados. Primero se obtienen los puntos de entrada al FOV y las coordenadas del píxel correspondiente a ese punto (líneas 4 a 7). También se obtienen los valores de αx_u, αy_u y αz_u a partir del tamaño de píxel de la imagen y el largo de la LOR dentro del scanner. Luego se determina el incremento de los píxeles a medida que se recorre la LOR; cuando la pendiente es positiva el incremento también lo es y viceversa (líneas 10 a 19). También de la pendiente dependen los valores de αx, αy y αz iniciales, ya que estos representan los valores de α del pasaje de un píxel al próximo en cada dimensión (líneas 20 a 34). Por ejemplo, si la pendiente es positiva en la dimensión x significa que el límite de transición estará incrementando el índice de píxel, es decir para un valor de x mayor. Una vez definidas las variables iniciales se puede recorrer la LOR desde αmin a αmax guardando en la variable Lista los índices de las tres dimensiones de cada píxel intersecado y el largo del segmento de intersección. Para determinar cuál es el próximo píxel se evalúa cuál de los αx, αy y αz es el de menor valor, indicando así en que dimensión se hará la transición de un píxel a otro (Líneas 42 a 57). En la línea 40 se puede observar como el índice en y crece de manera opuesta a las coordenadas geométricas. Una vez que se alcanza el punto de salida del FOV (αc >= αmax) se 110

termina el proceso y se devuelve la lista con todos los píxeles atravesados y los largos de cada segmento.

Algoritmo 4.2. Descripción en pseudocódigo del algoritmo de Siddon para tres dimensiones.

111

4.3.2. Operación de Proyección La operación de proyección se realiza procesando cada bin del sinograma y ejecutando el algoritmo de Siddon para cada una de las LORs representadas. En el caso de un sinograma 3D se deben recorrer todos los bins de los sinogramas 2D de cada segmento. Vale destacar que al estar los sinogramas 2D agrupados para comprimir los datos axialmente, cada bin en realidad representa más de una combinación entre anillos. Por lo tanto, cada sinograma 2D se debe procesar para todas las coordenadas axiales del mismo. De esta forma la cantidad de LORs procesadas es la misma que si no se implementara la compresión axial del fantoma. En el Algoritmo 4.3 se muestra un pseudocódigo de la operación de proyección. La entrada del algoritmo es un volumen dentro del FOV y la salida es un sinograma 3D. Se puede observar cómo se inicia cada bin del sinograma en 0 (línea 6) y luego se procesan todas las combinaciones de anillos para dicho bin que representan distintas LORs. Para cada línea procesada se ejecuta el algoritmo de Siddon (Algoritmo 4.2) y se obtiene la lista con los índices de píxeles intersecados y los largos del segmento de intersección (variable Lista en el pseudocódigo). Utilizando Lista se acumula la suma de las multiplicaciones del valor de cada píxel por el segmento de intersección.

Algoritmo 4.3. Pseudocódigo del algoritmo de proyección de una imagen en un sinograma 3D. Utiliza la función de Siddon detallada en el Algoritmo 4.2.

Como se observa en el algoritmo, cada bin del sinograma puede procesarse de forma independiente como es esperado para un proyector ray-driven. Esto hace que este algoritmo sea fácilmente paralelizable, permitiendo tener tantos códigos paralelos

112

como bins tenga el sinograma.

4.3.3. Operación de Retroproyección La operación de retroproyección también se realiza procesando cada bin del sinograma y ejecutando el algoritmo de Siddon para cada una de las LORs representadas. En el Algoritmo 4.4 se muestra un pseudocódigo de la operación de retroproyección. La entrada del algoritmo es un sinograma 3D y la salida es la imagen de un volumen del tamaño del FOV. Para cada LOR procesada se ejecuta el algoritmo de Siddon y se obtiene la lista de píxeles atravesados (variable Lista). Con ella se incrementa cada píxel (X(Lista[s].indX,Lista[s].indY, Lista[s].indZ)) con la multiplicación del valor del bin en proceso (P(i,j,k,l)) y el segmento de intersección (Lista[s].segmento).

Algoritmo 4.4. Pseudocódigo de la operación de retroproyección de un sinograma 3D.

En este caso, el procesamiento sigue siendo ray-driven pero los resultados se escriben sobre la imagen. Por esta razón la escritura en memoria es dispersa y hace que la paralelización de esta operación requiera de operaciones atómicas, como se mostrará más adelante en este capítulo.

4.3.4. Verificación del Proyector Antes de evaluar la reconstrucción es conveniente verificar el proyector con el que se genera la matriz del sistema, ya que ante inconsistencias el algoritmo iterativo no convergerá a una solución y su resultado será difícil de interpretar para encontrar 113

errores. Para verificar la implementación del proyector, se realizó la proyección de algunas imágenes y se verificó que los sinogramas obtenidos correspondían con lo esperado. En la Figura 4.3 se encuentra la proyección de una imagen 2D sintetizada de una fuente puntual y el sinograma 2D obtenido como resultado de la proyección utilizando el algoritmo de Siddon. En la Figura 4.4 se muestran los mismos resultados para la imagen de un cilindro uniforme.

Figura 4.3. Ejemplo de la proyección de la imagen de una fuente puntual levemente desplazada del centro (Izquierda). A la derecha se observa el sinograma obtenido.

Figura 4.4. Imagen de un cilindro uniforme (izquierda) y su sinograma proyectado con el algoritmo de Siddon (derecha).

La misma operación se realizó para un volumen con seis fuentes puntuales: tres en el slice central y las otras tres desplazadas 10 cm axialmente (ver Figura 4.5). El volumen tiene 256x256x81 píxeles y un FOV cilíndrico de 600 mm de diámetro por 114

260 mm de largo. El sinograma 3D generado tiene 26 anillos con sinogramas 2D de 192x248 bins y un span de 7, resultando en un total de 537 sinogramas.

Figura 4.5. Volumen con seis fuentes puntuales. Tres en el slice central y otras tres a 4 cm del centro. Izquierda: slice central con sus tres fuentes puntuales. Derecha: corte axial del volumen donde se observan las dos fuentes con x=0 en los respectivos slices.

En las Figura 4.6 y Figura 4.7 se muestran algunos de los sinogramas 2D que forman el michelograma generado con la proyección del volumen de las seis fuentes puntuales. Cada una de las senoidales corresponde a una fuente puntual. Las mismas se cortan parcialmente, según la diferencia entre anillos del sinograma 2D correspondiente.

Figura 4.6. Sinogramas 2D del 37 al 42 de los 537 del michelograma. Se forman tres senoides correspondientes a tres de las seis fuentes puntuales que son observadas en la dirección de dicho sinograma 2D.

115

Figura 4.7. Sinogramas 2D del 115 al 120 de los 537 del michelograma.

Adicionalmente se obtuvo la imagen de sensibilidad generada con este proyector. En la Figura 4.8 se observa dicha imagen de 128x128x47 píxeles generada a partir de la retroproyección de un michelograma con todos sus bins en 1.

Figura 4.8. Imagen de sensibilidad para el proyector de Siddon

116

En todos los casos los resultados obtenidos con el proyector fueron los esperados para un proyector geométrico como el analizado.

4.4.

Reconstrucción de Datos de Scanner Cilíndrico

Con la implementación del algoritmo MLEM 3D, que utiliza el algoritmo de Siddon para obtener la SRM del proyector y retroproyector, se reconstruyeron sinogramas adquiridos de dos scanners cilíndricos comerciales: el Siemens Biograph 16 y el GE Discovery STE. Con el primero de ellos se realizó la reconstrucción de la adquisición de dos fuentes puntuales, mientras que con el segundo se utilizaron una adquisición de cilindro uniforme y otra de cerebro.

4.4.1. Dos Fuentes Puntuales en Siemens Biograph 16 La adquisición de dos fuentes puntuales realizadas con el scanner Siemens Biograph 16 fue almacenada en un michelograma de 24 anillos, con span 7, máxima diferencia entre anillos de 17 y con sinogramas 2D de 192x192 bins. La imagen reconstruida con 10 iteraciones tiene 128x128x47 píxeles y se puede observar en la Figura 4.9. En el slice 21 se encuentra centrada la primera fuente y en el 33 la segunda.

4.4.2. Fantoma Cilíndro y Estudio de Cerebro en GE Discovery STE Para el scanner comercial GE Discovery STE se utilizaron dos adquisiciones, una de un fantoma cilíndrico con actividad uniforme y otra de un estudio de cerebro. Las adquisiciones fueron almacenadas en michelogramas con 24 anillos, span 5 y máxima diferencia entre anillos de 23. Cada michelograma está formado por un total de 553 sinogramas directos y oblicuos de 280 proyecciones (θ) con 329 muestras (r). El scanner tiene una geometría cilíndrica con diámetro de 886,2 mm y 24 anillos. El campo de visión es de 700 mm de diámetro y 156,96 mm de largo. Ambas adquisiciones se reconstruyeron utilizando el algoritmo MLEM con 40 iteraciones. Las imágenes generadas fueron de 256 x 256 x 47 vóxeles. A los sinogramas se le aplicaron previamente las correcciones de atenuación, scatter y distorsión de arco con el software del equipo. Los slices correspondientes al estudio de cerebro se encuentran en la Figura 4.10.

117

Figura 4.9. Volumen reconstruido de dos fuentes puntuales formado por 47 slices. Las fuentes se encuentran centradas en el slice 21 y 33.

Figura 4.10. Volumen reconstruido de un estudio de cerebro. Se observan 45 de los 47 slices totales, cada uno de ellos de 256x256 píxeles.

El tiempo de ejecución de una iteración con el algoritmo MLEM implementado en un único hilo de ejecución o thread es de aproximadamente 400 segundos para los 118

tamaños de sinogramas y de imagen utilizados, ejecutados en un procesador Intel I7 860. Lo que en la reconstrucción completa de 40 iteraciones resultó en un tiempo total de más de 4 horas. Esto demuestra los requerimientos de cálculo de este tipo de algoritmos, como se mencionó previamente en este capítulo, y la necesidad de realizar implementaciones optimizadas y paralelas para reducir su tiempo de cómputo. A continuación se presentará una implementación paralela en unidades de procesamiento gráfico para reducir los tiempos de ejecución.

4.5.

Desarrollo de Algoritmo en Unidades de Procesamiento

Gráfico (GPUs) Las primeras generaciones de GPUs ya brindaban alta capacidad de cómputo a bajo costo; sin embargo no podían ser utilizadas en aplicaciones de propósito general ya que su arquitectura estaba orientada exclusivamente a satisfacer los requerimientos del pipeline gráfico. Con el paso del tiempo las GPUs han evolucionado hacia una arquitectura paralela unificada de procesadores fácilmente programables [127] [128][129]. En 2006 NVIDIA presentó CUDA, una arquitectura y lenguaje de programación paralela para sus procesadores gráficos, lo que hizo más accesible la potencia de cálculo de las GPUs en aplicaciones de propósito general. Desde ese entonces se han desarrollado una gran cantidad de códigos paralelos, especialmente para aplicaciones científicas e intensivas computacionalmente, que permiten lograr factores importantes de aceleración frente a los CPU con procesadores multi-core actuales [130]. En lo que respecta a los algoritmos de reconstrucción tomográfica para PET, las primeras implementaciones en GPU, desarrolladas antes de la aparición de CUDA, ya presentaban resultados promisorios pero su desarrollo era dificultoso y poco flexible [131][132][133]. Desde la aparición de CUDA, la cantidad de implementaciones de los algoritmos de reconstrucción ha ido aumentando considerablemente [134][135] [136][137].

4.5.1. Evolución de los Procesadores Gráficos Las Unidades de Procesamiento Gráfico (GPU) modernas han evolucionado desde la

119

implementación de un pipeline gráfico con funciones fijas a un procesador paralelo programable con capacidad de procesamiento que supera a la de los CPU multinúcleos. Originalmente los procesadores gráficos tenían unidades fijas para realizar cada una de las operaciones necesarias en el pipeline gráfico, de las cuales se destacan las relacionadas con la generación de los vértices que forman los polígonos de las geometrías 3D (vertex operations), la rasterización o conversión del formato vectorial a uno pixelado (rasterization) y aquellas que obtienen los colores y las sombras de los polígonos (shader/fragment operations). El procesador de vertex estaba diseñado para operaciones matemáticas de alta precisión y de baja latencia; mientras que los procesadores del tipo pixel-fragment estaban optimizados para alta latencia y filtrado de texturas de baja precisión. Los procesadores de vertex tradicionalmente soportaban operaciones de mayor complejidad, por lo que fueron los primeros en ser programables. En los últimos años, los dos tipos de procesadores han ido convergiendo como resultado de la necesidad de programas más generales y flexibles a ser ejecutados en el pipeline gráfico. Este incremento en la generalidad de los procesadores también ha aumentado la complejidad del diseño de la arquitectura, el área y el costo respecto del desarrollo de los dos procesadores por separado. Típicamente las GPUs procesan más píxeles que vértices, por lo que los procesadores de pixel-fragment superaban en cantidad a los procesadores de vertex en una relación de tres a uno. Pero esto podía generar desbalances e ineficiencias en las cargas de trabajo, ya que el comportamiento variaba según el tamaño de los triángulos. A medida que las primitivas de procesamiento se fueron complejizando fue más difícil seleccionar la relación óptima de procesadores pixel-fragment por cada procesador de vertex. Uno de los objetivos principales de las arquitecturas modernas de procesadores gráficos es poder ejecutar los distintos programas del pipeline en una arquitectura unificada. Esta unificación permite balancear dinámicamente las cargas de trabajo. La generalización de los distintos tipos de procesadores de una GPU en un único procesador genérico ha abierto la puerta para que estos procesadores brinden capacidad de procesamiento paralelo en aplicaciones de propósito general.

120

A este cambio en la arquitectura de las GPUs se suma el continuo incremento de su potencia de cálculo empujada por la constante demanda de gráficos de mayor resolución y más rápidos. Como resultado, su capacidad de cómputo ha crecido exponencialmente desde su aparición, a fines de la década del 90, duplicando la cantidad de transistores integrados y procesadores por GPU cada 18 meses [127], como se observa en la Figura 4.11.

Figura 4.11. Comparación de la evolución de la capacidad de procesamiento en GFLOP/s para operaciones de precisión simple y doble entre GPUs de NVIDIA y CPUs de Intel [138].

En este sentido es que los procesadores gráficos, que se destacan por su arquitectura altamente paralela, hayan madurado rápidamente como una herramienta poderosa para aquellas aplicaciones de alta demanda computacional. A pesar de que su arquitectura y modelos de programación son diferentes a la de los procesadores tradicionales, la performance actual demuestra que son herramientas fundamentales en el cálculo computacional intensivo. A continuación se describirán las arquitecturas de los procesadores gráficos utilizados en este trabajo: Tesla, la primer arquitectura unificada creada por NVIDIA con soporte de CUDA; Fermi, la segunda generación con CUDA; y Kepler, la arquitectura más reciente.

4.5.2. Arquitectura Tesla La arquitectura Tesla [129], introducida por NVIDIA a fines de 2006, está basada en

121

un array de procesadores escalares. En la Figura 4.12 se puede observar un diagrama de bloques de la GPU GeForce 8800, una de los primeras en presentar esta arquitectura. La misma cuenta con ocho unidades de procesamiento independiente denominadas texture/processor cluster (TPC), cada TPC incluye 2 streaming multiprocessors (SM) (16 SM en total), a su vez cada SM está formado por 8 streaming processors (SP) (son 128 SP en total, también llamados threadprocessors). La arquitectura se comunica con el host (CPU) a través de una interfaz con un bus PCI-Express. Como se puede observar en el diagrama, la estructura no se parece al pipeline gráfico tradicional, ya que se cuenta con un tipo de procesador unificado para todas las tareas.

Figura 4.12. Diagrama de bloques del GPU Geforce 8800 de NVIDIA. Imagen adaptada de [129].

La arquitectura de procesamiento formada por TPCs, SMs y SPs puede ser utilizada para todo tipo de procesamiento. La implementación de un pipeline gráfico simplemente requiere unidades que distribuyan las distintas operaciones en los recursos de procesamiento disponibles; estas unidades son la Vertex Work Distribution y Pixel Work Distribution. Para la distribución de carga de trabajo de 122

propósito general se cuenta con la unidad de Compute Work Distribution. El sistema de memoria escalable consiste en un controlador de memoria DRAM global y un procesador de funciones-fijas para operaciones raster (ROPs). Una red de inter-conexión direcciona los pedidos de lectura de la memoria de texturas y de datos de los SP a la DRAM. En la Figura 4.13 se puede observar un diagrama funcional de la arquitectura, viéndola desde la perspectiva de un procesador de propósito general y no orientada a cumplir las funciones de una GPU. De esta forma, queda claro que se cuenta con una serie de multiprocesadores (SMs) independientes entre sí, cada uno de ellos con cierta cantidad de procesadores (SPs) que comparten algunos recursos dentro del multiprocesador; y una memoria RAM global a la que tienen acceso todos los procesadores de cada multiprocesador. La arquitectura Tesla fue diseñada para cumplir con el modelo de programación en paralelo de NVIDIA: CUDA. Este, además de brindar el modelo de programación paralela, brinda un entorno de software diseñado para facilitar la paralelización de algoritmos en GPUs. Para esto, utiliza un set de instrucciones como extensión al lenguaje C y un compilador de C-CUDA propio (nvcc).

Figura 4.13. Diagrama funcional de la arquitectura Tesla formada por Streaming Processors

123

agrupados en streaming multiprocessors y con distintas jerarquías de memoria. Imagen adaptada de[138].

El Streaming Multiprocessor (SM) es un multiprocesador unificado para gráficos y procesamiento que ejecuta programas de vertex, geometry y píxel-fragment shader cuando se lo usa para el pipeline gráfico, como a su vez programas de cálculo paralelo cuando se utiliza el GPU como procesador de propósito general.

Figura 4.14. Estructura de un Streaming Multiprocessor. Imagen adaptada de [129].

Cada SM consta de ocho núcleos streaming processors (SP) o procesadores de threads, dos unidades de funciones especiales (SFUs), una unidad de búsqueda y ejecución de instrucciones multithreaded (MT issue), una cache de instrucciones, una cache constante de solo-lectura, y una memoria compartida de lecto/escritura de 16-Kbyte. Esto se puede observar en la Figura 4.14. El Streaming Processor (SP) es el principal procesador de hilos de ejecución (threads) dentro de un SM. Se encarga de las operaciones de punto-flotante fundamentales, como suma, multiplicación y multiplicación-suma; también ejecuta una gran variedad de operaciones enteras, de conversión de datos y comparaciones. Las operaciones de punto-flotante son compatibles con el Standard IEEE 754 de números de punto-flotante de precisión simple. Los SP tienen un pipeline que abarca todas las etapas de ejecución y está optimizado para balancear las demoras y latencia de las instrucciones. Cada núcleo SP contiene una unidad escalar de multiplicación-suma (MAD), dando 124

a cada SM ocho unidades MAD. Cada SM usa sus dos unidades de SFU para funciones trascendentales e interpolación de atributos del pipeline gráfico. Cada SFU también contiene cuatro multiplicadores de punto-flotante. Una red de interconexión de baja latencia conecta los SPs con los bancos de memoria compartida brindando acceso al compartimiento de datos entre SPs. Los vertex, geometry y píxel-fragment shader son programas para un único thread que describen cómo procesar un vértice o un píxel. De la misma manera, un kernel de CUDA es un programa de C que describe como un thread calcula un resultado. El SM unificado ejecuta de forma concurrente múltiples threads que pueden pertenecer a distintos programas, pertenecientes al pipeline gráfico o a kernels de CUDA, y así se logra balancear dinámicamente las cargas de trabajo. Para ejecutar cientos de threads en paralelo de manera eficiente mientras se ejecutan diferentes programas, cada SM es multihilo (multithreaded) por hardware. El mismo maneja y ejecuta hasta 768 threads concurrentes por hardware sin carga adicional por planificación de tareas. Cada SM tiene su propio estado de hilos de ejecución y puede ejecutar un camino independiente de código para cada uno de los threads. Los hilos de ejecución concurrentes de un mismo programa de cálculo pueden sincronizarse mediante una instrucción de barrera. La baja sobrecarga por creación de threads, el costo nulo por planificación de threads y una barrera de sincronización rápida hacen que esta arquitectura soporte un gran nivel de paralelismo de grano-fino de manera eficiente. Para administrar y ejecutar cientos de threads que corren programas diferentes de manera eficiente, NVIDIA introduce en los SM una nueva arquitectura denominada single-instruction, multiple-thread (SIMT). En ella la unidad de instrucciones multithreaded del SM crea, administra, planifica y ejecuta threads en grupos de 32 hilos paralelos denominados warps (término derivado de la primer tecnología de threads en paralelo). El tamaño del warp de la unidad de SIMT permite de manera eficiente mantener un paralelismo de grano-fino, tanto para threads gráficos como de propósito general.

125

Figura 4.15. Organización y ejecución de threads dentro de un SM. Imagen adaptada de [129].

Cada SM maneja un conjunto de hasta 24 warps, o sea hasta 768 threads. Los threads que forma un warp son del mismo tipo (originados por el mismo código de programa) e inician de manera simultánea en la misma dirección de código, pero tienen la libertad de ramificarse y ejecutarse de manera independiente cuando hay sentencias condicionales. En cada ciclo de emisión de instrucciones, esta unidad de instrucciones multithreaded selecciona un warp que está disponible para su ejecución y emite la próxima instrucción de los threads activos dentro de dicho warp. Una instrucción SIMT es emitida simultáneamente para cada thread del warp; algunos threads individuales pueden estar inactivos debido a una bifurcación en el flujo del programa. Esta forma de ejecución puede observarse en la Figura 4.15. El SM distribuye los threads del warp en cada núcleo SP y cada thread se ejecuta de manera independiente con su propia dirección de código y su propio estado de registros. Los procesadores del tipo SIMT alcanzan su máxima eficiencia y performance cuando los threads de un mismo warp ejecutan la misma ruta del programa. Cuando los threads de un warp divergen por una bifurcación originada por una dependencia de control (de datos), el warp ejecuta en serie cada ruta tomada, desactivando en cada ejecución los threads que no pertenecen a dicho camino. El SM utiliza una pila (stack) de sincronización de bifurcaciones para 126

gestionar threads independientes que divergen y luego vuelven a converger. La divergencia de rutas de ejecución solo ocurre dentro de un warp, ya que diferentes warps ejecutan su código de manera totalmente independiente, sin importar si están ejecutando la misma ruta de código o si ha habido bifurcaciones. De esta forma la arquitectura SIMT permite a los programadores escribir código paralelo a nivel de thread o a nivel de datos para threads coordinados dentro de un mismo warp. Si bien a la hora de codificar un programa se puede ignorar totalmente esta característica, si el programador escribe el código de manera que los threads dentro de un warp no diverjan (siempre que esto sea posible) se obtiene una mejora sustancial en la performance del mismo. Una instrucción de warp emitida se ejecuta como dos conjuntos de 16 threads en cuatro ciclos de procesador. Los núcleos SP y las unidades SFU ejecutan instrucciones de forma independiente, y al emitir instrucciones entre las distintas unidades en ciclos alternados, se mantienen todas las unidades totalmente ocupadas. El planificador de instrucciones le da prioridad a los warps que están listos para su ejecución, y los selecciona por orden de prioridad. La política de prioridades considera el tipo de warp, el tipo de instrucción y busca una distribución equitativa entre todos los warps ejecutados dentro del SM. Las instrucciones ejecutadas por los SM de la arquitectura Tesla son del tipo escalar, a diferencia de las versiones anteriores de procesadores gráficos que utilizaban instrucciones vectoriales. Esto se debe a que los programas a ejecutar en el pipeline gráfico son cada vez más complejos y largos, no pudiendo llenar las cuatro componentes habituales de las instrucciones vectoriales. Las instrucciones de texturas son las únicas que siguen siendo del tipo vectorial. En Tesla el compilador nvcc [139] genera instrucciones intermedias de un lenguaje pseudo-ensamblador denominado PTX (Parallel Thread Execution), que luego son optimizadas y traducidas a instrucciones binarias de máquina por el driver del GPU. Las instrucciones del tipo PTX brindan una entrada estable en el tiempo para los compiladores, logrando compatibilidad y escalabilidad a lo largo de varias generaciones de GPUs. El optimizador del compilador elimina código muerto, analiza dependencias de datos, asigna los registros reales, y optimiza los puntos de

127

divergencia y convergencia en SIMT. Las instrucciones disponibles en la arquitectura incluyen operaciones de puntoflotante, enteras, a nivel de bit, conversiones, de control de flujo, operaciones de load/store a memoria, de texturas y un set reducido de operaciones atómicas. Para brindar soporte a aplicaciones de cálculo general y cumplir con los requerimientos de programas en C/C++, los SM tienen implementadas las instrucciones de load/store, como así también las de búsqueda (fetch) de texturas y operaciones de salida de píxeles características del pipeline gráfico. En lo que respecta al sistema de memoria, la arquitectura Tesla tiene diferentes tipos de memoria con distinta jerarquía y formas de acceso. Existe una memoria DRAM global de gran tamaño a la que pueden acceder todos los hilos que se encuentran en ejecución dentro del GPU. Esta memoria tiene gran ancho de banda pero alta latencia. Luego existe una pequeña memoria compartida dentro de cada SM, que puede ser accedida por los threads en ejecución dentro de un SM. Al ser una memoria integrada al SM es de muy baja latencia. Finalmente, hay una memoria de solo lectura orientada a las operaciones de texturas. En las aplicaciones de cálculo, las instrucciones de lectura/escritura (load/store) acceden a los tres espacios de memoria de lecto-escritura. Para mejorar el ancho de banda de memoria y reducir el overhead, las instrucciones load/store de memoria local y global se fusionan (coalesce) entre los distintos accesos de threads paralelos en un mismo warp. De esta forma se aprovecha todo el ancho del bus de memoria y se reduce la cantidad de accesos a bloques de memoria. Para esto las direcciones a acceder deben caer dentro del mismo bloque y cumplir criterios de alineación. Lograr que los pedidos de memoria se unifiquen (coalesce) incrementa notablemente la performance respecto de accesos individuales por hilo. La latencia en la carga de los datos se puede ocultar gracias a la capacidad de mantener grandes cantidades de threads simultáneos por SM. El ancho del bus de datos de memoria DRAM es de 384 pines en el GeForce 8800 GTX (luego sería de 512 bits en la GTX-285) organizado en seis divisiones de 64 pines cada una. Cada una de estas divisiones contiene 1/6 del espacio físico de direcciones. Los cientos de pedidos paralelos de memoria por parte de los hilos de

128

cálculo se arbitran de manera de maximizar la eficiencia de la transferencia de datos de la DRAM; para esto se agrupan los pedidos de memoria entre aquellos de un mismo banco y con la misma operación (read/write), lo que además disminuye la latencia lo máximo posible. La arquitectura Tesla, escalable para cálculo paralelo, se complementa con el modelo CUDA, que permite que las GPUs logren un destacado rendimiento en aplicaciones de cálculo. Para ello dichas aplicaciones deben tener gran paralelismo a nivel de datos, bajo paralelismo a nivel de tareas (pocas aplicaciones ejecutadas a través de una gran cantidad de threads), aritmética intensiva de punto-flotante, tolerante a cierta latencia en los resultados, flujos de datos continuos (gran cantidad de datos pero con baja reutilización) y modestos requerimientos de sincronización y comunicación entre threads. Para poder implementar este tipo de aplicaciones, el compilador o el programador deben descomponer el problema en muchos pequeños problemas que pueden resolverse en paralelo. El modelo CUDA propone una primera división en bloques, donde cada uno de ellos debe ser capaz de ser ejecutado de forma independiente y en paralelo; y luego cada bloque se divide en pequeños elementos, para ser ejecutados en paralelo pero con la posibilidad de cooperar entre ellos, estos serán los threads de ejecución. Este tipo de descomposición paralela en dos niveles de un programa, propia de CUDA, se adapta perfectamente a la arquitectura Tesla. Cada uno de los bloques es ejecutado por uno de los varios SMs, y los threads internos a cada bloque se ejecutan dentro del SM con sus unidades SPs, SIMT y SFUs. Los bloques se organizan en una grilla de tres dimensiones, mientras que los threads en bloques de dos dimensiones. El programador debe escribir el programa como una secuencia de grillas (Grids) de resultados, cada una de ellos obtenidos del resultado de un conjunto de bloques (Blocks) ejecutados en paralelo de forma independiente (paralelismo de granogrueso). La ejecución de cada bloque es el resultado de un array de Threads paralelos de grano-fino ejecutados en paralelo dentro de un SM y con la posibilidad de cooperar entre ellos. Este esquema se puede observar en la imagen de la izquierda de la Figura 4.16.

129

Figura 4.16. Descomposición en bloques de threads paralelos en la ejecución de una aplicación en CUDA (Izquierda) y las jerarquías de memoria en dicho esquema de ejecución (Derecha). Imagen adaptada de [138].

El modelo de programación CUDA también contempla las distintas jerarquías de memoria, donde todos los threads de todos los bloques pueden acceder a la memoria global; los hilos dentro de un mismo bloque pueden acceder y compartir datos a través de una memoria compartida y finalmente hay un espacio de memoria local solo visible por cada thread/ (ver imagen derecha en la Figura 4.16). En Tesla, la memoria local de cada thread se almacena en registros de baja latencia disponibles en cada SM. La cantidad de registros es limitada en cada SM. Si se requiere más memoria local al thread se utiliza la memoria global que al estar fuera del SM tiene alta latencia. La memoria compartida por cada bloque utiliza la memoria compartida que se encuentra dentro del SM, por lo que tiene baja latencia y es un recurso limitado. Para administrar una gran cantidad de hilos que pueden cooperar entre sí, Tesla introduce el cooperative thread array (CTA), llamado Thread Block en el modelo de programación CUDA. Un CTA es un array de threads concurrentes que ejecutan el mismo código y pueden cooperar para obtener un resultado. Un CTA puede contener hasta 512 threads, cada uno de ellos con un único ID (de 1, 2 o 3 dimensiones) que servirá para seleccionar los datos (en memoria compartida o global) necesarios para 130

su trabajo. Los threads dentro de un CTA pueden compartir datos entre la memoria global o la memoria compartida, y sincronizarse a través de la instrucción de barrera. Cada SM ejecuta concurrentemente hasta ocho CTAs, dependiendo de los recursos utilizados por cada uno de ellos. El programador es quien define la cantidad de threads, registros, memoria compartida y barreras de sincronización para el programa de un CTA. Cuando el SM tiene suficientes recursos, el SMC crea el CTA y asigna los IDs a cada thread. Los threads del CTA son ejecutados concurrentemente por el SM como warps SIMT de 32 threads paralelos. Para la implementación del paralelismo de grano-grueso a través de los Bloques y Grillas, el GPU crea múltiples CTAs con IDs únicos agrupados en grillas que a su vez tienen su propio ID. El distribuidor de trabajos de cálculo distribuye dinámicamente un flujo de CTAs en los SMs con suficiente recursos disponibles. Cada CTA se ejecuta de manera independiente, obteniendo resultados independientes de los otros CTAs que pertenecen a una grilla. Esto permite que un mismo programa sea escalable y que pueda ser ejecutado por GPUs con diferente cantidad de SMs. Cada grilla se ejecuta secuencialmente. Se puede obtener un nivel mayor de paralelismo utilizando múltiples GPUs por CPU y clústeres de nodos con múltiples GPUs. En resumen, esta arquitectura de GPU escala la performance de aplicaciones paralelas de manera transparente a través del número de SMs y núcleos SP. Es así como el programa para GPU puede ejecutarse en distintos tamaños de GPU sin necesidad de ser recompilado, ya que no debe adaptarse a la cantidad de procesadores disponibles. Para poder aprovechar esto, el programador debe poder descomponer el problema en bloques de cálculo independientes, como se describió anteriormente. Con este fin debe utilizar la extensión de los lenguajes de programación C y C++ brindada por CUDA. El programador debe escribir una secuencia de programa, denominada kernel, que será ejecutada en paralelo a través de distintos hilos organizados en los bloques y grillas ya descriptos. La aplicación generada tiene código serie para CPU y código de kernels paralelos para GPU.

4.5.3. Arquitectura Fermi La arquitectura Fermi [140][141] es la segunda generación de arquitecturas 131

compatibles con CUDA y fue lanzada por NVIDIA en el año 2010. Si bien gran parte de la filosofía de la arquitectura Tesla se mantiene, Fermi presenta grandes avances orientados a lograr que las GPUs se consoliden como herramientas de procesamiento intensivo en aplicaciones de propósito general. El objetivo de esta nueva arquitectura es mejorar el rendimiento en doble-precisión, incorporar caches reales, agrandar las memorias compartidas, acelerar los cambios de contextos y las operaciones atómicas y agregar protección de memoria mediante ECC (Error Correcting Codes). Estos objetivos se lograron generando una nueva generación de Streaming Multiprocessors (SM), introduciendo una segunda generación del set de instrucciones para thread paralelos, realizando mejoras en el sistema de memoria e incorporando un nuevo planificador de tareas de threads. Esta nueva arquitectura, sigue utilizando el modelo CUDA. En Tesla, y en la mayoría de las GPUs, la filosofía era ocultar la gran latencia del acceso a memoria DRAM a través de la ejecución masiva de threads concurrentes. Pero en muchas de las aplicaciones de propósito general su paralelismo no llega a generar la cantidad de threads suficientes para ocultar la latencia del acceso a memoria, y en otros casos la reutilización de datos no sigue un patrón regular capaz de ser manejado por el programador. Es por estas razones que Fermi introdujo una nueva jerarquía de memorias con caches de nivel 1 (L1) y 2 (L2), y así dar un paso hacia delante en la utilización de GPUs para aplicaciones de propósito general con requerimientos de altas prestaciones. La implementación de esta jerarquía de memoria utiliza un único path para las operaciones load/store, con una cache de L1 por cada SM y una cache de L2 general para todas las operaciones. Como se mencionó anteriormente la cache de L1 se comparte con la memoria compartida, y según las características de la aplicación convendrá utilizar una u otra. La cache de L1 también es utilizada para guardar temporariamente valores de registro, esto anteriormente se volcaba en la DRAM. Además, en lo que hace al sistema de memoria, se ha incorporado, siendo el primer GPU en hacerlo, protección a los datos en memoria mediante Códigos de Corrección de Errores (ECC). Este requerimiento surgió de la necesidad de tener integridad de datos en aplicaciones de cálculo de alta performance, como por ejemplo en

132

aplicaciones con imágenes médicas. La tecnología ECC detecta y corrige errores, generados habitualmente por la radiación natural, de un bit en los datos almacenados en memoria. Tanto los registros como las memorias compartidas, las caches de L1 y L2, y la DRAM están protegidos con ECC. En lo concerniente al nuevo SM utilizado en Fermi, ha incorporado varias innovaciones, haciéndolo más potente y programable que las versiones anteriores (ver Figura 4.17). Ahora cada SM contiene 32 procesadores CUDA (o Streaming Processors) a diferencia de los 8 presentes en Tesla. Cada uno de estos procesadores tiene una unidad de punto flotante (FPU) y una de enteros

para operaciones

aritmético-lógicas (ALU), y cuenta con su propio pipeline. En Fermi la unidad de punto flotante está implementada con el nuevo estándar revisado IEEE 754-2008, contando con la instrucción de multiplicación-suma fusionada (FMA: Fused Multiply-Add) tanto para precisión simple como doble. Estos nuevos cambios lograron que la performance para doble precisión sea la mitad que para single como en otros procesadores de altas prestaciones, mejorando la relación de 1 a 10 que había en Tesla. En un SM de Fermi se pueden ejecutar 16 operaciones de FMA por cada ciclo de reloj. La ALU tiene precisión de 32 bits para todas las instrucciones, a diferencia de los 24 bits de Tesla. Cada SM tiene 16 unidades de load/store, lo que permite calcular las direcciones de memoria fuente o destino para 16 threads en un solo ciclo de reloj. A su vez, se tienen 4 unidades de SFU, para ejecutar funciones trascendentales. Cada SFU ejecuta una instrucción por thread, por cada ciclo de clock. Por esta razón para un warp se necesitan 8 ciclos de reloj. El pipeline del SFU está desacoplado de la unidad emisora de instrucciones de manera de poder emitir instrucciones al resto de las unidades mientras la SFU está ocupada.

133

Figura 4.17. Diagrama del Streaming Multiprocessor de Fermi. Imagen adaptada de [140].

Fermi incorpora en sus SM un nuevo administrador de warps (Dual Warp Scheduler), capaz de manejar dos warps de manera concurrente. Para esto cuenta con dos unidades de planificación de warps y dos de despacho de instrucciones. Como cada warp se ejecuta de manera independiente no es necesario ningún tipo de chequeo de dependencias entre las dos unidades. Por cada warp se emite una instrucción a un grupo de 16 procesadores de threads (SP), a las 16 unidades de load/store o a las 4 unidades SFU. De esta forma se busca alcanzar el aprovechamiento total del hardware de procesamiento disponible. Por último, la memoria compartida de los SM se incrementó de 16 KB a 64KB, y se habilitó la posibilidad de configurarla como memoria compartida o como cache de L1. Las dos configuraciones posibles son 16KB de compartida y 48KB de cache L1 o viceversa. El planificador de threads también se actualizó en Fermi. En él se aumenta la cantidad de hilos que se pueden manejar en tiempo real, se reduce considerablemente el tiempo de cambio de contexto para multi-tasking, y se añade la 134

posibilidad de ejecutar múltiples kernels concurrentemente. El tiempo de cambio de contexto, para cuando se ejecutan múltiples kernels de manera secuencial, se ha disminuido considerablemente respecto de Tesla, llevándolo a menos de 25 μs. Esto es de utilidad cuando se comunican kernels de distinto tipo que forman parte de una misma aplicación. Cuando los kernels de una misma aplicación necesitan pocos recursos, se pueden ejecutar de forma concurrente, mejorando la utilización de los recursos de GPU. En lo que respecta al set de instrucciones, Fermi soporta el nuevo set PTX 2.0 (Parallel Thread Execution), el cual introduce mejoras tanto en precisión como en performance. Este nuevo set de instrucciones unifica los tres espacios de direcciones de memoria (a nivel de thread, de bloque y global) para las operaciones de load/store. Gracias a ellos se pueden implementar punteros de C/C++ en los programas a ejecutar en el GPU, ya que en PTX 1.0 el espacio de memoria al que apuntaba un puntero se determina en tiempo de ejecución en lugar de hacerse en tiempo de compilación. Este espacio de direcciones de memoria unificado permite soportar programas reales de C++, incluyendo funciones virtuales, punteros a funciones, y operadores para locación dinámica de memoria. Por último, también se mejoró la performance de las operaciones atómicas y se incorporaron instrucciones atómicas para punto flotante que no estaban disponibles en Tesla.

4.5.4. Arquitectura Kepler Kepler es la arquitectura más moderna de GPU de NVIDIA. Las mejoras e innovaciones respecto de Fermi han sido orientadas a consolidar a las GPUs como herramientas de computación de alto rendimiento en aplicaciones de propósito general. Además brinda mayor potencia de cálculo con menor consumo por la evolución de la tecnología, llegando a triplicar la performance por watt de Fermi. Existen dos versiones de la arquitectura Kepler, la GK104 y la GK110. Las nuevas prestaciones de Kepler simplifican el diseño de programas paralelos y brindan mayor flexibilidad para que la GPU sea utilizada en todo tipo de aplicaciones. El paralelismo es dinámico, permitiendo adaptar las cargas de trabajo durante la ejecución y tener múltiples programas ejecutándose en paralelo en forma concurrente. También permite lanzar trabajos en una GPU desde los distintos 135

núcleos del CPU de forma simultánea, gracias a ello distintas aplicaciones corriendo en CPU pueden ejecutar códigos en GPU sin interferir entre ellos. Por último, se facilita el acceso dentro de un clúster de PCs a la memoria de los distintos GPUs disponibles, facilitando su utilización en centros de cómputo de alto rendimiento. En lo que respecta a los recursos de hardware, se introduce una nueva versión del Streaming Multiprocessor, llamado SMX. El mismo está formado por 192 núcleos CUDA de precisión simple que tienen las mismas prestaciones de punto flotante que en Fermi y 32 unidades de funciones especiales (SFUs). Además, en la GK110 se incluye 64 unidades de punto flotante de precisión doble. Los SMX ejecutan a la frecuencia de clock del GPU en vez del doble de la misma, como en Fermi, y así se logra bajar el consumo. La mayor cantidad de núcleos por SM requiere mayor paralelización en los kernels para poder obtener su máximo rendimiento. Por ello cada SM puede ejecutar hasta 64 warps (2048 threads) y 16 bloques de threads CUDA. El planificador de warps consta de cuatro unidades en vez de las dos disponibles en Fermi. Estos cambios mejoran considerablemente el rendimiento por watt del GPU, pero en algunas aplicaciones no se observarán mejoras en la performance de ejecución respecto de Fermi. Los tamaños de memoria compartida siguen siendo los mismos y la cantidad de registros en la GK104 se mantienen respecto de Fermi. En GK110 dicha cantidad se cuadruplica. La memoria cache de L2 duplica su tamaño y ancho de banda. En resumen, en Kepler se ha mejorado el rendimiento por watt a costo de requerir mayores niveles de paralelismo; una gran parte de las innovaciones están orientadas a lograr un procesador más flexible para su utilización en todo tipo de aplicaciones.

4.6.

Implementación de MLEM 3D en GPU

La implementación de algoritmo MLEM 3D para CPU presentada al inicio de este capítulo calcula los coeficientes de la SRM on-the-fly, por la dificultad para almacenar la totalidad de coeficientes en memoria. Tanto las operaciones de proyección como retroproyección utilizan el algoritmo de Siddon para el cálculo de cada coeficiente, lo que resulta en ejecutar ese algoritmo dos veces la cantidad de bins del michelograma en reconstrucción por cada iteración. A modo de ejemplo, las

136

reconstrucciones de los sinogramas del GE Discovery STE requieren más de 100 millones de llamados al algoritmo de Siddon. Este tipo de ejecución se ajusta a la perfección a arquitecturas masivamente paralelas, como las descriptas en la sección anterior. En la Figura 4.18 se puede visualizar un esquema de las operaciones de proyección y retroproyección donde queda expuesto que las dos operaciones tienen mucho en común. Ambas parten de uno de los bins del sinograma y ejecutan el algoritmo de Siddon. Sin embargo, en la proyección se lee el valor de los píxeles de la imagen intersecados por la LOR y se escribe el resultado en el mismo bin del que se partió; mientras que en la retroproyección se escribe en los píxeles de la imagen intersecados por la LOR. Esto último hace que, si hay múltiples instancias en paralelo,

exista

la

posibilidad

de

que

dos

threads

intenten

actualizar

simultáneamente el mismo píxel de la imagen, y tal situación debe ser considerada a la hora de la implementación.

Figura 4.18. Esquema de procesamiento de las operaciones de proyección y retroproyección.

La implementación del algoritmo MLEM 3D fue evaluada en tres GPUs: la GTX285, perteneciente a la arquitectura Tesla serie T10; la GTX-480, de la arquitectura Fermi serie GF100; y la Tesla K10 con la arquitectura Kepler GK104. Los dos primeros procesadores son las versiones de alta gama, dentro de los procesadores de uso masivo, para sus respectivas arquitecturas, mientras que la tercera GPU está orientada al uso científico en servidores de procesamiento. En la Tabla 4-1 se muestran las principales características de cada una de ellas. Las diferencias más 137

notables se encuentran en la cantidad de procesadores disponibles y la capacidad de cómputo. Este último parámetro se refiere a algunas instrucciones que se pueden ejecutar en el procesador. La capacidad de cómputo 2.0 en adelante permite realizar operaciones atómicas de suma y escritura con variables de punto flotante. La Tesla K10 tiene incorporado dos GPUs en una misma placa, cada una de ellas funciona de manera independiente. GTX-285

GTX-480

Tesla K10

(Tesla)

(Fermi)

(Kepler)

Núcleos CUDA

240

480

2 x 1536

Reloj de Procesador

1476 MHz

1401 MHz

745 MHz

Interfaz de Memoria

GDDR3

GDDR5

GDDR5

Ancho de Banda (GB/s)

159 GB/s

177.4 GB/s

2 x 99 GB/s

Cantidad de Memoria

1 GB

1.5 GB

2 x 4 GB

Compute Capabilities

1.3

2.0

3.0

Tabla 4-1. Características de los procesadores utilizados para evaluar la implementación del algoritmo MLEM 3D en CUDA.

La performance de la implementación en CUDA fue contrastada con implementaciones en CPU para un único y para múltiples hilos utilizando los procesadores Intel i7 860 (8 núcleos) y un servidor con dos procesadores Intel Xeon E5-2630 (12 núcleos). De esta forma, tanto para GPU y CPU se evalúa hardware de uso masivo más accesible (GTX-285, GTX-480 y Intel I7 860) y hardware orientado a servidores (Tesla K10 e Intel Xeon E5-2630).

4.6.1. Implementación en CUDA Cada una de las etapas del algoritmo MLEM fue paralelizada: proyección, retroproyección y actualización de píxel. Se desarrolló un kernel de CUDA por cada una de esas operaciones. Las operaciones de proyección y retroproyección se paralelizaron a nivel de bin, es decir que se ejecuta un thread por cada bin del sinograma de entrada. Cada thread ejecuta el algoritmo de Siddon y luego escribe los resultados en memoria. El kernel de actualización de píxel ejecuta un thread por píxel de salida. La implementación en CUDA se realizó incorporando optimizaciones de forma progresiva, teniendo en cuenta la guía de buenas prácticas de CUDA [142]. 138

Adicionalmente, se utilizó el NVIDIA CUDA Visual Profiler para evaluar la performance y encontrar cuellos de botella en la implementación. Ya se han mencionado las diferencias entre la proyección y retroproyección, y la posibilidad de condiciones de carrera en esta última. Para la implementación en CUDA con un thread por bin del sinograma, la probabilidad de introducir errores por problemas de concurrencia aumenta. En la Figura 4.19 se ejemplifica cómo afecta la condición de carrera al kernel de retroproyección. Cuando dos hilos intentan actualizar un mismo píxel mediante un incremento, leen un mismo valor, lo incrementan y luego escriben el nuevo valor. El thread que escriba el resultado en segundo lugar lo hará sobre el valor original y no sobre el actualizado por el primer thread. Esto resulta en una subestimación del valor del píxel. La probabilidad de que ocurran eventos de condición de carrera en la operación de suma y escritura depende, entre otros factores, del orden en que se paralelicen los bins del sinograma. Este problema en la operación de retroproyección se puede resolver con operaciones atómicas, que aseguran que las operaciones de suma y escritura se hagan de a una por vez. En la arquitectura Tesla no se cuenta con la posibilidad de utilizar este tipo de instrucciones en punto flotante, por lo que se intentó minimizar dicho efecto. Por otro lado, en la arquitectura Fermi si lo están aunque, como se verá en los resultados, son costosas computacionalmente. Se realizó una versión base en CUDA compatible con cualquier GPU de la serie Tesla, Fermi y Kepler. En el kernel, el thread en ejecución obtiene el bin del sinograma a procesar a partir de las estructuras ThreadID y BlockID disponibles en CUDA. Los índices del bin son transformados en los valores (r,θ,z1,z2) utilizando una tabla en memoria constante de solo lectura, ya que la misma es de baja latencia. Luego se obtienen ambos puntos de la LOR y se realiza el algoritmo de Siddon, que es una adaptación directa del Algoritmo 4.2 a C-CUDA. El uso de la memoria compartida es muy beneficioso por su baja latencia pero su tamaño es muy limitado. Como consecuencia, no se puede almacenar la totalidad de la imagen en memoria compartida, ya que cada thread accede a distintos píxeles distribuidos en el volumen. El valor del bin del sinograma procesado por un thread,

139

sí es almacenado en memoria compartida, ya que cada thread solo requiere acceder a un único bin.

Figura 4.19. Problema de condición de carrera en el kernel de retroproyección. En el GPU hay n threads ejecutándose en paralelo, cada uno de ellos realizando el algoritmo de Siddon y actualizando los píxeles de la imagen de retroproyección. Dos threads intentan actualizar un píxel de forma simultánea, lo que provoca un error en el mismo.

Los kernels se ejecutan con un valor predefinido de cantidad de threads por bloque. Este parámetro es importante para mantener el GPU totalmente ocupado, ya que en estas arquitecturas la alta latencia del acceso a memoria global se oculta ejecutando otros grupos de threads mientras se espera el dato. A raíz de ello, la cantidad de threads por bloque debe ser mucho mayor que la de Streaming Processors disponibles. La máxima cantidad de threads por bloque es de 1024 para la GTX285, de 1536 para la GTX-480 y de 2048 para la Tesla K10 ya que por cada SM se pueden tener 32, 48 y 64 warps activos (cada uno de 32 threads) respectivamente. Adicionalmente, la cantidad de threads por bloque se encuentra limitada por los recursos que comparten los hilos dentro de un SM, como son los registros y la cantidad de memoria compartida. Cada bloque se debe ejecutar en un Streaming

140

Multiprocessor y en él solo se ejecutarán hasta 8 bloques de forma simultánea, según la disponibilidad de recursos en el SM. En los kernels de proyección y retroproyección el recurso limitante es la cantidad de registros por thread y estos están asignados por el compilador nvcc. Como la compilación se ajustó a cada arquitectura mediante el parámetro ―arch‖, la cantidad de registros varió según la GPU en que se compiló y ejecutó el código. En la GTX-285 los kernels de proyección y retroproyección utilizan 25 registros, en la GTX-480 35 y en la Tesla K10 37. En la GTX-285 se dispone de 16k registros por SM, de esta forma la máxima cantidad de threads activos es: (4.15)

Como los hilos se ejecutan en grupos de 32 (warps) la máxima cantidad de warps activos y totalmente poblados es de 20. Sin embargo, es conveniente tener más de un bloque activo en un SM; por ello se seleccionó una configuración de 192 threads por bloque. De esta forma cada kernel se ejecuta con tres bloques por SM, dando un total de 18 warps activos en cada SM y un porcentaje de ocupación (warps activos / máximos warps) de 56,25%. El mismo análisis se realizó para la GTX-480 pero en ella se disponen de 32k registros por SM y una máxima cantidad de threads activos de 48. Se seleccionó un tamaño de 320 threads por bloque, resultando en 3 bloques y 30 warps activos por SM. Esto equivale a un 63% de ocupación. En la Tesla K10 la cantidad de registros por SM es el doble que para Fermi, pero a su vez tiene capacidad de ejecutar el doble de bloques por SM; por esta razón se mantuvo el tamaño de 320 threads por bloque. Los porcentajes de ocupación del procesador no siempre se traducen en una mejora del rendimiento. Existe una recomendación de que alrededor de un 60% de ocupación puede obtener el máximo rendimiento [142]. Por ello, se verificó que ambos parámetros obtenían mejor performance realizando corridas con otras configuraciones de threads por bloque. Para indexar cada thread con un bin se utilizó un direccionamiento lineal, dónde los índices siguen el mismo orden en el que está almacenado en memoria el sinograma.

141

Esto hace que la lectura de los bins del sinograma se haga de forma unificada (coalesced) dentro de cada warp. El orden en que los bins son accedidos también se eligió de forma de minimizar las condiciones de carrera, ya que este orden hace que los threads dentro de un block procesen principalmente LORs paralelas, lo que reduce la cantidad de píxel intersecados de forma simultánea por diferentes threads de un bloque. Esto se puede observar en la Figura 4.20.

Figura 4.20. Distribución de los threads y bins del sinograma dentro de un bloque para disminuir la posibilidad de errores por condiciones de carrera.

Con este esquema, los kernels de proyección y retroproyección se configuran para usar la dimensión x de los bloques para completar los threads necesarios para procesar todo un sinograma 2D y la dimensión y para indicar qué sinograma 2D dentro del michelograma se debe procesar. Cada thread utiliza la variable blockIdx.y, disponible en el contexto de cada thread, para determinar qué sinograma 2D debe procesar, y luego, una combinación de blockIdx.x y threadIdx.x para determinar el bin del sinograma que le corresponde. Esto último se realiza con las Ecuaciones (4.16), (4.17) y (4.18). (4.16) (4.17) (4.18)

donde isino2d es el índice lineal (la posición en memoria) del bin dentro del sinograma 2D, mientras que ir e iθ son los índices para la distancia r y el ángulo de la proyección θ del bin, respectivamente. Estos dos últimos valores son necesarios para

142

obtener las coordenadas de la LOR a procesar. El operador mod es el resto del cociente. En la implementación para los procesadores GTX-480 y Tesla K10 se utilizó una suma atómica en el kernel de retroproyección, con el objeto de evitar los errores por condición de carrera. En la GTX-285 esto no pudo ser incorporado, ya que cuenta con capacidad de cómputo 1.3 que no incluye suma atómica para elementos de punto flotante.

4.6.2. Evaluación de la Implementación Para evaluar la performance de la implementación se midieron los tiempos de ejecución de cada iteración y de la reconstrucción completa en las implementaciones para CPU y GPU. También se registraron los tiempos llevados por cada operación (proyección, retroproyección y actualización de píxel). En el caso de la versión para CPU, se generó una segunda implementación para aprovechar la capacidad multinúcleo de los procesadores actuales y así poder realizar una comparación más justa respecto de la realizada con un único thread. La misma se desarrolló con openMP [143] que permite fácilmente paralelizar algoritmos en sistemas con memoria compartida como los procesadores multi-núcleo actuales. En dicha implementación también se utilizó una suma atómica en la retroproyección, para evitar los errores de la condición de carrera. Los datos utilizados para la reconstrucción fueron las adquisiciones de un fantoma cilíndrico y de un estudio de cerebro realizadas con el scanner GE Discovery STE de la sección 4.4.2. Adicionalmente se generó un michelograma simulado computacionalmente, del mismo tamaño que los anteriores, de un fantoma de calidad de imagen utilizando el software de reconstrucción tomográfica STIR [144]. La comparación también se realizó en calidad de imagen, para verificar que la implementación en CUDA no afecta los resultados de reconstrucción y, en el caso de no utilizar operaciones atómicas, evaluar la forma en que se degrada la imagen por la suma con condiciones de carrera. Para cuantificar la calidad de la imagen se utilizaron el fantoma cilíndrico y el fantoma NEMA simulado. En el primero se calcula el desvío estándar normalizado en una región de interés (ROI) de 140 mm de diámetro que cubre el cilindro casi en su totalidad (imagen de la izquierda en la 143

Figura 4.21). En el fantoma de calidad de imagen se mide la actividad en cada esfera caliente y fría con una ROI del 80% de su diámetro original sobre cada una de ellas (imagen central en la Figura 4.21) y se obtiene la recuperación de contraste respecto del fondo, que se evalúa obteniendo el promedio de 8 ROIs de 30 mm de diámetro en el fondo del fantoma (imagen de la derecha en la Figura 4.21). Para ello se utiliza el slice ubicado en el centro de las esferas. El fantoma tiene una relación de 4 a 1 entre las concentraciones de actividad de las esferas calientes y el fondo.

Figura 4.21. Slices centrales de los fantomas utilizados para evaluar el algoritmo de reconstrucción de imagen 3d implementado para scanners cilíndricos. Izquierda: fantoma cilíndrico con ROI de evaluación en azul. Centro: fantoma computacional de calidad de imagen con las ROIs de las esferas calientes y frías marcadas en azul. Derecha: mismo fantoma que en la imagen del centro pero con las ROIs utilizadas para evaluar el fondo en azul.

Con los valores obtenidos en cada ROI para el slice centrado en las esferas se obtiene la recuperación de contraste para las esferas calientes [145]: (4.19)

donde QH,j es la recuperación de contraste para la esfera caliente j, CH,j es la concentración de actividad en la ROI de la esfera caliente j y CB la concentración de actividad de fondo promedio de las ROIs de fondo. La recuperación de contraste para las esferas frías se obtiene con: (4.20)

donde QC,j es la recuperación de contraste para la esfera fría j, CC,j es la concentración de actividad en la ROI de la esfera fría j y CB es la misma concentración de actividad de fondo utilizada en las esferas calientes.

144

4.6.3. Resultados de Reconstrucción con CUDA Se realizó la reconstrucción MLEM con 40 iteraciones para cada uno de los fantomas y estudios disponibles en cada una de las plataformas bajo análisis. Se utilizaron dos tamaños de imagen, uno de baja resolución de 128x128x47 y otro de alta de 256x256x47, ambos cubriendo la totalidad del FOV del scanner (cilindro de 70 cm de diámetro y 15,4 cm de largo). Suplementariamente se realizaron reconstrucciones con un FOV reducido de 40 cm de diámetro. Estas últimas fueron las utilizadas para la obtención de los parámetros de calidad de imagen. Los tiempos de cada operación, de iteración y totales de reconstrucción fueron registrados para cada procesador e implementación analizada. En la Tabla 4-2 se presentan los tiempos de ejecución en segundos de una iteración para cada procesador e implementación. 128x128x47

256x256x47

256x256x47 40 cm FOV

I7 860

238,2 s

395,5 s

309,3 s

Dual Xeon E5-2630

124,1 s

213,2 s

149,1 s

I7 860 con openMP

64,8 s

110,5 s

84,2 s

Dual Xeon con openMP

18,2 s

27,2 s

19,1 s

GTX-285

6,2 s

21,7 s

12,4 s

GTX-480

2,8 s

8,5 s

6,7 s

GTX-480 con Atómica

12,1 s

20,6 s

13,3 s

Tesla K10

3,1 s

9,9 s

6,1 s

Tesla K10 con Atómica

3,1 s

9,9 s

6,1 s

Tabla 4-2. Tiempo de ejecución en segundos de una iteración para las dos CPUs y las dos GPUs utilizados en sus diferentes versiones de implementación.

A partir de los tiempos por iteración, se calcularon los factores de aceleración de las versiones en GPU respecto de la versión de un único hilo en el CPU más rápido, que fue el Intel Xeon E5-2630. De esta forma se puede analizar cuánto mejora la paralelización, tanto en CPU con OpenMp como cada una de las GPUs con CUDA. Dichos factores de aceleración se encuentran en la Tabla 4-3. La implementación en OpenMP aceleró entre 7 y 10 veces la ejecución de una iteración, a pesar de contar con 24 núcleos en total (12 por cada procesador Xeon), mostrando que una mayor

145

cantidad de núcleos no se traduce directamente en aceleración. El mismo efecto se notó en el procesador I7 860, donde con 8 núcleos se lograron factores de aceleración cercanos a 4. Los accesos a memoria parecieran ser el limitante en estos casos. En lo que respecta a las implementaciones en CUDA, se obtuvieron factores de aceleración de 20, 44 y 40 veces con la GTX-285, GTX-480 y Tesla K10 respectivamente, para las imágenes de 128x128x47 píxeles y sin operaciones atómicas. En las imágenes de 256x256x47 los factores de aceleración se reducen a la mitad respecto del tamaño de imagen más pequeño. La utilización de la suma atómica en la GTX-480 redujo los factores de aceleración considerablemente, mostrando tener un gran impacto en los tiempos de ejecución. En la Tesla K10 la utilización de la suma atómica no produjo un aumento en los tiempos de reconstrucción. Xeon con openMP

GTX-480 GTX-285

GTX-480

con

Tesla K10 Tesla K10

Atómica

con Atómica

128x128x47

6,8

20,3

44,3

10,3

40,0

40,0

256x256x47

7,8

9,8

25,1

10,3

21,5

21,5

7,8

12,01

22,25

11,2

24,4

24,4

256x256x47 40 cm FOV

Tabla 4-3. Factores de aceleración de las implementaciones paralelas en CPU y GPU respecto de la de CPU de un único hilo en el procesador Intel Xeon E5-2630.

Los tiempos de iteración se descompusieron en las tres operaciones que la componen. La actualización de píxel puede ignorarse, porque su tiempo de ejecución es despreciable frente a los de proyección y retroproyección. En la Figura 4.22 se puede observar la distribución de tiempo de cada operación en una iteración para la reconstrucción del fantoma de calidad de imagen y un tamaño de salida de 128x128x47 píxeles. En él se puede observar como la retroproyección pasa a ocupar más tiempo de ejecución en implementaciones paralelas, por ser una implementación bin-wise y utilizar operaciones atómicas. El primer factor implica accesos a memoria desordenados y por esta razón en la GPU GTX-285, al no tener memoria cache, la operación de retroproyección consume un porcentaje mayoritario 146

del tiempo, a pesar de no usar operaciones atómicas. Esto no ocurre en las GPUs GTX-480 y Tesla K10, ambas con memorias cache de nivel 1 (L1) y 2 (L2). En la Tesla K10 la mejora de las operaciones atómicas hace que no se pague un costo en la performance por su utilización, a diferencia de la GTX-480, donde la utilización de ese tipo de instrucciones impacta considerablemente en los tiempos de ejecución de la retroproyección.

Figura 4.22. Distribución del tiempo de ejecución de cada kernel dentro de una iteración para la reconstrucción de la imagen de 128x128x47.

Los slices centrales de la reconstrucción del fantoma cilíndrico y el de calidad de imagen pueden observarse en la Figura 4.23 y Figura 4.24, respectivamente. En ellas se comparan las imágenes obtenidas en la implementación CUDA para los GPUs utilizados y la versión para CPU de un único hilo. Visualmente se puede observar un incremento del ruido en las reconstrucciones realizadas en GPU y sin utilización de instrucciones atómicas por los problemas de concurrencia. Para cuantificar el nivel de ruido, se obtuvo el desvío estándar en la ROI del fantoma cilíndrico (imagen de la izquierda en la Figura 4.21) y en las ROIs de fondo del fantoma de calidad de imagen (imagen de la derecha en la Figura 4.21).

147

Figura 4.23. Corte en el slice central de la reconstrucción de la adquisición de fantoma cilíndrico para sus versiones en CPU y en GPU. Arriba-izquierda: versión CPU de un único hilo. Arriba-centro: GTX-480 con instrucción atómica en retroproyección. Arriba-derecha: Tesla K10 con instrucción atómica en retroproyección. Abajo-izquierda: GTX-285 sin instrucción atómica. Abajo-centro: GTX480 sin instrucción atómica. Abajo-derecha: Tesla K10 sin instrucción atómica.

Figura 4.24. Corte en el slice central de la reconstrucción del fantoma de calidad de imagen para sus versiones en CPU y en GPU. Arriba-izquierda: versión CPU de un único hilo. Arriba-centro: GTX480 con instrucción atómica en retroproyección. Arriba-derecha: Tesla K10 con instrucción atómica en retroproyección. Abajo-izquierda: GTX-285 sin instrucción atómica. Abajo-centro: GTX-480 sin instrucción atómica. Abajo-derecha: Tesla K10 sin instrucción atómica.

En la Tabla 4-4 se encuentran los valores obtenidos en las ROIs mencionadas. Con 148

dichos valores se puede verificar y cuantificar el incremento del ruido en las implementaciones paralelas sin instrucciones atómicas. Además se observa que el nivel de ruido para la implementación en CPU con un único hilo de ejecución es equivalente al de CUDA con instrucciones atómicas, mostrando que el problema de concurrencia ha sido resuelto. Las pequeñas diferencias en los niveles de ruido entre las imágenes de CPU y las de GPU con operaciones atómicas puede deberse a que en la implementación en GPU el orden en que se acumulan los resultados es distinto al de CPU, y las operaciones de punto flotante no son asociativas. GTX-285

GTX-

GTX-

Tesla

Tesla

480

480 con

K10

K10 con

Atómica

CPU

Atómica

ROI en Cilindro

16,8%

10,6%

4,9%

12,3%

5,7%

5,0%

ROIs en Fantoma de

15,1%

9,3%

1,9%

9,7%

1,9%

2,5%

Calidad de Imagen Tabla 4-4. Desvío estándar en las ROIs de actividad uniforme del fantoma cilíndrico y de calidad de imagen para las imágenes reconstruidas de 256x256x47 píxeles y FOV de 40 cm.

Finalmente, para el fantoma de calidad de imagen se obtuvieron los valores de recuperación de contraste para las esferas calientes y frías a través de las ecuaciones (4.19) y (4.20). Los valores obtenidos se pueden observar en la Tabla 4-5. No hay variaciones considerables para ninguno de las implementaciones de reconstrucción. GTX-480 GTX-285

GTX-480

con

Tesla K10

Atómica

Tesla K10

Intel

con Atómica

Xeon

10 mm

71,1%

72,1%

72,3%

74,2%

72,3%

72,7%

13 mm

85,8%

82,4%

84,1%

82,7%

84,0%

85,2%

17 mm

93,9%

94,9%

94,5%

94,0%

94,4%

94,8%

22 mm

102,0%

100,1%

99,8%

99,5%

99,8%

101,7%

28 mm

78,5%

76,7%

77,1%

76,7%

77,0%

78,3%

37 mm

83,2%

82,1%

81,7%

81,4%

81,7%

81,8%

Tabla 4-5. Valores de recuperación de contraste para cada uno de las esferas frías y calientes obtenidos con las distintas implementaciones del algoritmo MLEM 3D.

4.6.4. Análisis de los Resultados La utilización de GPUs permitió lograr aceleraciones desde 10 a 40 veces respecto

149

de una implementación en CPU corrida en un procesador de alta prestaciones y última generación como el Intel Xeon E5-2630. La implementación paralela tiene problemas de concurrencia por condición de carrera en la operación de retroproyección, lo que requiere la utilización de instrucciones atómicas para mantener la calidad de imagen. Cuando estas no se usan el ruido en la imagen aumenta, como se pudo observar con el fantoma cilíndrico. La implementación del algoritmo en tres generaciones de GPUs distintas sirvió para ver el impacto de las mejoras introducidas en cada arquitectura para lograr procesadores más flexibles para aplicaciones de propósito general. En primer lugar, la GTX-285 con la arquitectura Tesla GF100, no tiene instrucciones atómicas para elementos de punto flotante y no cuenta con memorias cache. Como consecuencia, las imágenes no pueden alcanzar la calidad de imagen de la implementación de CPU y la retroproyección se hace más lenta por los accesos a memoria. La carga computacional de la proyección y retroproyección son equivalentes; la única diferencia radica en el patrón de lectura y escritura de salida. En la proyección todos los threads dentro de un warp realizan repetidamente operaciones de lectura y escritura de posiciones contiguas de memoria para actualizar el sinograma proyectado, permitiendo una cierta cantidad de accesos unificados a memoria. En la retroproyección esto se realiza sobre los píxeles de la imagen de salida y con un patrón muy disperso en las direcciones de memoria; de esta forma no se puede aprovechar la posibilidad de realizar accesos unificados a memoria. La evolución a la arquitectura Fermi, con la GTX-480, gana potencia de procesamiento, agrega memorias cache de L1 y L2 e introduce instrucciones atómicas de punto flotante; sin embargo, el costo computacional de utilizarlas es alto, como se puede observar en el incremento del tiempo de retroproyección. Las memorias cache reducen el costo de los accesos dispersos a memoria y emparejan los tiempos de procesamiento para las operaciones de proyección y retroproyección (ver Figura 4.22 para GTX-480 sin instrucciones atómicas). Por último, la arquitectura Kepler no tiene grandes mejoras en lo que hace a la potencia de cálculo respecto de Fermi, como se observa en los factores de aceleración de la implementación sin suma atómica. Por otro lado, la utilización de estas instrucciones

150

se ha mejorado considerablemente en esta arquitectura, teniendo un impacto nulo en los tiempos de ejecución. Ambos resultados condicen con la propuesta de la arquitectura Kepler: mejorar el rendimiento por Watt del procesador (bajar el consumo para un rendimiento equivalente a Fermi) y mejorar la arquitectura para aplicaciones de propósito de general (por ejemplo mediante instrucciones atómicas más eficientes). Respecto de la implementación paralela en OpenMP corriendo en un servidor con dos procesadores Xeon, que cuenta con una totalidad de 24 núcleos, la implementación en la Tesla K10 obtuvo un factor de aceleración de 4 veces. Vale destacar que en la Tesla K10 se cuenta con dos GPUs y en el análisis realizado se utiliza sólo una de ellas. Potencialmente, con el mismo hardware se podría duplicar la performance realizando una implementación multi-GPU con CUDA. Para realizar una comparación más completa, en la Tabla 4-6 se muestran el año de lanzamiento de cada procesador y el precio de cada uno de ellos [146]. En ella se puede observar la gran diferencia de precio entre el hardware de alta prestaciones para servidores (Tesla K10 e Intel Xeon E5-2630) respecto de los de consumo masivo. En la tabla se agregó la GPU GTX-680, que es equivalente a la Tesla K10 pero orientada a consumo masivo en vez de aplicaciones científicas. Las únicas diferencias entre ellas son una mayor cantidad de memoria y la incorporación de chequeo de errores en memoria (ECC) en la K10, factores que como hemos observado en los resultados de la GTX-480 no tienen impacto en la calidad de las imágenes obtenidas. Observando los precios y la performance obtenida, podemos concluir que el hardware de alta gama de uso masivo es la solución adecuada para una computadora de reconstrucción de altas prestaciones y bajo costo. La utilización de la GTX-680 en vez de la Tesla K10 permitiría tener una performance muy superior a un servidor de CPUs.

Precio

Tesla

GTX-

K10

680

200 U$$

2000 U$$

450 USS

300 U$$

600 U$$

2010

2012

2012

2009

2012

GTX-285

GTX-480

180 U$$ 2009

I7 860

Xeon E52630

Año de Lanzamiento

Tabla 4-6. Resumen de precios y años de lanzamiento de cada uno de los procesadores utilizados.

151

Comparando la performance para los distintos tamaños de imagen, se observaron menores factores de aceleración para las imágenes de 256x256x47 respecto de las de 128x128x47. Esto era de esperarse, ya que la implementación es bin-wise, por lo que la cantidad de threads se mantiene para los distintos tamaños de imagen, pero cada hilo ejecutará mayor cantidad de instrucciones. Adicionalmente, la probabilidad de que los threads de un warp diverjan aumenta al haber más píxeles involucrados en el algoritmo de Siddon. Esto puede observarse en la Figura 4.25, donde se grafica la cantidad de ramificaciones divergentes, que provocan la serialización de ejecución dentro de los warps, para los distintos tamaño de imagen.

Figura 4.25. Cantidad de ramificaciones divergentes en la ejecución de las reconstrucciones en GPU para los distintos tamaños de imagen utilizados.

En lo que respecta a calidad de imagen, se ha observado que la no utilización de instrucciones atómicas incrementa el ruido en las imágenes pero no impacta en la resolución de las mismas. Esto se resuelve para las arquitecturas Fermi y Kepler, con las que se obtienen resultados equivalentes a los de CPU. Existen mínimas diferencias entre las imágenes de GPU con instrucciones atómicas y las de CPU, porque las instrucciones de punto flotante no se ejecutan en el mismo orden.

4.7.

Conclusión

En este capítulo se realizó una implementación satisfactoria del algoritmo MLEM 3D con un proyector geométrico basado en el algoritmo de Siddon. Se ha verificado su correcto funcionamiento con datos de adquisiciones reales y de simulaciones 152

Monte Carlo. A su vez, se mostró el gran costo computacional que tiene este tipo de algoritmos y la necesidad de realizar implementaciones paralelas. En dicho sentido, se desarrolló el mismo algoritmo en la plataforma CUDA para su ejecución en unidades

de

procesamiento

gráfico.

Con

la

misma

se

logró

acelerar

considerablemente los tiempos de reconstrucción. La implementación en GPUs en la arquitectura Kepler logró cuadriplicar la performance respecto de la implementación paralela en CPU ejecutada en un servidor con dos procesadores de altas prestaciones con 12 núcleos cada uno de ellos. La utilización de procesadores gráficos mostró ser la plataforma adecuada para tener tiempos de reconstrucción adecuados a un costo muy accesible. La utilización del modelo CUDA como plataforma de implementación mostró ser adecuada, ya que se observó cómo un mismo código pudo ejecutarse en tres arquitecturas de GPUs distintas. La evaluación de los algoritmos con las arquitecturas Tesla (lanzada al inicio de este trabajo de tesis), Fermi y Kepler (la más reciente), permitió comprobar cómo este tipo de procesadores ha ido evolucionando constantemente a un procesador altamente paralelo orientado a todo tipo de aplicaciones. En Tesla no se contaba con instrucciones atómicas para punto flotante ni memorias cache, lo que generó imágenes más ruidosas debido a las condiciones de carrera en la retroproyección y tiempos de ejecución más lentos por los accesos a memoria dispersos en dicha operación. Esto fue resuelto en Fermi, pero se observó que la utilización de instrucciones atómicas es muy costosa. Finalmente, la evolución a Kepler resolvió este problema. A su vez, cada nueva generación de procesadores incrementa la cantidad de procesadores integrados por área de chip y las implementaciones en CUDA son capaces de utilizar más de un GPU. Gracias a la escalabilidad de CUDA, se espera disminuir los tiempos de ejecución considerablemente con la evolución de la tecnología. La implementación en múltiples GPUs es uno de los trabajos a futuro que se desprenden de esta tesis. El trabajo desarrollado en este capítulo ha dado origen a una publicación [126].

153

154

Capítulo 5

AR-PET El AR-PET es el primer tomógrafo por emisión de positrones desarrollado en Argentina. El mismo fue diseñado para obtener un equipo de bajo costo, con el objetivo de facilitar el acceso en Argentina a esta importante técnica de medicina nuclear. Es desarrollado por el laboratorio de Instrumentación y Control de la Comisión Nacional de Energía Atómica, y cuenta con la colaboración del grupo de Inteligencia Artificial y Robótica de la Universidad Tecnológica Nacional - Facultad Regional Buenos Aires. Para lograr un scanner de bajo costo se ha optado por la utilización de detectores continuos y fotomultiplicadores grandes. El tomógrafo está formado por seis cabezales detectores con cristales continuos de NaI(Tl) ordenados en una disposición hexagonal [147][148] (Figura 5.1). Cada cristal tiene un tamaño de 304 x 406 x 2,54 mm3 y está acoplado a un array de 8x6 fotomultiplicadores Hamamatsu R1534. Esto últimos tienen un tamaño de 52x52 mm2. Esta geometría permite obtener un detector de bajo costo y con amplio campo de visión. La electrónica de procesamiento es totalmente digital y tiene una arquitectura de procesamiento distribuida [149] que permite la implementación de algoritmos complejos para compensar algunas de las desventajas de la utilización de cristales continuos de NaI(Tl). Dicha arquitectura está formada por cuatro capas. La primera,

155

denominada Procesador de Pulsos, realiza la digitalización de los pulsos provenientes de los PMTs y obtiene su amplitud y marca de tiempo. Esta etapa está implementada, para cada PMT, mediante un preamplificador de conformación de pulso, un conversor analógico-digital (ADC) y una FPGA (Field Programmable Gate Array) Spartan 3 para el procesamiento digital. La segunda capa se denomina Procesador de Cabezal y determina la energía total del evento y su posición dentro de las coordenadas planares del cabezal. Esta etapa se implementa en una FPGA Virtex-4 SX, que colecta la información de los 48 Procesadores de Pulso correspondientes a cada PMT del cabezal. La tercera capa es el Procesador de Coincidencias que obtiene los eventos en coincidencia temporal a partir de los eventos de cada cabezal enviados por las seis Virtex-4 SX. Los eventos en coincidencia pueden ser guardados en modo lista o en un michelograma, en este último caso el Procesador de Coincidencias también calcula las coordenadas de la Línea de Respuesta.

Figura 5.1. Geometría y diseño mecánico del AR-PET. Se cuenta con seis cabezales detectores dispuestos en geometría hexagonal.

Los Procesadores de Pulso se comunican con el Procesador de Cabezal con un par diferencial balanceado de baja tensión (LVDS). Y, a su vez, los seis Procesadores de 156

Cabezal lo hacen con el Procesador de Coincidencias de la misma manera.

Figura 5.2. Vista de perfil de un cabezal del AR-PET. En ella se pueden ver los tubos fotomultiplicadores, la electrónica asociada a cada uno de ellos y la electrónica de Procesamiento de Cabezal en el nivel superior.

La cuarta y última capa de procesamiento implementa los algoritmos de reconstrucción de imágenes en un servidor con múltiples procesadores gráficos (GPU), los cuales serán tratados en esta tesis. El Procesador de Coincidencias se comunica con esta capa mediante una conexión inalámbrica. Por otro lado, se cuenta con un cabezal de medición para la corrección de atenuación. El mismo es un anillo que se ubica pegado al hexágono principal. Está formado por una fuente colimada de 137Cs en un lado y un anillo parcial de detección en el otro.

5.1.

Características Generales

La selección de NaI(Tl) como cristal detector se debe principalmente a su costo. El precio por unidad de área de un detector de BGO es aproximadamente tres veces superior y uno de LSO lo es hasta 10 veces. El cristal de NaI(Tl), al ser 157

higroscópico, no se puede utilizar de forma pixelada. Por esta razón, se adoptó la configuración de seis detectores grandes rectangulares. Además, el AR-PET cuenta con un movimiento de rotación, que no es habitual en scanners de uso clínico. Este movimiento permite homogeneizar la medición y no tener regiones incompletas en los sinogramas, que aparecen por problemas en el posicionamiento de eventos ocurridos en la cercanía del borde del detector. Por el movimiento rotatorio, el ARPET se alimenta mediante escobillas y tiene comunicación inalámbrica con el exterior. El array de 8x6 PMTs, acoplados a cada cristal para medir la luz generada por cada fotón gamma frenado en el cristal, permite obtener la energía total depositada en el detector y la posición del mismo. A su vez, la medición de pulsos de cada PMT está sincronizada temporalmente para poder detectar cuando pulsos presentes en distintos PMTs corresponden a un mismo destello en el cristal. La energía de un destello está dada por la suma de las energías medidas por cada PMT y el posicionamiento del evento se obtiene a partir de la distribución espacial de las energías. El PMT que obtiene la mayor energía para un evento detectado se denomina centroide. La marca temporal del evento se obtiene a partir del pulso del PMT centroide. Las coincidencias son obtenidas mediante una FPGA que concentra los eventos de cada cabezal. Esto permite que se reduzcan ampliamente el volumen de datos y que el canal de comunicación hacia el servidor de reconstrucción no necesite un gran ancho de banda. La comunicación entre ellos se realiza mediante una conexión inalámbrica IEEE 802.11 eliminado la necesidad de cables entre el pórtico rotatorio y la computadora de reconstrucción. El cabezal de atenuación utiliza detectores pixelados de LYSO, ya que al tener un volumen pequeño no se encarece el equipo. Además permite ganar experiencia en este tipo de detectores. Esto último podría ser de importancia en el diseño de un segundo tomógrafo con mayores prestaciones que el AR-PET. En lo que respecta al diseño mecánico, el pórtico o gantry soporta los seis detectores planos en geometría hexagonal con su electrónica asociada. Tiene capacidad de rotación continua y se espera que trabaje a una velocidad de 1 rpm con posiciones fijas de camilla, así como también en modo helicoidal con el avance de la camilla a

158

30mm por minuto. Para reducir la incidencia de radiación fuera del FOV, el gantry cuenta con un blindaje formado por dos anillos de plomo de 10 mm. Está diseñado en forma modular para facilitar su instalación, transporte y mantenimiento. Sus dimensiones y peso permiten el uso de ascensores y puertas de tamaño estándar. Cada cabezal detector está contenido en una caja de aluminio y cuenta con su propio sistema de enfriamiento que utiliza un conjunto de ventiladores y disipadores. El sistema de alimentación provee una única tensión de 12 VDC por medio de un anillo colector, lo que permitiría trabajar con baterías.

5.1.1. Procesamiento de Pulso El procesamiento de cada pulso de luz generado en el cristal se distribuye en varios fotomultiplicadores, generando un pulso eléctrico de distintos niveles a la salida de ellos. Cada PMT está polarizado con una placa de polarización con posibilidad de hacer pequeñas variaciones en la tensión entre ánodo y cátodo, mediante el ajuste de la tensión entre los dinodos 5 y 6. El pulso de corriente de salida de cada PMT es conformado mediante una placa preamplificadora, generando un pulso de tensión con una duración menor que el pulso original para poder procesar una mayor tasa de eventos. Además cuenta con un restaurador de línea de base para mantener la referencia a masa cuando hay una alta tasa de cuentas. El pulso queda finalmente con un tiempo total de 300 ns. Se pueden observar dos ejemplos en la Figura 5.3.

Figura 5.3. Ejemplo de dos pulsos reales provenientes de un destello, uno con 1000 fotones y otro con 500. Imagen obtenida de [150].

El pulso de tensión es luego digitalizado en una placa digitalizadora y de 159

procesamiento. Para el muestreo de la señal se utiliza un ADC de 40.106 muestras/s y con una resolución de 10 bits. La alinealidad diferencial del ADC es corregida mediante la implementación de una escala deslizante en la FPGA. Para esto se utiliza un DAC que corrige el offset de la etapa analógica. Cada pulso es digitalizado con 12 muestras para cubrir los 300 ns de la duración del mismo. Finalmente, en la FPGA se procesan las muestras para obtener la energía y el tiempo de cada evento. Dichos datos son enviados al Procesador de Cabezal. El Procesador de Pulso también tiene la capacidad de generar y almacenar un analizador de Multicanal (MCA: Multi Channel Analyzer). Esta capacidad permite usar esta misma electrónica de procesamiento de pulso en otras aplicaciones, como por ejemplo espectrometría.

5.1.2. Resolución en Energía Para obtener la energía de un evento detectado en el cristal se deben sumar las energías relativas de todos los PMTs en el tiempo del evento. La energía de cada pulso medido por un PMT se realiza integrando la señal digitalmente, mediante la suma de las 12 muestras del pulso. Para lograr una buena medición de energía del evento detectado es importante que cada PMT tenga la misma ganancia. Sin embargo, los PMTs tienen una dispersión en su ganancia de hasta un orden de magnitud. Con el objeto de ecualizar sus ganancias se realizan dos calibraciones. En la primera se ajusta la alta tensión de los PMTs, variando la tensión entre los dinodos 5 y 6 a través de la placa de polarización. Para realizar este proceso, se ubica una fuente de 137Cs sobre el cristal, centrada en la posición de cada PMT, y se obtiene un espectro de energía para cada uno de ellos. El ajuste de alta tensión se realiza para que se aproveche de la mejor manera el rango del ADC y que todos los fotopicos queden en canales cercanos. Sin embargo, con la primera calibración no alcanza para ecualizar completamente las ganancias. Si se realiza una medición de campo inundado con la fuente de 137Cs colocada a 1,5 m de distancia (el cabezal recibe radiación prácticamente uniforme) y se realiza un espectro de energía por cada PMT se verá que los fotopicos de cada uno de ellos difieren en su canal central. Cada espectro de energía toma en cuenta solo los eventos en que el PMT fue centroide, es decir fue el que adquirió más 160

energía para un pulso de luz dado. Con esos espectros individuales se realiza la segunda calibración, donde todos los picos son centrados en el mismo canal de energía (Ver Figura 5.4). Este proceso de calibración es un método analítico que tiene como ventaja no desaprovechar el rango dinámico de las mediciones y está descripto en [151]. Esta segunda calibración permite llevar la resolución en energía de todo el cabezal del 20% al 9%.

Figura 5.4. Proceso de calibración con medición de campo inundado. En a) se encuentran tres espectros de los PMTs 1, 12 y 28 como centroides, donde se puede ver la dispersión en el canal del pico de energía. Como consecuencia, el espectro de energía para todos los eventos del cabezal, observado en el gráfico b), tiene una resolución de aproximadamente 20%. En c) se observan los espectros de los PMTs luego del proceso de calibración descripto en [151], donde los espectros quedan centrados en el mismo canal de energía. Finalmente, en d) se observa el espectro de energía del cabezal calibrado con una resolución en energía de aproximadamente 9%. Las imágenes fueron adaptadas de [151].

5.1.3. Marca de Tiempo Para la obtención de la marca temporal de cada destello se incluye un discriminador de fracción constante (CFD: Constant Fraction Discrimination), que es un método destinado a detectar cuando un pulso alcanza una fracción determinada de su pico. El pulso eléctrico en el ánodo del detector tiene una distribución temporal que sigue la producción de fotones en el detector; esta última responde a una distribución 161

Poisson. Como consecuencia, la mayor producción de fotones ocurre en el inicio del pulso y es esta región de la señal la que tiene menor incertidumbre estadística. Por lo anteriormente dicho, se utiliza como marca temporal del pulso el tiempo en que el pulso alcanza el 10% del pico de la señal. Esto se realiza en la FPGA mediante la detección de tres muestras que crecen de forma consecutiva, identificando así el flanco de crecimiento del pulso. Luego se obtiene una recta para el crecimiento del pulso y otra para el decrecimiento, y se obtiene el pico de la intersección entre ambas. Finalmente, se obtiene el tiempo en el que se alcanza el 10% del pico calculado utilizando la recta de subida (Ver Figura 5.5).

Figura 5.5. Implementación de CFD para obtención de marca de tiempo. La misma se considera cuando el pulso llega al 10% de su pico, este último se obtiene con la intersección de una recta de subida y otra de bajada.

5.1.4. Posicionamiento del Destello El posicionamiento de cada destello generado en el cristal se realiza mediante un promedio ponderado de la energía medida en cada PMT. Este método estándar de posicionamiento se denomina algoritmo de Anger [152], quien fue el creador de la Cámara Gamma. Sin embargo, el mismo tiene varias desventajas por la alinealidad de la función de respuesta a la luz (LRF: Light Responde Function) del cabezal. Uno

162

de las más importantes es el apilamiento en los bordes, también conocido como edge packing effect, que empeora considerablemente la resolución en los bordes del detector y disminuye su sensibilidad por tener que descartar destellos ocurridos esa región. Con el fin de compensar estos problemas, en el AR-PET se incluye un método de posicionamiento no lineal basado en redes neuronales [153]. Para ello se debe entrenar una red que se comporte como la LRF del detector. Esto es posible porque las mismas tienen la capacidad de realizar interpolaciones no lineales.

Figura 5.6. Colimadores utilizados para obtener el set de entrenamiento para las redes neuronales de posicionamiento. A la izquierda, el colimador con un pequeño agujero para generar las mediciones de haz colimado. A la derecha, el bloque de plomo utilizado para la sustracción de fondo en las mediciones anteriores.

La mayor dificultad en implementar un método de estas características es conseguir un set de entrenamiento para la red neuronal, ya que se necesita tener emisiones gamma bien colimadas para poder obtener la posición teórica de cada evento detectado. En el AR-PET esto se implementa mediante un colimador grueso de plomo con un único agujero pequeño. Con este colimador se realizan mediciones en distintos puntos del cabezal mediante una mesa de coordenadas, para cubrir su respuesta en las distintas zonas del detector. Las mediciones realizadas con el colimador de un agujero son imperfectas porque contienen una gran cantidad de eventos que no pueden ser frenados por el plomo. Para mejorar la medición

163

colimada, se repiten las mediciones pero con un bloque de plomo del mismo tamaño que el colimador pero sin agujero (Figura 5.6). Esta medición es una buena representación del fondo obtenido en las mediciones con el colimador con agujero. Por ello, a estas últimas se le resta la medición de fondo tomando evento por evento con un método basado en el algoritmo de k-means. De esta forma se obtienen mediciones bien colimadas en todo el cabezal para formar el set de entrenamiento. Una vez que la red neuronal es entrenada puede ser utilizada para posicionar. Los resultados obtenidos muestran que este método logra mejorar la resolución espacial y compensar parcialmente el edge packing effect. En la zona central del cabezal la resolución espacial utilizando el método de Anger es de aproximadamente 7,5 mm, mientras que con la red neuronal es de 5 mm. Por otro lado, con el método de Anger se logra posicionar eventos con un bias menor que 5 mm hasta ½ PMT (25 mm) del borde; en cambio, con las redes neuronales se llega hasta 10 mm del borde del cabezal. Esto logra mejorar la sensibilidad del sistema, ya que se deben descartar menos eventos por problemas en el posicionamiento.

5.1.5. Clustering Dinámico La arquitectura de procesamiento modular, donde cada PMT tiene su propio procesador, permite implementar un manejo más avanzado de los eventos. Un destello en un cristal continuo emite luz hacia todos los PMT del cabezal. Sin embargo, gran parte de esa luz queda acotada a un conjunto de 3x3 PMTs alrededor del destello, al que se lo llama clúster. La información de los PMTs que forman el clúster es suficiente para posicionar el evento [154]. Por esta razón si dos o más eventos están lo suficientemente separados, se pueden procesar de forma paralela. Este procesamiento, denominado Clustering Dinámico, será implementado en el AR-PET. Los eventos detectados a una distancia de al menos dos PMTs de distancia serán procesados en paralelo. En la Figura 5.7 se puede observar un ejemplo de tres eventos procesados de forma simultánea. Esto mejora la tasa de conteo del AR-PET.

164

Figura 5.7. Ejemplo de tres destellos que ocurren en el cristal y pueden ser procesados en forma simultánea. En colores cada uno de los clústeres formados.

5.1.6. Cabezal de Atenuación El cabezal de atenuación está formado por detectores pixelados de LYSO. Cada bloque detector tiene 8x8 píxeles, cada uno de ellos de 4,5 x 4,5 x 13,5 mm 3, con una guía de luz de 6 mm de profundidad y un fotomultiplicador Hamamatsu R10550 acoplado. Este último es cuadrado, con una superficie de 39 x 39 mm2, tiene cuatro ánodos y tiene capacidad de medir tiempo de vuelo. El cabezal estará ubicado a 350 mm del centro del FOV y en el lado opuesto se tendrá una fuente de

137

Cs a 700 mm del mismo centro. El bloque de detectores

formará un arco de circunferencia con centro en la posición de la fuente y un barrido angular de 50º. Para cubrir dicho arco se necesitan 23 bloques de detectores.

5.2.

Estado Actual del Equipo

Desde el inicio del proyecto, en 2006, al 2012 se han construido cuatro cabezales detectores, de los cuales los dos primeros fueron utilizados para probar los primeros diseños electrónicos y mecánicos de montaje. Ellos han evolucionado y, con dichos cambios, se han construido los cabezales 3 y 4. En los mismos, los PMTs están acoplados a los cristales con grasa óptica y cada uno de ellos está blindado contra campos magnéticos con un cobertor de mu-metal. Esto es necesario por la presencia de los campos magnéticos generados por el motor que brinda el movimiento de 165

rotación del scanner. Los cabezales 3 y 4 se encuentran funcionando de manera estable. El Procesador de Coincidencias no está implementado, por lo que cada cabezal descarga sus datos Singles a una PC mediante una interfaz USB High Speed por los altos requerimientos de ancho de banda. La resolución en energía de los cabezales es de aproximadamente 8,5% y la resolución temporal medida fue de 5,8 ns FWHM. En cuanto a la resolución espacial, en el centro del cabezal es de 7,5 mm para el método de Anger y 5 mm cuando se utiliza el método de posicionamiento con redes neuronales. El cabezal de atenuación se encuentra en las primeras fases de la implementación. El detector pixelado de LYSO ya cuenta con el circuito de polarización de los PMTs multi-ánodos utilizados y se ha implementado el posicionamiento de los eventos a partir de datos generados con el simulador Monte Carlo GATE.

Figura 5.8. Estado actual del AR-PET. Se cuenta con el cilindro del gantry, dos cabezales montados con una PC cada uno para la descarga de los datos, dos anillos de cobre para alimentar el equipo y la base de soporte.

En cuanto a las partes mecánicas, se encuentran finalizadas casi en su totalidad. Los

166

cabezales disponibles se encuentran montados en sus cajas de aluminio con los disipadores y ventiladores incluidos. Los mismos se han instalado en la estructura principal, la cual ya cuenta con el movimiento rotatorio. El anillo con la alimentación con carbones también se encuentra implementado. En la Figura 5.8 se pueden observar los dos cabezales montados.

Figura 5.9. Vista del equipo con dos cabezales y camilla preparada para montar un fantoma.

Con el estado actual del AR-PET se pueden realizar las primeras tomografías por emisión de positrones ya que, a pesar de disponer de solo dos de los seis cabezales del hexágono, se cuenta con el movimiento rotatorio para completar las proyecciones (ver Figura 5.9). Como consecuencia, se necesita el triple tiempo de 167

medición para obtener la misma cantidad de eventos. A su vez, el esquema de dos cabezales rotativos disminuye el radio del FOV original de 30 cm a un máximo de 20 cm. El procesamiento de las coincidencias se realiza offline en una PC y el algoritmo de reconstrucción que se utiliza es el presentado en esta tesis. No se cuenta con cabezal de atenuación, por lo que para la reconstrucción se deben utilizar los mapas de atenuación teóricos de cada fantoma o medición realizada. En el futuro, además de la construcción de los cuatro cabezales restantes para completar el scanner, se deberá implementar el procesador de coincidencias en un kit de FPGA Virtex IV y la comunicación wireless con el servidor de reconstrucción. Además, se implementarán distintas optimizaciones en la cadena de procesamiento, como por ejemplo el procesamiento con clustering dinámico de los eventos o la posibilidad de reducir el tiempo de los pulsos conformados. El impacto de estas optimizaciones se ha evaluado mediante simulaciones, que se describen en la próxima sección de este capítulo.

5.3.

Simulación del Sistema

Para poder evaluar las prestaciones del AR-PET, ajustar sus parámetros y generar datos para evaluar los algoritmos de reconstrucción tomográfica se realizaron simulaciones Monte Carlo con la aplicación GATE [14][15] descripta en el Capítulo 2. Como parte de este trabajo de tesis se simuló de forma completa el escáner ARPET, incluyendo su geometría, blindajes y cadena de procesamiento. Se simularon los ensayos que evalúan la sensibilidad y la tasa de conteo definidos en la norma NEMA NU2-2001 [145]. Se seleccionaron estos ensayos porque permiten evaluar las características más limitantes del AR-PET y, a partir de ellos, definir la concentración de actividad adecuada para inyectarle al paciente o utilizar en un fantoma. La evaluación de la tasa de conteo es importante para poder realizar ensayos y estudios con la actividad del radioisótopo adecuada, ya que un exceso de la misma degrada la resolución espacial y la relación señal a ruido de la imagen (principalmente por eventos aleatorios y apilamiento) y, por otro lado, utilizar poca actividad prolonga el tiempo de los estudios.

168

También es importante analizar la sensibilidad del sistema, ya que esto indica qué porcentaje de la actividad inyectada es aprovechado y también ayuda a obtener la concentración de actividad que permita adquirir las cuentas necesarias para generar las imágenes. Las simulaciones también permitieron evaluar el impacto de ciertas mejoras en la cadena de procesamiento, como la reducción del tiempo de pulso, la utilización de clustering dinámico y la reducción de las zonas ciegas en el borde de los cristales. El scanner se modeló utilizando el sistema CylindricalPET disponible en GATE, en el cual se definió cada cabezal completo, incluyendo no solo el cristal de NaI(Tl) sino también la caja de aluminio en la que va montado cada uno de ellos y el anillo de plomo que hace de blindaje. Cada uno de los cristales tiene dimensiones de 406,4 x 304,8 x 25,4 mm3 y se encuentran a 360mm del centro del FOV. La caja de aluminio cubre toda la superficie del cristal con una delgada capa de 1,27 mm sobre el mismo. El resto de la caja de aluminio se definió de forma simplificada, incluyendo solo las dos caras que cubren el lado más largo del cristal con dimensiones de 406,4 x 41,09 x 200 mm3. También se ha definido la tapa trasera del cabezal con dimensiones de 406,4 x 312,8 x 20 mm3. Las caras faltantes que nacen del lado corto del cristal no han sido incluidas. En la Figura 5.10 se muestra una visualización del sistema modelado con GATE. Para la cadena de digitalización se han utilizado parámetros obtenidos de los cabezales y que han sido descriptos en la sección anterior. Esto es una resolución en energía del 8,5%, una resolución espacial sobre el cabezal de 7,5 mm y una resolución temporal de 5,87 ns FWHM. El tiempo de conformación de pulso simulado es de 300 ns; cada cabezal se configuró con un ancho de banda de transmisión de eventos en cada cabezal de 1 Mevento/s con buffer desrandomizador. La ventana temporal para coincidencias simulada fue de 10 ns y se agregó una ventana demorada 500 ns para estimar los eventos aleatorios. Para el tratamiento de coincidencias múltiples se adoptó la política de takeAllOfGoods, que toma todas las coincidencias posibles cuando hay más de dos eventos en ventana temporal.

169

Figura 5.10. Visualización del scanner AR-PET simulado en GATE. En verde se observan los cristales de NaI(Tl), en azul la camilla, en gris el blindaje de plomo y en blanco parte de la caja de aluminio que contiene cada detector.

En GATE la resolución temporal se define como el desvío estándar de la diferencia de tiempos entre coincidencia, mientras que 5,87 ns es la resolución temporal en FWHM de un evento single. Para hacer la conversión entre parámetros, se tiene en cuenta que en la resta de dos variables aleatorias con distribución gaussiana el desvío estándar queda determinado por: (5.1)

Como el desvío de los dos singles es el mismo y la conversión del valor de FWHM en desvío estándar requiere dividir por 2,35, el valor utilizado en la cadena de procesamiento de GATE para resolución temporal de coincidencias es: (5.2)

170

En algunas de las simulaciones se han utilizado distintas cadenas de procesamiento con algunas de las potenciales optimizaciones con las que contará el AR-PET. Las mismas son descriptas en cada una de las simulaciones que se presentan a continuación. Para la simulación de zonas muertas de distintos tamaños en el borde del detector se realiza un post-procesamiento con MATLAB, descartando aquellos eventos que caen en la zona en la que no se pueden posicionar los eventos. Para el clustering dinámico, se debió modificar el código fuente del módulo de pileup del GATE ya que no estaba disponible esta opción en el simulador. Se cambió el código fuente para que solo ocurriera apilamiento cuando dos eventos se produjeran a una distancia menor de 156 mm (3 PMTs) en las coordenadas horizontal y vertical del cabezal.

5.3.1. Análisis de Sensibilidad La sensibilidad de un tomógrafo por emisión de positrones es la tasa de cuentas por segundos de eventos trues detectados para una fuente radioactiva con una actividad dada. La Sección 5 de la norma NEMA NU-2 2001 [145] establece un procedimiento sobre la forma de calcular este parámetro. Los positrones emitidos necesitan una cierta cantidad de materia alrededor de la fuente para asegurar la aniquilación electrónica y así la creación de los dos rayos gamma colineales. Pero, a su vez, la materia que rodea la fuente atenúa los rayos gamma emitidos y de esta forma no se puede realizar una medición precisa sin el efecto de dicha atenuación. Es por esta razón que la norma establece un procedimiento en el que se parte de sucesivas mediciones realizadas con una fuente lineal rodeada por materiales conocidos y luego se extrapola para obtener la sensibilidad sin ningún efecto de atenuación. Esta serie de mediciones necesarias para calcular la sensibilidad de un tomógrafo por emisión de positrones han sido simuladas para poder estimar la sensibilidad del AR-PET previo a su construcción. En cada una de estas simulaciones se colocó una varilla plástica de 700mm de largo y 1 mm de diámetro llena con una solución de agua y

18

F, recubierta con una o más varillas de aluminio como lo específica la

Norma. En la Tabla 5-1 se encuentran las varillas especificadas. En la primera 171

simulación se utiliza la varilla 1, en la segunda se agrega la varilla 2, y así sucesivamente hasta llegar a la quinta simulación con las cinco varillas incorporadas. Número de Tubo

Diámetro Interior [mm]

Diámetro Exterior [mm]

1 3,9 2 7 3 10,2 4 13,4 5 16,6 Tabla 5-1. Diámetros de los tubos de soporte de fuente norma NEMA NU-2 2001.

Largo [mm]

6,4 700 9,5 700 12,7 700 15,9 700 19,1 700 utilizados en el ensayo de sensibilidad de la

De cada medición se obtiene la tasa de coincidencias por slice Rj,i siendo j el número de medición e i el slice correspondiente. La norma establece que se debe realizar una corrección de las tasas por el tiempo concurrido desde la calibración de la fuente (Tcal) al tiempo de la medición (Tj) teniendo en cuenta el período (T1/2) del isótopo mediante la siguiente fórmula: (5.3)

Con las tasas corregidas para cada slice, se calcula la tasa total corregida por medición, sumando las tasas de cada slice: (5.4)

Por último, con estos 5 valores de tasa se realiza una regresión lineal para obtener los valores RCORR,0 y μM en la ecuación de la curva: (5.5)

Donde Xj representa el ancho (radio mayor menos radio menor) de la varilla acumulada de aluminio, RCORR,0 la tasa de eventos estimada para el caso que no hubiera atenuación y μM el coeficiente de atenuación del metal utilizado en las varillas. El mismo procedimiento se debe repetir colocando la fuente con sus tubos de aluminio a 100 mm del eje central del tomógrafo. La sensibilidad del sistema se calcula con la ecuación (5.6). (5.6)

Por último, se calcula la sensibilidad para cada slice utilizando los datos de la

172

medición 1 realizada con el tubo de menor espesor. (5.7)

Todo este procedimiento ha sido realizado para las simulaciones de las mediciones propuestas por la norma. Para esto se generaron 5 simulaciones para la fuente posicionada en el eje central del FOV, una correspondiente a cada tubo de soporte de aluminio. Otro ensayo completo con las 5 simulaciones se realizó para la fuente desplazada 100 mm del eje central. Como se ha mencionado anteriormente, los detectores del AR-PET cuentan con zonas no utilizables en sus bordes por la dificultad de encontrar la posición de detección del fotón gamma. Al ser éste un parámetro que afecta a la sensibilidad, la misma se ha evaluado para distintos tamaños de zona muerta. Se han evaluado zonas muertas para 1 PMT entero, ½ PMT, ¼ PMT y 1/8 PMT. Cada PMT es de 52x52mm, por lo que sobresalen 4,8mm sobre el borde del cristal. De esta forma, las zonas muertas equivalen a toda la zona del cristal que se encuentra a 47,8mm; 21,8mm; 8,8mm y 2,3mm del borde del mismo para cada caso. Para implementar esto se proyectaron las coordenadas globales (x,y,z) de cada evento en coordenadas planares (xc,yc) dentro de cada cabezal, luego se eliminaron los eventos que se encontraban en las distintas zonas muertas. La simulación de este ensayo se realiza con el modelo geométrico del AR-PET y la cadena de procesamiento básica, ya que en este caso no influye la capacidad de conteo del equipo. La fuente utilizada en las simulaciones fue de 50 µCi uniformemente distribuida en una varilla de 700 mm de largo y 1 mm de diámetro. Para estas condiciones se verificó que no hubiera pérdida de cuentas mayores que 1% y que los eventos aleatorios fueran menores que el 5% de los reales (trues). La calibración en actividad definida en la ecuación (5.3) no es necesaria para simulación, ya que todas las mediciones inician con la misma actividad y esta tiene un valor conocido. Para el procesamiento de las simulaciones, se utilizó una ventana de energía de 430-580 keV. En Tabla 5-2 se observan las tasas de coincidencias obtenidas para cada medición simulada sin considerar zonas muertas en los cabezales, tanto para fuente centrada como desplazada. El cálculo de las tasas según la zona muerta se realiza en el post173

procesamiento de la simulación. Simulación

Xj

Rj Centro

Rj Desplazado

[mm]

[cps]

[cps]

1

1,25

15127

12056,36

2

2,50

14490

11538,79

3

3,75

13872

10867,01

4

5,00

13290

10327,56

5

6,25

12727

9820,60

Tabla 5-2. Valores de tasa de coincidencias corregida para cada medición, sin zona muerta.

Con los valores de tasa corregidos

obtenidos de las distintas mediciones

simuladas para cada espesor Xj, se realiza el ajuste a la curva teórica de la (5.5) utilizando cuadrados mínimos (Figura 5.11). De esta operación se obtienen los valores μM y

, para finalmente obtener el valor de sensibilidad según la

ecuación (5.6). La misma fue de 8,54 cuando no se consideró ninguna zona ciega.

Figura 5.11. Grafico de la tasa de cuentas corregida por actividad para cada una de las mediciones simuladas con la fuente en el centro, la curva ajustada a partir de las mediciones y el valor estimado de a partir de la ecuación de la curva.

A partir del valor de sensibilidad total, se puede obtener la sensibilidad por slice. Se consideraron 30 slices con un espesor de 10 mm. En la Figura 5.12 se pueden observar los valores de sensibilidad para cada slice.

174

Figura 5.12. Sensibilidad por slice para fuente en eje central y sin zonas muertas.

El mismo análisis se realiza para el ensayo con la varilla desplazada en 100 mm. Para los dos ensayos simulados se analizó la influencia de las zonas ciegas en el detector por la imposibilidad de posicionar adecuadamente los eventos. Para esto, se filtraron los eventos que caerían en las distintas zonas muertas y luego se obtuvieron los valores de sensibilidad reales para cada caso. En la Tabla 5-3 se encuentran la tasa de cuentas para cada simulación realizada y procesada con las zonas muertas.

Rj [cps]

Varilla Centrada

Varilla Desplazada 100mm

Zona Muerta [mm]

Zona Muerta [mm]

1/8 PMT

1/4 PMT

1/2 PMT 1 PMT

1/8 PMT

1/4 PMT

R1

14729

13342

10419

R2

14110

12768

R3

13502

R4 R5

1/2 PMT 1 PMT

5787

14695

13060

9696

4646

9964

5532

14021

12463

9269

4453

12224

9536

5268

13438

11935

8867

4260

12940

11716

9131

5041

12887

11444

8514

4084

12392

11207

8733

4824

12402

11014

8192

3943

Tabla 5-3. Comparación de las tasas obtenidas para la medición con fuente centrada y desplazada, para los distintos tamaños de zona muerta propuestos.

Con los valores obtenidos de las tasa de cuentas para cada zona ciega analizada, se repitió el cálculo de sensibilidad. En la Tabla 5-4 se encuentran los parámetros de la

175

regresión de cada caso y su valor de sensibilidad resultante. Además, en la Figura 5.13 se observan los valores de sensibilidad por slice. Varilla Centrada

Varilla Desplazada 100mm

Zona Muerta [mm]

Zona Muerta [mm]

Parámetro Calculado

1/8 PMT 1/4 PMT 1/2 PMT 1 PMT 1/8 PMT 1/4 PMT 1/2 PMT RCORR,0 [cps] .1

μM [cm ]

1 PMT

15380

13932

10886

6056

15295

13598

10097

4837

0,0173

0,0174

0,0176

0,0180

0,0170

0,0171

0,0169

0,0166

8,31

7,53

5,88

3,27

8,26

7,35

5,45

2,61

Sensibilidad [cps/kBq]

Tabla 5-4. Resultados del ensayo de sensibilidad para los distintos tamaños de zona muerta analizados. Se muestran los valores RCORR,0 y μM obtenidos del ajuste a la curva (5.5) y la sensibilidad obtenida a partir de ellos.

Figura 5.13. Sensibilidad obtenida por slice para cada zona muerta considerada.

De los resultados obtenidos, se puede observar el gran impacto que tiene en la sensibilidad las zonas ciegas por problemas para poder posicionar los eventos detectados en el borde del cristal. Si no se utilizara ninguna técnica diferente al método de Anger para posicionamiento de los eventos, la sensibilidad sería de 3,27 aproximadamente. Este es un valor muy bajo y poco competitivo, especialmente si se

considera

que

se

tiene

una

superficie

de

detección

grande.

En

[155][32][156][157][158] se evalúan mediante la norma NEMA NU2-2001 la performance de distintos scanners comerciales. La Tabla 5-5 muestra un resumen de los resultados de sensibilidad de los mismos. De estos resultados, se puede observar como los tomógrafos con cristales de LSO y

176

BGO tienen mayor sensibilidad, a pesar de tener menor superficie de detección (el largo axial del scanner es aproximadamente la mitad del del AR-PET). Esto se debe a que estos cristales tienen mayor poder de frenado y los píxeles tienen mayor profundidad que el detector del AR-PET. El scanner C-PET tiene características similares al AR-PET y tiene una sensibilidad de entre 3 y 4 cps/kBq. Su radio de detección es mayor y esto hace que su sensibilidad sea menor a la que potencialmente podría tener el AR-PET. Scanner

ECAT EXACT

Geometría

Cilíndrico

HR+

Detectores

Bloques de 8x8

Radio del

FOV

Sensibilidad

Scanner

Axial

[cps/kBq]

[cm]

[cm]

82,4

15,5

píxeles de BGO.

8,98 [155] / 6,65 [157]

Tamaño de píxel: 4,05x4,39x30 mm3 ADAC UGM

Cilíndrico

C-PET

Seis cristales de

90

25,6

NaI(Tl) Continuos y

4,32 [155] / 3,0 [158][32]

Curvos de 47x30x2,54 cm3 Prototipo

Cilíndrico

Módulos de 23x58

NaI(Tl)

píxeles de NaI(Tl).

pixelado

Tamaño de píxel:

89

25

3,53

82,4

16,2

5,98 [157]

82,4

16,2

6,36 [157]

82,4

16,2

2,28 [157]

4x4x30 mm3 ECAT EXACT

Cilíndrico

Bloques de 8x8 píxeles de BGO. Tamaño de píxel: 6,75x6,75x20 mm3

ECAT ACCEL

Cilíndrico

Bloques de 8x8 píxeles de LSO. Tamaño de píxel: 6,45x6,45x25 mm3

ECAT

Cilíndrico

Bloques de 8x8

EMERGE

Incompleto

píxeles de LSO.

con

Tamaño de píxel:

Rotación

6,45x6,45x25 mm3

Tabla 5-5. Valores de sensibilidad según norma NEMA NU2-2001 de distintos tomógrafos PET comerciales, todo ellos con modos de adquisición 3D. Solo se incluyen los resultados para la vara con la fuente ubicada en el centro (r = 0 mm).

177

Para que el AR-PET sea competitivo en sensibilidad y no se desperdicie la superficie de detección, se requiere que la zona ciega por falta de posicionamiento sea como máximo de 21 mm (1/2 PMT). De esta forma se obtendría una sensibilidad cercana a 6 cps/kBq. Esto se ha podido lograr mediante métodos de posicionamiento no lineales basados en redes neuronales. Los primeros resultados indican que se podría posicionar hasta a 10 mm del borde del cristal, mientras que con Anger solo hasta 30 mm [153], por lo que la sensibilidad sería aproximadamente de 7 cps/kBq.

5.3.2. Análisis de Tasa de Conteo, Fracción de Dispersión y Eventos Aleatorios La sección 4 de la norma NEMA NU2-2001 [145], llamada ―Scatter Fraction, Count Losses, and Randoms Measurement‖, tiene como objetivo medir la sensibilidad de un tomógrafo PET a la radiación dispersa (scatter) y la influencia en la tasa de conteo del nivel de actividad, ya que la tasa de coincidencias se ve afectada por el tiempo muerto de los detectores y por la detección de eventos randoms en la ventana temporal del sistema. Los rayos gamma emitidos luego de la aniquilación del positrón pueden ser dispersados en la materia mediante una interacción Compton, provocando que se generen trayectorias o líneas de respuesta (LORs) equivocadas. Como consecuencia se obtiene una degradación y pérdida de contraste en la imagen. La sensibilidad a la radiación dispersa depende del scanner e influyen factores como la geometría y la resolución en energía, entre otros. Por consiguiente es necesario medir un parámetro que represente dicha sensibilidad, el cual se denomina Scatter Fraction (SF) o Fracción de Dispersión y está especificado en el ensayo descripto en el capítulo 4 de la norma. A partir de la tasa de coincidencias y teniendo un cálculo del SF y la cantidad de eventos aleatorios (randoms), se puede estimar la tasa de eventos verdaderos (trues) en el sistema y una tasa de cuentas que tiene en cuenta el ruido de dispersión (scatter) y los eventos aleatorios. Esta última se denomina NECR (Noise Equivalent Count Rate) y es el parámetro elegido para analizar la tasa de conteo de un scanner. A partir de su valor y el de sensibilidad se determina la actividad que se puede inyectar al paciente, siempre que cumpla con las condiciones de seguridad 178

radiológica, y de tiempo total del estudio. Los factores que más influyen en el mismo son la geometría, el tipo de detector y el tiempo muerto de la electrónica del sistema. El ensayo propuesto en la Norma para la obtención de estos parámetros utiliza un fantoma cilíndrico de polietileno de 203 mm de diámetro y 700 mm de largo, ubicado en el centro del FOV, con un agujero de 6,4 mm de diámetro a lo largo de todo el fantoma, paralelo al eje central del cilindro y a una distancia radial de 45 mm del mismo. El fantoma debe estar ubicado de forma que el agujero esté en el lado más cercando a la camilla. En el interior de dicho agujero se introduce una varilla de polietileno de diámetro interior de 3,2 mm con una solución de agua y 18F con una actividad alta y conocida. Luego de ubicar el fantoma en el scanner, se inicia la adquisición con el equipo. Se realizan mediciones periódicas durante varios períodos de semidesintegración del radioisótopo hasta que la fuente se encuentre lo suficientemente decaída como para tener solo un 1% de eventos aleatorios. De esta manera, se tienen mediciones con distintos niveles de actividad, iniciando con actividades altas donde hay un gran número de cuentas perdidas y eventos aleatorios, hasta llegar a un punto donde se detectan prácticamente todos los eventos y estos son mayoritariamente verdaderos. Las mediciones deben realizarse periódicamente con un lapso entre ellas menor que la mitad del período del radioisótopo de la fuente. El tiempo de cada adquisición debe ser menor a un cuarto de la vida media y debe contener como mínimo 500.103 coincidencias totales o instantáneas (prompts). Por cada medición j se debe generar un sinograma 2D para cada slice i del tomógrafo y no se le debe aplicar ningún tipo de corrección o compensación. Con cada sinograma i adquirido en la medición j, se debe realizar el siguiente procesamiento: 1. Eliminar todos los bins del sinograma que representen LORs alejadas más de 12 cm del centro del fantoma. 2. Cada proyección, es decir cada fila del sinograma, debe ser desplazada de forma que el bin con mayor intensidad se encuentre en el centro. 3. Sumar bin a bin todas las proyecciones del sinograma modificado. Como

179

resultado se obtiene un vector Ci,j con tantos elementos como posiciones radiales (o columnas) tiene el sinograma. 4. Sobre cada proyección suma de cada sinograma, obtener por interpolación lineal las cuentas obtenidas a -20 mm y +20 mm del centro. A estas se las denomina CL,i,j y CR,i,j respectivamente. 5. Estimar la cantidad de cuentas de eventos aleatorios y de dispersión de cada sinograma sumando los eventos fuera de los 40 mm centrales con el área del trapecio que se forman con CL,i,j y CR,i,j en el centro del sinograma. Para esto último se multiplica el valor medio entre CL,i,j y CR,i,j por los 40 mm convertidos en píxeles. El valor estimado de eventos aleatorios y dispersión se lo denomina Cr+s,i,j. 6. Obtener las cuentas totales CTOT,i,j de cada sinograma sumando todas las cuentas de la proyección suma. Luego por cada medición se obtiene un valor de la actividad promedio mediante la ecuación: (5.8)

Con este procesamiento realizado para cada sinograma i de cada adquisición j se puede proceder a obtener los múltiples resultados del ensayo. Para iniciar, se obtiene la fracción de dispersión con la última medición jsr, ya que en la misma los eventos aleatorios son despreciables y, como consecuencia, Cr+s,i,j representa solo la cantidad de eventos dispersos. El SF se obtiene con la ecuación (5.9). Si se cuenta con más de una medición con menos de 1% de eventos aleatorios se deben sumar las correspondientes Cr+s,i,j y CTOT,i,j de todas ellas. (5.9)

A continuación se calculan diferentes tasas de eventos: Tasa de eventos totales por slice: (5.10)

Tasa de eventos totales por medición: (5.11)

180

Tasa de eventos trues por slice (Rt,i,j) y total por medición (Rt,j). Se obtiene restando los eventos aleatorios y de dispersión: (5.12) (5.13)

Tasa de eventos aleatorios por slice (Rr,i,j) y total por medición (Rr,j). Se obtiene restando las cuentas verdaderas más la dispersión, que se estima utilizando el SF calculado en (5.9). (5.14) (5.15)

Tasa de eventos de dispersión por slice (Rs,i,j) y total por medición (Rs,j). Se obtiene utilizando el SF. (5.16) (5.17)

Tasa de cuentas equivalente de ruido (NECR) por slice (RNEC,i,j) y total (RNEC,j). (5.18) (5.19)

Por último, se realiza un gráfico con todas las tasas obtenidas y se busca la actividad de mayor NECR. Para simular este ensayo se definieron 20 simulaciones con el fantoma

de

polietileno y distintos niveles de actividad en la fuente de 18F. La actividad de cada una de ellas se seleccionó considerando un ensayo completo con actividad inicial de 2 mCi y mediciones cada 50 minutos (ver Tabla 5-6). De esta manera se cumple con los requerimientos de la Norma de obtener datos en intervalos menores al periodo de semidesintegración del radionucleido (110 minutos en el caso de

18

F) y llegar a

niveles de eventos aleatorios menores que 1%. Al ser el costo computacional de estas simulaciones muy alto, incluso para el clúster de PCs utilizado, se optó por

181

simular 11 de las 20 mediciones tomando solo aquellas con índice par. En cada una de ellas la fuente toma el valor de la fuente decaída, con los valores especificados en la Tabla 5-6. Medición

Tiempo [min]

Actividad [mCi]

0

0

2,0

1

50

1,46

2

100

1,06

3

150

0,78

4

200

0,57

5

250

0,41

6

300

0,30

7

350

0,22

8

400

0,16

9

450

0,12

10

500

0,082

11

550

0,059

12

600

0,043

13

650

0,031

14

700

0,023

15

750

0,017

16

800

0,012

17

850

0,0087

18

900

0,0063

19

950

0,0046

20

1000

0,0033

Tabla 5-6. Actividades de las mediciones que tendría un ensayo completo y el tiempo en el que se realizaría la medición. Solo las mediciones pares, más la inicial, han sido simuladas.

Las simulaciones de cada medición se realizaron para distintas cadenas de procesamiento de pulsos con el objetivo de evaluar la performance del AR-PET para distintas implementaciones en las cadenas de procesamiento. La primera de ellas con la cadena de procesamiento básica con pulso de 300 ns y sin clustering dinámico. Otra incluye al clustering dinámico que se agregará en el AR-PET. Luego, las mismas variantes pero para pulsos de 150 ns. Dicho ancho de pulso se selecciona sobre la base de experiencias previas [159], donde se evalúa la posibilidad de disminuir el tiempo de conformación de pulso en un tomógrafo de cristales 182

continuos de NaI(Tl) [25][160][154]. En el trabajo de referencia se muestra que los pulsos pueden ser recortados hasta 160 ns para elevar la tasa de conteo y teniendo una degradación en la resolución espacial menor que 1 mm. En el AR-PET se ha evaluado la utilización de un filtro FIR de desapilamiento de pulso [161]. En la implementación evaluada para el AR-PET se logró reducir el procesamiento de las 12 muestras iniciales a solo 7 de ellas. Este esquema mostró una mejor precisión en la marca temporal, pero una leve degradación en la resolución en energía. Todas las simulaciones se procesaron con las mismas zonas muertas en el cabezal que las utilizadas en el análisis de sensibilidad. En la simulación, se incluyó el anillo de blindaje exterior y la camilla. El primero es de plomo y tiene un espesor de 1 cm, un radio interior de 31 cm y exterior de 44 cm, mientras que la camilla se simuló de vidrio y con 2 cm de espesor. Con las tasas obtenidas para cada simulación se puede trazar una curva de la variación de la tasa de conteo para distintos niveles de actividad. En dichas curvas se puede observar que hay un pico de tasa de coincidencias, ya que cuando aumenta demasiado la actividad, la tasa de coincidencias disminuye debido al apilamiento de pulsos y el aumento de cuentas aleatorias. También se observará un pico en la curva de NEC. Estos dos parámetros son de interés para determinar la concentración de actividad que debería tener el cuerpo de un paciente para que el scanner trabaje de forma adecuada. Las simulaciones consideraron un 8,5% FWHM de resolución en energía y se procesaron con dos ventanas de energía diferentes, una entre 430-600 keV y otra más restrictiva, entre 470-600 keV. Adicionalmente se procesaron con las mismas zonas muertas evaluadas en las simulaciones de sensibilidad. En la Figura 5.14 se puede observar un corte del sinograma generado y centrado en el pico de cada proyección. El pico corresponde a la varilla con

18

F, mientras que el pequeño fondo

que hay al costado de ella es la suma de las cuentas aleatorias y de dispersión. En la figura de la izquierda no se descartan los eventos en el borde del cristal, mientras que en la de la derecha sí. Esto hace que el ángulo de incidencia esté más acotado para el último caso y como consecuencia se reduzca la dispersión.

183

Figura 5.14. Cortes de los sinogramas generados para le medición 8 y la cadena de procesamiento con pulso de 300 ns y sin clustering dinámico. A la izquierda se consideró que no había zona muerta, mientras que a la derecha se tomó en cuenta una zona muerta del tamaño de 1 PMT en los bordes.

Las simulaciones se procesaron de forma completa utilizado el procedimiento descripto en la Norma. La fracción de dispersión se calculó con las mediciones 18 y 20, donde se verificó una cantidad de eventos aleatorios menor que 1%, utilizando la ecuación (5.9). Al medirse a baja tasa, el ancho de pulso y la inclusión del clustering dinámico no influyen en este parámetro. En cambio, si lo hacen la zona ciega en los bordes del detector y el ancho de la ventana de energía. En la Tabla 5-7 se muestran los valores de SF obtenidos en cada caso procesado. Estos resultados muestran que para la resolución en energía simulada, el límite inferior de 470 keV en la ventana de energía es el adecuado y que agrandarlo más solo aumenta el ingreso de eventos de dispersión. Por otro lado, limitar el ángulo de incidencia afecta la fracción de dispersión para el caso de una zona ciega considerable (1 PMT). Ventana de Energía / 1/8 PMT

1/4 PMT

1/2 PMT

1 PMT

Zona Ciega 470-600 keV

26,4%

26,4%

26,3%

23,7%

430-600 keV

41,9%

41,9%

41,3%

35,2%

Tabla 5-7. Valores de fracción de dispersión (SF) obtenidos de la simulación del AR-PET para distintos parámetros de procesamiento. Se utilizaron dos ventanas de energía diferentes y las mismas zonas ciegas utilizadas en el análisis de sensibilidad.

Con las simulaciones procesadas mediante el procedimiento descripto en la norma NEMA se levantaron las curvas de tasa de eventos totales (Prompts), de reales (Trues), de dispersión (Scatter), de aleatorios (Randoms) y de tasa NEC contra la concentración de actividad en el fantoma. En la Figura 5.15 se observan las curvas

184

obtenidas para cada cadena de procesamiento y con zona ciega despreciable (1/8 PMT). En ella se puede observar como satura el detector por apilamiento de pulsos, llegando a un punto donde la tasa de coincidencias totales empieza a caer. También se ve que los eventos aleatorios son los eventos indeseados dominantes, siendo mayoritarios con el incremento de la actividad.

Figura 5.15. Tasa de eventos totales, verdaderos, de dispersión, aleatorios y NEC obtenidas para las distintas cadenas de procesamiento simuladas. Arriba a la izquierda, 300 ns de pulso; abajo a la izquierda, 300 ns y clustering dinámico; arriba a la derecha, 150 ns de pulso y abajo a la derecha 150 ns de pulso y clustering dinámico. En todos estos casos solo se descartaron aquellos eventos a 1/8 de PMT del borde del cristal.

Con el objetivo de hacer más clara la comparación entre las distintas cadenas de procesamiento, en la Figura 5.16 se encuentran las tasas de eventos verdaderos por concentración de actividad para cada una de ellas. En ella se ve que la implementación del clustering dinámico trae el mismo beneficio que reducir el pulso a 150 ns.

185

Figura 5.16. Tasa de eventos trues frente a distintos niveles de concentración de actividad, obtenidas para cada cadena de procesamiento y con zona ciega despreciable en los bordes de los detectores.

Figura 5.17. Tasas NEC respecto de concentración de actividad según la zona ciega en los bordes del detector, para la cadena de procesamiento de 300 ns y clustering dinámico.

En lo que respecta a la influencia de la zona ciega en los bordes del detector, en la Figura 5.17 se presenta la comparación de la tasa NEC para los tamaños de zonas ciegas utilizados en el análisis de sensibilidad. Queda claramente expuesto el alto 186

costo que se paga, en lo que hace a la tasa de conteo, en razón del descarte de eventos por mal posicionamiento en los bordes del cristal. Si no se pudiera recuperar nada de la superficie cubierta por los PMTs de los bordes, la tasa de conteo se reduciría casi en 4 veces. Luego, en la Tabla 5-8 se presentan las tasas máximas obtenidas para las distintas cadenas de procesamiento simuladas, para una zona ciega de ½ PMT y la ventana de energía de 470-600 keV. Pulso 300 ns Pulso 300 ns

y Clustering

Pulso 150 ns Pulso 150 ns

Dinámico

y Clustering Dinámico

Tasa NEC Máxima (kcps)

1,3

2,0

2,46

4,01

0,51

0,95

0,95

1,79

1,59

5,51

3,50

8,99

0,91

3,74

1,79

3,30

2,56

5,6

5,15

9,29

0,51

1,79

1,79

1,79

Concentración de Actividad a la Tasa Máxima de NEC (kBq/cc) Tasa de Coincidencias Aleatorios a Tasa Máxima de NEC Tasa de Dispersión a Tasa Máxima de NEC (kcps) Tasa de Coincidencias Verdaderas Máxima (kcps) Concentración de Actividad a la Tasa Máxima de Coincidencias Verdaderas (kBq/cc) Tabla 5-8. Tasas máximas NEC y de eventos verdaderos para las distintas cadenas de procesamiento y considerando una zona ciega de ½ PMT. La ventana de energía utilizada fue de 470-600 keV.

Finalmente, en la Tabla 5-9 y la Tabla 5-10 se presentan los mismos resultados, pero considerando la zona muerta despreciable y para ventanas de energía de 470-600 187

keV y 430-600 keV respectivamente. Las tasas máximas NEC permiten seleccionar la concentración de actividad que se debe utilizar para minimizar el tiempo de adquisición y obtener datos con el menor ruido posible. Sin embargo, a veces es necesario trabajar a menor tasa que dicho valor de referencia, ya que la resolución espacial puede degradarse si la tasa de conteo es elevada [162]. En las tablas mencionadas se puede observar la importancia del acortamiento del pulso, la implementación del clustering dinámico y la importancia de extender al máximo el aprovechamiento de los eventos en el borde del detector para obtener tasas de NEC aceptables. Una cadena de procesamiento de 300 ns y ½ PMT de zona de descarte de eventos obtiene una tasa de NEC de 1,3 kcps, mientras que si se reduce el pulso a 150 ns y se aprovechan todos los eventos en el borde se quintuplica dicho valor. También se observa que la tasa máxima de coincidencias verdaderas es mucho mayor que la de NEC, y que esta última se ve muy afectada por las tasas randoms y no tanto por el scatter. Pulso 300 ns Tasa NEC Máxima (kcps)

Pulso 300 ns y Clustering

Pulso 150 ns Pulso 150 ns

Dinámico

y Clustering Dinámico

1,92

3,63

3,64

6,55

0,51

0,95

0,91

1,79

2,52

5,82

5,56

14,09

1,42

2,81

2,80

5,49

3,87

8,3

7,70

15,05

0,51

1,79

1,79

1,79

Concentración de Actividad a la Tasa Máxima de NEC (kBq/cc) Tasa de Coincidencias Aleatorios a Tasa Máxima de NEC Tasa de Dispersión a Tasa Máxima de NEC (kcps) Tasa de Coincidencias Verdaderas Máxima (kcps) Concentración de Actividad a la Tasa Máxima de Coincidencias Verdaderas (kBq/cc) Tabla 5-9. Tasas máximas NEC y de eventos verdaderos para las distintas cadenas de procesamiento y considerando una zona ciega despreciable. La ventana de energía utilizada fue de 470-600 keV.

188

Pulso 300 ns Tasa NEC Máxima (kcps)

Pulso 300 ns y Clustering

Pulso 150 ns Pulso 150 ns

Dinámico

y Clustering Dinámico

1,66

3,12

3,12

5,60

0,51

0,95

0,91

1,79

3,68

8,6

8,19

20,82

3,17

6,26

6,19

12,23

4,3

9,33

8,65

16,67

0,51

1,79

1,79

1,79

Concentración de Actividad a la Tasa Máxima de NEC (kBq/cc) Tasa de Coincidencias Aleatorios a Tasa Máxima de NEC Tasa de Dispersión a Tasa Máxima de NEC (kcps) Tasa de Coincidencias Verdaderas Máxima (kcps) Concentración de Actividad a la Tasa Máxima de Coincidencias Verdaderas (kBq/cc) Tabla 5-10. Tasas máximas NEC y de eventos verdaderos para las distintas cadenas de procesamiento y considerando una zona ciega despreciable. La ventana de energía utilizada fue de 430-600 keV.

Para comparar las tasas máximas con valores de referencia de otros scanners se presentan algunos valores de referencia en la Tabla 5-11. Como era de esperarse, las tasas máximas de los equipos con detectores pixelados son muy superiores a las del ADAC UGM C-PET, el único en la tabla con cristales continuos. Sin embargo, las concentraciones de actividad con que se logran esas tasas son muy altas y en los estudios clínicos no se superan los 2-3 kBq/cc. Cuando se comparan las simulaciones realizadas para el AR-PET con el ADAC UGM C-PET, las tasas simuladas dan inferiores incluso para la cadena de procesamiento optimizada. Por un lado, al usar intervalos de 110 minutos en las mediciones simuladas, las tasas máximas pueden ser un poco mayores para concentraciones de actividad próximas a la de la medición simulada. Adicionalmente, en la simulación el apilamiento es un tiempo muerto paralelizable y no hay ningún mecanismo para su rechazo, que hace que el impacto del mismo sea más considerable. Por último, se observa que la cadena optimizada obtiene una tasa de coincidencias verdaderas cercana a la del ADAC UGM C-PET, sin embargo la tasa máxima NEC es sensiblemente menor. Esto se debe a que el impacto de los

189

eventos aleatorios es mayor en el AR-PET simulado, ya que se utilizó una ventana temporal de 10 ns, mientras que la del C-PET es de 8 ns [32]. Scanner

Fracción

Tasa

Concentración

Tasa de

Concentración de

de

NEC

de Actividad a

Coincidencias

Actividad a la Tasa

Dispersión

Máxima

la Tasa

Verdaderas

Máxima de

(kcps)

Máxima de

Máxima

Coincidencias

NEC (kBq/cc)

(kcps)

Verdaderas (kBq/cc)

ECAT EXACT

47,1%

19,2

7,5

109

19,7 [155]

35%

14

3,8

24

4,5 [158]

Sin datos

17

4,4

40

5,9 [156]

ECAT EXACT

49,8%

16,4

5,8

190

26 [157]

ECAT ACCEL

46,3%

46,9

18

60

10 [157]

48,8%

13,3

13

55

30 [157]

HR+ ADAC UGM C-PET Prototipo NaI(Tl) pixelado

ECAT EMERGE

Tabla 5-11. Valores de tasa máxima NEC y de eventos verdaderos y sus respectivos valores de concentración de actividad según norma NEMA NU2-2001 de distintos tomógrafos PET comerciales, todo ellos con modos de adquisición 3D.

Del análisis realizado para el ensayo de tasa de conteo de la norma NEMA se pueden obtener algunas conclusiones importantes: El impacto de poder implementar el clustering dinámico en los detectores es alto, permitiendo duplicar la cantidad de eventos que se pueden procesar. Las zonas ciegas del detector deben minimizarse lo más posible porque tienen un costo importante en lo que respecta a la tasa de conteo. La mejora de la resolución temporal, para poder reducir la ventana de tiempo de coincidencia, es otro factor de radical importancia para aumentar la tasa NEC, ya que los eventos aleatorios son los dominantes para niveles de concentración de actividad medios y altos. Una concentración de actividad de entre 1,5 y 2 kBq/cc es adecuada para los ensayos.

190

5.4.

Generación de Datos para Reconstrucción

Con el objetivo de generar datos para evaluar los algoritmos de reconstrucción de imagen del AR-PET se ha utilizado la aplicación GATE para simular la adquisición de distintos fantomas. El modelo del scanner utilizado es el descripto a lo largo de este capítulo. La cadena de procesamiento utilizada es la cadena optimizada de pulso de 150 ns y clustering dinámico. Para todos los fantomas la fuente simulada fue de 18

F modelada como fuente de positrón, a excepción del fantoma en aire que la fuente

utilizada fue de dos fotones gamma en direcciones opuestas ya que el rango del positrón en aire no permitiría obtener los resultados deseados (simular un proceso de adquisición sin atenuación). Los fantomas utilizados son los siguientes: Cilindro FOV Completo. Cilindro de 300 mm de diámetro por 260 mm de largo con actividad uniforme llenado con solución de agua y

18

F. Se utilizó

una concentración de actividad muy baja de 0,01 kBq/cc ya que se desea usar esta simulación para evaluar la sensibilidad geométricamente el sistema. Dada la baja actividad del fantoma, se simula un tiempo de adquisición de 100 minutos para generar sinogramas con bajo ruido Poisson. Cilindro Pequeño. Cilindro de 197 mm de diámetro y 185 mm de largo llenado con solución de agua y 18F con actividad uniforme. La concentración de actividad simulada fue 6,56 kBq/cc distribuidos uniformemente. Fantoma de Calidad de Imagen. Fantoma propuesto en el Capítulo 7 ―Image Quality, Accuracy of Attenuation and Scatter Correction‖ de la norma NEMA NU 2-2001. El mismo se aproxima a la forma de un cuerpo con una geometría que del lado inferior es plana, del superior es cilíndrica y tiene un largo de 180 mm. En su interior tiene seis esferas de 10, 13, 17, 22, 28 y 37 mm de diámetro. Las cuatro esferas de menor tamaño y el fondo se rellenan con una solución de agua y

18

F, mientras que las dos esferas más grandes

solo llevan agua para simular una lesión fría. Las cuatro esferas con

18

F

simulan una lesión caliente con una concentración de actividad cuatro veces mayor

que el fondo en una versión y ocho veces mayor en otra (así

establecido en la Norma NEMA). Se realizaron dos simulaciones con distintos niveles de actividad, una de 1 kBq/cc y otra de 2 kBq/cc. En la 191

Figura 5.18 se observa el corte central de la imagen voxelizada de atenuación y actividad.

Figura 5.18. Dos cortes de las imágenes de atenuación (izquierda) y de actividad (derecha) del fantoma de calidad de imagen simulados en GATE de forma voxelizada. En la imagen de atenuación se indican los tres materiales que forman el mismo. En la de actividad se indica la concentración de actividad de cada región, las zonas en negro no contienen 18F, el fondo con el número 1 tiene una concentración de actividad definida y las esferas blancas cuatro veces más.

Fantoma Jaszczak. Fantoma cilíndrico con diámetro interior de 216 mm y largo 186 mm. Los bordes y la tapa son de plástico. En su interior es llenado con una solución de agua y 18F con actividad uniforme. En la simulación se utilizó una actividad total de 1 mCi. En la mitad superior tiene esferas, con solo agua, que simulan lesiones frías del mismo tamaño que el fantoma de calidad de imagen: 10, 13, 17, 22, 28 y 37 mm de diámetro. En la mitad inferior tiene insertos en forma de varillas de distinto diámetro: 6,4 mm, 7,9 mm, 9,5 mm, 11,1 mm, 12,7 mm y 15,9 mm. Dichos insertos son de 88 mm de largo, son huecos y tienen aire en su interior. En la Figura 5.19 se encuentra un corte ubicado en la mitad inferior del fantoma, dónde se puede observar los distintos tamaños de los insertos y su distribución. En la Tabla 5-12 se exponen las simulaciones realizadas de cada uno de los fantomas simulados y la concentración de actividad utilizada en cada uno de ellos. En el caso del fantoma de calidad de imagen la concentración mostrada corresponde a la del fondo. Para cada simulación realizada se encuentran el tiempo de adquisición simulado, la cantidad de coincidencias adquiridas en ventana de energía y las tasas de adquisición.

192

Figura 5.19. Corte ubicado en la mitad inferior del fantoma Jaszczak. El fondo tiene actividad uniforme y cuenta con insertos distribu6dos en seis rodajas según su diámetro.

Simulación

Cilindro FOV

Tiempo Simulado

Coincidencias

Tasa de

Totales

Coincidencias

Adquiridas

Totales

6000 s

90,1.106

Cilindro Pequeño

240 s

37,9.106

Fantoma de Calidad

720 s

25,3.106

1200 s

48,1.106

Completo

de Imagen (4 a 1) con 1 kBq/cc

Fantoma de Calidad de Imagen (8 a 1) con

720 s

27,9.106

720 s

51,8.10

6

720 s

37,2.106

1 kBq/cc Fantoma de Calidad de Imagen (4 a 1) con 2 kBq/cc Fantoma Jaszczak

Tasa de Coincidencias en Ventana Demorada

20,2 kcps /

196,3 cps /

10,8 kcps

58,3 cps

223 kcps /

83 kcps /

219 kcps

79 kcps

52,8 kcps /

4,6 kcps /

49,9 kcps

4,0 kcps

52,8 kcps /

4,6 kcps /

46,6 kcps

3,5 kcps

53,1 kcps / 41,1 kcps

4,1 kcps / 3,6 kcps

74,0 kcps /

12,5 kcps /

69,5 kcps

11,2 kcps

189 kcps /

39,7 kcps /

179 kcps

35,5 kcps

Tabla 5-12. Simulaciones del AR-PET con adquisiciones de distintos fantomas. Se muestran el tiempo simulado de adquisición, la cantidad de eventos singles adquiridos en todo el scanner, la cantidad de coincidencias y su tasa.

193

5.4.1. Procesamiento de las Simulaciones Las simulaciones se procesaron utilizando la ventana de energía de 470-600 keV. También se procesaron considerando los distintos tamaños de zonas ciegas para evaluar su impacto en la calidad de imagen. Por cada simulación se generaron sinogramas de distintos tamaños

y

configuraciones para analizar su influencia en la reconstrucción de imagen. La generación de los mismos se describe en el próximo capítulo.

5.5.

Conclusiones

En este capítulo se describieron las características de la geometría, los detectores y la electrónica del AR-PET, así como también algunos parámetros obtenidos en el primer prototipo como la resolución en energía y temporal. Con este conjunto de datos, se modeló de forma precisa el scanner y mediante la aplicación GATE se ejecutaron simulaciones Monte Carlo de los ensayos de sensibilidad y tasa de conteo de la norma NEMA NU 2-2001. Las mismas sirvieron para estimar la performance que tendrá el AR-PET en esos parámetros y las posibilidades de mejorarlos. La sensibilidad se ve afectada por el error en el posicionamiento de los eventos en la zona de los bordes de cada detector, ya que se deben descartar aquellos eventos donde el error es muy grande. Para el método de posicionamiento de Anger, esta zona ciega es de más de 30 mm y hace que la sensibilidad sea de menos de 6 cps/kBq. Sin embargo, si se utiliza el método de posicionamiento con redes neuronales presentado en [153] la zona ciega se reduce a 10 mm y la sensibilidad alcanza las 7 cps/kBq. Este valor es competitivo frente a otros scanners comerciales. En lo que respecta a la tasa de conteo, se verificó que es el punto más débil del ARPET y es allí donde se deben introducir mejoras en el procesamiento de los datos para poder obtener tasas de adquisición que permitan realizar los estudios en un tiempo adecuado clínicamente. Las mejoras a realizar son la implementación de clustering dinámico para poder procesar dos eventos de forma simultánea en un mismo detector, cuando estén lo suficientemente separados, la disminución de la cantidad de muestras necesarias para procesar el pulso (esto ya ha sido evaluado mediante el algoritmo de desapilamiento de filtro inverso) y la reducción de la zona 194

ciega en los bordes del detector, que también estaría solucionada con el método de posicionamiento no lineal basado en redes neuronales. Con estas tres mejoras se podría llegar a una tasa máxima de coincidencias verdaderas de 17 kcps con una concentración de casi 2 kBq/cc. Este valor es comparable al obtenido en el scanner comercial CPET de detectores continuos, pero considerablemente inferior a los scanners con detectores pixelados que logran tasas mayores a concentraciones de actividad de un orden de magnitud mayor. De todas formas, la concentración de actividad utilizada habitualmente en los estudios clínicos 3D es de 2-3 kBq/cc por lo que esa mayor tasa de conteo de los detectores pixelados solo se aprovecha parcialmente. También se observó que la tasa NEC, que tiene en cuenta la tasa de coincidencias corregidas por las originadas por dispersión y eventos aleatorios, se ve afectada considerablemente por la tasa de estos últimos. Para disminuirla, es necesario aumentar la resolución temporal y reducir la ventana de tiempo de coincidencias. Por último, con el AR-PET modelado en la aplicación GATE y teniendo los valores de concentración de actividad para una adquisición adecuada, se simularon ensayos con distintos fantomas. Estas simulaciones servirán para generar datos de reconstrucción y analizar los distintos algoritmos de reconstrucción que se desarrollarán en el próximo capítulo.

195

196

Capítulo 6

Algoritmo de Reconstrucción para el Tomógrafo AR-PET En el Capítulo 3 se introdujeron los algoritmos de reconstrucción tomográfica y las correcciones que deben realizarse para la obtención de imágenes adecuadas en tomografías por emisión de positrones. En el Capítulo 4 se presentó una implementación eficiente del algoritmo iterativo MLEM 3D que, junto a su versión acelerada OSEM, será el utilizado en el AR-PET. Dicha implementación considera líneas de respuesta ideales y geometría de adquisición cilíndrica. Este tipo de algoritmo requiere que el proceso de adquisición del scanner sea modelado adecuadamente para lograr buena calidad de imagen y recuperación de la resolución de las imágenes. Por esta razón, para su utilización en el AR-PET se debe modificar la matriz de respuesta del sistema con LORs ideales y geometría cilíndrica a uno que tenga en cuenta las características particulares del AR-PET descriptas en el Capítulo 5. Por ejemplo, su geometría hexagonal, la resolución espacial limitada y las zonas ciegas en los bordes de los detectores. En este capítulo se desarrollará el algoritmo iterativo completo que se utilizará en el AR-PET. Para ello se utilizará como plataforma la implementación paralela presentada en el Capítulo 4 que, como se demostró, permite obtener imágenes en un 197

tiempo clínicamente adecuado mediante la utilización de unidades de procesamiento gráfico. Se cubrirán todos los aspectos que involucran la generación de una imagen a partir de las coincidencias detectadas en la electrónica de adquisición. Entre ellos se encuentran la generación de los sinogramas, la selección de su tamaño, las correcciones necesarias antes de la reconstrucción (atenuación, eventos aleatorios y dispersión) y el modelo de adquisición ajustado al AR-PET. El algoritmo propuesto se evaluará con los fantomas de calidad de imagen, Jaszczak y cilindro uniforme. Adicionalmente se realizará una comparación entre la utilización de un algoritmo 3D y el uso de un algoritmo de rebinning con reconstrucción 2D. En lo que respecta al modo de adquisición se trabajará en modo histograma, al igual que en la implementación del Capítulo 4. Si bien el modo lista puede ser adecuado para un scanner con detectores continuos como el AR-PET, la utilización de histogramas permite trabajar con distintos tamaños de datos y agrupar eventos para disminuir el ruido estadístico de las adquisiciones. Se prioriza esto último porque uno de los puntos débiles del AR-PET es su tasa de conteo, como se mostró en el Capítulo 5. Se utilizarán distintos tamaños de sinogramas según la cantidad de eventos adquiridos. Por último, se presentará la primera imagen tomográfica generada con el AR-PET utilizando un prototipo con dos cabezales detectores enfrentados con rotación.

6.1.

Sistemas de Coordenadas

Para determinar la posición de los eventos detectados, la ecuación de la recta que define cada coincidencia y su interacción con los píxeles de la imagen, es necesario definir un sistema de coordenadas para cada cabezal detector y otro global. El primero es utilizado dentro del cabezal para determinar la posición del evento detectado y el otro para localizar lo en todo el sistema. El sistema de coordenadas de cada cabezal es bidimensional, ya que los detectores no son capaces de medir la profundidad de interacción. Su origen se encuentra en el centro del detector, el eje X es el eje largo del detector y el Y el lado más corto del mismo. A cada fotón gamma detectado se asigna su posición (Xd,Yd) dentro del

198

cabezal.

Figura 6.1. Sistema de coordenadas intra cabezal. El eje X representa el lado largo de cada cabezal y el eje Y el corto. También se observa la numeración de cada PMT dentro del detector.

Las posiciones de cada evento detectado dentro del cabezal deben ser convertidas al sistema de coordenadas global para poder definir la línea de respuesta de la coincidencia. En la Figura 6.2 se puede observar el AR-PET dentro del sistema de coordenadas global propuesto. El plano XY forma el plano transaxial del sistema y el eje Z es el eje axial del mismo. Cada par de coincidencias debe convertirse en (Xw,Yw,Zw) a partir de (Xd,Yd) y el número de cabezal. Para esto se necesitan las dimensiones del scanner y sus propiedades geométricas. En el plano XY el hexágono que forma el AR-PET está circunscrito a un círculo de radio Rscanner_mín. Además el hexágono está inscripto en otra circunferencia de radio Rscanner_max. Todos los eventos detectados se encontrarán a una distancia del centro del FOV (en el plano XY) entre Rscanner_mín y Rscanner_max. El valor de Rscanner_min es de 360 mm, distancia a la que se encuentra la superficie del detector al centro del FOV (ver Figura 6.2).

199

Figura 6.2. Representación del sistema de coordenadas global del AR-PET. El plano XY es el plano transaxial del sistema y el eje Z es el eje axial. En la imagen se observan el campo de visión (FOV) y sus dimensiones. En rojo se muestra una LOR donde la posición de uno de los eventos gamma se remarca con un punto y sus coordenadas son (X w,Yw,Zw). Los detectores se encuentran numerados al costado de cada uno de ellos.

La conversión de coordenadas del sistema de coordenadas intra cabezal al global depende del cabezal detector en que se encuentre el evento. Sin embargo, para todos ellos la coordenada Zw es la Yd del detector: (6.1)

A la hora de obtener el Yw y Xw se necesita tener un valor de la profundidad de interacción. El AR-PET no tiene capacidad de medir DOI, por lo que se le debe asignar un valor fijo. Una elección adecuada es asignarle la distancia de mayor probabilidad de interacción estimada a partir del poder de frenado del cristal de NaI(Tl). Llamaremos Zd a la profundidad de interacción asignada. Finalmente, la obtención de Yw y Xw para cada cabezal (numerados como en la Figura 6.2) queda definida mediante las siguientes ecuaciones: Detector Nº 1: (6.2)

200

(6.3)

Detector Nº 2: (6.4) (6.5)

Detector Nº 3: (6.6) (6.7)

Detector Nº 4: (6.8) (6.9)

Detector Nº 5: (6.10) (6.11)

Detector Nº 6: (6.12) (6.13)

De esta forma, por cada par de eventos en coincidencia temporal tenemos los puntos (Xw1,Yw1,Zw1) y (Xw2,Yw2,Zw2) que forman una recta que atraviesa el FOV. La ecuación paramétrica de dicha recta queda definida por: (6.14)

donde t es el parámetro que recorre los distintos puntos de la recta y toma valores entre cero y uno dentro del scanner. Esta recta debe ser representada en coordenadas polares para poder asignarla a un bin del sinograma. Recordemos que en un sinograma 3D las LORs se deben representar mediante las coordenadas (θ,r,z1,z2) donde (θ,r) son las coordenadas polares de la proyección de la recta sobre el plano XY (ver Figura 2.9). Dichos parámetros se obtienen con las siguientes ecuaciones: (6.15) (6.16) (6.17) (6.18)

201

De esta forma, cada coincidencia puede almacenarse en el bin correspondiente del sinograma. El tamaño y el tipo de sinogramas a generar se analizarán en la próxima sección.

6.2.

Generación de Sinogramas

En el AR-PET se trabajará con sinogramas 3D; sin embargo, también se generarán sinogramas 2D para poder realizar una comparación entre ambos modos. Un sinograma debe utilizar una cantidad discreta de valores para los ángulos θ, distancias r y posiciones axiales z. Dichas cantidades dependen principalmente de la resolución espacial del sistema, aunque también se debe considerar que cuanto más bins tenga el sinograma más ruido Poisson existirá en el mismo. En un sistema con detectores pixelados su resolución espacial está determinada por el tamaño de píxel de los detectores, mientras que en uno continuo, como en el AR-PET, por el FWHM del detector y la precisión utilizada para almacenarlo. Como se describió en el Capítulo 5, la resolución espacial del detector es de 5 mm FWHM en el mejor de los casos. Para cumplir con el teorema del muestreo, la separación entre muestras sobre cada cabezal debe ser menor que 2,5 mm (la mitad de la resolución espacial). Teniendo en cuenta dichas condiciones, se utilizarán 8 bits para las variables discretas Xd e Yd. Si bien las dimensiones del cabezal en cada eje son distintas, se utiliza una separación de 1,6 mm entre muestras para ambos casos. De esta forma en cada detector se obtienen 254x190 bins de posición, de los cuales algunos de la periferia valdrán cero por encontrarse en la zona ciega del detector. Luego, cada detector busca coincidencias temporales con los detectores opuestos. Se puede limitar la coincidencia a los tres detectores opuestos, quedando nueve combinaciones de cabezales en coincidencia, u optar por adquirir coincidencias con todos los detectores opuestos que resulta en un total de quince combinaciones de cabezales. Finalmente, las coincidencias son reducidas a sinogramas para ser almacenadas de forma eficiente. El sinograma debe cubrir todo el campo de visión y su tamaño, si bien es arbitrario, debe estar relacionado con la resolución. En el AR-PET el FOV es cilíndrico y tiene un radio (RFOV) de 300 mm y un largo (ZFOV) de 260 mm (ver Figura 6.2). Este

202

último valor depende de la zona ciega que tenga el detector, que a su vez dependerá del método de posicionamiento de eventos utilizado. Sobre la base de lo analizado en el Capítulo 5, consideramos que se tendrá una zona ciega de 21 mm (1/2 PMT) desde el borde del cristal y por esa razón el ZFOV se ve reducido de 304 mm a 260 mm. Dentro del plano transaxial, la cantidad máxima de muestras que puede tener cada proyección del sinograma será la que utilice la separación entre bins del detector (1,6 mm). Para recorrer los 600 mm del FOV, se necesitan distintas cantidad de muestras según el ángulo de la proyección. Utilizamos como referencia la proyección perpendicular a uno de los detectores, donde para recorrer el FOV se necesita la siguiente cantidad de muestras: (6.19)

siendo

el largo del detector (406 mm) y

la separación entre bins en el

detector (1,6 mm). Esto da una cantidad de muestras ( Para el número de proyecciones a utilizar (

) de 496 para la proyección.

) tomamos como referencia la cantidad

de ángulos que se pueden formar entre un bin y los bins de los cabezales opuestos, fusionando dos ángulos consecutivos en uno (proceso denominado mashing). De esta forma se obtienen aproximadamente 384 proyecciones. Por último, queda definir la cantidad de slices o anillos que se utilizarán. En el caso de máxima resolución, se recorrerán los 260 mm en el paso mínimo del eje y del detector (1,6 mm), por lo que se utiliza una cantidad máxima de 164 slices. A partir del análisis anterior, se define un sinograma 2D de máxima resolución de 384x496 bins. Si en la adquisición se utiliza algún método de rebinning se generarán 164 (uno por slice) sinogramas del tamaño mencionado previamente. Esto implica que en total se tienen 22,7.106 bins. Esta gran cantidad de bins hace que una adquisición típica, de aproximadamente 100.106 coincidencias, genere sinogramas sin cuentas en gran cantidad de bins. Por esta razón, dicho tamaño de sinograma se utilizará solo en casos de necesitar llegar a la máxima resolución del sistema y que se puedan realizar adquisiciones largas para almacenar una gran cantidad de coincidencias. Para las adquisiciones habituales se reduce a la mitad cada dimensión del sinograma

203

y se obtienen 82 sinogramas 2D de 192x248 bins. Para mediciones con muy poca estadística se vuelve a hacer la misma reducción y se utilizan 41 sinogramas de 96x124 bins.

Figura 6.3. Diagrama del michelograma utilizado en el AR-PET. Se tienen 41 anillos y se comprimen sinogramas axialmente con un span de 7.

Los tamaños de sinogramas mencionados anteriormente son utilizados cuando se utiliza la estrategia de rebinning más reconstrucción 2D, donde se tiene un sinograma y una imagen reconstruida por cada slice. Para reconstrucción 3D se debe definir el tamaño de sinograma 3D o michelograma. En ellos, el tamaño de los datos es considerablemente mayor que en el caso de reconstrucción 2D ya que se tiene un sinograma por cada combinación entre anillos. Para ello se debe reducir la cantidad de slices. Para el michelograma a generar se utilizarán 41 slices y se configurará con 204

un span de 7, como se observa en la Figura 6.3. Cada sinograma 2D del michelograma podrá tener los tres tamaños propuestos (384x496, 192x248 y 96x124) según la resolución esperada o los tiempos de adquisición. Para cada una de las simulaciones desarrolladas en la sección 5.4 se generaron sinogramas 2D y 3D con los tamaños definidos en esta sección.

6.2.1. Procesamiento de las Simulaciones Las simulaciones de la sección 5.4 se procesaron de forma de emular el proceso de adquisición real. Como se describió en el Capítulo 5, las simulaciones con GATE incluyen la resolución temporal del sistema, la ventana de coincidencias utilizadas, el tiempo muerto de los detectores y la resolución en energía. Para completar el modelado del proceso de adquisición en el procesamiento de los eventos realizado con MATLAB se tienen en cuenta las zonas ciegas en el detector, la resolución espacial del sistema y la cantidad de bits utilizados para guardar la posición de un evento en el AR-PET. En la salida de las simulaciones realizadas con GATE se obtienen las posiciones de todos los eventos detectados en coordenadas globales. Con dichas coordenadas se implementa el siguiente procesamiento: Se proyectan las coordenadas globales (Xw,Yw,Zw) en las coordenadas del cabezal (Xd,Yd). En la proyección, la profundidad de interacción Zd se fuerza a la mitad del espesor del detector, ya que el AR-PET no cuenta con la posibilidad de medir dicho parámetro. A las coordenadas (Xd,Yd) se le agrega una dispersión para modelar la resolución espacial. Para ello, se utiliza una distribución normal con el desvío estándar correspondiente a la resolución espacial del detector. Para analizar la influencia de la resolución espacial del detector en las imágenes reconstruidas, hemos usado dispersiones de 5 mm y 9 mm FWHM correspondientes a valores de resolución esperados en el AR-PET. Se aplican las zonas ciegas sobre cada cabezal, descartando todos los eventos que se encuentran en el borde del cristal. Las distancias al borde del detector utilizadas como zonas ciegas fueron las mismas que las del Capítulo 5.

205

A las coordenadas (Xd,Yd) resultantes de los puntos anteriores, se las discretiza en los bins utilizados sobre la superficie del cristal. Recordamos que el detector se discretiza en bins de 1,6 mm x 1,6 mm, de forma de usar 8 bits para almacenar cada posición. Se vuelven a obtener las coordenadas globales (Xw,Yw,Zw) de cada evento. Con los eventos procesados se generan las coordenadas de cada LOR utilizando las ecuaciones (6.15), (6.16), (6.17) y (6.18) y se las guarda en sinogramas 3D con los tamaños propuestos en esta sección. Adicionalmente, se generan sinogramas 2D, para lo cual previamente se debe aplicar un algoritmo de rebinning. En esta tesis se ha utilizado tanto el método de SSRB como el de MSRB.

6.2.2. Rebinning para Generación de Sinogramas 2D La implementación del algoritmo SSRB [35] para rebinning toma las coordenadas Zw1 y Zw2 originales y las reemplaza por el valor medio entre ellas: (6.20)

Por otro lado, el algoritmo MSRB (Multi-slice Rebinning) [92] distribuye cada LOR oblicua en todos los sinogramas directos atravesados por ella (ver Figura 3.16 en Capítulo 3). Para ello, se obtienen las coordenadas Zw1 y Zw2 de los puntos de entrada y salida del FOV y se genera una lista con todos los slices o anillos atravesados entre ambas coordenadas. Todos los bins de las LORs (θ,r,z), para todos los z de la lista, son incrementados en una misma cantidad, inversamente proporcional a la cantidad de anillos atravesados por dicha LOR y determinada por la ecuación (6.21). (6.21)

donde

y

son los índices de los slices correspondientes a la entrada y

salida de la LOR al FOV. De esta forma el incremento por LOR queda ecualizado sin importar cuales eran sus coordenadas axiales. Adicionalmente, se realiza una normalización para que el sinograma tenga la misma cantidad de cuentas totales que las coincidencias adquiridas.

206

6.2.3. Sinogramas Generados Se generaron sinogramas 3D, así como también 2D utilizando SSRB y MSRB, para las distintas simulaciones realizadas con GATE (ver 5.4). En la Figura 6.4 se presenta el sinograma 3D generado a partir de la simulación con GATE del fantoma cilíndrico de aire y actividad uniforme que cubre todo el FOV. En la imagen de la izquierda se visualizan todos los sinogramas 2D que lo componen, apilados en el mismo orden en que se encuentran almacenados en memoria. Con una leyenda se muestra a qué segmento pertenece cada grupo de sinogramas 2D. A la derecha se observa uno de los sinogramas 2D del primer segmento (sinogramas directos), en el cual se puede observar cómo se forman regiones romboidales. Los límites de dichos rombos representan las zonas del FOV que no logran adquirirse por la pequeña separación entre cada uno de los detectores que forman el hexágono. Cada región delimitada por dichas zonas ciegas corresponde a coincidencias obtenidas entre dos detectores determinados. Con una leyenda se indica a qué combinación de cabezales corresponde cada una de ellas. En la Figura 6.5 se muestran los 41 sinogramas 2D de baja resolución generados con el método de rebinning SSRB para la simulación de fantoma de calidad de imagen. En los mismos se puede observa una zona triangular de mayor intensidad, que es efecto del contraste entre las proyecciones atenuadas por la camilla y aquellas que no la atraviesan.

207

Figura 6.4. Sinograma 3D de la simulación de fantoma de cilindro uniforme. En la imagen de la izquierda se observa un corte a lo largo del mismo, donde se puede observar cómo quedan almacenados todos los sinogramas 2D de cada segmento. Entre paréntesis se encuentra la cantidad de sinogramas por cada segmento. A la derecha se encuentra uno de los sinogramas directos (primer segmento) de dicho sinograma 3D. En cada una de las regiones del sinograma 2D se señala a qué combinación de cabezales corresponden los bins de las mismas.

208

Figura 6.5. Sinogramas 2D generados con el método de rebinning SSRB para la simulación del fantoma de calidad de imagen

6.3.

Algoritmo de Reconstrucción Iterativo para el AR-PET

El algoritmo de reconstrucción genérico del Capítulo 4 debe ser modificado para utilizarse en el AR-PET. En primer lugar, debe modificarse la matriz del sistema para modelar de forma adecuada la geometría de detección del AR-PET. Adicionalmente, se deben corregir los sinogramas para compensar por los eventos aleatorios, la dispersión y la atenuación. Estas correcciones se realizan antes de iniciar el proceso de reconstrucción y se aplican operando a nivel de bin del sinograma: (6.22)

donde b_ci es el bin i del sinograma ya corregido, bi es el correspondiente bin del sinograma adquirido, Si es la estimación de los eventos dispersos, Ri es la estimación de los eventos aleatorios y ACFi es el coeficiente de corrección por atenuación, todos ellos calculados para cada bin del sinograma. Tanto el modelo de detección para la creación de la matriz del sistema como los métodos utilizados para la estimación de cada uno de los factores de corrección se describen a continuación. 209

6.3.1. Modelo de Detección El modelo geométrico para la matriz de respuesta del sistema debe modificarse respecto del de scanner cilíndrico utilizado en el Capítulo 4. En este caso, para la obtención de las coordenadas de los puntos sobre el scanner de cada LOR se debe considerar la geometría hexagonal del AR-PET. Para ello, se obtiene el punto de intersección de la LOR con las rectas de cada uno de los cabezales y se verifica que dicho punto se encuentre dentro de los límites del cabezal. Las siguientes ecuaciones permiten obtener la coordenada x del punto de intersección de la LOR y la recta sobre la que yace cada cabezal, a partir de los valores de θ y r: Detector Nº 1: (6.23)

Detector Nº 2: (6.24)

Detector Nº 3: (6.25)

Detector Nº 4: (6.26)

Detector Nº 5: (6.27)

Detector Nº 6: (6.28)

donde Rscanner_min es la distancia del centro del FOV a la superficie de cada detector y Zd es la profundidad de interacción considerada. Luego se obtiene la coordenada y reemplazando en la ecuación de la LOR: (6.29)

Finalmente, si el punto pertenece a uno de los cabezales, la coordenada y debe estar

210

dentro de los valores cubiertos para detector, que son los siguientes: Detectores Nº 1 y 4:



(6.30)

Detectores Nº 2 y 3: (6.31)

Detectores Nº 5 y 6: (6.32)

De esta manera, para cada LOR a procesar se verifica sobre qué cabezales se forma dicha recta y se obtienen las coordenadas globales de los puntos que la definen. Con los dos detectores identificados se puede decidir si esa LOR es adquirible, ya que por ejemplo el scanner puede estar configurado para no adquirir coincidencias entre detectores adyacentes. Luego de la obtención de dichos puntos se ejecuta el algoritmo de Siddon como en el Capítulo 4. Adicionalmente, se debe modelar las variaciones de la sensibilidad de detección de las distintas regiones del FOV para el detector con geometría hexagonal del ARPET. Lo mismo se hará aprovechando el algoritmo de Siddon ya implementado en el Capítulo 4, al cual se le incorporarán factores geométricos y físicos adicionales. Recordamos que el objetivo de la SRM es obtener la probabilidad de que un positrón emitido en cierto voxel sea detectado en cada una de las LORs disponibles en el sinograma. Una forma de obtener una matriz completa es modelando analíticamente la función de respuesta (PSF: point spread funciton) del sistema. Existen algunos modelos analíticos propuestos para scanners con detectores pixelados cilíndricos [163][164][165] y planos [166]. En este trabajo se implementará un modelo de detección para la geometría hexagonal utilizada. Esta matriz tendrá en cuenta el ángulo sólido de detección para cada LOR desde los distintos píxeles del FOV y además tendrá en cuenta la variación en la probabilidad de detección de un fotón según la distancia recorrida dentro del cristal centellador. De esta forma, cada coeficiente de la matriz del sistema está definido de la siguiente manera:

211

(6.33)

donde aij es el coeficiente de la SRM para el bin i del sinograma y el píxel j de la imagen, ei es una constante de habilitación (vale 1 o 0) según esté disponible la adquisición de LORs en los detectores correspondientes al bin en proceso, k es el índice de las numZ LORs comprimidas axialmente en el mismo bin i del michelograma, lkij es el largo del segmento de intersección (Siddon) entre la LOR k del bin i con el píxel j, s_askij es la sensibilidad geométrica de detección (por ángulo sólido) de dos fotones emitidos en direcciones opuestas desde el píxel k en la dirección de la LOR dada, s_d1ki es la probabilidad de que un fotón emitido en la dirección de la LOR k del bin i sea absorbido en el scanner y s_d2ki tiene el mismo significado, pero para el segundo fotón emitido en sentido opuesto. Estas dos últimas constantes son la probabilidad de detección por la distancia recorrida en el detector y son constantes para cada LOR (no dependen de la posición del píxel j). Aplicando dicha matriz del sistema, la operación de proyección se calcula mediante: (6.34)

siendo pi el bin i del sinograma proyectado y xj los píxeles de la imagen a proyectar. La constante de sensibilidad de detección por ángulo sólido (s_askij) es igual a la multiplicación del ángulo sólido en el plano transversal (φ) por el formado en el sentido axial (α). En la Figura 6.6 se observa, en el plano transversal, la formación de dos ángulos sólidos (φ1 y φ2) de detección, uno por cada fotón emitido, en una LOR (θ,r) para un positrón emitido en las coordenadas (Xj,Yj). Como para la matriz del sistema se desea obtener la probabilidad que los dos fotones emitidos sean detectados en una LOR dada, el ángulo sólido para la LOR queda definido por el menor de φ1 y φ2, que es el ángulo formado en dirección del detector más lejano respecto de la posición de emisión. El mismo se puede aproximar, para una LOR determinada, mediante: (6.35)

siendo d_xy1j y d_xy2j las distancias, en el plano XY, desde el píxel de emisión a

212

cada uno de los detectores que forman la LOR.

Figura 6.6. Ángulo sólido de detección en el plano transversal de la LOR (θ,r) para dos fotones colineales emitidos desde un píxel con coordenadas (Xj, Yj). Se forman dos ángulos sólidos (φ1,φ2) en cada uno de los sentidos, de los cuales el más restrictivo es el correspondiente a toda la LOR.

El mismo análisis se realiza para el ángulo sólido formado en el eje axial. En la Figura 6.7 se observan los parámetros involucrados para su cálculo. Nuevamente se debe considerar el ángulo sólido más restrictivo de los dos. A diferencia del caso anterior, donde todas las LORs tenían el mismo espesor (Δr) ya que los sinogramas se generan con LORs equiespaciadas, los sinogramas oblicuos se generan a partir de espesores fijos de anillos (Δz) lo que implica un espesor de LOR que varía con la diferencia entre anillos. Entonces para el cálculo del ángulo sólido se debe utilizar el

213

ancho real de la LOR, que es el ancho del anillo proyectado sobre un eje perpendicular a la inclinación axial de la LOR (Δzp en la imagen).

Figura 6.7. Ángulo sólido de detección en el sentido axial. Para un sinograma con combinación de anillos z1 y z2, se forman dos ángulos sólidos (α1,α2) desde el píxel ubicado a distancia d1j y d2j de cada uno de los anillos. El cálculo del ángulo requiere utilizar el espesor de anillo proyectado sobre un eje perpendicular a la inclinación de la LOR en el eje axial (Δzp). A la derecha se encuentra la zona cercana al detector aumentada, para visualizar Δzp y las dimensiones necesarias para su cálculo.

La obtención de Δzp se realiza a partir del ángulo que forma el sinograma oblicuo con el detector (δ): (6.36)

donde d_xy12 es la distancia entre los dos extremos de la LOR en el plano XY y d12 es la distancia total entre ambos eventos. Finalmente, el ángulo α queda definido por: (6.37)

siendo d1j y d2j las distancias totales desde el píxel a cada extremo de detección. En lo que respecta a los factores de sensibilidad por probabilidad de absorción en el

214

detector, se utiliza la distancia que recorre cada fotón dentro de él y su coeficiente de atenuación lineal: (6.38)

donde s_d es la probabilidad de detección de un fotón que recorre la distancia Lna_i (en centímetros) dentro de un detector de NaI, cuyo coeficiente de atenuación lineal µna_i es igual a 0,34 cm-1 para fotones de 511 keV [4]. El largo que recorre la LOR en el detector se obtiene de componer el largo en el plano transversal con el largo en el eje axial. El primero de ellos se calcula trigonométricamente, a partir del ángulo con que incide la LOR sobre el detector. En la Figura 6.8 se pueden observar los parámetros involucrados en el cálculo de dicha distancia en el plano transversal. Para esto, a partir del ángulo de proyección θ se obtienen los ángulos que forman un triángulo rectángulo dentro del detector, con el largo de la LOR (Lna_i_xy) dentro del detector como hipotenusa y el espesor del mismo (Ld_z) como uno de los catetos.

Figura 6.8. Parámetros involucrados en el cálculo de la distancia recorrida dentro del detector para los cabezales Nº 1 y 2. A partir del ángulo θ se obtienen los ángulos que forman un triángulo rectángulo con la distancia en el detector como hipotenusa. El detector Nº 2 forma un ángulo de 30º con el eje X.

La distancia Lna_i_xy se obtiene a partir del ángulo que forma la LOR con el cabezal de detección. Como cada cabezal tiene distinta orientación, el cálculo de esta distancia varía según que detector forme la LOR:

Detectores Nº 1 y 4: (6.39)

Detectores Nº 2 y 5:

215

(6.40)

Detectores Nº 3 y 6: (6.41)

Luego se debe obtener la componente en z del largo dentro del detector. La misma se puede calcular a partir del ángulo formado por el sinograma oblicuo con el eje Z (Figura 6.7) y la distancia Lna_i_xy: (6.42)

Por último, se obtiene la distancia total en el detector mediante la composición de las dos distancias anteriores: (6.43)

Las distancias d12, d_z12 y d_xy12 necesarias para el cálculo de los factores de sensibilidad se pueden determinar fácilmente a partir de las coordenadas de los eventos en el detector (Xw1,Yw1,Zw1) y (Xw2,Yw2,Zw2) que forman la LOR. Para resumir, la operación completa de proyección se realiza con: (6.44)

donde Lna_i_ki1 y Lna_i_ki2 son las distancias dentro del detector de NaI de los dos fotones que forman la LOR k del bin i del michelograma,

es la distancia en

el plano XY entre los dos puntos de ingreso al detector de dicha LOR, distancia total entre ambos puntos,

es la distancia en el plano XY desde el

píxel j a los puntos de ingreso al detector de la LOR y desde el píxel a dichos puntos.

es la

y

es la distancia total

representan la separación transversal entre

LORs y el ancho de los slices o anillos respectivamente. Para verificar el modelo propuesto se utilizó la simulación de cilindro con actividad uniforme del tamaño del FOV y relleno de aire. Se seleccionó dicho fantoma porque las variaciones de sensibilidad de detección se hacen notables en la periferia del FOV. Adicionalmente, no afectan otros factores, como la atenuación y la dispersión (por ser el medio aire) como tampoco los eventos aleatorios y el apilamiento (por ser una simulación con baja concentración de actividad). A continuación, en la Figura

216

6.9, se presenta el sinograma generado a partir de la simulación Monte Carlo (sinograma a) y sinogramas obtenidos de la proyección de un cilindro uniforme del tamaño del FOV. La proyección se realiza utilizando tres SRM distintas, una generada con el algoritmo de Siddon como en el Capítulo 4 (sinograma b), otra con el algoritmo de Siddon pero obteniendo las coordenadas de las LORs con la geometría hexagonal y considerando la mínima diferencia entre detectores permitida (sinograma c), y otra que incluye el modelo completo con todos los factores de sensibilidad desarrollados en esta sección (sinograma d). Los sinogramas se presentan normalizados a su valor máximo, ya que interesa comparar la sensibilidad relativa de cada bin del sinograma.

Figura 6.9. Sinograma número 24 del michelograma obtenido de la simulación en GATE de cilindro con actividad uniforme en aire (a) y aquellos proyectados con tres SRM distintas: Siddon (b), Siddon con geometría hexagonal (c) y modelo hexagonal completo.

En dichos sinogramas se observa cómo la geometría hexagonal del AR-PET tiene una sensibilidad muy diferente en cada una de las regiones del FOV respecto de la geometría cilíndrica del Capítulo 4. Al michelograma simulado con GATE se le aplicó un filtro de media de 3x3x3 para disminuir su ruido estadístico y poder realizar mejor la comparación. Por esta razón, el patrón de líneas sin detección, provocado por las zonas donde termina cada uno de los detectores, se observa más suave que en los sinogramas proyectados. En la Figura 6.10 y la Figura 6.11 se muestran dos cortes de los mismos sinogramas de la Figura 6.9 para las proyecciones en 50º y 20º, respectivamente. En ellos se puede verificar cómo el modelo propuesto obtiene variaciones de sensibilidad en cada proyección, similares a las del sinograma de la simulación Monte Carlo. También se puede observar cómo las LORs entre detectores opuestos (rombos centrales en el sinograma) tienen menor sensibilidad que cuando los detectores tienen cierto ángulo de inclinación entre sí. Esto era de esperarse, ya que en este último caso los fotones recorren mayor 217

distancia dentro de los detectores.

Figura 6.10. Corte en la proyección con ángulo 50º del sinograma 2D número 24 del primer segmento de los michelogramas simulados con GATE y proyectados con Siddon y con el modelo hexagonal completo.

Figura 6.11. Corte en la proyección con ángulo 20º del sinograma 2D número 24 del primer segmento de los michelogramas simulados con GATE y proyectados con Siddon y con el modelo hexagonal completo.

Para realizar la comparación de forma completa se reconstruyó el sinograma simulado con GATE con el algoritmo MLEM, utilizando las tres matrices del 218

sistema ya comparadas. En la Figura 6.12 se pueden observar slices de los volúmenes reconstruidos con matrices del sistema para geometría cilíndrica (a), geometría hexagonal (b) y geometría hexagonal con el modelo completo (c). En dichas imágenes se puede observar como la utilización de una SRM para un scanner cilíndrico no converge a una solución para un scanner como el AR-PET. Además, la consideración de la geometría hexagonal no es suficiente, ya que en dicho caso la imagen obtenida no es uniforme por la diferencia de sensibilidad de las distintas LORs. Por último, con el modelo de sensibilidad completo si se logra el cilindro uniforme.

Figura 6.12. Slice reconstruido del sinograma de fantoma cilíndrico en aire y que cubre todo el FOV para las tres matrices de respuesta: geometría cilíndrica (a), geometría hexagonal (b) y geometría hexagonal con modelo de sensibilidad completo (c).

6.3.2. Corrección de Atenuación Para la corrección de atenuación, se utilizan los mapas de atenuación teóricos sintetizados computacionalmente de cada uno de los fantomas, los cuales en cada vóxel tienen el valor del coeficiente de atenuación lineal del volumen correspondiente. Con la biblioteca de reconstrucción se proyectan las imágenes en sinogramas del tamaño idéntico a los que se desean corregir por atenuación. La proyección utiliza el algoritmo de Siddon, que tiene la ventaja de obtener el largo en cm del segmento de intersección con cada píxel. En los michelogramas, cada bin representa múltiples LORs comprimidas axialmente, por lo que cada bin proyectado contendrá la suma de la atenuación total de cada una de dichas LORs. Esto se resuelve promediando la atenuación de cada una de las LORs comprimidas en un único bin para obtener la atenuación equivalente a una única LOR. De esta manera, cada bin del sinograma contendrá la suma de los largos de atenuación:

219

(6.45)

donde Ati es el largo de atenuación total para el bin i del sinograma o michelograma, nZi es la cantidad de LORs comprimidas axialmente en el bin i, likj_cm es el largo en cm de intersección de la LOR k del bin i con el píxel j, µj es el coeficiente de atenuación lineal correspondiente al píxel j del mapa de atenuación. Finalmente, con los valores obtenidos de Ati para cada bin del sinograma se calculan los coeficientes de corrección de atenuación (ACFs) mediante: (6.46)

A modo de ejemplo, en la Figura 6.13 se muestra el slice central del mapa de atenuación sintetizados con los valores de atenuación lineal en cm-1 en cada píxel. En la Figura 6.14 se visualiza uno de los sinogramas 2D dentro del michelograma con los ACFs obtenidos para el mismo fantoma. En él se puede observar la influencia de los distintos elementos atenuantes del fantoma: el fantoma con agua, el inserto cilíndrico de baja densidad y la camilla de polietileno.

Figura 6.13. Slice central del mapa de atenuación lineal con los coeficientes de atenuación lineal para cada píxel. En el centro se encuentra el fantoma de calidad de imagen y en la parte inferior la camilla del sistema, tal como fue simulado en GATE. La escala de colores se encuentra en cm -1.

220

Figura 6.14. Factores de corrección de atenuación para uno de los sinogramas 2D del michelograma del fantoma de calidad de imagen con presencia de la camilla.

6.3.3. Corrección de Eventos Aleatorios La corrección de eventos aleatorios se realiza mediante la utilización de una ventana de coincidencias demorada, que será el método utilizado en el scanner una vez finalizado. Tanto para simulaciones como mediciones, se obtiene una ventana de coincidencias con una demora de 500 ns y con dichos eventos se genera un sinograma del mismo tamaño que el generado para la reconstrucción. Al sinograma de coincidencias demoradas se aplica un filtro de media para disminuir el ruido estadístico presente en el mismo. Luego se realiza la resta bin a bin entre el sinograma adquirido y el de coincidencias demoradas. Si hubiera bins que quedaran con valores negativos se truncan a cero.

6.3.4. Corrección de Dispersión La corrección de dispersión se realiza utilizando el método de la triple ventana de energía [121] por tener resultados satisfactorios para su sencillez de implementación. Su implementación se realizó utilizando dos ventanas de energía de 20 keV de ancho, centradas en los límites de la ventana de energía principal de 460-590 keV. Con ambas ventanas se obtiene un único sinograma de dispersión y a partir del mismo se estima la cantidad de cuentas de dispersión dentro de la ventana de energía

221

principal. Al utilizar el mismo ancho de ventana de estimación de dispersión se puede utilizar un único sinograma con las cuentas de las dos ventanas y aplicarle la siguiente ponderación: (6.47)

donde Si son las cuentas del sinograma de corrección por dispersión para el bin i, S_Ei son las cuentas obtenidas en las dos ventanas de energía de dispersión, ΔEsc el ancho de cada una de las ventanas de energía de dispersión, y Einf y Esup los límites inferior y superior respectivamente de la ventana de energía principal. En este caso también es conveniente filtrar el sinograma de corrección ya que al tener pocas cuentas por bin su ruido estadístico es considerable. En la Figura 6.15 se puede visualizar el proceso de corrección de dispersión. En la imagen a) se encuentra el sinograma generado en la ventana de energía principal para la simulación del fantoma de calidad de imagen. En b) se encuentra el sinograma correspondiente a las dos ventanas de dispersión, al cual luego se aplica un filtro de media de 3x3 para disminuir el ruido estadístico (imagen c). Finalmente, en d) se obtiene el sinograma corregido por dispersión resultante de la resta bin a bin del sinograma a) con el b).

Figura 6.15. Corrección de dispersión en el sinograma directo del slice 20 para el michelograma simulado del fantoma de calidad de imagen. a) Sinograma de la ventana de energía principal. b) Sinograma de corrección de dispersión Si. c) Sinograma de b) luego de aplicarle un filtro de media con kernel de 3x3. d) Sinograma corregido resultante de la resta de a) con c).

6.3.5. Extensión a OSEM El algoritmo MLEM implementado en el Capítulo 4 se adaptó para obtener su versión acelerada OSEM. Dicho algoritmo fue descripto previamente en la sección 3.3.2 y permite acelerar su convergencia considerablemente mediante la división de cada sinograma en subconjuntos más pequeños.

222

En la implementación de OSEM se divide cada sinograma 2D del michelograma en seis sinogramas más pequeños tomando proyecciones equiespaciadas angularmente, como se describió en 3.3.2. Luego se reconstruye la imagen utilizando los seis sinogramas más pequeños sucesivamente y se pasa a la próxima iteración. Para generar una reconstrucción equivalente a MLEM con 40 iteraciones, se utilizan 8 iteraciones que pasan por los seis subconjuntos. De esta forma los tiempos de reconstrucción se reducen tantas veces como los subconjuntos utilizados. Para los sinogramas de máxima resolución se utilizan 16 subsets y 3 iteraciones, para acelerar la convergencia en un factor mayor que para los otros tamaños. En el caso de los sinogramas de menor resolución, se utilizan una cantidad menor de subsets (6) y se aumentan las iteraciones (8) para mantener el equivalente a 48 iteraciones MLEM. Se verificó que las dos configuraciones utilizadas no trajeron problemas en la convergencia del algoritmo iterativo.

6.4.

Resultados de Reconstrucción

Las simulaciones realizadas con GATE se reconstruyeron con el algoritmo OSEM utilizando la matriz del sistema desarrollada en este capítulo y los métodos de corrección descriptos recientemente. Se realizaron diversos análisis de los resultados obtenidos para obtener conclusiones respecto del método de reconstrucción desarrollado. En primer lugar se seleccionó el método de control de ruido a utilizar en las reconstrucciones, necesario en los algoritmos iterativos. Luego se realizó un análisis de la resolución espacial utilizando el fantoma de calidad de imagen, tanto para su relación de actividad de 4 a 1 como de 8 a 1, y el fantoma Jaszczak. Se comparó la forma en que influye el tamaño del sinograma y de las imágenes reconstruidas en la resolución de las mismas, con el objeto de determinar los tamaños adecuados para utilizar en el AR-PET. Los tamaños de sinograma utilizados fueron los mencionados en 6.2. Esto es, michelograma con 41 slices y span 7, con sinogramas 2D de 96x124 bins (baja resolución), 192x248 (alta resolución) y 384x492 (máxima resolución). Los sinogramas de baja resolución se reconstruyeron con imágenes de 128x128x41 píxeles, las de alta resolución con imágenes de 256x256x82 píxeles y las de máxima resolución con imágenes de 384x384x82

223

píxeles.

6.4.1. Control de Ruido Los algoritmos iterativos permiten obtener mayor resolución en las imágenes a medida que se incrementan las iteraciones y el algoritmo converge a una solución. Sin embargo, el incremento de las iteraciones incrementa el nivel de ruido de las imágenes, por lo que hay que implementar una estrategia para controlar el mismo. Para la reconstrucción del fantoma Jaszczak con el sinograma de mayor resolución (michelograma de span 7 con sinogramas de 384x496), se comparó el impacto de frenar de forma anticipada la reconstrucción iterativa con la aplicación de dos filtros como post-procesamiento; un

filtro de mediana de kernel de 3x3 y un filtro

gaussiano con desvío 2 mm. Las reconstrucciones se realizaron con OSEM utilizando 16 subsets, por lo que cada iteración es equivalente a 16 de MLEM. En la Figura 6.16 se encuentra una comparación de la reconstrucción con 1, 2 y 3 iteraciones sin filtro, con 2 y 3 iteraciones y filtro de mediana, y 3 iteraciones y filtro gaussiano.

Figura 6.16.Imágenes reconstruidas del slice número 30 del fantoma Jaszczak con OSEM utilizando 16 subsets. En la fila superior para 1 iteración (izquierda), 2 iteraciones (centro) y 3 iteraciones (derecha) sin aplicar filtro post reconstrucción. En la fila inferior para 2 iteraciones y filtro de mediana (izquierda), 2 iteraciones y filtro gaussiano (centro) y 3 iteraciones y filtro de mediana (derecha). Todos los slices se encuentran normalizados a su valor máximo.

224

En la imagen se observa cómo se incrementa el ruido y aumenta la resolución con las iteraciones. Con 1 iteración se tiene un nivel aceptable de ruido pero no se ha alcanzado la máxima resolución. El filtro de mediana como post procesamiento obtiene buenos resultados en ruido y resolución, mientras que el filtro gaussiano presenta una leve pérdida de la resolución espacial. El inconveniente de la utilización de un filtro de mediana en imágenes médicas es su alinealidad y su consecuente diferencia en las cuentas totales en la imagen. Sin embargo, esta diferencia no suele ser significativa y en los resultados obtenidos en este capítulo dicha diferencia se encuentra en el 2% promedio. Teniendo en cuenta esta cifra despreciable en las cuentas y el buen resultado como filtro de post procesamiento para eliminar ruido preservando la resolución, se utilizará para la reconstrucción 3 iteraciones y filtro de mediana.

6.4.2. Análisis de Calidad de Imagen y Resolución Espacial Para el análisis de calidad de imagen y resolución se utilizaron las reconstrucciones de las simulaciones con el fantoma NEMA de calidad de imagen, y se les realizó el procesamiento para dicho ensayo como establece la norma [145]. En el mismo se obtienen los valores de recuperación de contraste, tanto para las esferas calientes como para las frías. Para obtener dichos valores se utilizan ROIs del diámetro de cada esfera y se obtiene su valor medio en el slice que pasa por su centro. Para obtener el valor de fondo se utilizan 12 ROIs del mismo diámetro que la esfera bajo análisis ubicadas en el fondo del fantoma y ubicadas como mínimo a 15 mm del borde del mismo y de cada una de las esferas. Las mismas ROIs se utilizan también en los dos slices ubicados por debajo y por arriba del central. Es decir, que en total se tienen en cuenta 60 ROIs por esfera para la obtención del valor medio del fondo. En la Figura 6.17 se visualiza el slice central de una imagen reconstruida y las ROIs utilizadas en su análisis. Las ROIs de fondo se muestran con todos los diámetros utilizados para procesar las respectivas esferas.

225

Figura 6.17. ROIs utilizadas en el análisis de las imágenes reconstruidas para el fantoma de calidad de imagen NEMA. Las ROIs de fondo se muestran con los distintos diámetros utilizados.

Para las cuatro esferas calientes se obtiene la recuperación de contraste mediante la siguiente ecuación: (6.48)

donde QH,j es la recuperación de contraste para la esfera caliente j, CH,j son las cuentas promedio en la ROI de la esfera caliente j, CB,j la concentración de actividad de fondo promedio de las 60 ROIs de fondo con el mismo diámetro que la esfera j y es la relación entre la concentración de actividad de las esferas calientes y el fondo. Este último parámetro es 4 en unas simulaciones y 8 en otra. La recuperación de contraste para las esferas frías se obtiene con: (6.49)

donde QC,j es la recuperación de contraste para la esfera fría j, CC,j es la concentración de actividad en la ROI de la esfera fría j y CB,j es la misma concentración de actividad de fondo utilizada en las esferas calientes.

226

Otro parámetro que se obtiene para estimar la calidad de imagen es el desvío estándar de las 60 ROIs de fondo, calculado mediante: (6.50)

siendo

las cuentas promedio de la ROI k del diámetro de la esfera j,

las

cuentas promedio en todas las ROIs y K la cantidad de ROIs (60 en total). Este parámetro indica el ruido presente en la imagen. Por último, se obtiene el porcentaje de cuentas residuales en el sector del inserto que emula tejido de pulmón por cada slice. Para ello se obtiene el cociente entre la cantidad de cuentas promedio en el slice i de una ROI de 30 mm centrada en el inserto (

y las cuentas promedio de las 12 ROIs de fondo correspondientes a

dicho slice (

: (6.51)

Se obtuvieron los coeficientes de recuperación de contraste y el porcentaje de cuentas residuales en el inserto de baja densidad para todos los sinogramas analizados en este trabajo. Esto implica la reconstrucción 3D de los michelogramas de baja, alta y máxima resolución mencionados anteriormente, y la reconstrucción 2D de los sinogramas obtenidos luego de los algoritmos de rebinning SSRB y MSRB. En todos los casos, se lo aplicó a los sinogramas sin degradación espacial (0 mm), con una degradación espacial de 5 mm FWHM y de 9 mm FWHM. En la Tabla 6-1 se puede observar un resumen con todos los valores obtenidos. El valor de se obtuvo solo para el slice central. Adicionalmente, se obtuvieron los valores de desvío estándar en las 60 ROIs de fondo para cada uno de los diámetros procesados. En la Tabla 6-2 se encuentran los valores obtenidos para las simulaciones procesadas con resolución espacial de 5 mm FWHM. Esta métrica sirve para estimar el nivel de ruido de las imágenes. Los resultados obtenidos muestran el impacto en la resolución de la imagen del tamaño de sinograma utilizado. Se observa que los valores de recuperación de contraste de los sinogramas de baja resolución son de sólo la mitad de los de alta. Sin embargo no hay diferencia considerable entre el de alta resolución y el de máxima. Vale destacar que en este caso ya tiene impacto la discretización realizada 227

sobre los detectores en el procesamiento de las simulaciones, que fue seleccionada sobre la base de la máxima resolución espacial esperada. Por esta misma razón, es pequeña la diferencia de resolución entre los sinogramas degradados espacialmente

0 mm

en 5 mm FWHM y el no degradado.

Sinograma 3D (96x124x537) Sinograma 3D (192x248x537) Sinograma 3D (384x496x537) Sinograma 2D SSRB (96x124x41) Sinograma 2D SSRB (192x248x537) Sinograma 2D MSRB (192x248x537) Sinograma 3D (96x124x537)

QH,1

QH,2

QH,3

QH,4

QC,5

QC,6

3,4%

9,5%

21,5%

32,1%

31,0%

48,6%

7,45%

7,1%

19,4%

33,0%

45,2%

30,9%

53,0%

5,49%

12,8%

21,2%

31,9%

47,9%

31,6%

57,8%

4,1%

4,6%

8,7%

23,0%

29,4%

32,9%

52,5%

25,1%

9,1%

13,8%

29,7%

38,0%

41,2%

60,9%

21,7%

5,7%

9,6%

16,6%

22,4%

18,3%

30,5%

21,7%

4,9%

9,1%

19,9%

29,6%

33,4%

50,2%

6,8%

9 mm

5 mm

Sinograma 3D 11,2% 19,7% 32,1% 41,4% 33,8% 52,2% 5,4% (192x248x537) Sinograma 3D 12,4% 20,8% 33,1% 44,9% 32,3% 56,3% 4,4% (384x496x537) Sinograma 2D SSRB 6,5% 7,8% 20,5% 28,2% 33,0% 51,9% 25,7% (96x124x41) Sinograma 2D SSRB 9,9% 11,5% 28,3% 41,9% 44,2% 58,9% 20,5% (192x248x537) Sinograma 2D MSRB 5,1% 8,3% 15,2% 20,5 17,1% 28,5% 21,7% (192x248x537) Sinograma 3D 4,4% 9,0% 16,7% 28,6% 28,4% 48,6% 6,7% (96x124x537) Sinograma 3D 6,6% 14,6% 27,4% 41,9% 30,7% 49,3% 5,8% (192x248x537) Sinograma 3D 7,6% 13,8% 29,4% 44,1% 30,2% 50,5% 4,8% (384x496x537) Sinograma 2D SSRB 3,9% 7,5% 19,9% 26,3% 33,9% 48,9% 25,1% (96x124x41) Sinograma 2D SSRB 8,1% 11,5% 25,9% 37,8% 41,9% 56,5% 22,2% (192x248x537) Sinograma 2D MSRB 2,7% 6,3% 13,5% 19,5% 18,5% 26,9% 22,6% (192x248x537) Tabla 6-1. Valores de recuperación de contraste para esferas frías y calientes obtenidos para el fantoma de calidad de imagen NEMA con relación de contraste 8:1. Además se incluye el porcentaje de cuentas residuales en el inserto de baja densidad.

228

Sinograma 3D (96x124x537) Sinograma 3D (192x248x537) Sinograma 3D (384x496x537) Sinograma 2D SSRB (96x124x41) Sinograma 2D SSRB (192x248x537) Sinograma 2D MSRB (192x248x537)

10 mm

13 mm

17 mm

22 mm

28 mm

37 mm

11,3%

10,4%

10,9%

9,3%

8,1%

6,8%

14,2%

12,8%

11,4%

10,2%

8,6%

6,7%

12,8%

11,4%

10,9%

10,5%

9,2%

7,3%

11,782

9,4%

9,4%

8,3%

6,9%

6,4%

13,4%

10,6%

9,2%

8,4%

7,5%

7,0%

10,8%

7,6%

6,8%

5,8%

5,3%

4,4%

Tabla 6-2. Valores de desvío estándar normalizado de las cuentas promedio de cada una de las 60 ROIs para los distintos diámetros procesados.

Las reconstrucciones con rebinning SSRB obtuvieron una recuperación de contraste levemente menor respecto de la 3D para mismos tamaños de reconstrucción. Esto era de esperarse, ya que dicho algoritmo de rebinning tiene un buen comportamiento en el centro del FOV (como en este caso) pero degrada su performance en la periferia del mismo [35], dificultando su utilización en estudios de cuerpo completo. Para el rebinning MSRB la resolución fue considerablemente menor pero obtuvo una mejor performance a nivel de ruido (Tabla 6-2), propiedades características de este algoritmo [167]. En la Figura 6.18 se visualiza el slice central de las imágenes reconstruidas para cada método de reconstrucción utilizando los sinogramas degradados espacialmente en 5 mm FWHM. En ella se puede observar la mayor resolución de las imágenes obtenidas para los sinogramas de mayor tamaño, ya que se distinguen todas las esferas y con mayor intensidad respecto del fondo (mayor recuperación de contraste). Cada slice ha sido normalizado respecto de su valor máximo para su visualización.

229

Figura 6.18. Slice central de las imágenes reconstruidas del fantoma NEMA con relación de actividad 8:1 para OSEM 2D y OSEM 3D con distintos tamaños de sinogramas. En la fila superior, reconstrucción con OSEM 2D luego de aplicar el rebinning SSRB para sinogramas de 96x124 y

230

192x248 bines. En la segunda fila, mismos resultados para rebinning con MSRB. La tercera fila, corresponde a los resultados de reconstrucción 3D con sinogramas 2D de 96x124 y 192x248 bines. La última fila corresponde a la reconstrucción 3D con sinogramas 2D de 384x496.

Con el objeto de completar los análisis de resolución espacial se han reconstruido las imágenes del fantoma Jaszczak para observar las varillas frías de menor diámetro que pueden ser detectadas. En la Figura 6.19 se observa las imágenes reconstruidas con OSEM 3D para los tres tamaños de sinograma utilizados y generados para resolución espacial de 5 mm FWHM. En ella es posible ver que las varillas de 6,4 mm y 7,9 mm no pueden ser identificadas para el sinograma de baja resolución. Para los de alta y máxima resolución se pueden identificar todas las varillas.

Figura 6.19. Slice con ubicado axialmente en z = 95 mm del volumen reconstruido del fantoma Jaszczak con OSEM 3D y los tres tamaños de sinogramas utilizados.

Del análisis realizado se puede concluir que el sinograma de baja resolución no es adecuado para lograr imágenes de calidad. Su menor costo computacional puede hacerlo adecuado en una instancia de previsualización rápida. Con los sinogramas de alta y máxima resolución se obtienen imágenes acordes a la resolución simulada en el sistema, y no hay diferencias considerables entre los resultados obtenidos para ambos tamaños.

6.4.3. Impacto del Tiempo de Adquisición y la Concentración de Actividad Para evaluar la influencia de la cantidad de cuentas adquiridas en un estudio típico, tanto por un mayor tiempo de adquisición como una mayor concentración de actividad utilizada, se emplearon las simulaciones del fantoma de calidad de imagen con relación de actividad 4 a 1. Como se mencionó en la sección 5.4, dicho fantoma

231

se simuló para una concentración de actividad de 1 kBq/cc y tiempos de adquisición de 12 minutos (estándar) y de 20 minutos (larga duración), y para una concentración de actividad de 2 kBq/cc y 12 minutos de adquisición. Tanto la adquisición de larga duración como la del doble de concentración de actividad tienen aproximadamente el doble de coincidencias adquiridas, aunque la segunda se ve más afectada por los eventos aleatorios. Para las tres simulaciones se reconstruyeron los sinogramas de alta resolución y se obtuvieron los valores de recuperación de contraste y de desviación estándar en las ROIs de fondo. El análisis se hizo para las simulaciones procesadas con una degradación de 5 mm en resolución espacial. Las reconstrucciones se realizaron con rebinning SSRB seguido de OSEM 2D y con OSEM 3D. En la Tabla 6-3 y la Tabla 6-4 se encuentra los valores de recuperación de contraste y de ruido en el fondo uniforme, respectivamente. QH,1

QH,2

QH,3

QH,4

QC,5

QC,6

2 kBq/cc 12 min

1 kBq/cc 20 min

1 kBq/cc 12 min

Sinograma 2D SSRB 8,6% 11,9% 29,3% 38,3% 48,8% 55,5% 20,6% (192x248x537) Sinograma 3D 7,8% 16,4% 32,6% 35,9% 38,9% 55,0% 4,7% (192x248x537) Sinograma 2D SSRB 6,7% 18,2% 28,7% 42,7% 46,9% 52,3% 20,7% (192x248x537) Sinograma 3D 9,7% 26,4% 38,3% 41,8% 44,1% 54,8% 4,6% (192x248x537) Sinograma 2D SSRB 18,5% 26,3% 38,9% 38,4% 53,3% 46,4% 22,6% (192x248x537) Sinograma 3D 17,4% 27,6% 43,2% 38,1% 40,2% 39,1% 4,2% (192x248x537) Tabla 6-3. Valores de recuperación de contraste obtenidos para los tres ensayos simulados con el fantoma NEMA de calidad de imagen con relación de actividad 4 a 1 y sinogramas de alta resolución.

De los resultados se observa que la utilización de una adquisición de 20 minutos genera una pequeña mejora en los valores de recuperación de contraste y el ruido en las regiones uniformes se reduce en una pequeña proporción. Esto último se puede observar en las imágenes reconstruidas que se presentan en la Figura 6.20, donde se comparan las imágenes para 1 kBq/cc y tiempos de adquisición de 12 y 20 minutos, y para 2 kBq/cc y 12 minutos de adquisición. En ella se observa que en la imagen de 20 minutos de adquisición se distingue mejor la esfera de 13 mm respecto de las

232

otras dos adquisiciones. Además se verifica el menor ruido de la imagen en la región uniforme. En lo que respecta a la influencia de la concentración de actividad, las imágenes reconstruidas para 2 kBq/cc mostraron un gran incremento en el nivel de ruido como se puede observar en la Tabla 6-4 y la Figura 6.20.

Figura 6.20. Slices centrales reconstruidos para el fantoma NEMA de calidad de imagen con relación de actividad 4 a 1 y sinogramas de alta resolución (cada sinograma 2D de 192x248 bines). Arriba-

233

Izquierda: reconstruida con rebinning SSRB y OSEM 2D para adquisición de 12 minutos. ArribaDerecha: reconstruida con OSEM 3D para adquisición de 12 minutos. Abajo-Izquierda: reconstruida con rebinning SSRB y OSEM 2D para adquisición de 20 minutos. Abajo-Derecha: reconstruida con rebinning SSRB y OSEM 2D para adquisición de 20 minutos.

2 kBq/cc 12 min

20 min

12 min

10 mm 13 mm 17 mm 22 mm 28 mm 37 mm Sinograma 2D SSRB (192x248x537) Sinograma 3D (192x248x537) Sinograma 2D SSRB (192x248x537) Sinograma 3D (192x248x537) Sinograma 2D SSRB (192x248x537) Sinograma 3D (192x248x537)

15,1%

12,0%

10,1%

8,6%

7,4%

5,6%

14,2%

12,8%

11,4%

10,2%

8,6%

6,7%

13,2%

9,8%

8,7%

7,4%

5,9%

4,3%

14,0%

10,4%

9,3%

7,2%

6,0%

4,6%

24,2%

22,6%

22,9%

23,7%

23,9%

24,5%

26,6%

23,3%

23,3%

24,2%

24,4%

25,2%

Tabla 6-4. Valores del desvío estándar en de las 60 ROIs de fondo con distintos diámetros para los tres ensayos simulados con el fantoma NEMA de calidad de imagen con relación de actividad 4 a 1 y sinogramas de alta resolución.

6.5.

Reconstrucción con Zonas Ciegas

Se ha mencionado en el capítulo anterior el problema para posicionar eventos en el borde del detector cuando se utilizan cristales centelladores continuos como en el AR-PET. Esto provoca la necesidad de descartar eventos en el borde del detector según el método de posicionamiento utilizado (ver 5.1.4). El algoritmo de reconstrucción de imagen debe poder manejar esta posibilidad y ser configurable al tamaño de la zona ciega. Para ello en la matriz del sistema se consideran las zonas muertas del detector, haciendo que todas aquellas LORs que incidan sobre esas zonas tengan probabilidad de detección igual a cero (sus coeficientes aij son 0). Esto se puede introducir fácilmente en las ecuaciones (6.30), (6.31) y (6.32) acortando el largo del detector al largo real de datos bien posicionados: (6.52)

donde LDet es el largo físico del detector, LZM es el largo de la zona muerta a cada lado del detector y LDet_ef es el largo eficaz del detector (largo realmente útil).

234

Figura 6.21. Ejemplo de sinograma proyectado a partir de una imagen constante que incluye una zona ciega de 26 mm a cada lado del detector.

La inclusión de las zonas ciegas en la SRM genera que el patrón de zonas ciegas, observado en los sinogramas adquiridos por la geometría hexagonal, se ensanche (ver Figura 6.21). Al haber correspondencia entre el proceso de adquisición con zonas ciegas y el modelo de la matriz, el algoritmo de reconstrucción converge a imágenes adecuadas, a pesar de que los datos están incompletos. Para cuantificar la influencia de las zonas ciegas en la calidad de imagen se utilizaron las simulaciones de cilindro de agua con actividad uniforme y las del fantoma NEMA de calidad de imagen. El análisis se realizó utilizando el algoritmo OSEM 3D con los sinogramas de alta resolución.

6.5.1. Análisis con Fantoma Cilíndrico Uniforme Con las reconstrucciones del fantoma de cilindro uniforme de 20 cm de diámetro y con agua en su interior, se evaluaron la uniformidad y el ruido en las imágenes reconstruidas. Para ello se generaron 10 ROIs de 30 mm de diámetro sobre una circunferencia de 120 mm de diámetro y separadas angularmente en 45º. Adicionalmente se utilizó una ROI en el centro del fantoma. Las mismas pueden observarse en la Figura 6.22. Se analizaron múltiples slices para determinar la uniformidad del cilindro reconstruido a lo largo del eje axial. Para ello se obtuvieron las cuentas promedio de cada ROI individual y luego se calculó el promedio y el desvío estándar del conjunto de ROIs en cada slice.

235

Figura 6.22. ROIs utilizadas para evaluar el ruido en las imágenes reconstruidas para el fantoma cilíndrico con actividad uniforme.

Los resultados para algunos de los slices que cubren el cilindro reconstruido se encuentran en la Tabla 6-5. En la Figura 6.23 se presenta un gráfico de los valores medio de las ROIs por slice, normalizados respecto del valor medio de todas las ROIs en el FOV. En el gráfico se observa que se mantiene el nivel de cuentas a lo largo de los slices que cubren el cilindro. En la Tabla 6-5 se observa un incremento en el ruido de la imagen reconstruida para la simulación con zona muerta de 26 mm. Esto puede deberse a un mayor ruido estadístico, ya que el sinograma con zonas muertas tiene un 75% de las cuentas del sinograma sin zonas ciegas. LZM \ Slice

13

19

25

31

37

43

49

55

61

0mm

5,3%

2,8%

26mm

11,9% 13,1% 9,0% 8,8% 9,3% 9,0% 9,6% 9,2% 8,0%

3,0% 3,0% 2,9% 3,9% 2,7% 3,3% 2,3%

Tabla 6-5. Valores de desvío estándar de las media de cada ROI dentro de distintos slices de las imágenes reconstruidas para la simulación de cilindro uniforme con y sin zona ciega.

236

Figura 6.23. Valor promedio de cuentas en las ROIs de cada slice para sinograma adquirido sin zona ciega y con 26 mm de zona ciega. Las mismas se han normalizado respecto del valor medio de todos los slices.

En la Figura 6.24 se muestran los slices centrales de los volúmenes reconstruidos para el sinograma sin zona muerta y con una zona ciega de 26 mm de largo.

Figura 6.24. Slice central de la imagen reconstruida para sinograma adquirido sin zona ciega y con 26 mm de zona ciega. Las cuentas se normalizaron a su valor máximo para su visualización.

237

6.5.2. Análisis con Fantoma de Calidad de Imagen En el análisis del fantoma de calidad de imagen se utilizó la simulación relación de actividad 8 a 1 y se evaluaron las adquisiciones para zonas ciegas de 13, 26 y 52 mm correspondientes a la pérdida de ¼, ½ y 1 PMT completo en los bordes del detector. Para cuantificar la calidad de las imágenes se obtuvieron los valores de recuperación de contraste y de desvío estándar en el fondo. Los mismos se encuentran en la Tabla 6-6 y la Tabla 6-7, respectivamente. En la Figura 6.25 se presentan los slices centrales para cada una de las imágenes reconstruidas con OSEM 3D y sinogramas de alta resolución. De los resultados obtenidos, se desprende que hay una pequeña baja en la resolución espacial, ya que el valor de recuperación de contraste se reduce para las esferas más pequeñas (lo que se verifica en la visualización de la Figura 6.25). Al igual que en el cilindro uniforme, el ruido se incrementa considerablemente a medida que disminuye la superficie del detector. LZM

QH,1

QH,2

QH,3

QH,4

QC,5

QC,6

0mm

11,2%

19,7%

32,1%

41,4%

33,8%

52,2%

5,4%

13 mm

5,9%

14,3%

28,1%

39,9%

35,9%

57,4%

6,3%

26 mm

4,3%

13,9%

27,1%

39,5%

38,0%

62,0%

7,0%

52 mm

6,2%

17,7%

32,2%

40,5%

39,9%

60,3%

9,8%

Tabla 6-6. Valores de recuperación de contraste obtenidos para los tres ensayos simulados con el fantoma NEMA de calidad de imagen con relación de actividad 8 a 1 y distintos tamaños de zonas ciegas en el detector (determinados por LZM).

LZM\DROI

10 mm

13 mm

17 mm

22 mm

28 mm

37 mm

0mm

14,2%

12,8%

11,4%

10,2%

8,6%

6,7%

13 mm

16,6%

13,4%

11,1%

9,1%

7,8%

6,7%

26 mm

14,6%

12,1%

12,2%

10,1%

8,8%

8,0%

52 mm

22,1%

18,5%

18,4%

16,0%

14,8%

13,5%

Tabla 6-7. Valores del desvío estándar en de las 60 ROIs de fondo con distintos diámetros para las imágenes reconstruidas del fantoma NEMA con relación de actividad 8 a 1 y distintos tamaños de zonas ciegas en el detector (determinados por LZM).

238

Figura 6.25. Imágenes reconstruidas del fantoma NEMA de calidad de imagen con relación de actividad 8 a 1 para sinogramas generados sin zonas ciega y con zonas ciegas de 13 mm, 26 mm y 52 mm de largo a cada lado de los detectores.

6.6.

Reconstrucción de Datos de Medición

Como ya se ha mencionado previamente, el prototipo del AR-PET se encuentra construido con sólo dos de sus seis detectores. No obstante, cuenta con un movimiento rotatorio que permite adquirir las proyecciones en todos los ángulos necesarios para generar los sinogramas y sus respectivas imágenes reconstruidas. Con el hardware disponible se realizó un ensayo tomográfico simple para validar la electrónica de procesamiento de eventos en coincidencia y evaluar el algoritmo de reconstrucción con datos reales. Como primer paso se realizó una validación del prototipo del AR-PET, en particular del sistema de detección de coincidencias. Con el sistema validado, se obtuvo la primera tomografía adquirida con este scanner. La misma constó en la

239

reconstrucción de una fuente puntual de 22Na ubicada en el campo de visión.

6.6.1. Validación del Sistema Para validar el sistema de adquisición se realizó una medición de una fuente puntual de

22

Na ubicada en el centro del FOV. Los dos cabezales montados sobre el gantry

se mantuvieron estáticos. De la adquisición se obtuvieron como valores a contrastar la tasa de eventos simples, la tasa de coincidencias y la relación entre ellas. La adquisición se contrastó con una simulación Monte Carlo realizada con GATE teniendo en cuenta la configuración de la medición. Se utilizó el modelo del scanner descripto en el Capítulo 5, pero dejando solo dos detectores enfrentados (el Nº 1 y Nº 4 del sistema de coordenadas de la Figura 6.2). Las tasas obtenidas fueron corregidas por el tiempo muerto de la electrónica existente en este prototipo, que no estará en el equipo final. En el prototipo los datos se descargan por USB de alta velocidad, pero se pierde un 2,5% de las tramas y, por otro lado, 1 de cada 17 eventos se pierden en la electrónica del cabezal. Esto hace que la tasa en cada detector deba ser multiplicada por 1,025 y 17/16, siendo el factor de corrección final 1,09. La cantidad de coincidencias depende en forma independiente de las dos tasas de eventos simples, por lo que debe ser corregida en 1,092. Medición

Medición Corregida por

Cruda

Tiempo Muerto

3360 cps

3100 cps

3376 cps

3380 cps

3080 cps

3354 cps

1025 cps

808 cps

958 cps

15,2 %

13,1%

14,2%

GATE Tasa de Eventos Simples Cabezal 1 Tasa de Eventos Simples Cabezal 2 Tasa de Coincidencias Relación Coincidencias / Simples

Tabla 6-8. Comparación de ensayo de coincidencia entre simulación Monte Carlo (GATE) y medición con prototipo de AR-PET.

Los resultados de simulación son equivalentes a los de medición, mostrando que el sistema de adquisición del prototipo funciona adecuadamente y que el modelo del AR-PET simulado en GATE es adecuado para simular el equipo real.

240

6.6.2. Tomografía con una Fuente Puntual de 22Na Con los dos cabezales en rotación, se realizó la medición de una fuente de

22

Na

ubicada en la parte inferior del FOV. En la adquisición se registró un ángulo de rotación estimado para cada coincidencia adquirida. Utilizando dicho ángulo de rotación se rotó cada LOR adquirida y se generaron los sinogramas de alta resolución, tanto 2D (utilizando rebinning SSRB) como sinograma 3D. El slice Nº3 de los 82 para ambos volúmenes reconstruidos se muestra en la Figura 6.26.

Figura 6.26. Slices centrales de las imágenes reconstruidas con datos reales de medición de una fuente de 22Na. Izquierda: reconstrucción 2D utilizando SSRB. Derecha: reconstrucción OSEM 3D.

La fuente puntual reconstruida con SSRB y OSEM 2D tuvo un tamaño de 11,7x9,4x10,8 mm3 FWHM mientras que con OSEM 3D el tamaño fue de 6,2x8,4x10,8 mm3 FWHM.

6.7.

Conclusiones

En este capítulo se ha presentado el algoritmo de reconstrucción a utilizar en el ARPET. El mismo modela la geometría hexagonal del scanner y el ángulo sólido de detección en las distintas regiones del FOV. El modelo propuesto mostró ser efectivo para reconstrucciones que cubren todo el campo de visión, donde los efectos de la variación de la sensibilidad de las LORs que componen los sinogramas se hacen notables y, como consecuencia, la utilización de una geometría cilíndrica (como en el Capítulo 4) hace que el algoritmo no converja a una solución. El algoritmo utilizado se evaluó con sinogramas de distinto tamaño, obtenidos a

241

partir de la resolución esperada en los detectores y electrónica de procesamiento utilizada, para evaluar su impacto en la resolución espacial de las imágenes. Con los sinogramas de baja resolución (96x124 bins cada sinograma 2D) se obtuvieron imágenes de baja calidad, haciéndolos solo convenientes para previsualización de imágenes de forma rápida, por su menor costo computacional. Los sinogramas de alta resolución (192x248) mostraron tener un tamaño adecuado para ser utilizados en el AR-PET, ya que se logra una calidad de imagen similar a los de máxima resolución (384x492) a un costo computacional menor. Se incorporaron al algoritmo de reconstrucción los factores de corrección por atenuación, dispersión y eventos aleatorios, los que se aplican previamente a iniciar el proceso iterativo. El algoritmo completo se evaluó, tanto para reconstrucción OSEM 2D con rebinning como para OSEM 3D, con los fantomas de calidad de imagen con relación de actividad 8 a 1 y 4 a 1. Los valores de recuperación de contraste y desvío estándar en el fondo de los fantomas fueron adecuados para un tomógrafo con las características del AR-PET [157]. No hubo grandes diferencias entre la reconstrucción OSEM 2D (utilizando rebinning SSRB) y OSEM 3D, ya que el factor de mayor influencia fue la resolución de los sinogramas. Esto era de esperarse, ya que el algoritmo de rebinning SSRB muestra un buen comportamiento en el centro del FOV (como en el fantoma de calidad de imagen) pero en un estudio de cuerpo completo es conveniente la utilización de algoritmos 3D. Adicionalmente, se analizó la influencia en la calidad de imagen del tiempo de adquisición y la concentración de actividad utilizando el fantoma de calidad de imagen. Se observó un incremento considerable del ruido cuando se utilizó una concentración de actividad mayor, a pesar de tener mayor cantidad de cuentas adquiridas. Esto se debió a una cantidad excesiva de eventos aleatorios. Esta comparación permitió confirmar la selección adecuada de una concentración de actividad de 1 kBq/cc basada en la simulación del ensayo de tasa de conteo de la norma NEMA del Capítulo 5. Por otro lado, el incremento del tiempo de adquisición con la concentración de actividad adecuada (1 kBq/cc) generó imágenes con una leve mejora en los parámetros de calidad de imagen gracias al menor ruido estadístico.

242

Se incorporaron al modelo de reconstrucción las zonas muertas del detector, donde el posicionamiento de los eventos detectados no es adecuado. El modelo mostró ser efectivo, ya que se mantuvo la uniformidad de las imágenes en los fantomas cilíndricos y NEMA. Sin embargo, se observó un incremento del ruido en las imágenes cuando el tamaño de la zona ciega aumenta. Esto se debe a que las adquisiciones tienen menos eventos por la disminución de la sensibilidad y, por lo tanto, mayor ruido estadístico. Estos resultados ratifican la necesidad de utilizar métodos de posicionamiento no lineales para reducir en lo posible las zonas muertas del detector. Por último, se realizó la primera tomografía con datos reales utilizando un prototipo del AR-PET que consta de dos cabezales montados en un gantry con rotación. Previamente se validó el sistema de detección de coincidencias, contrastando un ensayo con una fuente puntual de

22

Na con una simulación Monte Carlo. Las tasas

obtenidas en cada caso fueron equivalentes, validando el modelo del AR-PET realizado con GATE. Luego se utilizó el algoritmo OSEM 3D para reconstruir el sinograma adquirido, obteniendo una imagen adecuada. Para ello, se empleó el modelo cilíndrico de adquisición ya que la rotación de los dos cabezales genera una geometría equivalente.

243

244

Capítulo 7

Tomografía de Emisión en Ensayo de Contenedores de Residuos Radiactivos En los capítulos anteriores se han descripto y desarrollado algoritmos de reconstrucción de imágenes para tomografías por emisión de positrones. Estas mismas técnicas pueden utilizarse en otras aplicaciones tomográficas por emisión gamma, como es el caso de la tomografía de tambores de residuos radiactivos, de utilidad para poder caracterizar y realizar un seguimiento de los mismos mediante un ensayo no destructivo. En la ejecución de esta tesis se ha elegido esta aplicación para evaluar y probar los algoritmos de reconstrucción tomográfica desarrollados, ya que se cuenta con un menor volumen de datos y una arquitectura de medición que permite armar rápidamente un prototipo. Este desarrollo se enmarca en la necesidad de la Comisión Nacional de Energía Atómica de desarrollar un Gamma Scanner Tomográfico, al que se ha denominado AR-TGS. El trabajo realizado en esta tesis ha permitido evaluar y optimizar un nuevo sistema de imágenes propuesto para este tipo de aplicación. A su vez se ha diseñado un proyector para el algoritmo iterativo que, en virtud de un buen modelado del sistema de adquisición, ha logrado una mejora en la resolución espacial y en la calidad de las imágenes.

245

7.1.

Gestión de Residuos Radiactivos

El objetivo de la gestión de residuos radiactivos es proteger a la población y al medioambiente de sus efectos nocivos. Para esto se los debe aislar o disminuir su concentración hasta que sus niveles de actividad sean suficientemente bajos para su liberación al medio ambiente. Gran parte de estos residuos necesitan ser almacenados por largos períodos. En Argentina, la ley 25.018 ―Régimen de Gestión de Residuos Radiactivos‖ [168] define como residuo radiactivo a todo material radiactivo, combinado o no con material no radiactivo, que haya sido utilizado en procesos productivos o aplicaciones, para los cuales no se prevean usos inmediatos posteriores en la misma instalación, y que, por sus características radiológicas no puedan ser dispersados en el ambiente de acuerdo con los límites establecidos por la Autoridad Regulatoria Nuclear (ARN). Los residuos radiactivos se producen en todas las etapas del ciclo del combustible nuclear, incluyendo la minería, la fabricación de combustibles, la operación de reactores y la gestión de combustibles gastados. A su vez, existen otras actividades que generan residuos radiactivos, como la investigación, la producción de radioisótopos e incluso algunas industrias no nucleares.

7.1.1. Clasificación Los residuos radiactivos se clasifican a grandes rasgos en residuos de baja, media o alta actividad [169]. Estos últimos se diferencian de las dos categorías anteriores por generar grandes cantidades de calor debido a la radiación y, por lo tanto, necesitan sistemas de refrigeración durante su almacenamiento. Los residuos de baja actividad no suelen necesitar blindaje para su manipulación, mientras que los de media si lo requieren y suelen contar con cantidades importantes de radionucleídos de largo periodo de semidesintegración. La Organización Internacional de Energía Atómica (OIEA) ha propuesto una nueva clasificación basada en consideraciones de seguridad a largo plazo [170]. Su objetivo es asistir en el desarrollo e implementación de estrategias de gestión de residuos apropiadas y facilitar el intercambio de información sobre los mismos. La 246

misma define las siguientes categorías: Residuos exentos (EW): aquellos que cumplen los criterios para liberación, exención

o

exclusión del

control

regulatorio

con

propósitos

de

radioprotección. Residuos de muy corta vida (VSLW): deben ser almacenados para su decaimiento durante un período limitado de pocos años. Luego pueden ser liberados para disposición no controlada, bajo autorización de la autoridad regulatoria. En esta categoría se destacan aquellos residuos que incluyen radioisótopos de período de semidesintegración corto frecuentemente utilizados para investigación o propósitos médicos. Residuos de muy bajo nivel (VLLW): no cumplen con el criterio de exención pero se pueden disponer en instalaciones superficiales como rellenos sanitarios, con limitado control regulatorio. Residuos típicos en esta clase incluyen suelos y desechos con muy baja concentración de actividad. Residuos de bajo nivel (LLW): contienen materiales radiactivos sobre los niveles de liberación pero con cantidades limitadas de radiactividad de largo periodo. Requieren aislamiento y contención por períodos de cientos de años. Se pueden disponer en instalaciones superficiales. Cubren un amplio rango de materiales que incluyen radioisótopos de corta vida pero altos niveles de actividad y contenido de radioisótopos de largo periodo en niveles de actividad muy bajos. Son generados en hospitales, industrias y en el ciclo de combustible. Para reducir su volumen se los compacta. Residuos de nivel intermedio (ILW): aquellos que debido a su contenido, particularmente

radioisótopos

de

largo

periodo,

tienen

grandes

requerimientos de contención y aislamiento. No son aptos para su disposición en repositorios superficiales. Por lo contrario, se debe realizar a profundidades de decenas de metros. Requieren blindajes para su manipulación. Suelen ser resinas, fangos y materiales contaminados en reactores. A los líquidos y los sólidos de pequeños volúmenes se les aplica un proceso de cementado para su inmovilización. Residuos de alto nivel (HLW): son originados en el quemado

247

del

combustible de uranio en un reactor nuclear. Incluyen los productos de fisión y los elementos transuránicos generados en el núcleo del reactor. Son altamente radiactivos y generan grandes cantidades de calor, por lo que necesitan enfriamiento y blindaje. En una gestión de largo plazo, se recomienda su disposición en formaciones geológicas profundas (cientos de metros) y estables.

7.1.2. Tratamiento de los Residuos Radiactivos Los residuos radiactivos son tratados y acondicionados para poder lograr una adecuada

administración

de

los

mismos,

lo

que

involucra

transporte,

almacenamiento y disposición final [171][172]. Para esto se busca minimizar su volumen, reducir los riesgos potenciales de los mismos a través de un proceso de solidificación y brindarles una contención adecuada para su transporte y disposición. El procedimiento realizado para lograr estos objetivos depende del tipo de residuo y de su nivel de radiactividad. Los más utilizados son incineración, compactado, cementado y vitrificación. Los dos primeros se utilizan para reducir el volumen de los residuos, aunque sin bajar sus niveles de actividad, mientras que el cementado y la vitrificación se utilizan para convertir al residuo en un sólido estable, insoluble y que evite que alcance al medio ambiente. A continuación se brinda más detalle de cada uno de estos procesos: Incineración: se utiliza para el tratamiento de residuos de bajo nivel provenientes de centrales nucleares, reactores de investigación y de aplicaciones de medicina nuclear. Como resultado de este proceso, se obtiene una ceniza con el material radiactivo, logrando una reducción del volumen del residuo de hasta 100 veces. Para su disposición, la misma puede necesitar ser solidificada con alguno de los métodos mencionados. Los gases producidos por la incineración son filtrados y tratados antes de ser liberados a la atmósfera. Compactado: es una tecnología confiable para reducción de volúmenes, utilizada principalmente para procesar residuos sintéticos, sólidos y de bajo nivel. Se utiliza una prensa neumática para comprimir el residuo en un contenedor adecuado, habitualmente barriles de 200 l. La reducción del 248

volumen es de entre 3 y 10 veces según los materiales del mismo.

Figura 7.1. Proceso de compactado.

Cementado: se utiliza una mezcla de cemento especial con el objetivo de inmovilizar el material radiactivo que se encuentra en sólidos y en varias formas de lodos u otros materiales activados. Con este fin el residuo se coloca en un contenedor, donde se lo mezcla y homogeneíza con la mezcla de cemento, para finalmente dejarlo fraguar en barriles de 208 l. Como resultado se obtiene un bloque monolítico de concreto con residuos, listo para su almacenamiento y disposición. Vitrificación: es utilizada para la inmovilización de residuos de alto nivel, ya que permite generar un residuo sólido e insoluble que permanezca estable durante miles de años. En este proceso, se mezcla en un contenedor de acero el residuo con vidrio borosilicatado fundido, que luego se deja enfriar hasta obtener una matriz sólida. Finalmente se cierra y suelda la tapa del contenedor, quedando el residuo listo para su almacenamiento y disposición.

7.1.3. Caracterización de los Residuos Radiactivos La caracterización de residuos radiactivos es el proceso por el cual se busca identificar la presencia de distintos radionucleidos y cuantificar sus cantidades en las diferentes etapas de la gestión de residuos radiactivos. En este proceso la información referida a las características radiológicas de los residuos es trascendental. Sin embargo, también son importantes las características químicas, 249

físicas y mecánicas del residuo, como la información referida a los distintos procesos por los cual ha pasado el mismo. La caracterización radiológica se puede hacer con una variedad de técnicas, dependiendo de la forma del residuo, los radionucleidos que contiene y sus niveles de actividad. Para la identificación de radioisótopos emisores gamma, la técnica más utilizada es la de espectrometría gamma [54], la cual, con una apropiada calibración, también permite realizar una cuantificación de los radionucleidos presentes. Existen otras técnicas para otros radioisótopos, como por ejemplo espectrometría alfa y centelleo líquido. Todas estas técnicas se encuadran dentro de las denominadas ensayos no destructivos (NDA: non-destructive assays) y son las preferidas para caracterizar los residuos acondicionados, ya que no se necesita abrir el contenedor para obtener muestras. La espectrometría gamma de alta resolución permite identificar, dentro de un espectro complejo, los distintos radionucleidos que se encuentran en el material bajo estudio, como a su vez la cantidad de actividad o masa de cada uno de ellos. Esta técnica es utilizada en el Segmented Gamma Scanner (SGS) [173] para ensayar de manera precisa los tambores con residuos radiactivos.

Figura 7.2. Segmented Gamma Scanner de Canberra. Se observa el detector de HPGe con un movimiento vertical y la plataforma rotatoria bajo el tambor de residuos radiactivos [174].

El SGS utiliza un detector de germanio hiperpuro (HPGe) centrado frente a una

250

plataforma rotatoria donde se encuentra el tambor bajo ensayo. El detector consta de un movimiento vertical que permite ensayar el tambor en una serie de rodajas llamadas segmentos. Por cada segmento ensayado se obtiene un espectro de energías de alta resolución que permite identificar los radionucleidos presentes. El detector de germanio cuenta con un colimador configurable para evitar su saturación para altos niveles de actividad. La medición se realiza con el tambor de residuos rotando para homogeneizarla y obtener un espectro independiente de la posición angular del tambor. Esta técnica da por supuesto que el contenido del tambor de residuos radioactivos es homogéneo, es decir, uniformemente distribuido. En caso de no estarlo, el contenido del mismo resultará en un promedio de las distintas vistas. En la Figura 7.2 se observa un modelo comercial de SGS. Para el ensayo de tambores donde la distribución del residuo no es homogénea se puede utilizar otra herramienta denominada Gamma Scanner Tomográfico (TGS: Tomographic Gamma Scanner), que es una extensión del SGS, en el que se obtiene una imagen de la distribución del radioisótopo dentro de cada segmento.

7.2.

Gamma Scanner Tomográfico

El TGS es un instrumento que no solo permite identificar los distintos radionucleidos presentes, sino que también su distribución espacial [175][176]. Los ensayos con TGS permiten detectar la falta de homogeneidad de un tambor de residuos radioactivos, o identificar la presencia de fuentes puntuales o herramientas contaminadas que hayan sido introducidas en el mismo. Como se ha desarrollado en los capítulos introductorios, la generación de una imagen tomográfica necesita obtener proyecciones de distintos ángulos, a lo largo de todo el cuerpo bajo ensayo. En el SGS se cuenta con un muestreo angular, pero la proyección se realiza en única posición transversal. Para realizar ensayos tomográficos, se debe agregar al SGS un movimiento de traslación al detector para poder obtener las proyecciones completas con múltiples muestras transversales para cada ángulo [177].

251

Figura 7.3. Gamma Scanner Tomográfica WM2900 de Canberra.

En resumen, un TGS cuenta con dos movimientos durante cada ensayo: uno de rotación, sobre el tambor, y otro de traslación sobre el detector. Para cada combinación (ángulo, distancia transversal) se obtiene un espectro de energías de alta resolución. Luego, se selecciona un radioisótopo mediante una ventana de energía, y se genera un sinograma con las proyecciones de la distribución espacial del mismo. Por último, con un algoritmo de reconstrucción de imagen se realiza la reconstrucción de dicho sinograma que generará una imagen con la distribución espacial del radionucleido elegido [178][179]. La imagen resultante deberá estar cuantificada con los niveles de actividad reales en cada píxel de la imagen [180]. Sin embargo, los ensayos tomográficos cuentan con la desventaja de necesitar mayor tiempo de medición por cada tambor, ya que se debe realizar una medición por cada posición transversal para cada segmento, a diferencia del SGS en el que se realizaba una única medición por segmento. Esto, agregado a la baja sensibilidad de los detectores de germanio, hace que los ensayos TGS sean lentos y poco prácticos [177][181]. Como parte del desarrollo de esta tesis se presenta el AR-TGS, un Gamma Scanner Tomográfico que presenta un concepto diferente a las arquitecturas de TGS habituales. El mismo propone la utilización de múltiples detectores de NaI(Tl), los cuales son más económicos y cuentan con mayor sensibilidad que los de germanio,

252

para poder disminuir los tiempos de medición por tambor y bajar el costo del equipo. Como contrapartida, se pierde resolución de energía y en consecuencia se hace difícil la identificación de radionucleidos con energías próximas.

7.3.

AR-TGS

El Gamma Scanner Tomográfico es un desarrollo del Grupo de Instrumentación y Control de la Comisión Nacional de Energía Atómica que busca aumentar la sensibilidad respecto de un equipo TGS tradicional mediante la utilización de múltiples detectores. Para ello se propone un sistema híbrido con dos tipos de detectores: un detector de HPGe para espectrometría de alta resolución, que tiene las mismas funcionalidades que un sistema SGS; y un cabezal con seis detectores de NaI(Tl), cada uno de ellos con su correspondiente colimador, que realizarán el ensayo tomográfico. Estos múltiples detectores son colocados a lo largo del eje transversal. Se propone utilizar detectores de NaI(Tl) por su bajo costo y por no necesitar un método de refrigeración como el HPGe. De esta forma, se utiliza el detector de alta resolución en energía para verificar que la ventana de energía utilizada correspondiente al radioisótopo del cual se generará una imagen con su distribución espacial, no está contaminada con eventos de otro radionucleido presente en el tambor de residuos. Una vez confirmada esta condición, se procede a hacer la tomografía con el cabezal detector de baja resolución energética pero alta sensibilidad en un tiempo notablemente menor que si se realizara con único detector de HPGe. En este trabajo de tesis se formula una propuesta del sistema de adquisición tomográfico para generar imágenes adecuadas y se presenta un algoritmo de reconstrucción tomográfica para dicho sistema. El sistema de adquisición tomográfico cuenta con 6 detectores cilíndricos de 2‖x2‖ de NaI(Tl) ubicados a lo largo del eje transaxial. Cada uno de ellos está blindado con un cilindro de plomo de 100 mm de largo, de 2‖ de diámetro interior y 100 mm de diámetro exterior. En el frente del detector se encuentra el colimador de plomo, que es un cilindro de 100 mm de largo y 100 mm de diámetro, con un agujero de 20 mm de diámetro. La selección de este colimador se realizó sobre la base de resultados obtenidos con simulaciones Monte Carlo, que se describirán en la próxima sección.

253

La presencia de un colimador genera zonas muertas de detección en los espacios ocupados por el blindaje, en este caso plomo. Como consecuencia, no se obtiene un muestreo completo del FOV, lo que puede provocar artefactos y errores en las imágenes generadas. En el AR-TGS esto se resuelve mediante el movimiento continuo del bloque detector. El mismo tiene una longitud total del ancho de un colimador para poder barrer todos los puntos intermedios entre centros del colimador. En la Figura 7.4 se observa un esquema del sistema de adquisición descripto. El FOV es un cilindro de 300 mm de radio y 800 mm de altura, que son las dimensiones de un tambor de residuos de 208 litros. Su altura se divide en 8 o 16 segmentos según el modo de adquisición. La cara frontal del colimador se encuentra a 400 mm del centro del FOV y la del detector a 500 mm.

Figura 7.4. Diagrama del Sistema de Adquisición Tomográfico del AR-TGS y su sistema de coordenadas. A la izquierda se observa un corte en el plano XY, con el cabezal de detectores en su posición inicial y su movimiento señalado. A la derecha, un corte del plano XZ del FOV, donde se observan los segmentos en que se divide el mismo.

En lo que respecta a la instrumentación electrónica, se utiliza la misma empleada en el AR-PET para cada fototubo gracias a la modularidad de la misma. La resolución en energía medida para cada detector es de 8% FWHM.

254

7.3.1. Diseño de Colimador Cada detector cuenta con un colimador para acotar el ángulo de incidencia de la radiación, de manera de poder obtener una muestra transversal de una región particular del FOV. En el caso de un colimador ideal se obtiene una línea de respuesta (LOR) que atraviesa el FOV perpendicular al detector. Sin embargo, para lograr un colimador cercano al ideal se necesita un agujero muy pequeño respecto de su largo y esto resulta en una sensibilidad de detección muy baja. Por esta razón, en TGS se prefieren colimadores de agujeros mayores, de gran sensibilidad, a costo de tener una baja resolución espacial. En este trabajo se proponen tres esquemas de colimadores para ser utilizados en el AR-TGS y se realiza un análisis de la performance de cada uno de ellos, para finalmente seleccionar el más adecuado. El colimador será utilizado sobre un cristal de NaI(Tl) de 2 pulgadas de diámetro. Los colimadores propuestos son cilindros de plomo de 100 mm de diámetro y 100 mm de largo. El diámetro fue seleccionado de manera de poder blindar la radiación de mayor energía y a su vez cubrir todo el diámetro del FOV utilizando 6 bloques detectores. Cada uno de los colimadores se diferencia en la cantidad de agujeros y el diámetro de ellos. La resolución espacial de un colimador con largo constante varía linealmente con el diámetro del agujero del colimador, ya que a una distancia d a la cara del detector se tiene un ancho del campo de visión (Ad) según la siguiente ecuación: (7.1) siendo Dc y Lc el diámetro y el largo del colimador respectivamente, y d la distancia al centro geométrico del mismo (Figura 7.5).

255

Figura 7.5. Apertura de la visión del colimador según el largo del mismo y su agujero.

La sensibilidad del colimador varía con la cuarta potencia del diámetro del agujero. Esto se puede demostrar partiendo de que cada punto de la superficie descubierta del detector visualiza un ángulo sólido, que a una distancia d es un cono cuyo volumen queda definido por la ecuación (7.2). (7.2) La suma de todos los conos vistos por cada punto de detección determina la sensibilidad total del colimador. Al ser la distancia d y el largo del colimador Lc constantes para este sistema, la sensibilidad resulta del producto de la superficie del detector por el volumen del cono para cada punto del detector definido en (7.2). La misma queda definida por la siguiente ecuación: (7.3) Con estas consideraciones respecto de la resolución y sensibilidad del colimador y teniendo en cuenta que se utilizará un detector de 2 pulgadas de diámetros, se realiza el análisis de 3 configuraciones posibles: 

Colimador de Múltiples Agujeros. Alta resolución y baja sensibilidad. Cuenta con 43 agujeros de 4 mm de diámetro, equidistantes entre sí con una separación de 8 mm entre sus centros y circunscriptos al círculo que forma la

256

superficie del detector. 

Colimador de Cuatro Agujeros. Resolución y sensibilidad intermedias. Tiene 4 agujeros de 10 mm de diámetro que forman un rombo con diagonales de 20 mm.



Colimador de un Único Agujero. Baja resolución y alta sensibilidad. Dispone de un agujero central de 20 mm de diámetro.

En la Tabla 7-1 se muestra una comparación entre la resolución y la sensibilidad teórica de los colimadores propuestos. La resolución se evalúa en el eje central del FOV (d = 500 mm) y en la posición más alejada del FOV (d = 800 mm). Para el caso de múltiples agujeros, la resolución se obtiene con el ancho Ad definido en (7.1) sumado a la máxima separación entre dos agujeros; mientras que para la obtención de la sensibilidad se multiplica la individual de un agujero por la cantidad de agujeros. Colimador

Nº de

Diámetro

Agujeros

de Agujero

Resolución

Sensibilidad

(Ad) d = 500 mm

d = 800 mm

Múltiple Agujeros

43

4 mm

(36 + 48) mm

(60 + 48) mm

K x 1,1.104 mm4

Cuatro Agujeros

4

10 mm

(90 + 20) mm

(150 + 20) mm

K x 4.104 mm4

Único Agujero

1

20 mm

180 mm

300 mm

K x 1,6.105 mm4

Tabla 7-1. Comparación de resolución y sensibilidad de los colimadores propuestos. La resolución espacial se obtiene con el ancho del cono en el eje central y en el punto más alejado del FOV.

La comparación realizada supone un colimador ideal que solo admite la radiación que incide en direcciones libres del material del mismo. En el caso real, la radiación gamma penetra con distintas probabilidades de interactuar con el plomo, ser absorbida totalmente o pasar sin ser frenada. La probabilidad de que un fotón gamma atraviese un material sin ser frenado se puede resumir en el coeficiente de atenuación lineal, que depende de la energía y el número atómico del material. En la Figura 7.6 se muestra el coeficiente de atenuación lineal del plomo para distintos valores de energía de la radiación gamma.

257

Figura 7.6. Variación con la energía del Coeficiente de Atenuación Lineal del Plomo.

Para validar los colimadores con estimaciones que se ajusten mejor a la realidad, se realizaron tres simulaciones Monte Carlo del sistema de adquisición. Este consta de 6 bloques detectores formados por un cristal cilíndrico de NaI de 2 pulgadas de diámetro y espesor, y un colimador sobre su cara posterior. Se simula un fantoma cilíndrico del tamaño de un tambor estándar de residuos radiactivos con 80 cm de alto y 60 cm de diámetro. En su interior se encuentra

60

Co uniformemente

distribuido con una actividad total de 1 m Ci. Se seleccionó

60

Co como

radionucleido por ser el más energético dentro de los residuos radiactivos de media y baja actividad, y por lo tanto, el de mayor penetración en el plomo. Los resultados preliminares mostraron que se introducían muchos eventos que provenían por debajo y por arriba del campo de visión de los colimadores. Esto se resolvió agregando dos planchas de plomo como blindaje, cada una de ellas de 600 mm x 150 mm x 30 mm. En la Figura 7.7 se puede observar el sistema simulado.

258

Figura 7.7. Visualización de la geometría simulada en GATE para análisis de sensibilidad. Izquierda: corte en plano YZ. Derecha: corten en plano XY. Dibujados en gris, se encuentran cada uno de los 6 bloques detectores con sus blindajes y colimadores. En líneas cyan se encuentra delimitada la estructura del fantoma y en rojo el blindaje adicional de plomo.

Las simulaciones se procesaron con MATLAB y para analizar la performance de cada colimador se utilizaron los siguientes parámetros: 

Tasa de Eventos: tasa de eventos detectados por segundos.



Tasa de Singles: tasa de eventos detectados dentro de la ventana de energía, también llamados eventos simples (singles). La ventana de energía se seleccionó para el fotopico más energético de

60

Co centrado en 1,3 MeV.

Los límites de la ventana de energía se fijaron en 1,25 MeV y 1,50 MeV. 

Sensibilidad: tasa de eventos en ventana de energía por µCi totales en el fantoma para una disposición como la propuesta. Es decir, con un fantoma de actividad uniforme, el cabezal de detectores centrado en altura y ubicado en su posición transversal inicial.



Tasa de Singles dentro del Campo de Visión Geométrica: tasa de eventos detectados dentro de la ventana de energía que fueron originados dentro del campo de visión del colimador de un agujero. Se seleccionó dicho campo de visión porque es la peor condición de las tres y además permite realizar una comparación de sensibilidad ecualizada en resolución espacial. Este parámetro se puede obtener solo por simulación, ya que el simulador brinda información de la posición de emisión de la radiación gamma de cada

259

evento detectado. 

Selectividad: porcentaje de los eventos simples que se dieron dentro de la visión geométrica del mismo. Este parámetro permite evaluar cuán selectivo es el colimador, es decir, el número de eventos provenientes de las regiones deseadas. (7.4)



Sensibilidad Eficaz: eventos simples dentro del campo de visión geométrica por µCi de actividad en el fantoma. Es la sensibilidad real del colimador, ya que solo considera los eventos deseados y no los que no han podido ser frenados por el colimador. Tasa de

Colimador

Tasa de

Tasa de

Eventos

Singles

[cps]

[cps]

Sensibilidad [cps/µCi]

Singles en Visión Geométrica

Selectividad [%]

Sensibilidad Eficaz [cps/µCi]

[cps] Múltiple Agujeros Cuatro Agujeros Único Agujero

8862,4

555,3

2,77

52,7

9,3

0,26

4501,4

328,3

1,64

118,4

35,3

0,59

9979,7

761,9

3,80

268,1

34,4

1,34

Tabla 7-2. Tabla comparativa de la performance de los colimadores propuestos.

En la Tabla 7-2 se observan los resultados de la evaluación de performance de cada colimador. En ella se puede observar que la Tasa de Singles no es un parámetro adecuado para ponderar el colimador debido al gran porcentaje de radiación externa a la visión geométrica del mismo, como se deduce de los valores de Selectividad. La sensibilidad eficaz es superior en el colimador de un agujero, duplicando la del de cuatro y siendo 5 veces mayor que la del colimador de múltiples agujeros. La relación de sensibilidad entre colimadores fue distinta a la teórica porque se analizó con la vista geométrica del colimador de un agujero. Como consecuencia, se contabilizan emisiones provenientes de esa región que no se encontraban en la visión de los otros colimadores, pero que igualmente eran detectadas por no ser

260

frenadas en el plomo de los mismos.

7.4.

Análisis de Sensibilidad del Sistema

Con el colimador de un único agujero se realizó un análisis de sensibilidad del detector de NaI(Tl) propuesto y se lo comparó con otros dos detectores de mejor resolución en energía: uno de HPGe y otro de CZT (Cadmio Zinc Teluro). Para este análisis se utilizaron simulaciones Monte Carlo con el fantoma de 1 mCi de 60Co de la sección anterior. Se simularon tres adquisiciones con el cabezal de seis detectores con el colimador de un agujero y los blindajes descriptos previamente. En una de ellos los seis detectores fueron de NaI(Tl) de 2‖x2‖, en otra detectores de HPGe de 29,5 mm de largo por 60 mm de diámetro y finalmente un prisma de CZT de 15x15x7,5 mm3. El reducido tamaño del CZT se seleccionó en base a los disponibles en el mercado. Este tipo de detectores tiene una muy buena resolución en energía (1,3% FWHM a 662 keV) y no necesita sistema de enfriamiento como el HPGe. Como contrapartida, en la actualidad no se ha alcanzado la capacidad tecnológica para construir detectores con volúmenes mayores. A partir de las simulaciones se obtuvieron la tasa de eventos total del sistema, la de eventos dentro de ventana de energía (singles) y su sensibilidad.

Los valores

obtenidos se encuentran en la Tabla 7-3. Tasa de Eventos

Tasa de Singles

Sensibilidad

[cps]

[cps]

[cps/µCi]

NaI(Tl)

9979,7

761,9

3,80

HPGe

7083,1

684,0

1,64

CZT

555,7

43,4

0,22

Detector

Tabla 7-3. Resultados de simulación de sensibilidad para sistema con seis detectores y colimadores con un agujero para NaI(Tl), HPGe y CZT.

Los resultados muestran que la utilización de detectores de NaI(Tl) duplica en sensibilidad al sistema con HPGe. Además, difícilmente se podría contar con un sistema de seis detectores de HPGe por los costos de los mismos y el sistema de refrigeración que necesitaría. Por esta razón es que todos los sistemas comerciales utilizan un único detector de HPGe. La utilización de detectores de CZT todavía no

261

es posible por su baja sensibilidad. Estos resultados refuerzan la decisión de utilizar detectores de NaI(Tl) en el AR-TGS, donde se requiere gran sensibilidad para poder ensayar los contenedores en un tiempo razonable. Parte de estos resultados han sido publicados en [182].

7.5.

Conclusiones

Se presentó una nueva arquitectura de Gamma Scanner Tomográfico que permite aumentar la sensibilidad respecto los equipos TGS tradicionales. La misma se basa en la utilización de seis detectores de NaI(Tl) para aumentar la capacidad de detección y bajar los costos económicos del equipo. Se realizó un análisis del colimador más adecuado para esta arquitectura y aplicación en particular. En él, se evaluaron la sensibilidad obtenida con cada uno de ellos y la resolución espacial de los mismos. Se propuso un parámetro de Selectividad para analizar el poder real de colimación y una Sensibilidad Eficaz que permite analizar la sensibilidad de un colimador para una respuesta geométrica dada. Ambos parámetros solo pueden ser evaluados mediante simulaciones. En ellas se demostró que colimadores con múltiples agujeros, que en teoría tenían mejor resolución espacial, tienen peor resolución por no poder frenar adecuadamente las emisiones gamma de mayores energías. En consecuencia, quedó claramente expuesta la conveniencia de utilizar colimadores con un único agujero. Para el AR-TGS se seleccionó un colimador cilíndrico de 10 cm de largo y 10 cm de diámetro, con un agujero de 2 cm de diámetro en su interior.

262

Capítulo 8

Algoritmo de Reconstrucción de Imagen para el AR-TGS El AR-TGS, como todo sistema tomográfico, necesita algoritmos de reconstrucción de imagen. Como parte de esta tesis, se ha desarrollado un algoritmo con múltiples variantes y se lo ha utilizado como plataforma de evaluación de algunos de los aspectos del sistema presentados en capítulos anteriores. En los Gamma Scanners Tomográficos se realiza una tomografía de fotón único (SPECT), por lo que el algoritmo tiene algunas diferencias respecto del algoritmo de reconstrucción utilizado en el AR-PET [183]. Las mismas se encuentran principalmente en el modelo geométrico y la corrección de atenuación. En primer lugar, las proyecciones deben realizarse entre 0º y 360º, ya que no se puede aplicar simetría a los 180º como en PET. Por otro lado, el modelo geométrico debe tener en cuenta la respuesta del detector y el colimador, como por ejemplo la apertura de este último o la penetración gamma a través del material blindante [184][185]. Esto se hace aún más necesario en el caso del TGS, donde la apertura del colimador es considerable y las emisiones gamma tienen energías muy penetrantes. La resolución de un sistema SPECT se puede obtener a partir de la PSF (Point Spread Function) del sistema, que es una combinación de la PSF del detector

263

sumada a la del colimador [185], y se puede obtener de un modelo analítico [186][187] o de mediciones del sistema [188]. Otra importante diferencia entre la reconstrucción de PET y SPECT es que en esta última la atenuación es píxel dependiente. Esto significa que no puede ser aplicada directamente sobre las proyecciones de forma precisa. Existe un método tradicional, propuesto por Chang [119], que se aplica sobre la imagen reconstruida. El mismo se basa en la Retroproyección Filtrada (FBP) de fuentes puntuales, pero puede generar subestimaciones y sobrestimaciones de los factores de corrección cuando se tienen fuentes distribuidas. Existen también métodos de corrección aplicados directamente en el proyector de los algoritmos iterativos [118]. Para el AR-TGS se ha desarrollado un algoritmo de reconstrucción basado en el algoritmo iterativo MLEM [11] pero, a diferencia del presentado para PET, en este caso solo se implementa una versión 2D. La reconstrucción se realiza a nivel de segmento, que son las rodajas en que se divide un tambor de residuos radiactivos. Tal como se ha mencionado anteriormente, por cada segmento medido se obtiene un sinograma bidimensional, que será utilizado como dato de entrada del algoritmo de reconstrucción. Como resultado se obtendrá una imagen de dos dimensiones con la distribución de actividad en el segmento. Ya se ha mencionado en capítulos anteriores la importancia de realizar un buen modelado en la matriz del sistema (SRM) en el algoritmo iterativo MLEM. Dicho modelo debe simular de forma precisa el proceso de adquisición del sistema, por lo que también es denominado proyector. Un buen proyector permite obtener imágenes de mayor calidad y recuperación de resolución. El algoritmo propuesto para el ARTGS incluye dos proyectores que tienen en cuenta las características geométricas y físicas del colimador, como a su vez la atenuación en el cuerpo de medición. El mismo es comparado con un proyectores más simple, como lo es el método de Siddon [104], presentado en capítulos anteriores. Para la evaluación del proyector y de las imágenes reconstruidas se propone la utilización de fantomas con fuentes puntuales y distribuidas, y con distintas alturas de segmento. Los mismos se han simulado con el simulador Montecarlo GATE [15] para generar sinogramas que contemplen todos los factores geométricos, físicos y estadísticos del sistema.

264

Además se ha evaluado el algoritmo en adquisiciones reales, utilizando un prototipo del equipo y un fantoma con fuentes puntuales.

8.1.

Generación de Sinogramas

Los segmentos se miden de forma individual con una posición fija del cabezal detector en altura. El cabezal con 6 detectores tiene un movimiento horizontal continuo para aumentar la frecuencia de muestreo y medir las zonas ciegas provocadas por el colimador. El movimiento total es del ancho de un detector para cubrir los 600 mm del FOV. Las posiciones continuas de cada detector se discretizan en 60 posiciones, 10 por cada detector. Se cuenta con una rotación continua del tambor bajo estudio para realizar las proyecciones en distintos ángulos. Se adquieren 60 proyecciones entre 0º y 360º, con un paso de 6º. Como se mencionó anteriormente, en tomografías del tipo SPECT, como la del AR-TGS, se requieren sinogramas con proyecciones que cubran 360º, ya que no existe la simetría de PET resultante de tener dos fotones gamma colineales. Cada evento detectado se acumula en forma de histogramas en el sinograma. Las coordenadas (θ, r) del bin a llenar son obtenidas del ángulo de rotación del tambor y de la posición e índice del detector. Estas últimas determinan el valor de la distancia r a partir de: (8.1)

donde id es el índice del detector (de 1 a 6); Ac es el ancho del colimador, que en este caso es de 100 mm; RFOV es el radio del campo de visión, que en el AR-TGS es de 300 mm; Despx es el desplazamiento inicial en el sentido de x que tiene el cabezal detector, que para la configuración propuesta es de 45 mm; y por último, Movx es la distancia del movimiento de traslación transversal desde su posición inicial en el momento de la detección, que varía de forma continua y puede tomar valores entre 0 y 100 mm. En consecuencia, por cada segmento se tiene un sinograma de 60x60 bins. En la Figura 8.1 se observa un sinograma simulado para una fuente puntual en el FOV.

265

Figura 8.1. Ejemplo de Sinograma simulado para el AR-TGS con una fuente puntual en el FOV.

Las consideraciones anteriores son válidas para la generación de un sinograma cuando un único fotopico está presente en la adquisición. Cuando existe un radioisótopo de mayor energía que el que queremos reconstruir, la radiación dispersa de este último puede ser detectada dentro de la ventana de energía del radionucleido a procesar. Por esta razón, se debe realizar una sustracción de estos eventos no deseados. Para hacer esta corrección, se genera un sinograma con los datos en ventana de energía para el radioisótopo a reconstruir. Lo mismo se realiza con una ventana de energía inmediatamente superior, que representaría la cantidad de radiación dispersa en los rangos de energía cercanos al del pico de absorción total a analizar. Por último, se realiza la resta de ambos sinogramas bin a bin para obtener un sinograma corregido por interferencia de otros radioisótopos. Este último es el que se debe utilizar en el algoritmo de reconstrucción de imagen.

8.2.

Consideraciones Generales del Algoritmo de Reconstrucción

El algoritmo utilizado para el AR-TGS es el MLEM, ya descripto en los Capítulo 3 y Capítulo 4. Recordamos que el mismo utiliza una matriz de respuesta del sistema (SRM) o proyector donde se debe modelar adecuadamente el proceso de adquisición del sistema para obtener buenos resultados. Es decir, debe ser tal que al usarla para proyectar una imagen en un sinograma, el mismo debe ajustarse lo mejor posible a un sinograma adquirido con dicha imagen como fantoma. Como ya se ha explicado previamente, cada iteración se la puede dividir en tres operaciones: proyección, retroproyección y normalización. Cuando para realizar la proyección y retroproyección se utiliza una única matriz del sistema (A) se dice que

266

se cuenta con proyectores apareados, dónde la proyección se realiza con la matriz A y la retroproyección con su traspuesta (At). Ambas operaciones pueden definirse matricialmente de la siguiente manera: (8.2) (8.3) En (8.2) se proyecta una imagen X utilizando la matriz del sistema A y se obtiene una proyección estimada PE. En (8.3) se realiza la retroproyección multiplicando la traspuesta de la matriz del sistema utilizada en la proyección con un sinograma Y, obteniendo la imagen IE. Existe además la alternativa de utilizar una matriz para proyectar y otra matriz diferente para la retroproyección. Cuando esto ocurre, se dice que se cuenta con proyectores no apareados. Esta configuración es muchas veces utilizada para acelerar la convergencia y disminuir el costo computacional del algoritmo [99][100]. En estos casos se utiliza un proyector con la máxima cantidad de factores y detalles posibles, como por ejemplo la respuesta del colimador, la corrección por atenuación y la radiación dispersa, mientras que en el retroproyector se puede utilizar un modelo más simple del sistema [99][100][101][102]. El algoritmo MLEM para proyectores desapareados queda definido de la siguiente manera: (8.4)

Dónde aij son los coeficientes de la matriz del sistema (A) utilizada para la proyección y cij los correspondientes a la SRM de retroproyección(C). En este último caso se usa Ct en la operación. Para el algoritmo de reconstrucción del AR-TGS se evaluarán distintos proyectores. Entre ellos se encuentran el algoritmo de integrales de líneas de Siddon [104][105] modificado para incluir la atenuación en el medio y dos proyectores completos diseñados para el AR-TGS que tiene en cuenta la apertura del colimador, la atenuación y el espesor del segmento. La matriz del sistema tiene tantas filas como bins del sinograma y tantas columnas como píxeles de la imagen a obtener. La cantidad de bins del sinograma ya fue definida en la sección 8.1 y es de 3600 bins para sinogramas de 60x60. Las 267

imágenes de salida también serán de 60x60 píxeles, obteniendo un total de 3600 píxeles. De esta forma la matriz del sistema tiene un tamaño de 3600x3600, la cual almacenada en punto flotante de precisión simple ocupa 49,44 MBytes. El tamaño de la matriz permite que sea almacenada en memoria RAM sin ningún problema, a diferencia de lo que observaba para el AR-PET. Dada esta condición, en la implementación del algoritmo para el AR-TGS se computará previamente la matriz del sistema y luego se operará iterativamente con la matriz cargada en memoria.

8.2.1. Fantomas Para la evaluación del algoritmo de reconstrucción y sus proyectores se proponen los siguientes cinco fantomas para simulación: Fuente Puntual: consta de una fuente puntual de 100 μCi en la posición (200 mm; 200 mm) del FOV. Cilindro Uniforme: fantoma cilíndrico con actividad distribuida de forma uniforme. El cilindro tiene el tamaño del FOV, o sea 300 mm de radio, y tiene una actividad total de 10 mCi. Dos Fuentes Puntuales: tiene dos fuentes puntuales de 100 μCi en las posiciones (200 mm; 200 mm) y (-50 mm; -50 mm). Múltiples Fuentes Puntuales: está formado por múltiples fuentes de 100 μCi distribuidas en todo el FOV cilíndrico, separadas entre sí en distintas distancias que van desde los 50 a los 200 mm para poder evaluar la resolución del sistema. En la Tabla 8-1 se encuentran las posiciones de cada una de las 17 fuentes que forman este fantoma. Fantoma de Resolución Espacial: es un fantoma con varillas cilíndricas de distinto diámetro que atraviesan axialmente todo el espesor del segmento y están distribuidas radialmente en el segmento, cada una de ellas con una concentración de 1 μCi/cc. Está formado por 6 varillas de 19,05 mm de diámetro con sus centros separados a una distancia de 76,2 mm; 3 varillas de 25,4 mm de diámetro con sus centros a una distancia de 101,6 mm; otras 3 varillas de 31,75 mm de diámetro con sus centros separados a una distancia

268

de 103,85 mm; y finalmente 3 varillas de 38,1 mm, 50,8 mm y 63,5 mm de diámetro. En la Tabla 8-2 se encuentran los diámetros y la posición de cada una de las 15 varillas. Este fantoma se utiliza con dos variantes: fuentes de 137

Cs en las varillas y el resto del cilindro libre de actividad; o fuentes de

137

Cs en las varillas y en el resto del cilindro 60Co uniformemente distribuido

con una concentración de 0, 25 μCi/cc. Un resumen de los fantomas propuestos puede observarse en la Figura 8.2. Fuente

Centro

1

(-200; 0)

2

(-200; 200)

3

(0; 200)

4

(200; 200)

5

(100; 100)

6

(0; 0)

7

(200; 0)

8

(0; -100)

9

(100; -100)

10

(200; -100)

11

(0; -200)

12

(-100; -200)

13

(-200; -200)

14

(-50; -50)

15

(-50; -100)

16

(-100; -100)

17

(-200; -100)

Tabla 8-1. Posición de cada una de las fuentes puntuales del fantoma Múltiples Fuentes Puntuales.

Figura 8.2. Fantomas utilizados para evaluar el AR-TGS y su algoritmo de reconstrucción. a) Fuente

269

Puntual. b) Cilindro Uniforme. c) Dos Fuentes Puntuales. d) Múltiples Fuentes Puntuales. e) Fantoma de Resolución Espacial sin fondo. f) Fantoma de Resolución Espacial con fondo de 60Co.

Nº de Varilla

Diámetro

Centro

1

63,5

(-179.27; -103.5)

2

50,8

(0,0; -181,6)

3

38,1

(135,27; -78,1)

4

31,75

(124,27; 71,75)

5

31,75

(228,12; 71,75)

6

31,75

(176,2; 161.68)

7

25,4

(50,8; 218,79)

8

25,4

(-50,8; 218,79)

9

25,4

(0,0; 130,8)

10

19,05

(-102,28; 59,05)

11

19,05

(-140,38; 125,04)

12

19,05

(-178,48; 59,05)

13

19,05

(-254,68; 59,05)

14

19,05

(-216,58; 125,04)

15

19,05

(-178,48; 191,03)

Tabla 8-2. Radio y centro de las varillas que forman parte del fantoma de resolución.

8.2.2. Generación de Datos Simulados Para la generación de datos simulados se utiliza la aplicación GATE [15]. Se realizó un código GATE que modela los componentes del AR-TGS ya descriptos. Estos son los 6 detectores con sus colimadores de único agujero, los blindajes y su movimiento de desplazamiento. Este último se realiza con 10 pasos discretos de 10 mm, con el objetivo de simular el movimiento continuo del AR-TGS. De esta forma, se barre todo el FOV y así se pueden generar los sinogramas con 60 muestras por proyección. El avance de 10 mm se realiza cada 60 segundos, llevando 10 minutos el barrido completo. Con este sistema de adquisición se realizaron simulaciones para cada uno de los fantomas descriptos en el ítem anterior. Se utilizó

137

Cs como fuente radioactiva en

cada uno de ellos, a excepción del Fantoma de Resolución Espacial, donde se agregó un fondo de

60

Co. Los fantomas de una y dos fuentes puntuales fueron simulados

solo en aire, mientras que los restantes fueron simulados con aire y arena. La arena fue definida en GATE como óxido de silicio con una densidad de 1,65 g/cm3. Todas las simulaciones se ejecutaron con un tiempo total de adquisición de 10 minutos, en

270

el cual el cabezal de detectores realiza el movimiento transversal completo ida y vuelta. Por cada una de ellas se genera un sinograma, que pueden observarse en la Figura 8.3; ellos fueron normalizados a la máxima cantidad de cuentas de cada uno. En la imagen a) de dicha Figura se puede observar que, al estar la fuente puntual cerca del borde del FOV, su intensidad es mayor para aquellos ángulos de rotación donde la fuente se encuentra cercana al detector, a pesar de que el aire es un medio con atenuación despreciable. Esto se debe a que la intensidad de una fuente puntual depende inversamente del cuadrado de la distancia al detector. Esto también se puede observar en la imagen b, donde la fuente que se encuentra cerca al centro del FOV tiene menor intensidad, y prácticamente no varía con el ángulo de rotación, ya que en las zonas centrales del FOV la distancia al detector se mantiene casi constante durante la rotación. Adicionalmente, a través del espesor de la senoide resultante de cada fuente, se puede observar que la fuente central es adquirida con menor resolución que la fuente periférica. Esto es algo característico de los sistemas SPECT, donde el centro del FOV es la zona con menor resolución espacial. Por otro lado, en las imágenes e) y f), con los sinogramas para el fantoma Múltiples Fuentes Puntuales en aire y arena respectivamente, se observa que la atenuación en el FOV acentúa aún más la diferencia entre las fuentes que están en el centro del FOV y su periferia.

Figura 8.3. Sinogramas adquiridos en simulaciones Monte Carlo para: a) Simulación de Fuente Puntual en aire, b) Simulación de Dos Fuentes Puntuales en Aire, c) Simulación de Cilindro

271

Uniforme en aire, d) Simulación de Cilindro Uniforme en arena, e) Simulación de Múltiples Fuentes Puntuales en aire, f) Simulación de Múltiples Fuentes Puntuales en arena, g) Simulación de Fantoma de Resolución Espacial en aire, h) Simulación de Fantoma de Resolución Espacial en arena.

En las imágenes c) y d) de la Figura 8.3 se visualizan los sinogramas para Cilindro Uniforme en aire y arena respectivamente. En esta última, se puede observar que el sinograma tiene mayor ruido Poisson, como consecuencia de una menor cantidad de cuentas adquiridas debido a la atenuación ocurrida en el FOV. Por último, en las imágenes g) y h) se encuentran los sinogramas para los fantomas de Resolución Espacial sin y con fondo de

60

Co respectivamente, ambos en arena.

La mayor cantidad de ruido del segundo se debe a la presencia de eventos dispersos provenientes de la fuente distribuida de 137

60

Co que caen en la ventana de energía del

Cs. Para la generación del sinograma en h) se utilizó la técnica de sustracción de

eventos dispersos descripta en la sección de generación de sinogramas. En la Figura 8.4 se puede observar el histograma de energías de esta simulación, donde se encuentran los dos picos de 60Co centrados en 1,17 MeV y 1,33 MeV, el de 137Cs en 0,66 MeV y la creciente acumulación de eventos dispersos desde las altas energías hacia las bajas. De acuerdo con lo descripto anteriormente se realizan tres sinogramas para la reconstrucción de la imagen de energía del pico de

137

137

Cs: uno para la ventana de

CS entre 591 keV y 773 keV; otra para caracterizar el nivel de

dispersión, con una ventana de energía entre 773 keV y 861 keV; y finalmente, el resultante de la resta elemento a elemento entre los dos anteriores. Los mismos se exponen en la Figura 8.5.

272

Figura 8.4. Histograma de energías para la simulación del Fantoma de Resolución Espacial con fondo de 60Co.

Figura 8.5. Sinogramas procesados para el Fantoma de Resolución Espacial con fondo de 60Co. a) Sinograma adquirido en la ventana de del fotopico de 137Cs. b) Sinograma obtenido en la ventana de estimación de eventos dispersos. c) Sinograma corregido resultante de la resta entre a) y b).

Para el Fantoma de Resolución Espacial también se puede generar un sinograma para la reconstrucción de la distribución de

60

Co, en ese caso se utiliza una ventana

de energía entre 1,25 MeV y 1,50 MeV para trabajar con el fotopico de mayor energía. Para concluir, en la Tabla 8-3 se encuentra un resumen de las simulaciones realizadas, donde se incluye las cuentas colectadas en ventana de energía, es decir las cuentas totales del sinograma. Para el caso de Fantoma de Resolución con fondo de 60Co, solo se cuentan los eventos en el sinograma de 137Cs corregido.

273

Fantoma

Actividad Total

Fuente puntual

100 μCi

Cilindro uniforme

10 mCi

Dos Fuentes Puntuales Múltiples Fuentes Puntuales

200 μCi

Medio

Tiempo

Cuentas en

Simulado

Sinograma

Aire

10 min

1,2214e+05

Aire

10 min

8,397e+06

Arena

10 min

1,9981e+06

Aire

10 min

2,2822e+05

Aire

10 min

1,933e+06

Arena

10 min

4,521 e+05

Arena

10 min

7,8807e+05

Arena

10 min

8,2308e+05

1,7 mCi

Fantoma de Resolución

4,8 mCi

Fantoma de Resolución

137

4,8 mCi ( Cs)

con fondo de 60Co

+ 5,8 mCi (60Co)

Tabla 8-3. Resumen de simulaciones del AR-TGS realizadas con GATE para distintos fantomas.

Todas las simulaciones de la Tabla 8-3 han sido realizadas con una altura de segmento de 100 mm. En el caso de fuentes puntuales las mismas se encontraron centradas en el segmento, mientras que las fuentes distribuidas (fuentes tipo varilla y cilindros uniformes) ocuparon toda la altura del mismo. Para el caso de Cilindro Uniforme en arena y Fantoma de Resolución Espacial también se realizaron simulaciones con un segmento de altura despreciable (4 mm). Sus detalles se encuentran en la Tabla 8-4 y serán utilizadas para evaluar la influencia de la altura del segmento en las imágenes. En la Tabla 8-4 se encuentra una comparación entre los sinogramas simulados con un segmento de 100 mm de altura (fila superior) y aquellos que se simularon con un espesor de 4 mm (fila inferior). Fantoma

Actividad Total

Medio

Tiempo

Cuentas en

Simulado

Sinograma

Cilindro uniforme

10 mCi

Arena

10 min

3,318e+06

Fantoma de Resolución

4,8 mCi

Arena

10 min

1,224e+06

Fantoma de Resolución

4,8 mCi (137Cs)

con fondo de 60Co

+ 5,8 mCi (60Co)

Arena

10 min

1,234e+06

Tabla 8-4. Simulaciones realizadas con altura de segmento despreciable.

274

Figura 8.6. Comparación de de sinogramas de Fantoma Cilíndrico y de Resolución Espacial, ambos en arena, para altura de segmento de 100 mm (fila superior) y altura de 4 mm (fila inferior). a) y d) para fantoma Cilíndrico. b) y e) para fantoma de Resolución Espacial sin fondo. c) y f) para fantoma de Resolución Espacial con fondo de 60Co.

En la Figura 8.6 se puede visualizar claramente la influencia en la altura del segmento en el caso del fantoma cilíndrico (sinogramas a y e), donde se comprueba que una mayor altura en el segmento genera una mayor ganancia en los bins del sinograma que se alejan del centro del mismo. Sin embargo, esto no es fácilmente perceptible para los sinogramas del Fantoma de Resolución Espacial. Para visualizar mejor las diferencias, se grafica un corte del sinograma para θ = 237º (fila 40 del sinograma) que se indica en la Figura 8.7, y nuevamente se verifica que los bins del sinograma alejados del centro tienen mayor ganancia cuando el segmento es de 100 mm de altura.

275

Figura 8.7. Cortes de los sinogramas de Fantoma de Resolución Espacial para las proyecciones con θ=237º. En azul, sinograma simulado con altura de segmento de 100mm y en verde con solo 4mm de altura.

8.3.

Proyectores

En capítulos anteriores se describió la necesidad de realizar un buen modelado del proceso de adquisición del sistema para obtener imágenes superiores en los algoritmos de reconstrucción iterativos. En el algoritmo de reconstrucción de imágenes para el AR-TGS se proponen dos proyectores distintos para la generación de la matriz de respuesta del sistema (SRM). Ambos modelos de proyección tienen en cuenta la geometría de detección, la apertura del colimador, la atenuación en el medio y la altura del segmento. Por esta razón, se denominan Cono de Respuesta, y se diferencian en su forma de implementación. Uno de ellos utiliza la estrategia raydriven, mientras que el otro utiliza un método píxel-driven. En la primera, el modelo geométrico se obtiene a partir de los rayos o LORs que forman parte de cada bin del sinograma, donde se calcula la intersección de los píxeles con cada una de las LORs mencionadas; en cambio, en el píxel-driven se realiza la proyección de cada píxel, a partir de sus coordenadas, en cada una de las posiciones de detección de los distintos bins del sinograma. Los proyectores mencionados son comparados con proyectores simples, como el de integral de líneas de Siddon [104] y su versión atenuada [118]. Esta comparación se realiza mediante sinogramas proyectados para cada fantoma, utilizando cada uno de los proyectores analizados y evaluando su similitud con el sinograma obtenido con 276

la simulación con GATE.

8.3.1. Cono de Respuesta Atenuado - Ray-Driven El proyector Cono de Respuesta Atenuado – Ray-Driven (CDRA-RD) tiene en consideración aspectos geométricos del sistema y de los colimadores, como también la atenuación de la radiación gamma en el medio que atraviesa. La estrategia utilizada en este proyector es ray-driven, por lo que los coeficientes de la SRM se obtienen a partir de la posición del detector. El desarrollo de este algoritmo ha sido presentado en [189]. El modelado de la apertura del colimador, y su consecuente visión geométrica, se realiza mediante la consideración de múltiples LORs incidentes desde distintos ángulos al detector. La sensibilidad geométrica de cada detector-colimador se puede obtener sumando todas las LORs incidentes sobre cada punto de la superficie del detector. Para implementar esto se propone dividir la cara del detector descubierta por el colimador en N puntos equidistantes, y efectuar lo mismo con la cara externa del agujero del colimador (Figura 8.8). Luego, por cada combinación de puntos, se genera la ecuación de la recta resultante y se realiza la integral de línea por método de Siddon para cada una de ellas.

277

Figura 8.8. Conjunto Detector-Colimador con los N puntos utilizados en la cara del detector y en la del exterior del agujero para modelar la sensibilidad geométrica del mismo.

Las rectas formadas responden a la ecuación: (8.5) donde LC es el largo del colimador, Y0 la coordenada y de la superficie del detector dentro del sistema de coordenadas del sistema, Xi la coordenada x del punto sobre la cara del detector y Xj la correspondiente a la cara exterior del agujero. Todo esto es válido para la posición del detector de la Figura 7.4, donde los detectores se encuentran perpendiculares al eje x. La cantidad de puntos N es un parámetro del CDRA -RD. Mientras más puntos se utilicen más preciso será el modelado, pero por otro lado el costo computacional crecerá con N2, que es la cantidad de integrales de línea que hay que realizar por cada detector. Una variante del Cono de Respuesta incluye la penetración de la radiación a través del plomo del colimador, habitualmente denominada Penetración de Septas. La misma es implementada en el proyector extendiendo los puntos sobre el detector y el agujero del colimador para la generación de LORs del Cono de Respuesta. Con este

278

fin se define un offset desde el extremo del detector al primer punto que se tendrá en cuenta en las LORs del Cono de Respuesta. Luego para cada LOR generada se evalúa el largo de la trayectoria de la LOR en el plomo del colimador, y se les aplicará la atenuación resultante según: (8.6) Cuando dicha atenuación supera el 95%, la LOR es descartada para reducir el costo computacional del algoritmo.

Figura 8.9. A la izquierda, Cono de Respuesta sin penetración de colimador, en el que se muestran las LORs generadas para solo dos puntos del detector. A la derecha, esquema del Cono de Respuesta con Penetración de Colimador, donde se pueden observar el parámetro de offset y las LORs generadas para el primer punto sobre el detector.

La radiación gamma es atenuada en los distintos materiales presentes en el FOV según la ecuación: (8.7) La misma establece que la actividad A medida a una distancia l de una fuente colimada con actividad A0 depende de dicha distancia y del coeficiente de atenuación lineal del material atravesado. Como se mencionó anteriormente, para realizar la corrección de atenuación se necesita un mapa con los coeficientes de atenuación lineal en cada píxel del FOV. Dicha corrección es de mayor complejidad en tomografías del tipo SPECT, como la del TGS, ya que la atenuación es dependiente del píxel analizado. Por esta razón, incorporamos este factor en el proyector, aplicando a todas las LORs del Cono de 279

Respuesta una integral de línea de Siddon atenuada [118]. En ella cada píxel es proyectado con un peso AWmj (atenuación de la actividad en el píxel j medida en la LOR m), que se obtiene acumulando los momentos de atenuación l.µ desde el detector al píxel analizado. Esto se describe en la ecuación (8.8). (8.8) donde k es el índice de todos los píxeles interceptados por la LOR m entre el detector y el píxel j, lmk es el largo del segmento de intersección para el píxel k y µk el coeficiente de atenuación lineal del píxel k. Por último, se tiene en cuenta que la intensidad detectada de una fuente puntual a una distancia d varía con la inversa del cuadrado de dicha distancia. Las múltiples líneas del proyector ya incluyen el ángulo sólido, pero al ser un proyector 2D solo es equivalente a compensar en d-1. Por esta razón en el proyector CDRA-RD se debe incluir un factor adicional inverso a la distancia para completar el modelado del ángulo sólido de detección. Cada píxel proyectado es ponderado con este factor a partir de la distancia del píxel al punto del detector de la LOR correspondiente. Hechas las observaciones anteriores, podemos definir la operación completa del proyector como: (8.9) En la ecuación (8.9), aij es el coeficiente de la SRM para el bin del sinograma i (posición de detector i) y el píxel j; m es el índice de cada una de las N2 LORs del Cono de Respuesta; lmj es el largo del segmento de intersección entre la LOR m y el píxel j; dij es la distancia desde el píxel j al detector i; el primer factor exponencial es el peso de atenuación como se lo describió en (8.8); y por último, el factor exponencial restante es la atenuación en el plomo del colimador para la LOR m, vale aclarar que para aquellas LORs que atraviesan exclusivamente el agujero del colimador este factor es 1. En la Figura 8.10 se pueden observar la mayoría de los componentes del proyector expuestos anteriormente. En ella se puede observar para la proyección del píxel xj en la LOR bi, el segmento de intersección lij, la distancia dij del píxel al detector y los distintos lik.µk que componen el camino de atenuación desde el detector al píxel k.

280

Figura 8.10. A la izquierda se muestran los componentes que son parte de la proyección de una única LOR. En el detector de la derecha se ejemplifica la forma en que las diferentes LORs del Cono de Respuesta atraviesan el FOV.

Por último, se puede incluir un factor adicional relacionado con la altura o espesor del segmento a ser reconstruido. Cuando tiene un espesor despreciable (del orden del diámetro del agujero del colimador), el segmento no genera cambios en el modelo de detección del sistema. Sin embargo, a medida que crece en altura empieza a modificarse la sensibilidad de detección de cada píxel, según la cercanía al detector. Los píxeles más cercanos no pueden ser adquiridos en su totalidad, sino que solo se podrá medir el volumen visto por la apertura del colimador. En la Figura 8.11 se puede observar lo mencionado. En el proyector CDRA-RD, cada píxel j proyectado mediante la LOR m del Cono de Respuesta se pondera con un peso proporcional a la altura de apertura de la vista del colimador en la ubicación del píxel. Como consecuencia, este peso se obtiene de la siguiente manera:

281

(8.10)

donde DC y LC son el diámetro y el largo del agujero del colimador respectivamente, y

es la distancia del píxel j al detector i proyectada sobre el eje y (ver Figura

8.11) que queda definida por: (8.11)

Siendo Δxm la diferencia entre las coordenadas x sobre el detector y la superficie del agujero del colimador para la LOR m del Cono de Respuesta y dmj la distancia entre el punto de detección de la LOR m en el detector i y el píxel j en cuestión. La distancia dmj puede ser considerada igual a dij que es la distancia del píxel al centro del detector, ya que la diferencia entre ellas es despreciable.

Figura 8.11. Calculo del peso Hmj de altura de segmento. En a) se observa en el plano XY la LOR m del Cono de Respuesta para el bin i del sinograma. En b) se encuentra el corte YZ de la misma LOR, en el que se observa la variación del peso Hmj según la distancia al detector.

Por las consideraciones anteriores, el peso Hmj podría ser mayor a la altura del segmento. En ese caso, Hmj se truncará a la altura del segmento, ya que representa el caso en que el píxel es muestreado en todo el espesor del segmento. Dadas las condiciones que anteceden, los coeficientes de la matriz del sistema para adquisiciones con segmentos de altura mayor al agujero del colimador, quedan dados por:

282

(8.12) Este proyector se evaluará sin y con penetración de colimador (CDRA-RD y CDRAPC-RD respectivamente) pero sin altura de segmento, y en su versión más completa también con altura de segmento (CDRA-PC-H-RD).

8.3.2. Cono de Respuesta Atenuado – Pixel-Driven El proyector Cono de Respuesta – Pixel-Driven (CDRA -PD) tiene en cuenta los mismos factores que el CDRA -RD en el modelo de proyección. Se diferencia de este último en la estrategia de cálculo de los coeficientes de la SRM. En la modalidad pixel-driven los coeficientes de la matriz se calculan a partir de la intensidad de cada píxel. En CDRA-RD cada píxel es proyectado en un bin del sinograma considerando el ángulo de emisión detectado de los 2π rad que una fuente emite en un plano bidimensional. En la Figura 8.12 se pueden observar dos ejemplos de ángulos de detección para un píxel y un detector determinados. El cálculo de los mismos se puede obtener a partir de la distancia de píxel a detector y del largo del segmento del detector visto desde cada píxel (ldet_i y ldet_j en la Figura 8.12).

Figura 8.12. Dos ejemplos de proyección geométrica de un píxel en un detector para el proyector CDRA-PD. El mismo utiliza el ángulo de emisión detectable.

283

En el proyector CDRA-RD, la proporción de actividad detectable desde un píxel j a un detector i se modela con el cálculo del ángulo φ de la Figura 8.12. El mismo representa la porción de radiación detectada, del total emitido por una fuente, en un plano bidimensional. Su cálculo para una fuente ubicada frente al centro del detector (Esquema de la izquierda de la Figura 8.12) se realiza a partir de la ecuación (8.13): (8.13)

donde φ es el ángulo a obtener, ldet el largo del segmento del detector visto desde el píxel que está siendo procesado y d la distancia de dicho píxel al centro del detector. Cuando la fuente no se encuentra centrada frente al detector (dibujo a la derecha de la Figura 8.12), el cálculo del ángulo no se puede realizar de forma exacta a partir de ldet, sino que hay que efectuarlo con el mismo proyectado sobre la perpendicular a la recta de distancia d (ldet_corr en la Figura 8.13). Sin embargo, al ser d>>lcorr, se puede considerar que ldet=ldet_corr. Por esta razón, la ecuación (8.13) se utiliza para el cálculo del ángulo φ para todos los píxeles.

Figura 8.13. Cálculo del ángulo de detección para un píxel y un detector dados. En CDRA-PD se calcula el ángulo considerando el caso de la izquierda. En el esquema de la derecha, el cálculo se realiza de forma aproximada considerando ldet igual a ldet_corr.

El largo del segmento ldet se obtiene a partir de la posición geométrica del píxel, que tiene en cuenta la rotación de la imagen en el ángulo θ (pero en sentido contrario) correspondiente al bin del sinograma procesado:

284

(8.14)

Con las coordenadas (xrot, yrot) del píxel se obtienen las ecuaciones de las dos rectas que pasan por los extremos del agujero del colimador y se calculan los dos puntos de intersección con la recta en donde se ubican los detectores: (8.15)

(8.16)

siendo DC y LC el diámetro y largo del colimador, y DCFOV_COL la distancia desde el centro del FOV al frente del colimador. Luego los puntos

y

se

truncan a los límites del detector: Si

, entonces

(8.17)

Si

, entonces

(8.18)

Finalmente se obtiene el largo del segmento realizando la resta entre los dos puntos: (8.19)

En la Figura 8.14 se presentan los parámetros utilizados para la obtención de ldet.

285

Figura 8.14. Elementos para el cálculo del segmento sobre el detector, visto desde un píxel dado.

En lo que respecta a la atenuación, en CDRA-PD dicho factor de corrección se obtiene realizando la integral de línea atenuada utilizada en el CDRA-RD, pero en este caso se utiliza una única línea que va desde el centro del detector al centro del píxel. Por último, para el factor de corrección por altura de segmento se divide cada píxel en subpíxeles a lo largo de la altura del segmento. La altura de cada subpíxel es igual al tamaño del píxel en x y en y. Significa entonces que cada píxel de la imagen bidimensional será analizado en una cantidad NH posiciones de altura: (8.20)

Donde Hseg es la altura del segmento y sizePixel_x es el tamaño del píxel en x. Para cada uno de los puntos analizados se calcula el largo en altura del detector visto desde el píxel procesado (ver Figura 8.15). Para esto se utiliza el mismo método explicado para calcular el largo del detector en el plano XY, pero aplicándolo al plano YZ. A partir del mismo se utiliza la misma ecuación (8.13) para obtener el peso de corrección.

Figura 8.15. Factor de Corrección de Altura de Segmento en proyector CDRA-PD.

286

Hechas las consideraciones anteriores, cada coeficiente de la SRM para el bin del sinograma i y el píxel j queda definido por: (8.21)

8.3.3. Comparación de Proyectores En las secciones anteriores se han descripto dos proyectores de Cono de Respuesta completos, que incluyen apertura del colimador, factor de actividad variable con la distancia, atenuación en el FOV, penetración del colimador y altura del segmento. Para evaluar la performance de los proyectores propuestos se los compara con un proyector más simple. Los proyectores comparados son: Siddon Atenuado: considera al colimador ideal proyectando una única LOR a partir del método de Siddon. Incluye la atenuación para cada píxel proyectado, como se propone en [118]. De aquí en adelante lo llamaremos simplemente Siddon. CDRA-RD: realiza la proyección por el método de Cono de Respuesta Atenuado – Ray Driven. No tiene en cuenta la penetración en el colimador y el espesor del segmento. CDRA-PC-RD: igual que CDRA-RD pero agrega un factor de penetración en el colimador. CDRA-PC-H-RD: al proyector anterior le agrega la influencia del espesor del segmento. CDRA-PD: realiza la proyección con el método de Cono de Respuesta Atenuado – Píxel Driven. No tiene en cuenta penetración en el colimador ni altura de segmento. CDRA-H-PD: a la proyección con el CDRA-PD le agrega el factor de corrección por espesor de segmento. En la Tabla 8-5 se muestra un cuadro comparativo que sintetiza las distintas características de los proyectores evaluados.

287

Colimador

Apertura

Proporción

Atenuación

Penetración

Altura de

Ideal

del

de

en el FOV

del

Segmento

Colimador

Actividad

Colimador

Detectable Siddon Atenuado

x

x

CDRA-RD

x

x

x

CDRA-PC-RD

x

x

x

x

CDRA-PC-H-RD

x

x

x

x

CDRA-PD

x

x

x

CDRA-H-PD

x

x

x

x

x

Tabla 8-5. Comparación de los distintos proyectores implementados, según los factores considerados en cada uno de ellos.

Un proyector debe poder simular el proceso de adquisición del sistema de la forma más precisa posible. En este sentido, para evaluar cuán bueno es un proyector se propone comparar el sinograma proyectado o estimado con uno adquirido utilizado como referencia. En este caso utilizaremos un sinograma simulado con GATE como referencia para cada uno de los fantomas. Los fantomas y simulaciones utilizadas son las mencionadas en 8.2.2. Para cuantificar la diferencia entre el sinograma de referencia y el proyectado se usó el Error Cuadrático Medio Normalizado (NRMSE), que es el error cuadrático medio entre el sinograma proyectado y el de referencia (GATE), normalizo al valor medio de este último: (8.22)

donde bi es el valor del bin i del sinograma de referencia y pi el correspondiente al sinograma estimado. Mientras mejor sea el estimador, menor debería ser su NRMSE. Los proyectores Cono de Respuesta Atenuado con estrategia ray-driven tienen como parámetro de configuración la cantidad de puntos sobre el detector y el colimador para generar las distintas LORs (parámetro N). La selección de dicho parámetro se realizó con el objetivo de obtener una separación de 1 mm entre los puntos que generan las LORs y así hacer que el error introducido por muestrear el ángulo sólido con puntos equidistantes, en vez de equiespaciados angularmente, sea despreciable. Además con dicha configuración se logra intersecar los píxeles más lejanos al

288

detector al menos una vez. Para lograr este objetivo el proyector CDRA-RD se configuró con N=15. El proyector CDRA-PC-RD también cuenta con un offset y la separación entre puntos depende tanto de este último como del parámetro N. Para lograr mantener la separación de 1 mm del CDRA-RD, en este caso se utiliza un N de 30 y un offset de 10 mm. Hecha las observaciones anteriores, se procedió a realizar la comparación entre todos los proyectores. Con cada uno de ellos se realizó una proyección de cada fantoma. Luego se calculó el NRMSE utilizando las simulaciones con GATE como referencia. La comparación se divide en varias etapas, para poder individualizar la incidencia de los distintos componentes de los proyectores. Para comenzar, se utilizaron fantomas en aire y con fuentes puntuales, donde no hay incidencia de la atenuación ni de la altura del segmento. En la Figura 8.16 se pueden visualizar los distintos sinogramas proyectados para los fantomas de fuentes puntuales en aire. Los mismos han sido normalizados a cuentas por segundo (cps). En cada fila de imágenes se encuentra el fantoma, el sinograma GATE de referencia y los sinogramas proyectados por cada proyector. En estos se puede observar como los proyectores de Cono de Respuesta en sus distintas versiones logran un resultado que se ajusta de forma precisa al simulado con GATE. La incidencia de la atenuación es despreciable, en razón de ser fantomas en aire, por lo que en este caso no se puede evaluar dicho factor de corrección. Al ser fantomas con fuentes puntuales centradas en altura en el segmento, la altura del mismo no influye en la adquisición y por esta razón se utilizan los proyectores que no la tienen en cuenta (ver Tabla 8-5).

289

Figura 8.16. Comparación de sinogramas estimados con distintos proyectores y simulado con GATE. La escala de colores se encuentra en cuentas por segundo. Fila superior: imagen del fantoma de Una Fuente Puntual, el sinograma adquirido de simulación con GATE y sinogramas estimados con proyectores Siddon, CDRA-RD, CDRA-PC-RD y CDRA-PD en ese orden. Fila intermedia: ídem para el caso del fantoma Dos Fuentes Puntuales. Fila inferior: mismos resultados para fantoma Múltiples Fuentes Puntuales en aire.

Los valores de NRMSE obtenidos se hallan en la Tabla 8-6 y confirman lo que se observa visualmente en los sinogramas. El NRMSE para los sinogramas de proyectores del tipo Cono de Respuesta es ampliamente menor que los proyectores con el método de Siddon. Fantoma\Proyector

CDRA-PC-

CDRA-

RD

PD

1,25

1,08

1,29

3,54

0,69

0,59

0,71

1,34

0,32

0,29

0,32

Siddon

CDRA-RD

Fuente Puntual

4,95

Dos Fuentes Puntuales Múltiples Fuentes Puntuales en Aire

Tabla 8-6. Error Cuadrático Medio entre sinogramas proyectados y sinogramas simulados con GATE para fantomas de fuentes puntuales en aire.

En la Figura 8.17 se encuentran los sinogramas proyectados para tres fantomas con arena: Múltiples Fuentes Puntuales, Cilindro Uniforme y Fantoma de Resolución Espacial. Los sinogramas de referencia utilizados corresponden a la simulación con GATE y altura de segmento despreciable (4 mm). Todos se encuentran en un medio de atenuación considerable, como lo es la arena, permitiendo evaluar si la corrección 290

por atenuación es adecuada. Esta última se utiliza con un mapa de atenuación teórico, ya que es un parámetro conocido en estos casos.

Figura 8.17. Comparación de sinogramas estimados con distintos proyectores y simulado con GATE. La escala de colores se encuentra en cuentas por segundo. Fila superior: imagen del fantoma de Múltiples Fuentes Puntuales en arena, el sinograma adquirido de simulación con GATE y sinogramas estimados con proyectores Siddon, CDRA-RD, CDRA-PC-RD y CDRA-PD en ese orden. Fila intermedia: ídem para fantoma Cilindro Uniforme en arena. Fila inferior: mismos resultados para fantoma de Resolución Espacial.

Las imágenes de la Figura 8.17 comprueban que la corrección por atenuación implementada es correcta. En la Tabla 8-7 se presentan los valores de NRMSE para cada sinograma proyectado. Al igual que en los fantomas en aire, los proyectores del tipo Cono de Respuesta muestran una mayor correspondencia con los sinogramas de referencia. La diferencia entre los tres tipos de proyectores CDRA no es significativa y al ser tan pequeña no puede cuantificarse cuanto se debe al ruido estadístico presente en los sinogramas de referencia. Sin embargo, el CDRA-PC-RD muestra el menor NRMSE para la mayoría de los fantomas (tanto en aire como arena), por lo que puede ser considerado como el más preciso.

291

Fantoma\Proyector Múltiples Fuentes Puntuales en Arena Cilindro Uniforme en Arena Fantoma de Resolución Espacial

Siddon

CDRA-RD

CDRA-PC-RD

CDRA-PD

1,84

0,44

0,38

0,43

0,53

0,47

0,50

0,54

0,50

0,28

0,26

0,26

Tabla 8-7. Error Cuadrático Medio entre sinogramas proyectados y sinogramas simulados con GATE para fantomas en arena y con 100 mm de altura de segmento.

Por último, se evaluará el factor de corrección por altura de segmento. Para esto se utilizarán las simulaciones de fantoma Cilindro Uniforme y fantoma de Resolución Espacial con altura de segmento de 100 mm. Los proyectores utilizados serán CDRA-PC-RD, CDRA-PC-H-RD, CDRA-PD y CDRA-H-PD, ya que así pueden ser comparados con y sin altura, tanto para los ray-driven como para los píxeldriven. En la Figura 8.18 se observan los sinogramas de referencia y los proyectados para cada uno de los proyectores seleccionados, mientras que en la Figura 8.19 se puede visualizar un gráfico con los cortes a θ=180º de todos los sinogramas para Cilindro Uniforme. En este último se comprueba la importancia de la corrección por altura de segmento, ya que permite ver la diferencia de ganancia, para los distintos valores de r del sinograma, cuando un sinograma tiene una altura considerable respecto de uno de altura despreciable.

Figura 8.18. Comparación de sinogramas estimados con distintos proyectores y simulados con GATE. Fila superior: sinograma adquirido de simulación con GATE con altura de segmento de 100mm (izquierda) y sinogramas estimados con proyectores Siddon CDRA-PC-RD, CDRA-PC-H-RD,

292

CDRA-PD y CDRA-H-PD en ese orden. Fila inferior: mismos resultados para fantoma Cilindro Uniforme de 100 mm de altura.

Figura 8.19. Cortes de sinogramas de Cilindro Uniforme para la proyección de θ=180º.

En la Tabla 8-8 se encuentran los valores de MSE para esta comparación. En ella se verifica que, como era de esperarse, una corrección por altura de segmento disminuye el error para fantomas con altura considerable (en este caso 100mm). A manera de resumen final, hemos comprobado que los proyectores del tipo Cono de Respuesta son estimadores precisos del proceso de adquisición del AR-TGS e incluyen satisfactoriamente la apertura geométrica del colimador, la atenuación y la altura del segmento para fuentes distribuida a lo largo del mismo. Fantoma\Proyector Fantoma de Resolución Espacial 100 mm de altura Fantoma Cilindro Uniforme 100 mm de altura

CDRA-PC-RD

CDRA-PC-H-RD

CDRA-PD

CDRA-H-PD

0,61

0,23

0,70

0,20

0,50

0,13

0,54

0,08

Tabla 8-8. Comparación del Error Cuadrático Medio entre los proyectores evaluados y los sinogramas de referencia para cada uno de los fantomas.

8.4.

Reconstrucción de Datos Simulados

Los fantomas simulados con GATE se reconstruyen utilizando el algoritmo MLEM con los proyectores definidos en la sección anterior. En la introducción de este capítulo se comentó la posibilidad de utilizar proyectores no apareados en el 293

algoritmo. En esos casos se utiliza una matriz del sistema en la operación de proyección y otra distinta en la de retroproyección, con el objeto de acelerar la convergencia del algoritmo. Además, existe bibliografía que indica que en la retroproyección no se necesitan matrices con modelos tan precisos como en la proyección [99][100][101][102]. Por esta razón, en esta sección se analizarán los distintos resultados de reconstrucción para combinaciones de pares de proyectores. Previamente se calcularon las matrices de respuesta del sistema para cada proyector, para luego utilizarlas en el algoritmo MLEM. En la operación de proyección se usa la matriz directamente, mientras que para la retroproyección se utiliza su traspuesta. Las imágenes reconstruidas se analizarán por separado, entre aquellas que no están en un medio atenuante (fantomas en aire), otras que se encuentran en arena y, por último, las que además cuentan con una altura de segmento considerable. En todas las imágenes se aplica un filtro de mediana como post-procesamiento para eliminar el ruido puntual característico de los algoritmos iterativos. Para evaluar cada proyector-retroproyector también se verifica su convergencia graficando el likelihood logarítmico (Log-Likelihood) definido en 3.3.1. El mismo debe ser monótono creciente y debe converger a un valor de likelihood mayor cuando el proyector es más preciso. Las imágenes reconstruidas deben ser calibradas en actividad, ya que el principal objetivo del AR-TGS es poder localizar y cuantificar la actividad de los radioisótopos presentes en el tambor bajo estudio. La calibración se realiza utilizando las simulaciones de actividad uniforme en aire, tanto para segmento de altura despreciable como para altura de 100 mm.

8.4.1. Cuantificación de Actividad Las imágenes reconstruidas son calibradas en concentración de actividad por píxel en µCi/píxel o en µCi/cc a partir del tamaño del píxel. Es decir, que si en el campo de visión hay una o múltiples fuentes con cierta radiactividad, la suma de las intensidades de los píxeles debe ser igual a esa actividad. Para lograr esto, se utilizarán como fantomas de calibración los cilindros con actividad uniforme conocida de 137Cs y con el mismo se generarán imágenes de conversión de cps/píxel a µCi/píxel. 294

Para convertir a concentración de actividad a las imágenes reconstruidas, se las debe convertir a tasa de cuentas dividiendo cada píxel por el tiempo total de la adquisición reconstruida. Luego se la debe multiplicar píxel a píxel con la imagen de conversión de cps/píxel a µCi/cc. Se debe tener una imagen de conversión por cada método de reconstrucción (cada combinación de proyectores). Finalmente, se multiplica la imagen por factores de eficiencia relativos a la eficiencia de los detectores en 662 keV (137Cs). De esta forma se utiliza una única imagen de calibración para los distintos radioisótopos reconstruidos. La imagen de conversión mencionada se generó utilizando las simulaciones de cilindro con fuente uniforme de

137

Cs en aire, tanto de espesor despreciable como

con 100 mm de espesor. Ambas simulaciones fueron reconstruidas con los métodos de reconstrucción propuestos para el AR-TGS. Por otro lado, se sintetizaron imágenes con los valores de concentración de actividad teóricos (en µCi/cc) del fantoma de calibración. Con ellas se generó la imagen de conversión: (8.23)

donde k es el índice de píxel,

es la imagen de conversión,

es la imagen de

referencia con los valores de concentración de actividad en µCi/cc de cada píxel, es la imagen reconstruida del fantoma de calibración y

es el tiempo de

adquisición con el fantoma de calibración. Luego, para obtener la concentración de actividad de una imagen reconstruida se debe hacer la conversión píxel a píxel mediante: (8.24)

siendo

la imagen reconstruida,

método de reconstrucción utilizado,

la imagen de conversión generada para el el tiempo de adquisición del ensayo y

la imagen reconstruida calibrada en conecntración de actividad (µCi/cc). Con la ecuación (8.23) se generaron las imágenes de conversión

para cada

uno de los métodos de reconstrucción utilizados en la comparación. Las mismas se aplicaron en todas las imágenes reconstruidas, una vez finalizado el proceso iterativo, utilizando la ecuación (8.24). Las simulaciones de calibración se realizaron

295

sólo en aire, por lo que al analizar la cuantificación en fantomas con arena se podrá verificar el modelo de corrección de atenuación propuesto.

8.4.2. Fantomas en Aire Se realizaron las reconstrucciones con el algoritmo MLEM con 60 iteraciones para los fantomas de Una Fuente Puntual, Dos Fuentes Puntuales y Múltiples Fuentes Puntuales. En estas reconstrucciones se combinaron los proyectores Siddon, CDRAPC-RD y CDRA-PD como proyectores y retroproyectores en todas sus combinaciones posibles. Todas las imágenes fueron calibradas en actividad y se presentan en una escala de colores en µCi/píxel. En la Figura 8.20 se muestran los resultados obtenidos para cada combinación proyector-retroproyector; en ella las imágenes reconstruidas se presentan en una matriz donde las columnas indican el proyector utilizado y las filas el retroproyector. De dicha comparación se puede observar que las imágenes que se generaron utilizando como proyector a CDRA-PC-RD y CDRA-PD tienen mejor resolución espacial, y que el retroproyector no tiene gran influencia en las mismas.

Figura 8.20. Imágenes reconstruidas para simulación de fantoma de Una Fuente Puntual con distintas combinaciones de proyectores y retroproyectores. La escala de colores se encuentra en µCi/píxel. En la columna de la izquierda se encuentran los resultados para el proyector Siddon, en la del medio para el proyector CDRA-PC-RD y en la de la derecha para el CDRA-PD. En las filas se encuentran los 296

retroproyectores usados: Siddon, CDRA-PC-RD y CDRA-PD de arriba hacia abajo.

Los resultados de reconstrucción para el fantoma de Dos Fuentes Puntuales se encuentran en la Figura 8.21. En la imagen para el proyector Siddon se puede observar que la resolución espacial en el centro del FOV es peor que en la periferia del mismo. Esto es algo característicos de los sistemas SPECT. Sin embargo, un buen modelado del colimador como en los proyectores CDRA-PC-RD y CDRA-PD logra recuperación de la resolución, lo que puede observarse en las imágenes para cada uno de estos proyectores.

Figura 8.21. Imágenes reconstruidas y calibradas en µCi/píxel para simulación de fantoma de Dos Fuentes Puntuales para distintas combinaciones de proyectores y retroproyectores. En la columna de la izquierda se encuentran los resultados para el proyector Siddon, en la del medio para el proyector CDRA-PC-RD y en la de la derecha para el CDRA-PD. En las filas se encuentran los retroproyectores usados: Siddon, CDRA-PC-RD y CDRA-PD de arriba hacia abajo.

Para el caso de Dos Fuentes Puntuales también se muestra un gráfico del valor del Log-Likelihood de cada imagen reconstruida (Figura 8.22), donde se puede observar la convergencia del algoritmo MLEM con los distintos proyectores. En dicho gráfico se puede observar que los proyectores del tipo Cono de Respuesta convergen a un valor de likelihood mayor que utilizando un proyector simple como Siddon. También se verifica que el retroproyector utilizado no tiene una gran influencia, ya que no genera grandes diferencias en el valor del likelihood. En este caso el 297

proyector píxel-driven converge a un valor de likelihood levemente mayor que el ray-driven.

Figura 8.22. Evolución de los valores de Log-Likelihood durante la reconstrucción MLEM del sinograma del fantoma de Dos Fuentes Puntuales en aire.

A continuación se expone el mismo conjunto de resultados para el fantoma de Múltiples Fuentes Puntuales (Figura 8.23). En este caso, también se observa una mejora en la resolución espacial cuando se usan los proyectores del tipo Cono de Respuesta. Sin embargo, a diferencia de los casos anteriores, ahora existe diferencia entre los retroproyectores utilizados, siendo las combinaciones CDRA-PC-RD – Siddon y CDRA-PD – Siddon las que generaron mejores imágenes. En ellas se muestra una identificación precisa de la mayoría de las fuentes presentes en el fantoma, no pudiéndose separar claramente aquellas que se encontraban a 5 cm de separación. En lo que respecta al likelihood, no hay grandes diferencias entre las distintas combinaciones de proyectores. Esto prueba que la convergencia a un mismo valor de likelihood no asegura la misma calidad o resolución de imagen.

298

Figura 8.23. Imágenes reconstruidas y calibradas en µCi/píxel para simulación de fantoma de Múltiples Fuentes Puntuales para distintas combinaciones de proyectores y retroproyectores. En la columna de la izquierda se encuentran los resultados para el proyector Siddon, en la del medio para el proyector CDRA-PC-RD y en la de la derecha para el CDRA-PD. En las filas se encuentran los retroproyectores usados: Siddon, CDRA-PC-RD y CDRA-PD de arriba hacia abajo.

Figura 8.24. Evolución de los valores de Log-Likelihood durante la reconstrucción MLEM del sinograma del fantoma de Múltiples Fuentes Puntuales en aire.

8.4.3. Fantomas con Arena En igual forma que lo realizado para los fantomas con aire, se efectúan las reconstrucciones para fantomas con arena. En este caso se evalúan los mismos

299

proyectores que en el caso de aire. Recordamos que el proyector Siddon también incluye la corrección por atenuación. Además, se compara la performance de la reconstrucción cuando se utiliza retroproyectores atenuados y no atenuados, con el objetivo de analizar si es necesario incluirlo en el modelo de retroproyección o es suficiente con un modelo más simple. Esta comparación se realiza utilizando las matrices de retroproyectores para el caso de medio uniforme de arena y de aire, que sería equivalente a evaluar si se aplica corrección de atenuación en el retroproyector o no. En la Figura 8.25 se encuentran las imágenes reconstruidas del fantoma de Múltiples Fuentes Puntuales con retroproyectores que incluyen la corrección por atenuación, mientras que en la Figura 8.26 los retroproyectores no la tienen en cuenta. En ambos casos las imágenes muestran similares niveles de actividad a las imágenes reconstruidas del mismo fantoma en aire. Con esto se demuestra que la corrección por atenuación implementada es adecuada, ya que la cuantificación en actividad se realiza a partir del fantoma de calibración en aire. Para los casos en que se utiliza como proyectores CDRA-PC-RD y CDRA-PD no hay diferencias significativas entre utilizar retroproyector atenuado y no hacerlo, comprobando de esta forma que con utilizar un proyector completo y un retroproyector más simple es suficiente. Nuevamente la utilización de estos últimos como proyectores y Siddon como retroproyector parece lograr una mejor resolución espacial pero en este caso se observa un incremento en el ruido. La utilización de los proyectores CDRA-PC-RD y CDRA-PD apareados también genera resultados satisfactorios, que se destacan por ser poco ruidosos. En lo que hace a la comparación entre la utilización de retroproyectores atenuados y no atenuados, los primeros muestran imágenes de levemente mayor resolución. Esto se observa en el menor diámetro de las fuentes en las imágenes y una mejor separación entre ellas. En lo que se refiere a la evolución del Log-Likelihood durante la reconstrucción, no hubo diferencias significativas entre el valor de convergencia cuando se utiliza un retroproyector atenuado y uno sin atenuar.

300

Figura 8.25. Imágenes reconstruidas para simulación de fantoma de Múltiples Fuentes Puntuales en arena para distintas combinaciones de proyectores y retroproyectores. Los proyectores utilizados se identifican con las columnas, mientras que los retroproyectores en las filas. Estos últimos incluyen corrección por atenuación.

Figura 8.26. Imágenes reconstruidas para simulación de fantoma de Múltiples Fuentes Puntuales en arena para distintas combinaciones de proyectores y retroproyectores. Los proyectores utilizados se identifican con las columnas, mientras que los retroproyectores en las filas. Estos últimos no tienen

301

en cuenta la atenuación del medio.

Por último, se presentan los resultados para el fantoma de Resolución Espacial, donde en vez de fuentes puntuales se tienen fuentes distribuidas. La baja resolución espacial del sistema hace que se incremente el efecto de volumen parcial y que se dificulte la reconstrucción de los círculos más pequeños que se encuentran en la zona de menor resolución (el centro del FOV). Al igual que en los casos anteriores, no hay grandes diferencias entre la utilización de retroproyectores atenuados (Figura 8.27) y no atenuados (Figura 8.28), y las imágenes con Siddon como retroproyector logran mejor identificación de todas las fuentes pero su nivel de ruido es considerablemente mayor.

Figura 8.27. Imágenes reconstruidas para simulación de fantoma de Resolución Espacial para distintas combinaciones de proyectores y retroproyectores. Los retroproyectores incluyen corrección por atenuación.

302

Figura 8.28. Imágenes reconstruidas para simulación de fantoma de Resolución Espacial para distintas combinaciones de proyectores y retroproyectores. Los retroproyectores no incluyen corrección por atenuación.

8.4.4. Fantomas con Arena y Altura de Segmento de 100 mm Con el objetivo de analizar la influencia de la altura del segmento cuando se cuenta con fuentes distribuidas, se evalúan las imágenes reconstruidas para los fantomas con 100 mm de altura y utilizando proyectores que incluyen o no el factor altura. Tanto en el fantoma de Cilindro Uniforme en arena (Figura 8.29) como en el de Resolución Espacial (Figura 8.30) se observa claramente como la no inclusión del factor de altura genera una disminución considerable de la actividad reconstruida en el centro del FOV. Por el contrario, los proyectores que incluyen el factor de altura de segmento (CDRA-PC-H-RD y CDRA-H-PD) logran una buena reconstrucción, con similares resultados a los obtenidos cuando los fantomas fueron de espesor despreciable. La cuantificación de actividad se realizó utilizando el fantoma de Cilindro Uniforme en aire con 100 mm de altura. Los valores de actividad por píxel de las imágenes reconstruidas se mantienen respecto de las reconstrucciones de espesor despreciable. Con esto se verifica que la ponderación de la influencia de la altura del segmento es adecuada.

303

Figura 8.29. Imágenes reconstruidas para simulación de fantoma de Cilindro Uniforme en arena para distintas combinaciones de proyectores y retroproyectores. En las columnas de izquierda a derecha se encuentran los resultados para los proyectores CDRA-PC-RD, CDRA-PC-H-RD, CDRA-PD y CDRA-H-PD respectivamente. En las filas se encuentran los retroproyectores usados: Siddon, CDRA-PC-H-RD y CDRA-H-PD de arriba hacia abajo.

Figura 8.30. Imágenes reconstruidas para simulación de fantoma de Resolución Espacial para distintas combinaciones de proyectores y retroproyectores. En las columnas de izquierda a derecha se encuentran los resultados para los proyectores CDRA-PC-RD, CDRA-PC-H-RD, CDRA-PD y 304

CDRA-H-PD respectivamente. En las filas se encuentran los retroproyectores usados: Siddon, CDRA-PC-H-RD y CDRA-H-PD de arriba hacia abajo.

8.5.

Reconstrucción Penalizada

En los resultados de la sección anterior se ha visto que la combinación de los proyectores Cono de Respuesta para la proyección y el método de Siddon para la retroproyección genera buenos resultados en la identificación de fuentes en todo el FOV, aún cuando sus imágenes son más ruidosas. Adicionalmente, el ruido es amplificado con la evolución de las iteraciones en el algoritmo MLEM. Para resolver este tipo de inconvenientes se propone la utilización del algoritmo MLEM penalizado (reconstrucción bayesiana) descripto en la sección 3.3.3. La implementación usada para esto es la denominada One Step Late (OSL) [77] con penalización basada en filtro de mediana definida en (3.29). El filtro empleado usa un clúster de 3x3 píxeles. Se evaluó el impacto de la utilización de dicha penalización de mediana en la reconstrucción con CDRA-PD como proyector y Siddon como retroproyector, ya que estas eran las que tenían más problemas de ruido. En la Figura 8.31, Figura 8.32 y Figura 8.33 se muestran los resultados obtenidos. En las imágenes a) se encuentran las reconstrucciones sin penalización pero con filtro de mediana luego de reconstrucción, mientras que en las imágenes b), c) y d) se visualizan las imágenes reconstruidas con la penalización OSL por filtro de mediana para β igual a 0,2, 0,4 y 0,6 respectivamente.

Figura 8.31. Imágenes reconstruidas para fantoma de Cilindro Uniforme, con MLEM para 60 iteraciones con filtro de mediana post-procesamiento(a) y con penalización OSL por filtro de mediana para distintos valores de β (0,2, 0,4 y 0,6 para imágenes b, c y d respectivamente.

305

Figura 8.32. Imágenes reconstruidas para fantoma de Resolución Espacial, con MLEM para 60 iteraciones con filtro de mediana post-procesamiento(a) y con penalización OSL por filtro de mediana para distintos valores de β (0,2, 0,4 y 0,6 para imágenes b, c y d respectivamente.

Figura 8.33. Imágenes reconstruidas para fantoma de Múltiples Fuentes Puntuales, con MLEM para 60 iteraciones con filtro de mediana post-procesamiento(a) y con penalización OSL por filtro de mediana para distintos valores de β (0,2, 0,4 y 0,6 para imágenes b, c y d respectivamente.

En las imágenes reconstruidas con penalización se logró controlar el ruido parcialmente y obtener mejor uniformidad en las imágenes. Una ponderación de β=0,2 muestra ser suficiente para lograr el objetivo planteado.

8.6.

Conclusiones

Para el algoritmo de reconstrucción 2D destinado al tomógrafo de residuos radiactivos AR-TGS se han propuesto dos proyectores, el CDRA-PC-RD y CDRAPD, que modelan la apertura del colimador, la sensibilidad de detección y la atenuación en el medio. Ellos se diferencian en su método de implementación: el primero usa una estrategia ray-driven mientras que el segundo emplea una pixeldriven. Dichos proyectores se compararon con un proyector más simple, basado en el algoritmo de Siddon pero que incluye la atenuación en el medio. Se encontró que ambos proyectores propuestos modelan de forma precisa el proceso de adquisición en el AR-TGS, lo que se verificó contrastando los sinogramas que ellos generaron con los obtenidos con el simulador Monte Carlo GATE. Para ello se cuantificó la diferencia entre los sinogramas proyectados y los de referencia mediante el error

306

cuadrático medio normalizado. Los proyectores propuestos mostraron menor error que el proyector de Siddon. Para completar el análisis de los proyectores, se los utilizaron en la reconstrucción de los sinogramas generados con simulaciones Monte Carlo. Las reconstrucciones con los proyectores desarrollados en este capítulo mostraron mejor resolución espacial que el algoritmo de Siddon. Las imágenes fueron calibradas en actividad a partir de una simulación de un fantoma con actividad uniforme en aire. Las imágenes reconstruidas de fantomas con arena obtuvieron los mismos niveles de actividad que los correspondientes fantomas en aire, demostrando que el modelo e implementación de los proyectores con corrección de atenuación fueron adecuados. El algoritmo propuesto realiza reconstrucciones 2D de cada slice o segmento de un contenedor de residuos radiactivos, pero cuando la altura del segmento es considerable se observó una distorsión en las imágenes por la diferencia de sensibilidad entre el centro y los bordes del FOV. Para estos casos, se incorporó un factor de altura, creando los proyectores CDRA-PC-H-RD y CDRA-H-PD. Los mismos lograron compensar las diferencias de sensibilidad y generar imágenes de similar calidad a las de adquisiciones con segmentos de espesor despreciable. Adicionalmente, se evaluó la utilización de proyectores no apareados en la operación de retroproyección del algoritmo MLEM, donde se pude comprobar que se pueden utilizar modelos más simples para dicha operación. Aun más, las imágenes reconstruidas con alguno de los proyectores Cono de Respuesta para la proyección y Siddon para la retroproyección mostraron una gran performance en toda la región del FOV pero con un incremento del ruido. Esto último fue resuelto mediante la implementación de una penalización bayesiana por filtro de mediana entre cada iteración. En el próximo capítulo, se cuantificarán y evaluará el sistema de imágenes del AR-TGS mediante la utilización de los algoritmos descriptos en este capítulo.

307

308

Capítulo 9

Evaluación del Sistema de Imágenes del AR-TGS En este capítulo se realiza un análisis cuantitativo del sistema tomográfico AR-TGS descripto en el Capítulo 7. Se evalúa la capacidad de cuantificar actividad mediante las imágenes reconstruidas, la resolución espacial en las distintas regiones del FOV del mismo, la calidad de las imágenes, la mínima actividad de una fuente que puede ser reconstruida (Sensibilidad) y la capacidad de generar imágenes cuando hay más de un radioisótopo presente. Para cumplir este objetivo se utilizan las simulaciones realizadas con GATE descriptas en el Capítulo 8 y otras adicionales descriptas durante el desarrollo de este capítulo. En los análisis de cuantificación, de resolución espacial y de calidad de imágenes se utilizaron distintos métodos de reconstrucción para poder comparar la influencia de los algoritmos desarrollados. Sobre la base de los resultados obtenidos en el Capítulo 8, se usan para la reconstrucción MLEM los proyectores CDRA-PC-H-RD y CDRA-H-PD de forma apareada, la combinación de CDRA-H-PD como proyector y Siddon como retroproyector, y finalmente el proyector Siddon (con atenuación) apareado. En estas comparaciones, también se agrega el método analítico de retroproyección filtrada (FBP).

309

Por último, se generan imágenes reales con un prototipo del equipo con el objetivo de validar lo desarrollado con simulaciones Monte Carlo.

9.1.

Cuantificación de Actividad

En la sección 8.4.1 se describió como es el proceso de cuantificación de las imágenes en actividad, a partir de una única simulación de un fantoma cilíndrico de actividad uniforme de

137

Cs. A continuación se evalúa la precisión de dicha

cuantificación, obteniendo la actividad total reconstruida para los siguientes fantomas analizados: Fantomas con una fuente puntual en distintas regiones del FOV en aire y arena. Fantomas de Múltiples Fuentes Puntuales, tanto en arena como en aire. Fantoma de Resolución Espacial para pico de 137Cs y 60Co.

9.1.1. Cuantificación de Fuentes Puntuales Para este análisis se reprocesó la simulación del fantoma de Múltiples Fuentes Puntuales en aire, pero en este caso se procesó cada fuente de forma individual. Esto se logra filtrando el archivo de salida de GATE con el campo que identifica la fuente de origen de cada evento detectado. De esta forma se obtiene un sinograma por cada fuente procesada. En la Tabla 9-1 se dispone la lista de fuentes procesadas y la distancia al centro de cada una de ellas. Las fuentes se seleccionaron de manera de poder analizar la cuantificación y la resolución espacial en distintas regiones del FOV. Nº de Fuente

Posición [mm]

Distancia al Centro [mm]

6

(0; 0)

0

14

(-50; -50)

70,71

8

(0; -100)

100

3

(0; 200)

200

17

(-200; -100)

223,61

4

(200; 200)

282,84

Tabla 9-1. Fuentes del fantoma de Múltiples Fuentes Puntuales que se utilizaron para el análisis de cuantificación de actividad y de resolución espacial.

310

Para cada una de las imágenes reconstruidas y calibradas en µCi/píxel se sumó la actividad total en la imagen. Se calculó el error relativo en la cuantificación de la actividad, teniendo en cuenta que la actividad teórica es de 100 µCi. Los resultados se encuentran en la Tabla 9-2 para las fuentes en aire y en la Tabla 9-3 para las fuentes en arena. Para el primer caso, el error en la cuantificación de actividad es menor que 5%; mientras que para el segundo se obtienen errores de entre 18% y 25%. En este último caso, hay un offset por exceso en la actividad estimada, que puede deberse a la combinación de distintos factores, uno de ellos es la presencia de eventos dispersos en los sinogramas de las fuentes puntuales. Lo mismo fue verificado mediante el simulador GATE, donde se obtuvo que 10% de los eventos en ventana de energía tuvieron una o más interacciones del tipo Compton en el fantoma en arena. Nº de

Actividad

CDRA-PC-H-RD

CDRA-H-PD

CDRA-H-PD - Siddon

Fuente

Teórica

Actividad

Error [%]

Actividad

6

100 µCi

95,6 µCi

-4,4 %

96,4 µCi

-3,6 %

95,5 µCi

-4,5 %

14

100 µCi

95,3 µCi

-4,7 %

94,9 µCi

-5,1 %

93,5 µCi

-6,5 %

8

100 µCi

96,2 µCi

-3,8 %

95,0 µCi

-5,0 %

94,3 µCi

-5,7 %

3

100 µCi

99,5 µCi

-0,5 %

100,6 µCi

0,6 %

96,8 µCi

-3,2 %

17

100 µCi

100,5 µCi

0,5 %

100,2 µCi

0,2 %

95,8 µCi

-4,2 %

4

100 µCi

106,3 µCi

6,3 %

103,3 µCi

3,3 %

102,3 µCi

2,3 %

Error [%]

Actividad

Error [%]

Tabla 9-2. Actividad total obtenida por imagen para cada una de las fuentes reconstruidas y por cada método de reconstrucción. Las fuentes se encontraban en aire.

Nº de

Actividad

CDRA-PC-H-RD

Teórica

Fuente

Actividad

CDRA-H-PD

Error

Actividad

[%]

Error [%]

CDRA-H-PD - Siddon Actividad

Error [%]

6

100 µCi

126,3 µCi

26,3 %

123,6 µCi

23,6 %

124,6 µCi

24,6 %

14

100 µCi

123,9 µCi

23,9 %

119,7 µCi

19,7 %

120,6 µCi

20,6 %

8

100 µCi

122,1 µCi

22,1 %

117,5 µCi

17,5 %

119,8 µCi

19,8 %

3

100 µCi

123,0 µCi

23,0 %

123,3 µCi

23,3 %

119,2 µCi

19,2 %

17

100 µCi

125,3 µCi

25,3 %

123,0 µCi

23,0 %

120,7 µCi

20,7 %

4

100 µCi

116,8 µCi

16,8 %

118,4 µCi

18,4 %

123,0 µCi

23,0 %

Tabla 9-3. Actividad total obtenida por imagen para cada una de las fuentes reconstruidas y por cada método de reconstrucción. Las fuentes se encontraban en arena.

Con el propósito de mejorar la precisión de la cuantificación cuando hay presencia abundante de eventos de dispersión, se evaluó la utilización del método de la triple 311

ventana de energía descripto en capítulos anteriores. La sustracción de dispersión simple realizada en la generación del sinograma, solo elimina los eventos de dispersión provenientes de otros radioisótopos, mientras que la utilización de la triple ventana también sustrae los eventos de dispersión del mismo radioisótopo que caen dentro de la ventana de energía principal. En la Tabla 9-4 se muestran los resultados de cuantificación para las fuentes puntuales en arena aplicando dicho método de corrección, donde se utilizaron dos ventanas de energía de 10 keV a cada costado de la ventana principal. En los resultados obtenidos, se puede observar como el método de la triple ventana realiza una mejor corrección de eventos de dispersión, asegurando un error máximo menor que 15% y en promedio cercano al 5%. Nº de

Actividad

CDRA-PC-H-RD

Teórica

Fuente

Actividad

CDRA-H-PD

Error

Error

Actividad

[%]

[%]

CDRA-H-PD - Siddon Actividad

Error [%]

6

100 µCi

113,5 µCi

13,5 %

110,8 µCi

10,8 %

112,4 µCi

12,4 %

14

100 µCi

109,2 µCi

9,2 %

105,4 µCi

5,4 %

108,6 µCi

8,6 %

8

100 µCi

104,5 µCi

4,5 %

100,2 µCi

0,2 %

104,9 µCi

4,9 %

3

100 µCi

103,3 µCi

3,3 %

103,7 µCi

3,7 %

105,6 µCi

5,6 %

17

100 µCi

104,0 µCi

4,0 %

102,0 µCi

2,0 %

104,5 µCi

4,5 %

4

100 µCi

104,8 µCi

4,8 %

106,8 µCi

6,8 %

110,2 µCi

10,2 %

Tabla 9-4. Actividad total obtenida por imagen para cada una de las fuentes en arena reconstruidas y por cada método de reconstrucción, para los sinogramas corregidos con el método de la triple ventana.

9.1.2. Cuantificación en Fantomas con 137Cs El mismo análisis que para las fuentes puntuales se realizó para los fantomas de Cilindro Uniforme en Arena, Múltiples Fuentes Puntuales en Aire y en Arena, y el Fantoma de Resolución Espacial para las fuentes de

137

Cs. Estos fantomas fueron

descriptos en el Capítulo 8. El fantoma cilíndrico y el de resolución espacial se procesaron tanto en su versión de segmento de espesor despreciable como con 100 mm de altura. Los resultados para los fantoma de espesor despreciable se encuentran en la Tabla 9-5. Los resultados fueron similares a los obtenidos en 9.1.1, para el fantoma en aire el error fue mínimo, mientras que para los fantomas en arena hubo una sobrestimación de la actividad de alrededor del 20%, que bajó a menos del 5% cuando los sinogramas se corrigieron con el método de la triple ventana.

312

CDRA-PC-H-RD

Fantoma

CDRA-H-PD

Actividad Teórica Actividad

Error [%]

Actividad

Error [%]

CDRA-H-PD Siddon Actividad

Error [%]

Cilindro Uniforme en

10 mCi

11,60 mCi

15,9 %

11,97 mCi

19,7 %

12,01 mCi

20,1 %

1,7 mCi

1,66 mCi

2,1 %

1,68 mCi

0,6 %

1,70 mCi

0,0 %

1,7 mCi

2,02 mCi

18,6 %

2,02 mCi

18,6 %

1,96 mCi

15,3 %

1,7 mCi

1,67 mCi

-1,7 %

1,68 mCi

-1,1 %

1,68 mCi

-1,1 %

4,77 mCi

5,77 mCi

20,8 %

5,78 mCi

21,1 %

5,57 mCi

16,7 %

4,77 mCi

4,97 mCi

4,2 %

4,99 mCi

4,7 %

5,07 mCi

6,3 %

Arena Múltiples Fuentes Puntuales en Aire Múltiples Fuentes Puntuales en Arena Múltiples Fuentes Puntuales en Arena y Triple Ventana Fantoma de Resolución Espacial Fantoma de Resolución Espacial y Triple Ventana Tabla 9-5. Actividad total obtenida por imagen para cada uno de los fantomas de espesor despreciables reconstruidas y por cada método de reconstrucción. Las fuentes se encontraban en arena.

En la Tabla 9-6 se muestra el resultado para los fantomas de 100 mm de altura. En todos los casos, los sinogramas utilizados fueron los corregidos por el método de la triple ventana de energía. En los valores obtenidos se puede observar que con CDRA-PC-H-RD el error es por exceso mientras que con CDRA-H-PD es por defecto, pero en ambos casos el error se mantiene en niveles similares que en los fantomas de espesor despreciable.

313

CDRA-PC-H-RD

Fantoma

CDRA-H-PD

CDRA-H-PD - Siddon

Actividad Teórica

Actividad

Error [%]

Actividad

Error [%]

Error

Actividad

[%]

Cilindro Uniforme en

10 mCi

10,82 mCi

8,2 %

9,36 mCi

-6,4 %

9,38 mCi

-6,2 %

4,775 mCi

4,74 mCi

0,6 %

4,08 mCi

-14,4 %

3,85 mCi

-19,2 %

Arena Fantoma de Resolución Espacial Tabla 9-6. Actividad total obtenida por imagen para cada uno de los fantomas de 100 mm de altura reconstruidas y por cada método de reconstrucción. Las fuentes se encontraban en arena.

9.1.3. Cuantificación en Fantomas con 60Co En el fantoma de resolución espacial el fondo es de 60Co, por lo que se debe analizar la cuantificación para la energía de este radioisótopo que genera un cambio en la atenuación en el medio y en la eficiencia de detección del cristal de NaI(Tl). El primero de los factores es considerado en los proyectores de reconstrucción mediante el coeficiente de atenuación lineal para la energía dada, mientras que el segundo se puede estimar a partir de las curvas de eficiencia del fabricante del detector [190]. De esta forma, utilizando el fantoma de calibración de

137

Cs en aire,

se puede hacer la cuantificación para la energía del pico de 1332 keV de

60

Co. El

coeficiente de atenuación lineal utilizado para arena en dicha energía es de 0,081 1/cm [191]. CDRA-PC-H-RD

Fantoma

CDRA-H-PD

Actividad Teórica Actividad

Error [%]

Actividad

Error [%]

CDRA-H-PD Siddon Actividad

Error [%]

Fantoma Resolución Espacial de Espesor

5,86 mCi

4,66 mCi

-19,6 %

5,44 mCi

-2,6 %

5,44 mCi

-6,2 %

5,86 mCi

5,85 mCi

0,9 %

6,31 mCi

11,6 %

6,29 mCi

8,8 %

Despreciable Fantoma Resolución Espacial de 100 mm de Espesor Tabla 9-7. Resultados de cuantificación para fondo de 60Co en fantoma de Resolución Espacial.

314

La eficiencia de un detector de 2 pulgadas de profundidad es de 77% para 662 keV y 60% para 1332 keV. Por esta razón, al proceso de cuantificación se agrega un nuevo factor multiplicativo que corrige la eficiencia del detector para los distintos rangos de energía. En este caso el factor es 77/60.

9.2.

Análisis de Resolución Espacial

El análisis de la resolución espacial se realiza utilizando dos métodos distintos. En uno de ellos se utilizan simulaciones de fuentes puntuales en distintas zonas del FOV y para cada una de ellas se efectúa la reconstrucción tomográfica, de donde se obtiene la resolución en FWHM de la fuente puntual reconstruida. En el segundo método, se utiliza el fantoma de Resolución Espacial descripto en el Capítulo 8, y para cada fuente distribuida se obtiene la recuperación de contraste respecto del fondo.

9.2.1. Análisis con Fuentes Puntuales Para este análisis se reprocesó la simulación del fantoma de Múltiples Fuentes Puntuales en aire, pero en este caso se procesó cada fuente de forma individual. Las fuentes analizadas son las mismas que para el análisis de cuantificación (Tabla 9-1), de esta forma se puede analizar la resolución espacial en distintas zonas del FOV. Esto es importante, ya que en las tomografías de fotón único la resolución espacial se degrada a medida que nos acercamos al centro del FOV. Los sinogramas obtenidos se reconstruyeron utilizando el algoritmo MLEM descripto en el capítulo anterior. Sobre la base de los resultados obtenidos en el mismo, se utilizan los proyectores CDRA-PC-H-RD y CDRA-H-PD de forma apareada, la combinación de CDRA-H-PD como proyector y Siddon como retroproyector, y finalmente el proyector Siddon apareado. Para diferenciar entre la influencia del algoritmo de reconstrucción y las limitaciones propias del sistema, las reconstrucciones también se realizan con el método analítico de retroproyección filtrada (FBP) [62]. De este modo se puede analizar la resolución espacial del sistema y la influencia del algoritmo de reconstrucción. En cada una de las imágenes generadas se obtiene el FWHM de cada fuente

315

reconstruida, que se calcula sobre dos ejes perpendiculares, uno en dirección desde la fuente al centro del FOV y otro perpendicular al mismo. Esto se logra rotando todas las imágenes de forma que queden centradas sobre el eje x. Con la imagen rotada, se obtienen dos cortes de la imagen en los ejes x e y, y luego se ajusta una curva gaussiana sobre el mismo (ver Figura 9.1). El ajuste se realiza por cuadrados mínimos con MATLAB. El desvío estándar de dicha gaussiana brinda la resolución espacial en cada eje y se puede convertir en FWHM multiplicando por 2,35.

Figura 9.1. Dos ejemplos del ajuste de una gaussiana en corte sobre el eje Y de la imagen reconstruida para la fuente 8. A la izquierda para la imagen reconstruida con MLEM y CDRA-H-PD como proyector-retroproyector, y a la derecha con retroproyección filtrada.

En la Tabla 9-8 se encuentran los resultados obtenidos para el corte en x de cada imagen reconstruida, mientras que en la Tabla 9-9 están los del corte en y. A modo de ejemplo, en la Figura 9.2 se pueden visualizar las imágenes obtenidas con los métodos de reconstrucción evaluados para la fuente Nº 6. FWHM [mm] en X

Nº de Fuente

CDRA-PC-H-RD

CDRA-H-PD

6

36,4

47,1

14

35,2

8

CDRA-H-PD -

Siddon

FBP

49,9

98,0

105,4

44,5

37,7

94,9

100,2

33,2

41,3

42,4

90,2

93,8

3

34,5

42,3

46,7

93,1

99,6

17

33,9

42,8

35,7

86,7

100,8

4

33,6

42,8

42,7

101,7

93,1

Siddon

Tabla 9-8. FWHM obtenido en el corte por el eje X para la reconstrucción de distintas fuentes puntuales con distintos métodos de reconstrucción.

316

FWHM [mm] en Y

Nº de Fuente

CDRA-PC-H-RD

CDRA-H-PD

6

35,5

44,8

14

34,8

8

CDRA-H-PD -

Siddon

FBP

49.7

99,0

103,9

43,9

43,3

93,7

100,0

35,3

44,4

41,7

97,1

102,6

3

26,7

32,3

42,6

64,1

67,4

17

27,6

33,9

37,6

66,3

70,9

4

22,1

30,2

35,4

54,4

50,2

Siddon

Tabla 9-9. FWHM obtenido en el corte por el eje Y de las fuentes reconstruidas.

Figura 9.2. Imágenes reconstruidas de fuente en el centro del FOV utilizando distintos métodos. a) FBP. b) MLEM con CDRA-PC-H-RD como proyector y retroproyector. c) MLEM con CDRA-H-PD como proyector y retroproyector. d) MLEM con CDRA-H-PD como proyector y Siddon como retroproyector. e) MLEM con Siddon como proyector y retroproyector.

En los resultados presentados queda claramente expuesta la mejora considerable en la resolución espacial cuando se utiliza un algoritmo de reconstrucción iterativo con un proyector que modela adecuadamente el proceso de adquisición. La imagen de una fuente que se encuentra en el centro del FOV tiene un FWHM de 105,45 en x y 103,97 en y cuando se la reconstruye con FBP; mientras que el mismo sinograma reconstruido con MLEM con CDRA-PC-H-RD como proyector-retroproyector genera una imagen con un FWHM de 36,48 en x y 35,53 en y, lo cual implica una mejora de más de 2 veces en la resolución de la imagen. En referencia a la variación de la resolución espacial con la posición en el FOV, se observa que la resolución en el eje x (eje que una la fuente con el centro del FOV) se mantiene prácticamente constante (Figura 9.3), mientras que en el eje y la resolución espacial empeora a medida que la fuente se acerca al centro del FOV (Figura 9.4). Esto último era esperado, ya que el centro del FOV es la zona con menor resolución en un sistema SPECT.

317

Figura 9.3. Resolución espacial en FWHM en el eje x a lo largo del FOV para distintos métodos de reconstrucción.

Figura 9.4. Resolución espacial en FWHM en el eje y a lo largo del FOV para distintos métodos de reconstrucción.

9.2.2. Análisis con Fantoma de Resolución Espacial El fantoma de Resolución Espacial cuenta con fuentes distribuidas en vez de puntuales. En este caso la resolución espacial se analiza obteniendo el valor medio de intensidad en una región de interés (ROI) y comparándola con un valor de referencia esperado. Por efecto de volumen parcial, la intensidad dentro de la ROI tenderá a disminuir a medida que el tamaño de la fuente se acerca a la resolución espacial del sistema. El ensayo simulado se asemeja al de calidad de imagen definido en la norma NEMA NU-2001 para tomografía por emisión de positrones. En él se busca obtener como parámetros de resolución y calidad de imagen la 318

recuperación de contraste en las imágenes reconstruidas. En el caso de tomografía para residuos radiactivos, se propone aquí como parámetro de evaluación la recuperación de contraste con más de un radioisótopo para lograr un análisis más completo. Las varillas del fantoma son de

137

Cs, mientras que el fondo es de

60

Co.

La recuperación de contraste se define como:

(9.1)

donde

es la concentración de actividad medida en la varilla j,

concentración de actividad medida en el fondo, teórica de cada varilla y

es la

es la concentración de actividad

la del fondo. La relación

es fija para todas las

varillas, y en las simulaciones realizadas fue de 4.

Figura 9.5. Imágenes reconstruidas solapadas con las máscaras donde se evaluaron las concentraciones de actividad. A la izquierda la imagen para 137Cs y a la derecha la de 60Co.

Se realizó la reconstrucción calibrada en actividad del fondo de 60Co y de las fuentes de 137Cs. Luego se obtuvieron los valores medios de actividad de cada varilla a partir de ROIs con las posiciones teóricas de las mismas y con un diámetro del 80% del real. Por otro lado, la concentración de actividad del fondo se obtuvo a partir de una ROI teórica de la fuente de fondo pero reducida en un 20% su diámetro y todas sus

319

circunferencias internas. En la Figura 9.5 se muestran las imágenes reconstruidas para cada radioisótopo, solapadas con las ROIs utilizadas. En la Tabla 9-10 se encuentran los valores medios en µCi/píxel en las ROIs utilizadas para las 15 varas y el fondo del fantoma de Resolución Espacial con 100 mm de espesor. A partir de dichos valores se calculan los valores de recuperación de contraste para cada uno de las varas. Los mismos se encuentran en la Tabla 9-11. Varilla

CDRA-PC-H-RD [µCi/Píxel]

CDRA-H-PD [µCi/Píxel]

CDRA-H-PD – Siddon

FBP

[µCi/Píxel]

[µCi/Píxel]

1

11,10

10,63

10,10

19,92

2

10,80

9,59

8,49

11,90

3

8,63

8,55

7,63

6,77

4

3,01

3,59

2,48

7,58

5

7,41

6,70

5,57

12,45

6

7,34

7,03

5,97

11,68

7

5,37

5,63

5,49

8,02

8

5,19

5,74

5,95

7,99

9

2,13

2,16

1,71

5,58

10

1,50

1,69

1,18

4,23

11

2,87

3,02

1,94

5,90

12

2,83

2,75

2,16

5,47

13

4,17

4,48

3,68

8,38

14

1,84

2,80

3,26

7,02

15

4,14

4,20

3,21

9,70

Fondo

2,37

2,57

2,55

5,93

Tabla 9-10. Concentración de actividad en µCi por píxel en las distintas ROIs analizadas para el Fantoma de Resolución Espacial.

Los mismos resultados se obtuvieron para el fantoma de Resolución Espacial pero con altura despreciable (Tabla 9-12). En los dos ensayos, la reconstrucción con los proyectores Cono de Respuesta volvieron a mostrar mejores resultados en lo que hace a la resolución espacial. En este análisis se vuelve a verificar que la resolución espacial empeora en la zona central del campo de visión, ya que a varillas de un mismo diámetro se obtienen menores valores de recuperación de contraste cuando las mismas se posicionan cerca del centro.

320

CDRA-PC-H-RD

CDRA-H-PD

CDRA-H-PD – Siddon

1

117,3 %

103,6 %

99,0 %

84,0 %

2

114,0 %

93,5 %

83,2 %

50,2 %

3

91,2 %

83,3 %

74,8 %

28,5 %

4

31,8 %

34,9 %

24,3 %

31,9 %

5

78,2 %

65,3 %

54,6 %

52,5 %

6

77,5 %

68,5 %

58,4 %

49,3 %

7

56,7 %

54,9 %

53,8 %

33,8 %

8

54,8 %

55,9 %

58,3 %

33,7 %

9

22,5 %

21,0 %

16,8 %

23,5 %

10

15,8 %

16,5 %

11,6 %

17,8 %

11

30,3 %

29,4 %

19,0 %

24,9 %

12

29,9 %

26,8 %

21,2 %

23,1 %

13

44,1 %

43,7 %

36,1 %

35,4 %

14

19,5 %

27,3 %

31,9 %

29,6 %

15

43,7 %

40,9 %

31,5 %

40,9 %

Varilla

FBP

Tabla 9-11. Valores de recuperación de contraste para el Fantoma de Resolución Espacial con 100 mm de altura. Varilla

CDRA-PC-H-RD

CDRA-H-PD

CDRA-H-PD – Siddon

1

166,4 %

113,9 %

101,4 %

86,3 %

2

156,6 %

99,2 %

82,6 %

45,6 %

3

109,2 %

71,5 %

59,9 %

23,3 %

4

36,6 %

35,6 %

33,4 %

35,8 %

5

114,5 %

76,2 %

63,0 %

53,0 %

6

108,9 %

74,1 %

71,8 %

51,9 %

7

74,5 %

55,0 %

44,4 %

28,7 %

8

75,0 %

56,5 %

55,3 %

32,2 %

9

34,6 %

27,9 %

23,5 %

25,5 %

10

24,0 %

23,3 %

16,1 %

25,3 %

11

45,3 %

32,5 %

29,9 %

28,6 %

12

39,4 %

30,6 %

27,6 %

24,6 %

13

58,0 %

44,6 %

33,1 %

34,0 %

14

28,2 %

29,3 %

25,8 %

26,7 %

15

52,0 %

40,8 %

35,0 %

39,8 %

FBP

Tabla 9-12. Valores de recuperación de contraste para el Fantoma de Resolución Espacial con altura despreciable.

9.3.

Sensibilidad

La sensibilidad del tomógrafo de residuos radiactivos se obtendrá de la mínima actividad que puede tener una fuente puntual para ser reconstruida en una imagen e 321

identificada de forma adecuada. El principal factor que influye en la posibilidad de detectar una fuente es la radiactividad en el ambiente, la cual hace que el nivel del fondo sea comparable con el de la fuente cuando esta última es de muy baja actividad. Por lo tanto, para realizar este análisis se realizaron simulaciones con fuentes puntuales de distinta actividad y con una fuente de fondo. Se utilizaron fuentes puntuales de 3 radioisótopos distintos para cubrir un rango amplio de energías:

133

Ba, con decaimiento por captura electrónica con emisiones gamma en

energías que van desde 53 keV hasta 383 keV, teniendo la transición más dominante en 356 keV con el 62% de las emisiones gamma totales;

137

Cs y

60

Co, cuyos

decaimientos radiactivos ya han sido descriptos previamente. Para cada radioisótopo se realizaron simulaciones del AR-TGS completo, con la fuente puntual en fantoma de arena y de aire. Se simularon fuentes con actividades de 1 mCi, 100 µCi, 50 µCi, 20 µCi, 10 µCi, 5 µCi, 2 µCi, 1 µCi y 0,1 µCi. En estas simulaciones, cada uno de los radioisótopos se modeló de forma completa y precisa.

Figura 9.6. Histograma de energías de fuente de 133Ba utilizada en la simulación. La intensidad de cada emisión gamma es relativa por cada decaimiento.

Para la fuente de

137

Cs se tuvo en cuenta su braching ratio (0,851) y la emisión de

rayos X en el rango de 4-38 keV. Por otro lado, para la fuente de 133Ba se tuvieron en cuenta todas las emisiones características de dicho radioisótopo, de las cuales se destaca la de 356 keV. En la Figura 9.6 se encuentra el histograma de emisión simulado. Las fuentes se localizaron en distintas zonas según el radioisótopo: la de 137

Cs en (-150; 0) mm, la de 133Ba en (0; -150) mm y la de 60Co en (0; 150) mm.

322

En todas las simulaciones se agregó la fuente de fondo, que fue la misma para todas las simulaciones.

9.3.1. Fuente de Fondo Las características de la fuente de fondo fueron obtenidas de mediciones reales en la instalación donde funcionará el AR-TGS. Con un detector de idénticas características al que se utilizará en el equipo tomográfico, e incluyendo el blindaje, se midió un espectro de energías y se obtuvo la tasa de cuentas por segundo para cada canal de energía. En la Figura 9.7 se puede visualizar el espectro de la medición adquirida.

Figura 9.7. Espectro de energía adquirido con un detector en la instalación donde funcionará el ARTGS.

Luego, en GATE, se generó una fuente distribuida en todo el volumen de simulación, que produjera el mismo espectro y tasa de cuentas por canal. Para lograr esto se ajustó la actividad de la fuente por energía, de forma de tener la misma tasa de cuentas que se midió en el detector en cada canal de energía. Con estos datos, se pudo definir una fuente del tipo histograma en GATE, a la cual se le asigna un porcentaje de la actividad total a cada canal de energía. En la Figura 9.8 se encuentra el histograma en energías de la fuente de fondo generada.

323

Figura 9.8. Histograma de energías de la fuente de fondo definida en GATE.

La actividad total de la fuente de GATE necesaria para obtener la misma tasa de cuentas que en la medición fue de 148855 Bq. Esta fuente fue simulada en GATE con un único detector del AR-TGS y se contrastó con la medición realizada. Los resultados se ajustaron adecuadamente (ver Figura 9.9).

Figura 9.9. Comparación de ensayo simulado con la fuente de fondo estimada y la medición de fondo real realizada en las instalaciones de trabajo.

324

9.3.2. Generación de Sinogramas Se procesaron las simulaciones para cada radioisótopo y para cada nivel de actividad de fuente. En cada uno de estos casos, se generó un sinograma con las cuentas en ventana de energía. Para la fuente de

133

Ba se utilizó el pico dominante de 356 keV,

utilizando una ventana de energía entre 320 y 391 keV. Para

137

Cs y

60

Co se

utilizaron las mismas ventanas de energía que en las secciones anteriores. En la Figura 9.10 se pueden observar los sinogramas para 137Cs en aire, mientras que en la Figura 9.11 están los correspondientes a fantoma de arena. En las mismas se puede observar cómo la actividad de fondo genera sinogramas con un nivel alto de ruido para actividad menores de 1 µCi cuando la fuente está en aire, mientras que en arena el ruido se hace notorio a partir de los 5 µCi. Esto se debe a que el ruido tiene el mismo nivel en todos los casos, pero la fuente es atenuada en el fantoma de arena generando menos cuentas en ventana para una misma actividad.

Figura 9.10. Sinogramas para fuente de 137Cs en aire con distintos niveles de actividad y fuente de fondo de laboratorio. La actividad de la fuente de 137Cs es en cada caso de a) 1mCi, b) 100 µCi, c) 50 µCi, d) 20 µCi, e) 10 µCi, f) 5 µCi, g) 2 µCi, h) 1 µCi y i) 0,1 µCi.

325

Figura 9.11. Sinogramas para fuente de 137Cs en arena con distintos niveles de actividad y fuente de fondo de laboratorio. La actividad de la fuente de 137Cs es en cada caso de a) 1mCi, b) 100 µCi, c) 50 µCi, d) 20 µCi, e) 10 µCi, f) 5 µCi, g) 2 µCi, h) 1 µCi y i) 0,1 µCi.

En la Figura 9.12 y Figura 9.13 se encuentran los sinogramas para las fuentes de 133

Ba y 60Co respectivamente, ambas en arena. Por último, en la Tabla 9-13 se tiene

un resumen de las cuentas totales por sinograma para cada una de las simulaciones realizadas.

Figura 9.12. Sinogramas para fuente de 133Ba en arena con distintos niveles de actividad y fuente de fondo de laboratorio. La actividad de la fuente de 133Ba es en cada caso de a) 1mCi, b) 100 µCi, c) 50 µCi, d) 20 µCi, e) 10 µCi, f) 5 µCi, g) 2 µCi, h) 1 µCi y i) 0,1 µCi.

326

Figura 9.13. Sinogramas para fuente de 60Co en arena con distintos niveles de actividad y fuente de fondo de laboratorio. La actividad de la fuente de 60Co es en cada caso de a) 1mCi, b) 100 µCi, c) 50 µCi, d) 20 µCi, e) 10 µCi, f) 5 µCi, g) 2 µCi, h) 1 µCi y i) 0,1 µCi. 133

Actividad

Ba en

137

Cs en

60

Co en

133

Ba en

137

Cs en

60

Co en

Aire

Aire

Aire

Arena

Arena

Arena

[cuentas]

[cuentas]

[cuentas]

[cuentas]

[cuentas]

[cuentas]

0,1

733

949

789

722

929

824

1

1791

1756

1411

731

964

879

2

2979

2716

2123

804

1059

989

5

6542

5546

4281

1042

1353

1334

10

12475

10277

7881

1429

1863

1962

20

24333

19717

15092

2217

2902

3253

[µCi]

50

59902

48043

36741

4634

6054

7073

100

119200

95264

72815

8671

11310

13457

1000

1186500

945230

722200

81251

105850

128280

Tabla 9-13. Cuentas adquiridas en cada sinograma para cada radioisótopo y actividad de fuente.

9.3.3. Reconstrucción de Imágenes Se reconstruyeron los sinogramas para cada una de las simulaciones realizadas con los distintos métodos de reconstrucción analizados: MLEM con CDRA-PC-H-RD como proyector y retroproyector, MLEM con CDRA-H-PD como proyector y retroproyector, MLEM con CDRA-H-PD como proyector y Siddon como retroproyector, MLEM con Siddon Atenuado como proyector y retroproyector, y por último, con el método analítico de retroproyección filtrada. Las imágenes obtenidas para las fuentes en aire se comienzan a degradar a partir de 2 µCi para 133Ba y 137Cs, en cambio para 60Co esto ya se observa con 5 µCi (ver Figura 9.14). Esto se debe a que para los gamma de alta energía emitidos por este radioisótopo, el poder de

327

frenado del cristal de NaI(Tl) se reduce considerablemente y como consecuencia las cuentas obtenidas en el sinograma son menores. En las imágenes se puede observar cómo los métodos de reconstrucción que utilizan MLEM con proyectores del tipo Cono de Respuesta son mucho más robustos frente al ruido, pudiendo identificar las fuentes hasta el caso de mínima actividad de 0,1 µCi (Figura 9.18). Esto último no lo pueden lograr los métodos que utilizan Siddon ni el método analítico. Para las imágenes de

133

Ba con 0,1 µCi todos los métodos pueden identificar las fuentes,

pero con distintos niveles de ruido.

Figura 9.14. Imágenes reconstruidas para fuente 60Co de actividades de 0,1 µCi a 5 µCi en aire, utilizando distintos métodos. Las imágenes están divididas por actividad en las filas y por métodos de reconstrucción en las columnas. Estos son: a) MLEM con CDRA-PC-H-RD como proyector y retroproyector. b) MLEM con CDRA-H-PD como proyector y retroproyector. c) MLEM con CDRAH-PD como proyector y Siddon como retroproyector. d) MLEM con Siddon Atenuado como proyector y retroproyector. e) FBP.

328

Figura 9.15. Imágenes reconstruidas para fuente 133Ba de actividades de 0,1 µCi a 5 µCi en aire, utilizando distintos métodos. a) MLEM con CDRA-PC-H-RD - CDRA-PC-H-RD. b) MLEM con CDRA-H-PD - CDRA-H-PD. c) MLEM con CDRA-H-PD - Siddon. d) MLEM con Siddon - Siddon. e) FBP.

Por otro lado, para las simulaciones con fantoma de arena, como era esperado, se obtuvieron imágenes más ruidosas (Figura 9.16 para 133Ba, Figura 9.17 para 137Cs y Figura 9.18 para

60

Co). En estos casos, no hubo grandes diferencias entre las

imágenes de distintos radioisótopos, ya que se compensa la menor capacidad de detección de los gamma de mayor energía con un mayor poder de penetración a través del fantoma. En lo que hace a los métodos de reconstrucción, nuevamente el algoritmo MLEM con los proyectores del tipo Cono de Respuesta logra imágenes muy superiores a la de los otros métodos. Se pueden identificar las distintas fuentes puntuales en prácticamente todos los casos, y solo se observan algunos pequeños artíficos en las simulaciones de actividad de µCi y 0,1 µCi. Las únicas imágenes que muestran un ruido y artificios considerables son las de fuente de 0,1 µCi de

60

Co.

Sin embargo, para los otros métodos de reconstrucción las imágenes no son satisfactorias a partir de los 5 µCi. En ellas se observan grandes niveles de ruido y 329

muchos artificios que hacen que sea dificultosa la correcta interpretación de las imágenes.

Figura 9.16. Imágenes reconstruidas para fuente 133Ba de actividades de 0,1 µCi a 5 µCi en arena, utilizando distintos métodos. a) MLEM con CDRA-PC-H-RD - CDRA-PC-H-RD. b) MLEM con CDRA-H-PD - CDRA-H-PD. c) MLEM con CDRA-H-PD - Siddon. d) MLEM con Siddon - Siddon. e) FBP.

Figura 9.17. Imágenes reconstruidas para fuente 137Cs de actividades de 0,1 µCi a 5 µCi en arena, utilizando distintos métodos. a) MLEM con CDRA-PC-H-RD - CDRA-PC-H-RD. b) MLEM con CDRA-H-PD - CDRA-H-PD. c) MLEM con CDRA-H-PD - Siddon. d) MLEM con Siddon - Siddon. 330

e) FBP.

Figura 9.18. Imágenes reconstruidas para fuente 60Co de actividades de 0,1 µCi a 5 µCi en arena, utilizando distintos métodos. a) MLEM con CDRA-PC-H-RD - CDRA-PC-H-RD. b) MLEM con CDRA-H-PD - CDRA-H-PD. c) MLEM con CDRA-H-PD - Siddon. d) MLEM con Siddon - Siddon. e) FBP.

9.3.4. Cuantificación de Actividad La reconstrucción de imagen fue acompañada del proceso de cuantificación de actividad definido en 9.1. Para la fuente de 133Ba se aplicó un factor de corrección de 100/62, con el objeto de compensar la intensidad relativa del fotopico utilizado. En la Tabla 9-14 y Tabla 9-15 se exponen los valores de actividad total de cada imagen para los métodos MLEM con CDRA-PC-H-RD – CDRA-PC-H-RD y con CDRAPD – CDRA-PD, respectivamente. En las mismas se puede observar que los valores de cuantificación se encuentran dentro de un rango aceptable y los errores relativos máximos alcanzan el 20% como en otros ensayos realizados. El error aumenta cuando el nivel de ruido de fondo es considerable, lo que se da para actividades menores a 2 µCi.

331

133

Actividad

Ba en

137

Cs en

60

Co en

133

Ba en

137

Cs en

60

Co en

Aire

Aire

Aire

Arena

Arena

Arena

[µCi]

[µCi]

[µCi]

[µCi]

[µCi]

[µCi]

0,1

0,6

0,7

0,7

2,5

1,9

1,6

1

1,6

1,4

1,5

2,5

2,4

2,0

2

2,8

2,3

2,4

3,2

3,6

2,7

5

6,1

4,8

5,2

7,4

6,4

5,3

10

11,5

8,9

9,9

11,6

11,5

9,4

20

22,3

17,4

19,2

20,9

21,2

16,9

50

54,7

41,9

47,3

53,4

51,9

40,6

100

108,5

83,0

94,3

107,9

101,8

80,6

1000

1076,7

820,4

935,0

1044,1

999,6

797,6

[µCi]

Tabla 9-14. Actividades obtenidas en las imágenes reconstruidas con MLEM con CDRA-PC-H-RD – CDRA-PC-H-RD. 133

Actividad

Ba en

137

Cs en

60

Co en

133

Ba en

137

Cs en

60

Co en

Aire

Aire

Aire

Arena

Arena

Arena

[µCi]

[µCi]

[µCi]

[µCi]

[µCi]

[µCi]

0,1

0,5

0,6

0,6

2,4

1,8

1,8

1

1,5

1,4

1,4

2,5

2,4

2,2

2

2,8

2,2

2,3

3,1

3,5

2,9

5

5,9

4,8

5,1

6,7

6,3

5,7

10

11,5

9,2

9,9

10,9

11,9

10,3

20

22,4

17,9

19,1

19,7

21,2

18,9

[µCi]

50

55,4

44,0

47,2

51,0

52,8

45,8

100

109,9

87,3

94,1

102,9

103,9

90,7

1000

1093,7

870,0

933,2

1004,2

1038,6

899,8

Tabla 9-15. Actividades obtenidas en las imágenes reconstruidas con MLEM con CDRA-PD – CDRA-PD.

En resumen, se pudo analizar la sensibilidad del sistema a través de la mínima actividad detectable, simulando la actividad de fondo de una instalación de gestión de residuos radiactivos. Con los métodos de reconstrucción propuestos en esta tesis, se pueden obtener imágenes satisfactorias para fuentes de 1 µCi y 0,1 µCi, a diferencia del límite mostrado por los otros métodos de reconstrucción en aproximadamente 5 µCi. Esto demuestra que la utilización de un algoritmo de reconstrucción adecuado también permite mejorar la sensibilidad del sistema tomográfico.

332

9.4.

Separación de Radioisótopos

En esta sección se evaluará la capacidad de generar imágenes en ensayos con múltiples radioisótopos. Esto ya fue parcialmente demostrado con la utilización del fantoma de Resolución Espacial con varas con fuentes de 137Cs y fondo uniforme de 60

Co. A los efectos de profundizar dicho análisis se simularon ensayos con un

fantoma con una fuente puntual de 133Ba, una de 137Cs y otra de 60Co. Las mismas se ubicaron en la misma posición que para el análisis de sensibilidad (ver 9.3). Los ensayos simulados fueron para fuentes con actividades de 1 µCi, 10 µCi y 100 µCi, tanto en fantoma de aire como de arena.

9.4.1. Generación de Sinogramas Se generó un sinograma por cada radioisótopo utilizando tres ventanas de energía. Además se generaron sinogramas de sustracción de radiación dispersa para compensar la gran influencia que tiene la radiación dispersa proveniente de los radioisótopos de mayor energía en las ventanas de energía de cada radioisótopo. Este efecto indeseado se hace más notable en el fantoma con arena y se puede observar en el histograma de energías de los ensayos realizados (Figura 9.19). El método de sustracción de radiación dispersa es el mismo al descripto en 8.1. En la Figura 9.20 se pueden observar los sinogramas involucrados en este proceso para el procesamiento en ventana de energía de 133Ba. En la imagen a) correspondiente a la ventana de energía de

133

Ba se ve claramente como el sinograma está formado no

solo por las emisiones provenientes de la fuente de proveniente de las de

137

Cs y

60

Ba sino que también

Co. En b) se presenta el sinograma de ventana

desplazada, donde hay radiación dispersa proveniente de 133

133

137

Cs y 60Co pero ya no de

Ba. Y finalmente en c), como resultado de la resta de los dos sinogramas

anteriores, se encuentra el sinograma para

133

ampliamente atenuado.

333

Ba con el ruido por radiación dispersa

Figura 9.19. Histogramas de energías de simulación de ensayo con 3 fuentes de todas de 1 mCi.

133

Ba,

137

Cs y 60Co,

Figura 9.20. Corrección de sinogramas por radiación dispersa utilizando sustracción de sinograma con ventana de energía desplazada. a) Sinograma adquirido para ventana de energía de 133Ba. b) Sinograma de radiación dispersa adquirido en ventana desplazada. c) Sinograma resultante de la resta de a) y c).

Se generaron los sinogramas para cada radioisótopo para los ensayos con fuentes de 1 µCi, 10 µCi y 100 µCi (Figura 9.21). Se reconstruyó cada uno de ellos con los mismos métodos utilizados a lo largo de este capítulo. Luego se los calibró en actividad y se generó una imagen compuesta de los tres radioisótopos. Estos resultados se encuentran en la Figura 9.22.

334

Figura 9.21. Sinogramas generados para la simulación con tres fuentes puntuales de 133Ba, 137Cs y 60 Co en fantoma de arena y corregidos por radiación dispersa. Los mismos se encuentran separados en filas por la actividad de las fuentes del ensayo, y en las columnas por la ventana utilizada dentro del mismo ensayo.

Figura 9.22. Imagen compuesta de los tres radioisótopos reconstruidos para distintos niveles de

335

actividad y métodos de reconstrucción. a) MLEM con CDRA-PC-H-RD - CDRA-PC-H-RD. b) MLEM con CDRA-H-PD - CDRA-H-PD. c) MLEM con CDRA-H-PD – Siddon. d) MLEM con Siddon Atenuado – Siddon Atenuado. e) FBP.

A manera de resumen final, se ha verificado la posibilidad de reconstruir fuentes de distintos radioisótopos a pesar de la baja resolución en energía de los detectores de NaI(Tl) y el método sencillo de sustracción de radiación dispersa utilizado. Para lograr esto los radioisótopos presentes deben estar lo suficientemente separados en energía y aplicar un método de sustracción de radiación dispersa de los radioisótopos de mayor energía. Nuevamente los métodos de reconstrucción basados en los proyectores del tipo Cono de Respuesta muestran una mejora importante en los resultados.

9.5.

Datos de Mediciones Reales

Con el objetivo de complementar y validar parte de los resultados de simulación obtenidos, el grupo de Instrumentación y Control construyó un prototipo del ARTGS. El mismo consta de una plataforma rotatoria con control de posición angular, un único bloque detector y un software de adquisición (ver Figura 9.23). El mismo está formado por un detector 2M2 de Saint-Gobain, la electrónica para Multicanal asociada y un colimador de plomo como el que se describió en la sección 7.3.1. Los distintos componentes del bloque detector pueden observarse en la Figura 9.24. Además se cuenta con un fantoma de un segmento cilíndrico de 300 mm de radio y 200 mm de altura. Se realizaron mediciones con el fantoma relleno tanto de aire como arena, utilizando fuentes de

137

Cs de 100 µCi en su interior. Al no contar con

el movimiento de traslación continuo del detector, fue trasladado manualmente por 12 posiciones que barrieron todo el ancho del fantoma.

336

Figura 9.23. Prototipo para validación del sistema AR-TGS. Consta de un único bloque detector, una plataforma rotatoria, un software de adquisición y un fantoma de segmento.

Figura 9.24. Componentes del bloque detector: Módulo Electrónico de Multicanal, detector 2M2 de Saint-Gobain, blindaje para la parte trasera del detector, colimador con agujero de 20 mm diámetro y tubo para ensamble.

337

Con el prototipo descripto se realizaron cinco experimentos utilizando una o más de las tres fuentes puntuales selladas de 137Cs disponibles en el laboratorio, cada una de ellas de 100 µCi. Las mediciones realizadas fueron: 1. Una única fuente puntual centrada en el fantoma con arena. 2. Dos fuentes puntuales colocadas en la misma posición a 145 mm del centro del fantoma con arena. 3. Dos fuentes puntuales, una en el centro del fantoma con arena y otra alejada 7 cm. 4. Una fuente en el centro del fantoma con aire y dos fuentes juntas alejadas 150 mm. 5. Una fuente en el centro del fantoma con aire y dos fuentes juntas alejadas 125 mm.

9.5.1. Generación de Sinogramas Al contar con un único detector y sin la mecánica de traslación continua, el detector debió trasladarse de forma manual, posicionándolo en 12 posiciones continuas. Como consecuencia cada proyección angular quedó formada por 12 muestras, en vez de las 60 con las que se contaba para el movimiento continuo. Por esta razón y para poder usar los mismos algoritmos de reconstrucción que para los datos de simulación, se escalaron los sinogramas al tamaño de 60x60 mediante una interpolación bilineal. En la Tabla 9-16 se encuentran los tiempos de adquisición y los eventos adquiridos en cada una de las mediciones descriptas anteriormente. En todos los casos se midieron doce vueltas de rotación por cada posición del detector. La variación en los tiempos de adquisición se debe a diferencias en el ajuste de velocidad de la plataforma rotatoria.

338

Nº de Medición

Tiempo de Adquisición

Eventos Adquiridos

1

4028 s

10412 cuentas

2

3989 s

31803 cuentas

3

3893 s

22019 cuentas

4

6120 s

279582 cuentas

5

5688 s

29788 cuentas

Tabla 9-16. Tiempos de adquisición y eventos adquiridos en cada una de las cinco mediciones realizadas con el prototipo del AR-TGS.

En la Figura 9.25 se visualizan los sinogramas adquiridos y los escalados para las mediciones 2 y 4, la primera con una fuente puntual en arena y la segunda con dos fuentes en aire.

Figura 9.25. En las dos imágenes superiores se encuentran los sinogramas adquiridos para las mediciones 2 (Izq.) y 4 (Der.). En la parte inferior se encuentran los sinogramas escalados a un tamaño de 60x60 mediante interpolación bilineal.

9.5.2. Reconstrucción de Mediciones Se reconstruyeron los sinogramas de las mediciones descriptas previamente utilizando el algoritmo iterativo MLEM utilizando los proyectores CDRA-PC-H-RD y CDRA-H-PD de forma apareada. Las imágenes obtenidas fueron comparadas con reconstrucciones con MLEM con CDRA-H-PD como proyector y Siddon como retroproyector, MLEM con proyector de Siddon apareado y finalmente con retroproyección filtrada (FBP). En la Figura 9.26 se encuentran todas las imágenes reconstruidas ordenadas por fila para cada medición y en las columnas los métodos

339

de reconstrucción. En ellas se puede verificar la mejor resolución espacial de las imágenes reconstruidas con MLEM y los proyectores Cono de Respuesta. Además, se observa una mayor inmunidad al ruido y no aparecen artificios como en las imágenes reconstruidas con Siddon como proyector o con retroproyección filtrada.

Figura 9.26. Imágenes reconstruidas para cada medición. En las filas de arriba hacia abajo se encuentran las imágenes para las mediciones desde 1 a 5. Las imágenes a), b), c) y d) fueron reconstruidas con MLEM utilizando los proyectores CDRA-PC-H-RD apareado, CDRA-H-PD apareado, combinación CDRA-H-PD – Siddon y Siddon apareado, respectivamente. Las imágenes e) fueron reconstruidas con el algoritmo analítico de retroproyección filtrada.

Para cuantificar la resolución espacial, realizamos el mismo análisis de la sección 9.2.1 para las mediciones 1 y 2. En él, se ajusta una gaussiana en dos cortes perpendiculares de la fuente reconstruida. En la Figura 9.27 se encuentra un corte sobre el eje X, que cruza por el centro de la imagen, de las imágenes reconstruidas

340

para la medición 2. Es para cada uno de esos cortes que se ajusta una gaussiana.

Figura 9.27. Corte sobre el eje X de las imágenes reconstruidas para la medición 2.

El FWHM de cada gaussiana ajustada se presenta en la Tabla 9-17 para el corte en X, que cruza por el centro de la imagen, y la Tabla 9-18 para el corte en Y, desplazado del centro de la imagen. En dichos resultados se vuelve a verificar la mejora de resolución en casi 3 veces del método propuesto respecto de la retroproyección filtrada. Sin embargo, todos los valores de FWHM son considerablemente mayores respecto de los datos de simulación. Esto era de esperarse, ya que los sinogramas adquiridos tienen una menor resolución espacial (12 muestras por proyección contra 60 en simulación) y, por otro lado, no se contó con herramientas de precisión para la alineación de las posiciones de los detectores. FWHM [mm] en X

Nº de Medición

CDRA-PC-H-RD

CDRA-H-PD

1

61,6

72,6

2

51,1

57,1

CDRA-H-PD -

Siddon

FBP

97,6

146,6

144,3

62,5

131,1

142,4

Siddon

Tabla 9-17. FWHM sobre el eje X de las fuentes reconstruidas para la mediciones 1 y 2.

FWHM [mm] en Y

Nº de Medición

CDRA-PC-H-RD

CDRA-H-PD

1

56,3

65,9

2

40,9

49,5

CDRA-H-PD -

Siddon

FBP

74,8

134,6

136,7

66,1

77,5

76,8

Siddon

Tabla 9-18. FWHM sobre el eje Y de las fuentes reconstruidas para la mediciones 1 y 2.

341

Otra forma de analizar la resolución espacial es observando la capacidad de separar dos fuentes puntuales que se encontraban cercanas. Este es el caso de las mediciones 3, 4 y 5. En las imágenes de la Figura 9.26, se podía observar que cuando las fuentes estaban separadas en 7 cm, ninguno de los métodos lograba separar claramente las dos fuentes reconstruidas. Para la medición 4 con las fuentes separadas en aire, las reconstrucciones con los proyectores del tipo Cono de Respuesta logran separar claramente las fuentes, mientras que con Siddon o con el algoritmo de retroproyección filtrada esto se logra parcialmente. Por último, en la medición 5 solo las reconstrucciones con los proyectores Cono de Respuesta logran separar las dos fuentes puntuales. Esto también se puede observar en la Figura 9.28, donde las imágenes se visualizan como superficies.

Figura 9.28. Visualización de las imágenes de la medición 5 como superficies. A la izquierda la reconstruida con CDRA-H-RD y a la derecha la reconstruida con FBP.

9.5.3. Cuantificación de Actividad A las imágenes reconstruidas de las mediciones realizadas se les aplicó el proceso de cuantificación de actividad descripto en 9.1. Los problemas de alineación que pudo haber en el posicionamiento de los detectores y el fantoma, hacen que esta cuantificación tenga una precisión acotada. Las actividades obtenidas se muestran en la Tabla 9-19. CDRA-PC-H-RD

CDRA-H-PD

CDRA-H-PD - Siddon

Nº de

Actividad

Medición

Teórica

Actividad

Error [%]

Actividad

Error [%]

Actividad

Error [%]

1

100 µCi

80,5 µCi

-19,5

65,2 µCi

-34,8

66,3 µCi

-33,7

2

100 µCi

137,0 µCi

37,0

115,7 µCi

15,7

107,0 µCi

7,0

3

200 µCi

318,2 µCi

59,1

247,1 µCi

23,5

239,5 µCi

19,8

4

300 µCi

329,5 µCi

9,8

320,5 µCi

6,8

319,8 µCi

6,6

5

300 µCi

479,8 µCi

59,9

375,1 µCi

25,0

359,9 µCi

19,9

Tabla 9-19. Actividades estimadas de cada una de las mediciones y el error relativa para cada una de ellas.

342

9.6.

Conclusión

En este capítulo se evaluó la resolución espacial, la sensibilidad, la capacidad de cuantificar actividad y la de medir múltiples radioisótopos del sistema tomográfico AR-TGS. Para ello se utilizaron simulaciones Monte Carlo de ensayos de 10 minutos de medición de distintos fantomas de segmento. Además, ciertos ensayos pudieron ser validados con mediciones reales utilizando un primer prototipo del ARTGS. En lo que hace a la cuantificación de actividad, las imágenes reconstruidas para fantomas en aire mostraron errores menores al 5% en la cuantificación. Sin embargo, cuando se utilizaron fantomas con arena este error creció a valores que fueron desde el 10% al 25% aproximadamente. El incremento del error en los fantomas de arena, se debe a la presencia de eventos de dispersión dentro de la ventana de energía. Esto fue resuelto con la implementación del método de corrección de dispersión de la triple ventana de energía, el cual redujo el error de cuantificación a un promedio de 5% en la mayoría de los casos y un máximo de 15%. Estos resultados verificaron la capacidad de cuantificar actividad con el tomógrafo, los algoritmos y el método de calibración propuestos. En lo que respecta a la resolución espacial, se realizaron dos ensayos distintos, uno para obtener el FWHM de fuentes puntuales reconstruidas y otro para obtener la recuperación de contraste de fuentes distribuidas. Para el primer caso, se obtuvo el FWHM en dos cortes perpendiculares en distintas posiciones del FOV, donde se verificó que sobre un eje la resolución espacial se mantiene constante, mientras que en el otro la resolución espacial empeora cuando la fuente se encuentra más cercana al centro del FOV. Se tomó como referencia del sistema la resolución espacial obtenida con el método analítico de reconstrucción (FBP), donde el FWHM fue de aproximadamente 105 mm x103 mm en el centro del FOV y de 93 mm x 50 mm en el borde del mismo. Con los métodos de reconstrucción propuestos en esta tesis se logró una importante recuperación de la resolución espacial. Con el algoritmo MLEM con proyector apareado CDRA-PC-H-RD, se obtuvo un FWHM de 36 mm x 35 mm en el centro del FOV y de 33 mm x 22 mm fuera del mismo. Mientras que con el proyector CDRA-H-PD se obtuvo 47 mm x 44 mm en el centro, y 42 mm x 343

30 mm en la periferia. Esto demuestra la gran importancia de los algoritmos de reconstrucción tomográfica en la resolución espacial de un sistema. El análisis de resolución espacial utilizando la recuperación de contraste también mostró una importante mejora cuando se utilizaron los métodos iterativos con los proyectores desarrollados en esta tesis. Sin embargo, no fueron tan significativos como en el análisis con fuentes puntuales. El método propuesto no solo tiene en cuenta la utilización de fuentes distribuidas de distinto tamaño y en distintas posiciones del FOV, sino que además incorpora fuentes radiactivas de dos radioisótopos distintos haciéndolo adecuado para evaluar este sistema. Hechas las consideraciones anteriores, se puede decir que los algoritmos de reconstrucción propuestos muestran una mejora importante en la resolución espacial tanto para fuentes puntuales como distribuidas y en ensayos con múltiples radioisótopos. Adicionalmente, se analizó la sensibilidad del sistema mediante la búsqueda de la mínima actividad que hace identificable una fuente. Para esto se simuló un ambiente de trabajo real con una fuente radiactiva de fondo modelada a partir de una medición en el laboratorio donde se instalará el equipo. El análisis se realizó con distintos radioisótopos para obtener resultados para emisiones de distintas energías. Nuevamente, si se toma como referencia el algoritmo de reconstrucción analítico, las imágenes se degradan considerablemente a partir de 5 µCi, haciendo muy dificultosa su interpretación, mientras que con la utilización de los algoritmos de reconstrucción propuestos este límite se extiende a 1 µCi. En relación con la capacidad de generar imágenes con múltiples radioisótopos, se demostró que esto es posible en combinaciones simples de los mismos utilizando un método de sustracción de radiación dispersa muy sencillo. A pesar de la pobre resolución en energía del detector, se lograron generar imágenes con fuentes distribuidas de

137

Cs y fondo de

60

Co, como en el caso del fantoma de Resolución

Espacial; así como también, con fuentes puntuales de

133

Ba,

137

Cs y

60

Co en un

mismo fantoma. Combinaciones con mayores radioisótopos o muy cercanos en la energía

de

sus

emisiones

características,

requerirían

algoritmos

de

pre

procesamiento del espectro más complejos. Para esto, podría ser útil la característica híbrida del AR-TGS, ya que se cuenta con un único detector central de HPGe que

344

permite identificar todos los radioisótopos presentes en una medición. A los efectos de validar parte de los ensayos realizados, se trabajo con el prototipo del AR-TGS y se realizaron una serie de mediciones. La resolución espacial no alcanzó los valores obtenidos en simulación, ya que se lograron valores de FWHM aproximados de 60 mm x 60 mm en el centro del FOV para CDRA-PC-H-RD. Esto se puede deber, a ciertas imprecisiones que pueden haber ocurrido en las mediciones, ya que desplazamiento del detector se realizó de forma manual y no se contó con un alineado preciso de los diferentes componentes mecánicos. Para concluir, podemos decir que el diseño del AR-TGS propuesto en el Capítulo 7 es un sistema tomográfico adecuado para generar imágenes de múltiples radioisótopos, tanto para fuentes puntuales como distribuidas presentes en medios atenuantes o no, con un límite de mínima actividad detectable en 5 µCi y resolución espacial de 105 mm x 103 mm FWHM en el centro del FOV. Y que además con la utilización de algoritmos de reconstrucción tomográfica adecuados como los presentados en el Capítulo 8, se puede mejorar considerablemente sus prestaciones. Llegando a obtener una resolución espacial de 36 x 35 mm FWHM en el centro del FOV y con una mínima activad detectable cercana a 0,1 µCi.

345

346

Capítulo 10

Conclusiones La calidad de imagen obtenida en sistemas tomográficos por emisión gamma es fuertemente dependiente de los algoritmos utilizados en el proceso de reconstrucción de imagen. Como parte de dos proyectos, que representan la generación de nuevas capacidades tecnológicas y que son los primeros de estas características desarrollados en Argentina, se han cubierto en este trabajo todos los aspectos involucrados en la reconstrucción de imágenes de dos equipos tomográficos: un tomógrafo por emisión de positrones (PET) para medicina nuclear y un tomógrafo por emisión de fotón único (SPECT para el ensayo de residuos radiactivos), denominados AR-PET y AR-TGS respectivamente. Se elaboraron algoritmos iterativos basados en MLEM para los dos scanners tomográficos, que generan imágenes de mejor calidad y resolución. Sin embargo, tales algoritmos requieren de una matriz del sistema que realice un buen modelado de los sistemas de adquisición, tanto de la geometría como de los procesos físicos involucrados. Por tal razón se han diseñado los modelos (proyectores) necesarios para reconstruir imágenes de calidad en ambos sistemas. Teniendo en cuenta que los algoritmos

de

reconstrucción

3D

para

el

AR-PET

son

muy

intensos

computacionalmente, se propuso una implementación que utiliza unidades de procesamiento gráfico para poder reconstruir imágenes en un tiempo compatible con 347

su uso clínico. Con el fin de desarrollar y evaluar los algoritmos de reconstrucción para ambos sistemas, que se encuentran en proceso de construcción, fue necesario realizar simulaciones Monte Carlo con modelos completos de los scanners. Dichas simulaciones se utilizaron no solo para generar datos de reconstrucción, sino que también para diseñar, mejorar y evaluar la performance del AR-PET y AR-TGS. El desarrollo de este trabajo permitió dotar al primer PET desarrollado en el país de algoritmos de reconstrucción eficiente aptos para diagnóstico médico; se aportaron datos claves para la mejora del diseño, que dieron lugar a dos patentes de invención. Las principales contribuciones realizadas a las técnicas de reconstrucción tomográfica para PET se pueden dividir en aquellas relacionadas con aspectos de implementación y algorítmicos y las de impacto y utilidad para el tomógrafo ARPET. En lo que respecta a aspectos generales de implementación se logró: Desarrollar un algoritmo de reconstrucción en la plataforma CUDA para su ejecución en unidades de procesamiento gráfico, que permite acelerar varias veces los tiempos de reconstrucción respecto de implementaciones basadas en CPUs de altas prestaciones. Obtener una reducción de cuatro veces de los tiempos de ejecución, mediante la utilización de un GPU de la arquitectura Kepler, respecto de una implementación paralela para CPU ejecutada en un servidor con dos procesadores de altas prestaciones con 12 núcleos cada uno de ellos. Demostrar la conveniencia de la utilización del modelo CUDA como plataforma de implementación para algoritmos de reconstrucción 3D. La evaluación de los algoritmos con las arquitecturas Tesla (lanzada al inicio de este trabajo de tesis), Fermi y Kepler (la más reciente), permitió comprobar la forma en que este tipo de procesadores ha ido evolucionando constantemente a un procesador altamente paralelo orientado a todo tipo de aplicaciones, en particular aquellas altamente paralelizables como la reconstrucción 3D en PET.

348

Los aportes algorítmicos fueron: El diseño de un proyector para geometría de detección hexagonal que modela el ángulo sólido en las distintas regiones del FOV y que permite obtener imágenes de buena calidad, a la vez que realizar reconstrucciones con FOV grandes sin distorsionar las imágenes. Una matriz del sistema que permite ajustar las zonas ciegas en los bordes del detector con poco impacto en la calidad de imagen. Los algoritmos desarrollados se enfocaron en obtener un algoritmo eficiente para el scanner AR-PET. Ello implicó analizar la performance y las condiciones de trabajo óptimas para dicho tomógrafo. Al respecto se obtuvieron las siguientes conclusiones: La simulación Monte Carlo de los ensayos de la norma NEMA NU 2-2001 permitió obtener los valores esperados de sensibilidad y de tasa NEC del ARPET. La sensibilidad esperada para el scanner funcionando con el método de posicionamiento de Anger (zona ciega de más de 30 mm) es menor que 6 cps/kBq. Si se utiliza el método de posicionamiento con redes neuronales (zona ciega de 10 mm) la sensibilidad alcanza las 7 cps/kBq. La tasa de conteo es el punto más débil del AR-PET, y es allí donde se deben introducir mejoras en el procesamiento de los datos para poder obtener tasas de adquisición que permitan realizar los estudios en un menor tiempo. Las mejoras a realizar son la implementación de clustering dinámico para poder procesar dos eventos de forma simultánea en un mismo detector, la disminución de la cantidad de muestras necesarias para procesar el pulso mediante el algoritmo de desapilamiento de filtro inverso y la reducción de la zona ciega en los bordes del detector con el método de posicionamiento no lineal basado en redes neuronales. Con estas tres mejoras se podría llegar a una tasa máxima de coincidencias verdaderas de 17 kcps con una concentración de casi 2 kBq/cc. Para mejorar la tasa de NEC también es conveniente aumentar la resolución temporal y reducir la ventana de tiempo de coincidencias a 8 ns (de los 10 ns originales). Se determinó que una configuración de trabajo eficiente del algoritmo del

349

AR-PET es el modo histograma con sinogramas 3D de 41 anillos y un span de 7 anillos. Cada sinograma 2D tendrá un tamaño de 192 x 248 bins. La utilización de sinogramas de máxima resolución (384x492 bins) no es necesaria para aprovechar la máxima resolución espacial del sistema (5 mm), ya que se logra una calidad de imagen equivalente con los sinogramas de 192x248. Los sinogramas 2D de baja resolución (96x124 bins) pueden ser utilizados para previsualizar las imágenes por su menor costo computacional. Se obtuvo una implementación completa del algoritmo de reconstrucción para el AR-PET que incluye el algoritmo iterativo, el modelo del proyector y la corrección de los datos. El algoritmo de reconstrucción es el OSEM 3D con 8 subsets y 6 iteraciones; el modelo de la matriz del sistema fue diseñado teniendo en cuenta todas las características geométricas del sistema y la corrección de los datos se realiza antes de iniciar el proceso de reconstrucción. Para la corrección de eventos aleatorios y eventos de dispersión se utilizan respectivamente el método de la ventana demorada y el algoritmo de la triple ventana de energía. El algoritmo desarrollado obtiene imágenes de buena calidad y resolución, comparables con las de los sistemas comerciales. Se incorporaron al modelo de reconstrucción las zonas muertas del detector donde el posicionamiento de los eventos detectados no es adecuado. El modelo mostró ser efectivo, ya que se mantuvo la uniformidad de las imágenes en los fantomas cilíndricos y NEMA. Se observó un incremento del ruido en las imágenes cuando el tamaño de la zona ciega aumenta, debido principalmente a la disminución de la sensibilidad y el consecuente incremento del ruido estadístico. La reconstrucción OSEM 2D utilizando el algoritmo de rebinning es una variante disponible que puede lograr imágenes de buena calidad en FOV reducidos. Para el scanner con clustering dinámico habilitado y ventana de coincidencia temporal de 8 ns, se encontró que la concentración de actividad de trabajo

350

adecuada es de 1 kBq/cc (en coincidencia con la máxima tasa de NEC). La utilización de una concentración de 2 kBq/cc permite obtener mayor cantidad de eventos en los sinogramas, pero se observa un incremento del ruido por mayor cantidad de eventos aleatorios. Con relación a los aportes en tomografía de fotón único para ensayo de residuos radiactivos, cabe mencionar en primera instancia que el desarrollo del presente trabajo hizo posible el diseño de una nueva arquitectura de TGS que permite bajar los costos y aumentar la sensibilidad respecto de los equipos tradicionales. Este nuevo diseño utiliza seis detectores de NaI(Tl) para aumentar la sensibilidad del sistema y bajar los costos del equipo. Se mostró, mediante simulaciones Monte Carlo, que colimadores con múltiples agujeros de pequeño diámetro tienen peor resolución espacial que un único agujero de mayor diámetro, debido al pobre blindaje obtenido en el primer caso. Se logró un adecuado compromiso entre sensibilidad y resolución utilizando un colimador de un único agujero de 2 cm de diámetro en un cilindro de plomo de 10 cm de diámetro y 10 cm de largo (relación de aspecto 5:1). Para el Gamma Scanner Tomográfico diseñado se elaboró un algoritmo de reconstrucción 2D con dos proyectores, CDRA-PC-RD y CDRA-PD, que modelan las características del colimador, la sensibilidad de detección y la atenuación en el medio. Se encontró que una altura considerable del segmento o slice a reconstruir distorsionaba las imágenes. Para estos casos se propuso la utilización de los proyectores CDRA-PC-H-RD y CDRA-H-PD, que incorporan al modelo del proyector la altura del segmento. Con el objeto de completar el algoritmo de reconstrucción se propuso un método de calibración en actividad, utilizando una simulación de un fantoma cilíndrico de aire con actividad uniforme de

137

Cs en su

interior. Se demostró que los proyectores propuestos modelan adecuadamente el proceso de reconstrucción. Esto fue evaluado mediante la obtención del error cuadrático medio normalizado entre sinogramas proyectados y sinogramas de referencia generados con simulaciones Monte Carlo.

351

La utilización de los algoritmos propuestos permitió: Obtener imágenes cuantificadas en actividad con errores menores que 15%, sin importar la densidad del fantoma, a partir de una única simulación de calibración en aire. Obtener imágenes de actividad cuantificadas para mediciones reales utilizando datos de calibración simulados. Esto es importante, ante la dificultad de obtener un fantoma de actividad uniforme de las dimensiones de un contenedor de residuos radiactivos. Obtener imágenes cuantificadas para múltiples radioisótopos cuando la combinación de los mismos produce un espectro de energía adecuado para detectores de NaI(Tl). Mejorar la resolución espacial en la reconstrucción de fuentes puntuales, pasando de una resolución de aproximadamente 105 mm x103 mm FWHM en el centro del FOV y de 93 mm x 50 mm en el borde del mismo en la reconstrucción analítica con el algoritmo de retroproyección filtrada (FBP), a una de 36 mm x 35 mm FWHM y de 33 mm x 22 mm FWHM respectivamente con el algoritmo MLEM y el proyector CDRA-PC-H-RD. Con el proyector CDRA-H-PD se obtuvieron resoluciones de 47 mm x 44 mm FWHM y de 42 mm x 30 mm FWHM, respectivamente. Mejorar los valores de recuperación de contraste. Mejorar la calidad de imagen para bajos niveles de actividad, extendiendo el límite de fuente detectable desde 5 µCi con FBP a 1 µCi con los proyectores propuestos. Suplementariamente, se evaluó la utilización de proyectores no apareados en la operación de retroproyección del algoritmo MLEM. Se observó que la utilización de los proyectores CDRA-PC-RD y CDRA-PD en la operación de proyección, acompañados del algoritmo de Siddon en la retroproyección, permitió acelerar la convergencia de la reconstrucción y lograr mejor resolución en un fantoma con múltiples fuentes puntuales, pero con un incremento del ruido. Esto último fue resuelto mediante la implementación de una penalización bayesiana por filtro de mediana entre cada iteración.

352

Cabe hacer mención, a manera de cierre, a las líneas futuras de investigación. En este trabajo se obtuvo un algoritmo de reconstrucción especialmente diseñado para el AR-PET y sus características. Sin embargo, las conclusiones obtenidas se basan mayoritariamente en datos de simulación Monte Carlo. Una primera validación del sistema simulado con GATE ya fue realizada con el prototipo formado por dos cabezales detectores. Con el prototipo del scanner finalizado se podrán validar completamente los resultados obtenidos. A su vez, la finalización de la construcción física permitirá seguir mejorando el modelo de la matriz del sistema a través de la obtención de la PSF del sistema a través de mediciones, extendiendo el modelo analítico presentado en este trabajo. En lo que respecta a la implementación del algoritmo, se continuará trabajando en la aceleración del algoritmo incorporando la utilización de múltiples GPUs. El diseño y el algoritmo del AR-TGS fueron validados con mediciones de datos reales de un segmento. Todos los resultados obtenidos en este trabajo se basaron en mediciones de segmentos y reconstrucción 2D. Es necesario extender el análisis a la reconstrucción de imágenes 3D. Finalmente, se explorará la combinación de los espectros del cabezal tomográfico con detectores de NaI(Tl) con el espectro del detector de HPGe para generar imágenes de mayor calidad en combinaciones complejas de radioisótopos.

353

354

Bibliografía [1] R. Cierniak, "Some Words About the History of Coputed Tomography," in X-Ray Computed Tomography in Biomedical Engineering.: Springer, 2011, ch. 2, pp. 7-19. [2] Michael A. Steiner, "PET--The History Behind the Technology," University of Tennessee, Senior Thesis Projects, 1993-2002 2002. [3] Mohammad Dawood, Xiaoyi Jiang, y Klaus Schäfers, Correction Techniques in Emission Tomography. Estados Unidos: CRC Press, 2012. [4] Michael E. Phelps, PET Physics, Instrumentation and Scanners.: Springer, 2006. [5] Dale Bailey, David Townsend, Peter Valk, y Michael N. Maisey, Positron Emission Tomography – Basic Science. Londres: Springer-Verlag, 2005. [6] Michael Schäfers et al., "Biomedical Applications of Emission Tomography," in Correction Techniques in Emission Tomography. Estados Unidos: CRC Press, 2012, ch. 2, pp. 11-26. [7] Gabriele Tarantola, Felicia Zito, y Paolo Gerundini, "PET Instrumentation and Reconstruction Algorithms in Whole-Body," The Journal Of Nuclear Medicine, vol. 44, no. 5, pp. 756-69, Mayo 2003. [8] Adam Alessio y Paul Kinahan, "PET Image Reconstruction," in Nuclear Medicine, Segunda edición ed.: Mosby. [9] Bernard Bendriem y David W. Townsend, The Theory and Practice of 3D Pet.: Springer, 1998. [10] K. Lange y R. Carson, "EM reconstruction algorithms for emission and transmission tomography," J Comput Assist Tomogr, vol. 8, no. 2, pp. 306-16, Abril 1984. [11] L. A. Shepp y Y. Vardi, "Maximum Likelihood Reconstruction for Emission Tomography," IEEE Trans. Med. Imag., vol. 1, no. 2, pp. 113-122, Octubre 1982. [12] L. A. Shepp, Y. Vardi, J. B. Ra, S. K. Hilal, y C. H. Cho, "Maximum-likelihood PET with real data," IEEE Trans Nucl Sci, vol. 31, no. 2, pp. 910-13, Abril 1984. [13] Joylon Browne y Alvaro De Pierro, "A Row-Action Alternative to the EM Algorithm for Maximizing Likelihoods in Emission Tomographies," IEEE Transactions on Medical Imaging, vol. 15, no. 5, pp. 687-89, 1996. [14] D. Strulab, G. Santin, D. Lazaro, D. Breton, y C. Morel, "GATE (geant4 application for tomographic emission): a PET/SPECT general-purpose simulation platform," Nuclear Physics B - Proceedings Supplements, vol. 125, pp. 75-79, Septiembre 2003.

355

[15] S. Jan, G. Santin, y D. et al Strul, "GATE: a simulation toolkit for PET and SPECT," Phys. Med. Biol., vol. 49, no. 19, pp. 4543-4561, 2004. [16] OpenGATE

Collaboration.

GATE

collaborative

wiki.

[Online].

http://wiki.opengatecollaboration.org [17] Glenn F. Knoll, "Radiation Sources," in Radiation Detection and Measurement, Cuarta edición ed.: John Wiley & Sons Inc., 2010, ch. 1. [18] Glenn F. Knoll, "Radiation Interactions," in Radiation Detection and Measurement, Cuarta edición ed.: John Wiley & Sons Inc., 2010, ch. 2. [19] Glenn F. Knoll, "Scinitllation Detector Principles," in Radiation Detection and Measurement, Cuarta edición ed.: John Wiley & Sons Inc., 2010, ch. 8. [20] Glenn F. Knoll, "Semiconductor Diode Detectors," in Radiation Detection and Measurement.: John Wiley & Sons Inc., 2010, ch. 11. [21] Glenn F. Knoll, "Photomultiplier Tubes and Photodiodes," in Radiation Detection and Measurements, Cuarta edición ed.: John Wiley & Sons Inc., 2010, ch. 9. [22] Hopel B. Saha, Basic of PET Imaging. Cleveland: Springer, 2005. [23] Thomas K. Lewellen, "The Challenge of Detector Designs for PET," American Journal of Roentgenology, vol. 195, no. 2, pp. 301-309, Agosto 2010. [24] Joel S. Karp, Gerd Muehllehner, Daniel Beerbohm, y David Mankoff, "Event Localization in a Continuous Scintillation Detector Using Digital Processing," IEEE Transactions on Nuclear Science, vol. 33, no. 1, pp. 550-555, Febrero 1986. [25] J.S. Karp, M. Geagan, y G. Muehllehner, "Design and performance of the HEAD PENN-PET scanner," IEEE Transactions on Nuclear Science, vol. 41, no. 4, pp. 1436-1440, Agosto 1994. [26] M. E. Casey y R. Nutt, "A Multicrystal Two Dimensional BGO Detector System for Positron Emission Tomography," IEEE Transactions on Nuclear Science, vol. 33, no. 1, pp. 460-463, Febrero 1986. [27] Simon R. Cherry, H. P. Tornai, C. S. Levin, S. Siegel, y E. J. Hoffman, "A comparison of PET detector modules employing rectangular and round photomultiplier tubes," IEEE Transactions on Nuclear Science, vol. 42, no. 4, pp. 1064-1068, Agosto 1995. [28] G. Germano y E. J. Hoffman, "A study of data loss and mispositioning due to pileup in 2-D detectors in PET," vol. 37, no. 2, pp. 671-675, Abril 1990. [29] W. H. Wong, "A positron camera detector design with cross-coupled scintillators and quadrant sharing photomultipliers," IEEE Transactions on Nuclear Science, vol. 40, pp. 962-966, Agosto

356

1993. [30] Shitao Liu et al., "New 9x9 and 10x10 BGO Block Detector for Human PET Using PMT Quadrant Sharing Design," IEEE Transactions on Nuclear Science, vol. 55, no. 1, pp. 457-462, 2008. [31] J. S. Karp et al., "Continuous-Slice PENN-PET: A Positron Tomograph with Volume Image Capability," The Journal of Nuclear Medicine, vol. 31, no. 5, pp. 617-627, Mayo 1990. [32] Lars-Eric Adam, Joel S. Karp, Margaret E. Daube-Witherspoon, y Robin J. Smith, "Performance of a Whole-Body PET Scanner Using Curve-Plate NaI(Tl) Detectors," The Journal of Nuclear Medicine, vol. 42, no. 12, pp. 1821-1830, 2001. [33] Lars-Eric Adam et al., "Performance Evolution of the Whole-Body PET Scanner ECAT EXACT HR+ Following the IEC Standard," IEEE Transactions on Nuclear Science, vol. 44, no. 3, pp. 1172-1179, Junio 1997. [34] Thomas. K. Lewellen, "Time-of-Flight PET," Seminars in Nuclear Medicine, vol. XXVIII, no. 3, pp. 268-275, 1998. [35] M. E. Daube-Witherspoon y G. Muehllehner, "Treatment of axial data in three-dimensional PET," Journal of Nuclear Medicine, vol. 28, no. 11, Noviembre 1987. [36] M. Defrise et al., "Exact and approximate rebinning algorithms for 3-D PET data," IEEE Transactions on Nuclear Medicine, vol. 16, no. 2, Abril 1997. [37] Habib Zaidi y Bruce Hasegawa, "Determination of the attenuation map in emission tomography," Journal of Nuclear Medicine, vol. 44, pp. 291-315, 2003. [38] T. Beyer et al., "A combined PET/CT scanner for clinical oncology," Journal of Nuclear Medicine, vol. 41, pp. 1369-1379, 2000. [39] P. E. Kinahan, D. W. Townsend, T. Beyer, y D. Sashin, "Attenuation correction for a combined 3D PET/CT scanner," Medical Physics, vol. 25, no. 10, pp. 2046-2053, Octubre 1998. [40] R. deKemp y C. Nahmias, "Attenuation correction in PET using single-photon transmission measurement," Medical Physics, vol. 21, pp. 771-778, 1994. [41] Joel S. Karp, Gerd Muehllehner, He Qu, y Xiao-Hang Yan, "Singles trnasmission in volumeimaging PET with a 137Cs source," vol. 40, pp. 929-944, 1995. [42] Siu K. Yu y Claude Nahmias, "Single-photon transmission measurements in positron tomography using 137Cs," Physics in Medicine and Biology, vol. 40, pp. 1255-1266, 1995. [43] K. Bilger, L. E. Adam, y J. S. Karp, "Segmented attenuation correction using 137Cs single photon transmission," , vol. 4, 2001, pp. 2005-2009.

357

[44] Habib Zaidi, "Comparative evaluation of scatter correction techniques in 3D positron emission tomography," European Journal of Nuclear Medicine , vol. 27, pp. 1813-1826, 2000. [45] S. Grootoonk, T.J. Spinks, D. Sashin, N.M. Spyrou, y T. Jones, "Correction for scatter in 3D brain PET using a dual energy window method," Physics in Medicine and Biology, vol. 41, pp. 2757-2774, 1996. [46] M. A. King, G. J. Hademons, y S. J. Glick, "A dual-photopeak window method for scatter correction," Journal of Nuclear Medicine, vol. 33, pp. 605-612, 1992. [47] L. Shao, R. Freifelder, y J.S. Karp, "Triple energy window scatter correction technique in PET," IEEE Transactions on Medical Imaging, vol. 13, no. 4, pp. 641-648, 1994. [48] C. C. Watson et al., "Evaluation of simulation-based scatter correction for 3-D PET cardiac imaging," IEEE Transactions on Nuclear Science, vol. 44, no. 1, pp. 90-97, 1997. [49] C. C. Watson, "New, faster, image-based scatter correction for 3D PET," IEEE Transactions on Nuclear Science, vol. 47, no. 4, pp. 1587-1594, 2000. [50] C. C Watson, M. E. Casey, C. Michel, y B. Bendriem, "Advances in scatter correction for 3D PET/CT," in IEEE Nuclear Science Symposium Conference Record, vol. 5, 2004, pp. 30083012. [51] R. Accorsi, L.E. Adam, M.E. Werner, y J.S. Karp, "Optimization of a fully 3D single scatter simulation algorithm for 3D PET," Physics in Medicine and Biology, vol. 49, pp. 2577-2598, 2004. [52] L. E. Adam, J. S. Karp, y G. Brix, "Investigation of scattered radiation in 3D whole-body positron emission tomography using Monte Carlo simulations," Physics in Medicine and Biology, vol. 44, pp. 2879-2895, 1999. [53] C.H. Holdsworth, C.S. Levin, M. Janecek, M. Dahlbom, y E.J. Hoffman, "Performance analysis of an improved 3-D PET Monte Carlo simulation and scatter correction," IEEE Transactions on Nuclear Science, vol. 49, pp. 83-89, 2002. [54] Glenn F. Knoll, "Radiation Spectroscopy with Scintillators," in Radiation Detection and Measurement, Cuarta edición ed.: John Wiley & Sons, Inc., 2010, ch. 10. [55] Habib Zaidi, "Relevance of accurate Monte Carlo modeling in nuclear medical imaging," Med. Phys., vol. 26, no. 4, Abril 1999. [56] Los Alamos National Laboratory. Monte Carlo N-Particle (MCNP) transport cod. [Online]. http://mcnp.lanl.gov/ [57] Geant4

Collaborators.

Geometry And Tracking

358

(Geant)

transport

code.

[Online].

http://geant4.web.cern.ch/geant4/ [58] J. Allison y y Colaboradores, "Geant4 developments and applications ," IEEE Transactions on Nuclear Science, vol. 53, no. 1, pp. 270-278, Febrero 2006. [59] J. Allison y y colaboradores, "Geant4—a simulation toolkit," Nuclear Instruments and Methods in Physics Research Section A, vol. 506, no. 3, pp. 250-303, Julio 2003. [60] Gabor T. Herman, Fundamentals of Computerized Tomography, Segunda edición ed.: Springer, 2009. [61] Charles L. Epstein, The Mathematics of Medical Imaging., 2001. [62] Avinash C. Kak y Malcolm Slaney, Principles of Computerized Tomographic Imaging. Nueva York: IEEE Press, 1988. [63] V. Israel-Jost et al., "Pinhole SPECT imaging: Compact projection/backprojection operator for efficient algebraic reconstruction," IEEE Transactions on Medical Imaging, vol. 25, no. 2, pp. 158-167, Febrero 2006. [64] S. Matej y R. M. Lewitt, "Efficient 3D grids for image reconstruction using sphericallysymmetric volume elements," IEEE Transactions on Nuclear Science, vol. 42, no. 4, pp. 13611370, 1995. [65] H. M. Hudson y R. S. Larkin, "Accelerated Image Reconstruction Using Ordered Subsets of Projection Data," IEEE Transactions on Nuclear Sciencce, vol. 13, no. 4, pp. 601-609, Diciembre 1994. [66] Adriaan van den Bos, Parameter Estimation for Scientists and Engineers. New Jersey: John Wiley & Sons, Inc, 2007. [67] A. Dempster, N. Laird, y D. Rubin, "Maximum Likelihood from incomplete data via the EM algorithm," Journal of the Royal Statistical Society, vol. 39, pp. 1-38, 1977. [68] C. Comtat, P. E. Kinahan, M. Defrise, C. Michel, y D. W. Townsend, "Fast Reconstruction of 3D PET Data with Accurate Statistical Modeling," IEEE Transactions on Nuclear Science, vol. 45, no. 3, pp. 1083-1089, Junio 1998. [69] Dan J. Kadrmas, "LOR-OSEM: statistical PET reconstruction from raw line-of-response histograms," Physics in Medicine and Biology, vol. 49, no. 20, pp. 4731-4745, 2004. [70] A. J. Reader, D. Visvikis, K. Erlandsson, R. J. Ott, y M. A. Flower, "Intercomparison of four reconstruction techniques for positron volume imaging with rotating planar detectors," Physics in Medicine and Biology, vol. 43, no. 4, pp. 823-34, Abril 1998. [71] E. S. Chornboy, C. J. Chen, M. I. Miller, T. R. Miller, y T. L. Snyder, "An evaluation of

359

maximum likelihood reconstruction for SPECT," IEEE Transactions on Medical Imaging, vol. 9, pp. 99-110, 1990. [72] Didier Blocklet, Alain Seret, Niculaie Popa, y André Schoutens, "Maximum-Likelihood Reconstruction with Ordered Subsets in Bone SPECT," The Journal of Nuclear Medicine, vol. 40, no. 12, pp. 1978-1984, Diciembre 1999. [73] Lai K. Leong, Landall R. Kruger, y Michael K. O'Connor, "A Comparison of the Uniformity Requirements for SPECT Image Reconstruction Using FBP and OSEM Techniques," Journal of Nuclear Medicine Technology, vol. 29, no. 2, pp. 79-83, Junio 2001. [74] Peter J. Green, "Bayesian Reconstructions From Emission Tomography Data Using a Modified EM Algorithm," IEEE Transactions on Medical Imaging, vol. 9, no. 1, pp. 84-93, Marzo 1990. [75] Tom Hebert y Richard Leahy, "A Generalized EM Algorithm for 3-D Bayesian Reconstruction from Poisson Data Using Gibbs Prior," IEEE Transactions on Medical Imaging, vol. 8, no. 2, pp. 194-202, Junio 1989. [76] Alvaro De Pierro y Mauro Eduardo Yamagish, "Fast EM-Like Methods for Maximum 'A Posteriori' Estimates in Emission Tomography," IEEE Trans. Med. Im, vol. 20, no. 4, pp. 28088. [77] Sakari Alenius y Ulla Ruotsalainen, "Bayesian Image Reconstruction for Emission Tomography based on Median Root Prior," European Journal of Nuclear Medicine, vol. 24, no. 3, pp. 258-265, Marzo 1997. [78] Peter J. Green, "On Use of the EM for Penalized Likelihood Estimation," Journal of the Royal Statistical Society, vol. 52, no. 3, pp. 443-452, 1990. [79] David S. Lalush y Benjamin M. W. Tsui, "Simulation Evaluation of Gibbs Prior Distributions for Use in Maximum A Posteriori SPECT Reconstructions," IEEE Transactions on Medical Imaging, vol. 11, no. 2, pp. 267-275, Junio 1992. [80] Stuart Geman y Donald E. McClure, "Bayesian image analysis: An application to single photon emission tomography," Proceedings of the American Statistical Association, pp. 12-18, 1985. [81] Chung Chan, Roger Fulton, David Dagan Feng, Weidong Cai, y Steven Meikle, "An Anatomically Based Regionally Adaptive Prior for MAP Reconstruction in Emission Tomography," in 2007 IEEE Nuclear Science Symposium Conference Record, 2007, pp. 41374141. [82] R. Gordon, R. Bender, y G. T. Herman, "Algebraic reconstruction techniques (ART) for threedimensional electron microscopy and x-ray photography," Journal of Theoretical Biology, vol.

360

29, no. 3, pp. 471-481, Diciembre 1970. [83] G. T. Herman y L. B. Meyer, "Algebraic reconstruction techniques can be made computationally efficient," IEEE Transactions on Medical Imaging, vol. 12, no. 3, pp. 600-609, Septiembre 1993. [84] Avinash C. Kak y Malcolm Slaney, "Algebraic Reconstruction Algorithms," in Principles of Computerized Tomographic Imaging. Nueva York: IEEE Press, 1988. [85] M. E. Daube-Witherspoon, S. Matej, J. S. Karp, y R. M. Lewitt, "Application of the Row Action Maximum Likelihood Algorithm with Spherical Basis Functions to Clinical PET Imaging," IEEE Transactions on Nuclear Science, vol. 48, no. 1, pp. 24-30, Febrero 2001. [86] P. E. Kinahan y J. G. Rogers, "Analytic 3D image reconstruction using all detected events," IEEE Transactions on Nuclear Science, vol. 36, no. 1, pp. 964-968, 1989. [87] L. C. Parra y H. H. Barret, "List-mode Likelihood: EM algorithm and image quality estimation demonstrated on 2-D PET," IEEE Transactions on Medical Imaging, vol. 17, no. 2, pp. 228235, Abril 1998. [88] Charles Byrne, "Likelihood Maximization for List-Mode Emission Tomographic Image Reconstruction," IEEE Transactions on Medical Imaging, vol. 20, no. 10, pp. 1084-1092, Octubre 2001. [89] A. J. Reader, K. Erlandsson, M. A. Flower, y R. J. Ott, "Fast accurate iterative reconstruction for low-statistics positron volume imaging," Physics in Medicine and Biology, vol. 43, pp. 835846, 1998. [90] Andrew J. Reader et al., "Accelerated List-Mode EM Algorithm," IEEE Transactions on Nuclear Science, vol. 49, no. 1, pp. 42-49, Febrero 2002. [91] Ron Levkovitz, Dmitry Falikman, Michael Zibulevsky, Aharon Ben-Tal, y Arkadi Nemirovski, "The Desing and Implementation of COSEM, an Iterative Algorithm for Fully 3-D List Mode Data," IEEE Transactions on Medical Imaging, vol. 20, no. 7, pp. 633-642, Julio 2001. [92] Robert M. Lewitt, Gerd Muehllehner, y Joel S. Karp, "Three-dimensionalimage reconstructionfor PET by multi-slice rebinning and axial image filtering," Physics in Medicine and Biology, vol. 39, pp. 321-339, 1994. [93] P. E. Kinahan y J. S. Karp, "Figures of merit for comparing reconstruction algorithms with a volume-imaging PET scanner," Physics in Medicine and Biology, vol. 39, pp. 631-642, 1994. [94] Vlaadimir Y. Panin, Frank Kehren, Christian Michel, y Michael Casey, "Fully 3-D PET Reconstruction With System Matrix Derived From Point Source Measurements," IEEE

361

Transactions on Medical Imaging, vol. 25, no. 7, pp. 907-921, Julio 2006. [95] "Spatial resolution of the HRRT PET scanner using 3D-OSEM PSF reconstruction," in IEEE Nuclear Science Symposium Conference Record, 2009, pp. 3789-3790. [96] Adam M. Alessio y Paul E. Kinahan, "Modeling and Incorporation of System Response Functions in 3-D Whole Body PET," IEEE Transactions on Medical Imaging, vol. 25, no. 7, pp. 828-837, Julio 2006. [97] E. Rapisarda, V. Bettinardi, K. Thielemans, y M. C. Gilardi, "Image-based point spread function implementation in a fully 3D OSEM reconstruction algorithm for PET," Physics in Medicine and Biology, vol. 55, pp. 4131-4151, 2010. [98] Jonathan Engle y Dan Kadrmas, "Modeling the spatially-variant point spread function in a fast projector for improved fully-3D PET reconstruction," The Journal of Nuclear Medicine, vol. 48, p. 417P, 2007. [99] Gengsheng L. Zeng y Grant T. Gullberg, "Unmatched Projector/Backprojector Pairs in an Iterative Reconstruction Algorithm," IEEE Transactions on Medical Imaging, vol. 19, no. 5, pp. 548-555, Mayo 2010. [100] Nam-Yong Lee y Yong Choi, "Theoretical Investigation on an Unmatched Backprojector for Iterative," Journal of the Korean Physical Society, vol. 59, no. 2, pp. 367-375, Agosto 2011. [101] Chris Kamphuis, Freek J. Beekman, Peter P. van Rijk, y Max A. Viergever, "Dual matrix ordered subsets reconstruction for accelerated 3D scatter compensation in single-photon emission tomography," European Journal of Nuclear Medicine, vol. 25, no. 1, pp. 8-18, Enero 1998. [102] Andy Welch y Grant T. Gullberg, "Implementation of a Model-Based Nonuniform Scatter Correction Scheme for SPECT," IEEE Transactions on Medical Imaging, vol. 16, no. 6, pp. 717-726, Diciembre 1997. [103] Arman Rahmim, Ju-Chieh Cheng, Stephan Blinder, Maurie-Laure Camborde, y Vesna Sossi, "Statistical dynamic image reconstruction in state-of-the-art high-resolution PET," Physics in Medicine and Biology, vol. 50, pp. 4887-4912, 2005. [104] R. L. Siddon, "Fast Calculation of the Exact Radiological Path for a Three-dimensional CT," J. Med. Phys., vol. 12, no. 2, pp. 252-255, Abril 1985. [105] F. Jacobs, E. Sundermann, B. De Sutter, M. Christiaens, y I. Lemahieu, "A Fast Algorithm to Calculate the Exact Radiological Path through a Pixel or Voxel Space," Comp. and Inf. Tech., vol. 6, no. 1, pp. 89-94, 1998.

362

[106] P. Joseph, "An improved algorithm for reprojecting rays through pixel images," IEEE Transactions on Medical Imaging, vol. 1, pp. 192-196, 1983. [107] T. M. Peters, "Algorithms for fast back- and re-projection in computed tomography," IEEE Transactions on Nuclear Science, vol. 28, no. 4, pp. 3641-3647, Agosto 1981. [108] G. L. Zeng, Y. L. Hsieh, y G. T. Gullberg, "A Rotating and Warping Projector/Backprojector for Fan-Beam and Cone-Beam Iterative Algorithm," IEEE Transactions on Nuclear Science, vol. 41, no. 6, pp. 2807-2811, Diciembre 1994. [109] E. V. Di Bella, A. B. Barclay, R. L. Eisner, y R. W. Schafer, "A Comparison of Rotation-Based Methods for Iterative Reconstruction Algorithms," IEEE Transactions on Nuclear Science, vol. 43, no. 6, pp. 3370-3376, Diciembre 1996. [110] Bruno De Man y Samit Basu, "Distance-driven projection and backprojection in three dimensions," Physics in Medicine and Biology, vol. 49, pp. 2463-2475, 2004. [111] Ravindra M. Manjeshwar, Steven G. Ross, Maria Iatrou, Timothy W. Deller, y Charles W. Stearns, "Fully 3D PET Iterative Reconstruction Using Distance-Driven Projectors and Native Scanner Geometry," in IEEE Nuclear Science Symposium Conference Record, 2006, pp. 28042807. [112] Florian Büther, "Corrections for Physical Factors," in Correction Techniques in Emission Tomography.: Taylor & Francis Group, 2012. [113] M. Bergstrom, J. Litton, L. Erikkson, C. Bohm, y G. Blomqvist, "Determination of object contour from projecctions for attenuation correction in cranial positron emission tomography," Journal of Computer Assisted Tomography, vol. 6, pp. 365-372, 1982. [114] H. Zaidi, C. Laemmli, M. Allaoua, P. Gries, y D. O. Slosman, "Optimizing attenuation correction in clinical cerebral 3D PET," Journal of Nuclear Medicine, vol. 42, pp. 195P-196P, 2001. [115] Y. Censor, D. Gustafson, A. Lent, y H. Tuy, "A new approach to the emission computerized tomography problem: simultaneous calculation of attenuation and activity coefficients," IEEE Transactions on Nuclear Science, vol. 26, pp. 2275-2279, 1979. [116] J. Nuyts et al., "Simultaneous maximum a posteriori reconstruction of attenuation and activity distributions from emission sinograms," IEEE Transactions on Medical Imaging, vol. 18, pp. 393-403, 1999. [117] R. E. Carson, M. E. Daube-Witherspoon, y M. V. Green, "A method for postinjection PET transmission measurements with a rotating source," Journal of Nuclear Medicine, vol. 29, pp.

363

1558-1567, 1988. [118] G. T. Gullberg, R. H. Huesman, J. A. Malko, N. J. Pelc, y T. F. Budinger, "An Attenuated Projector-Backprojector for Iterative SPECT Reconstruction," Phys. Med. Biol., vol. 30, no. 8, pp. 799-816, 1985. [119] Lee-Tzuu Chang, "A Method for Attenuation Correction in Radionuclide Computed Tomography," IEEE Transactions on Nuclear Science, vol. 53, no. 1, pp. 638-643, Febrero 1978. [120] R. J. Jaszczak, K. L. Greer, C. E. Floyd, C. C. Harris, y R. E. Coleman, "Improved SPECT quantification using compensation for scattered photons," Journal of Nuclear Medicine, vol. 25, no. 8, pp. 893-900, 1984. [121] L. E. Adam, J. S. Karp, y R. Freifelder, "Scatter correction using a dual energy window technique for 3D PET with NaI(Tl) detectors," in IEEE Nuclear Science Symposium, vol. 3, 1998, pp. 2011-2018. [122] Marc Huismann, "Corrections for Scanner-Related Factors," in Correction Techniques in Emission Tomography.: Taylor & Francis Book, 2012. [123] C. Chen y S. Lee, "On parallelizing the EM algorithm for PET image reconstruction," IEEE Transactions on Parallel and Distributed Systems, vol. 8, no. 5, pp. 860-873, Agosto 1994. [124] J. P. Jones, W. F. Jones, y F. Keheren, "SPMD cluster-based parallel 3-D OSEM. IEEE Trans Nucl Sci 2003; 50(5): 1498-502.," IEEE Transactions on Nuclear Science , vol. 5, no. 50, pp. 1498-1502, 2003. [125] M. Schellmann, J. Vörding, S. Gorlatch, y D. Meiländer, "Cost-effective medical image reconstruction: from clusters to graphics processing units," in Proceedings of the 2008 conference on Computing frontiers, New York, 2008, pp. 283-292. [126] Martin A. Belzunce, Claudio A. Verrastro, Esteban Venialgo, y Isaac M. Cohen, "Cuda Parallel Implementation of Image Reconstruction Algorithm for Positron Emission Tomography," The Open Medical Imaging Journal, vol. 6, pp. 108-118, 2012. [127] J. Nickolls y W. J. Dally, "The GPU computing era," IEEE Micro, vol. 30, no. 2, pp. 56-69, 2010. [128] J. D. Owens et al., "GPU Computing," Proceedings of the IEEE, vol. 96, no. 5, pp. 879-899, 2008. [129] E. Lindholm, J. Nickolls, S. Oberman, y J. Montrym, "NVIDIA Tesla: A Unified Graphics and Computing Architechture," IEEE Micro, vol. 28, no. 2, pp. 39-55, Marzo 2008.

364

[130] M. Garland et al., "Parallel Computing Experiences with CUDA," IEEE Micro, vol. 28, no. 4, pp. 13-27, 2008. [131] B. Bai y A. M. Smith, "Fast 3D iterative reconstruction of PET images using PC graphics hardware," in IEEE Nuclear Science Symposium Conference Record, San Diego, 2006, pp. 2787-2790. [132] G. Pratx, G. Chinn, F. Habte, P. Olcott, y Levin C., "Fully 3-D list-mode OSEM accelerated by graphics processing units," in IEEE Nuclear Science Symposium Conference Record, San Diego, 2006, pp. 2196-2202. [133] F. Xu y K. Mueller, "Real-time 3D computed tomographic reconstruction using commodity graphics hardware," Physics in Medicine and Biology, vol. 52, pp. 3405-3419, 2007. [134] J.L. Herraiz et al., "GPU acceleration of a fully 3D iterative Reconstruction Software for PET using CUDA," in IEEE Nuclear Science Symposium Conference Record, Orlando, 2009, pp. 4064-4067. [135] J. Zhou y J. Qi, "Fast and efficient fully 3D PET image reconstruction using sparse system matrix factorization with GPU acceleration," Physics in Medicine and Biology, vol. 56, pp. 6739-6757, 2011. [136] G. Pratx, G. Chinn, P. D. Olcott, y C. S. Levin, "Fast, accurate and shift-varying line projections for iterative reconstruction using GPU," IEEE Transactions on Medical Imaging, vol. 28, no. 3, pp. 435-445, 2009. [137] S. Ha, S. Matej, M. Ispiryan, y K. Mueller, "GPU-Accelerated Forward and Back-Projections With Spatially Varying Kernels for 3D DIRECT TOF PET Reconstruction," IEEE Transactions on Nuclear Science, vol. 60, no. 1, pp. 166-173, Febrero 2013. [138] NVIDIA Staff. (2010) NVIDIA CUDA C Programming Guide 3.1.1. [139] NVIDIA Staff. (2010) The Cuda Compiler Driver NVCC. [140] NVIDIA, "Fermi: NVIDIA's Next Generation CUDA Compute Architechture," 2009. [141] David Patterson, "The top 10 innovations in the new NVIDIA Fermi Architechture and the top 3 challenges," Parallel Computing Research Laboratory, U. C. Berkeley, 2009. [142] NVIDIA.

(2010)

Cuda

C

Best

Practices

Guide,

Version

3.2.

[Online].

http://developer.download.nvidia.com/compute/cuda/3_2_prod/toolkit/docs/CUDA_C_Best_Pr actices_Guide.pdf [143] Barbara Chapman, Gabriele Jost, y Ruud van der Pas, Using OpenMP. Londres, Inglaterra: The MIT Press, 2008.

365

[144] K. Thielemans, S. Mustafovic, y Ch. Tsoumpas, "STIR: Software for Tomographic Image Reconstruction Release 2," in IEEE Nuclear Science Symposium Conference Record, San Diego, 2006, pp. 2174-2176. [145] National Electrical Manufacters Association, "NEMA NU2-2001 "Performance Measurements of Positron Emission Tomographs"," Rosslyn VA, 2001. [146] PassMark Software. [Online]. http://www.passmark.com [147] C. Verrastro et al., "AR-PET: Primer Tomógrafo por Emisión de Positrones Argentino," in Actas de la XXXV Reunión Anual de la Asociación Argentina de Tecnología Nuclear, Buenos Aires, 2008. [148] C. Verrastro, M. Belzunce, J. C. Gomez, D. Estryk, y E. Venialgo, "De la Primera Radiografía al Primer Tomógrafo por Emisión de Positrones," Proyecciones, vol. 7, no. 1, pp. 49-63, Abril 2009. [149] D. S. Estryk, C. A. Verrastro, S. Marinsek, M. A. Belzunce, y E. Venialgo, "FPGA hierarchical architecture for a Positron Emission Tomography Scanner," in Programmable Logic Conference (SPL) 2010 VI Southern, 2010, pp. 113-118. [150] Claudio Verrastro y Martín Belzunce, "Diseño de un Equipo PET/CT," in Tomografía por Emisión de Positrones y CT - Instrumentación y Aplicaciones. Ciudad de Buenos Aires, 2011. [151] E. Venialgo, C. Verrastro, D. Estryk, y M. Belzunce, "Método de Calibración para Cámara Gamma y PET con una Medición Única de Campo Inundado," in XIII reunión de Trabajo en Procesamiento de la Información y Control, Rosario, 2009, pp. 1010-1015. [152] H. O. Anger, "Sensitivity, resolution, and linearity of the Scintillation Camera," IEEE Transactions on Nuclear Science, vol. 13, no. 3, pp. 380-392, Junio 1966. [153] "PET Calibration Method of Nonlinear Position Estimation Algorithms for continuous NaI(Tl) Crystals," in IEEE 2011 Nuclear Science Symposium and Medical Imaging Conference, Valencia, 2011, pp. 3359-3364. [154] J.S. Karp y G. Muehllehner, "The countrate performance of the volume imaging PENN-PET scanner," IEEE Transactions on Medical Imaging, vol. 13, no. 4, pp. 610-618, Diciembre 1994. [155] Margaret E. Daube-Witherspoon, Joel S. Karp, y Michael E. et al Casey, "PET Performance Measurements Using the NEMA NU 2-2001 Standard," The Journal of Nuclear Medicine, vol. 43, no. 10, pp. 1398-1409, 2002. [156] A. E. Perkins, G. Muehllehner, S. Surti, y J. S. Karp, "Performance Measurements of a Pixelated NaI(Tl) PET Scanner," IEEE Transactions on Nuclear Science, vol. 50, no. 3, pp.

366

373-377, 2003. [157] Hans Herzog et al., "NEMA NU2-2001 Guided Performance Evaluation of Four Siemens ECAT PET Scanners," IEEE Transactions on Nuclear Science, vol. 51, no. 5, pp. 2662-2669, 2004. [158] Lars-Eric Adam, Joel S. Karp, y Margaret E. Daube-Witherspoon, "Evaluation of Performance of the CPET Scanner using Standardized Measurement Techniques," in 2000 IEEE Nuclear Science Symposium Conference Record, vol. 3, 2000, pp. 17/46-17/50. [159] J.A. Wear, J.S. Karp, R. Freifelder, D.A. Mankoff, y G. Muehllehner, "A model of the high count rate performance of NaI(Tl)-based PET detectors," IEEE Transactions on Nuclear Science, vol. 45, no. 3, pp. 1231-1237, Junio 1998. [160] J.S. Karp et al., "Evaluation of volume imaging with the HEAD PENN-PET scanner," in 1994 IEEE Conference Record Nuclear Science Symposium and Medical Imaging Conference, vol. 4, 1994, pp. 1877-1881. [161] S. Gadomski et al., "The deconvolution method of fast pulse shaping at hadron coliders," Nuclear Instruments & Methods in Physics Research A, vol. 320, no. 1-2, pp. 217-227, 1992. [162] J. A. Ruiz Guijarro et al., "Tomógrafos PET," Rev. Esp. Med. Nuclear, vol. 20, no. 7, pp. 561574, 2001. [163] D. Schmitt, B. Karuta, C. Carrier, y R. Lecomte, "Fast Point Spread Function Computation from Aperture Functions in High-Resolution Positron Emission Tomography," IEEE Transactions on Medical Imaging, vol. 7, no. 1, pp. 2-12, Marzo 1988. [164] Rutao Yao et al., "Assessment of a three-dimensional line-of-response probability density function system matrix for PET," Physics in Medicine and Biology, vol. 57, pp. 6827-6848, Octubre 2012. [165] Guillem Pratx y Craig Levin, "Online detector response calculations for high-resolution PET image reconstruction," Physics in Medicine and Biology, vol. 56, pp. 4023-4040, Junio 2011. [166] Sascha Moehrs et al., "Multi-ray based system matrix generation for 3D PET reconstruction," Physics in Medicine and Biology, vol. 53, pp. 6925-6945, Noviembre 2008. [167] H. Baghaei, J. Uribe, H. Li, Y. Wang, y W-H. Wong, "Comparison of the SSRB, MSRB, and FORE Methods with the 3DRP Algorithm Using Data from a High Resolution PET Scanner," in IEEE Nuclear Science Symposium Conference Record, vol. 2, 2000, pp. 199-202. [168] Honorable Congreso de la Nación Argentina, "Ley 25018 - Régimen de Gestión de Residuos Radiactivos," Boletín Oficial, p. 2, Octubre 1998.

367

[169] World Nuclear Association. Radioactive Waste Management. [Online]. http://www.worldnuclear.org/info/inf04.html [170] IAEA, "Classification of Radioactive Waste: Safety Guide," Vienna, 978–92–0–109209–0, 2009. [171] World Nuclear Association. Treatment and Conditioning of Nuclear Wastes. [Online]. http://www.world-nuclear.org/info/inf04ap1.html [172] Nuclear

Energy

Agency.

Waste

Management

Brief.

[Online].

http://www.oecd-

nea.org/brief/brief-06.html [173] A. Bosko, G. Geurkov, S. Croft, y R. Venkataraman, "Advanced Approach for Calibration of the Segmented Gamma Scanner for the Radioassay of Drummed Waste," in Nuclear Science Symposium Conference Record, 2006, pp. 212-213. [174] Canberra.

Standard

Segmented

Gamma

Scanner.

[Online].

http://www.canberra.com/products/438399.asp [175] R. Venkataraman et al., "The Next Generation Tomographic Gamma Scanner," in ESARDA Annual Symposium on Safeguards and Nuclear Material Management, London, 2005. [176] R. Venkataraman et al., "An Integrated Tomographic Gamma Scanning System for NonDestructive Assay of Radioactive Waste," Nucl. Instrum. Meth. A, vol. 579, no. 1, pp. 375-379, 2007. [177] R.J. Estep, "A Preliminary Design Study for Improving Performance in Tomographic Assays," Technical Report 1994. [178] T.H. Prettyman, R.A. Cole, R.J. Estep, y G.A. Sheppard, "A Maximum-Likelihood Reconstruction Algorithm for Tomographic Gamma-ray Nondestructive Assay," Nuclear Instruments and Methods in Physics Research A, no. 356, pp. 470-475, 1995. [179] Chin-Jen Chang y S. Anghaie, "Iterative reconstruction and statistical optimization for the nondestructive assay of distributed gamma source in a large nuclear waste container," IEEE Transactions on Nuclear Science, vol. 45, no. 2, pp. 146-153, Abril 1998. [180] R. Venkataraman, S. Croft, M. Villani, R.D. McElroy, y R.J. Estep, "Total Measurement Uncertainty Estimation For Tomographic Gamma Scanner," in 46th Annual meeting of the INMM, Phoenix, 2005. [181] R. Estep, D. Miko, S. Melton, y M. Rawool-Sullivan, "A Demonstration of the Gross count Tomographic Gamma Scanner (GC-TGS) Method for Nondestructive Assay of Transuranic Waste," 1998.

368

[182] E. Venialgo et al., "Analysis and Comparison of Tomographic Gamma Scanner (TGS) Architectures for Nuclear Waste Characterization Systems," in XXXV International Symposium on Scientific Basis for Nuclear Waste Management, Buenos Aires, 2011. [183] Robert M. Lewitt y Samuel Matej, "Overview of Methods for Image Reconstruction," Proceeding of the IEEE, vol. 91, no. 10, pp. 1588-1611, Octubre 2003. [184] Philippe P. Bruyant, "Analytic and Iterative Reconstruction Algorithms in SPECT," The Journal of Nuclear Medicine, vol. 43, no. 10, pp. 1343-1358, Octubre 2002. [185] M. S. Rosenthal et al., "Quantitative SPECT Imaging: A Review and Recommendations by the Focus Committee of the Society of Nuclear Medicine Computer and Instrumentation Council," The Journal of Nuclear Medicine, vol. 36, no. 8, pp. 1489-1513, Agosto 1995. [186] G. K. Loudos, "An Efficient Analytical Calculation of Probability Matrix in 2D SPECT," Computerized Medical Imaging and Graphics, vol. 32, no. 2, pp. 83-94, 2008. [187] Benjamin M. W. Tsui, Hong-Bin Hu, David R. Gilland, y Grant T. Gullberg, "Implementation of Simultaneous Attenuation and Detector Response Correction in SPECT," IEEE Transactions on Nuclear Science, vol. 35, no. 1, pp. 778-783, Febrero 1988. [188] Damian Borys, Katarzyna Szczucka-Borys, y Kamil Gorczewski, "System Matrix Computation for Iterative Reconstruction," Int. J. Appl. Math. Comput. Sci., vol. 21, no. 1, pp. 193-202, 2011. [189] M. Belzunce et al., "An attenuated projector for iterative reconstruction algorithm of a novel Tomographic Gamma Scanner," in IEEE Nuclear Science Symposium and Medical Imaging Conference (NSS/MIC), Anaheim, 2012, pp. 951-957. [190] Saint-Gobain Crystals, "Efficiency Calculations for Selected Scintillators," 2004-7. [191] J. H. Hubbell y S. M: Seltzer. Tables of X-Ray Mass Attenuation Coefficients and Mass Energy-Absorption Coefficients from 1 keV to 20 MeV for Elements Z = 1 to 92 and 48 Additional

Substances

of

Dosimetric

http://www.nist.gov/pml/data/xraycoef/index.cfm

369

Interest.

[Online].

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.