Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE CIENCIAS Regularización por Variación Total y Sensado Compresivo en Tomografía T E S I S QUE PARA OBTENER EL TÍTULO DE: Físico PRESENTA: Oscar Hurtado González Director de Tesis: Dr. Arnulfo Martínez Dávalos Ciudad Universitaria, Cd. de México, 2018 UNAM – Dirección General de Bibliotecas Tesis Digitales Restricciones de uso DERECHOS RESERVADOS © PROHIBIDA SU REPRODUCCIÓN TOTAL O PARCIAL Todo el material contenido en esta tesis esta protegido por la Ley Federal del Derecho de Autor (LFDA) de los Estados Unidos Mexicanos (México). El uso de imágenes, fragmentos de videos, y demás material que sea objeto de protección de los derechos de autor, será exclusivamente para fines educativos e informativos y deberá citar la fuente donde la obtuvo mencionando el autor o autores. Cualquier uso distinto como el lucro, reproducción, edición o modificación, será perseguido y sancionado por el respectivo titular de los Derechos de Autor. 1. Datos del Alumno: Hurtado González Oscar 55 19 44 43 Universidad Nacional Autónoma de México Facultad de Ciencias Física 309011848 2. Datos del tutor: Dr. Arnulfo Martínez Dávalos 3. Datos del Sinodal 1: PhD. Mercedes Rodríguez Villafuerte 4. Datos del Sinodal 2: Dr. Rodrigo Alfonso Martín Salas 5. Datos del Sinodal 3: Dr. Iván Miguel Rosado Méndez 6. Datos del Sinodal 4: M. en C. Edgar Calva Coraza 7. Datos del trabajo escrito: Regularización por Variación Total y Sensado Compresivo en Tomografía 124 p. 2018 2 Agradecimientos Agradezco inicialmente a la Universidad Nacional Autónoma de México que me abrió sus puertas como la máxima casa de estudios para poder recibir mi educación universitaria. En segundo lugar agradezco a todos los profesores que impartieron su conoci- miento en las distintas aulas de la Facultad de Ciencias e hicieron de mi carrera un camino emocionante y desafiante. Quiero agradecer también al Dr. Arnulfo Martínez Dávalos por haberme permiti- do realizar mi tesis bajo su tutela y por su infinita paciencia y enseñanza en en estos últimos años. Asimismo, a mis sinodales, la Dra. Mercedes Rodríguez Villafuerte, el Dr. Rodrigo Alfonso Matín Salas, al Dr. Iván Miguel Rosado Méndez, y al M. en C. Edgar Calva Coraza, por su tiempo y disposición para leer y revisar mi tesis, aportando valiosas observaciones y correcciones para terminar de pulir este trabajo. Agradezco también al IFUNAM por haberme brindado el espacio necesario para desarrollar mi proyecto de tesis. Asimismo, agradezco a los proyectos de la UNAM PAPIIT IN108615, PAPIIT IN110616, y al proyecto CONACYT Problemas Nacionales 2015-01-612 por los apo- yos otorgados al Laboratorio de Imágenes Biomédicas del IFUNAM que hicieron posible la realización de esta tesis. 3 Dedicatoria A papá y mamá, a quienes amo con todo mi ser. Gracias por todo su amor, apoyo y cuidado durante toda mi vida y en particular por la paciencia y consejos que me dieron durante mi carrera universitaria. Gracias papá por ser mi héroe ejemplo para mi de siempre salir adelante y no rendirme nunca. Gracias mamá por mi heroína y ser increíblemente diligente al cuidarme y siempre estar pendiente de la familia. A mis abuelos, Mami y Tito, por siempre estar ahí para mí y consentirme sin medida. Los amo también. Gracias tío Luis por tu ayuda y cuidado siempre. Agradezco a mis tíos Victor, Ruth, Rosina, Elsa y a mi abuelo Armando por sus buenos deseos y cariño. Gracias por los buenos momentos y la comida en todas las reuniones familiares que durante los periodos de clase, hacían los fines de semana tiempos de recarga. A mis mejores amigos, Tony, Isaac Cordova, Edgar, Isaac Barrientos, David y Sergio. Fueron fundamentales cada uno en distintas etapas de mi vida en los últimos 6 años. Altos y bajos, risas y estrés, desveladas y finales de semestre, comidas, juegos, domingos de NFL, gimnasio, entrenamientos, béisbol; tantas historias que recordaré por siempre. Los amo. A mis modelos a seguir por su ética profesional y su corazón en el deporte, Tom Brady y Roger Federer; gracias por ser una inspiración y motivación cada temporada y torneo. A Dios, gracias. 4 Índice general 1. El problema tomográfico 9 1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.2. Transformada de Radon. . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.3. Tomografía discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2. Reconstrucción Tomográfica, Sensado Compresivo y Variación To- tal 19 2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.2. Reconstrucción iterativa . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.2.1. Algoritmo ART . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.2.2. Algoritmos SIRT . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.2.3. Algoritmo MLEM . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.2.4. Convergencia de los algoritmos . . . . . . . . . . . . . . . . . 23 2.3. Métodos de regularización . . . . . . . . . . . . . . . . . . . . . . . . 25 2.3.1. Regularización en tomografía . . . . . . . . . . . . . . . . . . 28 2.4. Sensado compresivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.4.1. Incoherencia y sensado de señales escasas . . . . . . . . . . . . 30 2.4.2. Fortaleza del sensado compresivo . . . . . . . . . . . . . . . . 33 2.5. Regularización por Variación Total. . . . . . . . . . . . . . . . . . . . 34 3. Desarrollo e implementación de algoritmos 38 3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.2. Ruido en maniquís y perfiles de intensidad. . . . . . . . . . . . . . . . 39 3.3. Matriz de proyección y sinogramas generados . . . . . . . . . . . . . . 40 3.4. Reconstrucciones con SIRT y MLEM . . . . . . . . . . . . . . . . . . 42 5 3.4.1. Breve análisis de SIRT y MLEM . . . . . . . . . . . . . . . . . 44 3.5. Algoritmos implementados: SIRT+TV, MLEM+TV . . . . . . . . . . 48 3.5.1. Minimización de la variación total: planteamiento del problema 48 3.5.2. Algoritmo SIRT+TV . . . . . . . . . . . . . . . . . . . . . . . 50 3.5.3. Algoritmo MLEM+TV . . . . . . . . . . . . . . . . . . . . . . 51 3.5.4. Variación Total Anisotrópica. . . . . . . . . . . . . . . . . . . 52 3.6. Elección de parámetros . . . . . . . . . . . . . . . . . . . . . . . . . . 61 3.6.1. Metodología para elección de parámetros . . . . . . . . . . . . 62 3.6.2. Discusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 3.6.3. Parámetros elegidos . . . . . . . . . . . . . . . . . . . . . . . . 69 3.7. Reconstrucciones SIRT+TV . . . . . . . . . . . . . . . . . . . . . . . 70 3.8. Reconstrucciones MLEM+TV . . . . . . . . . . . . . . . . . . . . . . 73 4. Aplicación a datos experimentales 76 4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 4.2. Tomografía óptica de luminiscencia estimulada por rayos X . . . . . . 76 4.2.1. Simulación numérica. . . . . . . . . . . . . . . . . . . . . . . . 77 4.2.2. Descripción de los maniquís utilizados . . . . . . . . . . . . . 79 4.2.3. Datos utilizados, imágenes de referencia y elección de parámetros 81 4.2.4. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 4.2.5. Discusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 4.3. Tomografía computarizada: Nueces y raíces . . . . . . . . . . . . . . . 112 4.3.1. Raíz de Loto . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 4.3.2. Nueces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 5. Conclusiones y perspectivas 116 6 Resumen Las técnicas de reconstrucción tomográfica que se usan comúnmente, se basan en el concepto de la transformada de Radon (Filtered Back Projection, FBP) ó en la so- lución de un sistema lineal de ecuaciones que se plantea a partir de la discretización del problema tomográfico. En ambos casos se tienen limitacionesdebido a varios factores. El factor más común es la presencia de ruido durante el proceso de adquisi- ción de datos. Otra limitante es la cantidad de ángulos de proyección que se utilizan para irradiar el cuerpo o el intervalo angular a través del cual se posiciona el haz de radiación. Cuando se tiene uno o una combinación de estos factores limitantes, la calidad de las imágenes reconstruidas disminuye drásticamente en comparación a la calidad que se obtiene en la ausencia de éstos. Las técnicas de regularización son utilizadas para resolver problemas que están “mal planteados” como en estos casos. Por ejemplo en presencia de ruido, estas técnicas se encargan de disminuir la propagación del ruido durante el proceso de reconstrucción. Cuando se tienen pocas proyecciones o intervalos angulares restrin- gidos, las técnicas de regularización pretenden evitar o disminuir la aparición de “artefactos” en las imágenes. El objetivo de esta tesis fue estudiar y aplicar la técnica de regularización por Variación Total (TV) bajo el contexto de la teoría de sensado compresivo a problemas de reconstrucción tomográfica en presencia de ruido y con pocas proyecciones. Para esto, la tesis fue estructurada y dividida en 5 capítulos. El primer capí- tulo introduce los conceptos básicos del problema tomográfico, la transformada de Radon y el planteamiento algebraico del problema. El capítulo dos introduce los métodos iterativos para reconstrucción tomográfica con énfasis en SIRT y MLEM (Simultaneous Iterative Reconstruction Techniques y Maximum Likelihood Expec- tation Maximization, respectivamente); se abordan las técnicas de reconstrucción en el contexto de las condiciones de Hadamard para problemas “bien y mal planteados”; la teoría básica del sensado compresivo y los resultados más relevantes de tal teoría para esta tesis; y finalmente el capítulo concluye con la técnica de regularización por Variación Total en el contexto de la teoría del sensado compresivo y su aplicación a la reconstrucción tomográfica. El tercer capítulo muestra el efecto del ruido y las pocas proyecciones en recons- trucciones hechas con SIRT y MLEM y se introducen los criterios que se utilizarán en el resto de la tesis para evaluar la calidad de las imágenes reconstruidas; des- pués se llega al corazón de la tesis introduciendo los dos algortimos implementados que son versiones de SIRT y MLEM pero usando la regularización por variación 7 total: “SIRT+TV” y “MLEM+TV”. Al haber introducido estos algoritmos, el ca- pítulo continúa con la discusión de los parámetros que utilizan estos algoritmos y la metodología que se implementó para poder elegir el conjunto de parámetros que logra reconstruir las imágenes de mejor calidad. Las últimas partes de este capítulo muestran las reconstrucciones hechas de los maniquís sintéticos Shepp-Logan y el maniquí Forbild con ruido añadido y utilizando distintos números de proyecciones empleando la metodología para la elección de parámetros discutida previamente. Los resultados de estas secciones mostraron que introducir la regularización por varia- ción total logra controlar de manera evidente la propagación del ruido y la aparición de artefactos y superan claramente la calidad de las reconstrucciones hechas solo con SIRT o MLEM. El capítulo cuatro, muestra la aplicación de los dos algoritmos con regularización por variación total implementados a dos técnicas experimentales diferentes: tomogra- fía computarizada (CT) y tomografía óptica de luminiscencia estimulada por rayos X (TORX). Para la TORX los datos utilizados fueron obtenidos a partir de una simulación numérica de un arreglo experimental. Se detalla el algoritmo que simula tal arreglo, se discute brevemente la estructura del maniquí utilizado y las resolucio- nes de muestreo utilizadas. Después se muestran todos los resultados obtenidos para las distintas resoluciones; se muestran las imágenes reconstruidas, tablas y gráficas que comparan la calidad de las reconstrucciones y se observó nuevamente que añadir la regularización por variación total logra mejorar visiblemente la calidad respecto a los algoritmos SIRT y MLEM sin regularización. El capítulo termina mostrando las reconstrucciones de imágenes tomográficas de un tomógrafo de rayos X de la FIPS (Finnish Inverse Problems Society); los datos son de libre distribución en su sitio web y son tomografías de una nuez y una raíz de loto. En este caso también se mostró que la regularización mejora la calidad de las reconstrucciones. El último capítulo presenta las conclusiones y las perspectivas a futuro que pue- den ayudar a continuar el estudio abarcado en esta tesis. 8 Capítulo 1 El problema tomográfico 1.1. Introducción Una de las principales aportaciones de la Física a la Medicina en último siglo es la obtención de imágenes tomográficas. La palabra tomografía proviene del vocablo griego tomos que significa rebanada, y del griego graphein que significa escribir [Suetens, 2009]. Una imagen tomográfica es una representación gráfica de la sección transversal de un objeto reconstruida a partir de sus proyecciones. Una proyección se refiere a la información que se obtiene a partir de la energía transmitida de un haz de rayos X incidente en una dirección particular. Los rayos X que pasan a través del objeto se atenúan principalmente mediante cuatro mecanismos que son absorción fotoeléctrica, dispersión Compton, dispersión de Rayleigh y producción de pares. La presencia de estos fenómenos atenuantes depende de las propiedades materiales del objeto. Las propiedades atenuantes del objeto se describen con el coeficiente lineal de atenuación que se representa por medio de una función µ = µ(~r, E) en donde ~r es el vector de posición de un elemento material del objeto y E es la energía del rayo incidente. Si el haz incidente es monoenergético entonces el coeficiente de atenuación se reduce a µ = µ(~r), y debido a que las imágenes tomográficas son secciones transver- sales del objeto, se puede expresar como una función de dos variables µ = µ(x, y) en un sistema de referencia XY como se muestra en la figura 1.1 9 x y µ = µ(x, y) L ` x y µ = µ(x, y) I0 I Figura 1: Top view. 1 (a) (b) Figura 1.1: (a) Sección transversal de un objeto representada por el coeficiente lineal de atenuación, también se muestra un haz colimado y la línea de trayectoria. (b) Distintas geometrías de haz de rayos X en CT, haz en paralelo (izquierda) y haz en abanico (derecha). En la figura 1.1 también puede observarse un haz colimado de rayos X mono- energético con intensidad incidente I0 que al atravesar el objeto se atenúa y sale con una intensidad I. La relación entre estas dos intensidades está dada por la ley de Beer-Lambert expresada como la integral de línea I = I0exp ( − ∫ ` µ(x, y)dl ) (1.1) en donde ` es el segmento de línea a lo largo del objeto, que representa la trayectoria del rayo transmitido. Dicha integral de línea corresponde a una proyección a lo largo de la línea ` . Cuando se tiene un haz de rayos X se tienen varias proyecciones determinadas por el conjunto de trayectorias de los rayos del haz que cubren el campo de vista (FOV, del inglés field of view). En tomografía computarizada (CT, del inglés computed to- mography) se usan principalmente dos tipos de geometrías para los haces utilizados, el haz de rayos paralelos y haz de rayos en abanico (fan-beam) como se observa en la figura 1.1(b). El haz de rayos X se rota al rededor del objeto para medir proyecciones a muchos ángulos. Para obtener las proyecciones del haz de rayos X se utiliza un sistema de adquisición de datos que incluye el uso de fotodiodos o contadores de fotones para medir la intensidad de los rayos X transmitidos. Las bases matemáticas para reconstruir una sección transversal o de manera más precisa, la obtención de la función µ(x, y) a partir de sus proyecciones, fueron desa- rrolladas por Johann Radon en 1917. Sin embargo el primer escáner para reconstruir imágenes tomográficas fue desarrollado por Godfrey N.Hounsfield en 1972 y se basó en algunos algoritmos desarrollados por Allan Cormack. Ambos recibieron el premio Nobel en medicina en 1979. 10 1.2. Transformada de Radon. Para estudiar la teoría matemática desarrollada por Radon en 1917 [Radon, 1986], considérese la geometría de haz de rayos paralelos mostrada en la figura 1.2. I FO V r s y ✓ I✓(r) I✓(r) r p✓(r) r ), y) µ(x, y) x I0 Figura 2: Top view. 2 Figura 1.2: Geometría de rayos paralelos (Imagen tomada de [Suetens, 2009]). Los rayos X forman un ángulo θ respecto al eje y y con este ángulo se define una rotación de coordenadas. El sistema de coordenadas RS permite calcular las integrales para cada rayo del haz. Los rayos son paralelos al eje s y se supone que están equiespaciados respecto a la coordenada r. La intensidad de los rayos incidentes es I y se puede calcular la atenuación de cada uno en función de la coordenada r usando la integral de línea dada por la ecuación (1.1). Para ello se utilizan las matrices de rotación dadas por (1.2).[ x y ] = [ cos θ −sin θ sin θ cos θ ] [ r s ] [ r s ] = [ cos θ sin θ −sin θ cos θ ] [ x y ] (1.2) Así para un ángulo fijo θ, se puede calcular la intesidad atenuada de cada uno de los rayos del haz en función de su posición en la coordenada r. Utilizando (1.1) se obtiene el perfil de intensidad como función de r, Iθ(r) Iθ(r) = I exp (∫ `r,θ µ(r · cos θ − s · sin θ, r · sin θ + s · cos θ)ds ) (1.3) En donde la recta `r,θ es la recta que representa la trayectoria del haz a distancia r del origen del sistema de coordenadas incidente a un ángulo θ. Tomando el logaritmo 11 se define lo que es el perfil de atenuación, pθ(r) pθ(r) = −ln Iθ(r) I = (∫ `r,θ µ(r · cos θ − s · sin θ, r · sin θ + s · cos θ)ds ) (1.4) Así, el perfil de atenuación corresponde a la proyección del coeficiente de atenua- ción a lo largo de `r,θ. Se pueden tomar distintos ángulos θ en el intervalo [0, 2π] para obtener más pro- yecciones y construir una función P (r, θ), llamada sinograma. La figura (1.3) muestra el maniquí Shepp-Logan, el cual es una imagen de prueba estandarizada creada por Larry Shepp y Benjamin Logan [Shepp and Logan, 1974], y sirve como modelo de una cabeza humana en el desarrollo y prueba de algoritmos de reconstrucción de imágenes . La transformación de la función µ(x, y) a su sinograma corresponde a la transformada de Radon. R{µ}(r, θ) ≡ P (r, θ) = (∫ `r,θ µ(r · cos θ − s · sin θ, r · sin θ + s · cos θ)ds ) (1.5) 50 100 150 200 250 50 100 150 200 250 0 10 20 30 40 50 60 70 80 90 100 (a) 50 100 150 θ 50 100 150 200 250 r 0 10 20 30 40 50 60 70 80 90 (b) Figura 1.3: (a) Maniquí Shepp-Logan; se muestran las dimensiones en pixeles en los ejes y la escala de grises correspondiente. (b) Transformada de Radon o sinograma del maniquí Shepp-Logan. Obtener proyecciones de manera experimental es medir las intensidades ate- nuadas del haz de rayos X a distintos ángulos y a diferentes posiciones, es decir, experimentalmente se mide el sinograma o transformada de Radon. Así la recons- trucción de una imagen tomográfica es obtener el coeficiente de atenuación µ(x, y) a partir de su sinograma R{µ}(r, θ), es decir que reconstruir la sección transversal del objeto equivale a resolver el problema inverso a la transformada de Radon. Por lo tanto, resolver el problema tomográfico consiste en encontrar (si es que existe) la “transformada inversa de Radon”. µ(x, y) = R−1 (P (r, θ)) 12 La aproximación más simple a la transformada inversa de Radon consiste integrar con respecto a θ el sinograma P (r, θ) y asignar los valores a las coordenadas (x, y) en función de la coordenada r utilizando el cambio de variable r = xcos θ + ysin θ dada por (1.2) BP (x, y) = ∫ π 0 P (r, θ)dθ = ∫ π 0 P (xcos θ + ysin θ, θ)dθ (1.6) La ecuación (1.6) se conoce como retroproyección (Backprojection). La retropro- yección es una primera aproximación que no sirve bien pues con ella se obtienen imágenes borrosas como se observa en la figura 1.4(a). 50 100 150 200 250 50 100 150 200 250 25 30 35 40 45 50 55 60 65 70 (a) 50 100 150 200 250 50 100 150 200 250 0 0.2 0.4 0.6 0.8 1 (b) Figura 1.4: (a) Retroproyección. Implementada con la función iradon de MATLAB usando el filtro ’none’, es decir la ec. (1.6) sin filtro.(b) Filtered Back Projection (FBP), imple- mentada con la función iradon de MATLAB. La transformada inversaR−1 se obtiene por medio del teorema de la rebanada central . Este teorema relaciona la transformada de Radon de la función µ(x, y) con las transformadas de Fourier. El teorema establece las siguientes ecuaciones y una demostración puede verse en [Suetens, 2009]. Sea F{µ}(kx, ky) la transformada en 2D de la función µ(x, y). F{µ}(kx, ky) = ∫ ∞ −∞ ∫ ∞ −∞ µ(x, y)e−2πi(kxx+kyy)dxdy y sea Pθ(k) la transformada de Fourier de pθ(r). Pθ(k) = ∫ ∞ −∞ pθ(r)e −2πikrdr Haciendo θ variable, el teorema afirma la siguiente igualdad: P(k, θ) = F{µ}(kx, ky); ∴ F−1{P(r, θ)} = µ(x, y) (1.7) en donde kx = kcos θ ky = ksin θ k = √ k2x + k 2 y (1.8) 13 Entonces si se mide el sinograma P (r, θ) y se calcula su transformada de Fourier en 1D en la variable r utilizando el cambio de variable dado por (1.8) y la igualdad dada por (1.7), se puede calcular la transformada inversa de Fourier en 2D y así obtener µ(x, y) F−1{P(r, θ)} = µ(x, y) Para calcular la transformada inversa de Fourier de la ecuación (1.7) se necesita usar la versión polar de la transformada inversa de Fourier en 2D dada por µ(x, y) = ∫ π 0 ∫ ∞ −∞ P(k, θ)|k|ei2πkrdkdθ, (1.9) con r = xcos θ + ysin θ. Definiendo P∗(k, θ) = P(k, θ)|k| y P ∗(k, θ) = ∫ ∞ −∞ P∗(k, θ)ei2πkrdk la ecuación (1.9) se convierte en µ(x, y) = ∫ π 0 P ∗(k, θ)dθ. (1.10) A la ecuación (1.10) se le llama retroproyección filtrada (FBP del inglés filtered back projection). Esta ecuación es como la retroproyección dada por 1.6 pero se introduce un filtro en el dominio de frecuencias (es decir, se multiplica la función a retroproyectar por el filtro “ramp” |k|, en el dominio de Fourier). La retroproyección filtrada satisface el teorema de la rebanada central y por ende puede ser identificada como la transformada inversa de Radón. Un ejemplo de FBP puede observarse en la figura 1.4 (b). 1.3. Tomografía discreta Todo lo discutido en la sección anterior ha supuesto implícitamente el uso de variables continuas para el uso de las transformadas integrales presentadas. Sin embargo en la práctica debido a la precisión finita de los números, la aritmética de las computadoras, y a que tampoco se mide un sinograma continuo sino un conjunto finito de puntos P (rn, θm) (con n ym en un conjunto de índices), se necesita discretizar el sinograma por una malla de n×m puntos. Tal discretización puede ser definda por la geometría de la instrumentación utilizada para obtener las mediciones. La geometría de la instrumentación incluye el tipo de haz (paralelo o de abanico), la cantidad de ángulos θm en los que se hacen incidir el haz de rayos X, el número de detectores utilizados en el arreglo que mide la intensidad de los rayos transmitidos (esto define el número de rayos que tiene el haz y por tanto define las coordenadas rn) y la resolución de la imagen que se desea reconstruir (número de pixeles que tendrá el tamaño de las imágenes). Si tal discretización es lo suficientemente fina, con una cantidad grande de rayos y muchas proyecciones entonces comúnmente se 14 integran tales mediciones con la versión discreta de la FBP (1.10). Por simplicidad, la siguiente deducción ilustra el planteamiento del problema para un haz paralelo de rayos X. Definir la resolución de la imagen o el número de pixeles equivale a discretizar el coeficiente de atenuación µ(x, y) en una malla de N ×N elementos pero enumerán- dolos con un solo índice j = 1, 2, ...N2, (µj) como se muestra en la figura 1.5(a). Esta discretización está definida por los N detectores utilizados en la instrumentación y denotados por las letras b1,b2, ..., bN . Estos detectores también definen el número de rayos que forman el haz, que de ahora en adelante se denotará con Nrays, es decir se tiene que Nrays = N , por lo que estas letras se utilizarán de manera indistinta en lo siguiente. Esta figura corresponde al ángulo θ1 = 0. Así, las intensidades medi- das por los detectores son I1, I2, ..., IN para el ángulo θ1. La intensidad de los rayos incidentes es I0 para todo rayo en el haz. Al tener un conjunto discreto de coeficientes de atenuación las integrales de línea pasan a ser sumas y la transformada de Radon se puede ver como un sistema de ecuaciones lineales como se muestra a continuación [Kak and Slaney, 2001]. Para el rayo con intensidad atenuada Il con l = 1, 2, ...N se tiene que Il = I0exp − l·N∑ i=[(l−1)·N ]+1 d · µi . en donde d es la longitud de un pixel como se observa en la figura 1.5(a). Debido a que se conocen las intensidades I0 e I1, se puede denotar a la suma con la misma etiqueta con la que se denotó a los detectores del arreglo. Despejando la suma se puede hacer bl ≡ −ln ( Il I0 ) = l·N∑ i=(l−1)·N+1 d · µi (1.11) Para obtener más proyecciones se necesita hacer un barrido a distintos ángulos en el intervalo [0, π], pues por simetría los valores de las sumas obtenidas para proyecciones con ángulos en [π, 2π] son iguales a las sumas en el intervalo anterior. Así, tomando un conjunto finito de Nθ ángulos en el intervalo [0, π], se pueden medir más proyecciones como se muestra en la figura 1.5(b). Por la simetría mencionada (θ1 = θNθ , para los ángulos θk con k = 1, ..., Nθ−1, se pueden medir más proyecciones y obtener más sumas como las de la ecuación (1.11). Sin embargo hay que hacer algunas modificaciones pues al cambiar el ángulo, la distancia que recorre un rayo ya no es igual a d. Por ejemplo, como se puede observar en la figura para el último rayo con intensidad atenuada IN(k+1), la distancia que recorre al atravesar el primer pixel que toca es di,j. Las nuevas sumas bkN+l se enumeran de forma consecutiva a las sumas correspondientes al ángulo anterior. Por ejemplo la última suma para θ1 corresponde a bN , por lo que las sumas para θ2 se enumerarán de la forma bN+1, bN+2, ..., b2N . La suma bkN+l esta dada por la siguiente ecuación. Haciendo i = kN + l bi = ∑ j∈IN di,j · µj, (1.12) 15 µ1 µ3 µ2 µN µ N+1 µ N+2 µ N+3 µ 2N µj�1 µj µj+1 µ N2 I 0 I 0 I 0 I 1 I 2 I N Ar reg lo de de tec tor es µ1 µ3 µ2 µN µ N+1 µ N+2 µ N+3 µ 2N µj�1 µj µj+1 µ N2 I0 I0 I0 I1 I2 IN Arreglo de detectores ✓k b1 b2 bN b kN + 1 b kN + 2 b N( k+ 1) } d } d Figura 3: Top view. 3 (a) µ1 µ3 µ2 µN µ N+1 µ N+2 µ N+3 µ 2N µj�1 µj µj+1 µ N2 I 0 I 0 I 0 I kN + 1 I kN + 2 I N( k+ 1) Ar reg lo de de tec tor es d i,j µ1 µ3 µ2 µN µ N+1 µ N+2 µ N+3 µ 2N µj�1 µj µj+1 µ N2 I0 I0 I0 I1 I2 IN Arreglo de detectores ✓k b1 b2 bN b kN + 1 b kN + 2 b N( k+ 1) } d } d } Figura 3: Top view. 3 (b) Figura 1.5: (a)Discretización de la función µ(x, y). Las proyecciones se miden con el arreglo de detectores bl. (b)Rotación a un ángulo θk de el haz de rayos paralelos. Las proyecciones se miden con el arreglo de detectores en la nueva posición definida por ángulo dado. 16 en donde IN es un conjunto de índices que corresponde a los subíndices de los pixeles que atraviesa el rayo que llega al el i-ésimo detector. Entonces teniendo Nrays y Nθ ángulos se tienen en totalM = Nrays ×Nθ proyecciones. Es decir podemos escribir ~b ≡ (b1, b2, ..., bM), de igual forma ~x ≡ (µ1, µ2, ..., µN2 ). Viendo a estos vectores como vectores columna, podemos expresar todas las sumas como un sistema de ecuaciones de la forma A~x = ~b, (1.13) en donde las entradas de la matriz A ∈ M M×N2 corresponden a las distancias que atraviesan los rayos para contribuir a alguna proyección. Anteriormente se utilizo la letra di,j para denotar a tales distancias pero de ahora en adelante a los coeficientes de la matriz A simplemente se denotarán por ai.j. A la matriz A se le llama matriz de proyección o simplemente matriz del sistema. Los coeficientes ai,j también se pueden interpretar como la contribución del j-ésimo pixel µj a la i-ésima medida bi. Si se normalizan las distancias entonces estos coeficientes pueden tomar valores entre 0 y 1 y también se puede interpretar como la probabilidad de que el j-ésimo pixel contribuya a la i-ésima proyección (interpretación que es útil, por ejemplo, para las imágenes obtenidas con ténicas PET y SPECT). De la figura 1.5(b) se puede apreciar que calcular los coeficientes ai,j es un asunto geométrico que tiene que tomar en cuenta las dimensiones de los pixeles, la distancia de separación de los rayos y los ángulos para los cuales se miden las proyecciones. Calcular tales coeficientes puede ser muy complicado y largo de resolver y exis- ten distintos algoritmos que permiten calcular la matriz de proyección. Uno de los algoritmos más utilizados es el algoritmo de Siddon [Siddon, 1985]. La idea básica de tal algoritmo es considerar a los pixeles como las áreas de intersección entre conjuntos ortogonales de líneas paralelas equiespaciadas. Se para- metrizan cada una de las líneas que representan las trayectorias de los rayos proyec- tados con una ecuación de la forma ~L(α) = ~p1 + α(~p2 − ~p1), con ~p1 y ~p2 siendo dos puntos que definen cada una de las trayectorias y α ∈ [0, 1]. Entonces se calculan los puntos de intersección con cada una de las líneas que definen el conjunto de pixeles para cada rayo. El algoritmo trabaja de forma inicial para cada trayectoria calcu- lando solo la intersección de “entrada” del rayo con la primera línea del conjunto y la intersección de “salida” con la última línea del conjunto y, utilizando la geometría ortogonal y equiespaciada, calcula las demás intersecciones intermedias de forma recursiva. La longitud ai,j buscada está dada en términos del parámetro α con el que se parametrizan las trayectorias. Para una explicación detallada del algoritmo veáse [Siddon, 1985]. Mejoras al algoritmo para hacer el calculo más rápido se han propuesto por ejemplo en [Jacobs et al., 1998]. En esta tesis se utilizaron los algo- ritmos implementados en [Hansen and Saxild-Hansen, 2012] incluídos en el paquete AIR TOOLS para MATLAB. Así, el problema tomográfico se traduce a resolver el sistema lineal de ecuacio- nes (1.13) para encontrar los valores de los coeficientes lineales de atenuación que 17 corresponden a las entradas del vector ~x. Es decir, dadas las proyecciones ~b (sino- grama) medidas con el arreglo de detectores que rodean el objeto y la geometría de la instrumentación que define la matriz de proyección A. En el capítulo 2, se describen los métodos numéricos que se emplean para resolver el sistema planteado en la ecuación 1.13. 18 Capítulo 2 Reconstrucción Tomográfica, Sensado Compresivo y Variación Total 2.1. Introducción En este capítulo se introducen los métodos iterativos para la reconstrucción to- mográfica, los métodos de regularización, la teoría básica del Sensado Compresivo y finalmente la Regularización por Variación Total. En la primera sección de este capítulo se detallan los métodos iterativos de reconstrucción tomográfica y algunas de sus características principales. En la segunda sección, se detallan los métodos de regularización en el contexto de las condiciones de Hadamard para sistemas de ecua- ciones lineales. Después, en la tercera sección, se introduce de manera condensada la teoría de Sensado Compresivo resumiendo los resultados más relevantes para el objetivo de esta tesis. Finalmente en la cuarta sección se habla de la Regularización por Variación Total, su relación con la teoría del sensado compresivo y su aplicación a la reconstrucción tomográfica. 2.2. Reconstrucción iterativa Si se decide resolver el sistema de ecuaciones en vez de integrar el sinograma con la FBP, se tienen que tomar en cuenta varias propiedades de los sistemas de ecuaciones lineales para elegir un método de solución.Por ejemplo, encontrar las soluciones a (1.13) resulta ser computacionalmente difícil si las dimensiones de la matriz A son muy grandes y por ello los métodos típicos de solución como eliminación Gaussiana o encontrar la matriz inversa A−1 suelen ser muy costosos en cuanto a tiempo de cómputo. También se puede tener que el sistema esté subdeterminado, es decir tener menos ecuaciones que incógnitas ( N2 >M), en cuyo caso la matriz inversa no existe y por tanto tener un subespacio solución de donde se puede elegir alguna solución ~x, por lo que no se llega a una solución única. Una alternativa para resolver estos sistemas lineales de ecuaciones son los métodos iterativos. Los métodos iterativos son algoritmos que, a partir de una estimación inicial 19 ~x0, aplican una fórmula recursiva de la forma ~xk+1 = f(~xk) para generar una suce- sión de vectores ~x1, ~x2, ..., ~xk, ... que son soluciones aproximadas que convergen a la solución buscada ~x. Es decir ~xk → ~x cuando k →∞ [Loehr, 2014a]. La ventaja de los algoritmos iterativos es que con las computadoras actuales se pueden escribir rutinas en diferentes lenguajes de programación de manera relativa- mente sencilla y debido a la velocidad de procesamiento, estos algoritmos resultan ser muy rápidos en cuanto a tiempo de cómputo en comparación con los métodos de eliminación Gaussiana o descomposición de matrices como se menciona en [Beister et al., 2012]. Existen varios tipos de algoritmos iterativos que suelen aparecer en los libros de álgebra lineal numérica (véase [Loehr, 2014b] capítulo 10) como el algoritmo de Richardson, el algoritmo de Jacobi y uno de los más conocidos es el algoritmo Gauss-Seidel. Las condiciones de convergencia de estos métodos han sido estudiadas de manera detallada y en esa misma referencia pueden verse las condiciones para la convergencia del algoritmo Gauss-Seidel. Por ejemplo, el algoritmo de Richarson está dado por la ecuación ~xk+1 = ~xk + (~b− A~xk) (2.1) Los algoritmos de interés en el desarrollo de esta tesis que se implementan común- mente en la reconstrucción de tomografías se describen brevemente a continuación. 2.2.1. Algoritmo ART En el caso de tomografía computarizada, el primer algoritmo que se implementó para resolver el sistema (1.13), es el algoritmo ART (del inglés Algebraic reconstruc- tion techniques). El algoritmo ART fue introducido en [Gordon et al., 1970] y se basa esencialmente en el algoritmo de Kaczmarz [Kaczmarz, 1937]. El algoritmo se puede escribir de la siguiente forma: ~x+ λk(bi − 〈ai, ~x〉) ai ‖ai‖22 → ~x, (2.2) en donde a λk se le conoce como parámetro de relajación, ‖ · ‖ representa la norma `2 y ai es el i-ésimo renglón de la matriz A (que es un vector de la misma dimensión de ~x). En este algoritmo la k-ésima iteración ~xk consiste en un “barrido” a través de las columnas de A, es decir que para obtener cada iteración ~xk, se debe seguir la regla dada por la la ecuación (2.2) variando i desde 1 aM. En pseudocódigo se vería de la siguiente forma x_0=aproximacion inicial for k=1,2,...,iterNUM --->for i=1,2,...M --->x_k=x_{k-1}+Lam_k (b_i- a_i*x_{k-1})(a_i/||a_i||^2) --->return x_k --->end 20 end x_final=x_iterNUM El número M corresponde aM y el iterNUM es el número de veces que se aplicará de forma recursiva la ecuación (2.2) para obtener la secuencia ~x1, ...~xiterNUM . x* es la solución aproximada a (1.13) ya que en la práctica no se puede hacer k → ∞. también es común dejar el parámetro de relajación fijo para toda iteración, es decir se hace λk = k y Kaczmarz utiliza λ = 1. Una interpretación geométrica de la convergencia del algoritmo puede estudiarse en [Kak and Slaney, 2001] capítulo 7. 2.2.2. Algoritmos SIRT Los algoritmos SIRT (del inglés Simultaneous Iterative Reconstrution Techni- ques) son mejoras al algoritmo ART, pues como se discute en [Gilbert, 1972] y en [Andersen and Kak, 1984], el algoritmo ART presenta algunas limitaciones da- das por la naturaleza de las hipótesis que se utilizan en [Gordon et al., 1970]. Los algoritmos SIRT llevan el nombre de “simultáneos” porque a diferencia de ART, en donde se tiene que iterar renglón por renglón de la matriz A, todas las ecuaciones son utilizadas al mismo tiempo en una sola iteración por medio de operaciones entre matrices y vectores. La forma general de estos algoritmos es ~xk+1 = ~xk + λkTA TM(~b− A~xk), (2.3) en donde λk es nuevamente el parámetro de relajación, M y T son matrices que determinan el algortimo en particular que se utiliza. La característica principal de las matrices M y T es que son matrices simétricas positivas definidas. En [Hansen and Saxild-Hansen, 2012] se mencionan algunos tipos de algoritmos SIRT como son el método de Landweber, el método de Cimmino y SART (del inglés Simultaneous Algebraic Reconstruction Technique). Para el interés de esta tesis en particular, se utilizó el algoritmo SART (se eligió tal algoritmo debido a que es el más comúnmente implementado en las referencias consultadas durante el desarrollo de este trabajo) que está dado por ~xk+1 = ~xk + λkCA TR(~b− A~xk), (2.4) en donde las matrices C ∈ M N2×N2 y R ∈ MM×M son matrices diagonales cuyos elementos están dados por cj,j = 1∑ i ai,j ; ri,i = 1∑ j ai,j En diversa literatura se intercambian de manera indistinta los términos SIRT y SART para denotar al algoritmo SART. De aquí en adelante para el desarrollo de esta tesis se utilizará solo el término SIRT para denotar a la ecuación (2.4) a menos que se quiera hacer una distinción explícita entre algoritmos. 21 2.2.3. Algoritmo MLEM El alrgoritmo MLEM (del inglés Maximum Likelihood Expectation Maximiza- tion) es aplicado para tomografía por transmisión y para tomografía por emisión en [Lange and Carson, 1984], y es un algoritmo que se basa en la naturaleza estadís- tica de los fotones que son emitidos y detectados en la medición de las proyecciones. Debido a que la estadística de los fotones es distinta en ambas modalidades (emi- sión ó transmisión), la deducción de este algoritmo cambia un poco entre las dos modalidades pero suele usarse en primera aproximación para ambas, la deducción que considera la estadística de emisión. La breve discusión que aquí se presenta es una simplificación del artículo de Lange y Carson como la presenta [Bruyant, 2002]. Para la estadística de emisión de fotones (como en el caso de Tomografía por Emisión de Positrones, PET), el vector ~x que aparece en 1.13 representa las desinte- graciones radiactivas (PET) o emisiones que ocurren en el cuerpo que está emitiendo los fotones, así el elemento xi representa las desintegraciones que ocurren en el pixel j-ésimo de la imagen. Los elementos de matriz ai,j representan la probabilidad de que el i-ésimo detector mida un fotón emitido por el pixel j y ~b es el sinograma me- dido. El objetivo del algoritmo MLEM es encontrar una solución “general” como el mejor candidato estimado a ~x: el número promedio de emisiones o desintegraciones radiactivas ~x en la imagen que pueden producir el sinograma dado con la mayor probabilidad . Esto se logra utilizando la ley de Poisson que permite predecir la probabilidad de un número determinado de conteo de fotones a partir del número promedio de desintegraciones. Cada paso del algoritmo consiste en dos pasos básicos: el paso de expectación (paso E), en donde se calcula la probabilidad de que cualquier imagen sea reconstruida en función a las mediciones, y en el paso de maximización (paso M), la imagen que tiene la mayor probabilidad de dar los datos medidos es encontrada. El algoritmo se reduce en aplicar la fórmula recursiva dada por 2.5. x (k+1) j = x (k) j∑M i=1Ai,j M∑ i=1 bi∑N2 j′=1Ai,j′x (k) j′ Ai,j (2.5) Para deducir esta ecuación considérese el número promedio de desintegraciones en el pixel j, xj. El número promedio de fotones emitidos del pixel j y detectados por el detector i, es ai,jxj. El número promedio de fotones detectados por el detector i es la suma de los números promedios de fotones emitidos por cada pixel: bi = m∑ j=iai,jxj. El número de fotones emitidos de los m pixeles y detectados por el i-ésimo detector es una variable de Poisson. Así, la probabilidad de detectar bi fotones está dada por P (bi) = e −bi b bi i bi! Todas las variables de Poisson se consideran estadísticamente independientes y la probabilidad condicional P (b|x) de observar el vector ~x cuando el mapa de emisión 22 es ~x es el producto de las probabilidades individuales P (bi). Esto da la función de probabilidad L(~x): L(~x) = P (b|x) = n∏ i=1 P (bi) = n∏ i=1 e −bi b bi i bi! . Para hallar el máximo valor para la probabilidad L(~x) se utiliza la derivada. Para maximizar la expectación (paso E), usualmente se considera l(~x) = ln(L(~x)). Y utilizando las propiedades del logaritmo natural, la ecuación anterior se convierte en l(~x) = n∑ i=1 ( −bi + biln(bi)− ln(bi!) ) , (2.6) sustituyendo: l(~x) = n∑ i=1 ( − m∑ j=i ai,jxj + biln( m∑ j=i ai,jxj)− ln(bi!) ) . (2.7) Esta ecuación conocida como función de probabilidad, es fundamental para el al- goritmo MLEM pues permite calcular la probabilidad de observar un conjunto de datos de proyecciones a partir de cualquier imagen ~x. Y el paso de maximización (paso M) es para encontrar la imagen con mayor probabilidad que es considerada la solución óptima. Se ha demostrado en trabajos posteriores a [Lange and Carson, 1984], que l(~x) tiene uno y solo un máximo el cual se obtiene al derivar e igualar a cero: ∂l(~x) ∂~x = − n∑ i=1 ai,j + n∑ i=1 bi∑m j′=1 ai,j′xj′ ai,j = 0. (2.8) Multiplicando por xj y despejando se llega a la ecuación que da el esquema iterativo de la ecuación 2.5: xj = xj∑n i=1 ai,j n∑ i=1 bi∑m j′=1 ai,j′xj′ ai,j. (2.9) 2.2.4. Convergencia de los algoritmos Una de las preguntas que surge naturalmente al trabajar con métodos iterativos es cuántas iteraciones se deben hacer para que la solución k-ésima sea una “buena” aproximación a la solución exacta ~x. Un criterio comúnmente utilizado es utilizar niveles de tolerancia tales como ‖~xk+1 − ~xk‖2 < �x, en donde �x define un nivel de tolerancia para la norma de la diferencia entre itera- ciones consecutivas o bien definiendo el término de fidelidad como ‖A~xk −~b‖2, entonces ‖A~xk −~b‖2 < �f , (2.10) siendo �f la tolerancia para el término de fidelidad. 23 Otro criterio utilizado involucra a alguna imagen de referencia para comparar la imagen reconstruida. Si ~xref representa la imagen de referencia vectorizada, se puede definir el error cuadrático medio (MSE, del inglés mean squared error) como: MSEk = 1 MN ‖~xref − ~xk‖22, (2.11) en donde MN es la dimension de la imagen (M ×N pixles) y el subíndice k denota el error cuadrático medio de la k-ésima iteración. Luego, puede usarse esta medida y así automatizar el número de iteraciones hasta que se satisfaga algún nivel de tolerancia dado. MSEk < �mse (2.12) Existen teoremas que demuestran que el algoritmo ART converge a la solución bus- cada ~x (veáse [Eggermont et al., 1981]); una de las condiciones de convergencia es que λk ∈ (0, 2). También diversos autores han estudiado la convergencia de los al- goritmos SIRT ( [Censor and Elfving, 2002], [Censor et al., 2008], [Jiang and Wang, 2003a], [Jiang and Wang, 2003b], [Qu et al., 2009], [Van der Sluis and Van der Vorst, 1990]); y en [Hansen and Saxild-Hansen, 2012] se hace referencia a un teorema que resume los resultados de estos autores y que es muy práctico para los intereses de esta tesis. dTeorema 1 : Los iterados ~xk de (2.3) convergen a una solución ~x∗ de argmin x ‖A~x−~b‖2M si y sólo si 0 < � ≤ λk ≤ 2 ρs(TATMA) − �, (2.13) en donde ‖A~x −~b‖2M = (A~x − b)TM(A~x − b), y � es una constante fija pequeña y arbitraria. Si además ~x0 está en el rango (o imagen) de TAT entonces la solución ~x∗ es única con norma ‖ · ‖−1T . (Aquí ρs(Q) representa el radio espectral de una matriz Q definido como el eigenvalor positivo más grande).c Así, los algortimos SIRT resuleven el problema de optimización conocido como mínimos cuadrados ponderados (en inglés weighted least squares). En el caso particular de SART, T = C yM = R resulta ser que ρs(CATRA) = 1 y así, tomando � = 0 la convergencia está garantizada siempre y cuando el parámetro de relajación satisfaga 0 < λk ≤ 2. (2.14) Esta condición de convergencia es importante y fue explotada fuertemente en la implementación de algoritmos y en el análisis de resultados de esta tesis como se explicará en capítulos siguientes. Por otro lado la convergencia de MLEM es estudiada por [Kaufman, 1993]. En su artículo Kaufman establece que MLEM es equivalente a aplicar el proceso de expectación y maximización (EM) a un problema de mínimos cuadrados ponderados parecido al de la ecuación del teorema 1. Así que MLEM también minimiza la distancia entre A~x y ~b. 24 2.3. Métodos de regularización Los algoritmos algebraicos presentados en la sección anterior resuelven el sistema (1.13) logrando reconstruir imágenes tomográficas de buena calidad bajo ciertas con- diciones. Una característica importante que se debe mencionar acerca de los sistemas de ecuaciones lineales como éste, es la de si el problema está o no “bien planteado” (en inglés well-posed problem). Por definición, un sistema está “bien planteado” si satisface las condiciones de Hadamard [Bakushinskiy and Goncharsky, 1994] dadas por: 1. La solución existe. 2. La solución es única. 3. La solución es estable con respecto a pequeñas perturbaciones en ~b, en el sentido de que si A~x0 = ~b0 y A~x = ~b, entonces ~x→ ~x0 cuando ~b→ ~b0. Equivalentemente el sistema (1.13) está “bien planteado” si la matriz del sistema A es biyectiva (invertible) y el operador inverso A−1 es estable en el sentido del punto 3. Si una de las condiciones de Hadamard no se satisface se dice que el sistema está “mal planteado” (en inglés ill-posed problem). La primera condición puede no satisfacerse si, por ejemplo, los datos medidos en~b contienen algún tipo de ruido. La unicidad de la solución para la segunda condición, depende del número de ecuaciones e incógnitas y en los problemas tomográficos generalmente el sistema está subdeterminado. La tercera condición casi siempre se viola en la presencia de ruido pues éste se propaga rápidamente dando una solución alejada de la deseada [Wang et al., 2011]. Cuando se tiene un problema “mal planteado” se sigue una técnica conocida como regularización que consiste en imponer condiciones adicionales para restringir al problema y de alguna manera estabilizarlo. Una manera no tan rigurosa de ver cómo la tercera condición de Hadamard produce problemas mal planteados ante la presencia de ruido y lo que son las técnicas de regularización, es estudiar más a detalle el sistema (1.13) con la teoría espectral de matrices simétricas. Dado que A ∈ M M×N2 no es necesariamente una matriz cuadrada entonces po- demos extender el sistema con la matriz AT ATA~x = AT~b. Definiendo As ≡ ATA y ~y ≡ AT~b, reescribimos el sistema como As~x = ~y. As ∈ MN2×N2 es una matriz positiva definida (es decir, ~r · (As~r ) > 0 para todo vector ~r 6= ~0 ∈ RN 2 ) y por tanto existen N2 eigenvalores 0 ≤ λ1 ≤ λ2 ≤ ... ≤ λN2 25 y los correspondientes eigenvectores ui que forman una base ortonormal en la cual As tiene una representación diagonal de la forma [Doicu et al., 2010]: As = N2∑ i=1 λiuiu T i . El número de condición está definido por el cociente entre los eigenvalores con mayor y menor valor. Suponiendo λ1 6= 0, el número de condición de As está dado por κ ≡ λN2 λ1 . Para simplificar la notación se suele suponer que los eigenvalores están escalados y que λN2 = 1. Así, el número de condición está dado por el eigenvalor mas pequeño κ = 1 λ1 . El número de condición es una medida de la estabilidad del sistema ante pequeñas variaciones en los datos. Supongamos que ~yδ representa un conjunto de datos con ruido que satisface ‖~yδ − ~y‖2 < δ (2.15) Sea ~xδ la solución que satisface As~xδ = ~yδ. Entonces utilizando la representación espectral se puede escribir ~xδ − ~x = N 2∑ i=1 1 λi uiu Ti · (~yδ − ~y). Luego, utilizando la ortogonalidad de la base se puede medir la norma de la expresión anterior ‖~xδ−~x‖22 = N 2∑ i=1 1 λ2i [uTi ·(~yδ−~y)]2 ≤ N 2∑ i=1 1 λ21 [uTi ·(~yδ−~y)]2 = 1 λ21 N 2∑ i=1 [uTi ·(~yδ−~y)]2 = 1 λ21 ‖~yδ−~y‖22, en donde la desigualdad se cumple ya que, 0 ≤ λ1 ≤ λ2 ≤ ... ≤ λN2 implica que λ−21 ≥ λ−22 ≥ ... ≥ λ−2N2 ‖~xδ − ~x‖22 ≤ 1 λ21 ‖~yδ − ~y‖22 = κ2‖~yδ − ~y‖22 ≤ (κδ)2, o bien ‖~xδ − ~x‖2 ≤ κδ. (2.16) El término ‖~xδ−~x‖2 se puede pensar como la “amplificación” del ruido o simplemente como qué tanto se alejan dos soluciones cuando existen cambios pequeños en las mediciones (ecuación (2.15)). Entonces para sistemas de ecuaciones con números de condición grandes no necesariamente se satisface la tercera condición de Hadamard en el sentido de ~xδ → ~x cuando ~yδ → ~y, pues la cota superior dada por (2.16) da lugar a posibles grandes diferencias en las soluciones. Los números de condición grandes corresponden a eigenvalores pequeños y es aquí donde entra la idea fundamental de los métodos de regularización . De ma- nera intuitiva se podría pensar en modificar o aproximar As por una familia de matrices cuyos eigenvalores más pequeños sean alejados del cero. Otra manera de entender los métodos de regularización es pensarlos como la aproximación de un problema “mal planteado” por una familia adyacente de problemas “bien planteados”. 26 Un ejemplo sencillo es hacer el cambio a la matriz As dado por Aα = As + αId ; α > 0. (2.17) Se puede demostrar que los eigenvalores ~Li de la matriz Aα están dados por λi + α, con i = 1, ...N2 y los eigenvectores son los mismos de As. Si tenemos ~x = A−1s ~y y ~xα = A −1 α ~y, entonces usando la representación espectral de As y de Aα de puede seguir un análisis como el anterior y obtener ~x− ~xα = N 2∑ i=1 ( 1 λi − 1 λi + α ) uiu T i · ~y = N 2∑ i=1 α λi(λi + α) uiu T i · ~y. De la expresión anterior se puede estimar el error de aproximación de esta técnica de regularización como E(α) = ‖~x− ~xα‖2 ≤ α λ1(λ1 + α) ‖~y‖2. (2.18) Utilizando un conjunto de datos ruidoso ~yδ y siguiendo un análisis análogo se puede observar lo siguiente. ~xδα − ~xα = N 2∑ i=1 1 λi + α uiu T i · (~yδ − ~y). de donde el error se estima como E(α, δ) = ‖~xδα − ~xα‖2 ≤ δ λ1 + α . (2.19) Luego, utilizando la desigualdad del triángulo se llega al error total ‖~x− ~xδα‖2 ≤ E(α) + E(α, δ) = α λ1(λ1 + α) ‖~y‖2 + δ λ1 + α . (2.20) Sin embargo como en la práctica no podemos conocer ‖~y‖2 se puede estimar ‖~y‖2 ≤ ‖~yδ‖2 + δ y así ‖x− ~xδα‖2 ≤ E(α) + E(α, δ) = α λ1(λ1 + α) (‖~yδ‖2 + δ) + δ λ1 + α . (2.21) Al parámetro “α” se le conoce como parámetro de regularización y como puede observarse en la ecuación (2.21) la idea de introducir el parámetro de regularización es acotar el error entre las soluciones correspondientes a mediciones muy cercanas. Se puede ver que para un δ fijo y cuando α → 0, se regresa a la condición dada por (2.16), es decir el primer término es decreciente y el segundo término crece. Entonces debe existir algún α∗ que minimice el error total. La elección del parámetro de regularización dependerá del nivel de ruido expresado en términos de δ y de los eigenvalores de As. Las reglas de elección de parámetros son reglas que buscan escoger los mejores parámetros de regularización en función del nivel de ruido δ y de los datos ruidosos ~yδ y estas reglas tienen que ver con la definición formal de lo que son los métodos de regularización. Una discución precisa y detallada de la definición de los métodos de regularización puede verse en [Engl et al., 1996] y en [Burger, 2007]. 27 2.3.1. Regularización en tomografía Existen varios casos prácticos bajo los cuales la matriz de proyección en el pro- blema tomográfico está “mal condicionada”. Un caso es cuando se tienen pocas pro- yecciones, esto es, cuando se hacen incidir los rayos X pero con pocos ángulos; otro caso es cuando se presentan las llamadas proyecciones incompletas, que es cuando se toman las proyecciones en intervalos de ángulos restringidos por ejemplo un conjunto finito de ángulos θm en el intervalo [π6 , 5π 6 ] en vez de el intervalo completo [0, π] (en estos dos casos se tiene que la matriz esta subdeterminada y tipicamente se tienen muchas menos ecuaciones que incógnitas). La presencia de ruido como se mencionó anteriormente es una fuente inmediata de problemas “mal planteados” y si esto se combina con los casos de pocas proyecciones y proyecciones incompletas se tiene una receta directa para “plantear mal” la matriz de proyección. Es útil, como se verá más adelante, definir un parámetro α A que mida el cociente entre el número de renglones y de columnas de la matriz A. αA = M N2 (2.22) Con este parámetro es fácil ver que si α A = 1 entonces se tiene la misma cantidad de ecuaciones que incógnitas por lo que en principio se puede calcular la inversa de la matriz A pero en vez de eso en estos casos se utiliza comúnmente la FBP para integrar el sinograma y obtener la reconstrucción debido a que es menos costoso en cuanto a tiempo de cómputo. Si α A ≤ 1 entonces hay más ecuaciones que incógnitas y es en este caso en donde se puede empezar a preguntar qué tanto se “mal condi- ciona” el problema por estos casos y cómo se podría implementar alguna técnica de regularización para mejorar las reconstrucciones obtenidas. Lo anterior motiva fuertemente el interés particular de esta tesis en los métodos de regularización debido a que los problemas de pocas proyecciones y proyecciones incompletas (o tomografías de ángulo limitado) surgen de manera natural en algunas aplicaciones prácticas. Por ejemplo, la tomosíntesis digital de seno, utiliza un tomógrafo que por su di- seño geométrico y la necesidad del estudio, está forzado a tener un conjunto de pro- yecciones incompletas (ángulo limitado). También, en una tomografía convencional de rayos X, se pueden obtener pocas proyecciones cambiando diferentes parámetros en la instrumentación como son la cantidad de detectores o hacer un barrido con menos ángulos, esto supondría una cantidad de radiación menor suministrada al paciente reduciendo los riesgos de la exposición a tal radiación. También existe una modalidad de tomografía que se parece mucho a las modalidades de PET y SPECT llamada tomografía óptica de luminiscencia estimulada por rayos X, en donde un material luminiscente (es decir que emite radiación debido a la excitación y relajación de sus estados energéticos después de ser radiado por un haz de rayos X), es la fuente que emite la radiación medida en las proyecciones. En este caso la función µ no corresponde a los coeficientes de atenuación sino a la distribución del material luminiscente. Este tipo de tomografía resulta ser tardado, pues se necesita radiar el material de manera muy precisa y fina con haces colimados de rayos X que aproximen a un solo rayo e ir midiendo con los detectores correspondientes, cada una de las proyecciones producidas por estos rayos. Si se quieren reducir los tiempos 28 de adquisición de datos se podría optar por utilizar menos rayos y menos ángulos de proyección, obteniendo en total muy pocas proyecciones. La técnica de regularización que se utilizó en este trabajo fue la regularización por variación total. Se eligió esta técnica debido a que es una técnica que ayuda a reducir el ruido y su amplificación, y además ayuda mucho a obtener imágenes de buena calidad cuando se tienen pocas proyecciones debido a la naturaleza matemá- tica de esta regularización como quedará claro más adelante cuando se introduzca la teoría del sensado compresivo. En las siguientes dos secciones se introducen los conceptos de sensado compresivo y regularización por variación total, respecti- vamente. 2.4. Sensado compresivo La adquisición, almacenamiento y procesamiento de señales suele lidiar con el problema del “muestreo” o sampling. Dada la naturaleza discreta del proceso de adquisición de datos, surge la pregunta de cuántas muestras de la señal se necesitanmedir para obtener suficiente información que identifique la señal y pueda utilizarse para su almacenamiento y procesamiento. Intuitivamente se puede pensar que entre más muestras se tomen de una señal, más completa es la información que se puede llegar a obtener y procesar de tal señal. Por ejemplo, en el problema tomográfico a mayor cantidad de pixeles, detectores, y proyecciones (número de rayos y de ángulos), mayor es la cantidad de información con la que se puede reconstruir la sección transversal de un objeto y obtener una imagen de muy alta calidad. Otro ejemplo es en la adquisición de fotografías digita- les en donde es común escuchar que mientras más “Megapixeles” (mayor resolución) tenga una cámara, mayor es la calidad de la fotografía adquirida. Sin embargo en estos dos ejemplos surgen inconvenientes cuando se tienen muchas muestras de la señal (sinograma y fotografía, respectivamente). En el caso de la tomografía como ya se mencionó, existen casos prácticos en donde un muestreo completo no es posible o se necesitan tomar menos muestras para reducir los tiempos de adquisición. Para las fotografías digitales, entre más “Megapixeles”, se requiere mayor capacidad de almacenamiento de información y ésta suele estar limitada por el tamaño de la me- moria de almacenamiento del dispositivo. Por ello, existen algoritmos de compresión de datos que consisten en aplicar una trasformación a la señal, expresándola en una base conveniente en donde se seleccionen sólo los coeficientes necesarios de su ex- pansión, se conserve información de la base original y la cantidad de bits necesarios para su almacenamiento se logre reducir. La cantidad mínima de muestras necesarias para adquirir una señal está dada por el teorema Nyquist-Shannon que establece un criterio entre las frecuencias de muestreo y las frecuencias del espectro de Fourier de la señal adquirida. Por ejemplo si se tiene una señal en 1D dependiente del tiempo f(t) entonces un muestreo es un conjunto finito de mediciones fi = f(ti) con i = 1, .., n en donde ∆t = ti+1 − ti es constante para todo i. Aquí la frecuencia de muestreo esta dada por Fs = 1 ∆t . 29 El teorema para este tipo de señales afirma que, si las frecuencias de la transformada de Fourier son de banda limitada (esto es que las frecuencias están dentro de un intervalo acotado) y si la frecuencia de muestreo satisface Fs ≥ 2kmax, entonces el muestreo fi define de manera única la señal continua f(t) (con kmax la frecuencia del espectro de Fourier más grande). Este teorema se puede generalizar para señales de varias variables como imágenes y aplicarse también a el muestreo de proyecciones en el caso de tomografía. La idea intuitiva del sensado compresivo puede entenderse de manera intro- ductoria pensando en los algoritmos de compresión de imágenes en el sentido de muestrear la imagen de manera comprimida, es decir, comprimir la información directamente en el proceso de adquisición; o bien utilizando el teorema de Nyquist- Shannon, la teoría de sensado compresivo logra reconstruir de manera única la señal muestreada aunque la frecuencia de muestreo no cumpla Fs ≥ 2kmax. La teoría del sensado compresivo se introdujo recientemente en los artículos de Donoho [Donoho, 2006], y en los trabajos de Romberg y Candès [Candes and Tao, 2005], [Candes et al., 2006]. Para una revisión breve e introductoria a la teoría pueden consultarse los artículos [Candès and Wakin, 2008] y [Romberg, 2008]. 2.4.1. Incoherencia y sensado de señales escasas El sensado compresivo se basa en dos principios: la escasez (en inglés sparsity) de la señal, y la incoherencia que tiene que ver con la modalidad de sensado. Para revisar de manera introductoria la teoría del sensado compresivo de aquí en adelante se trabajará con señales discretas ~f ∈ RN . Sea una señal ~x ∈ RN y sea una base ortonormal Ψ con elementos ~ψi con i = 1, 2, .., N . Entonces la representación de ~x en Ψ está dada por ~x = N∑ i=1 xi ~ψi, en donde xi = 〈~x, ~ψi〉. Se dice que ~x es una señal escasa si la mayoría de los coeficientes xi en la base Ψ son cero; de manera más precisa, si a lo más S coeficientes xi con S << N son distintos de cero, se dice entonces que ~x es S-parse en la representación de la base Ψ. Este es el principio que permite comprimir la información guardando sólo los coeficientes que son distintos de cero, sin embargo la compresión de datos requiere que se conozcan los N coeficientes y las posiciones de los S coeficientes distintos de cero. La idea del sensado compresivo es explotar esta propiedad de escasez en el proceso de adquisición de datos. Para hablar de incoherencia se necesita expresar en términos matemáticos lo que es el sensado de la señal ~x. El sensado de la señal (ó mediciones de la señal ~x) es el vector ~y cuyas componentes están dadas por los productos interiores yk = 〈~x, ~φk〉, k = 1, ...,m 30 en donde ~φk ∈ RN es un funcional que representa la modalidad de sensado. Estos valores se ordenan como entradas de un vector ~y y éste representa las mediciones de la señal ~x. Por ejemplo si son deltas de Dirac, el vector de mediciones ~y, es un vector que representa los valores de ~x en el dominio temporal o en el dominio espa- cial; si son funcionales indicadores de pixeles entonces ~y, son los datos típicamente obtenidos por una cámara digital; si son sinusoides el vector de mediciones repre- senta los coeficientes de Fourier (como es el caso de la resonancia magnética); en el caso tomográfico discutido anteriormente el vector de mediciones corresponde a ~b (proyecciones) y ~x es la imagen tomográfica (señal) que se desea reconstruir. La idea importante para el sensado compresivo es cómo reconstruir la señal ~x a partir de m mediciones cuando m << N , ¿qué tan pequeño puede ser m para obtener una buena reconstrucción de la señal? Se pueden organizar los funcionales ~φk de tal forma que formen una base orto- normal Φ y si cada vector se arregla como un reglón de una matriz Φ ∈ Mm×N , el problema de sensado se puede escribir como ~y = Φ~x. Con esta terminología se puede introducir la coherencia entre la base de sensado Φ y la base en donde la señal es escasa, Ψ, como el número dado por µ(Φ,Ψ) = √ N max 1≤k,j≤m,N |〈φk, ψj〉|. (2.23) Esto significa que la coherencia mide la más grande correlación entre cualesquie- ra dos elementos de las Φ y Ψ, además µ(Φ,Ψ) ∈ [1, √ N ]. Entre más pequeño sea el número µ(Φ,Ψ), las bases son más incoherentes; a mayores µ(Φ,Ψ) más cohe- rencia entre las bases. El sensado compresivo está interesado en pares de bases con baja coherencia. Sensar una señal de manera incoherente es construir una base con funcionales ~φk que sea incoherente con la base en la señal tiene una representación escasa. Una modalidad de sensado comúnmente utilizada por esta teoría, es emplear matrices de sensado aleatorio Φrand. Se ha demostrado que las matrices aleatorias son incoherentes con cualquier base fija Ψ. La coherencia entre matrices aleatorias y bases fijas es aproximadamente √ 2logN . Es por esto que comúnmente el sensado compresivo se asocia con un sensado aleatorio pero esto no es una condición com- pletamente necesaria para la teoría. Basta con encontrar bases en las que la matriz de sensado sea incoherente con alguna base en la que la señal es escaza. Cuando se tienen m mediciones de tal forma que al menos m < N entonces se tiene un submuestreo y tal como se discute en [Candes et al., 2006], utilizando un planteamiento basado en algoritmos de optimización convexa, se puede reconstruir la señal escasa ~x resolviendo el problema ~x = argmin ~x∗ ‖~x∗‖ `1 sujeto a ~y = Φ~x∗, (2.24) en donde ‖ · ‖ representa la norma `1 dada por ∑N i=1 |xi|. La elección de la norma `1 sobre otras normas tiene que ver con argumentos geométricos cuya discusión puede verse de manera introductoria en [Romberg, 2008]. 31 x⇤(1) r h H = {~x⇤/�~x⇤ = ~y} ~x ⇤ `2 x⇤(2) H = {~x⇤/�~x⇤ = ~y} ~x⇤0 (a) (b) (c) Figura 1: Top view. 1 Figura 2.1: (a) Bola de radio r en la norma `1: ~x∈ R2 tal que |x(1)| + |x(2)| ≤ r (b) Optimización de (2.24) (c) Mínimos cuadrados Intuitivamente, puede entenderse por qué la norma `1 es mejor candidata para el problema de optimización observando la figura 2.1. La figura 2.1(a) ilustra la bola de radio r definido con la norma `1 en R2. Esta bola es anisotrópica, es decir no es invariante ante rotaciones. La figura (b) es el diagrama del programa que optimiza usando la norma `1: el vector etiquetado ~x∗0 es un vector escaso (solo una de sus dos componentes es distinta de cero) del cual se toma una sola medición. La línea H es el conjunto de todos los vectores ~x∗ que comparten la misma medición. La tarea del problema planteado en la ecuación (2.24) es elegir el vector que sa- tisface esas mediciones con la norma `1 más pequeña. Para visualizar como funciona eso, es útil imaginar una bola en la norma `1 de radio muy pequeño y gradualmente expanderla hasta que intersecte con H. El primer punto de intersección es por defi- nición, el vector que resuelve (2.24). La combinación de la anisotropía de la bola en la norma `1 y la dimensión de la recta H resulta en la intersección de uno solo de sus puntos, precisamente en donde las señales escasas son reconstruidas. Si en comparación se utiliza la norma `2 (lo que sería un problema de mínimos cuadrados), la bola en la norma `2 es isotrópica y usando la idea de expansión de una bola diminuta, se ve que el punto de intersección con el conjunto H no es necesariamente escaso (figura 2.1 (c)). En RN la diferencia se vuelve mucho mayor. En el artículo [Candès and Romberg, 2007] se puede encontrar uno de los teore- mas fuertes de mayor importancia para la teoría de sensado compresivo. El teorema afirma lo siguiente. dTeorema 2 : Sea una señal ~x ∈ RN S-sparse en alguna base Ψ. Si se tienen m muestreos con la base Φ y además m satisface la desigualdad m ≥ Cµ2(Φ,Ψ) · S · log(N), (2.25) entonces la solución dada por el problema de optimización convexa (2.24) es exacta con una probabilidad muy cercana a uno (C es una constante positiva). c Aquí, se ve el papel que juega la coherencia de las matrices de las bases en las que se representan las señales. Este resultado es muy importante ya que cuando se 32 tiene un sistema mal planteado, como se comentó en la sección anterior, es difícil encontrar una solución única al problema de reconstruir la señal a partir de las mediciones ~y. También dicha desigualdad muestra por qué comúnmente el sensado compresivo busca utilizar bases de sensado que sean incoherentes con la base escasa para que la cantidad de muestreos m satisfaga la desigualdad sin tener que ser tan grande. Con este resultado, se puede pensar que el algoritmo de minimización convexa que resuelve (2.24) juega el papel de descompresor de datos. 2.4.2. Fortaleza del sensado compresivo En la práctica es común que no se tengan señales escasas como se definió an- teriormente sino aproximadamente escasas y siempre con la presencia de ruido en el proceso de adquisición de datos. Es decir, en la práctica se presentan casos no ideales. La teoría del sensado compresivo busca ser capaz de reconstruir este tipo de señales no ideales. Diremos entonces que la teoría es robusta si logra reconstruir señales aproximadamente escasas y regularizar el ruido presente en los datos. Si no es posible reconstruir este tipo de señales ni regularizar el ruido, diremos que la teoría no es robusta. Una manera de estudiar la robustez de la teoría es con un concepto que es la propiedad de isometría restringida (RIP); veáse [Candes and Tao, 2005]. Definición: Para cada entero S=1,2,... se define la constante de isometría δs de una matriz A como el número más pequeño tal que (1− δs)‖~x‖2`2 ≤ ‖A~x‖ 2 `2 ≤ (1 + δs)‖~x‖2`2 (2.26) se satisface para todo vector S-parse ~x. Esta propiedad es importante ya que si se satisface, entonces A aproximadamente preserva longitudes de vectores S-sparse. Esto ayuda a demostrar que dos distintos vectores escasos ~x1 6= ~x2 no pueden dar las mismas mediciones ~y. Supongamos que en efecto ~x1 6= ~x2 pero A~x1 = A~x2 = ~y y que A satisface el criterio RIP con algúna constante suficientemente pequeña para que 1− δs > 0. Entonces se tiene que 0 < (1− δs)‖~x1 − ~x2‖2`2 ≤ ‖A(~x1 − ~x2)‖ 2 `2 = 0 ≤ (1 + δs)‖~x1 − ~x2‖2`2 , lo cual es una contradicción, por lo tanto es falso suponer que dos vectores distin- tos S-sparse pueden dar las mismas mediciones ~y. Así, la reconstrucción que da la optimización dada por (2.24) es única. Señales aproximadamente escasas. Para atacar el problema de un vector aproximadamente escaso el siguiente teo- rema ayuda a la robustez del Sensado Compresivo. dTeorema 3 : Sea la constante de isometría de la matriz A para vectores 2S- sparse δ2s tal que satisfaga δ2s < √ 2 − 1; sea también ~x∗ la solución de (2.24). 33 Entonces ~x∗ satisface ‖~x∗ − ~x‖`2 ≤ C0‖~x− ~xs‖`1/ √ S y ‖~x∗ − ~x‖`1 ≤ C0‖~x− ~xs‖`1 , (2.27) en donde C0 es una constante, y ~xs es el vector ~x con todas excepto las S componentes más grandes forzadas a ser cero (esto es, ~xs es un vector aproximadamente escaso), veáse [Candès et al., 2006]. c Este teorema ayuda a la robustez de la teoría en el sentido que dado un vector aproximadamente escaso, es posible acotar la diferencia entre la señal verdadera ~x y la señal reconstruida ~x∗ y además, si la señal original ~x = ~xs (es decir la señal es exactamente S-sparse), entonces la reconstrucción dada por (2.24) es única y exacta. Además a diferencia del teorema 2, este resultado es determinista y no habla de alguna probabilidad, lo cual lo hace más fuerte. Señales con ruido Para el caso de las señales con ruido se hace una pequeña modificación al pro- blema de optimización de la siguiente forma: ~x = argmin ~x∗ ‖~x∗‖ `1 sujeto a ‖A~x∗ − ~y‖`2 ≤ �, (2.28) en donde � es una cota para la cantidad de ruido en los datos. El siguiente teorema da una cota para la precisión de la reconstrucción dada por la solución a (2.28) dTeorema 4 : Sea la constante de isometría de la matriz A para vectores 2S- sparse δ2s tal que satisfaga δ2s < √ 2 − 1; sea también ~x∗ la solución de (2.28). Entonces ~x∗ satisface ‖~x∗ − ~x‖`2 ≤ C0‖~x− ~xs‖`1/ √ S + C1� en donde C0 y C1 son algunas constantes, y nuevamente ~xs es el vector ~x con todas excepto las S componentes más grandes forzadas a ser cero. c Este teorema muestra que el error de la reconstrucción está acotado por dos términos, el primer término es el error que se tendría si no se tuviera una señal ruidosa y el segundo es un término proporcional a la cota del ruido. Además, si fuera una señal exactamente escasa ~x = ~xs, entonces se tendría que el error de la solución estaría únicamente dado por ~x∗ − ~xs ≤ C1� [Romberg, 2008]. Por tanto, la teoría de sensado compresivo es robusta frente a estas dos situacio- nes no ideales y por ello se ha intentado aplicar a distintas áreas siendo una de ellas la reconstrucción de imágenes tomográficas. 2.5. Regularización por Variación Total. Como se mencionó en la sección métodos de regularización, existen algunas situa- ciones en las cuales se tienen proyecciones medidas a pocos ángulos y proyecciones 34 en intervalos restringidos, ambos casos con la presencia de ruido debido al proceso de adquisición de los datos. Recordando el problema tomográfico dado por (1.13) y el parámetro αA (2.22), en estos casos se tiene que M < N2 y es necesario un método de regularización para reconstruir con mejor calidad la imagen. Al tenerM mediciones se puede pensar en relacionar esta situación con las situaciones descritas por la teoría de sensado compresivo para señales en RN 2 . Debido a que las imágenes son más bien matrices de N ×N entonces se necesita plantear un poco diferente la teoría del sensado compresivo. Como se discute en [Candes et al., 2006] la manera de aplicar la teoría a imágenes es con la seminorma conocida como Variación Total (TV). De manera intuitiva la variación total está relacionada con la norma `1 del gradiente de la imagen, el cual es importantey es el vínculo más fuerte con el sen- sado compresivo pues como se mostrará gráficamente más adelante, los gradientes de la mayoría de las imágenes tomográficas son escasos. Para señales en una dimensión ~x ∈ RN la variación total se define como TV (~x) = N−1∑ i=1 |xi+1 − xi| (2.29) Si se define el gradiente de la señal ~x como ∇~x = (∂1, ∂2, ..., ∂N−1) en donde ∂k = xk+1 − xk, entonces la variación total se puede escribir como TV (~x) = ‖∇~x‖`1 (2.30) Dos definiciones para la variación total de una señal en dos dimensiones como es el caso de una imagen, fueron utilizadas en esta tesis (veánse [Goldstein and Osher, 2009], [Yan and Lu, 2015], [Chambolle, 2004], [Chambolle, 2005]) . La diferencia entre ambas definiciones tiene que ver con la invariancia ante rotaciones de la imagen. Para definir la variación total isotrópica de una imagen u ∈M N×N , sea ∇i,ju = (∂xui,j, ∂yui,j), el gradiente (en primera aproximación) de la imagen en el pixel i, j, en donde ∂xui,j = ui+1,j − ui,j y ∂yui,j = ui,j+1 − ui,j, luego, la variación total isotrópica es TV (I)(x) = N−1∑ i=1 N−1∑ j=1 √ (∂xui,j)2 + (∂yui,j)2. (2.31) Utilizando la misma notación, la variación total anisotrópica está dada por TV (A)(x) = N−1∑ i=1 N−1∑ j=1 |∂xui,j|+ |∂yui,j| (2.32) Utilizando la variación total se han propuesto técnicas de regularización como problemas de optimización convexa que son parte de la teoría de sensado compresivo. 35 A este tipo de regularización de le conoce como regularización por variación total y cae dentro de las técnicas de regularización por escasez como se discute en [Jørgensen and Sidky, 2015]. El problema de regularización por variación total es el más importante para el problema tomográfico en el que se centra esta tesis pues la mayoría de estas imágenes tienen gradientes escasos (por ejemplo el maniquí Shepp-Logan, figura 2.2). Debido que la variación total se relaciona con el gradiente de la imagen, entonces se puede ver que la variación total hereda las propiedades de escasez del gradiente y por lo tanto se puede intentar aplicar la teoría de sensado compresivo utilizando la regularización por variación total. Distinguiendo de casos ideales y no ideales en cuanto a presencia de ruido se refiere, los dos problemas principales que se resolvieron en esta tesis son ( [Candes et al., 2006]): x = argmin x∗ TV α(x∗) sujeto a ‖A~x∗ − ~y‖`2 ≤ �, (2.33) en donde α = I, A; ~x∗ ∈ RN2 es el vector que resulta de ordenar la imagen x ∈ M N×N de acuerdo a la geometría dada por el problema tomográfico y a la matriz de proyección A y � es una cota dada por la cantidad y tipo de ruido presente en las proyecciones. Para el caso ideal en ausencia de ruido el problema se simplifica a x = argmin x∗ TV α(x∗) sujeto a A~x∗ = ~y, (2.34) 50 100 150 200 250 50 100 150 200 250 (a) 50 100 150 200 250 50 100 150 200 250 (b) Figura 2.2: (a) Maniquí Shepp-Logan. (b) Gradiente del maniquí Shepp-Logan. Como puede verse a simple vista en el gradiente del maniquí Shepp-Logan, en donde todos los pixeles en color negro corresponden a ceros y los que son distintos de cero se muestran en color blanco, la gran mayoría de los pixeles son cero por lo que se puede pensar en que el gradiente tiene una representación escasa y por tanto se puede aplicar las ideas del sensado compresivo para la reconstrucción de las imágenes tomográficas. El maniquí tiene 256× 256 pixeles (65,536) de los cuales 27, 409 son distintos de cero mientras que el gradiente solo tiene 2, 184 elementos distintos de cero. Resulta ser que resolver el problema (2.33) tal y como predice la teoría de sen- sado compresivo logra reconstruir buenas imágenes tomográficas en presencia de 36 ruido y para pocas proyecciones. Existen estrategias para resolver dicho problema de optimización convexa, siendo los métodos de gradientes conjugados y gradientes conjugados precondicionados los más utilizados para ello. En esta tesis se implemen- taron dos algoritmos principales para la solución de este problema. El desarrollo de estos algoritmos, así como su aplicación a datos sintéticos se detalla en el siguiente capítulo y su aplicación a datos experimentales se muestra en el capítulo 4. Una estrategia similar fue utilizada en [Sidky et al., 2006]. 37 Capítulo 3 Desarrollo e implementación de algoritmos 3.1. Introducción Como se vio en el capítulo anterior, uno de los problemas que intenta atacar esta tesis es el de reconstruir imágenes tomográficas cuando el sistema (1.13) está mal planteado. También se discutió que existen varias maneras de mal plantear el sistema y en particular, esta tesis se enfocó específicamente en el caso de pocas proyecciones con presencia de ruido, dejando como perspectiva a futuro la apli- cación de una estrategia similar para el problema de proyecciones incompletas en intervalos angulares restringidos. Recordando el sistema de ecuaciones que representa el problema inverso tomográ- fico A~x = ~b, se tiene que A ∈M M×N2 conM = Nrays×Nθ, siendo Nrays la cantidad de rayos del haz definida por la cantidad de detectores y Nθ la cantidad de ángulos en las que se miden las proyecciones como se explicó en el capítulo introductorio. Con esto se puede ver que se tienen dos maneras de reducir la cantidad de pro- yecciones: reduciendo el número de ángulos de proyección o reduciendo la cantidad de rayos que se utilizan para radiar el objeto. Para reducir la cantidad de rayos del haz, se debe reducir la cantidad de detectores utilizados en la instrumentación como se observa en la figura 1.5, o por ejemplo en el caso de la tomografía óptica de luminiscencia estimulada por rayos X (en el que se tiene un haz colimado que se va “barriendo” o desplazando en distintas posiciones para cada ángulo de proyección utilizado), reducir la cantidad de posiciones de barrido. Utilizando los conceptos de sensado compresivo y con los algoritmos implemen- tados que se describen en las siguientes secciones, la imagen tomográfica recons- truida que es solución a (1.13) xr, está dada por xr = argmin x TV α(x) sujeto a ‖A~x−~b‖`2 ≤ � y xi ≥ 0 ∀i = 1, .., N2 (3.1) en donde α = I, A (indicando si se utiliza la definición isotrópica o anisotrópica de la variación total, respectivamente), ~x ∈ RN2 es el vector que resulta de ordenar la 38 imagen x ∈M N×N , � es una cota dada por el nivel de ruido en los datos y la última constricción es una condición de positividad que se introduce para asegurar que todos los coeficientes de atenuación representados en el vector ~x sean mayores o iguales a cero, ya que un coeficiente negativo, indicaría que en lugar de atenuarse, el rayo X que atraviesa esa zona estaría aumentando de intensidad, cosa que físicamente no tiene sentido. En las siguientes secciones se describen los algoritmos implementados y su apli- cación a datos sintéticos dados por maniquís. Los maniquís utilizados fueron el ya mostrado Shepp-Logan y el Forbild Head phantom que trata de representar de mane- ra simple una sección transversal de un cerebro (veáse [Yu et al., 2012]). El maniquí Shepp-Logan se ha mostrado anteriormente y en la figura 3.1 se muestra el For- bild Head phantom junto con su gradiente para mostrar su escasez. Estos maniquís 50 100 150 200 250 50 100 150 200 250 (a) 50 100 150 200 250 50 100 150 200 250 (b) Figura 3.1: (a) Maniquí Forbild Head . (b)Gradiende del maniquí Forbild. se tomaron como imágenes de referencia para calcular el error cuadrático medio introducido previamente en la ecuación 2.11: MSE = 1 N2 ‖~xref − ~x‖22. 3.2. Ruido en maniquís y perfiles de intensidad. A los maniquís se les añadió ruido sintético blanco (es decir ruido con distribución Gaussiana) de manera aditiva. Se tomó el valor máximo de pixel de las imágenes (valor aproximado a 100 en la escala de grises mostrada en las figuras) y el 5% de este valor se definió como la semianchura de la distribución del ruido (tal porcentaje de ruido se eligió a modo de ensayo y error de tal forma que cualitativamente fuera un nivel
Compartir