Descarga la aplicación para disfrutar aún más
Esta es una vista previa del archivo. Inicie sesión para ver el archivo original
¿Qué es la quimiometría? ¿Qué son los sistemas microfluídicos, que en la jerga de uso cotidiano de los químicos se conocen por lab-on-a-chip? La utilización de modelos matemáticos para realizar análisis virtuales y la aplicación de la electrónica para crear instrumentos miniaturizados de análisis químicos se cuentan entre las herramientas de la química analítica del siglo XXI. ¿de QUÉ se trAtA? La química analítica en el siglo xxi L a química analítica desarrolla y aplica méto- dos e instrumentos para obtener información confiable sobre la composición y naturaleza de muestras. Tiene innumerables aplicaciones prácticas, desde los análisis clínicos hasta las determinaciones forenses, pasando por la conservación de obras de arte, la ciencia de materiales, el control de calidad de fármacos y alimentos, y la contaminación ambiental. La química analítica contemporánea enfrenta el gran desafío de determinar de manera sensible, precisa y se- lectiva los compuestos de interés o analitos en muestras complejas, como también el de encontrar métodos que permitan confirmar la presencia de determinados analitos en muestras de modo rápido y eficiente, conocidos como métodos de screening o de respuesta binaria (sí-no). En los últimos años, la química analítica ha experi- mentado importantes cambios debido a una variedad de causas, entre las que se cuentan la necesidad de realizar mediciones de componentes en concentraciones cada vez más bajas, por ejemplo, contaminantes ambientales o me- tabolitos de fármacos, y de hacerlo en muestras de alta complejidad, como las naturales o biológicas. Otra de las causas de los cambios experimentados es el avance del ins- trumental científico, incluido el progreso de las ciencias de la computación, que proveen herramientas metodoló- gicas y técnicas para lograr los mencionados objetivos. Entre los avances tecnológicos cabe mencionar la ge- neración de los llamados instrumentos acoplados o en tándem, que consisten en acoplar en forma sucesiva equipos di- ferentes, de modo que cada uno proporcione una venta- ja comparativa, como mayor sensibilidad (capacidad de detectar componentes en concentraciones bajas) o mayor selectividad (capacidad de distinguir entre componentes de estructura química similar). Con ello, el equipo resul- tante posee mejores características analíticas que cada uno de sus componentes. Alejandro c olivieri Facultad de Ciencias Bioquímicas y Farmacéuticas, Universidad Nacional de Rosario gustavo A rivas Facultad de Ciencias Químicas, Universidad Nacional de Córdoba ARTÍCULO 51Volumen 21 número 124 agosto - septiembre 2011 Al mismo tiempo, la información que puede regis- trarse con esos equipos se vuelve más compleja, por su volumen y su estructura matemática, lo que hace nece- sarias herramientas de cálculo e interpretación también más complejas. Esas herramientas pertenecen a una dis- ciplina relativamente nueva conocida como quimiometría. La investigación en química analítica se centra en la búsqueda de nuevos métodos de análisis, que hagan posible un menor consumo de reactivos y muestras, una menor producción de desechos, una disminución en los tiempos de estudio y una adecuada resolución de la señal que se obtiene como resultado. En ese sentido, la automatización y la miniaturización de los diseños analíticos han posibilitado la obtención de métodos de análisis que cumplan con esos requisitos. Los sistemas microfluídicos o lab-on-a-chip representan uno de los mejores ejemplos. En este artículo examinaremos dos áreas de gran in- terés en la química analítica actual: la quimiometría y los sistemas microfluídicos. Ambas han sido objeto de intenso trabajo en los últimos años y han contribuido en forma destacada a conseguir una eficiente resolución del pro- blema analítico. Quimiometría La quimiometría puede definirse como la aplicación de métodos matemáticos y estadísticos a la comprensión y solución de problemas químicos. Es un capítulo de la gran disciplina química que se caracteriza por una sim- biosis entre esa ciencia y la matemática. En términos ge- néricos, establecer una sencilla relación numérica entre datos experimentales de origen químico sería parte de la quimiometría, aunque en la práctica el nombre queda reservado a estudios cuya complejidad requiere enfo- ques más elaborados y termina en modelos matemáticos más avanzados que una simple regresión lineal. La quimiometría ha fijado nuevos rumbos a la quími- ca analítica y definido nuevas áreas de investigación en tres aspectos relevantes: (1) el diseño y la optimización de experimentos; (2) el análisis descriptivo, y (3) el aná- lisis predictivo. El objetivo del diseño y la optimización de experi- mentos es encontrar condiciones óptimas para llevar a cabo un análisis químico, por ejemplo, establecer pará- metros como el pH, la temperatura o la concentración de reactivos auxiliares que conduzcan a la mejor respuesta posible, con el consecuente aumento de la sensibilidad y la disminución del límite de detección. Se procura de- terminar esas condiciones óptimas en forma confiable y con el mínimo esfuerzo. El análisis descriptivo intenta elaborar modelos mate- máticos de las propiedades de un sistema químico con el 400 350 300 250 200 400 350 450 500 550 λ (excitación) (nm) λ ( em isi ón ) ( nm ) In te ns id ad Figura 2. Superficie tridimensional que muestra la intensidad de emisión de fluores- cencia de un antibiótico urinario en función de las longitudes de onda de excitación y de emisión. A partir de estos datos multidimensionales es posible cuantificar la con- centración del antibiótico en un fluido biológico como la orina, aun en presencia de potenciales interferentes. 1,2 1,0 0,8 0,6 0,4 0,2 0,0 1200 1400 1600 1800 2000 2200 2400 Longitud de onda (m) Ab so rb an cia N IR Figura 1. Espectros de absorción en el infrarrojo cercano (NIR) de cien muestras de semi- llas molidas de girasol, a partir de los cuales puede determinarse el contenido de aceite mediante un análisis no invasivo empleando la calibración con el método PLS. Ninguna de las longitudes de onda es específica para la medición del contenido de aceite. 52 objeto de comprender relaciones que pueden estar ocultas. Trata lo que habitualmente se denomina problemas de clasifica- ción, ya que el resultado de este tipo de análisis es la capa- cidad de asignar distintas muestras a diferentes clases. Por ejemplo, los espectros infrarrojos de muestras de aceite de oliva permiten establecer dónde se originó el producto, ya que eso depende, de manera sutil, de la composición quí- mica de la muestra, la que aparece reflejada en pequeñas variaciones espectrales. Esas variaciones, no detectables a simple vista, pueden ser analizadas matemáticamente para permitir discriminar entre las muestras. Por su lado, en los estudios predictivos, la meta es mo- delar las propiedades de un sistema para predecir su com- portamiento en situaciones nuevas. Por ejemplo, un modelo matemático de la relación entre los espectros de infrarro- jo cercano de muestras de sangre humana con contenido conocido de glucosa permitiría predecir ese contenido en muestras de sangre de nuevos pacientes. El infrarrojo cerca- no, representado por NIR (de near infrared), es una de las tres franjas en que se suele dividir la zona de radiación infrarroja del espectro, con longitudes de onda de entre 0,7 y 5 micró- metros (milésimas de milímetro). Estas aplicaciones ocupan un lugar preponderante en la química analítica, ya que uno de los objetivos de mayor interés para esta es la cuantificación de los analitos de las muestras que estudia, y uno de los de- safíos más interesantes de la disciplina es cuantificar componentes de muestras complejas, habitualmente en presencia de una multitud de otras sustancias (lla- madas foráneas o concomitantes) que pueden producir en los instrumentos de análisis una respuesta similar a la del analito. Ejemplos de esta clase de situaciones son la determinación de glucosa en la sangre humana, im- portante en el caso de diabéticos; la de aceite en semi- llas oleaginosas, o la de benzopireno, un hidrocarburo considerado cancerígeno, en aguas contaminadas. En los tres casos las muestras contendrán compuestos de estructura y propiedades químicas similares a las del analito de interés. Si estos impiden el análisis preciso del analito, se denominan componentes interferentes. Tradicionalmente, se ha intentado resolver el ubicuo problema de los interferentes mediante procedimientos experimentales. Un ejemplo de ellos es la técnica de sepa- ración de componentes conocida como cromatografía, en la que los diferentes constituyentes químicos de una mues- tra son separados gracias a la diferente velocidad con la que fluyen, mientras toman contacto con una fase llama- da estacionaria. Esta última interactúa de manera diferencial con los compuestos que conforman la muestra, y les pro- porciona a cada uno de ellos una velocidad característica. Fases estacionarias capaces de generar mayores diferencias de velocidad entre componentes poseen una selectividad creciente respecto de los componentes a separar. En electroquímica, se han modificado los electrodos con distintos criterios o estrategias experimentales con el fin de bloquear la respuesta de los interferentes. En es- pectroscopia, se han generado nuevos reactivos derivatizantes, es decir, compuestos químicos capaces de reaccionar con los componentes de una muestra de manera diferencial, de modo que los derivados, productos de la reacción de dichos componentes con el reactivo derivatizante, pue- den diferenciarse en cuanto a su espectro de absorción o luminiscencia. En muchos casos estas aproximaciones experimen- tales pueden ser inadecuadas, por razones de costo, de tiempo o, simplemente, porque la selectividad del sistema no puede incrementarse por esas vías. La qui- miometría provee una camino alternativo, que consis- te en procesar matemáticamente datos instrumentales intrínsecamente poco selectivos, de modo de aislar la contribución del analito deseado de la señal total. La ca- libración multivariada fue concebida con ese propósito. Se trata de un conjunto de técnicas matemático-estadísticas capaces de modelar la relación entre la concentración de los componentes de una muestra y la información instrumental que puede registrarse, para dicha muestra, en forma de múltiples variables (longitudes de onda en espectroscopia, por ejemplo). Algunos investigadores la llaman cromatografía virtual debido a su semejanza con la cromatografía real, en la que los componentes de una muestra se separan físicamente, mientras que con la cro- matografía virtual, que es parte de la quimiometría, se los separa matemáticamente. Durante las décadas de 1960 y 1970, la calibración multivariada recibió un impulso importante por la ne- cesidad de disponer de herramientas para cuantificar analitos a partir de espectros de absorción en la zona del infrarrojo cercano. Esta técnica espectral cuenta con ventajas interesantes para el análisis rápido y no invasivo de material que se desea preservar intacto, pero tiene el inconveniente de su baja selectividad. El procesamien- to matemático de espectros NIR permite, sin embargo, restaurar esa selectividad. El desarrollo de la regresión por cuadrados mínimos parciales (PLS, por partial least squares, un procedimiento avanzado de análisis estadístico) acom- pañó en muchas ramas de la industria al avance de la es- pectroscopia NIR, que fue verdaderamente espectacular. Hoy es rutinario realizar, mediante la combinación NIR/ PLS, análisis de, por ejemplo, el contenido de sacarosa en azúcar de caña, de materia grasa en alimentos lácteos o en carnes, de polifenoles en vino, lo mismo que la determinación del octanaje de naftas, la viscosidad de aceites y la procesabilidad de harinas, entre otras tantas situaciones. La figura 1 muestra un conjunto de espec- tros NIR de semillas intactas de girasol, a partir de los cuales puede cuantificarse exitosamente su contenido de aceite mediante PLS. En el ámbito de la calibración multivariada, los más recientes avances se han dado en la generación y el pro- cesamiento de datos instrumentales multidimensionales. ARTÍCULO 53Volumen 21 número 124 agosto - septiembre 2011 Esta terminología hace referencia a la producción de mediciones instrumentales que poseen más de una di- mensión física. Por ejemplo, si se miden espectros de absorción a múltiples longitudes de onda en función del tiempo, mientras un compuesto químico sufre determi- nada reacción, los datos recolectados pueden organizar- se en una matriz o tabla de datos con dos dimensiones independientes (la longitud de onda por un lado y el tiempo de reacción por otro). Pueden concebirse múltiples alternativas de este tipo de mediciones, incluso aumentando el número de di- mensiones. Esto produjo un cambio revolucionario en el modo de considerar los interferentes. Tradicionalmente, estos se veían como componentes de las muestras que sesgaban la cuantificación del analito de interés. En la nueva concepción derivada de la calibración multivaria- da multidimensional, un interferente solo se considera un factor potencial, pues si un modelo quimiométrico multivariado puede detectarlo y aun así cuantificar exi- tosamente el analito, su presencia no causará error apre- ciable y no tendrá un efecto real, lo que es coherente con el concepto indicado de cromatografía virtual. Un ejemplo de lo explicado se aprecia en la figura 2, que ilustra una superficie correspondiente a una matriz de excitación-emisión de fluorescencia para un antibió- tico fluoroquinolónico. Mediante el modelado quimio- métrico adecuado de los datos, este puede cuantificarse en la orina de un paciente incluso en presencia de múlti- ples componentes desconocidos de ese fluido biológico. Esta actividad analítica, hoy posible merced a los nuevos algoritmos multidimensionales, era inconcebible para la química analítica clásica, en la que la presencia de inter- ferentes espectrales no podía resolverse sino por medios experimentales como el preprocesamiento de una mues- tra o una cromatografía altamente selectiva. Miniaturización de sistemas analíticos Una rama de la química analítica que ha despertado gran interés en las últimas décadas es el desarrollo de sistemas integrados miniaturizados, que permitan la medición descentralizada, rápida, sensible y selectiva de diversos analitos, con el mínimo consumo de muestra y de reac- tivos, y reducida producción de desechos. El gran avance experimentado por la microfluídica, una rama de la ciencia claramente interdisciplinaria entre la física, la química y la matemática, que estudia el comportamiento de los Para describir mediante un modelo matemático los valores de una propiedad experimental (y) en función de variables (xi) de las que depende se utilizan habitualmente métodos estadísticos llamados de regresión. El modelo más sencillo y frecuente es aquel en que la propiedad y depende de una sola variable x. A su vez, la forma más simple de esa dependencia matemática es la lineal, simbolizada por una función del tipo y = a + bx, que es la ecuación de una línea recta en un sistema de coordenadas cartesianas. los valores de a y b, llamados parámetros, definen las características de la relación lineal entre las variables x e y, y se obtienen de los datos experimentales por el método de la regresión lineal por mínimos cuadrados. también es posible que la relación matemática entre x e y no sea lineal, en cuyo caso se suele buscar, también por el método de los mínimos cuadrados, la curva de ecuación conocida que mejor se ajuste a los datos experimentales. la evolución de los métodos de regresión para los casos en que y dependa de varias variables xi, por ejemplo la solubilidad de una sal que depende de la temperatura y de la fuerza iónica determinada por la cantidad de otras sales presentes, da lugar a la denominada regresión multivariada. las técnicas multivariadas han permitido un salto cualitativo y cuantitativo en el ajuste de una propiedad a las variables de las que aquella depende, permitiendo en algunos casos la predicción de comportamientos o la sugerencia de modelos alternativos. En el modelo de cuadrados mínimos parciales o PlS, la regresión se realiza entre la propiedad y y combinaciones lineales de las variables xi. Estas combinaciones lineales, llamadas variables latentes, proveen al modelo mayor robustez y capacidad predictiva. Es conveniente imaginar que el procedimiento de regresión puede darse en espacios de distintas dimensiones, cuando la dependencia de la propiedad y se da con respecto a variables de estructura escalar, vectorial, tensorial, etcétera. los datos vectoriales (entre los que se encuentran, por ejemplo, los espectros de absorción molecular) permiten incrementar la selectividad al posibilitar la medida simultánea de varios analitos. Sin embargo, una interferencia espectral produce un sesgo en la determinación y afecta su exactitud. los datos de orden 2 y superior no solamente permiten detectar la presencia de interferentes en una muestra, sino también modelarlos, aislar su señal de la del analito y cuantificar exitosamente este último sin sesgo apreciable. Esta última propiedad es la base de la llamada ventaja de segundo orden. Por ejemplo, pueden cuantificarse fármacos en muestras biológicas a partir de datos de orden 2 medidos para muestras acuosas que solamente contienen el fármaco de interés. la señal de fondo del medio biológico es modelada por el algoritmo quimiométrico empleado para procesar los datos matriciales. mÉtodos estAdÍsticos de lA QUÍmicA AnAlÍticA 54 Cargado de muestra Medición de gota Reacción térmica Cargado de gel Electroforesis Electrodos Vidrio Silicio Placa madre de PC Canales de gel Fotodetectores Unión de circuitos Calentadores Detectores de temperatura Canales de fluidos Venteo de aire Tubos de aire fluidos en una escala micrométrica, ha sido crucial para el desarrollo de los sistemas analíticos miniaturizados. La miniaturización de los sistemas de análisis es, des- de hace tiempo, uno de los objetivos de la química ana- lítica contemporánea. A partir de 1990, ese propósito llevó al diseño de sistemas en los que se integren las diferentes etapas del procedimiento analítico en un úni- co dispositivo electrónico o chip de pequeñas dimensio- nes (figura 3). En las últimas dos décadas, esos sistemas, conocidos como lab-on-a-chip, biochips o micro-total-analysis- systems (μTAS), han recibido gran atención debido a las múltiples ventajas asociadas con la miniaturización, la integración y la automatización. Los componentes principales del lab-on-a-chip son: inyector, propulsor del flujo, mezclador, reactor, detec- tor y controlador general. El inyector es el encargado de asegurar la inserción de un volumen exacto de muestra o reactivo, la cual puede hacerse desde fuera o desde dentro del chip. La fuente de inspiración para el diseño de los actuales sistemas microfluídicos fue el análisis por inyección en flujo (FIA, por flow injection analysis), técnica ideada en 1970 por el checo Jaromir Ruzicka, profesor emérito de la Universi- dad de Washington en Seattle. Los primeros dispositivos de FIA fueron gradualmente reemplazados por diseños cada vez más automatizados, integrados y miniaturizados, que permitieron la obtención de importante información para el desarrollo de los sistemas microfluídicos. Estos sistemas son descriptos con frecuencia como versiones en miniatura de sus contrapartidas en escala macro. Sin embargo, muchos fenómenos no guardan la proporcionalidad al pasar de una escala a la otra. Además de las ventajas obvias asociadas con el menor volumen de muestra (entre 0,10 y 10 microlitros o millonésimas de litro) de reactivos y de desechos, en los sistemas mi- crofluídicos se producen fenómenos que ocurren de ma- nera diferente de los que tienen lugar en las dimensiones mayores: El flujo en los canales (cuyas dimensiones osci-• lan entre uno y 1000μm) tiende a ser laminar, lo que asegura un transporte convectivo solo en la dirección del flujo del fluido. La difusión permite el movimiento de partículas • y el mezclado de fluidos. La sedimentación puede lograrse sin necesidad • de centrifugado y solo por gravedad, lo que per- mite la separación de partículas dispersas. Si se selecciona el diseño adecuado, la microes-• cala permite obtener sistemas de análisis total (μTAS) capaces de realizar todos los pasos del análisis en el chip: toma de muestra, procesa- miento, separación, detección y manipulación de desechos. Se han logrado diseños con los que es factible, incluso, realizar las etapas previas de tratamiento de muestra, como también acoplar etapas de preconcentración de la muestra y de derivatización (obtención de un producto deri- vado de similar estructura química). La precon- centración es esencial debido a los pequeños vo- lúmenes de muestra con los que se trabaja y a la baja concentración del analito en ciertos casos; la Figura 3. Esquema de un lab-on-a-chip. ARTÍCULO 55Volumen 21 número 124 agosto - septiembre 2011 derivatización es importante para obtener resul- tados que correspondan al sistema de detección seleccionado. En el caso de ciertas muestras biológicas, se requiere la ruptura de las membranas celulares (o lisis) usando enzimas, detergentes, calor o fuerza mecánica antes de efectuar la determinación analítica. Esas etapas se hacían fuera del chip, pero hoy pueden realizarse como parte del sistema microfluídico. Hay distintas técnicas de microconstrucción. La pri- mera fue la litografía empleando fundamentalmente sili- cio como sustrato. Después se idearon otras, entre ellas la litografía suave (soft lithography) y el laminado. Además de silicio, actualmente se usan vidrio, papel y materiales poliméricos, como el polimetilsiloxano (PDMS) y el poli- metilmetacrilato (PMMA), para sustrato de los microchips. El movimiento del fluido por el sistema microfluídi- co es crítico porque, dependiendo del tamaño del canal, pueden requerirse flujos de cientos de microlitros o de solo algunos picolitros (millonésimas de microlitro) por minuto o segundo. Se han ensayado diversas alternativas para efectuar el bombeo del fluido, basadas en cambios de temperatura o presión, o en la aplicación de una diferen- cia de potencial eléctrico. La última es la más usada para impulsar un fluido a través de un capilar o microcanal. La etapa de mezclado de los diferentes reactivos es cru- cial para lograr una buena respuesta analítica. En efecto, la calidad del resultado dependerá, en gran medida, de cómo se realice esa etapa. Los mezcladores pueden ser activos, ba- sados en la aplicación de una fuerza externa, o pasivos, basa- dos en el aprovechamiento de las características del flujo, sin necesidad de fuerzas externas. Los primeros mezclan más rápido pero son más caros y presentan algunas dificultades en los sistemas microfluídicos; por oposición, los segundos son más económicos, estables y lentos. lectUrAs sUgeridAs MALINOWSKI ER & HOWERY DG, 2002 [1980], Factor Analysis in Chemistry, Wiley, Nueva York. BROWN SD, TAULER R & WALCZAK B (eds.), 2009, Comprehensive Chemometrics: Chemical and Biochemical Data Analysis, 4 vols., Elsevier, Amsterdam. HEROLD KE & RASOOLY A (eds.), 2009, Lab-on-a-Chip Technology, vol. 1: Fabrication and Microfluidics, Caister Academic Press, Norfolk. OOSTERBROEK E & VAN DEN BERGA (eds.), 2003, Lab-on-a-Chip: Miniaturized Systems for (Bio)chemical Analysis and Synthesis, Elsevier, Amsterdam. INTERNET http://www.chemometrics.se/ www.chemometry.com Alejandro c olivieri Doctor de la Universidad Nacional de Rosario. Profesor titular, UNR. Investigador superior del Conicet. olivieri@iquir-conicet.gov.ar gustavo A rivas Doctor en ciencias químicas, Universidad Nacional de Córdoba. Profesor titular, UNC. Investigador principal del Conicet. grivas@fcq.unc.edu.ar En los sistemas de análisis, incluidos los microfluídicos, es importante poder cuantificar el analito mediante una re- lación simple entre su concentración o cantidad presente en la muestra y la señal obtenida como resultado del proce- dimiento. En estos últimos sistemas, encontrar esa relación puede constituir un gran desafío, debido a la combinación de las bajas concentraciones de analito y los pequeños vo- lúmenes que llegan al detector. Una de las ventajas de los lab-on-a-chip es su versatilidad en cuanto a las técnicas analí- ticas a emplear. Las más difundidas son las espectroscópicas y electroquímicas en sus diferentes modalidades, aunque en los últimos años la lista creció notablemente. Existen microchips para muy diversos usos, entre ellos, la determinación de grupos sanguíneos por un ensayo de aglutinación, el diagnóstico de la malaria en nueve minutos, la detección de biomarcadores de cáncer, la de- tección de adulteración de alimentos. Un ejemplo intere- sante es el de los inmunoensayos (detección de la presencia de un antígeno o un anticuerpo), cuya demora se logra disminuir en forma notable, lo mismo que el gasto en reactivos. Un caso emblemático de la utilidad de la técni- ca es la multiplicación de ADN mediante la reacción en cadena de la polimerasa (PCR), con lo que los sistemas microfluídi- cos, originados en la química analítica, se extendieron a otras áreas, como la biológica, en la que se aplican, entre otros, a estudios como la movilidad y adherencia de los espermatozoides, o la circulación de glóbulos rojos. La asociación entre el lab-on-a-chip y la nanotecnología constituye una excelente combinación para diseñar aná- lisis biológicos en los que confluyen variadas especia- lidades, que se extienden a la bioinformática, la óptica y los análisis por imágenes. Los avances en áreas como la genómica, la proteómica, la glicómica y la metaboló- mica, que se definen en el glosario, también han con- tribuido de manera significativa al desarrollo de nuevas formas de análisis. 56
Compartir