Logo Studenta

Quimica Analitica

Esta es una vista previa del archivo. Inicie sesión para ver el archivo original

¿Qué es la quimiometría? ¿Qué son los sistemas microfluídicos, que en la jerga de uso cotidiano de los 
químicos se conocen por lab-on-a-chip? La utilización de modelos matemáticos para realizar análisis 
virtuales y la aplicación de la electrónica para crear instrumentos miniaturizados de análisis químicos 
se cuentan entre las herramientas de la química analítica del siglo XXI.
¿de QUÉ se trAtA?
La química analítica 
en el siglo xxi
L
a química analítica desarrolla y aplica méto-
dos e instrumentos para obtener información 
confiable sobre la composición y naturaleza 
de muestras. Tiene innumerables aplicaciones 
prácticas, desde los análisis clínicos hasta las 
determinaciones forenses, pasando por la conservación de 
obras de arte, la ciencia de materiales, el control de calidad 
de fármacos y alimentos, y la contaminación ambiental.
La química analítica contemporánea enfrenta el gran 
desafío de determinar de manera sensible, precisa y se-
lectiva los compuestos de interés o analitos en muestras 
complejas, como también el de encontrar métodos que 
permitan confirmar la presencia de determinados analitos 
en muestras de modo rápido y eficiente, conocidos como 
métodos de screening o de respuesta binaria (sí-no).
En los últimos años, la química analítica ha experi-
mentado importantes cambios debido a una variedad de 
causas, entre las que se cuentan la necesidad de realizar 
mediciones de componentes en concentraciones cada vez 
más bajas, por ejemplo, contaminantes ambientales o me-
tabolitos de fármacos, y de hacerlo en muestras de alta 
complejidad, como las naturales o biológicas. Otra de las 
causas de los cambios experimentados es el avance del ins-
trumental científico, incluido el progreso de las ciencias 
de la computación, que proveen herramientas metodoló-
gicas y técnicas para lograr los mencionados objetivos.
Entre los avances tecnológicos cabe mencionar la ge-
neración de los llamados instrumentos acoplados o en tándem, 
que consisten en acoplar en forma sucesiva equipos di-
ferentes, de modo que cada uno proporcione una venta-
ja comparativa, como mayor sensibilidad (capacidad de 
detectar componentes en concentraciones bajas) o mayor 
selectividad (capacidad de distinguir entre componentes 
de estructura química similar). Con ello, el equipo resul-
tante posee mejores características analíticas que cada uno 
de sus componentes.
Alejandro c olivieri
Facultad de Ciencias Bioquímicas y Farmacéuticas, 
Universidad Nacional de Rosario
gustavo A rivas
Facultad de Ciencias Químicas,
Universidad Nacional de Córdoba
ARTÍCULO
51Volumen 21 número 124 agosto - septiembre 2011
Al mismo tiempo, la información que puede regis-
trarse con esos equipos se vuelve más compleja, por su 
volumen y su estructura matemática, lo que hace nece-
sarias herramientas de cálculo e interpretación también 
más complejas. Esas herramientas pertenecen a una dis-
ciplina relativamente nueva conocida como quimiometría.
La investigación en química analítica se centra en 
la búsqueda de nuevos métodos de análisis, que hagan 
posible un menor consumo de reactivos y muestras, 
una menor producción de desechos, una disminución 
en los tiempos de estudio y una adecuada resolución 
de la señal que se obtiene como resultado. En ese sentido, 
la automatización y la miniaturización de los diseños 
analíticos han posibilitado la obtención de métodos de 
análisis que cumplan con esos requisitos. Los sistemas 
microfluídicos o lab-on-a-chip representan uno de los 
mejores ejemplos. 
En este artículo examinaremos dos áreas de gran in-
terés en la química analítica actual: la quimiometría y los 
sistemas microfluídicos. Ambas han sido objeto de intenso 
trabajo en los últimos años y han contribuido en forma 
destacada a conseguir una eficiente resolución del pro-
blema analítico.
Quimiometría
La quimiometría puede definirse como la aplicación de 
métodos matemáticos y estadísticos a la comprensión y 
solución de problemas químicos. Es un capítulo de la 
gran disciplina química que se caracteriza por una sim-
biosis entre esa ciencia y la matemática. En términos ge-
néricos, establecer una sencilla relación numérica entre 
datos experimentales de origen químico sería parte de 
la quimiometría, aunque en la práctica el nombre queda 
reservado a estudios cuya complejidad requiere enfo-
ques más elaborados y termina en modelos matemáticos 
más avanzados que una simple regresión lineal.
La quimiometría ha fijado nuevos rumbos a la quími-
ca analítica y definido nuevas áreas de investigación en 
tres aspectos relevantes: (1) el diseño y la optimización 
de experimentos; (2) el análisis descriptivo, y (3) el aná-
lisis predictivo.
El objetivo del diseño y la optimización de experi-
mentos es encontrar condiciones óptimas para llevar a 
cabo un análisis químico, por ejemplo, establecer pará-
metros como el pH, la temperatura o la concentración de 
reactivos auxiliares que conduzcan a la mejor respuesta 
posible, con el consecuente aumento de la sensibilidad 
y la disminución del límite de detección. Se procura de-
terminar esas condiciones óptimas en forma confiable y 
con el mínimo esfuerzo.
El análisis descriptivo intenta elaborar modelos mate-
máticos de las propiedades de un sistema químico con el 
400
350
300
250
200
400
350
450
500
550
λ (excitación) (nm)
λ (
em
isi
ón
) (
nm
)
In
te
ns
id
ad
Figura 2. Superficie tridimensional que muestra la intensidad de emisión de fluores-
cencia de un antibiótico urinario en función de las longitudes de onda de excitación 
y de emisión. A partir de estos datos multidimensionales es posible cuantificar la con-
centración del antibiótico en un fluido biológico como la orina, aun en presencia de 
potenciales interferentes.
1,2
1,0
0,8
0,6
0,4
0,2
0,0
1200 1400 1600 1800 2000 2200 2400
Longitud de onda (m)
Ab
so
rb
an
cia
 N
IR
Figura 1. Espectros de absorción en el infrarrojo cercano (NIR) de cien muestras de semi-
llas molidas de girasol, a partir de los cuales puede determinarse el contenido de aceite 
mediante un análisis no invasivo empleando la calibración con el método PLS. Ninguna 
de las longitudes de onda es específica para la medición del contenido de aceite.
52
objeto de comprender relaciones que pueden estar ocultas. 
Trata lo que habitualmente se denomina problemas de clasifica-
ción, ya que el resultado de este tipo de análisis es la capa-
cidad de asignar distintas muestras a diferentes clases. Por 
ejemplo, los espectros infrarrojos de muestras de aceite de 
oliva permiten establecer dónde se originó el producto, ya 
que eso depende, de manera sutil, de la composición quí-
mica de la muestra, la que aparece reflejada en pequeñas 
variaciones espectrales. Esas variaciones, no detectables a 
simple vista, pueden ser analizadas matemáticamente para 
permitir discriminar entre las muestras.
Por su lado, en los estudios predictivos, la meta es mo-
delar las propiedades de un sistema para predecir su com-
portamiento en situaciones nuevas. Por ejemplo, un modelo 
matemático de la relación entre los espectros de infrarro-
jo cercano de muestras de sangre humana con contenido 
conocido de glucosa permitiría predecir ese contenido en 
muestras de sangre de nuevos pacientes. El infrarrojo cerca-
no, representado por NIR (de near infrared), es una de las tres 
franjas en que se suele dividir la zona de radiación infrarroja 
del espectro, con longitudes de onda de entre 0,7 y 5 micró-
metros (milésimas de milímetro).
Estas aplicaciones ocupan un lugar preponderante 
en la química analítica, ya que uno de los objetivos 
de mayor interés para esta es la cuantificación de los 
analitos de las muestras que estudia, y uno de los de-
safíos más interesantes de la disciplina es cuantificar 
componentes de muestras complejas, habitualmente 
en presencia de una multitud de otras sustancias (lla-
madas foráneas o concomitantes) que pueden producir en 
los instrumentos de análisis una respuesta similar a la 
del analito. Ejemplos de esta
clase de situaciones son 
la determinación de glucosa en la sangre humana, im-
portante en el caso de diabéticos; la de aceite en semi-
llas oleaginosas, o la de benzopireno, un hidrocarburo 
considerado cancerígeno, en aguas contaminadas. En 
los tres casos las muestras contendrán compuestos de 
estructura y propiedades químicas similares a las del 
analito de interés. Si estos impiden el análisis preciso 
del analito, se denominan componentes interferentes.
Tradicionalmente, se ha intentado resolver el ubicuo 
problema de los interferentes mediante procedimientos 
experimentales. Un ejemplo de ellos es la técnica de sepa-
ración de componentes conocida como cromatografía, en la 
que los diferentes constituyentes químicos de una mues-
tra son separados gracias a la diferente velocidad con la 
que fluyen, mientras toman contacto con una fase llama-
da estacionaria. Esta última interactúa de manera diferencial 
con los compuestos que conforman la muestra, y les pro-
porciona a cada uno de ellos una velocidad característica. 
Fases estacionarias capaces de generar mayores diferencias 
de velocidad entre componentes poseen una selectividad 
creciente respecto de los componentes a separar.
En electroquímica, se han modificado los electrodos 
con distintos criterios o estrategias experimentales con 
el fin de bloquear la respuesta de los interferentes. En es-
pectroscopia, se han generado nuevos reactivos derivatizantes, 
es decir, compuestos químicos capaces de reaccionar con 
los componentes de una muestra de manera diferencial, 
de modo que los derivados, productos de la reacción de 
dichos componentes con el reactivo derivatizante, pue-
den diferenciarse en cuanto a su espectro de absorción 
o luminiscencia.
En muchos casos estas aproximaciones experimen-
tales pueden ser inadecuadas, por razones de costo, 
de tiempo o, simplemente, porque la selectividad del 
sistema no puede incrementarse por esas vías. La qui-
miometría provee una camino alternativo, que consis-
te en procesar matemáticamente datos instrumentales 
intrínsecamente poco selectivos, de modo de aislar la 
contribución del analito deseado de la señal total. La ca-
libración multivariada fue concebida con ese propósito. Se 
trata de un conjunto de técnicas matemático-estadísticas 
capaces de modelar la relación entre la concentración 
de los componentes de una muestra y la información 
instrumental que puede registrarse, para dicha muestra, 
en forma de múltiples variables (longitudes de onda en 
espectroscopia, por ejemplo). Algunos investigadores la 
llaman cromatografía virtual debido a su semejanza con la 
cromatografía real, en la que los componentes de una 
muestra se separan físicamente, mientras que con la cro-
matografía virtual, que es parte de la quimiometría, se 
los separa matemáticamente.
Durante las décadas de 1960 y 1970, la calibración 
multivariada recibió un impulso importante por la ne-
cesidad de disponer de herramientas para cuantificar 
analitos a partir de espectros de absorción en la zona 
del infrarrojo cercano. Esta técnica espectral cuenta con 
ventajas interesantes para el análisis rápido y no invasivo 
de material que se desea preservar intacto, pero tiene el 
inconveniente de su baja selectividad. El procesamien-
to matemático de espectros NIR permite, sin embargo, 
restaurar esa selectividad. El desarrollo de la regresión por 
cuadrados mínimos parciales (PLS, por partial least squares, un 
procedimiento avanzado de análisis estadístico) acom-
pañó en muchas ramas de la industria al avance de la es-
pectroscopia NIR, que fue verdaderamente espectacular. 
Hoy es rutinario realizar, mediante la combinación NIR/
PLS, análisis de, por ejemplo, el contenido de sacarosa 
en azúcar de caña, de materia grasa en alimentos lácteos 
o en carnes, de polifenoles en vino, lo mismo que la 
determinación del octanaje de naftas, la viscosidad de 
aceites y la procesabilidad de harinas, entre otras tantas 
situaciones. La figura 1 muestra un conjunto de espec-
tros NIR de semillas intactas de girasol, a partir de los 
cuales puede cuantificarse exitosamente su contenido de 
aceite mediante PLS.
En el ámbito de la calibración multivariada, los más 
recientes avances se han dado en la generación y el pro-
cesamiento de datos instrumentales multidimensionales. 
ARTÍCULO
53Volumen 21 número 124 agosto - septiembre 2011
Esta terminología hace referencia a la producción de 
mediciones instrumentales que poseen más de una di-
mensión física. Por ejemplo, si se miden espectros de 
absorción a múltiples longitudes de onda en función del 
tiempo, mientras un compuesto químico sufre determi-
nada reacción, los datos recolectados pueden organizar-
se en una matriz o tabla de datos con dos dimensiones 
independientes (la longitud de onda por un lado y el 
tiempo de reacción por otro).
Pueden concebirse múltiples alternativas de este tipo 
de mediciones, incluso aumentando el número de di-
mensiones. Esto produjo un cambio revolucionario en el 
modo de considerar los interferentes. Tradicionalmente, 
estos se veían como componentes de las muestras que 
sesgaban la cuantificación del analito de interés. En la 
nueva concepción derivada de la calibración multivaria-
da multidimensional, un interferente solo se considera 
un factor potencial, pues si un modelo quimiométrico 
multivariado puede detectarlo y aun así cuantificar exi-
tosamente el analito, su presencia no causará error apre-
ciable y no tendrá un efecto real, lo que es coherente con 
el concepto indicado de cromatografía virtual.
Un ejemplo de lo explicado se aprecia en la figura 2, 
que ilustra una superficie correspondiente a una matriz 
de excitación-emisión de fluorescencia para un antibió-
tico fluoroquinolónico. Mediante el modelado quimio-
métrico adecuado de los datos, este puede cuantificarse 
en la orina de un paciente incluso en presencia de múlti-
ples componentes desconocidos de ese fluido biológico. 
Esta actividad analítica, hoy posible merced a los nuevos 
algoritmos multidimensionales, era inconcebible para la 
química analítica clásica, en la que la presencia de inter-
ferentes espectrales no podía resolverse sino por medios 
experimentales como el preprocesamiento de una mues-
tra o una cromatografía altamente selectiva.
Miniaturización de 
sistemas analíticos
Una rama de la química analítica que ha despertado 
gran interés en las últimas décadas es el desarrollo de 
sistemas integrados miniaturizados, que permitan la medición 
descentralizada, rápida, sensible y selectiva de diversos 
analitos, con el mínimo consumo de muestra y de reac-
tivos, y reducida producción de desechos. El gran avance 
experimentado por la microfluídica, una rama de la ciencia 
claramente interdisciplinaria entre la física, la química 
y la matemática, que estudia el comportamiento de los 
Para describir mediante un modelo matemático los valores de una propiedad experimental (y) en función de variables (xi) de las 
que depende se utilizan habitualmente métodos estadísticos llamados de regresión.
El modelo más sencillo y frecuente es aquel en que la propiedad y depende de una sola variable x. A su vez, la forma más 
simple de esa dependencia matemática es la lineal, simbolizada por una función del tipo y = a + bx, que es la ecuación de una 
línea recta en un sistema de coordenadas cartesianas. los valores de a y b, llamados parámetros, definen las características de la 
relación lineal entre las variables x e y, y se obtienen de los datos experimentales por el método de la regresión lineal por mínimos 
cuadrados. también es posible que la relación matemática entre x e y no sea lineal, en cuyo caso se suele buscar, también por el 
método de los mínimos cuadrados, la curva de ecuación conocida que mejor se ajuste a los datos experimentales.
la evolución de los métodos de regresión para los casos en que y dependa de varias variables xi, por ejemplo la solubilidad 
de una sal que depende de la temperatura y de la fuerza iónica determinada por la cantidad
de otras sales presentes, da lugar a 
la denominada regresión multivariada. las técnicas multivariadas han permitido un salto cualitativo y cuantitativo en el ajuste de 
una propiedad a las variables de las que aquella depende, permitiendo en algunos casos la predicción de comportamientos o la 
sugerencia de modelos alternativos. En el modelo de cuadrados mínimos parciales o PlS, la regresión se realiza entre la propiedad 
y y combinaciones lineales de las variables xi. Estas combinaciones lineales, llamadas variables latentes, proveen al modelo mayor 
robustez y capacidad predictiva.
Es conveniente imaginar que el procedimiento de regresión puede darse en espacios de distintas dimensiones, cuando la 
dependencia de la propiedad y se da con respecto a variables de estructura escalar, vectorial, tensorial, etcétera. los datos 
vectoriales (entre los que se encuentran, por ejemplo, los espectros de absorción molecular) permiten incrementar la selectividad al 
posibilitar la medida simultánea de varios analitos. Sin embargo, una interferencia espectral produce un sesgo en la determinación 
y afecta su exactitud. los datos de orden 2 y superior no solamente permiten detectar la presencia de interferentes en una muestra, 
sino también modelarlos, aislar su señal de la del analito y cuantificar exitosamente este último sin sesgo apreciable. Esta última 
propiedad es la base de la llamada ventaja de segundo orden. Por ejemplo, pueden cuantificarse fármacos en muestras biológicas 
a partir de datos de orden 2 medidos para muestras acuosas que solamente contienen el fármaco de interés. la señal de fondo del 
medio biológico es modelada por el algoritmo quimiométrico empleado para procesar los datos matriciales.
mÉtodos estAdÍsticos de lA QUÍmicA AnAlÍticA
54
Cargado de 
muestra
Medición 
de gota
Reacción 
térmica
Cargado 
de gel
Electroforesis Electrodos
Vidrio
Silicio
Placa madre 
de PC
Canales de gel
Fotodetectores
Unión de circuitos
Calentadores
Detectores de temperatura
Canales de fluidos
Venteo de aire
Tubos de aire
fluidos en una escala micrométrica, ha sido crucial para 
el desarrollo de los sistemas analíticos miniaturizados.
La miniaturización de los sistemas de análisis es, des-
de hace tiempo, uno de los objetivos de la química ana-
lítica contemporánea. A partir de 1990, ese propósito 
llevó al diseño de sistemas en los que se integren las 
diferentes etapas del procedimiento analítico en un úni-
co dispositivo electrónico o chip de pequeñas dimensio-
nes (figura 3). En las últimas dos décadas, esos sistemas, 
conocidos como lab-on-a-chip, biochips o micro-total-analysis-
systems (μTAS), han recibido gran atención debido a las 
múltiples ventajas asociadas con la miniaturización, la 
integración y la automatización.
Los componentes principales del lab-on-a-chip son: 
inyector, propulsor del flujo, mezclador, reactor, detec-
tor y controlador general. El inyector es el encargado de 
asegurar la inserción de un volumen exacto de muestra 
o reactivo, la cual puede hacerse desde fuera o desde 
dentro del chip.
La fuente de inspiración para el diseño de los actuales 
sistemas microfluídicos fue el análisis por inyección en flujo 
(FIA, por flow injection analysis), técnica ideada en 1970 por 
el checo Jaromir Ruzicka, profesor emérito de la Universi-
dad de Washington en Seattle. Los primeros dispositivos de 
FIA fueron gradualmente reemplazados por diseños cada 
vez más automatizados, integrados y miniaturizados, que 
permitieron la obtención de importante información 
para el desarrollo de los sistemas microfluídicos.
Estos sistemas son descriptos con frecuencia como 
versiones en miniatura de sus contrapartidas en escala 
macro. Sin embargo, muchos fenómenos no guardan la 
proporcionalidad al pasar de una escala a la otra. Además 
de las ventajas obvias asociadas con el menor volumen 
de muestra (entre 0,10 y 10 microlitros o millonésimas 
de litro) de reactivos y de desechos, en los sistemas mi-
crofluídicos se producen fenómenos que ocurren de ma-
nera diferente de los que tienen lugar en las dimensiones 
mayores:
El flujo en los canales (cuyas dimensiones osci-•	
lan entre uno y 1000μm) tiende a ser laminar, lo 
que asegura un transporte convectivo solo en la 
dirección del flujo del fluido.
La difusión permite el movimiento de partículas •	
y el mezclado de fluidos.
La sedimentación puede lograrse sin necesidad •	
de centrifugado y solo por gravedad, lo que per-
mite la separación de partículas dispersas.
Si se selecciona el diseño adecuado, la microes-•	
cala permite obtener sistemas de análisis total 
(μTAS) capaces de realizar todos los pasos del 
análisis en el chip: toma de muestra, procesa-
miento, separación, detección y manipulación 
de desechos. Se han logrado diseños con los que 
es factible, incluso, realizar las etapas previas de 
tratamiento de muestra, como también acoplar 
etapas de preconcentración de la muestra y de 
derivatización (obtención de un producto deri-
vado de similar estructura química). La precon-
centración es esencial debido a los pequeños vo-
lúmenes de muestra con los que se trabaja y a la 
baja concentración del analito en ciertos casos; la 
Figura 3. Esquema de un lab-on-a-chip.
ARTÍCULO
55Volumen 21 número 124 agosto - septiembre 2011
derivatización es importante para obtener resul-
tados que correspondan al sistema de detección 
seleccionado.
En el caso de ciertas muestras biológicas, se requiere 
la ruptura de las membranas celulares (o lisis) usando 
enzimas, detergentes, calor o fuerza mecánica antes de 
efectuar la determinación analítica. Esas etapas se hacían 
fuera del chip, pero hoy pueden realizarse como parte del 
sistema microfluídico.
Hay distintas técnicas de microconstrucción. La pri-
mera fue la litografía empleando fundamentalmente sili-
cio como sustrato. Después se idearon otras, entre ellas 
la litografía suave (soft lithography) y el laminado. Además 
de silicio, actualmente se usan vidrio, papel y materiales 
poliméricos, como el polimetilsiloxano (PDMS) y el poli-
metilmetacrilato (PMMA), para sustrato de los microchips.
El movimiento del fluido por el sistema microfluídi-
co es crítico porque, dependiendo del tamaño del canal, 
pueden requerirse flujos de cientos de microlitros o de 
solo algunos picolitros (millonésimas de microlitro) por 
minuto o segundo. Se han ensayado diversas alternativas 
para efectuar el bombeo del fluido, basadas en cambios de 
temperatura o presión, o en la aplicación de una diferen-
cia de potencial eléctrico. La última es la más usada para 
impulsar un fluido a través de un capilar o microcanal.
La etapa de mezclado de los diferentes reactivos es cru-
cial para lograr una buena respuesta analítica. En efecto, la 
calidad del resultado dependerá, en gran medida, de cómo 
se realice esa etapa. Los mezcladores pueden ser activos, ba-
sados en la aplicación de una fuerza externa, o pasivos, basa-
dos en el aprovechamiento de las características del flujo, sin 
necesidad de fuerzas externas. Los primeros mezclan más 
rápido pero son más caros y presentan algunas dificultades 
en los sistemas microfluídicos; por oposición, los segundos 
son más económicos, estables y lentos.
lectUrAs sUgeridAs
MALINOWSKI ER & HOWERY DG, 2002 [1980], Factor Analysis in Chemistry, Wiley, Nueva York.
BROWN SD, TAULER R & WALCZAK B (eds.), 2009, Comprehensive Chemometrics: Chemical 
and Biochemical Data Analysis, 4 vols., Elsevier, Amsterdam.
HEROLD KE & RASOOLY A (eds.), 2009, Lab-on-a-Chip Technology, vol. 1: Fabrication and 
Microfluidics, Caister Academic Press, Norfolk.
OOSTERBROEK E & VAN DEN BERGA (eds.), 2003, Lab-on-a-Chip: Miniaturized Systems for 
(Bio)chemical Analysis and Synthesis, Elsevier, Amsterdam.
INTERNET
http://www.chemometrics.se/
www.chemometry.com
Alejandro c olivieri
Doctor de la Universidad Nacional 
de Rosario.
Profesor titular, UNR.
Investigador superior del Conicet.
olivieri@iquir-conicet.gov.ar
gustavo A rivas
Doctor en ciencias químicas,
Universidad Nacional de Córdoba.
Profesor titular, UNC.
Investigador principal del Conicet.
grivas@fcq.unc.edu.ar
En los sistemas de análisis, incluidos los microfluídicos, 
es importante poder cuantificar el analito mediante una re-
lación simple entre su concentración o cantidad presente 
en la muestra y la señal obtenida como resultado del proce-
dimiento. En estos últimos sistemas, encontrar esa relación 
puede constituir un gran desafío, debido a la combinación 
de las bajas concentraciones de analito y los pequeños vo-
lúmenes que llegan al detector. Una de las ventajas de los 
lab-on-a-chip es su versatilidad en cuanto a las técnicas analí-
ticas a emplear. Las más difundidas son las espectroscópicas 
y electroquímicas en sus diferentes modalidades, aunque 
en los últimos años la lista creció notablemente.
Existen microchips para muy diversos usos, entre ellos, 
la determinación de grupos sanguíneos por un ensayo 
de aglutinación, el diagnóstico de la malaria en nueve 
minutos, la detección de biomarcadores de cáncer, la de-
tección de adulteración de alimentos. Un ejemplo intere-
sante es el de los inmunoensayos (detección de la presencia 
de un antígeno o un anticuerpo), cuya demora se logra 
disminuir en forma notable, lo mismo que el gasto en 
reactivos. Un caso emblemático de la utilidad de la técni-
ca es la multiplicación de ADN mediante la reacción en cadena 
de la polimerasa (PCR), con lo que los sistemas microfluídi-
cos, originados en la química analítica, se extendieron a 
otras áreas, como la biológica, en la que se aplican, entre 
otros, a estudios como la movilidad y adherencia de los 
espermatozoides, o la circulación de glóbulos rojos.
La asociación entre el lab-on-a-chip y la nanotecnología 
constituye una excelente combinación para diseñar aná-
lisis biológicos en los que confluyen variadas especia-
lidades, que se extienden a la bioinformática, la óptica 
y los análisis por imágenes. Los avances en áreas como 
la genómica, la proteómica, la glicómica y la metaboló-
mica, que se definen en el glosario, también han con-
tribuido de manera significativa al desarrollo de nuevas 
formas de análisis. 
56

Continuar navegando

Materiales relacionados

27 pag.
CONCEPTOS BÁSICOS DE QUIMICA ANALITICA

SIN SIGLA

User badge image

engelyn guarecuco

45 pag.
19 pag.
59 pag.