Logo Studenta

58978618-4-1-DEFINICION-DE-ESPACIOS-Y-SUBESPACIOS-VECTORIALES (1)

Esta es una vista previa del archivo. Inicie sesión para ver el archivo original

Formas Cuadr´aticas	Matrices
Formas Cuadr´aticas	Matrices
Formas Cuadr´aticas	Matrices
Universidad Nacional Autónoma de México
Facultad de Estudios Superiores
Plantel Aragón
INGENIERIA INDUSTRIAL
CLASE: algebra lineal
Trabajo 
PRACTICA 
GRUPO:8105
NOMBRE DEL PROFESOR: ALBERTO HIGUERA GARCIA
NOMBRE DEL ALUMNO: CORTES HERNANDEZ RICARDO
 
FECHA DE ENTREGA: SEPTIEMBRE DEL 2021
Factorizaciones
Al final del semestre habremos visto las factorizaciones
1.- A es el producto de matrices elementales para A invertible.
2.- PA = LU ( Factorizaci´on PALU para matrices generales)
3.- A = LDLT (Cholesky sin ra´ız cuadrada para sim´etrica positiva definida)
4.- A = RTR (Cholesky con ra´ız cuadrada para sim´etrica positiva definida)
5.- A = QR (Factorizaci´on QR para matrices generales)
6.- A = V DV −1 (Diagonalizaci´on)
7.- A = V DV T (diagonalizaci´on ortogonal para A sim´etrica)
8.- A = V ΣU (descomposici´on de valores singulares para A matriz general de m × n)
La factorizaci´on PA = LU se utiliza en la pr´actica s´olo para matrices cuadradas invertibles.
Para matrices generales no cuadradas o matrices cuadradas no invertibles se utiliza la descomposici´on de valores singulares.
La factorizaci´on QR es la base de los m´etodos num´ericos para determinar las factorizaciones en 6), 7) y 8). Estos m´etodos se estudian en cursos de
An´alisis Num´erico.
Factorizaci´on A=LU	Tabulaci´on de Datos
2
2
Factorizaci´on A=LU
Sea A de m × n. La factorizaci´on A = LU
· se obtiene al llevar la matriz A a la forma escalonada U
usando exclusivamente la operaci´on elemental fila: sumar un mu´ltiplo de una fila a otra.
· la matriz escalonada U de m × n obtenida no tiene los pivotes iguales a 1 en general.
· La factorizaci´on A = LU expresa a cada fila de A como combinaci´on lineal de las filas de U.
· la matriz L de m × m es triangular inferior con 1’s en la diagonal
	 1
 l2,1 L =  l3,1
	0
1
l3,2
	0
0
1
	···
···
···
	0 
0 
0 
	 ...	..	
lm,1 lm,2 lm,
· A = LU no siempre puede realizarse pues en ciertos casos hay intercambios de filas forzados, en cuyo caso se obtiene la factorizaci´on
PA = LU.
· La ecuaci´on A = LU expresa a la fila i de A como combinaci´on lineal de las filas de U con coeficientes en la fila i de L.
Hay dos maneras de ver la factorizaci´on PA = LU.
i) Matricial: interpretando a la eliminaci´on de gauss como multiplicaciones por matrices elementales
ii) Vectorial: interpretando las filas de A como combinaciones lineales de las filas de U.
Ejemplo 1.
	A
	=
	 ?
?

?
	?
?
?
	?
?
?
	?
?
?
	··· 	 ?
···  2,1−(→−l2,1)  0 E
···	?
	?
?
?
	?
? ?
	 ?	··· ?	···  
?	···
	
	
	
	


	?
0
0
	?
?
?
	?
?
?
			
?	···
E3,2(−l3,2) 
?	··· 	−→	
		
?	···
	?
0
0
	?
? 0
	?	? ?	? ?	?
	
···
···  = U 
···
	Matricialmente
	
	
	
	
	
	
	
E3,2(−l3,2) E3,1(−l3,1) E2,1(−l2,1) A = U
 A = U
Entonces
A = (E2,1(−l2,1))−1 (E3,1(−l3,1))−1(E3,2(−l3,2))−1 U
A U
Por lo tanto
	A U	= LU
L
A U = LU
Pero
	 1	0	0  1	0	0 
	L	=  l2,1	1	0  0	1	0 
0 0	1	l3,1	0	1
	
	=
	 1
 l2,1
0
	0
1
0
	
	0
1
l3,2
	
	Es decir,
	=
	 1
 l2,1
l3,1
	0
1
l3,2
	
	
	
1 0	0 
	A	1	0 U
1
La matriz L tiene los multiplicadores usados en la eliminaci´on de guass. La matriz U es la escalonada sin 1’s en la diagonal.
Ejemplo 2.	Llevamos la matriz
	 1
A =  −1

2
	1
−1
2
	1 1 −2
	1
−2
2
	1 
0 

1
a una forma escalonada U usando s´olamente la operaci´on elemental de sumar un mu´ltiplo de una fila a otra.
	 1	1	1	1	1 	 1	1	1	1	1 
A =  −1	−1	1	−2	0  2,1=−−1→,l3,1=2,  0	0	2	−1	1  l
				
	2	2	−2	2	1	0	0	−4	0	−1
	 1	1	1	1	1 
l3,2=−2,
	−→	U =  0	0	2	−1	1 
		
	0	0	0	−2	1
La relaci´on entre las filas Ai de A y las filas Uj de U es la siguiente
	U1 =	A1	=	A1
	U2 =	A2 −l2,1U1	=	A2 +U1
	U3 =	A3 −l3,1U1 −l3,2U2 =	A3 −2U1 +2U2
Despejando cada una de las filas Ai en t´erminos de la filas Uj obtenemos
	A1 =	U1	=	U1
	A2 =	l2,1U1 +U2	=	−U1 +U2
	A3 =	l3,1U1 +l3,2U2 +U3 =	2U1 −2U2 +U3
Estas relaciones de combinaciones lineales se escriben convenientemente en forma matricial
	 A1 		U1		 1	0	0  U1 
Es decir
	 A1 	1	0	0	U1
o equivalentemente
Generalizaci´on
Note que
· Para obtener la fila Uj se le resta a la fila Aj mu´ltiplos de las filas Ui con i < j
· El multiplicador li,j dice por cuanto hay que multiplicar la fila j de modo que al restarla a la fila i se hace un cero bajo el pivote j.
En general se tiene entonces que
	U1
	=
	A1
	
	
	
	
	
	
	
	
	U2
	=
	A2
	−
	l2,1U1
	
	
	
	
	
	
	U3
	=
...
	A3
	−
	l3,1U1
	−
	l3,2U2
	
	
	
	
	Um
	=
	Am
	−
	lm,1U1
	−
	lm,2U2
	−
	···
	−
	lm,m−1Um−1
	Expresando las filas Ai de A como combinaci´on lineal de las filas Uj de U
	se tiene
	
	
	
	
	
	
	
	
	
	
	A1
	=
	U1
	
	
	
	
	
	
	
	
	A2
	=
	l2,1U1
	+
	U2
	
	
	
	
	
	
	A3
	=
...
	l3,1U1
	+
	l3,2U2
	+
	U3
	
	
	
	
	Am
	=
	lm,1U1
	+
	lm,2U2
	+
	···
	+
	lm,m−1Un−1
	+
	Um
Estas relaciones de combinaciones lineales se escriben convenientemente mediante la factorizaci´on
	 A1 	 1	0	0	···	0	0
	 A2 	 l2,1	1	0	···	0	0  
   l3,2 1 ··· 0 0   U3   3 
	 .  = 	...	  ... 
	Am	1 lm,2 lm,3 ···	lm,m−1 1	Um
	|	}	|	} |	}
Tabulaci´on de datos
Para efectos de mantener en forma organizada los resultados intermedios y multiplicadores en el proceso de eliminaci´on gaussiana hacemos lo siguiente
· Trabajamos con una s´ola matriz de trabajo de m × n.
· Esta matriz inicialmente tiene el valor de A.
· Se procede con la eliminaci´on tal como siempre pero se guarda el valor del multiplicador li,k en el elemento que se anula al restar li,k veces la fila k a la fila i
· Es decir, se guarda impl´ıcitamente el valor cero de U y expl´ıcitamente el multiplicador li,k que hace el cero.
· Las posiciones en la matriz de trabajo que corresponden a multiplicadores se marcan (en estas notas los multiplicadores van en negrita)
· La tabla final que se obtiene al terminar el proceso tiene los multiplicadores li,k que definen a L y a la escalonada U.
· Los ceros que se realizan en el proceso de eliminaci´on est´an impl´ıcitos en la tabla y est´an ubicados en los lugares donde se guardan los multiplicadores.
· Los unos de la diagonal de L se suponen impl´ıcitos
Ejemplo 3.	Donde	se	hace	un	cero	anotamos	en	negrita	el multiplicador correspondiente.
El valor del multiplicador li,j es
Elemento que se anula
li,j = 
Pivote
	
	
	0
0
	-1 2
	2
-1
	
	2	1	2	3	4 2	1	2	3	4 
 −2	−1	−5	−4	−3  -1	0	−3	−1	1 

  2 0 3 3 1   4 2 7 9 9 
	2	0	−6	−4	2
	4	2	−2	2	10
	 2	1	2	3	4 
-1
 0 −3 −1 1   2 0 -1 2 2 

	2	0	2	−2	0
	 2	1	2	3	4 
-1
		0	−3	−1	1 
L. Si reemplazamos los multiplicadores por ceros obtenemos U. Los multiplicadores en negrita definen la parte triangular inferior de
	A = LU,
	
		1	0	0	0 	2	1	2
L =  −12	−11	10	00  U =  00	00	−03

	2	2	−1	1	 0	0	0
	3
−1
2
0
	4 
1 
 2 

2
	Ejemplo 4.
	Calculamos una factorizaci´on A = LU para
		
	−2	1	1	−3	−2
	 −4	2	−1	−3	−1 
	A = 	
	 2	−1	1	1	1 
		
	6	−3	5	1	2
	
	
l2,1=(−4)/(−2)=2,
	-2
 −2	1	1	−3	−2 	l3,1=2/(−2)=−1	1	1	−3	−2 
 −4	2	−1	−3	−1 	l4,1=6/(−2)=−3	 2	0	−3	3	3 
		−→		
	
 2	−1	1	1	1 	 -1	0	2	−2	−1 
		
	6	−3	5	1	2	-3	0	8	−8	−4
	-2

	l3,2=2/(−3)=−2/31	1	−3	−2
 l4,2=−8/3	 2	0	-3	3	3 
	−→	
		
	 -1	0	-2/3	0	1 
		
	-3	0	-8/3	0	4
	-2

	1	1	−3	−2

	1
	 2	0	-3	3	3 


	 -1	0	-2/3	0


	-3	0	-8/3	0	4
	A = LU,
			1	0	0	0 
L =  −21	−2/31	10	00 

	−3	−8/3	4	1
			
	−2	1	1	−3	−2
		0	0	−3	3	3 
U = 	
		0	0	0	0	1 
		
	0	0	0	0	0
Factorizaci´on A=LU	Tabulaci´on de Datos
Factorizaci´on A=LU	Tabulaci´on de Datos
Factorizaci´on A=LU	Tabulaci´on de Datos
2
2
2
	Ejemplo 5.
	Calculamos A =
	LU
	
	 2	−4	2
 4	−6	7

	−6	10	−12
	


 para A =  
l2,1=2


2	−4	2 
4	−6	7 

−6	10	−12
2	−4	2 
2	2	3 
-3	−2	−6
Factorizaci´on PA=LU	Tabulaci´on de Datos
Factorizaci´on PA=LU	Tabulaci´on de Datos
Factorizaci´on PA=LU	Tabulaci´on de Datos
2
2
2
	 2	−4	2 
	Por lo tanto A = LU con
	 -3
	-1
	 −3
	2	2	3
	 1	0	0 	 2	−4	2 
	LU =  0	2	3 
		
	0	0	−3
Factorizaci´on PA=LU
La factorizaci´on
PA = LU es la que se obtiene al llevar la matriz A a su forma escalonada U realizando exclusivamente las operaciones elementales fila:
i) Restar un mu´ltiplo de un fila a otra ii) intercambiar dos filas
· La operaci´on elemental fila de reemplazar la fila i por un mu´tiplo de si misma no se puede realizar.
· La matriz PA es la matriz A con las filas intercambias
· La matriz P es una matriz de permutaci´on y es la matriz identidad con sus filas intercambiadas
· Por ejemplo
	 0
PA =  01 
0
	0
0
0
1
	0
1
0
0
	1  A1 	 A4 
0  A2  =  A3 
0  A 
0	A4
· Al intercambiar filas a medida que se realiza la eliminaci´on de Gauss se calcula la factorizaci´on LU a la matriz A con su filas intercambiadas. Es decir PA = LU.
Ejemplo 6.	En este ejemplo calculamos la factorizaci´on PA = LU de
	
2
 3

A =   −2

1
	−2
−3
2
1
	1
1
−1
1
	1 
1 
 1 

1
y mostramos lo que pasa cuando se intercambian filas.
· Como siempre guardamos (en negrita) el multiplicador li,k en el elemento que se anula al realizar la operaci´on elemental fila
· Cuando se intercambias filas
? anotamos el intercambio y
? se intercambian las filas, incluyendo los multiplicadores ya calculados.
	 2	−2	1	1	
	P4,2  1/2	2	1/2	1/2 
	−→  -1	0	0	2	

	3/2	0	−1/2	−1/2
Note que
· La matriz que factorizamos es realmente
	 A1 	 1	0	0	0  A1 
	PA =  AA42  =  00	01	00	01  AA23 

	A3	0	0	1	0	A4
· Entonces,
	 1 0 0 0 		1 0 0 0 	 2 −2	1	1	
	 0 0 0 1  0	2	1/2	1/2 
				
	P = 	,L,U = 	
	 0 1 0 0 	 0	0	−1/2 −1/2 
			
−1 0 0 1
	0 0 1 00	0	0	2
· La matriz P se obtiene de la matriz identidad intercambiando primero las filas 2 y 4 y luego las filas 3 y 4,
P = P4,3P4,2I4 = P4,3P4,2
.
Generalizaci´on
Suponga que
· en la eliminaci´on se intercambian las filas 1 con ii, 2 con i2, etc....
· Se define k = ik en caso que la fila k no se intercambie con ninguna fila.
Entonces,
	
Si A es la matriz que se obtiene de A intercambiando las filas de modo que ´estas queden en el orden final que se obtiene en la eliminaci´on de Gauss, entonces al realizar el proceso de
eliminaci´on de gauss en A no se requiere intercambiar filas
	
Si P = Pm,im−1 ···P2,i2P1,i1 entonces A = PA es la matriz que se obtiene de A intercambiando las filas 1 con i1, fila 2 con i2 etc... en ese mismo orden.
Por lo tanto
para la matriz A = PA se puede realizar la eliminaci´on de Gauss sin intercambio de filas
es decir A = PA = LU.
Teorema 1.	Sea A matriz de m × n. Entonces existen:
· P matriz m × m de permutaci´on.
· L matriz de m × m triangular inferior con 1’s en la diagonal • U matriz de m × n escalonada (sin 1’s en los pivotes)
tal que
PA = LU
Adem´as se tiene que
P = Pm−1,im−1 ···P2,i2P1,i1 es el producto de las matrices de permutaci´on elementales que se realizan en la eliminaci´on de gauss. Puesto que P = PIm, P es la matriz identidad con las filas intercambiadas con los mismos intercambio de filas que se realizan en el proceso de eliminaci´on de gauss de A.
Tabulaci´on de datos en PA=LU
· La tabulaci´on de c´alculos es una extensi´on del m´etodo para A = LU que considera el intercambio de filas.
· Se procede con la eliminaci´on tal como siempre.
· Se anotan los multiplicadores li,k en el lugar donde se hace el cero al restar li,k veces la fila k a la fila i.
· En caso que se intercambie la fila la fila k con la ik en algu´n punto de la eliminaci´on, se intercambian las filas completas, incluyendo los multiplicadores.
Ejemplo 7.	Calculamos la factorizaci´on PA = LU de
	
2
 4
A =   3

1
	−1
−2
1
−3
	3
1
1
0
	1 
0 

1 

−1
Tenemos
	Por lo tanto PA = LU con
	
	
	
	
	
	
1	0  0	0

P = P3,2 = 
	 0	1

	0	0
	0 0 
1 0 

0	0 

0	1
			1
L =  3/22 
1/2
	0
1
0 −1
	0
0
1 1
	0 
0 
0 
1
	
2
 0
U =   0

0
	−1
5/2
0
0
	3	1
	
	
	
	
	
	−7/2	−1/2 
−5	−2 

0	0
	
	
Nu´mero de Operaciones
Sean , donde L es triangular inferior con 1’s en su diagonal, U es triangular superior y P matriz de permutaci´on.
	~xT~y
	
	Nops = 2n
	~y = A~x
	yi = Ai · ~x, i = 1,2,...,n
	Nops = 2n2
	C = AB
	ci = Abi, i = 1,2,...,n
	Nops = 2n3
	Res. 
	yi ← bi − Pij−=11 li,jyj i = 1,2,...,n
	Nops = (n − 1)n
	Res. U~x = ~y
	xi ← (yi − Pnj=i+1ui,jxj)/ui,i i = n,n − 1,...,2,1
	Nops = n2
	Calc. PA = LU
	Pn−1(2(n − k)2 + (n − k)) = k=1
2/3n3 − 1/2n2 − 1/6n
	
Aplicaciones PA=LU
I Soluci´on de Ax = b
Note que
	Ax = b	=⇒	(PA)x = Pb =⇒ (LU)x = Pb
	L	Ux	= Pb	Ly = Pb
	=⇒	|{z}	=⇒
	y	Ux = y
i) Se calcula la factorizaci´on PA = LU
ii) Se resuelve Ly = Pb iii) Se resuelve Ux = y II Calcular A−1b
Para calcular A−1b se resuelve Ax = b por el m´etodo anterior.
NUNCA se calcula A−1, a menos que se quiera ver los elementos de ella Note que
? el nu´mero de operaciones que toma resolver Ly = Pb,Ux = y es 2n2, que es el mismo nu´mero de operaciones que toma calcular el producto A−1b.
? el c´alculo de A−1 es mucho mas caro que calcular la factorizaci´on PA = LU (adem´as de realizar las operaciones sobre A, hay que realizar las operaciones sobre la matriz identidad)
III Resolver AX = B
Para resolver AX = B hay que resolver 
i) Calcula la factorizaci´on PA = LU
ii) Para k = 1,2,...,n se resuelven
∗ Ly = Pbk
∗ Uxk = y
iii) X = [x1x2···xn]
Un caso especial importante es el c´alculo de X = A−1, que es la soluci´on de AX = I. El algoritmo se puede optimizar evitando las operaciones por cero al resolver los sistemas Ly = Pek, k = 1,2,...,n.
IV Resolver ATx = b
	Note que PA = LU implica que ATPT = UTLT.
	Pero,
	
	
	PT P
	=
	
	
	=
	(P1,i1 ···Pn−1,in−1) (Pn−1,in−1 ···P1,i1)
	
	=
...
	(P1,i1 ···Pn−2,in−2) (Pn−2,in−2 ···P1,i1)
	
	=
	P1,i1P1,i1
	
	=
	I
(Aqu´ı ocupamos que Pi,jPi,j = I)
Por lo tanto P−1 = PT.
Entonces AT = UTLTP implica que
	ATx = b	=⇒	UTLTPx = b
	=⇒	UTy = b,	LTPx = y
	=⇒	UTy = b,	LTz = yPx = z
	=⇒	UTy = b,	LTz = y,	x = PTz
El m´etodo para resolver ATx = b es entonces
i) Calcular la factorizaci´on PA = LU.
ii) Resolver UTy = b (sistema triangular inferior)
iii) Resolver LTz = y (sistema triangular superior) iv) Calcular x = PTz
Factorizaci´on PA=LU	Tabulaci´on de Datos
Factorizaci´on PA=LU	Aplicaciones
Factorizaci´on PA=LU	Aplicaciones
2
2
Ejemplo 8.	Para la matriz

A = 

determine
2	1	1 
−2	−2	0 

4	3	−2
a) La soluci´on de Ax = b donde b = [1,−1,1]T
b) La soluci´on de ATx = b donde b = [1,−1,1]T
c) S´olo la tercera columna de A−1
d) S´olo la segunda fila de A−1
e) S´olo el elemento (1,1) de A−1.
	 2
 −2
	1 −2
	1
0
	
 −→
	 2
 -1
	1 −1
	1 	 2
1  −→  -1
	1 −1
	1  1 
Soluci´on:
		
	4	3	−2
Entonces A = LU

	P = I,	L = 

	
	2	1	−4
1 0	0 	
−1	1	0  U = 
		
2 −1	1
	
	2	-1	−3
2	1	1 
0	−1	1 

0	0	−3
a) La soluci´on de Ly = Pb es y = [1,0,−1]T.La soluci´on de Ux = y es x = [1/6,1/3,1/3]T.Entonces la soluci´on de Ax = b es x = [1/6,1/3,1/3]T
b) La soluci´on de UTy = b es y = [1/2,3/2,1/3]T.La soluci´on de LTz = y es z = [5/3,11/6,1/3]T.Entonces la soluci´on de ATb = b es x = PTz =
[5/3,11/6,1/3]T.
c) La tercera columna de A−1 es la soluci´on de Ax = e3 = [0,0,1]T.
Como la soluci´on de Ly = Pe3 es y = [0,0,1]T y la soluci´on de Ux = y es x = [1/3,−1/3,−1/3]T tenemos que la tercera columna de A−1 es x = x = [1/3,−1/3,−1/3]T
d) Como (AT)−1 = (A−1)T tenemos que la segunda fila de A−1 es .... la transpuesta de la segunda columna de (AT)−1,que es igual a .... la transpuesta de la soluci´on de ATx = e2 = [0,1,0]T La soluci´on de UTy = e2 es y = [0,−1,−1/3]T.
La soluci´on de LTz = y es z = [−2/3,−4/3,−1/3]T.
Entonces la segunda fila de A−1 es [−2/3,−4/3,−1/3].
Matrices Especiales
e) Primero observamos que por lo tanto el elemento (1,1) de B = A−1 es ...
.
Pero A = PTLU y entonces A−1 = U−1L−1P.En este caso P = I, por lo que A−1 = U−1L−1. Entonces debemos evaluar la expresi´on Pero b1,1 = eT1 U−1L−1e1
	=	((U−1)Te1)T(L−1e1)
	=	xT · y,	donde UTx = e1, Ly = e1
La soluci´on de UTx = e1 es x = [1/2,1/2,1/3]T.La soluci´on de Ly = e1 es y = [1,1,−1]T.El elemento (1,1) de A−1 es entonces el producto xTy, que es igual a b1,1 = 2/3.
Matrices Diagonales
Las siguientes matrices son diagonales:
A = diag	B
= diag
Definici´on 1. La matriz A de n × n se dice diagonal si Ai,j = 0 para i 6= j, es decir, los elementos fuera de la diagonal son iguales a cero.
La matriz D = diag(d1,d2,...,dn) denota a la matriz diagonal con Di,i = di.
Las matriz identidad y la matriz nula de n × n son matrices diagonales.
Las siguientes propiedades son muy sencillas de verificar y su demostraci´on queda propuesto como ejercicio.
Propiedades
Proposici´on 1. Sean D = diag(d1,d2,...,dn), F = diag(f1,f2,...,fn) y α escalar entonces:
1.- D + F, αF son diagonales.
2.- DA es la matriz que se obtiene multiplicando la fila i de A por di, i = 1,...,n. (1)
3.- AD es la matriz que se obtiene multiplicando la columna i de A por di, i = 1,...,n.(2)
4.- DF = FD = diag(d1f1,d2f2,...,dmfn)
5.- D tiene inversa sii di 6= 0 para todo i y D−1 = diag(1/d1,1/d2,...,1/dn) DA es la matriz que se obtiene multiplicando la fila i de A por di
		(1)
AD es la matriz que se obtiene multiplicando la columna i de A por di
(2)
Matrices
Matrices Diagonales	Matrices
Matrices Diagonales	Matrices
2
2
2
Matrices Triangulares superiores
Las siguientes matrices son triangulares superiores
	 2	−1	2	−1 
	AB =  00	−20	−−42	−14 

	0	0	0	−3
Definici´on 2.	La matriz A de n×n se dice triangular superior si Ai,j = 0 para i > j.
Toda matriz diagonal es tambi´en triangular superior
Propiedades
Proposici´on 2. Sean U, V son matrices triangulares superiores de n×n y α escalar, entonces:
1.- U + V , αU son triangulares superiores
2.- UV es triangular superior. Si U y V tienen unos en la diagonal entonces UV tambi´en tiene unos en la diagonal.
3.- U tiene inversa si y s´olo si Ui,i 6= 0, i = 1,...,n.
4.- U−1 es triangular superior (cuando existe). Si U tiene unos en la diagonal entonces U−1 tambi´en tiene unos en la diagonal.
Matrices Triangulares superiores	Matrices
Matrices Triangulares superiores	Matrices
Matrices Triangulares superiores	Matrices
2
2
2
Demostraci´on:
1.- La demostraci´on es trivial.
2.- Si U , V son triangulares superiores entonces (UV )i,j la fila i de U con la columna j de V :
 v1,j
 v2,j  ...

(UV )i,j = (0,...,0,ui,i,ui,i+1,...,ui,n) vj,j
 0

 ...

0
y por lo tanto UV es triangular superior.
es el producto de



  = 0 si i > j




Si U, V tienen unos en la diagonal entonces
 v1,j 
 v2,j 
 ... 

(UV )i,j = (0,...,0,1,ui,i+1,...,ui,n) 1  = 1 si i = j
 0 

 ... 

0
y por lo tanto UV tiene unos en la diagonal.
3.- Usamos la siguiente propiedad: A tiene inversa sii la escalonada de A tiene n pivotes distintos de cero.
Si ui,i 6= 0 i = 1,...,n entonces U ya est´a en forma escalonada y tiene sus n pivotes distintos de cero, que son los elementos de la diagonal de U, y por lo tanto U tiene inversa.
Si ui,i = 0 para algu´n i, entonces la escalonada de U tendr´ıa por lo menos una fila nula y por lo tanto no habr´ıan n pivotes distintos de cero y por lo tanto U no tendr´ıa inversa.
4.- Si U es triangular superior y la diagonal de U tiene todos sus elementos no nulos
entonces la matriz ampliada [U|I] se puede llevar a la forma [I|X] multiplicando la fila i por 1/ui,i, i = 1,...,n y luego sumando mu´ltiplos de filas i a filas j con i > j por lo tanto la matriz X = U−1 resulta triangular superior.
Si U tiene unos en la diagonal entonces s´olo es necesario restar mu´ltiplos de filas i a filas j con i > j y por lo tanto X tiene tambi´en unos en la diagonal.
Por ejemplo,
	 1	4	−21	0	0 1	4	01	0	2 
	 0	−1	−40	1	0 0	−1	00	1	4 
	0	0	10	0	10	0	10	0	1
	 1	0	01	4	18 
	 0	1	00	−1	−4 
	0	0	10	0	1
por lo tanto
 .
	 1
 0

 0
0
	−1
1
0
0
	2
−4
1
0
	−1
4
−1
1
	1
0
0
0
	0
1
0
0
	0
0
1
0
	0 
0 
0 
1
	−→
	 1
 0

 0
0
	−1
1
0
0
	2
−4
1
0
	−1
4
−1
1
	1
0
0
0
	0 0	0 
1 0	0 
0	1	0 
0	0	1
	
	−1
1
0
0
	2
−4
1
0
	0
0
0
1
	1
0
0
0
	0
1
0
0
	0
0
1
0
	1 
−4 
1 
1
	−→
	 1
 0

 0
0
	−1
1
0
0
	0	0
0 0
1 0
0	1
	1
0
0
0
	0
1
0
0
	−2	−1 
4	0 
1	1 
0	1
	
	
	
	
	
	
	
	
	−→
	 1
 0

 0
0
	0 1 0
0
	0	0
0 0
1 0
0	1
	1
0
0
0
	1	2
1	4
0	1
0	0
	−1 
0 
1 .
1
Tambi´en,
Matrices Triangulares inferiores
Por lo tanto
 .
Contrariamente a lo que muchos alumnos creen, la inversa de una triangular con unos en la diagonal NO se obtiene cambi´andole el signo a los elementos fuera de la diagonal.
Matrices Triangulares superiores
Triangulares inferiores
Las siguientes matrices son triangulares inferiores:
		2	0	0	0 
	A =  −02	21	−04	00  B

	0	3	4	1
Definici´on 3. La matriz A de n × n se dice triangular inferior si Ai,j = 0 para i < j, es decir, cuando AT es triangular superior.
Toda matriz diagonal es triangular inferior y triangular superior.
A es triangular superior (inferior) ⇔	AT es triangular inferior (superior)
Matrices Triangulares superiores
Propiedades
Proposici´on 3.	Sean L, M son matrices triangulares inferior de n × n, entonces:
1.- L + M, αL son triangulares inferiores
2.- LM es triangular inferior. Si L y M tienen unos en la diagonal entonces LM tambi´en tiene unos en la diagonal.
3.- L tiene inversa si y s´olo si li,i 6= 0, i = 1,...,n.
4.- L−1 es triangular inferior (cuando existe). Si L tiene unos en la diagonal entonces L−1 tambi´en tiene unos en la diagonal.
Matrices
Matrices
Matrices
2
2
2
Demostraci´on:
Las propiedades para matrices triangulares inferiores se pueden deducir de las propiedades de matrices triangulares superiores ocupando las propiedades de transpuestas, inversas y productos de matrices. Por ejemplo, L = (LT)T y entonces L−1 = ((LT)T)−1 = ((LT)−1)T.
Por lo tanto, L triangular inferior implica U = LT triangular superior y por lo tanto (LT)−1 es triangular superior y entonces L−1 = ((LT)−1)T es triangular inferior.
Las demostraciones restantes quedan propuestas como ejercicio.
Submatrices Principales
Las submatrices principales principales de 1 × 1, 2 × 2, 3 × 3 de
Ade 4 × 4
	1 0	0	1
son
AA
Definici´on 4. La submatriz principal Ak de una matriz A de n × n es la matriz k × k, k = 1,2,...,n con
	(Ak)i,j = Ai,j	1 ≤ i ≤ k, 1 ≤ j ≤ k
Ak se obtiene de A eliminando las filas y columnas k + 1,k + 2,...,n.
Note que en la factorizaci´onL
	
2
 −2
A = 
 4

4
	1
−2
3
3
	0	1 	 1	0	0	0  2
2	−2  =  −1	1	0	0  0
−1	2 	 2	−1	1	0  0
			
−4	2	2	−1	−2	1	0
A1 = [2] = [1][2] = L1U1,
	1
−1
0
0
	0 2 1
0
	1 
−1  = −1 

−3
A
	 2	1	0 	 1	0	0  2	1	0 
	A3 =  −2	−2	2  =  −1	1	0  0	−1	2  = L3U3
					
	4	3	−1	2	−1	1	0	0	1
En el producto LU, multiplicando por bloques se obtiene que Ak = LkUk.
Otra manera de ver:
Al hacer ceros bajo el pivote k−1 se factoriza en el ”camino” a la submatriz principal Ak y se tiene Ak = Lk Uk.
Proposici´on 4. Si A = LU entonces Ak = Lk Uk, donde Ak, Lk, Uk son las submatrices principales de A, L y U respectivamente
Demostraci´on: Es consecuencia de las observaciones anteriores
Proposici´on 5. Sea A matriz invertible de n × n. Si cada submatriz principal Ak, k = 1,2,...,n es invertible entonces A se puede factorizar A = LU (sin intercambio de filas)
Si A1 tiene inversa entonces a1,1 6= 0 y entonces se puede hacer ceros bajo el elemento 1,1 sin intercambio de filas.
Como A2 es invertible la matriz resultante del primer pivoteo debe tener un elemento no nulo en la posici´on 2,2.
Entonces se puede pivotear en 2,2 sin intercambio de filas y hacer ceros bajo 2,2 en la segunda columna.
etc...
Por inducci´on se demuestra que se puede proceder con la eliminaci´on de gauss sin intercambio de filas quedando el pivote k-´esimo en el elemento k,k.
Propiedades A = LU	Matrices
Propiedades A = LU	Matrices
Propiedades A = LU	Matrices
2
2
2
A = LU
Ejemplo 9.	Construya una matriz A de 4 × 4 tal en la factorizaci´on PA = LU se requiera un intercambio de filas forzado para el tercer pivote.
Soluci´on: Construimos una matriz A de 4 × 4 invertible que tenga submatrices principales A1, A2 invertibles, pero A3 no invertible:
	A
	=
	 1
 1
 2

1
	1
2
3 −1
	2	2
2	2
4	5
0	0
	
	2
0
0 −2
	2
0
1 −2
	
	1
1
1 −2
	2
0
0 −2
	2 
0 
1 
−2
	
	→
	 1
 1
 1

2
	1 1
−2
1
	2 0
−2
0
	
	1
1
−2
1
	2
0
−2
0
	2 
0 
−2  1
	
	
	
A = LU
	Entonces PA = LU,
donde P = P3,4
	
	
	
	
	 1	0	0	0 	1
	L =  11	−21	10	00  U =  00

	2	1	0	1	 0
	1
1
0
0
	2
0
−2
0
	2 
0  −2 

1
Teorema 2. Si A es invertible entonces la factorizaci´on A = LU es u´nica (cuando existe con P = I). Es decir, si es A invertible, A = L1U1 = L2U2 donde Li son triangulares inferiores con 1’s en la diagonal y Ui triangulares superiores, entonces L1 = L2, U1 = U2.
Demostraci´on: Si A es invertible entonces U1, U2 tienen inversas (son triangulares con elementos en la diagonal no nulos).
Entonces, de A = L1U1 = L2U2 obtenemos .
Como L1,L2 son triangulares inferiores con 1’s en la diagonal, es triangular inferior con 1’s en la diagonal
Como U1, U2 son triangulares superiores y U1 es invertible se tiene que es triangular superior.
Entonces es a la vez triangular inferior con 1’s en la diagonal y triangular superior.
Propiedades	Matrices
Operaciones Matriciales	Matrices
Propiedades	Matrices
2
2
2
Por lo tanto C = I, es decir , de donde L1 = L2,
U1 = U2.
Matrices Sim´etricas
Definici´on 5.	Una matriz A real se dice sim´etrica si AT = A
· AT = A sii Ai,j = Aj,i
· Si A = AT entonces necesariamente A es cuadrada.
· En las matrices sim´etricas la fila i es la transpuesta de la columna i.
Ejemplo 10.
B 
no es sim´etrica, pues B1,2 6= B2,1
Proposici´on 6.	Sean A,B matrices sim´etricas de n × n, entonces
i) A + B es sim´etrica ii) αA es sim´etrica iii) Si adem´as A tiene inversa entonces A−1 es sim´etrica iv) AB NO es sim´etrica en general: AB es sim´etrica sii AB = BA Demostraci´on:
Para i) tenemos (A + B)T = AT + BT = A + B y entonces A + B es
sim´etrica
Para ii) tenemos (αA)T = αAT = αA, y entonces αA es sim´etrica
Para iii) tenemos AT = A y A invertible implica (AT)−1 = A−1. Pero (AT)−1 = (A−1)T. Por lo tanto (A−1)T = A−1 y entonces A−1 es sim´etrica.
Para iv) tenemos (A B)T = BT AT = B A 6= AB en general.
Para que el producto AB de matrices sim´etricas sea sim´etrica, las matrices deben conmutar, es decir AB = BA.
Ejemplo 11.	Demuestre que si A es de m × m entonces ATA es sim´etrica.
Soluci´on:	Hay que demostrar que (ATA)T = ATA
(ATA)T = AT(AT)T = ATA
Operaciones Matriciales	Matrices
Operaciones Matriciales	Matrices
Operaciones Matriciales	Matrices
2
2
2
Matrices Antisim´etricas
Definici´on 6.	Una matriz A real se dice antisim´etrica si AT = −A
· AT = −A sii Ai,j = −Aj,i
· Si A = −AT entonces necesariamente A es cuadrada.
· En las matrices antisim´etricas la diagonal principal es nula (Ai,i = −Ai,i implica Ai,i = 0)
Ejemplo 12.
	B 	C 
B no es antisim´etrica, pues B1,2 6= −B2,1 y C es antisim´etrica. Proposici´on 7.	Sean A,B matrices antisim´etricas de n × n, entonces
i) A + B es antisim´etrica ii) αA es antisim´etrica iii) Si adem´as A tiene inversa, entonces A−1 es antisim´etrica iv) AB NO es antisim´etrica en general: AB es sim´etrica sii AB = BA Demostraci´on:
Las demostraciones son similares a las realizadas para las matrices sim´etricas y las dejamos al lector.
Ejemplo 13. Demuestre que la u´nica matriz sim´etrica y antisim´etrica a la vez es la matriz nula.
Demostraci´on:
Si AT = A y AT = −A entonces A = −A y por lo tanto 2A = 0 y entonces A = 0
Teorema 3. Cada matriz A de n×n se puede expresar en forma u´nica como la suma de una matriz sim´etrica y de otra antisim´etrica. Es decir, existen u´nicas matrices B sim´etrica y C antisim´etrica tales que
A = B + C y B = (A + AT)/2, C = (A − AT)/2
Demostraci´on:
• Si A = B1 + C1 = B2 + C2, donde las Bi son sim´etricas y las Ci son antisim´etricas, entonces F = B1 − B2 = C2 − C1. Pero la resta de matrices sim´etricas es sim´etrica y la resta de matrices antisim´etricas es antisim´etrica, por lo tanto F = B1 − B2 es sim´etrica y antisim´etrica a la vez y entonces F = B1 − B2 = C2 − C1 = 0. Por lo tanto B1 = B2 y C1 = C2.
Matrices Sim´etricas y Antisim´etricas	Matrices
Matrices Sim´etricas y Antisim´etricas	Matrices
Matrices Sim´etricas y Antisim´etricas	Matrices
2
2
2
Factorizaci´on A=LDLT para A sim´etrica En el siguiente ejemplo se calcula A = LU, donde A es sim´etrica.
Para esta matriz tenemos entonces
		 1	0	0 0	 2	0	0 0 	 2 −4 6 −2
	 −2	1	0 0	 0 −1 0 0 	 0 −1 1 −3
			
	





	L = 	 D = 
	 3	−1 1 0 	 0	0
			
	−1	3	2 1	0	0
Note que U = DLT, D = diag(U)
	 U = 
	3	6
0	2
	
	
	3 0 

0 2
	 0	0

	0	0
	
	
				
	2	−4	6	−2	2	0
U =  0	−1	1	−3  =  0	−1

	 0	0	3	6 	 0	0
			
	0	0	0	2	0	0
	0	0  1
0	0  0

3	0  0

0	2	0
	−2	3
1	−1
0	1
0	0
	−1  3 
	
	
	
	
	 = DLT

2 

1
Proposici´on 8. Factorizaci´on A = LDLT, A sim´etrica ... Si cada submatriz principal de A es invertible entonces A = LU y si adem´as A es sim´etrica entonces U = DLT, donde D = diag(U). Es decir
A = LDLT.
Demostraci´on: Si cada submatriz principal de A es invertible, entonces A, que es la submatriz de mayor taman˜o es invertible.
Si A = LU, entonces los elementos de la diagonal principal de U son distintos de cero, y por lo tanto D = diag(U) es una matriz diagonal invertible.
A = LU	Matrices
A = LU	Matrices
A = LU	Matrices
2
2
2
Por otra parte,
	AT	=	UTLT
	=	(DD−1U)TLT
	=	(D−1U)TDLT	pues DT = D
	=	L1U1,
donde L1 = (D−1U)T, es triangular inferior con 1’s en la diagonal y U1 = DLT es triangular superior.
Como A es sim´etrica, AT = A y por lo tanto A = LU = L1U1. Puesto que la factorizaci´on A = LU es u´nica para matrices invertibles se tiene
U = U1 = DLT.2
Formas Cuadr´aticas
Definici´on 7.	Sea A de n × n sim´etrica y ~x = (x1,x2,...,xn)T ∈ Rn.
Decimos que
F(~x) = ~xT A ~x
es una forma cuadr´atica en las variables x1,x2,...,xn.
	Note que
• F(~x) es escalar, es decir F : Rn → R.
	
	
		~xT	A	~x
|{z} |{z} |{z}
	=
	F(~x)
		1×n	n×n	n×1
	
	1×1
• F(~0) = ~0T A ~0 = ~0T ~0 = 0
Formas Cuadr´aticas: A de 2×2
Sea
2
b
Toda expresi´on de la forma
es una forma cuadr´atica en las variables x1, x[footnoteRef:1]Poe ejemplo, [1: en las variables x,y] 
	es una forma
cuadr´atica en las variables x1,x2.
 es una forma cuadr´atica Note que corresponde a una forma cuadr´atica F(x1,x2) =
~xTA~x , donde la matriz A = (Ai,j), sim´etrica asociada que se obtiene de la siguiente manera:
b
· A1,2 = A2,1 =	, que es igual a la mitad del coeficiente de x1x2 en la forma cuadr´atica 2
· Ai,i es el coeficiente de en la forma cuadr´atica
Formas Cuadr´aticas: A de 3×3
Sea sim´etrica de . Entonces
Toda expresi´on de la forma es una forma cuadr´atica en las variables x1, x2, x3
Por ejemplo,
es una forma cuadr´atica en las variables x1,x2,x3
· F(x,y,z) = x2 +4xy −2y2 +yz +z2 es una forma cuadr´atica en las variables x,y,z
T (el coeficiente de xz es igual a cero) y
Note si F(~x) = ~xTA~x, con A = (Ai,j) sim´etrica, entonces
· Ai,j = Aj,i es igual a la mitad del coeficiente de xixj en la forma cuadr´atica
· Ai,i es el coeficiente de en la forma cuadr´atica
Formas Cuadr´aticas: A de n×n
	Sea A sim´etrica de	
	A1,n	x1
A2,n  x2 
...  ... 
		
	An,n	xn
Por lo tanto, si F(~x) = ~xTA~x, con A = (Ai,j) sim´etrica, entonces
· Ai,j = Aj,i es igual a la mitad del coeficiente de xixj en la forma cuadr´atica
· Ai,i es el coeficiente de en la forma cuadr´atica
Por ejemplo para la forma cuadr´atica en x1,x2,x3,x4,x5,
los coeficientes de son iguales a cero y
			T
	3/2
1
−1/2
0
3/2
	0
−1/2
0
0
0
	0 0
0 0 0
	0  x1 
3/2	x2
0  x3 
0  x4 
1 x5
	x1 x2
 x3 
F(x1,x2,x3,x4,x5) =  x4  
	 x5
	 1
3/2
 0
 0
0
	
	
	
	
Clasificaci´on de Formas Cuadr´aticas
Sea A sim´etrica. La forma cuadr´atica F(~x) = ~xTA~x si dice
1.- definida positiva si ~xTA~x > 0 para .
2.- semi definida positiva si ~xTA~x ≥ 0 para ~x ∈ Rn.
3.- definida negativa si ~xTA~x < 0 para .
4.- semi definida negativa si ~xTA~x ≤ 0 para ~x ∈ Rn.
5.- indefinida si existen ~x,~y ∈ Rn tales que ~xTA~x < 0, ~yTA~y > 0.
La siguiente proposici´on muestra que para determinar si una matriz A sim´etrica es definida negativa o semi negativa definida basta con clasificar a −A.
Proposici´on 9.	Sea A sim´etrica.
· A es negativa definida sii −A es positiva definida
· A es semi negativa definida sii −A es semi positiva definida
Demostraci´on:	La proposici´on
es el resultado inmediato de las definiciones y de la identidad
~xT(−A)~x = −~xTA~x
Formas Cuadr´aticas Diagonales
Sea D = diag(d1,d2,...,dn) es una matriz diagonal entonces
La clasificaci´on de formas cuadr´aticas diagonales es muy sencilla. Por ejemplo, si di > 0, i = 1,2,...,n entonces
n
	~xTD~x = Xdi x2i > 0	si ~x 6=~0
i=1
y la matriz D ser´ıa positiva definida. Adem´as, si ~xTD~x > 0 para todo ~x ∈ Rn, se tendr´ıa eligiendo ~x = eˆi, el vector can´onico i-esimo (columna i-´esima de la matriz identidad) que
n
0 < ~xTD~x = eˆTi Deˆi = Xdi x2i = di
i=1
Entonces D es positiva definida sii di > 0, i = 1,2,...,n El mismo argumento demuestra la siguiente proposici´on
Proposici´on 10.	Sea D = diag(d1,d2,...,dn) matriz diagonal. Entonces
1.- D es definida positiva sii di > 0, i = 1,2,...,n
2.- D es semi definida positiva sii di ≥ 0, i = 1,2,...,n
3.- D es definida negativa sii di < 0, i = 1,2,...,n
4.- D es semi definida negativa sii di ≤ 0, i = 1,2,...,n
5.- D es indefinida sii existen i, j tales que di < 0 y dj > 0
Ejemplo es (sim´etrica) positiva definida pues
 si ~x = (x1,x2,x3)T 6=~0 Similarmente,
 es definida negativa,
 es indefinida
Proposici´on 11. Sea A sim´etrica tal que A = LDLT, donde L es triangular inferior con 1’s en la diagonal, y D es una matriz diagonal, entonces A y D tienen la misma signatura. Es decir, A es positiva definida sii D es positiva definida, y an´alogamente para los otros casos.
Demostraci´on:
	~xTA~x = ~xT (LDLT) ~x = (LT~x)TD(LT~x) = ~yT D ~y,	donde ~y = LT~x
De esta identidad y de hecho de que si y s´olo si ( pues L tine inversa) se concluye la proposici´on
Criterio para Positivas Definidas
La siguiente proposici´on demuestra ciertas propiedades b´asicas que tienen las matrices sim´etricas definidas positivas.
Proposici´on 12.	Sea A sim´etrica definida positiva, entonces
1.- A tiene inversa
2.- Cada submatriz principal Ak de k × k de A es sim´etrica definida positiva
3.- Cada submatriz de A que se obtiene eliminando las mismas filas y columnas de A es sim´etrica definida positiva.
4.- Cada submatriz principal Ak de A tiene inversa
Demostraci´on:
1.- Si A no tuviera inversa, existir´ıa tal que A~x = ~0, por lo que ~xTA~x = 0 con ~x 6== 0, y entonces A no ser´ıa definida positiva. Por lo tanto A definida positiva implica A tiene inversa.
2.- Es obvio que A sim´etrica implica Ak sim´etrica. Sea , debemos demostrar que . Sea (completamos ~xk con ceros para obtener un vector ~x en Rn. Entonces ~x 6= 0 , pero xk+1 = xk+2 = ··· = xn = 0. Por lo tanto
	n	n	k	k
0 < ~xTA~x = XXai,jxixj = XXai,jxixj = ~xkTAk~xk
	i=1 j=1	i=1 j=1
Por lo tanto Ak es sim´etrica definida positiva
3.- Al poner un vector ~x con algunas componentes iguales a cero se obtiene que la submatriz C que se obtiene de A eliminando las mismas columnas y filas donde las componentes de vx son cero cumple
~xTkC~xk = ~xA~x > 0 si vxk 6=~0
Entonces C es positiva definida. La simetr´ıa de C es inmediata de la simetr´ıa de A.
4.- Como la submatriz Ak es sim´etrica positiva definida , por la parte 1) de esta proposici´on Ak tiene inversa
El siguiente teorema caracteriza a las matrices positivas definidas y entrega un algoritmo para decidir si una matriz sim´etrica A es o no definida positica.
Teorema 4.	Sea A de n × n. Son equivalentes
1.- A es sim´etrica definida positiva
2.- (factorizaci´on de Cholesky sin ra´ız cuadrada) Existen
· L triangular inferior con 1’s en la diagonal,
· D = diag(d1,d2,...,dn) matriz diagonal con di > 0, i = 1,2,...,n tal que
A = LDLT
3.- (factorizaci´on de Cholesky con ra´ız cuadrada) Existe R triangular superior invertible tal que
A = RTR
Demostraci´on: 1) implica 2) Si A es sim´etrica positiva definida, entonces cada submatriz principal Ak de A es invertible y por lo tanto se puede realizar eliminaci´on de gauss sin intercambio forzado de filas y A = LU. Como A es sim´etrica, se tiene U = DLT, y entonces A = LDLT. Por la proposici´on (11), puesto que A es definida positiva, se tiene que D tiene su diagonal principal con elementos positivos. Entonces la diagonal de D es positiva, y por lo tanto 1) implica 2)
√ 2)	implica√	√3)	Supongamos√	que A√= √LDLT	con di > 0.	Definimos	D =
diag( d1,	d2,...,	dn), Entonces	D	D = D, y podemos escribir
	√	√
T donde R = (L( √D) . Como L es triangular inferior y D es diagonal y ellas tienen inversas, R = (L( D)T es triangular superior y tiene inversa.
3) implica 1) Si A = RTR, donde R es triangular superior invertible, entonces AT =
(RTR)T = RT(RT)T = RTR = A, por lo que A es sim´etrica. Adem´as, si ~x 6= ~0
	~xT A~x	=	~xT RTR~x
	=	(R~x)T (R~x)
.
Pero R invertible, implican ~y = R~x 6= 0. Entonces 3) implica 1)
La equivalencia entre 1) y 2) nos dice que
Para A es sim´etrica:
A es positiva definida sii al realizar eliminaci´on de gauss en A sin intercambios de filas se obtienen pivotes positivos
Como A es negativa definida sii −A es positiva definida obtenemos tambi´en
Para A es sim´etrica:
A es negativa definida sii al realizar eliminaci´on de gauss en A sin intercambios de filas se obtienen pivotes negativos
Ejemplo 15.	Sea
F(x1,x2,x3,x4)	=	2x12 − 8x1 x2 + 8x1 x3 − 4x1 x4 + 10x22 −20x2 x3 + 16x2 x4 + 11x32 − 12x3 x4 + 17x42
· Clasifique a la forma cuadr´atica F(~x).
· Si es factible, determine las factorizaciones de cholesky con y sin ra´ız cuadrada de la matriz sim´etrica que la representa.
· Escriba la forma cuadr´atica como la suma ponderada de cuadrados e indique el cambio de variables que diagonaliza esta forma cuadr´atica.
Soluci´on:	La forma cuadr´atica puede escribirse como F(~x) = ~xTB~x, B sim´etrica:
		2	−4	4 −2 
	 −4	10 −10	8 
	B = 	
		4 −10	11 −6 
		
	−2	8	−6	17
Procedemos con la eliminaci´on de gauss sin intercambio de filas.
 2	−4	4	−2 	 2	4	4	−2 	 2	−4	4	−2 
 −4	10	−10	8 	 -22	4 	 -2	2	−2	4 
	 →  → 	
   2 2 3 −2   2 -1 1 2   4 −10 11 −6    
	
	−2	8	−6	17	-12	15	-1	2	2	7
	 2	4	4	−2 
	 -22	4 
→ 
 2	-1	1	2  -1	2	2	3

Como B es sim´etrica y al realizar eliminaci´on de gauss sin intercambio de filas y escalamientos de filas se obtienen pivotes positivos, B es positiva definida. La factorizaci´on de Cholesky sin ra´ız cuadrada es A = LDLT donde
 2 0 0 0 		1	0 0 0   0 2 0 0 	 −2	1 0 0  D = 	,	L = 	
	 0 0 1 0 		2 −1 1 0 
				
	0 0 0 3	−1	2 2 1
La factorizaci´on de Cholesky con ra´ız cuadrada de B es A = RTR donde
El cambio de variables que diagonaliza la forma cuadr´atica, es ~y = LT~x
	 y1 	 1 −2	2	−1  x1 	 x1 − 2x2 +2x3 − x4 
	 y2 	 0	1	−1	2  x2 		x2 − x3 +2x4	
		
 y3 	0	0	1	2	x y4	0	0	0	1	x4	x4
Con la substituci´on ~y = LT~x obtenemos
	~xTB~x
	=
	~xTLDLT~x = (LT~x)TD(LT~x)
	
	=
	~yTD~y
	
	=
	
	
	=
	
Ejemplo 16.	Sea
F(x1,x2,x3) = x21 − 2x1x2 +3x1x3 +3x22 − x2x3 +2x23
· Si es factible, determine las factorizaciones de cholesky con y sin ra´ız cuadrada de la matriz sim´etrica que representa a la forma cuadr´atica.
· Escriba la forma cuadr´atica como la suma ponderada de cuadrados e indique el cambio de variables que diagonaliza esta forma cuadr´atica.
· Clasifique a la forma cuadr´atica F(~x).
Soluci´on:
F(~x) = ~xTB~x donde B 
Procedemos a realizar eliminaci´on de gauss sin intercambio de filas.
	1
	3/2 
1	

−1/4
	
	1	−1
	→  -1	2

	3/2	1/2
Entonces la factorizaci´on de Cholesky de B es B = LDLT, donde
	3/2 
	1	

−3/4
	D 	L 
Por lo tanto
	~xTB~x	=	~xTLDLT~x = (LT~x)TD(LT~x)
	=	~yTD~y
donde ~y = LT~x. Es decir,
y1 = x1 − x2 +3/2x3
⇐⇒ y2 = x2 +1/2x3 y3 = x3
Entonces
Como la diagonal de D = diag(1,2,−3/4) tiene elementos de distinto signo, la forma cuadr´atica es indefinida.
Por ejemplo, con y3 = 1, y2 = 0, y1 = 0, o equivalentemente, x3 = 1, x2 = −1/2, x1 = −2 tenemos F(−2,−1/2,1) = −3/4 < 0. En cambio, con con y3 = 0, y2 = 1, y1 = 0, o equivalentemente, x3 = 0, x2 = 1, x1 = −1 tenemos F(−1,1,0) = 2 > 0. La matriz B no tiene factorizaci´on real de cholesky con ra´ız cuadrada pues los elementos de la diagonal de D no son positivos.
Note que la t´ecnica que hemos utilizado para clasificar una forma cuadr´atica ha sido realizar
un cambio de variables o substituci´on y reducir el problema a la clasificaci´on de una forma cuadr´atica diagonal. Este proceso recibe el nombre de diagonalizaci´on de una forma cuadr´atica.
El siguiente teorema aclara la t´ecnica de reducci´on de la clasificaci´on de una forma cuadr´atica a la de otra, posiblemente m´as sencilla de determinar.
Teorema 5.	Sean B, C matrices tales que
	C = V TBV	donde V tiene inversa
Entonces las matrices B y C definen formas cuadr´aticas con la misma signatura. Es decir B es sim´etrica definida positiva sii C es sim´etrica definida positiva ( an´alogamente para los otros casos).
Para clasificar a una matriz sim´etrica B se busca una matriz V invertible tal que clasificar a V TBV sea m´as simple de realizar.
Demostraci´on:	Simetr´ıa:
Sea B sim´etrica y C = V TBV , entonces
CT = (V TBV )T = V TBTV = V TBV = C
y por lo tanto C es sim´etrica.
Si V es invertible, entonces B = (V −1)TCV −1 = WTCW, y por el lo ya demostrado, intercambiando los roles de B,C, tenemos que C sim´etrica implica B sim´etrica. Entonces B es sim´etrica sii C = V TBV es sim´etrica.
Misma Clasificaci´on: Es el resultado inmediato de aplicar la substituci´on ~y = V~x:
~xTC~x = ~xT(V TBV )~x = (V ~x)TB(V ~x) = y~TBy~
Note que V invertible implica que .
Ejemplo 17. Demuestre que A es sim´etrica definida positiva sii A−1 es sim´etrica positiva definida
Soluci´on: Sea A sim´etrica definida positiva. Como (A−1)T = (AT)−1 = A−1 tenemos que A−1 es sim´etrica. Adem´as para tenemos
~xTA−1~x = ~xTA−1AA−1~x = (A−1~x)TA(A−1~x) = y~TAy~
donde ~y = A−10~x = V~x, con V = A−1 es invertible.
Entonces A y A−1 tienen la misma clasificaci´on, es decir A es sim´etrica definida positiva sii A−1 es sim´etrica definida positiva.
Ejemplo 18.	Demuestre que
· ATA es sim´etrica semi definida positiva
· ATA es sim´etrica definida positiva sii (sii las columnas de A son li.)
Soluci´on:
	Sea B = ATA.	Entonces, BT = (ATA)T) = AT(AT)T) = ATA = B, por lo que
ATA es sim´etrica.
Adem´as
(?) ~xT ATA ~x = (A~x)T(A~x) = ||Ax||2 ≥ 0
Por lo tanto ATA es sim´etrica semi positiva definida.
 entonces para (?) tenemos que
~xT ATA ~x > 0 cuando ~x 6= ~0. Hemos demostrado que Ker(A) = {0} implica que ATA es sim´etrica definida positiva.
Ahora, si ATA es definida positiva, entonces 0 < ~xT ATA ~x = ||A~x||2 y por lo tanto cuando . Es decir, Ker(A) = {~0}.
Hemos demostrado que ATA es definida positiva sii .
Ejemplo 19. Demuestre que toda matriz sim´etrica definida positiva tiene diagonal principal positiva, pero existen matrices sim´etricas con diagonal positiva que no son definidas positivas.
Soluci´on:
Si A es definida positiva entonces ~xTA~x > 0 para .
Tomando ~x = eˆi obtenemos que .
Entonces la diagonal principal de A es positiva.
Construimos una matriz de 2 × 2 sim´etrica con A = LU, con la diagonal de U no es positiva, pero la diagonal de A es positiva. Esto es f´acil:
A → 
Entonces los pivotes no son todos positivos y A es indefinida, pero la diagonal de A es positiva.
Note que NO toda matriz sim´etrica A se puede factorizar como A = LDLT. Ejemplo:
A 
Esto sucede cuando A tiene submatrices principales no invertibles.
En este ejemplo A1 = (a1,1) no es invertible, por lo que es necesario un intercambio forzado de filas.
La matriz A de este ejemplo es indefinida.
Las matrices semi positivas o negativas definidas tienen submatrices principales no invertibles.
El m´etodo visto, tal como est´a no se puede usar para clasificar matrices sim´etricas que tengan submatrices principales no invertibles
2
2
2

Más contenidos de este tema