Logo Studenta

13--Grupos-Matriciales---P--De-Caria---L--Schaposnik---2007

¡Este material tiene más páginas!

Vista previa del material en texto

Grupos Matriciales
Pablo De Caria, Laura P. Schaposnik M.
Facultad de Ciencias Exactas, Universidad Nacional de La Plata
10 de agosto de 2007
Resumen
Estudiaremos en este trabajo dos clases particulares de grupos: los matriciales y aquellos que
surgen como cociente de ellos. En este proceso trataremos varias de las propiedades que los diferencian
de cualquier otro tipo de grupos.
Se discutirán propiedades generales de grupos matriciales, especialmente del grupo lineal general
-general linear group- que consiste de todas las matrices invertibles de un cierto orden sobre un
cuerpo dado, y sus “grupos clásicos” asociados. Consideraremos, luego, ciertos grupos matriciales
particulares y estudiaremos sus propiedades.
Índice
1. Introducción 2
1.1. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2. El espacio vectorial de matrices Mn,m(K) . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1. Definición de una norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2. Definición de una métrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2. Grupos Matriciales 6
2.1. Grupos libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2. Grupos reducibles y descomponibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3. Grupos lineales especiales y generales 8
3.1. Grupo lineal general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.1.1. Subgrupos de GLn(K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.1.2. Teoremas de Sylow y el grupo lineal general . . . . . . . . . . . . . . . . . . . . . 11
3.1.3. El par BN y los subgrupos parabólicos . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2. Grupo lineal especial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2.1. Grupos lineales proyectivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2.2. Transvecciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2.3. Teoremas de Sylow y el grupo lineal especial . . . . . . . . . . . . . . . . . . . . 24
4. Algunos grupos lineales particulares 25
4.1. Grupo de matrices triangulares superiores . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.2. Grupos afines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.3. Grupos ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.3.1. Subgrupo ortogonal especial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1
4.3.2. Grupo de isometŕıas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.3.3. Grupos ortogonales generalizados . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.4. Grupos simplécticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.5. Grupos unitarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.5.1. Grupo unitario especial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.6. Grupos matriciales finitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.6.1. S = SL2(Fq) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.6.2. G = GL2(Fp) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.6.3. Grupos de matrices finitos en GL(n,Z) . . . . . . . . . . . . . . . . . . . . . . . . 37
4.7. Grupos matriciales finitamente generados . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5. Grupos de Lie 39
5.1. Espacios tangentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.2. Los grupos matriciales como grupos de Lie . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.3. La función exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6. Apéndice 43
6.1. Operaciones de grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6.1.1. Proyección al hiperplano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
6.1.2. Producto semi-directo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
6.2. Formas sobre espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
6.2.1. Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
6.2.2. Formas Hermitianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6.3. Representación de grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6.4. producto de kronecker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
1. Introducción
1.1. Definiciones
La mayoŕıa de la terminoloǵıa utilizada en el trabajo será convencional, pero se irán definiendo
conceptos a medida que resulte necesario. Por otro lado, utilizaremos los siguientes conceptos espećıficos:
Dadas X e Y dos propiedades de grupos, diremos que un grupo G es localmente X si todo
subconjunto finito de G está contenido en un subgrupo con la propiedad X.
Diremos que G es X-por-Y si G tiene un subgrupo normal N tal que N tiene X y G/N tiene Y.
Finalmente, diremos que un grupo es localmente finito si y sólo si todo subgrupo finitamente
generado es finito.
1.2. El espacio vectorial de matrices Mn,m(K)
Sean m,n ∈ N y K un cuerpo. Llamamos Mn,m(K) al conjunto de matrices de m×n cuyas entradas
están en K. Dada A ∈ Mn,m(K) llamaremos Aij a la entrada (i, j) de A.
2
Mn,m(K) es un K-espacio vectorial con la suma matricial y la multiplicación escalar. El vector nulo
es la matriz nula de m × n y la base estándar del espacio es el conjunto {Eij}ij formado por aquellas
matrices Eij que poseen un 1 en la entrada Eij y 0 en las demás entradas, para cada i, j. La dimensión
de este espacio vectorial es claramente n×m.
Mn,n(K) = Mn(K) es también un anillo con la suma usual y la multiplicación por matrices
cuadradas, cuyos elementos neutros son la matriz nula de n× n para la suma y la identidad In para el
producto. Este anillo resulta no ser conmutativo excepto cuando n = 1.
1.2.1. Definición de una norma
Sea K = R o K = C. Podemos definir entonces una norma ‖ ‖ en Mn(K). Dado x ∈ Kn
consideramos |x| la longitud estándar, y para cada A ∈ Mn(K) tomamos el conjunto SA como
SA =
{ |Ax|
|x| : 0 6= x ∈ K
n
}
y teniendo en cuenta que x 6= 0 tendremos que
SA = {|Ax| : x ∈ Kn, |x| = 1}
Por otro lado el conjunto {x ∈ Kn : |x| = 1} ⊆ Kn es cerrado y acotado por lo que diremos que es
compacto.
Podemos definir la función real ‖ ‖ : {x ∈ Rn : |x| = 1} → R de modo que ‖x‖ = |Ax|. Esta
función resulta acotada y su valor máximo es equivalente a
supSA = máxSA
Esto nos muestra que el número real
‖A‖ = máxSA
está definido. Llamaremos a esta función ‖ ‖ la norma del supremo en Mn(K).
Propiedad: ‖ ‖ es efectivamente una norma.
Demostración: Es evidente que ‖ ‖ es una función no negativa. Además, si A es no nula, debe
verificarse que al menos una de sus columnas es no nula. Supongamos que es la j− ésima y llamémosla
aj .
Aśı, Aej = aj , lo cual implica que ‖A‖ ≥ |aj | > 0. Se concluye que ‖A‖ = 0 si y sólo si A es la
matriz nula.
Para cualquier vector v con n coordenadas se verifica que (λA)v = λ(Av).
Esto implica que |(λA)v| = |λ||Av| lo que claramente determina que ‖λA‖ = |λ|‖A‖.
Sean A y B matrices de y v ∈ Kn con |v| = 1. Entonces
|(A+B)v| = |Av + Bv| ≤ |Av|+ |Bv| ≤ ‖A‖+ ‖B‖
Como esto vale para todo v con las caracteŕısticas mencionadas, se infiere que ‖A + B‖ ≤ ‖A‖+ ‖B‖.
3
Ya hemos demostrado todo lo que se necesita para afirmar que ‖ ‖ es norma.¦
Para una matriz real A ∈ Mn(R) ⊂ Mn(C) podŕıamos pensar que tenemos dos normas distintas
como la que acabamos de definir:
‖A‖R = {|Ax| : x ∈ Rn, |x| = 1} y ‖A‖C = {|Ax|C : x ∈ Cn, |x| = 1}
Propiedad: Si A ∈Mn(R) entonces ‖A‖R = ‖A‖C .
Demostración: Por un lado, vemos que {x ∈ Rn, |x| = 1} ⊂ {x ∈ Cn, |x| = 1} por lo que
tendremos que ‖A‖R ≤ ‖A‖C .
Sea ahora un vector z ∈ Cn tal que |z| = 1 y z = x + yi para x, y ∈ Rn. Luego, tendremos que
|x|2 + |y|2 = 1 y
|Az|2 ≤ |Ax|2 + |iAx|2
≤ |x|2‖A‖2R + |y|2‖A‖2R
= (|x|2 + |y|2)‖A‖2R
= ‖A‖2R
Luego, |Az| ≤ ‖A‖R por lo que ‖A‖C ≤ ‖A‖R
Aśı, podemos concluir que ‖A‖R = ‖A‖C . ¦
1.2.2. Definición de una métrica
A partir de la norma ‖ ‖ en Mn(K) podemos definir una métrica ρ dada por
ρ(A, B) = ‖A−B‖
y utilizar la topoloǵıa asociada a ella.
Dada una sucesión de elementos {Aj}j≥0 de Mn(K), podemos decir que converge al ĺımite
A ∈ Mn(K) si
‖Aj −A‖ → 0 si j →∞
También podremos definir funciones continuas sobre Mn(K). Dado A ∈ Mn(K) y r > 0 llamamos
disco abierto de radio r y centro A en Mn(K) al conjunto
NMn(K)(A, r) = {B ∈ Mn(K) : ‖B −A‖ < r}
Del mismo modo, dado un subconjunto Y de Mn(K) y A ∈ Y , llamamos
NY (A, r) = {B ∈ Y : ‖B −A‖ < r} = NMn(K)(A, r) ∩ Y
Luego, un subconjunto V ⊆ Y se dice abierto en Y sii ∀A ∈ V existe δ > 0 tal que NY (A, δ) ⊆ V .
4
Definición: Dado un subconjunto Y ∈ Mn(K) y un espacio topológico X, decimos que ϕ : Y → X es
continua si para todo A ∈ Y y todo abierto U de X para el cual ϕ(A) ∈ U , existe δ > 0 tal que
B ∈ NY (A, δ) =⇒ ϕ(B) ∈ U
Nuestra definición es equivalente a decir que ϕ es continua sii para cada abierto U de X, se satisface
que el conjunto ϕ−1(U) ⊂ Y es abierto en Y.
Estudiemos ahora dos funciones continuas que nos serán de gran utilidad más adelante.
Propiedad: Para 1 ≤ r, s ≤ n números naturales, la función coordenada
Coordrs : Mn(K) → K
coordrs(A) = Ars
es continua. Si la función f : Kn
2 → K es continua, entonces su función asociada
F : Mn(K) → K
F (A) = f((Aij)1≤i,j≤n)
es continua.
Demostración: Veamos cómo demostrar la primera parte de esta proposición ya que luego se
puede deducir fácilmente la continuidad de la función F1. Tomemos la base unitaria estándar de Kn,
dada por ei para 1 ≤ i ≤ n. Tendremos pues
|Ars| ≤
(
n∑
i=1
|Ais|2
)1/2
=
∣∣∣∣∣
n∑
i=1
Aisei
∣∣∣∣∣
= |Aes|
≤ ‖A‖
Luego, para A,A′ ∈ Mn(K) tendremos que
|A′rs −Ars| ≤ ‖A′ −A‖
Si A ∈ Mn(K) y ε > 0, luego ‖A′ −A‖ < ε implica que |A′rs −Ars| < ε, lo que muestra que Coordrs es
continua para cada A ∈ Mn(K).¦
Corolario: La función determinante Det : Mn(K) → K y la función traza tr : Mn(K) → K son
continuas.
Demostración: La función f : Kn
2 −→ K que a cada elemento x ∈ Kn2 le asocia el determinante
de la matriz que de forma natural se corresponde con x consiste en una suma de productos de coeficientes,
por lo que es continua. Si procedemos de forma similar con la traza llegaremos a una suma de coeficientes,
también continua. Sólo resta aplicar el teorema anterior.¦
1Pues resulta ser una composición de dos funciones continuas.
5
2. Grupos Matriciales
Sea n un número natural y F un cuerpo. Llamamos grupo matricial, o grupo lineal sobre F al
grupo G cuyos elementos son matrices invertibles de n× n sobre F.
Estudiaremos ahora ciertas propiedades de los grupos lineales.
2.1. Grupos libres
Definición: un grupo G se dice libre si hay un subconjunto A de G tal que todo elemento de G puede
escribirse en forma única como producto de finitos elementos de A y sus inversos. Al grupo libre sobre
A se lo llama F [A].
Ejemplo: El grupo (Z,+) de enteros bajo la adición es libre, tomando A = {1}.>
Existe otra manera de definir a los grupos libres en función de homomorfismos:
Definición: Sea el par (F, i) donde F es un grupo e i una función i : A → F . Se dice que F es un
grupo libre sobre A respecto de i si para todo grupo G′ y toda función f : A → G′ existe un único
homomorfismo ϕ : F → G′ tal que
ϕ(i(a)) = f(a) ∀a ∈ A
Podemos representar este hecho a través del siguiente diagrama conmutativo:
i
A −→ F
f ↘ ↙ ϕ
G′
Vemos claramente que todo grupo libre es infinito. Por otro lado, si un grupo G libre puede ser
generado por un conjunto A de elementos de G y por otro conjunto B, los conjuntos A y B tienen igual
cardinalidad. Al cardinal del conjunto de generadores de G se lo llama rango del grupo libre G.
De aqúı se ve claramente que dos grupos libres son isomorfos si y solo si tienen igual rango. A su
vez, todo subgrupo propio no trivial de un grupo libre es libre.
Propiedad: Todo grupo libre es lineal de grado 2 en cualquier caracteŕıstica. Más aun, un producto
libre 2 de grupos lineales es lineal.
2.2. Grupos reducibles y descomponibles
Un grupo matricial G ≤ GL(V ) sobre un espacio vectorial V se dice reducible si existe un subespa-
cio G-invariante U de V distinto de {0} y V. Si no existe dicho subespacio, se dirá que G es irreducible.
2El producto libre de grupos G y H es el conjunto de elementos de la forma g1h1g2h2...grhr donde g1 y hr pueden
ser el elemento neutro de G o H respectivamente
6
Un grupo matricial G ≤ GL(V ) se dirá descomponible si V es suma directa de dos subespacios
G-invariantes. De lo contrario, se dirá que es indescomponible.
Si V pudiera ser representado como suma directa de subespacios irreducibles, entonces G seŕıa
completamente reducible.
Teorema de Maschke: Sea G un grupo lineal finito sobre F y supongamos que la caracteŕıstica de F
es cero o un número coprimo con |G|. Si G es reducible, entonces es descomponible
Existen diferentes planteos del teorema anterior. Una versión relacionada con representaciones de
grupos es la siguiente:
Teorema: Sea G un grupo que actúa linealmente en un espacio vectorial V de dimensión finita sobre
un cuerpo K. Si la caracteŕıstica de K no divide el orden de G, la representación V es completamente
reducible.
Demostración: Si K es el cuerpo de los reales o de los complejos, entonces V admite una forma
hermitiana G-invariante, digamos ( , ) : V ×V → K, que será definida positiva. Luego, para cualquier
subespacio G-invariante W de V tendremos que V = W ⊕W⊥3 donde W⊥ representa el complemento
ortogonal de W respecto a la forma ( , ).¦
Teorema de Clifford: Sea G un grupo lineal irreducible en un espacio vectorial V de dimensión n, y sea
N un subgrupo normal de G. Luego V es suma directa de N-espacios minimales W1, ..., Wd permutados
transitivamente por G. En particular, d divide a n. El grupo N es completamente reducible y los grupos
lineales inducidos en Wi por N son isomorfos.
Luego, un subgrupo normal de un grupo lineal completamente reducible es completamente reducible.
En general, un grupo lineal G en V tiene un grupo normal unipotente 4 U tal que G/U es isomorfo a
un grupo lineal completamente reducible en V. El subgrupo U es nilpotente 5 de grado a lo sumo n− 1,
donde n = dim(V ).
Teorema de Mal’cev: Si todo subgrupo finitamente generado de un grupo lineal G es completamente
reducible, entonces G es completamente reducible.
Por otro lado, la imagen de la representación de un grupo es un grupo matricial, y aśı aplicaremos
las mismas descripciones de grupos matriciales para las representaciones ρ : G → GL(V ). El último
teorema se podŕıa extender para mostrar que cualquier grupo localmente finito de caracteŕıstica cero es
completamente reducible.
3Esto vale ya que la forma ( , ) es no degenerada y a su vez W⊥ resulta ser G-invariante.
4 Un grupo lineal se dice unipotente si todos sus elementos lo son. Un grupo lineal unipotente es conjugado de un
grupo de matrices triangulares superiores.
5 Una matriz se dice nilpotente si todos sus autovalores son 0. Otra forma de definir una matriz nilpotente es pidiendo
que exista una potencia de ésta que sea la matriz nula.
7
3. Grupos lineales especiales y generales
3.1. Grupo lineal general
Sea F un cuerpo de dimensión n, para n natural positivo. Llamamos grupo lineal general GLn(F )
al grupo de matrices invertibles de n× n con entradas en F y la multiplicación matricial usual. Si V es
un espacio vectorial de dimensión n sobre un cuerpo F , llamamos GL(V ) al grupo de transformaciones
lineales inversibles de V. Esto es,
GL(V ) = {ϕ :V → V | ϕ es lineal e inversible}
Propiedad: GLn(F ) es un grupo.
Demostración: La multiplicación entre matrices usual es asociativa. El elemento unidad es In, la
matriz de n× n que tiene 1 en su diagonal y ceros en las demás entradas. Finalmente, las matrices son
inversibles por elección. ¦
Ejemplo: Sea K = Z. Luego si A ∈ GLn(Z) tendremos que detA = ±1 >.
Propiedad: Sea el cuerpo K = R o K = C. Luego, GLn(K) ⊂ Mn(K) es un conjunto abierto.
Demostración: Sabemos que la función Det : Mn(K) → K es continua. Luego, dado un conjunto
cerrado C ∈ K sabemos que det−1(C) será también cerrado. Aśı, en nuestro caso tendremos que
GLn(K) = Mn(K)− det−1{0}
que es abierto pues {0} es cerrado.¦
Propiedad: GLn(F ) tiene infinitos elementos cuando F es infinito.
Demostración: Sea a ∈ F , a 6= 0. Luego a ·In es una matriz invertible de n×n con inversa a−1.In.
De hecho, el estas matrices forman un subgrupo de GLn(F ) isomorfo a F× = F/{0} ¦.
Propiedad: GL(V ) ∼= GLn(F ).
Demostración: Recordemos que, fijada una base del espacio vectorial V, cada transfrormación
lineal esta uńıvocamente representada por una matriz con entradas en K, y cada matriz de GLn(F )
representa una única transfromación lineal de GL(V ) ¦.
Por otro lado, está claro que si F es un cuerpo finito, GLn(F ) tendrá solamente finitos elementos.
Será muy interesante preguntarse cuántos elementos tendŕıa en este caso. Antes de estudiar esta cuestión,
veamos algunos ejemplos.
Ejemplo 1: Sea n = 1. Luego GLn(Fq) ∼= F×q que tiene q − 1 elementos. >
Ejemplo 2: Sea n = 2. Sea M =
(
a b
c d
)
. Luego, para que M resulte invertible, es necesario y
suficiente que ad 6= bc. Si a, b, c y d son distintos de cero, podemos fijar a, b y c arbitrariamente, y d
podrá tomar cualquier valor excepto a−1bc: Tendremos pues (q − 1)3(q − 2) matrices.
8
Si exactamente una de las entradas es 0, luego las otras tres entradas pueden ser cualquier número
no nulo, dando un total de 4(q − 1)3 matrices.
Finalmente, si exactamente dos de las entradas son nulas, éstas tendrán que ser opuestas para que
la matriz resulte invertible. Las otras dos sólo deben ser no nulas, dando un total de 2(q− 1)2 matrices.
Luego, la cantidad de elementos de GL2(Fq) será:
(q − 1)3(q − 2) + 4(q − 1)3 + 2(q − 1)2
= (q − 1)2[(q − 1)(q − 2) + 4(q − 1) + 2]
= (q − 1)2[q2 + q]
= (q − 1)[q2 − q] >
En general, determinar la cantidad de elementos de GLn(F ) calculando directamente el determinante
y viendo luego qué valores de las entradas lo anulaŕıan es un método complicado y que llevaŕıa a un
probable error.
Un método más útil para determinar si una matriz es invertible, y con ello para calcular la cantidad
de elementos de GLn(F ), es teniendo en cuenta que su determinante será no nulo si y sólo si las filas
de la matriz son linealmente independientes.
Proposición: El número de elementos de GLn(Fq) es
n−1∏
k=0
(qn − qk)
Demostración: Calcularemos la cantidad de matrices de n × n cuyas filas son linealmente inde-
pendientes.
Para esto, construiremos una matriz de la siguiente manera: la primera fila puede ser cualquier cosa
salvo nula, por lo que habrá qn− 1 posibilidades. La segunda fila debe ser linealmente independiente de
la primera, lo que significa que no sea un múltiplo de ella. Como hay q − 1 múltiplos de la primer fila,
las posibilidades para la segunda se reducen a qn − q.
En general, la i − esimafila debe ser independiente de las i− 1 anteriores, lo que significa que no
puede ser una combinación lineal de las primeras i − 1 filas. Como hay qi−1 combinaciones lineales de
las primeras i− 1 filas, habrá qn − qi−1 posibilidades para la i− esima fila.
Una vez construida la matriz de este modo, estaremos seguros de que sus filas son linealmente
independientes y, con ello, de que la matriz es invertible (y además cualquier matriz de n × n con
determinante no nulo puede ser armada de esta manera).
Luego, la cantidad de matrices inversibles será
(qn − 1)(qn − q), ..., (qn − qn−1) =
n−1∏
k=0
(qn − qk) ¦
9
Teorema: Dadas dos bases ordenadas cualesquiera del espacio vectorial V, existe un único elemento de
GLn(V ) que lleva la primera a la segunda.
Demostración: El elemento del que hablamos es la matriz de cambio de base que bien sabemos es
única.¦
A partir de este teorema se obtiene otro método para hallar el orden de GLn(V ) : éste será igual al
número de bases ordenadas de GF (qn) 6, es decir:
|GLn(V )| =
n−1∏
i=0
(qn − qi) = qn(n−1)/2
n−1∏
i=0
(qn−i − 1)
Para seguir estudiando GLn(V ) introduciremos la noción de centro de un grupo:
Llamamos centro de un grupo G, Z(G), al conjunto de los elementos h ∈ G tales que ∀g ∈ G,
gh = hg.
Propiedad: Z(G) es un subgrupo de G.
Demostración: El elemento unidad 1 está en Z(G) pues ∀g ∈ G, 1 · g = g · 1 = g . Por otro lado,
sean h1, h2 ∈ G. Luego, ∀g ∈ G tendremos que:
h1h2g = h1(h2g) = h1(gh2) = (h1g)h2 = gh1h2
por lo que h1h2 ∈ Z(G). Finalmente, si h ∈ Z(G), tendremos entonces que ∀g ∈ G
hg = gh
h−1hgh−1 = h−1ghh−1
gh−1 = h−1g
por lo que h−1 ∈ Z(G).¦
Estamos ahora en condiciones de estudiar el centro de GLn(V ):
Proposición: Z(GLn(V )) = {a · In|a ∈ F×}
Demostración: Para que M esté en Z(GLn(V )) debe conmutar con todo N ∈ G. En particular,
M conmuta con las matrices elementales.
Si multiplicamos M por izquierda con una matriz elemental estaremos realizando algo equivalente a
una operación de fila elemental. El multiplicar a M por derecha por una matriz elemental será equivalente
a realizar una operación de columna elemental.
Por ejemplo, multiplicar la i − esima fila de M por a nos dará la misma matriz que al multiplicar
la i− esima columna de M por a. Esto implica que la matriz M debe ser diagonal.
6 Galois field GF(q) es F cuerpo finito de orden q
10
Luego, como intercambiar la i − esima y j − esima filas de M nos da la misma matriz que al
intercambiar sus i− esima y j − esima columnas, tenemos que la i− esima entrada en la diagonal de
M debe ser igual a la j − esima entrada en la diagonal, para todo i, j.
Teniendo en cuenta estos datos, podemos afirmar que M debe ser un múltiplo de In. Por otro lado,
es fácil ver que todos los múltiplos de In conmutan con los elementos N ∈ G ¦.
3.1.1. Subgrupos de GLn(K)
Desde ahora llamaremos grupo matricial a un grupo G ≤ GLn(K) que sea también subespacio
cerrado. Esto representa una variación con respecto a la definición presentada en la sección 2, pues
ahora se está exigiendo una caracteŕıstica topológica.
Propiedad: Sea G ≤ GLn(K) un subgrupo matricial. Luego un subgrupo cerrado H ≤ G es un subgrupo
matricial de GLn(K).
Demostración: Sea {An}n≥0 una sucesión en H con ĺımite en GLn(K). Como An ∈ G ⊆ H ∀n, y
G es cerrado en GLn(K), tendremos que el ĺımite de la sucesión esta en G. A su vez, como H es cerrado
en G, {An}n≥0 tendrá su ĺımite en H: resulta entonces que H es cerrado en GLn(K) y con ello, H es un
subgrupo matricial de GLn(K).¦
Este resultado puede ser generalizado:
Propiedad: Sea G un grupo matricial y sean H ≤ K, K ≤ G subgrupos matriciales. Luego, H es un
subgrupo matricial de G.
Ejemplo: Veamos ahora un ejemplo de subgrupo matricial. Consideraremos a GLn(K) como un
subgrupo de Gn+1(K) identificando las matrices de n× n dadas por A = [aij ] con
[
A 0
0 1
]
=


a11 . . . a1n 0
...
. . .
...
...
an1 . . . ann 0
0 . . . 0 1


Se puede verificar fácilmente que GLn(K) es cerrado en GLn+1(K), por lo que GLn(K) es un
subgrupo matricial de GLn+1(K). >
3.1.2. Teoremas de Sylow y el grupo lineal general
Estudiaremos ahora algunas relaciones entre los teoremas de Sylow y el grupo lineal general. Recorde-
mos primero lo que afirman dichos teoremas:
Primer teorema de Sylow: Sea G un grupo de orden n y p un primo tal que p|n, de modo que
podemos escribir n = pam donde p no divide a m. Luego, G tiene un subgrupo S de orden pa, llamado
p-subgrupo de Sylow de G.
11
Segundo teorema de Sylow: Los p-subgrupos de Sylow de un grupo G son conjugados.
Tercer teoremade Sylow: Sea s el múmero de p-subgrupos de Sylow de un grupo G; Sea |G| = pam
donde p no divide a m. Luego, s divide a m y s ≡ 1 (p).
Recordemos ahora que hab́ıamos estudiado el orden del grupo lineal general GLn(Fq) y hab́ıamos
encontrado que |GLn(Fq)| = qn(n−1)/2
∏n−1
i=0 (q
n−i − 1). Luego, si q = pr, tendremos que GLn(Fq) tiene
un p-subgrupo de Sylow de orden qn(n−1)/2. Veamos cómo podemos describir uno de estos subgrupos.
Proposición: Sea q = pr; Sea MTn(Fq) el conjunto de matrices triangulares superiores con 1 en sus
diagonales. Luego, MTn(Fq) es un p-subgrupo de Sylow de GLn(Fq).
Demostración: Veamos primero que MTn(Fq) es un subgrupo.
Se ve claramente que la identidad es un elemento de MTn(Fq). Sean A y B ∈ MTn(Fq).
Si i > j valdrá que
(AB)ij =
n∑
k=1
AikBkj =
i−1∑
k=1
AikBkj +
n∑
k=i
AikBkj
Como A y B ∈ MTn(Fq), Aik = 0 para k entre 1 e i − 1 y Bkj = 0 para k ≥ i > j , por lo que la
sumatoria es nula. Por lo tanto, AB es matriz triangular superior. A su vez
(AB)ii =
n∑
k=1
AikBki = AiiBii +
∑
k<i
AikBki +
∑
k>i
AikBki = 1 +
∑
k<i
0.Bki +
∑
k>i
Aik · 0 = 1
∴ AB ∈ MTn(Fq)
Si se quiere conocer la inversa de A, se puede ver fácilmente que la adjunta de A es triangular
inferior con unos en la diagonal. Como detA = 1, se concluye que A−1 ∈ MTn(Fq).
Nos resta demostrar que el orden de MTn(Fq) es qn(n−1)/2. Nuestras matrices tienen n(n − 1)/2
entradas estrictamente por arriba de la diagonal y estas entradas pueden ser cualquier elemento de Fq
por lo que tendremos un total de qn(n−1)/2: tendremos aśı que el orden de nuestro subgrupo coincide
con esa cifra, como estábamos buscando. ¦
Se ve de esta demostración que otro p-subgrupo de Sylow de GLn(Fq) es el conjunto de matrices
triangulares inferiores que poseen 1 en las entradas de la diagonal. Como para n ≥ 2 estos dos subgrupos
no son iguales 7 tendremos que el número de p-subgrupos de Sylow de GLn(Fq) será mayor que 1 y por
ello deducimos que es al menos p + 1. Notemos que p + 1 divide q2− 1, por lo que podŕıa ser el número
de p-subgrupos de Sylow de GLn(Fq). De todos modos, s podŕıa llegar a tener otro valor pero, como
conocemos uno de los p-subgrupos, nos bastará conjugarlo para encontrar a los demás.
7Cuando n = 1, p no divide el órden de GLn(Fq)
12
Ejemplo: Si n = 2, tendremos que |GL2(Fq)| = q(q − 1)2(q + 1) y |MTn(Fq)| = q >
Pero tratemos de encontrar una forma más eficiente de conocer el número s.
Proposición: El número s de p-subgrupos de Sylow de GLn(Fq) es [n!]q.
Demostración: Llamemos X al conjunto de p-subgrupos de Sylow del grupo GLn(Fq). Por el
segundo teorema de Sylow, sabemos que si hacemos actuar a X sobre GLn(Fq) por conjugación, la
acción es transitiva. Llamemos H = MTn(Fq) y sea N el normalizador de H,8 Luego, tendremos que
|GLn(Fq)| = |N | · |X|
Si pudiéramos entonces encontrar al normalizador de H y contar sus elementos, tendŕıamos una
manera de encontrar el número s de p-subgrupos de Sylow de GLn(Fq)9.
Veamos que el normalizador de H es el grupo de matrices triangulares superiores sin ceros en sus
diagonales, que tiene (q − 1)qn(n−1)/2 elementos.
Sea A triangular superior y B ∈ H. Entonces ABA−1 es triangular superior al ser producto de tres
matrices de esa forma. Y es fácil verificar que
(ABA−1)ii = AiiBiiA−1ii = Aii(A
−1)ii
(A−1)ii = (adjA)ii(detA)−1 =
n∏
j=1
Ajj(Aii
n∏
j=1
Ajj)−1 = A−1ii
∴ (ABA−1)ii = 1 y ABA−1 ∈ H.
Se tiene entonces que AHA−1 ⊂ H y |AHA−1| = |H|, por lo que debe valer la igualdad y por ende
A es elemento del normalizador.
Ahora supongamos que A está en el normalizador y veremos que entonces debe ser triangular
superior.
Sea C = A−1. Luego debe ocurrir que ABC ∈ H ∀B ∈ H. En particular, esto es válido para las
matrices Bij = I + Eij , i < j, donde Eij es la matriz con sus entradas todas nulas excepto la ij, cuyo
valor es 1.
Para i < n, notar que Bin.C es una matriz que coincide con C, exceptuando que a la i− ésima fila
se le suma la enésima. Veamos que Cn1 no puede ser distinto de 0. Si lo fuera, notar que
[A.(BinC)]i1 = (
n∑
k=1
AikCk1) + Ai1Cn1 = (AC)i1 + Ai1Cn1 = Ii1 + Ai1Cn1
Como ABinC ∈ H, su primera columna coincidirá con la de la identidad, por lo que Ai1Cn1 = 0 ∀i.
Como estamos suponiendo que Cn1 6= 0, debe ocurrir que Ai1 = 0, i = 1, ..., n. Pero esto indicaŕıa que
la primera columna de A seŕıa el vector nulo, lo cual es absurdo porque A es invertible. Luego, Cn1 = 0.
8Esto es, N = {g ∈ GLn(Fq) | gHg−1 = H}.
9Notemos que este razonamiento vale para cualquier grupo finito G.
13
Veremos que para cualquier otro j 6= n Cnj = 0.
Fijemos j 6= n. Se puede ver fácilmente que
[A.(BinC)]jj = (
n∑
k=1
AjkCkj) + AjiCnj = (AC)jj + AjiCnj = Ijj + AjiCnj = 1 + AjiCnj
Como ∀i < n A.Bin.C ∈ H, (A.Bin.C)jj = 1, por lo que AjiCnj = 0 ∀i < n y, si suponemos que
Cnj 6= 0, Aji = 0 ∀i < n.
Entonces [A.(BinC)]j1 = Ajn.Cn1 y esto debe ser 0 porque ABinC ∈ H. Luego Ajn = 0.
Juntando todo se concluye que todas las entradas de la j-ésima fila de A son ceros, lo que es absurdo
y por la tanto debe valer que Cnj = 0 ∀j < n.
Podŕıamos seguir con manipulaciones de este tipo, de las cuales nos abstendremos, para concluir
que C es triangular superior y, por ende, C−1 = A también lo es.
Aśı, efectivamente, el normalizador de H consiste de todas las matrices triangulares superiores.
Luego
s =
qn(n−1)/2
∏n
k=1(q
k − 1)
qn(n−1)/2(q − 1)n
=
1
(q − 1)n
n∏
k=1
(qk − 1)
=
n∏
k=1
qk − 1
q − 1
=
n∏
k=1
(qk−1 + qk−2 + ... + 1)
= [n!]q ¦
Sea ahora V un espacio vectorial de dimensión n sobre Fq y consideremos GL(V ).
Podemos ver que GL(V ) y GLn(Fq) son grupos isomorfos pues podemos definir el siguiente isomor-
fismo entre ambos. Sea {e1, ..., en} una base de V y consideremos las transformaciones lineales de GL(V )
respecto a esa base. Si elegimos ahora dos bases distintas B1 y B2 podemos componer los isomorfismos
obtenidos de cada base, para tener un isomorfismo ψ : GLn(Fq) → GLn(Fq) dado por
ψ
GLn(Fq) −→ GLn(Fq)
φ1 ↘ ↗ φ2
GL(V )
Ejemplo: Veamos qué es lo que hace nuestro isomorfismo ψ en un caso particular.
14
Sea A =
(
1 2
0 1
)
∈ GL2(F5). Sea V un espacio vectorial de dimensión 2 sobre F5. Elegimos
una base de V dada por e1 = (1, 0) y e2 = (0, 1). Si pensamos ahora a A como la matriz de una
transformación lineal T respecto a la base B1 = {e1, e2} de V , podremos mandar A por T pidiendo que
T (e1) = e1
T (e2) = 2e1 + e1
Esto determina uńıvocamente a T ∈ GL(V ). Tomemos ahora una nueva base B2 = {e1+e2, e1−e2}.
Como
T (e1 + e2) = 3e1 + e2 = 2(e1 + e2) + (e1 − e2)
T (e1 − e2) = −e1 + e2 = −(e1 − e2)
La matriz de T en esta nueva base será
T =
(
2 −1
1 0
)
Luego, en nuestro isomorfismo ψ, la matriz
(
1 2
0 1
)
es mandada a
(
2 −1
1 0
)
>.
Consideremos ahora al subgrupo H = ψ(MTn(Fq)) de GLn(Fq). En primer lugar, observamos que
H es un p-subgrupo de Sylow de GLn(Fq). Considerando distintos cambios de base, podremos encontrar
distintos subgrupos H1, H2, ..., todos isomorfos a MTn(Fq).
Proposición: Todos los p-subgrupos de Sylow de GLn(Fq) son isomorfos mediante un isomorfismo de
cambio de base.
Proposición: Sea T una transformación lineal de V en V, y sea A la matriz que representa a T
respecto a una base particular B. Luego las matrices A’ que representan a T respecto a otras bases son,
para P ∈ GLn(Fq), de la forma
A′ = PAP−1
3.1.3. El par BN y los subgrupos parabólicos
Definición: Fijemos un conjunto S y sea
m : S × S −→ {1, 2, 3, ...,∞}
una función tal que m(s, s) = 1 para todo s ∈ S y de manera que m(s, t) = m(t, s) para todo s, t ∈ S.
Un Sistema de Coxeter es un par (W,S) donde S es un conjunto de generadores de un grupo W,
y W tiene la presentación
s2 = 1 ∀s ∈ S
(st)m(s,t) = 1 ∀s, t ∈ S
Por convención, m(s, t) = ∞ significa que no se impone ninguna relación. Notar que si m(s, t) = 2
entonces st = ts, ya que s2 = 1 y t2 = 1.
15
Diremos, dadas estas condiciones, que W es un grupo de Coxeter , aun aunque esto represente un
abuso de lenguaje.
Definición: Sea G ungrupo con un generador S. La longitud `(g) de un elemento g ∈ G con respecto
al conjunto generador S es el menor entero n tal que g tiene una expresión
g = s1...sn
con cada si ∈ S. Cualquier expresión
g = s1...sn
con n = `(g) se dice reducida .
Definición: Sea G un grupo. Supongamos que tenemos subgrupos B y N tales que H = B
⋂
N es
normal en N. Sea W = N/H y supongamos que S es un conjunto de generadores de W.
Para ω ∈ W , la notación BωB significará que se elige n ∈ N tal que nH = ω en W=N/H, y entonces
BωB = BnB, notando que lo último no depende en la elección de n, sino que solamente del coset.
La dupla B, N (o más propiamente el cuádruple (G,B,N,S)) es un par BN en G si:
(W,S) es un sistema de Coxeter.
Descomposición de Bruhat-Tits: G =
⋃
w∈W BωB (disjunta).
B〈S′〉B = ⋃ω∈〈S′〉BωB es un subgrupo de G, para cada subconjunto S’ de S.
BωB ·BsB = BωsB si `(ωs) > `(ω), para todo s ∈ S, ω ∈ W .
BωB ·BsB = BωsB ⋃BωB si `(ωs) < `(ω).
Para todo s ∈ S, sBs−1 * B.
El objetivo de esta sección es demostrar que al grupo lineal general podemos darle esta estructura.
Para ello, llamemos B al grupo de las matrices triangulares superiores invertibles, H al grupo de matrices
diagonales y N al grupo de matrices monomiales (aquellas con un único elemento no nulo en cada fila
y columna). Es evidente que B
⋂
N = H.
Propiedad 1: H ¢ N .
Demostración: Sea A ∈ N y C ∈ H. Veamos que ACA−1 ∈ H.
(ACA−1)ij =
n∑
k=1
Aik(CA−1)kj =
n∑
k=1
AikCkkA
−1
kj
Juntando que A y A−1 son inversas la una de la otra y que ambas son monomiales se puede deducir
que la cantidad de arriba equivale a Cmmδij , para algún m entre 1 y n.
16
Por lo tanto ACA−1 ∈ H y entonces se concluye que H ¢ N .¦
Propiedad 2: N/H es isomorfo al grupo de simetŕıas Sn.
Demostración: Sea A ∈ N . Consideremos el coset AH. Es fácil ver que éste coincide con CH,
donde C se obtiene de A al reemplazar todos sus elementos no nulos por unos, lo cual es equivalente a
multiplicar a A por derecha por una matriz diagonal (elemento de H) fácil de determinar.
Se tendrá entonces que existe σ ∈ Sn tal que C = (eσ(1)eσ(2)...eσ(n)), donde los vectores canónicos
indican las columnas. Rebauticemos a C como Cσ.
No es dif́ıcil verificar que la función f : Sn −→ N/H tal que f(σ) = CσH es un isomorfismo.¦
A partir de ahora usaremos el término σ para denotar tanto a la permutación como a la matriz
Cσ, quedando el significado claro de acuerdo con el contexto. Y de esta manera Sn también puede ser
considerado un grupo matricial.
Propiedad 3: Sea si la transposición (i, i + 1) en Sn, i = 1, ..., n − 1. Entonces s1, ..., sn−1 generan a
Sn. Es más, podemos transformar a Sn en un grupo de Coxeter teniendo en cuenta que s2i = 1 (para
i = 1, ..., n− 1), (sisi+1)3 (para i = 1, ..., n− 1); y (sisj)2 = 1 si |j − i| > 1.
Propiedad 4: G=BNB.
Demostración: Sea A ∈ G. A través de operaciones de filas y columnas intentaremos reducirla a
una matriz de N. El procedimiento es el siguiente:
Considerar la primera columna de A. Como A es invertible poseerá al menos un elemento no nulo.
De todos los elementos distintos de cero, consideremos el que ocupa la posición más baja en la matriz.
Supongamos que está en la fila s1. Procedamos a restarle a todas las filas s tales que s > s1 un múltiplo
de la fila s1 de manera que obtengamos una matriz A(1) para la cual A
(1)
s1 = 0 ∀s > s1. Consideremos
ahora la submatriz A’ que se obtiene de A(1) al eliminar la columna 1 y la fila s1. Consideremos la
primera columna de A’. Como A(1) es invertible, la primera columna de A’ tendrá al menos un elemento
no nulo. Supongamos que el más bajo está en la fila s2 de A(1). Realizar las mismas operaciones de filas
que antes y continuar aśı hasta cubrir todas las columnas, resultando aśı una matriz A(2).
Todas las operaciones realizadas hasta el momento son equivalentes a multiplicar por izquierda a A
por matrices elementales triangulares. Notar que σ(i) = si, i = 1, ..., n, es una permutación.
Las operaciones a continuación serán las siguientes:
Notar que A(2)ij es 0 para todo j < σ
−1(1). Restarle a todas las columnas s tales que s > σ−1(1)
un múltiplo de la columna σ−1(1) de modo que al terminar el proceso se tenga una matriz nueva A(3)
con A(3)1s = 0 ∀s > σ−1(1). Repetir operaciones similares con las columnas restantes. Todas ellas son
equivalentes a multiplicar por derecha a A(2) por matrices elementales triangulares. Al fin del proceso se
obtiene una matriz monomial. Multipliquémosla por una matriz diagonal para que todos sus coeficientes
no nulos sean unos. Se puede ver aśı que el resultado final es la matriz Cσ, que es un elemento de N.
17
Como conclusión, podemos obtener dos matrices triangulares superiores B1 y B2 tales que B1AB2 = Cσ.
y
B1AB2 = Cσ =⇒ A = B−11 CσB−12 =⇒ A ∈ BNB
∴ G = BNB.¦
Propiedad 5: G =
⋃
σ∈Sn BσB. Es más, esta unión es disjunta y aśı se obtienen n! cosets dobles
distintos.
Demostración: Que la unión nos da G es una consecuencia de la propiedad anterior. Veamos que
es disjunta:
Supongamos que existen σ y τ en Sn tales que BσB
⋂
BτB 6= ∅. Entonces existen B1, B2, B3, B4
triangulares superiores tales que B1σB2 = B3τB4. Esto último es equivalente a σB2B−14 τ
−1 = B−11 B3.
Además
(σB2B−14 τ
−1)ii = {(eσ(1)eσ(2)...eσ(n))[B2B−14 (eτ−1(1)eτ−1(2)...eτ−1(n))]}ii =
{


eσ−1(1)
...
eσ−1(n)

 [B2B−14 (eτ−1(1)eτ−1(2)...eτ−1(n))]}ii = [B2B−14 (eτ−1(1)eτ−1(2)...eτ−1(n))]σ−1(i),i =
(B2B−14 )σ−1(i)τ−1(i) = (B
−1
1 B3)ii 6= 0 i = 1, ..., n
Pero como B2B−14 es triangular superior, entonces σ
−1(i) ≤ τ−1(i) i = 1, ..., n. Y no es dif́ıcil ver
que esto ocurre si y sólo si σ−1 = τ−1, o sea, σ = τ . Esto descarta que la unión no sea disjunta.¦
Propiedad 6: Para cualquier ω ∈ Sn e i = 1, ..., n− 1, tenemos que BωB ·BsiB ⊆ BωB
⋃
BωsiB.
Esquema de la demostración: Consideremos una matriz de la forma ωB1si.
ωB1 = IωB1 es un elemento de BωB. Si quisiéramos realizar las operaciones de filas descritas en
la propiedad 4 veŕıamos que no hay nada que hacer (pues ω no está siendo multiplicada a izquierda
por una matriz triangular superior distinta de la identidad). Esto significa que los elementos no nulos
inferiores considerados son apreciables a simple vista para cualquier columna. Multiplicar a ωB1 por si
por derecha equivale a intercambiar las columnas i e i+1. Si al resultado lo sometemos a las operaciones
de filas descritas en la propiedad 4 (para encontrar σ tal que ωB1si ∈ BσB), notamos que las operaciones
siguen siendo las mismas para las primeras i− 1 columnas. Luego hay dos posibilidades:
En la iteración correspondiente a la columna i, la posición más baja de los elementos no nulos
sigue siendo la misma en comparación con ωB1: entonces ωB1si ∈ BωB.
Se produce un cambio en la iteración i: entonces ωB1si ∈ BωsiB.
En resumen, se concluye que ωBsi ⊆ BωB
⋃
BωsiB y esto implica el resultado que queŕıamos
demostrar.¦
18
Ejemplo: En GL4(R) sean
ω =


0 0 0 1
0 0 1 0
1 0 0 0
0 1 0 0

 y A =


0 0 0 1
0 0 1 2
1 3 6 7
0 1 1 5

 ∈ BωB
En este caso As1 =


0 0 0 1
0 0 1 2
3 1 6 7
1 0 1 5

. Si a la fila 3 le restamos 3 veces la fila 4 obtenemos la matriz


0 0 0 1
0 0 1 2
0 1 3 −8
1 0 1 5

. Además ωs1 =


0 0 0 1
0 0 1 0
0 1 0 0
1 0 0 0

, lo cual nos permite concluir que As1 ∈ Bωs1B.
Pero si multiplicamos a A por s2 obtenemos la matriz


0 0 0 1
0 1 0 2
1 6 3 7
0 1 1 5

. Restándole a la fila 2 la
fila 4 y a la fila 3 seis veces la fila 4 obtenemos


0 0 0 1
0 0 −1 −3
1 0 −3 −23
0 1 1 5

, lo cual implica que As2 ∈ BωB. >
Propiedad 7: Sea σ ∈ Sn. Entonces `(σsi) > `(σ) ⇐⇒ σ(i) < σ(i + 1).
Demostración: Notar primero que no puede ocurrir que `(σsi) = `(σ) debido a las propiedades que
conocemos sobre la paridad de permutaciones (en particular, multiplicar por una transposición cambia
la paridad).
Supongamos que σ(i) < σ(i + 1). Esto equivale a σsi(i) > σsi(i + 1).
Nuestra estrategia será multiplicar por derechaa σsi por transposiciones hasta llegar a la per-
mutación identidad. Si hacemos esto en k pasos, veremos que hay una forma similar de hacer lo mismo
con σ en k − 1 pasos. Si a una permutación τ la representamos a través del vector (τ(1)...τ(n)), lo que
estamos haciendo es intercambiar entradas contiguas hasta llegar a (1 2 3 4). Sea ahora τ = σsi. Como
σsi(i) > σsi(i + 1), si estamos interesados en llegar a (1 2 3 4), en por lo menos uno de los cambios
efectuados esos dos valores intercambian posiciones. Si prescindimos de este movimiento, se puede ver
que el método sirve para transformar a σ en la identidad (en un paso menos). Ahora, transformar a una
permutación en la identidad de esa manera equivale a multiplicarla por su inversa. De esto se deduce
que `((σsi)−1) > `(σ−1). Pero no es dif́ıcil ver que, para cualquier permutación τ , `(τ) = `(τ−1).
∴ `(σsi) > `(σ).
Rećıprocamente, si σ(i) > σ(i + 1), se tendrá que σsi(i) < σsi(i + 1), lo cual implica por lo que
vimos que `(σsisi) = `(σ) > `(σsi).¦
19
Ejemplo: En S4
(4 1 3 2) = (1 2)(3 4)(2 3)(3 4) = (1 2 3 4)
Notemos que en un principio el 3 está antes que el 2, situación que es revertida cuando multiplicamos
por la transposición (3 4). Razonando como en la demostración anterior, si a (4 1 3 2) la multiplicamos
por (3 4) obtenemos una permutación de longitud uno menos. De hecho:
[(4 1 3 2)(3 4)](1 2)(2 3)(3 4) = (4 1 2 3)(1 2)(2 3)(3 4) = (1 2 3 4) >
Propiedad 8:
1. BωB ·BsiB = BωsiB si `(ωsi) > `(ω).
2. BωB ·BsiB = BωsiB
⋃
BωB si `(ωsi) < `(ω).
Demostración:
1. `(ωsi) > `(ω) implica que σ(i) < σ(i + 1).
Tomemos una matriz de la forma ωB1 ∈ BωB. Notemos que la primera columna de ωB1 tiene
una única entrada no nula en la fila ω(1). Dejando a esta última de lado, la segunda columna tiene un
único elemento no nulo en la fila ω(2) y aśı sucesivamente. Procedemos a intercambiar las filas i e i + 1
(calcular ωB1si). Notar que ahora la columna i, dejando de lado las filas ω(1), ω(2), ..., ω(i − 1), tiene
un elemento no nulo en la fila ω(i + 1) > ω(i).
Esto significa que, cuando nos disponemos a realizar las operaciones de filas descritas en la propiedad
4, no tenemos que cambiar nada en las columnas 1, ..., i−1, pero descenderá la posición no nula inferior
de la columna i. Y ya sabemos que esto implica que ωB1si ∈ BωsiB. Por lo tanto ωBs1 ⊆ BωsiB. En
consecuencia BωB · BsiB ⊆ BωsiB, y ya sab́ıamos que la otra inclusión también es verdadera. Luego
vale la igualdad.
2. `(ωsi) > `(ω) implica que σ(i) > σ(i + 1).
Volvamos a tomar una matriz de la forma ωB1 ∈ BωB.
Consideremos la matriz ω + Eω(i),(i+1) = B1ωB2 ∈ BωB. Aqúı, si se pretenden realizar las cons-
abidas operaciones de filas, las primeras i − 1 columnas permanecen inalteradas y tampoco cambia la
posición no nula inferior de la columna i (en parte debido a que σ(i) > σ(i + 1)). Sabemos que esto
significa que B1ωB2si ∈ BωB. Por lo tanto hay un elemento en BωB que también está en BωB ·BsiB.
Y no es dif́ıcil ver entonces que todo elemento en BωB está en BωB ·BsiB. Se puede concluir entonces
que BωsiB
⋃
BωB ⊆ BωB · BsiB. Pero como sabemos que también vale la inclusión en el sentido
contrario, se concluye que la igualdad es válida.¦
Ya hemos probado casi todas las propiedades necesarias para probar que el grupo lineal especial
tiene una estructura de par BN. Todas aquellas que falten son también verificables, pero omitiremos las
demostraciones.
20
Los subgrupos B y W=N/H reciben el nombre de subgrupo de Borel y grupo de Weyl de G
respectivamente.
Propiedad 9: Sea K un subgrupo de GLn(F ) que contiene a B. Si σ ∈ K tiene la expresión reducida
σ = si1si2 ...sik , entonces sij ∈ K ∀j ≤ k.
Demostración: La haremos por inducción sobre `(σ). Si `(σ) = 1 el resultado es evidente. Supong-
amos ahora que la propiedad vale para toda σ tal que `(σ) = k − 1.
Notar que `(σsik) < `(σ), lo cual implica que BσB ·BsikB
⋂
BσB 6= ∅ y esto nos permitirá escribir
a sik en función de matrices triangulares y de σ. Por lo tanto sik ∈ K. Esto implica que σsik ∈ K. Como
ésta es una permutación de longitud k − 1 (si `(σsi) fuera menor que k − 1 se llegaŕıa al absurdo de
que `(σ) < k)) se puede aplicar la hipótesis inductiva para concluir que las otras k − 1 transposiciones
también están en K.¦
Toda la teoŕıa desarrollada nos permitirá demostrar un resultado muy importante.
Teorema: Cualquier subgrupo de G que contenga a B es de la forma
PI = 〈B, si : i ∈ I〉
Para algún conjunto I de {1,2,...,n-1}.
Demostración: Sea K ≤ G tal que B ⊆ K. Sea I el conjunto de los ı́ndices i para los cuales
si ∈ K. Veamos que K = PI . Es evidente que PI ⊂ K. Supongamos que la inclusión es estricta.
Tomemos entonces A ∈ K − PI . Esto significa que toda expresión σ = si1si2 ...sik debe contener una
transposición sij tal que ij 6∈ I. En particular, esto ocurrirá para toda expresión reducida, llegándose a
la conclusión de que sij ∈ K, lo cual contradice la definición de I.
∴ K = PI .¦
No es dif́ıcil ver que cada PI es distinto de cualquier otro, por lo que se tienen exactamente 2n−1
subgrupos que contienen a las matrices triangulares superiores. Los PI reciben el nombre de grupos
parabólicos asociados al par BN.
3.2. Grupo lineal especial
Estudiaremos ahora un subgrupo muy interesante de GLn(V ). La función determinante,
det : GLn(F ) → F×,10 es un homomorfismo.
Definimos el grupo lineal especial S = SLn(F ) como el núcleo11 del homomorfismo det. Dicho de
otro modo,
SLn(F ) = {M ∈ GLn(F ) | det(M) = 1}
Propiedad: Sea el cuerpo K = R o K = C. Luego, SLn(K) ⊂ Mn(K) es un conjunto cerrado.
10Donde F× es el grupo multiplicativo de F, de orden q − 1
11También llamado kernel.
21
Demostración: Sabemos que la función Det : Mn(K) → K es continua. Luego, dado un conjunto
cerrado C ∈ K sabemos que det−1(C) será también cerrado. En nuestro caso tendremos que
SLn(K) = det−1{1} ⊂ GLn(K)
que es cerrado en Mn(K) y GLn(K) pues {1} es cerrado en K.¦
Ejemplo: Estudiemos SL1(Q) como subgrupo de GL1(Q) sujeto a las restricciones
a21 + b
2
1 + a
2
2 + b
2
2 = 1
Este grupo es geométricamente equivalente a la esfera de 3 dimensiones en R4
SL1(Q) ∼ S3 ⊂ R4 >
Será interesante, como hicimos en el caso de GLn(F ), estudiar la cantidad de elementos que posee
SLn(F ).
Proposición: El número de elementos de SLn(Fq) es
∏n−1
k=0(q
n − qk)
q − 1
Demostración: Consideremos el homomorfismo det : GLn(F ) → F× que es suryectivo 12. Esto
es cierto pues, por ejemplo, la matriz 

a 0 . . . 0
0 1 . . . 0
...
...
. . .
...
0 0 . . . 1


es una matriz invertible de n×n con determinante a. Como SLn(Fq) es el núcleo del homomorfismo
tendremos, por el Primer Teorema del Isomorfismo, que
GLn(Fq)\SLn(Fq) ∼= F×
Por lo que
|SLn(Fq)| = |GLn(Fq)||F×| =
∏n−1
k=0(q
n − qk)
q − 1 ¦
También podremos estudiar el centro de SLn(F ) obteniendo el siguiente resultado, cuya demostración
es similar a la realizada para el caso de GLn(F ):
Proposición: Z(SLn(F )) = { a · In | a ∈ F×, an = 1}.
12 Es decir, la imagen de GLn(F ) por det es todo el espacio F
∗
22
3.2.1. Grupos lineales proyectivos
El grupo lineal general proyectivo y el grupo lineal especial proyectivo13, PGLn(F ) y
PSLn(F ) son los cocientes de GLn(F ) y SLn(F ) por sus subgrupos normales Z y Z ∩ SLn(F ) re-
spectivamente, donde Z es el grupo de matrices escalares no nulas.
Teorema: El grupo PSLn(Fq) es simple14 para n ≥ 2 excepto en el caso en que n = 2 y q ∈ {2, 3}
Veamos algunos ejemplos recordando que en un conjunto de orden n el subconjunto de permutaciones
pares es llamado “alternating group” o grupo alternado y se lo denota An:15
Ejemplos:
Notemos que |PSL2(F2)| = 6 y |PSL2(F3)| = 12, por lo que se ve claramente que no pueden ser
simples.>
Vemos que |PSL2(F4)| = 60 = |PSL2(F5)| y cada uno es isomorfo al grupo alternado A5.>
Por otro lado |PSL2(F9)| = 360 y resulta ser este grupo isomorfo a A6.>
También es válido que PSL4(F2) ∼= A8>
Todos los demás grupos de la forma PSLn(Fq) no son isomorfosa ningún Ak.>
Reformulemos para el caso de cuerpos finitos lo que ya sabemos acerca del centro del grupo lineal
especial:
Sea Z el subgrupo de S que consiste de las matrices escalares en S 16. La condición del determinante
equivale a pedir αn = 1, por lo que α debe estar en el único subgrupo de orden d = (q − 1, n) de F×.
Luego, |Z| = d y claramente Z ⊂ Z(S): de acuerdo a la última proposición vista, Z = Z(S).
Ejemplo:
Si n = 2 y q es impar, entonces tendremos que d = 2 y luego |PSL2(Fq)| = q(q − 1)(q + 1)/2.>
Si n = 2 y q es una potencia de 2, luego d = 1 y en este caso |Z| = 1 y PSL2(Fq) = SL2(Fq) tiene
orden q(q − 1)(q + 1).>
3.2.2. Transvecciones
Llamamos transvección a una transformación lineal t en V espacio vectorial, cuyos autovalores
son todos 1 y que satisface rank(t− 1) = 1. Las transvecciones tienen la forma genérica
13projective general linear group y projective special linear group
14Recordemos que un grupo G se dice simple si sus únicos subgrupos normales son el trivial y el mismo G.
15Los grupos alternados son subgrupos normales de grupos de permutaciones y tienen orden n!/2. Los grupos alternados
An para n ≥ 5 son grupos simples.
16Éstas son matrices de determinante 1 que tienen la forma α · I donde α ∈ F .
23
tv,f : x 7−→ x + (xf)v
donde v ∈ V , f ∈ V ∗, y vf = 0. Notemos que en particular las transvecciones tienen determinante
1 y por lo tanto se encuentran en SLn(V ). El mapa en el espacio proyectivo es llamado una elación y el
punto 〈a〉 en él recibe el nombre de centro de la transvección o elación. Finalmente, el hiperplano dado
por ker(f) se llama eje.
Teorema: El grupo SLn(F ) está generado por transvecciones, para n ≥ 2 y cualquiera sea el cuerpo
F.
Demostración: Una forma de calcular el determinante de una matriz A es reduciéndola a través
de operaciones de filas. Aśı, si det A=1, es posible reducir a A a la identidad mediante operaciones que
reemplazan una fila por ésta más un múltiplo de otra. Esto es equivalente a multiplicar por izquierda por
una matriz con unos en toda su diagonal y cuyos elementos restantes son 0 excepto uno de ellos. Estas
matrices representan claramente transvecciones, por lo que A−1 resulta ser producto de transvecciones
y, en consecuencia, éstas deben generar a SLn(F ).¦
Ejemplo: Consideremos la matriz
(
0 1
−1 1
)
en SL2(R). Se puede verificar que
(
1 −1
0 1
)(
0 1
−1 1
)
=
(
1 0
−1 1
) (
1 0
1 1
)(
1 0
−1 1
)
=
(
1 0
0 1
)
Aśı, (
1 0
1 1
)(
1 −1
0 1
)(
0 1
−1 1
)
= I
es decir, (
0 1
−1 1
)
=
(
1 −1
0 1
)−1 ( 1 0
1 1
)−1
>
Notemos que cualquier transvección puede ser representada por una matriz con 1 en su diagonal
y en la esquina derecha, y ceros en las demás entradas, por lo que pertenece a SLn(Fq). El grupo de
todas las elaciones con centro en 〈a〉, junto con la identidad, forman un subgrupo normal abeliano del
estabilizador del punto 〈a〉 en PSLn(Fq).
Aśı, muchas de las propiedades que describe el álgebra lineal sobre similitud entre matrices pueden
ser interpretadas como propiedades de clases en GLn(F ). Por ejemplo, dos matrices no singulares son
conjugdas en GLn(F ) si y sólo si tienen los mismos factores invariantes. Si F es algebraicamente cerrado,
entonces dos matrices no singulares son conjugadas en GLn(F ) si y sólo si tienen la misma forma de
Jordan.
3.2.3. Teoremas de Sylow y el grupo lineal especial
Recordemos que H = MTn(Fq) es el grupo de matrices triangulares superiores con 1 en sus diag-
onales. Vemos claramente que, como las matrices en H tiene determinante 1, H ⊆ S. Luego, todos los
24
p-grupos de Sylow de G están en su subgrupo normal S.
4. Algunos grupos lineales particulares
Uno de los resultados más importantes de la teoŕıa de grupos es el teorema de Cayley que enuncia-
remos a continuación:
Teorema de Cayley: Todo grupo es isomorfo a un grupo de permutaciones.
Demostración: La demostración de este teorema la haremos en forma constructiva: daremos un
algoritmo que nos permitirá transformar cualquier grupo en un grupo de permutaciones.
Sea G un grupo y sea SG el grupo de simetŕıas de G 17. Para cada g ∈ G definimos σg a la
permutación dada por:
σg(x) = xg ∀g ∈ G
En otras palabras, multiplicamos a cada elemento de G a derecha por g. Se puede ver fácilmente que
σg es efectivamente una permutación pues:
Vemos que es suryectiva ya que σg(xg−1) = x.
Dados x, y ∈ G vemos que σg(x) = σg(y) si y sólo si xg = yg, si y sólo si x = y, por lo que la
aplicación es uno a uno.
Llamamos H = {σg | g ∈ G} y definimos f : G → H de manera tal que f(g) = σg. Luego,
tendremos que f(g1g2) = σg1g2 y para cada x ∈ G
σg1g2(x) = xg1g2 = (xg1)g2 = σg2(σg1(x))
Luego, σg1g2 = σg1σg2 y f(g1g2) = f(g1)f(g2) por lo que f resulta ser un morfismo. Además
f es suryectiva en H.
Si f(g1) = f(g2) tendremos que ∀x ∈ G vale xg1 = xg2 por lo que g1 = g2 y con ello f resulta ser
uno a uno.
Aśı tenemos que H es un subgrupo de SG isomorfo a G. ¦
Como consecuencia de este teorema, si G es un grupo finito de orden n, entonces G será isomorfo
a un subgrupo del grupo de simetŕıas Sn. Veremos luego que será posible en algunos casos que G sea
isomorfo a un subgrupo de Sk para k < n, lo que lleva a preguntarnos cuál será el menor entero positivo
r tal que G sea isomorfo a un subgrupo Sr.
Veamos ahora un ejemplo:
17Recordemos que un grupo de simetŕıas es aquél que preserva simetŕıas: i.e. rotaciones, inversiones, reflexiones.
25
Ejemplo 1: Consideremos el grupo de simetŕıas de los triángulos equiláteros S3. El teorema anterior
nos llevaŕıa a una representación de sus elementos como permutaciones de {1, 2, 3, 4, 5, 6}. Pero si nom-
bramos los vértices del triángulo con 1, 2 y 3 podemos ver que los elementos pueden ser representados
como permutaciones de {1, 2, 3}.
4.1. Grupo de matrices triangulares superiores
Para n ≥ 1, una matriz A = [aij ] ∈ Mn(K) es triangular superior si tiene la forma
A =


a11 a12 . . . . . . . . . a1n
0 a21
. . . . . . . . . a2n
0 0
. . . . . . . . .
...
...
...
. . . . . . . . .
...
...
...
. . . 0 an−1 n−1 an−1 n
0 0
. . . 0 0 ann


Esto es, posee entradas aij = 0 para i < j. Una matriz se dice unipotente si todas sus entradas en la
diagonal son 1,18.
Dado K un cuerpo, llamamos subgrupo triangular superior o subgrupo Borel de GLn(K) al conjunto
UTn(K) = {A ∈ GLn(K) : A es triangular superior}
Por otro lado, llamamos subgrupo unipotente19 de GLn(K) al conjunto MTn(K) que nombramos en la
sección 2, cuya forma es
MTn(K) = {A ∈ GLn(K) : A es unipotente}
Se puede ver fácilmente que ambos subgrupos son cerrados en GLn(K). Por otro lado, notemos que
MTn(K) ≤ UTn(K) y es un subgrupo cerrado.
Propiedad: Todo grupo unipotente, mirado como grupo matricial, es conjugado en GLn(K) a un sub-
grupo de MTn(K).
Ejemplo: Estudiemos las transformaciones que realiza UT2(R) en el plano R2. Tomemos dos vec-
tores
[
x′
y′
]
y
[
x
y
]
de R2. Luego
[
x′
y′
]
=
[
a b
0 d
] [
x
y
]
=
[
ax + by
dy
]
Vemos que el eje x queda invariante: es un subespacio invariante y = 0 → y′ = 0 llevado sobre śı mismo
por estas matrices. El eje y no es invariante.>
18Esto es, aij = 0 para i < j y aii = 1.
19También llamado grupo nilpotente.
26
Ejemplo: Para el caso particular
MT2(K) =
{[
1 t
0 1
]
∈ GLn(K) : t ∈ K
}
≤ GL2(K)
vemos que la función
ϕ : K → MT2(K)
ϕ(t) =
[
1 t
0 1
]
es un homomorfismo continuo, inyectivo y con inversa continua, lo que nos permite pensar a K como
grupo matricial 20.>
4.2. Grupos afines
LLamamos grupo af́ın de dimensión n sobre K al grupo
Afn(K) =
{[
A t
0 1
]
: A ∈ GLn(K), t ∈ Kn
}
≤ GLn+1(K)
Éste es claramente un subgrupo cerrado de GLn+1(K) y, si identificamos x ∈ Kn con
[
x
1
]
∈ Kn+1,
se tendrá la fórmula
[
A t
0 1
] [
x
1
]
=
[
Ax + 1
1
]
obteniéndose aśı una acción de Afn(K) sobre Kn.
Las transformaciones ϕ de Kn tal que ϕ(x) = Ax + 1 para A matriz inversible, son llamadas
transformaciones afines, y poseen la caracteŕıstica de preservarĺıneas 21.
Propiedad: Podemos pensar al espacio vectorial Kn como subgrupo (cerrado) de translaciones de
Afn(K) del siguiente modo
Transn(K) =
{[
In t
0 1
]
: t ∈ Kn
}
≤ Afn(K)
Ejemplo: Existe un subgrupo cerrado de Afn(K) que es isomorfo a GLn(K) dado por
{[
A 0
0 1
]
: A ∈ GLn(K)
}
≤ Afn(K) >
Proposición: Transn(K) es un subgrupo normal de Afn(K) y éste último puede ser expresado como
el producto semi directo entre Transn(K) y GLn(K):
Afn(K) = GLn(K)o Transn(K) = {AT : A ∈ GLn(K), T ∈ Transn(K)}
20Puesto que resulta ser K isomorfo a MT2(K).
21Esto es, trasladan subespacios de dimensión 1 del K-espacio vectorial Kn.
27
de manera que
Transn(K) ∩GLn(K) = {In+1}
Demostración: Para ver que estamos ante un producto semi directo notemos que si
[
A 0
0 1
]
∈ GLn(K) y
[
I t
0 1
]
∈ Transn(K)
Entonces tendremos que
[
A 0
0 1
] [
I t
0 1
] [
A 0
0 1
]−1
=
[
A At
0 1
] [
A−1 0
0 1
]
=
[
I At
0 1
]
que está en Transn(K). La igualdad Transn(K) ∩ GLn(K) = {In+1} es evidente debido a las
definiciones.¦
Ejemplo: Las transformaciones afines sobre MT2(R) actúan sobre el eje x mandando x → x′ =
ax + b del siguiente modo
[
x′
1
]
=
[
a b
0 1
] [
x
1
]
=
[
ax + b
1
]
>
4.3. Grupos ortogonales
Sea n ≥ 1. Una matriz A ∈ Mn(K) se dice ortogonal si AT A = In, es decir, A tiene inversa dada
por AT . El producto de dos matrices ortogonales A y B es ortogonal, puesto que
(AB)T (AB) = BT AT AB = BInBT = BBT = In
Dado K cuerpo (en principio consideremos K = R pero podŕıamos también tomar K = C), el grupo
ortogonal es
On(K) = {A ∈ GLn(K) | A ·AT = In}
La ecuación A ·AT = In es equivalente a las n2 ecuaciones para los n2 números aij
n∑
k=1
akiakj = δij
On(K) resulta ser un subgrupo cerrado de Mn(K) por lo que será también un subgrupo matricial de
GLn(K).
Si ahora consideramos a la función determinante restringida a On(K), tendremos que
(detA)2 = detAT detA = det(AAT ) = det(In) = 1
por lo que detA = ±1. Podremos separar luego a On(R) = O(n) en dos subconjuntos disjuntos dados
por
O(n)+ = {A ∈ O(n) : detA = 1} y O(n)− = {A ∈ O(n) : detA = −1}
Siendo O(n)+ un subgrupo.
28
4.3.1. Subgrupo ortogonal especial
Un subgrupo muy importante de O(n) es el llamado subgrupo ortogonal especial de GLn(R) dado
por
SO(n) = O(n)+ ≤ O(n)
Tanto O(n) como SO(n) están estrechamente relacionados con las isometŕıas en Rn, que son biyecciones
f : Rn → Rn que preservan distancias, esto es
|f(x)− f(y)| = |x− y| ∀x, y ∈ Rn
Si una isometŕıa fija al origen será una transformación lineal, también llamada isometŕıa lineal y, luego
de fijar la base canónica en Rn, se corresponderá con una matriz A ∈ GLn(R).
Proposición: Sea A ∈ GLn(R). Las siguientes condiciones son equivalentes:
A es una isometŕıa lineal.
Ax ·Ay = x · y para todo par de vectores x, y ∈ Rn.
AT A = In, esto es, A es ortogonal.
Demostración: Sea A una isometŕıa lineal. Entonces para todo v ∈ Rn, valdrá que |Av| = |v|.
Sean ahora dos vectores x, y ∈ Rn
|A(x− y)|2 = (Ax−Ay) · (Ax−Ay)
= |Ax|2 + |Ay|2 − 2Ax ·Ay
= |x|2 + |y|2 − 2Ax ·Ay
Pero a su vez
|A(x− y)|2 = |x− y|2
= (x− y) · (x− y)
= |x|2 + |y|2 − 2x · y
Por lo que podemos concluir que
|x|2 + |y|2 − 2Ax ·Ay = |x|2 + |y|2 − 2x · y =⇒ 2Ax ·Ay = 2x · y
Si tomamos ahora dos vectores u, v ∈ Rn, tendremos que u · v = uT v y (Au) · (Av) = uT AT Av.
Luego, calculando esto para los vectores básicos, tendremos que para cada i, j = 1, . . . , n
eTi A
T Aej = (AT A)ij
y recordemos que eTi ej = δij . Podemos concluir entonces que necesariamente A
T A = In.
Finalmente, supongamos que AT A = In. Para cada vector w ∈ Rn valdrá que
29
|Aw|2 = (Aw) · (Aw)
= wT AT Aw
= wT w
= |w|2
por lo que A resulta ser una isometŕıa lineal.¦
Ejemplo: Sea H1 el subgrupo de dimensión 2 de SL2(R) dado por
H1 =
{[
a b
0 1/a
]
para a, b ∈ R
}
y sea H2 el subgrupo de dimensión 1 de O(2) dado por
H2 = SO(2) =
{[
cos θ sin θ
− sin θ cos θ
]
para θ ∈ [0, 2π)
}
Luego, la intersección H1 ∩ H2 es el subgrupo de dimensión nula que contiene las dos operaciones
discretas de grupos ±I2. >
4.3.2. Grupo de isometŕıas
Los elementos de SO(n) son llamados rotaciones o isometríıas directas mientras que los elementos
de O(n)− son llamados usualmente isometŕıas indirectas. Podemos definir el grupo de isometŕıas en Rn
dado por
Isomn(R) = {f : Rn → Rn | f es una isometrίa}
Se ve claramente que Transn(R) ⊆ Isomn(R) y además Transn(R) es un subgrupo cerrado de
Isomn(R)22. Otro modo de ver a éste como grupo matricial es el siguiente :
Isomn(R) =
{[
A t
0 1
]
: A ∈ O(n), t ∈ Rn
}
Analizando del mismo modo en que lo hicimos para ver que Afn(R) pod́ıa ser expresado como
producto semi-directo, podemos mostrar que
Proposición: Transn(R) es un subgrupo normal de Isomn(R) y éste último puede ser expresado como
producto semi-directo de Transn(R) y O(n), es decir,
Isomn(R) = O(n)o Transn(R) = {AT : A ∈ O(n), T ∈ Transn(R)}
Proposición: Para un hiperplano H ⊆ Rn, la proyección al hiperplano en H es una isometŕıa indirecta
de Rn, dada por θH ∈ O(n).
22De esto se deduce que Isomn(R) es un grupo matricial.
30
Demostración: Si elegimos una base ortonormal de H y le adjuntamos un vector unitario ortogonal
a H, podremos escribir cada elemento de Rn en términos de esta base. Luego, la matriz de θH estará dada
por [
In−1 O(n−1)×1
O1×(n−1) −1
]
= diag(1, . . . , 1,−1)
que claramente tiene determinante -1, por lo que resulta ser una isometŕıa indirecta. ¦
Dado un elemento de O(n) diremos que éste es una proyección al hiperplano si representa a una en
la base usual de Rn. Esto es, si tiene la forma
P diag(1, . . . , 1,−1) P T
para algún elemento P ∈ O(n).
Un resultado importante que no demostraremos es el que nos asegura que cualquier elemento de
O(n) es producto de proyecciones a hiperplanos.
Propiedad: Todo A ∈ O(n) es producto de proyecciones a hiperplanos. El número de estas proyecciones
es par si A ∈ SO(n) y es impar si A ∈ O−(n).
4.3.3. Grupos ortogonales generalizados
Podemos generalizar el estudio de los grupos ortogonales tomando una matriz simétrica Q ∈ Mn(K)
y armando el conjunto
OQ = {A ∈ GLn(R) | AT QA = Q}
Vemos que es un subgrupo cerrado de GLn(R) y por lo tanto un subgrupo matricial. Más aún, si
detQ 6= 0, dada A ∈ OQ su determinante será ±1. Si ahora definimos los subconjuntos
O+Q = det
−1(R+) y O−Q = det
−1(R−) (1)
podremos expresar a OQ como la unión disjunta
OQ = O+Q ∪O−Q
Ejemplo: Si tomamos la matriz Q como
Q =


1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 −1


El grupo asociado a ella O+Q nos permite formar el llamado grupo de Lorentz que está dado por O
+
Q ∩
SL2(R). Este grupo preserva cada una de las dos componentes conexas del hiperboloide
x21 + x
2
2 + x
2
3 − x24+ = −1 >
31
4.4. Grupos simplécticos
Sea S ∈ Mn(R) tal que ST = −S. Para esta matriz, tendremos que
det(ST ) = det(−S) = (−1)ndet(S)
por lo que deducimos que
det(S) = (−1)ndet(S)
Cuando det(S) 6= 0 tendremos que n necesariamente es par, por lo que podemos expresarlo como
n = 2m.
Ejemplo: Si consideramos la matriz
J =
[
0 1
−1 0
]
vemos que J se encuentra bajo las condiciones antes nombradas.>
Si consideramos m ≥ 1 definamos las matrices
J2m =


J O2 . . . O2
O2 J . . . O2
...
...
. . .
...
O2 O2 . . . J


Luego, llamamos grupo simpléctico al conjunto de matrices de 2m× 2m sobre los reales dado por
Simp2m = {A ∈ GL2m(R) | AT J2mA = J2m} ≤ GL2m(R)
Existe una definición alternativa y ligeramente diferente del grupo simpléctico:
Simp′2m = {A ∈ GLn(K) | A · J ′2m ·AT = J ′2m} para J ′2m =


0m
1 . . . 0
0
. . . 0
0 . . . 1
-1 . . . 0
0
. . . 0
0 . . . -1
0m


y existe una relación entre ambas representaciones que podemos resumir con la siguiente proposición.
Proposición: Sea P ∈ GLn(R) una matriz tal que J ′2m = P T J2mP . Luego
Simp′2m(R) = P
−1Simp2m(R)P = {P−1AP : A ∈ Simp2m(R)}
En general
Simp2m(R) 6= SL2m(R) y Simp ′2m(R) 6= SL2m(R)
32
Dada A ∈ Simp2m(R) o A ∈ Simp ′2m(R) seve fácilmente que det(A) = ±1. De hecho, det(A) = 1
por lo que tendremos que
Simp2m(R) ≤ SL2m(R) y Simp ′2m(R) ≤ SL2m(R)
Ejemplo: Estudiemos el comportamiento del determinante de las matrices en Sp2(R) ⊂ GL2(R):
[
a c
b d
] [
0 1
−1 0
] [
a b
c d
]
=
[
0 ad− bc
bc− ad 0
]
=
[
0 1
−1 0
]
Luego, tenemos que ad− bc = +1 por lo que Sp2(R) = SL2(R) >
4.5. Grupos unitarios
Dada una matriz A ∈ Mn(C) llamamos conjugado hermitiano de A a la matriz A∗ dada por
A∗ = (A)T = (AT )
En coordenadas, esto será
(A∗ij) = aji
Llamamos grupo unitario al subgrupo de matrices de n× n dado por
U(n) = {A ∈ GLn(C) : A∗A = I} ≤ GLn(C)
Esto nos está dando n2 ecuaciones para los númeos complejos aij , que podŕıamos escribirlo como
n∑
k=1
akiakj = δij
Y si separamos las partes reales e imaginarias tendŕıamos 2n2 ecuaciones.
Existe otra manera de definir el grupo unitario utilizando la noción de forma hermitiana del
producto · sobre C. Aśı podremos decir que el grupo unitario está dado por
Un(C) = {T ∈ GLn(C) : T (x) · T (y) = x · y ∀x, y ∈ Cn}
y si trabajamos con la base estándar, tendremos que
Un(C) = {A ∈ Mn(C) : AT A = In}
Teniendo en cuenta esta última notación podemos ver fácilmente la siguiente propiedad.
Propiedad: Si M ∈ Un(C), luego det(M) es un número complejo de norma 1.
33
4.5.1. Grupo unitario especial
Llamamos grupo unitario especial a
SU(n) = {A ∈ GLn(C) : A∗A = I y det(A) = 1}¢ U(n)
Nuevamente, podemos estudiar cuándo una matriz pertenece a este grupo armando ecuaciones para
cada entrada, obteniéndose aśı
n∑
k=1
akiakj = δij (1 ≤ i, j ≤ n)
det(A) = 1
4.6. Grupos matriciales finitos
Uno de los resultados más importantes en lo que respecta a grupos matriciales finitos es el que
obtuvo Jordan en 1878:
Existe una función f(n) sobre los enteros tal que para matriz A ∈ Mn(K) donde el cuerpo K tiene
caracteŕıstica cero, tiene un subgrupo normal abeliano cuyo ı́ndice es menor que f(n).
Se ha probado también que existe una función f(m,n) tal que para todo grupo G ⊂ Mn(K) donde
K tiene caracteŕıstica p > 0 y tal que el orden de los p-subgrupos de Sylow no exceda pm, existe un
subgrupo normal abeliano de ı́ndice menor a f(m, n).
Estudiaremos ahora ciertas caracteŕısticas particulares de subgrupos finitos de SLn(K) y GLn(K).
4.6.1. S = SL2(Fq)
Consideraremos el caso en que F es un cuerpo y q un número impar.
Si t ∈ S y t2 = 1 luego cada uno de los dos autovalores de t está en el conjunto {−1, 1} y el producto
de estos autovalores es det(t) = 1 por lo que sólo tendremos dos posibilidades: o ambos autovalores
son 1 o ambos son -1. Luego, el polinomio caracteŕıstico de t es (X + 1)2 o (X − 1)2. Pero como
t2 = 1, el polinomio minimal de t divide a (X2 − 1). En general, el polinomio minimal de cualquier
matriz cuadrada divide al polinomio caracteŕıstico, por lo que en este caso nuestro polinomio minimal
tendrá dos posibilidades: X + 1 o X − 1,23. Concluimos pues que t es la matriz identidad I o −I. En
particular, esto muestra que −I es la única involución en SL2(Fq) cuando q es impar.
4.6.2. G = GL2(Fp)
Estudiemos primero el caso en que F es un cuerpo y p un número impar.
Teorema: Sea G = GL2(Fp), donde p es un número primo impar. Sea P ∈ Sylp(G). Supongamos que
L ⊆ G es normalizado por P y que p no a divide |L|. Si un 2-subgrupo de Sylow de L es abeliano,
entonces P centraliza a L.
23Estamos suponiendo que −1 6= 1 lo cual es válido ya que la caracteŕıstica es p 6= 2.
34
Demostración: Vamos a demostrarlo suponiendo que P no centraliza a L y llegando a un absurdo.
Si existe un subgrupo propio de L que es normalizado pero no centralizado por P, podemos reem-
plazar a L por este subgrupo: supongamos pues que L es minimal con respecto a la propiedad de que
es normalizado pero no centralizado por P.
Llamemos C = CL(P ) < L y sea q cualquier divisor primo de |L : C|. Elijamos un r-subgrupo de
Sylow R de L que sea P-invariante (esto es posible ya que p no divide a |L|). Luego R ! C, y por ello P
normaliza pero no centraliza a R. Por ser L el mı́nimo grupo con esta propiedad, tendremos que R = L,
por lo que L resulta ser un r-grupo.
Ahora sea 1 < [L,P ] = [L,P, P ] y luego [L, P ] es un subgrupo P-invariante de L que no es central-
izado por P: por ser L el menor grupo con esta propiedad, nuevamente tendremos que L = [L,P ] ⊆
G′ ⊆ SL2(Fp).
Si r = 2, L es abeliano por hipótesis. Pero SL2(Fp) contiene una única involución, por lo que L es
ćıclico. Pero esto es imposible ya que un grupo de orden p 6= 2 no puede actuar de manera no trivial
sobre un 2-grupo ćıclico.24Concluimos pues que r es un número impar y que L tiene orden impar.
Sea ahora |L| una potencia de un número primo impar que divide a |SL2(FP )| = p(p + 1)(p− 1)/2.
Como p + 1 y p − 1 no tienen divisores primos impares comunes, y sabemos que (|L|, p) = 1, tenemos
que |L| divide a p + 1 o |L| divide a P − 1, por lo que |L| ≤ p + 1. Pero P no es normal en PL (pues
de serlo P centralizaŕıa a L) por lo que el número de p-subgrupos de Sylow de PL es mayor que 1. Se
desprende de los teoremas de Sylow que p+1 ≤ n ≤ |L| y, como ya sabemos que |L| ≤ p+1, deducimos
que |L| = p + 1. Pero esto implicaŕıa que |L| es par, que es absurdo. ¦
Clases de conjugación de G = GL2(Fq)
Recordemos que la clase de conjugación de un elemento x ∈ G es Cx = {gxg−1 | g ∈ G} y que su
estabilizador es Z(x) = {g ∈ G | gxg−1 = x}.
Recordemos además que para x ∈ G vale que
|G| = |Cx| · |Z(x)|
y además ya hemos visto que
|G| = (q + 1)q(q − 1)2
Buscaremos y caracterizaremos ahora todas las clases de conjugación de G = GL2(Fq). Consideraremos
distintas clases de matrices para organizar nuestro estudio:
Consideremos primero las matrices que pueden ser transformadas por conjugación en
(
a 0
0 b
)
,
donde a 6= b. Estamos considerando, pues, matrices diagonalizables con distintos autovalores. Esto
nos dará clases de conjugación distintas para cada par de autovalores {a, b}, puesto que éstos son
preservados por conjugación.
24Esto es aśı porque el orden del grupo de automorfismos de un grupo ćıclico de orden 2e es ϕ(2e) = 2e−1, que no es
divisible por p.
35
Dado un par {a, b} tendremos a ga,b =
(
a 0
0 b
)
como el elemento representante de la clase de
conjugación. Notemos que el estabilizador de ga,b es el conjunto de matrices diagonales de G25.
Calculemos ahora la cantidad de clases de conjugación que estamos considerando:
|Gga,b | = |G|/|Z(ga,b)| = (q + 1)q(q − 1)2/(q − 1)2 = (q + 1)q
Luego, tendremos
(
q − 1
2
)
= (q−1)(q−2)2 posibilidades distintas de elegir los autovalores a y b,
donde cada elección nos dará una clase distinta de conjugación. Aśı tendremos
(q + 1)q(q − 1)(q − 2)
2
elementos distintos de G.
Consideremos ahora las matrices diagonalizables con un único autovalor. Éstas serán de la forma(
a 0
0 a
)
y como estas matrices quedan fijas por conjugación, son la única manera de diago-
nalizarlas.
El hecho de que estas matrices queden fijas por conjugación nos dice que sus estabilizadores son
todo G. Luego, para ga =
(
a 0
0 a
)
tendremos:
|Cga | = |G|/|Z(ga)| = |G|/|G| = 1
Aśı, cada clase de conjugación tiene sólo un elemento y, como hay q − 1 clases de este tipo26,
tendremos
q − 1
elementos distintos de G.
Sean ahora elementos A ∈ G no diagonalizables, pero con autovalores en Fq. Esto implica que los
autovalores de A son todos iguales, ya que si no lo fueran podŕıamos conjugar la matriz diagonal
de los autovalores de A por la matriz armada con sus respectivos autovectores y obtendŕıamos A,
por lo que A seŕıa diagonalizable.
Como A es conjugada de toda matriz con iguales autovalores y no diagonalizable, podemos tomar
como representante de cada clase a las matrices
(
a 1
0 a
)
.
El estabilizador de estas matrices posee todos los elementos de la forma
(
b c
0 b
)
para b, c tales
que b 6= 0. Luego, los estabilizadores tendrán q(q − 1) elementos, y aśı las clases de conjugación
tendrán
|C| = |G|/|Z| = (q + 1)q(q − 1)2/q(q − 1)= (q + 1)(q − 1)
25Que serán (q − 1)2.
26Una clase por cada elemento no nulo a del cuerpo.
36
elementos distintos de G. Por otro lado, como tenemos q − 1 clases con esta forma 27, obtenemos
consecuentemente
(q − 1)2(q + 1)
elementos distintos de G.
Finalmente, consideremos el único tipo de matrices que nos resta estudiar, aquéllas con autovalores
λ1, λ2 en la extensión cuadrática Fq2 de Fq.
Por definición, tendremos que λ1 y λ2 son ambas ráıces del mismo polinomio caracteŕıstico de
grad 2. Pero sabemos que los polinomios cuadráticos tienen como máximo dos ráıces, por lo
que en nuestro caso éstas serán λ1 y su conjugada φ(λ1)28. Luego tendremos que λ2 = φ(λ1).
Aśı tendremos una clase de conjugación diferente para cada uno de los q2 − 1 = q(q − 1) posibles
valores de λ1 pero, como el orden de los autovalores no importa, dividiremos este número por 2,
obteniendo q(q−1)2 clases distintas de conjugación de este tipo.
Finalmente, para calcular la cantidad de elementos que estas clases tendrán no estudiaremos esta
vez a los estabilizadores: sabemos que las clases de conjugación forman una partición de G y a
su vez conocemos la cantidad de elementos que posee G, por lo que podemos calcular fácilmente
la cantidad de elementos de nuestras últimas clases restándole al total los elementos de los tres
conjuntos estudiados anteriormente. Tendremos aśı que estas clases de conjugación aportan
q2(q − 1)2
2
elementos distintos a G. Podemos también encontrar la cantidad de elementos que tiene cada una
de estas clases: q(q − 1).
Finalmente, podemos calcular el cardinal del estabilizador pues
|Z| = |G|/|C| = (q + 1)q(q − 1)2/q(q − 1) = (q + 1)(q − 1)
4.6.3. Grupos de matrices finitos en GL(n,Z)
En esta sección nos diferenciaremos del resto de los temas al no imponer la condición de que el
conjunto de coeficientes posibles de las matrices sea un cuerpo. Demostraremos un resultado muy im-
portante que nos da una cota superior para la cantidad de elementos de un grupo de matrices finito en
GL(n,Z). Antes deberemos demostrar varios lemas. Llamaremos a partir de ahora g al orden de G.
Lema 1: Sea S el conjunto {A1, A2, ..., Ak}, donde los elementos de S no necesariamente son distintos
y pertenecientes a GL(n,Z). Supongamos que S tiene la propiedad
AiS = {AiA1, ..., AiAk} = S
Para todo i tal que 1 ≤ i ≤ k. Entonces
k∑
i=1
tr(Ai) ≡ 0 mod k
27Una para cada valor no nulo de a en
(
a 1
0 a
)
.
28Donde φ es el automorfismo canónico en Fq2 que deja fijo a Fq.
37
Demostración: Sea M =
∑k
i=1 Ai. Por hipótesis, se verificará que
AjM =
k∑
i=1
AjAi =
k∑
i=1
Ai = M, 1 ≤ i ≤ k
Sumando sobre todos los j obtenemos que M2 = kM . Luego, los autovalores de M son 0 y k con sus
respectivas multiplicidades. Como tr(M) es igual a la suma de sus autovalores, se concluye que es un
múltiplo de k, por lo que el lema queda demostrado.¦
Lema 2: La suma σk =
∑
A∈G{tr(A)}k es siempre un entero divisible por g, para todo natural k.
Demostración: Sea G(k) = {A(k) : A ∈ G}, donde A(k) representa la k-ésima potencia de A con
respecto al producto de Kronecker. Entonces G(k) es un subgrupo de GL(nk, Z) cuyo orden divide a g,
ya que la correspondencia A −→ A(k), A ∈ G, es un homomorfismo. Además
tr{A(k)} = {tr(A)}k
El lema anterior implica que σg es divisible por g, ya que el conjunto {A(k)} obviamente posee la
propiedad de clausura requerida.¦
Notemos que
∑
A∈G 1 = g es también divisible por g. El lema 2 implica entonces de forma inmediata
lo siguiente:
Lema 3: Sea f(λ) un polinomio sobre Z. Entonces
∑
A∈G
f(tr(A)) ≡ 0 mod g
Lema 4: El único elemento de G con traza n es la identidad.
Demostración: Sea A ∈ G, tr(A) = n. Como Ag = I, los autovalores de A son ráıces de la unidad.
La suma de n números de valor absoluto 1 puede ser n si y sólo si cada uno de ellos es 1. Luego, todos
los autovalores de A son 1. Esto implica que todos los autovalores de B = I + A + ... + Ag−1 son g, por
lo que B es no singular. Pero (A− I)B = 0, debiendo valer obligatoriamente que A = I. Esto concluye
la demostración.¦
Combinaremos estos lemas para obtener el siguiente resultado:
Teorema: Sean t1 = 1, t2, ..., tr, los distintos valores que toma la función traza para las matrices de G.
Entonces
(n− t2)(n− t3)...(n− tr) ≡ 0 mod g
(2n)! ≡ 0 mod g
38
Demostración: f(λ) = (λ− t2)(λ− t3)...(λ− tr) es un polinomio entero que tiene la propiedad de
que f(tr(A)) es distinto de cero si y sólo si tr(A) = n, es decir, si y sólo si A=I. Por el lema 4 tendremos
entonces que ∑
A∈G
f(tr(A)) = (n− t2)(n− t3)...(n− tr)
La congruencia es una consecuencia del lema 3. Para demostrar la segunda afirmación, notar que tr(A)
es un entero tal que tal que |tr(A)| ≤ n, ya que es la suma de n ráıces de la unidad de orden g. Luego,
los únicos valores posibles para tr(A) son
0,±1, ...,±n
Se deduce que (n− t2)(n− t3)...(n− tr) es un divisor de
∏n−1
i=0 (n− i)
∏n
i=1(n+ i) = (2n)!. Esto completa
la demostración. ¦
4.7. Grupos matriciales finitamente generados
Un resultado muy importante al respecto es el que obtuvo Tits al mostrar que un grupo matricial
finitamente generado o contiene un grupo libre no abeliano, o tiene un subgrupo soluble de ı́ndice finito.
En este caso llamamos a G “grupo soluble”si su serie de derivadas G = G0 ≥ G1 ≥ .. alcanza la
identidad en un número finito de pasos, donde cada Gi+1 es el subgrupo de Gi generado por todos los
elementos de la forma x−1y−1xy con x, y ∈ Gi.
5. Grupos de Lie
En esta sección daremos una modesta introducción a los conceptos de grupo de Lie y Álgebra de
Lie y veremos cómo se relacionan con los grupos matriciales. A su vez intentaremos concentrarnos en
los casos real y complejo.
Definición: Un subconjunto S de Rm recibe el nombre de variedad diferencial de dimensión d si cada
punto p ∈ S tiene una vecindad en S que es difeomorfa a un abierto de Rd.
Definición: Un grupo de Lie es una variedad diferencial con una estructura de grupo tal que la función
G×G 7→ G definida por (x, y) 7→ xy−1 es C∞.
Definición: Un álgebra de Lie V sobre un cuerpo F es un espacio vectorial dotado de un operador
bilineal [, ] : V × V → V , llamado corchete de Lie, con las siguientes propiedades:
[x, y] = −[y, x] (Antisimetrίa)
[[x, y], z] + [[y, z], x] + [[z, x], y] = 0 (Identidad de Jacobi)
Mn(R) es una variedad. De hecho, podemos identificar a este espacio vectorial con Rn
2
(lo cual
haremos muy a menudo a partir de ahora) disponiendo todos los coeficientes de las matrices en una sola
fila. No nos interesará darle una estructura de Grupo de Lie porque no toda matriz tiene inversa con el
producto. Se concluye también que Mn(R) es de dimensión n2.
39
GLn(R) es un abierto visto como subconjunto de Rn
2
, por lo que la misma asociación continúa
funcionando de manera local y por eso se tiene también en este caso una variedad de dimensión n2.
Además, la definición de producto matricial y la regla de Cramer nos garantizan que la función (A,B) 7→
AB−1 es infinitamente derivable, haciendo de GLn(R) un grupo de Lie.
5.1. Espacios tangentes
Definición: Sea G ≤ GLn(k) un grupo matricial. El espacio tangente de G en U ∈ G es
TUG = {γ′(0) ∈ Mn(k) : γ es una curva diferenciable en G con γ(0) = U}
Ejemplo: Usando nuevamente el hecho de que GLn(R) es abierto se determina que su espacio
tangente en la identidad (y en cualquier otro punto) es todo Mn(R). >
Proposición: TUG es un subespacio vectorial real de Mn(k).
Demostración: Supongamos que α y β son curvas diferenciables en G tales que α(0) = β(0) = U .
Entonces
γ : dom α ∩ dom β → G; γ(t) = α(t)U−1β(t)
es también una curva diferenciable en G con γ(0) = U . La regla del producto nos da
γ′(t) = α′(t)U−1β(t) + α(t)U−1β′(t)
aśı
γ′(0) = α′(0)U−1β(0) + α(0)U−1β′(0) = α′(0) + β′(0)
lo que demuestra que TUG es cerrado con la suma.
Similarmente, si r ∈ R y α es una curva diferenciable en G con α(0) = U , entonces η(t) = α(rt)
define una curva que comparte esas caracteŕısticas. Como η′(0) = rα′(0), vemos

Continuar navegando