Logo Studenta

Matriz (matemática)

¡Este material tiene más páginas!

Vista previa del material en texto

Matriz (matemática)
conjunto bidimensional de números
ordenados en filas y columnas
En matemática, una matriz es un conjunto bidimensional de números. Dado que puede definirse
tanto la suma como el producto de matrices, en mayor generalidad se dice que son elementos
de un anillo. Una matriz se representa por medio de una letra mayúscula y sus elementos con la
misma letra en minúscula con un doble subíndice donde el primero indica la fila y el segundo la
columna a la que pertenece:
Los elementos individuales de una matriz x , se denotan a menudo por , donde el
máximo valor de es , y el máximo valor de es . Siempre que la matriz tenga el mismo
número de filas y de columnas que otra matriz, estas se pueden sumar o restar elemento por
elemento.
Pueden sumarse, multiplicarse y descomponerse de varias formas, lo que también las hace un
concepto clave en el campo del álgebra lineal.
https://es.m.wikipedia.org/wiki/Wikipedia:Portada
https://es.m.wikipedia.org/wiki/Matem%C3%A1tica
https://es.m.wikipedia.org/wiki/Bidimensional
https://es.m.wikipedia.org/wiki/N%C3%BAmero
https://es.m.wikipedia.org/wiki/Anillo_(matem%C3%A1tica)
https://es.m.wikipedia.org/wiki/%C3%81lgebra_lineal
Cronología[1] 
Año Acontecimiento
200 a. C. En China los matemáticos usan series de números.
1848 J. J. Sylvester introduce el término «matriz».
1858 Cayley publica Memorias sobre la teoría de matrices.
1878 Frobenius demuestra resultados fundamentales en álgebra matricial.
1925 Heisenberg utiliza la teoría matricial en la mecánica cuántica
El origen de las matrices es muy antiguo. Los cuadrados latinos y los cuadrados mágicos se
estudiaron desde hace mucho tiempo. Un cuadrado mágico, 3 por 3, se registra en la literatura
china hacia el 650 a. C.[2] 
Es larga la historia del uso de las matrices para resolver ecuaciones lineales. Un importante
texto matemático chino que proviene del año 300 a. C. a 200 a. C., Nueve capítulos sobre el Arte
de las matemáticas (Jiu Zhang Suan Shu), es el primer ejemplo conocido de uso del método de
matrices para resolver un sistema de ecuaciones simultáneas.[3] En el capítulo séptimo, "Ni
mucho ni poco", el concepto de determinante apareció por primera vez, dos mil años antes de su
publicación por el matemático japonés Seki Kōwa en 1683 y el matemático alemán Gottfried
Leibniz en 1693.
Los «cuadrados mágicos» eran conocidos por los matemáticos árabes, posiblemente desde
comienzos del s. ��� d. C., quienes a su vez pudieron tomarlos de los matemáticos y astrónomos
de la India, junto con otros aspectos de la matemática combinatoria. Todo esto sugiere que la
idea provino de China. Los primeros «cuadrados mágicos» de orden 5 y 6 aparecieron en
Bagdad en el año 983, en la Enciclopedia de la Hermandad de Pureza (Rasa'il Ihkwan al-Safa).[2] 
Después del desarrollo de la teoría de determinantes por Seki Kowa y Leibniz para facilitar la
resolución de ecuaciones lineales, a finales del siglo ����, Gabriel Cramer presentó en 1750 la
ahora denominada regla de Cramer. Carl Friedrich Gauss y Wilhelm Jordan desarrollaron la
eliminación de Gauss-Jordan en el siglo ���
Historia
https://es.m.wikipedia.org/wiki/China
https://es.m.wikipedia.org/wiki/James_Joseph_Sylvester
https://es.m.wikipedia.org/wiki/Arthur_Cayley
https://es.m.wikipedia.org/wiki/Ferdinand_Georg_Frobenius
https://es.m.wikipedia.org/wiki/Werner_Heisenberg
https://es.m.wikipedia.org/wiki/Mec%C3%A1nica_cu%C3%A1ntica
https://es.m.wikipedia.org/wiki/Cuadrados_latinos
https://es.m.wikipedia.org/wiki/Cuadrados_m%C3%A1gicos
https://es.m.wikipedia.org/wiki/Literatura_china
https://es.m.wikipedia.org/wiki/Literatura_china
https://es.m.wikipedia.org/wiki/Ecuaci%C3%B3n_lineal
https://es.m.wikipedia.org/wiki/China
https://es.m.wikipedia.org/wiki/Sistema_lineal_de_ecuaciones
https://es.m.wikipedia.org/wiki/Determinante_(matem%C3%A1tica)
https://es.m.wikipedia.org/wiki/Jap%C3%B3n
https://es.m.wikipedia.org/wiki/Seki_K%C5%8Dwa
https://es.m.wikipedia.org/wiki/Alemania
https://es.m.wikipedia.org/wiki/Gottfried_Leibniz
https://es.m.wikipedia.org/wiki/Gottfried_Leibniz
https://es.m.wikipedia.org/wiki/Mundo_%C3%A1rabe
https://es.m.wikipedia.org/wiki/India
https://es.m.wikipedia.org/wiki/Combinatoria
https://es.m.wikipedia.org/wiki/China
https://es.m.wikipedia.org/wiki/Bagdad
https://es.m.wikipedia.org/wiki/Determinante_(matem%C3%A1tica)
https://es.m.wikipedia.org/wiki/Seki_Kowa
https://es.m.wikipedia.org/wiki/Gabriel_Cramer
https://es.m.wikipedia.org/wiki/Regla_de_Cramer
https://es.m.wikipedia.org/wiki/Carl_Friedrich_Gauss
https://es.m.wikipedia.org/wiki/Wilhelm_Jordan
https://es.m.wikipedia.org/wiki/Eliminaci%C3%B3n_de_Gauss-Jordan
Fue James Joseph Sylvester quien utilizó por primera vez el término «matriz» en 1848/1850.
En 1853, William Rowan Hamilton hizo algunos aportes a la teoría de matrices. Cayley introdujo
en 1858 la notación matricial, como forma abreviada de escribir un sistema de m ecuaciones
lineales con n incógnitas.
Cayley, Hamilton, Hermann Grassmann, Ferdinand Georg Frobenius, Olga Taussky-Todd y John
von Neumann cuentan entre los matemáticos famosos que trabajaron sobre la teoría de las
matrices. En 1925, Werner Heisenberg redescubre el cálculo matricial fundando una primera
formulación de lo que iba a pasar a ser la mecánica cuántica. Se le considera a este respecto
como uno de los padres de la mecánica cuántica.
Olga Taussky-Todd (1906-1995), durante la II Guerra Mundial, usó la teoría de matrices para
investigar el fenómeno de inestabilidad aeroelastica llamado flameo.
Una matriz es un conjunto bidimensional de números (elementos de la matriz) ordenados en
filas y columnas. A una matriz con filas y columnas se le denomina «matriz por »
(escrito ) donde . El conjunto de las matrices de tamaño se representa
como , donde es el cuerpo al cual pertenecen los elementos de la matriz.
Se dice que dos matrices son iguales si tienen el mismo tamaño (dimensión u orden) y los
mismos elementos en las mismas posiciones. El elemento de una matriz que se encuentra en la
fila ésima y la columna ésima se le llama elemento o elemento -ésimo de la
matriz.
Dos matrices son iguales si los elementos correspondientes son iguales:
.
Para definir el concepto de matriz, el término "conjunto bidimensional" es útil, aunque poco
formal, pero puede formalizarse usando el concepto de función. De este modo, una matriz de 
filas y columnas con entradas en un cuerpo es una función cuyo dominio es el conjunto de
los pares ordenados , donde y , y cuyo codominio es . Con esta
definición, la entrada es el valor de la función en el par ordenado .
Definición
https://es.m.wikipedia.org/wiki/James_Joseph_Sylvester
https://es.m.wikipedia.org/wiki/William_Rowan_Hamilton
https://es.m.wikipedia.org/wiki/Arthur_Cayley
https://es.m.wikipedia.org/wiki/Hermann_Grassmann
https://es.m.wikipedia.org/wiki/Ferdinand_Georg_Frobenius
https://es.m.wikipedia.org/wiki/Olga_Taussky-Todd
https://es.m.wikipedia.org/wiki/John_von_Neumann
https://es.m.wikipedia.org/wiki/John_von_Neumann
https://es.m.wikipedia.org/wiki/Werner_Heisenberg
https://es.m.wikipedia.org/wiki/C%C3%A1lculo_matricial
https://es.m.wikipedia.org/wiki/Mec%C3%A1nica_cu%C3%A1ntica
https://es.m.wikipedia.org/wiki/Olga_Taussky-Todd
https://es.m.wikipedia.org/wiki/II_Guerra_Mundial
https://es.m.wikipedia.org/wiki/Flameo
https://es.m.wikipedia.org/wiki/Cuerpo_(matem%C3%A1tica)
https://es.m.wikipedia.org/wiki/Funci%C3%B3n_matem%C3%A1tica
https://es.m.wikipedia.org/wiki/Funci%C3%B3n_(matem%C3%A1tica)
https://es.m.wikipedia.org/wiki/Par_ordenado
https://es.m.wikipedia.org/wiki/Funci%C3%B3n_(matem%C3%A1tica)
https://es.m.wikipedia.org/wiki/Par_ordenado
Se denota a las matrices con letra mayúscula, mientras que se utiliza la correspondiente letra en
minúsculas para denotar a las entradas de las mismas, con subíndices que refieren al número
de fila y columna del elemento.[4] Por ejemplo, al elemento de una matriz de tamaño 
que se encuentra en la fila ésima y la columna ésima se le denota como, donde
 y .
Cuando se va a representar explícitamente una entrada la cual está indexada con un o un 
con dos cifras se introduce una coma entre el índice de filas y de columnas. Así por ejemplo, la
entrada que está en la primera fila y la segunda columna de la matriz de tamaño 
se representa como mientras que la entrada que está en la fila número 23 y la columna 100
se representa como .
Además de utilizar letras mayúsculas para representar matrices, numerosos autores
representan a las matrices con fuentes en negrita para distinguirlas de otros objetos
matemáticos.[cita requerida] Así es una matriz, mientras que es un escalar en esa notación.
Sin embargo esta notación generalmente se deja para libros y publicaciones, donde es posible
hacer esta distinción tipográfica con facilidad. En otras notaciones se considera que el contexto
es lo suficientemente claro como para no usar negritas.
Otra notación, en sí un abuso de notación, representa a la matriz por sus entradas, i.e.
 o incluso .
Como caso particular de matriz, se definen los vectores fila y los vectores columna. Un vector
fila o vector renglón es cualquier matriz de tamaño mientras que un vector columna es
cualquier matriz de tamaño .
A las matrices que tienen el mismo número de filas que de columnas, se les llama matrices
cuadradas y el conjunto se denota 
Ejemplo
Dada la matriz 
https://es.m.wikipedia.org/wiki/Wikipedia:Verificabilidad
https://es.m.wikipedia.org/wiki/Escalar_(matem%C3%A1tica)
https://es.m.wikipedia.org/wiki/Vector
https://es.m.wikipedia.org/wiki/Vector
https://es.m.wikipedia.org/wiki/Vector_fila
https://es.m.wikipedia.org/wiki/Vector_fila
https://es.m.wikipedia.org/wiki/Vector_columna
https://es.m.wikipedia.org/wiki/Matriz_cuadrada
https://es.m.wikipedia.org/wiki/Matriz_cuadrada
es una matriz de tamaño . La entrada es 7.
La matriz 
es una matriz de tamaño : un vector fila con 9 entradas.
Operaciones básicas entre matrices
Las operaciones que se pueden hacer con matrices provienen de sus aplicaciones, sobre todo
de las aplicaciones en álgebra lineal. De ese modo las operaciones, o su forma muy particular
de ser implementadas, no son únicas.
Suma o adición
Sean 
https://es.m.wikipedia.org/wiki/%C3%81lgebra_lineal
https://es.m.wikipedia.org/wiki/Adici%C3%B3n_matricial
. Se define la operación de suma o adición de matrices como una operación binaria
 tal que y donde
 en el que la operación de suma en la última expresión es la operación binaria
correspondiente pero en el cuerpo . Por ejemplo, la entrada es igual a la suma de los
elementos y lo cual es .
Veamos un ejemplo más explícito. Sea 
No es necesario que las matrices sean cuadradas:
A la luz de estos ejemplos es inmediato ver que dos matrices se pueden sumar solamente si
ambas tienen el mismo tamaño. La suma de matrices, en el caso de que las entradas estén en
un cuerpo, poseen las propiedades de asociatividad, conmutatividad, existencia de elemento
neutro aditivo y existencia de inverso aditivo. Esto es así ya que estas son propiedades de los
cuerpos en los que están las entradas de la matriz.
Propiedades de la suma de matrices
Sean , donde es un cuerpo entonces se cumplen las siguientes
propiedades para la operación binaria 
Asociatividad
https://es.m.wikipedia.org/wiki/Operaci%C3%B3n_binaria
https://es.m.wikipedia.org/wiki/Cuerpo_(matem%C3%A1tica)
https://es.m.wikipedia.org/wiki/Cuerpo_(matem%C3%A1tica)
https://es.m.wikipedia.org/wiki/Cuerpo_(matem%C3%A1tica)
Demostración
Dada la definición de la operación binaria se sigue el resultado ya que
 debido a que 
para todo .
Conmutatividad
Demostración
Dada la definición de la operación binaria se sigue el resultado ya que
 debido a que para todo .
Existencia del elemento neutro aditivo
Existe tal que
Demostración
Tómese tal que para cualquier 
(dónde este último es el elemento neutro aditivo en el cuerpo, el cual
existe necesariamente). Entonces para cualquier se
sigue que ya que para
cualquier , dado que las entradas están en un cuerpo.
Existencia del inverso aditivo
Existe tal que
a esta matriz se le denota por .
Demostración
Dada tómese tal que .
Entonces ; luego, por las propiedades de cuerpo
 donde es el inverso aditivo de en el cuerpo para
cualquier .
En efecto, estas propiedades dependen del conjunto en el que estén las entradas, como se ha
dicho antes, aunque en las aplicaciones generalmente los cuerpos usados son (los números
reales) y (los números complejos).
Por como se definió la operación binaria adición se dice que esta operación es una operación
interna por lo que se cumple intrínsecamente la propiedad de que es cerrado bajo
adición. Con éstas propiedades se tiene que es un grupo abeliano.
En el caso en que el conjunto al que pertenecen las entradas de la matriz sea un anillo
, la operación de adición de matrices continúa dotando de estructura de grupo
abeliano a , ya que bajo un anillo se tiene que es un
grupo abeliano. En el caso de que las entradas estén en un grupo , este necesita ser
un grupo abeliano para que la adición de matrices siga dotando de estructura de grupo abeliano
a .
Producto por un escalar
Sean y . Se define la operación de producto por un escalar como una
función tal que y donde 
en donde el producto es la operación binaria correspondiente pero en el cuerpo . Por ejemplo,
la entrada es igual al producto .
Veamos un ejemplo más explícito. Sea y 
https://es.m.wikipedia.org/wiki/N%C3%BAmero_real
https://es.m.wikipedia.org/wiki/N%C3%BAmero_real
https://es.m.wikipedia.org/wiki/N%C3%BAmero_complejo
https://es.m.wikipedia.org/wiki/Operaci%C3%B3n_interna
https://es.m.wikipedia.org/wiki/Operaci%C3%B3n_interna
https://es.m.wikipedia.org/wiki/Grupo_abeliano
https://es.m.wikipedia.org/wiki/Anillo_(matem%C3%A1tica)
https://es.m.wikipedia.org/wiki/Grupo_abeliano
https://es.m.wikipedia.org/wiki/Grupo_abeliano
https://es.m.wikipedia.org/wiki/Anillo_(matem%C3%A1tica)
https://es.m.wikipedia.org/wiki/Grupo_abeliano
https://es.m.wikipedia.org/wiki/Grupo_(matem%C3%A1tica)
https://es.m.wikipedia.org/wiki/Grupo_abeliano
https://es.m.wikipedia.org/wiki/Grupo_abeliano
https://es.m.wikipedia.org/wiki/Funci%C3%B3n_matem%C3%A1tica
https://es.m.wikipedia.org/wiki/Cuerpo_(matem%C3%A1tica)
También es inmediato observar que el producto por un escalar da como resultado una matriz
del mismo tamaño que la original. También el producto por un escalar dependerá de la
estructura algebraica en la que las entradas están. En el caso de que estén en un cuerpo serán
dos distributividades (una respecto de suma de matrices y otra respecto de suma en el cuerpo),
asociatividad y una propiedad concerniente al producto por el elemento neutro multiplicativo del
cuerpo. A continuación se presentan las propiedades.
Propiedades del producto por un
escalar
Sean y , donde es un cuerpo, entonces se cumplen las
siguientes propiedades para la operación producto por un escalar
Asociatividad
Demostración
Dada la definición de la operación se sigue el resultado ya que
 debido a que para todo .
Distributividad respecto de la suma de
matrices
https://es.m.wikipedia.org/wiki/Estructura_algebraica
https://es.m.wikipedia.org/wiki/Cuerpo_(matem%C3%A1tica)
https://es.m.wikipedia.org/wiki/Cuerpo_(matem%C3%A1tica)
Demostración
Dada la definición de la operación se sigue el resultado ya que
 debido a que para todo .
Distributividad respecto de la suma en
el cuerpo
Demostración
Dada la definición de la operación se sigue el resultado ya que
 debido a que para todo .
Producto por el neutro multiplicativo
del cuerpo
Demostración
Dada la definición de la operación se sigue el resultado ya que
 debido a que para todo .
Por como se definió la operación de producto por escalares se dice que es cerrado
bajo producto por escalares. Con éstas propiedades y las de la adición se tiene que 
es un espacio vectorial con las operaciones de suma y producto por escalares definidas antes.
En el caso de que las entradas y los escalares no esténen un cuerpo sino en un anillo entonces
no necesariamente existe el neutro multiplicativo. En caso de que exista, con lo cual el anillo es
un anillo con uno, se dice que es un módulo sobre .
https://es.m.wikipedia.org/wiki/Espacio_vectorial
https://es.m.wikipedia.org/wiki/Cuerpo_(matem%C3%A1tica)
https://es.m.wikipedia.org/wiki/Anillo_(matem%C3%A1tica)
Ahora, a partir de las propiedades básicas se puede demostrar inmediatamente que:
Demostración
Dada la definición de la operación se sigue el resultado ya que
 para todo 
Demostración
Dada la definición de la operación se sigue el resultado ya que
 para todo debido a que para todo 
.
Demostración
Dada la definición de la operación se sigue el resultado ya que como en
un cuerpo no hay divisores de cero entonces para todo 
implica que o para todo , i.e. . No es posible
un caso en el que sólo algunas entradas de la matriz sean cero y el
escalar sea no nulo ya que en esos casos estaríamos diciendo que hay
divisores de cero y llegaríamos a una contradicción, ya que la suposición
es que las entradas y los escalares están en un cuerpo.
Demostración
Dada la definición de la operación se sigue el resultado ya que
debido a que para todo .
Este último resultado permite usar la notación sin riesgo de ambigüedad.
https://es.m.wikipedia.org/wiki/Divisor_de_cero
Producto de matrices
Diagrama esquemático que ilustra
el producto de dos matrices y
 dando como resultado la
matriz .
El producto de matrices se define de una manera muy peculiar y hasta caprichosa cuando no se
conoce su origen. El origen proviene del papel de las matrices como representaciones de
aplicaciones lineales. Así el producto de matrices, como se define, proviene de la composición
de aplicaciones lineales. En este contexto, el tamaño de la matriz corresponde con las
dimensiones de los espacios vectoriales entre los cuales se establece la aplicación lineal. De
ese modo el producto de matrices, representa la composición de aplicaciones lineales.
En efecto, en ciertas bases tenemos que se puede representar como
 donde es la representación de un vector de en la base que se ha elegido para
 en forma de vector columna. Si tenemos dos aplicaciones lineales y
 entonces y , luego la aplicación se
representará como donde es el producto de las
representaciones matriciales de . Nótese que la composición no se puede dar entre
cualquier aplicación sino entre aplicaciones que vayan de , en particular debe de
haber una relación entre las dimensiones de los espacios vectoriales. Una vez dicho esto
podemos definir el producto de la siguiente manera.
Sean y . Se define el producto de matrices como una
función tal que y donde
https://es.m.wikipedia.org/wiki/Archivo:Matrix_multiplication_diagram.svg
https://es.m.wikipedia.org/wiki/Archivo:Matrix_multiplication_diagram.svg
https://es.m.wikipedia.org/wiki/Aplicaciones_lineales
https://es.m.wikipedia.org/wiki/Espacio_vectorial
https://es.m.wikipedia.org/wiki/Base_(%C3%A1lgebra)
 para toda , es decir .
Por ejemplo, la entrada .
Veamos un ejemplo más explícito. Sean y 
dónde la matriz producto es como habíamos establecido en la definición: una matriz
.
Sin tomar en cuenta la motivación que viene desde las aplicaciones lineales, es evidente ver que
si ignoramos la definición de la función de producto de matrices y solo se toma en cuenta la
definición de las entradas, el producto no estará bien definido, ya que si no tiene el mismo
número de columnas que de filas entonces no podremos establecer en donde acaba la
suma: si la acabamos en el mayor de éstos números habrá sumandos que no están definidos ya
que una de las matrices no tendrá más entradas, mientras que si tomamos el menor habrá
entradas de alguna de las matrices que no se tomen en cuenta. Así es necesario que tenga el
mismo número de columnas que de filas para que esté definida.
Como se puede suponer también, las propiedades de esta operación serán más limitadas en la
generalidad ya que además de las limitaciones impuestas por la naturaleza de las entradas está
esta limitación respecto a tamaño. Es claro, además, que el producto de matrices no siempre es
una operación interna.
El producto de las matrices A x B también puede realizarse sumando el producto de cada
columna de A por la correspondiente fila de B y expresarse utilizando el convenio de suma de
Einstein. La enésima columna del producto de las matrices A x B es combinación lineal de las
columnas de A siendo cada escalar en dicha combinación el elemento correspondiente de la
enésima columna de B. La enésima fila del producto de las matrices A x B es combinación lineal
de las filas de B siendo cada escalar en dicha combinación el elemento correspondiente de la
enésima fila de A.
https://es.m.wikipedia.org/wiki/Operaci%C3%B3n_interna
https://es.m.wikipedia.org/wiki/Convenio_de_suma_de_Einstein
https://es.m.wikipedia.org/wiki/Convenio_de_suma_de_Einstein
Propiedades del producto de matrices
Sean matrices con entradas en , donde es un cuerpo, entonces se cumplen las
siguientes propiedades para el producto de matrices (considerando que los productos existan)
Asociatividad
Demostración
Dada la definición de la operación se sigue el resultado ya que, si
, y por lo que
donde debido a que para todo
. Aquí estamos considerando que es , es y es
.
Distributividad respecto de la suma de
matrices por la derecha
Demostración
Dada la definición de la operación se sigue el resultado ya que
debido a que para todo . Aquí estamos
considerando que es , es y es .
Distributividad respecto de la suma de
matrices por la izquierda
Demostración
Dada la definición de la operación se sigue el resultado ya que
debido a que para todo . Aquí estamos
considerando que es , es y es .
El producto de matrices no es conmutativo, si lo fuera la composición de funciones lineales
sería conmutativa y eso en general no sucede. Obviamente, existen casos particulares de
algunos tipos de matrices en los que sí hay conmutatividad. En el caso en que tengamos
 tendremos que el producto entre matrices en también está en . En
ese caso además de espacio vectorial es un álgebra sobre un cuerpo. En el caso de
que el conjunto al que pertenecen las entradas sea un anillo conmutativo con uno entonces
 además de módulo es un álgebra sobre un anillo. Más aún con el
producto de matrices es un anillo.
https://es.m.wikipedia.org/wiki/%C3%81lgebra_sobre_un_cuerpo
Rango de una matriz
El rango de una matriz es la dimensión de la imagen de la aplicación lineal representada por
, que coincide con la dimensión de los espacios vectoriales generados por las filas o
columnas de .
Matriz traspuesta
La traspuesta de una matriz , donde no es necesariamente un cuerpo, es
una matriz tal que . Por ejemplo la entrada .
Veamos un ejemplo más explícito. Sea 
entonces su traspuesta es
Otros conceptos relacionados
con matrices
https://es.m.wikipedia.org/wiki/Rango_de_una_matriz
https://es.m.wikipedia.org/wiki/Dimensi%C3%B3n_de_un_espacio_vectorial
https://es.m.wikipedia.org/wiki/Imagen_(matem%C3%A1tica)
https://es.m.wikipedia.org/wiki/Matriz_traspuesta
Así, informalmente podríamos decir que la traspuesta es aquella matriz que se obtiene de la
original cambiando filas por columnas. Las notaciones usuales para denotar la traspuesta de
una matriz son .
La trasposición de matrices tiene las siguientes propiedades (donde ahora sí el conjunto de
entradas debe ser al menos un anillo conmutativo):
Si representa una aplicación lineal, entonces la matriz describe la
traspuesta de la aplicación lineal.
Matrices cuadradas y definiciones
relacionadas
Una matriz cuadrada es una matriz que tiene el mismo número de filas que de columnas. El
conjunto de todas las matrices cuadradas n-por-n junto a la suma y la multiplicación de
matrices, es un anillo que generalmente no es conmutativo.
https://es.m.wikipedia.org/wiki/Traspuesta_de_una_aplicaci%C3%B3n_lineal
https://es.m.wikipedia.org/wiki/Matriz_cuadrada
https://es.m.wikipedia.org/wiki/Anillo_(matem%C3%A1tica)https://es.m.wikipedia.org/wiki/Anillo_conmutativo
(left)
M(n,R), el anillo de las matrices cuadradas reales, es un álgebra asociativa real unitaria. M(n,C),
el anillo de las matrices cuadradas complejas, es un álgebra asociativa compleja.
La matriz identidad In de orden n es la matriz n por n en la cual todos los elementos de la
diagonal principal son iguales a 1 y todos los demás elementos son iguales a 0. La matriz
identidad se denomina así porque satisface las ecuaciones MIn = M y InN = N para cualquier
matriz M m por n y N n por k. Por ejemplo, si n = 3:
La matriz identidad es el elemento unitario en el anillo de matrices cuadradas.
Los elementos invertibles de este anillo se llaman matrices invertibles, regulares o no
singulares. Una matriz A n por n es invertible si y sólo si existe una matriz B tal que AB = I
En este caso, B es la matriz inversa de A, identificada por A-1 . El conjunto de todas las matrices
invertibles n por n forma un grupo (concretamente un grupo de Lie) bajo la multiplicación de
matrices, el grupo lineal general.
Si λ es un número y v es un vector no nulo tal que Av = λv, entonces se dice que v es un vector
propio de A y que λ es su valor propio asociado. El número λ es un valor propio de A si y sólo si
A−λIn no es invertible, lo que sucede si y sólo si pA(λ) = 0, donde pA(x) es el polinomio
característico de A. pA(x) es un polinomio de grado n y por lo tanto, tiene n raíces complejas
múltiples raíces si se cuentan de acuerdo a su multiplicidad. Cada matriz cuadrada tiene
exactamente n valores propios complejos.
El determinante de una matriz cuadrada A es el producto de sus n valores propios, pero también
puede ser definida por la fórmula de Leibniz. Las matrices invertibles son precisamente las
matrices cuyo determinante es distinto de cero.
El algoritmo de eliminación gaussiana puede ser usado para calcular el determinante, el rango y
la inversa de una matriz y para resolver sistemas de ecuaciones lineales.
https://es.m.wikipedia.org/wiki/%C3%81lgebra_asociativa
https://es.m.wikipedia.org/wiki/Matriz_identidad
https://es.m.wikipedia.org/wiki/Diagonal_principal
https://es.m.wikipedia.org/wiki/Matriz_invertible
https://es.m.wikipedia.org/wiki/Matriz_inversa
https://es.m.wikipedia.org/wiki/Grupo_(matem%C3%A1ticas)
https://es.m.wikipedia.org/wiki/Grupo_de_Lie
https://es.m.wikipedia.org/wiki/Grupo_lineal_general
https://es.m.wikipedia.org/wiki/Vector_propio
https://es.m.wikipedia.org/wiki/Vector_propio
https://es.m.wikipedia.org/wiki/Valor_propio
https://es.m.wikipedia.org/wiki/Polinomio_caracter%C3%ADstico
https://es.m.wikipedia.org/wiki/Polinomio_caracter%C3%ADstico
https://es.m.wikipedia.org/wiki/Polinomio
https://es.m.wikipedia.org/wiki/Determinante_(matem%C3%A1tica)
https://es.m.wikipedia.org/wiki/F%C3%B3rmula_de_Leibniz_para_el_c%C3%A1lculo_de_determinantes
https://es.m.wikipedia.org/wiki/Eliminaci%C3%B3n_gaussiana
https://es.m.wikipedia.org/wiki/Sistema_de_ecuaciones_lineales
La traza de una matriz cuadrada es la suma de los elementos de la diagonal, lo que equivale a la
suma de sus n valores propios.
Una matriz de Vandermonde es una matriz cuadrada cuyas filas son las potencias de un
número. Su determinante es fácil de calcular.
Matriz lógica
Una matriz lógica, matriz binaria, matriz de relación, matriz booleana o matriz (0,1) es una matriz
con entradas del dominio booleano . Tal matriz puede ser usada para representar
una relación binaria entre un par de conjuntos finitos.
Representación de una relación matricial
Si es una relación binaria entre los finitos conjuntos ordenados e (tales que 
), entonces puede representarse por la matriz lógica cuyos índices de fila y columna
ordenan los elementos de e , respectivamente, tales que las entradas de se definen por:
Con el fin de designar los números de cada fila y columna de la matriz, los conjuntos X e Y están
ordenados con números enteros positivos: i va desde 1 hasta la cardinalidad (tamaño) de X y j
oscila entre 1 y la cardinalidad de Y.
Ejemplo
La relación binaria R en el conjunto {1, 2, 3, 4} se define de manera que aRb se lleva a cabo si y
sólo si a divide b uniformemente, sin resto. Por ejemplo, 2R4 satisface la relación porque 2
https://es.m.wikipedia.org/wiki/Traza_de_una_matriz
https://es.m.wikipedia.org/wiki/Matriz_cuadrada
https://es.m.wikipedia.org/wiki/Matriz_de_Vandermonde
https://es.m.wikipedia.org/w/index.php?title=Dominio_booleano&action=edit&redlink=1
https://es.m.wikipedia.org/wiki/Relaci%C3%B3n_binaria
https://es.m.wikipedia.org/wiki/Relaci%C3%B3n_binaria
https://es.m.wikipedia.org/w/index.php?title=Conjuntos_ordenados&action=edit&redlink=1
https://es.m.wikipedia.org/wiki/Cardinalidad
divide 4 sin dejar un resto, pero 3R4 no porque cuando 3 divide 4 hay un resto de 1. El conjunto
siguiente es el conjunto de pares para los que se mantiene la relación R.
{(1, 1), (1, 2), (1, 3), (1, 4), (2, 2), (2, 4), (3,
3), (4, 4)}.
La representación correspondiente como matriz booleana es:
Algunas propiedades
La representación matricial de la relación de igualdad en un conjunto finito es la matriz de
identidad, es decir, una matriz cuya diagonal principal es todo unos (1), mientras que el resto de
elementos son ceros(0). Si el dominio booleano es visto como un semianillo, donde la suma
corresponde al OR lógico y la multiplicación al AND lógico, la representación matricial de la
composición de dos relaciones es igual al producto de la matriz de las representaciones
matriciales de esta relación. Este producto se puede calcular en el tiempo esperado O(n2).
Frecuentemente, las operaciones en matrices binarias están definidas en términos de la
aritmética modular mod 2, es decir, los elementos se tratan como elementos del campo de
Galois GF(2) = ℤ2. Surgen una variedad de representaciones y tienen un número de formas
especiales más restringidas. Se aplican por ejemplo en XOR-satisfacible (Inglés) (https://en.wiki
pedia.org/wiki/Boolean_satisfiability_problem#XOR-satisfiability) .
https://es.m.wikipedia.org/wiki/Igualdad_matem%C3%A1tica#Leyes_de_la_igualdad
https://es.m.wikipedia.org/wiki/Matriz_identidad
https://es.m.wikipedia.org/wiki/Matriz_identidad
https://es.m.wikipedia.org/wiki/Semianillo
https://es.m.wikipedia.org/wiki/OR_l%C3%B3gico
https://es.m.wikipedia.org/wiki/AND_l%C3%B3gico
https://es.m.wikipedia.org/wiki/Composici%C3%B3n
https://es.m.wikipedia.org/wiki/Multiplicaci%C3%B3n_de_matrices
https://es.m.wikipedia.org/wiki/Aritm%C3%A9tica_modular
https://es.m.wikipedia.org/wiki/Campo_de_galois
https://es.m.wikipedia.org/wiki/Campo_de_galois
https://en.wikipedia.org/wiki/Boolean_satisfiability_problem#XOR-satisfiability
https://en.wikipedia.org/wiki/Boolean_satisfiability_problem#XOR-satisfiability
El número de matrices binarias mxn distintas es igual a 2mn, y es, por consiguiente, finito.
Las matrices en la computación
Las matrices son utilizadas ampliamente en la computación, por su facilidad y liviandad para
manipular información. En este contexto, son una buena forma para representar grafos, y son
muy utilizadas en el cálculo numérico. En la computación gráfica, las matrices son ampliamente
usadas para lograr animaciones de objetos y formas.
Ejemplo de brazo robótico
El mundo de las matrices es muy amplio aunque parezca tan simple, programas como Matlab
pueden crear sistemas de matrices tan complejos que incluso al programa le es difícil
resolverlos. Aunque no lo parezca las matrices también se pueden aplicar al mundo de la
computación y programación.
Un ejemplo sencillo sería el campo aplicado a la programación en lo que viene relacionado con
la robótica ya que se utiliza en este caso el programa matlab para poder programar robots como
puede ser un brazo biónico. Un ejemplo sería el Lynx6.
El Lynx6 se considera un manipulador de 5 ejes de rotación (base, hombro, codo, movimiento y
rotación de la muñeca); este brazo mecánico entrega movimientos rápidos, exactos y
repetitivos, gracias a los servomotores que lleva incorporados. Como paso previo se debedesarrollar una aplicación que obtiene el modelo directo FK e inverso IK del brazo robótico.
Aplicaciones
https://es.m.wikipedia.org/wiki/Grafo
https://es.m.wikipedia.org/wiki/An%C3%A1lisis_num%C3%A9rico
Brazo Robótico
-El modelo FK consiste en encontrar una matriz de transformación homogénea T que relacione
la posición cartesiana (Px, Py, PZ) y los ángulos de Euler (φ,ψ,θ) Escogiendo adecuadamente el
sistema de coordenadas ligado a cada segmento es posible ir de un sistema referencial al
siguiente por medio de 4 transformaciones básicas.
-Matriz de transformación (1) Donde es la matriz resultante que relaciona el sistema de
referencia del segmento i-1 con el sistema de referencia del segmento ièsimo, Rotz(ϴ1) es la
rotación alrededor del eje Z i-1 con un valor de ϴ1, T (0,0, di) es una traslación de una distancia
di, a lo largo del eje Zi-1 , T (a1, 0,0) es una traslación de una distancia a1, a lo largo del eje Xi. Y
finalmente Rotx(αi) es la rotación alrededor del eje de Xi, con un valor de αi
Los resultados van a depender exclusivamente de las características geométricas del brazo
manipulador. En nuestro caso los parámetros físicos dependen de los valores de las
articulaciones y longitud conocidos en cada sistema de coordenadas, deben expresarse y
asignarse en términos de la convención D-H. Multiplicando las matrices individuales de la
ecuación (1) en el orden correcto, la matriz de transformación, que resuelve los valores de
posición y orientación en cada sistema de coordenadas es la ecuación (2) Los términos
individuales de las tres primeras columnas de la matriz (n, o, a) representan la orientación del
eje principal en el sistema de coordenadas. La última columna P indica la posición (x, y, z) del
origen. Cada uno de los términos de la matriz pueden calcularse a partir de las ecuaciones
siguientes:
La relación entre las matrices de transformación, forma la cadena cinemática de las
articulaciones y segmentos consecutivos del brazo robótico. Donde T es la matriz de
https://es.m.wikipedia.org/wiki/Archivo:Captura_de_pantalla_(2).png
https://es.m.wikipedia.org/wiki/Archivo:Captura_de_pantalla_(2).png
transformación homogénea buscada. Sustituyendo los parámetros de la tabla 2 en las matrices
de transformación se obtienen estas ecuaciones. Calculando la multiplicación no conmutativa
de la ecuación (17, se obtiene la matriz de transformación homogénea: Donde (n, o, a) es una
terna ortogonal que representa la orientación y P es un vector (Px, Py, Pz) que representa la
posición del efector extremo del brazo. La solución obtenida para una posición en reposo del
brazo con Θ1= 0º , θ2= 90° , θ3 =0° , θ4= -90° y θ5=0°
Teoría de matrices
La teoría de matrices es una rama de las matemáticas que se centra en el estudio de matrices.
Inicialmente una rama secundaria del álgebra lineal, ha venido cubriendo también los temas
relacionados con la teoría de grafos, el álgebra, la combinatoria y la estadística.
Matrices relacionadas con otros
temas
Una matriz puede identificarse a una aplicación lineal entre dos espacios vectoriales de
dimensión finita. Así la teoría de las matrices habitualmente se considera como una rama del
álgebra lineal. Las matrices cuadradas desempeñan un papel particular, porque el conjunto de
matrices de orden n (n entero natural no nulo dado) posee propiedades de « estabilidad » de
operaciones.
Los conceptos de matriz estocástica y matriz doblemente estocástica son herramientas
importantes para estudiar los procesos estocásticos, en probabilidad y en estadística.
Las matrices definidas positivas aparecen en la búsqueda de máximos y mínimos de funciones
a valores reales, y a varias variables.
https://es.m.wikipedia.org/wiki/Matem%C3%A1ticas
https://es.m.wikipedia.org/wiki/%C3%81lgebra_lineal
https://es.m.wikipedia.org/wiki/Teor%C3%ADa_de_grafos
https://es.m.wikipedia.org/wiki/%C3%81lgebra
https://es.m.wikipedia.org/wiki/Combinatoria
https://es.m.wikipedia.org/wiki/Estad%C3%ADstica
https://es.m.wikipedia.org/wiki/Aplicaci%C3%B3n_lineal
https://es.m.wikipedia.org/wiki/Espacio_vectorial
https://es.m.wikipedia.org/wiki/%C3%81lgebra_lineal
https://es.m.wikipedia.org/wiki/Matriz_cuadrada
https://es.m.wikipedia.org/wiki/Matriz_estoc%C3%A1stica
https://es.m.wikipedia.org/wiki/Proceso_estoc%C3%A1stico
https://es.m.wikipedia.org/wiki/Probabilidad
https://es.m.wikipedia.org/wiki/Estad%C3%ADstica
https://es.m.wikipedia.org/wiki/Matriz_definida_positiva
Es también importante disponer de una teoría de matrices a coeficientes en un anillo. En
particular, las matrices a coeficientes en el anillo de polinomios se utilizan en teoría de mandos.
En matemáticas puras, los anillos de matrices pueden proporcionar un rico campo de
contraejemplos para conjeturas matemáticas.
Matrices en teoría de grafos
En teoría de los grafos, a todo grafo etiquetado corresponde la matriz de adyacencia. Una matriz
de permutación es una matriz que representa una permutación; matriz cuadrada cuyos
coeficientes son 0 o 1, con un solo 1 en cada línea y cada columna. Estas matrices se utilizan en
combinatorio.
También existe otro tipo de matriz además de la matriz de adyacencia que es la conocida como
matriz de incidencia en la cual el grafo se muestra en una matriz de A (serían las aristas) por V
(serían los vértices), donde contiene la información de la arista (1 si está conectado y 0 no
conectado).
Si nos dan un grafo , de orden , podemos llegar a representar una relación de
adyacencia, mediante una matriz nxn, también llamada matriz de adyacencia de G.
Se deben de tener en cuenta una serie de observaciones sobre esto:
1. La matriz de adyacencia es una
matriz booleana, como se ha dicho
antes es una matriz que solo puede
contener 0 y 1.
2. Σi xij = semigrado exterior de xi
https://es.m.wikipedia.org/wiki/Anillo_(matem%C3%A1tica)
https://es.m.wikipedia.org/wiki/Anillo_de_polinomios
https://es.m.wikipedia.org/w/index.php?title=Teor%C3%ADa_de_mandos&action=edit&redlink=1
https://es.m.wikipedia.org/wiki/Teor%C3%ADa_de_los_grafos
https://es.m.wikipedia.org/wiki/Matriz_de_adyacencia
https://es.m.wikipedia.org/wiki/Matriz_de_permutaci%C3%B3n
https://es.m.wikipedia.org/wiki/Matriz_de_permutaci%C3%B3n
https://es.m.wikipedia.org/wiki/Permutaci%C3%B3n
https://es.m.wikipedia.org/wiki/Grafo
3. Σj xij = semigrado interior de xj
En la teoría de grafos, se llama matriz de un grafo a la matriz que indica en la línea i y la
columna j el número de aristas que enlazan el vértice i al vértice j. En un grafo no orientado, la
matriz es simétrica. La suma de los elementos de una columna permite determinar el grado de
un vértice. La matriz indica en la línea i y la columna j el número de caminos a n aristas que
adjuntan el vértice i al vértice j.
Grafo sobre el que se realiza el
estudio.
A continuación mostraremos un ejemplo de un grafo y su matriz de adyacencia:
La matriz de adyacencia de este grafo vendría dada de la forma:
/ V1 V2 V3 V4 V5
V1 0 1 0 0 0
V2 1 0 1 1 0
V3 1 1 0 1 0
V4 0 1 1 1 0
V5 0 0 1 0 0
La matriz de adyacencia se basa en las conexiones que se realizan entre los vértices del grafo
apareciendo así un 1 en los casos en los que dos vértices están conectados y un 0 en los casos
https://es.m.wikipedia.org/wiki/Teor%C3%ADa_de_grafos
https://es.m.wikipedia.org/wiki/Archivo:Grafo_para_el_estudio_de_una_matriz_sobre_el.png
https://es.m.wikipedia.org/wiki/Archivo:Grafo_para_el_estudio_de_una_matriz_sobre_el.png
https://es.m.wikipedia.org/wiki/Matriz_de_adyacencia
en los que no.
En algunos casos como el de la posición V3/V5 se observa un 0 debido a que la conexión entre
ellos muestra un sentido permitiendo el paso de flujo de V5 a V3 pero no al contrario, motivo por
el cual V5/V3 si presenta un 1.
Cabe decir que si se toma otra ordenación de los vértices la matriz de adyacencia será diferente,
pero todas las matrices de adyacencia resultantes de un mismo grafo están unidas por una
matriz de permutación P tal que P-1 C P = A (Siendo C y A dos matrices de adyacencia distintas
pero provenientesde un mismo grafo).
Análisis y geometría
Sea una función diferenciable, siendo sus las componentes
escalares. Se define la matriz jacobiana de como:
Si n > m, y si el rango de la matriz Jacobi alcanza su valor máximo m, f es localmente invertible
en ese punto, por el teorema de la función implícita. Las ecuaciones diferenciales parciales
pueden clasificarse considerando la matriz de coeficientes de los operadores diferenciales de
orden más alto de la ecuación. Para las ecuaciones diferenciales elípticas parciales esta matriz
es positiva para todos sus valores, los cuales tienen una influencia decisiva en el grupo de
soluciones posibles de la ecuación en cuestión.
La matriz hessiana de una función consiste en la segunda derivada de f con
respecto a las varias direcciones de coordenadas, esto es,
https://es.m.wikipedia.org/wiki/Matriz_de_permutaci%C3%B3n
https://es.m.wikipedia.org/wiki/Matriz_y_determinante_jacobianos
https://es.m.wikipedia.org/wiki/Teorema_de_la_funci%C3%B3n_impl%C3%ADcita
https://es.m.wikipedia.org/wiki/Ecuaciones_diferenciales_parciales
https://es.m.wikipedia.org/wiki/Ecuaci%C3%B3n_el%C3%ADptica_en_derivadas_parciales
https://es.m.wikipedia.org/wiki/Matriz_hessiana
Codifica información sobre el comportamiento creciente de la función: dando un punto crítico
x = (x1, ..., xn), esto es, un punto donde la primera derivada parcial de ƒ desaparece, la
función tiene un mínimo local si la matriz de Hessian es definida positiva para todos sus
valores. La programación cuadrática puede usarse para encontrar mínimos y máximos globales
de una función cuadrática estrechamente relacionadas con las asociadas a matrices.
El método de elementos finitos es un importante método numérico para resolver ecuaciones
diferenciales parciales, extensamente aplicado en simulaciones de sistemas físicos complejos.
Intenta aproximar la solución a alguna ecuación de funciones lineales pieza a pieza, donde las
piezas son elegidas con respecto a una rejilla suficientemente fina, que a su vez puede ser
refundida como una ecuación matricial.
Teorema de Cayley-Hamilton
Teorema de Gerschgorin
Cálculo de matrices
Descomposición de Schur
Algunos teoremas
Véase también
https://es.m.wikipedia.org/wiki/Punto_cr%C3%ADtico_(matem%C3%A1tica)
https://es.m.wikipedia.org/wiki/Derivada_parcial
https://es.m.wikipedia.org/wiki/M%C3%ADnimo_local
https://es.m.wikipedia.org/wiki/Matriz_definida_positiva#Matrices_definidas_negativas.2C_semidefinidas_positivas_e_indefinidas
https://es.m.wikipedia.org/wiki/M%C3%A9todo_de_elementos_finitos
https://es.m.wikipedia.org/wiki/Teorema_de_Cayley-Hamilton
https://es.m.wikipedia.org/wiki/Teorema_de_Gerschgorin
https://es.m.wikipedia.org/wiki/C%C3%A1lculo_matricial
https://es.m.wikipedia.org/wiki/Descomposici%C3%B3n_de_Schur
Descomposición en valores singulares
Descomposición QR
Determinante (matemática)
Eliminación de Gauss-Jordan
Factorización LU
Forma canónica de Jordan
Lema de Schur
Matlab
Matriz triangular
Beezer, Rob, Un primer curso en álgebra
lineal (http://linear.ups.edu/index.html) ,
licencia bajo GFDL. (En inglés)
Referencias
https://es.m.wikipedia.org/wiki/Descomposici%C3%B3n_en_valores_singulares
https://es.m.wikipedia.org/wiki/Descomposici%C3%B3n_QR
https://es.m.wikipedia.org/wiki/Determinante_(matem%C3%A1tica)
https://es.m.wikipedia.org/wiki/Eliminaci%C3%B3n_de_Gauss-Jordan
https://es.m.wikipedia.org/wiki/Factorizaci%C3%B3n_LU
https://es.m.wikipedia.org/wiki/Forma_can%C3%B3nica_de_Jordan
https://es.m.wikipedia.org/wiki/Lema_de_Schur
https://es.m.wikipedia.org/wiki/Matlab
https://es.m.wikipedia.org/wiki/Matriz_triangular
http://linear.ups.edu/index.html
http://linear.ups.edu/index.html
https://es.m.wikipedia.org/wiki/Licencia_de_documentaci%C3%B3n_libre_GNU
Jim Hefferon: Álgebra lineal (http://joshu
a.smcvt.edu/linalg.html/) (Libros de
texto en línea) (En inglés)
Notas
1. Tony Crilly (2011). 50 cosas que hay
que saber sobre matemáticas. Ed.
Ariel. ISBN 978-987-1496-09-9.
2. Swaney, Mark. History of Magic
Squares (http://www.arthurmag.com/
magpie/?p=449) .
3. Shen Kangshen et al. (ed.) (1999).
Nine Chapters of the Mathematical
Art, Companion and Commentary.
Oxford University Press. cited byOtto
http://joshua.smcvt.edu/linalg.html/
http://joshua.smcvt.edu/linalg.html/
https://es.m.wikipedia.org/wiki/Especial:FuentesDeLibros/9789871496099
http://www.arthurmag.com/magpie/?p=449
http://www.arthurmag.com/magpie/?p=449
http://www.arthurmag.com/magpie/?p=449
https://es.m.wikipedia.org/wiki/Oxford_University_Press
Bretscher (2005). Linear Algebra with
Applications (https://archive.org/detail
s/linearalgebrawit0000bret_g9r3) (3rd
ed. edición). Prentice-Hall. pp. 1 (http
s://archive.org/details/linearalgebrawit
0000bret_g9r3/page/1) .
4. De Burgos, Juan (2006). «Sistemas de
ecuaciones lineales» (https://archive.o
rg/details/algebralinealyge00burg) .
Álgebra lineal y geometría cartesiana.
p. 6 (https://archive.org/details/algebr
alinealyge00burg/page/n13) .
ISBN 9788448149000.
https://archive.org/details/linearalgebrawit0000bret_g9r3
https://archive.org/details/linearalgebrawit0000bret_g9r3
https://archive.org/details/linearalgebrawit0000bret_g9r3
https://archive.org/details/linearalgebrawit0000bret_g9r3/page/1
https://archive.org/details/linearalgebrawit0000bret_g9r3/page/1
https://archive.org/details/linearalgebrawit0000bret_g9r3/page/1
https://archive.org/details/algebralinealyge00burg
https://archive.org/details/algebralinealyge00burg
https://archive.org/details/algebralinealyge00burg
https://archive.org/details/algebralinealyge00burg/page/n13
https://archive.org/details/algebralinealyge00burg/page/n13
https://es.m.wikipedia.org/wiki/ISBN
https://es.m.wikipedia.org/wiki/Especial:FuentesDeLibros/9788448149000
Determinante de una matriz (https://mat
ricesydeterminantes.com/determinante-
de-una-matriz/)
Una breve historia del álgebra lineal y de
la teoría de matrices lineal (https://web.
archive.org/web/20111223074438/htt
p://darkwing.uoregon.edu/~vitulli/441.s
p04/LinAlgHistory.html) (en inglés)
Matemáticas/Matrices(En Wikilibros)
Esta obra contiene una traducción
parcial derivada de «Matrix
(mathematics)» de Wikipedia en
inglés, concretamente de esta versión (h
Enlaces externos
https://matricesydeterminantes.com/determinante-de-una-matriz/
https://matricesydeterminantes.com/determinante-de-una-matriz/
https://matricesydeterminantes.com/determinante-de-una-matriz/
https://web.archive.org/web/20111223074438/http://darkwing.uoregon.edu/~vitulli/441.sp04/LinAlgHistory.html
https://web.archive.org/web/20111223074438/http://darkwing.uoregon.edu/~vitulli/441.sp04/LinAlgHistory.html
https://web.archive.org/web/20111223074438/http://darkwing.uoregon.edu/~vitulli/441.sp04/LinAlgHistory.html
https://web.archive.org/web/20111223074438/http://darkwing.uoregon.edu/~vitulli/441.sp04/LinAlgHistory.html
https://web.archive.org/web/20111223074438/http://darkwing.uoregon.edu/~vitulli/441.sp04/LinAlgHistory.html
https://es.wikibooks.org/wiki/es:Matem%C3%A1ticas/Matrices
https://en.wikipedia.org/wiki/Matrix_(mathematics)
https://en.wikipedia.org/wiki/Matrix_(mathematics)
https://en.wikipedia.org/wiki/Matrix_(mathematics)?oldid=771144587
ttps://en.wikipedia.org/wiki/Matrix_(mat
hematics)?oldid=771144587) ,
publicada por sus editores (https://en.wi
kipedia.org/wiki/Matrix_(mathematics)?
action=history) bajo la Licencia de
documentación libre de GNU y la
Licencia Creative Commons Atribución-
CompartirIgual 4.0 Internacional (http
s://creativecommons.org/licenses/by-s
a/4.0/deed.es) .
Esta obra contiene una traducción
parcial derivada de «Logical Matrix» de
Wikipedia en inglés, concretamente de
esta versión (https://en.wikipedia.org/wi
ki/Logical_Matrix?oldid=773879928) ,
https://en.wikipedia.org/wiki/Matrix_(mathematics)?oldid=771144587
https://en.wikipedia.org/wiki/Matrix_(mathematics)?oldid=771144587
https://en.wikipedia.org/wiki/Matrix_(mathematics)?action=history
https://en.wikipedia.org/wiki/Matrix_(mathematics)?action=historyhttps://en.wikipedia.org/wiki/Matrix_(mathematics)?action=history
https://es.m.wikipedia.org/wiki/Wikipedia:Texto_de_la_Licencia_de_documentaci%C3%B3n_libre_de_GNU
https://es.m.wikipedia.org/wiki/Wikipedia:Texto_de_la_Licencia_de_documentaci%C3%B3n_libre_de_GNU
https://creativecommons.org/licenses/by-sa/4.0/deed.es
https://creativecommons.org/licenses/by-sa/4.0/deed.es
https://creativecommons.org/licenses/by-sa/4.0/deed.es
https://creativecommons.org/licenses/by-sa/4.0/deed.es
https://en.wikipedia.org/wiki/Logical_Matrix
https://en.wikipedia.org/wiki/Logical_Matrix?oldid=773879928
https://en.wikipedia.org/wiki/Logical_Matrix?oldid=773879928
publicada por sus editores (https://en.wi
kipedia.org/wiki/Logical_Matrix?action=
history) bajo la Licencia de
documentación libre de GNU y la
Licencia Creative Commons Atribución-
CompartirIgual 4.0 Internacional (http
s://creativecommons.org/licenses/by-s
a/4.0/deed.es) .
 Datos: Q44337
 Multimedia: Matrices (https://commo
ns.wikimedia.org/wiki/Category:Matric
es) / Q44337 (https://commons.wikim
edia.org/wiki/Special:MediaSearch?typ
e=image&search=%22Q44337%22)
https://en.wikipedia.org/wiki/Logical_Matrix?action=history
https://en.wikipedia.org/wiki/Logical_Matrix?action=history
https://en.wikipedia.org/wiki/Logical_Matrix?action=history
https://es.m.wikipedia.org/wiki/Wikipedia:Texto_de_la_Licencia_de_documentaci%C3%B3n_libre_de_GNU
https://es.m.wikipedia.org/wiki/Wikipedia:Texto_de_la_Licencia_de_documentaci%C3%B3n_libre_de_GNU
https://creativecommons.org/licenses/by-sa/4.0/deed.es
https://creativecommons.org/licenses/by-sa/4.0/deed.es
https://creativecommons.org/licenses/by-sa/4.0/deed.es
https://creativecommons.org/licenses/by-sa/4.0/deed.es
https://es.m.wikipedia.org/wiki/Wikidata
https://es.m.wikipedia.org/wiki/Wikidata
https://www.wikidata.org/wiki/Q44337
https://es.m.wikipedia.org/wiki/Wikimedia_Commons
https://es.m.wikipedia.org/wiki/Wikimedia_Commons
https://commons.wikimedia.org/wiki/Category:Matrices
https://commons.wikimedia.org/wiki/Category:Matrices
https://commons.wikimedia.org/wiki/Category:Matrices
https://commons.wikimedia.org/wiki/Special:MediaSearch?type=image&search=%22Q44337%22
https://commons.wikimedia.org/wiki/Special:MediaSearch?type=image&search=%22Q44337%22
https://commons.wikimedia.org/wiki/Special:MediaSearch?type=image&search=%22Q44337%22
Esta página se editó por última vez el 22 ene 2024
a las 11:19. •
El contenido está disponible bajo la licencia CC
BY-SA 4.0 , salvo que se indique lo contrario.
Obtenido de
«https://es.wikipedia.org/w/index.php?
title=Matriz_(matemática)&oldid=157475129»
https://creativecommons.org/licenses/by-sa/4.0/deed.es
https://creativecommons.org/licenses/by-sa/4.0/deed.es
https://es.wikipedia.org/w/index.php?title=Matriz_(matem%C3%A1tica)&oldid=157475129
https://es.wikipedia.org/w/index.php?title=Matriz_(matem%C3%A1tica)&oldid=157475129

Continuar navegando

Materiales relacionados

426 pag.
algebralineal2

User badge image

carolainstefania zambra paredes

587 pag.
Álgebra Lineal aplicada-Ben Noble James-W Daniel

Vicente Riva Palacio

User badge image

marcus fenix