viernes, 11 de septiembre de 2009
domingo, 9 de agosto de 2009
Altura : 6'10"
Peso : 328 lbs
Fecha de Ncimiento : 24 de Marzo de 1965
Ciudad de Nacimiento : Las Vegas, NV
Lucha desde : 1989
Movimiento Final : The Tombstone
TÍTULOS QUE HA TENIDO
Campeón mundial de la USWA
Campeón de Texas de la USWA
Campeón Mundial 3 veces de la WWF
Campeón en parejas 3 veces de la WWF
El comienzo del Undertaker
En 1989 Mark, hizo su debut hizo en la NWA/WCW, ahora bajo la identidad de Mark Callous. Poco después de su debut, se unió con Dan Spivey y formaron los "Skycrapers" (Los Rascacielos). Mark tomó el lugar del Sid que fue lesionado en un momento.
LA WWF
En la Serie de los Sobrevivientes de 1990, Mark hizo su debut como "The Undertaker". El Enterrador fue manejado por Brother Love, y fue compañero para el "Million Team", traído a la WWF por Ted DiBiase para reforzar su grupo. Todos estában mirándolo fijamente cuando él hizo su entrada al cuadrilatero con sus movimientos robóticos lentos.
En 1991, el Enterrador asumió a un nuevo manager que lo entendió mucho mejor, era el empresario de una funeraria, Paul Bearer. Juntos destruyeron a Tugboat, el Big Bossman, Jimmy Snuka, y Jim Duggan, después de una victoria la pareja impar puso al antagonista en una "bolsa de muertos". También durante este periodo Paul Bearer empezó a traer una urna al cuadrilatero que hacían creer que el Enterrador sacaba sus poderes desde la urna. El Enterrador estaba listo para cosas más grandes y mejores.
Paul Bearer y el Enterrador entonces fijaron sus miradas en el título mundial de la WWF, Hulk Hogan en esos momentos era el dueño del cetro. La lucha pasó a la Serie de los Sobrevivientes de 1991, donde Hogan usó todos los movimientos de su repertorio para ganarle al Enterrador, pero el Enterrador, con un poco la ayuda de Ric Flair que tiró una silla al cuadrilatero, logró ganarle el título mundial de la WWF por primera vez .
Al parecer la WWF no estaba bastante lista para tener al Enterrador como su campeón, por esto se proclamó a una polémica lucha, un rematch 6 días después en un PPV llamado "Tuesday in Texas". La lucha fue así polémica porque Ric Flair de nuevo mostró su cara, cuando trató nuevamente lo que hizo en la primera lucha, esta vez no le resultó, esta vez el Undertaker resultó con un silletazo en la cabeza y Hogan ganó la lucha.
Otro gran enemigo de del Undertaker fue el casi 8 pies de alto "Giant Gonzalez". Durante el Royal Rumble, Gonzalez limpió el ring y le hizo la Chokeslam al Enterrador. Éste era sólo el principio de un gran odio entre los dos. El Gigante Gonzalez es, por opinion de muchos, uno de los peores luchadores que ha pisado el cuadrilatero.
El Enterrador y Gonzalez se enfrentaron en WrestleMania IX en su primera lucha que acabó con una victoria por descalificación para el Undertaker cuando Gonzalez usó un paño con cloroformo en el Enterrador.
Otro gran enemigo en la vida del Enterrador fue Mankind, todo empezó en una lucha en Raw is War del Undertaker con Bradshaw,el Enterrador fue atacado por Mick Foley (Cactus Jack). Aquí empezó el odio en 1996. Mankind se unió con Goldust y juntos los dos trataron de vencer al Undertaker.
Más adelante se fijó una lucha "Enterrado Vivo" (Buried Alive Match). Fue su tercer encuentro con Mankind donde el objetivo de la lucha era echar al enemigo en la tumba y cavar con pala la tierra sobre él. El Undertaker ganó la lucha, pero fue atacado por el nuevo protegido de Paul Berer, "The Executioner (Terry Gordy), quién puso al Enterrador en la tumba y junto con algunos de los otros luchadores taparon la tumba. El PPV estaba casi por acabar cuando un relámpago golpeó sobre la tumba del Undertaker y la mano del Enterrador surgió de la tumba.
En la actualidad, el Enterrador es quizás el más imponente que la Federación nunca ha visto. "El Hombre del Lado Oscuro" se ha tornado más oscuro a partir de la formación del "Ministerio Corporativo", un grupo que también incluye Shane McMahon. Gracias a su alianza con Shane, el Undertaker derrotó a Austin por el Campeonato de la Federación en Mayo.
Hasta abril, la "Corporación" y el "Ministerio de la Oscuridad" existieron como entidades separadas en la Federación de la WWF. Pero las dos tenían una meta común: tomar el mando de la Federación de Vince McMahon. El Undertaker es el líder del Ministerio, y Shane McMahon, el líder de la Corporación. Él se ha transformado en un poder aterrador. Él promete que su Ministerio Corporativo dominará todos aquéllos que lo reprimen y hasta ahora él lo ha cumplido.
domingo, 17 de mayo de 2009
Un espacio vectorial es un conjunto de objetos (llamados vectores) que pueden escalarse y sumarse.
Los espacios vectoriales tienen aplicaciones en otras ramas de la matemática, la ciencia y la ingeniería. Se utilizan en métodos como las series de Fourier, que se utiliza en las rutinas modernas de compresión de imágenes y sonido, o proporcionan el marco para resolver ecuaciones en derivadas parciales. Además, los espacios vectoriales proporcionan una forma abstracta libre de coordenadas de tratar con objetos geométricos y físicos, tales como tensores, que a su vez permiten estudiar las propiedades locales de variedades mediante técnicas de linealización.
La definición de un espacio vectorial requiere de un cuerpo de escalares K (como el cuerpo de los números reales o el cuerpo de los números complejos). Un espacio vectorial es un conjunto V (no vacío) a cuyos elementos se llaman vectores, dotado de dos operaciones:
suma de vectores: cualquiera dos vectores v y w pueden sumarse para obtener un tercer vector v + w
producto por un escalar: cualquier vector v puede multiplicarse por un escalar, i.e. un elemento de K, a. El producto se denota como av.
que satisfacen las siguientes propiedades o axiomas (u, v, w son vectores arbitrarios de V, y a, b son escalares, respectivamente):
Propiedad asociativa de la suma
u + (v + w) = (u + v) + w
Propiedad conmutativa de la suma
v + w = w + v
Existencia de elemento neutro o nulo de la suma
Existe un elemento 0 ∈ V, llamado vector cero o nulo, de forma que v + 0 = v para todo v ∈ V.
Existencia de elemento opuesto o simétrico de la suma
Para todo v ∈ V, existe un elemento -v ∈ V, llamado opuesto de v, de forma que v + (-v) = 0.
Propiedad distributiva del producto por un escalar respecto a la suma de vectores
a (v + w) = a v + a w
Propiedad distributiva del producto por un vector respecto a la suma de escalares
(a + b) v = a v + b v
Propiedad asociativa mixta del producto por un escalar
a (b v) = (ab) v[nb 1]
Existencia de elemento unidad del producto por un escalar
1 v = v, donde 1 es la identidad multiplicativa en K
Hay una serie de propiedades que se demuestran fácilmente a partir de los axiomas del espacio vectorial. Algunas de ellas se derivan de la teoría elemental de grupos, aplicada al grupo (aditivo) de vectores: por ejemplo, el vector nulo 0 Є V, y el opuesto -v de un vector v son únicos. Otras propiedades se pueden derivar de la propiedad distributiva, por ejemplo, la multiplicación por el escalar cero da el vector nulo y ningún otro escalar multiplicado por un vector da cero:
Propiedad
Unicidad del vector nulo
Unicidad del opuesto de un vector
Producto por el escalar cero
0 v = 0. El 0 es el único escalar que cumple esta propiedad.
Producto de un escalar por el vector nulo
a 0 = 0
Opuesto del producto de un vector por un escalar
- (a v) = (-a) v = a (-v)
Definición 1. (Espacio vectorial)
Decimos que un conjunto no vacío V es un espacio vectorial sobre un cuerpo K, o K-espacio
vectorial, si en él se han definido dos operaciones, una interna y otra externa, llamadas respectivamente suma y producto por un escalar que pasamos a describir.
(S1) Asociativa: (u + v) + w = u + (v + w) 8u, v,w 2 V .
(S2) Conmutativa: u + v = v + u 8u, v 2 V .
(S3) Existencia de elemento neutro: 9¯0 2 V tal que ¯0 + v = v +¯0 = v 8v 2 V
(S4) Existencia de elemento opuesto: 8v 2 V existe otro vector −v 2 V tal que v + (−v) =¯0.
y tiene las propiedades:
(M1) a(u + v) = au + av para todo a 2 K y para todo par de vectores u, v 2 V .
(M2) (a + b)u = au + bu para todo par de escalares a, b 2 K y para todo u 2 V .
(M3) a(bu) = (ab)u para todo u 2 V y a, b 2 K.
(M4) 1u = u para todo u 2 V , donde 1 es la unidad para el producto en K.
Observación 1. De las propiedades enunciadas se deducen las siguientes:
1. 0u =¯0, 2. a¯0 =¯0, 3. Si au =¯0, entonces a = 0 ó u =¯0, 4. (−a)u = a(−u) = −(au).
Ejemplo 1. Espacios vectoriales.
Un subconjunto W del espacio vectorial V es un subespacio vectorial de V si cumple:
i) W es cerrado para la suma: si u, v 2 W, entonces u + v 2 W.
ii) W es cerrado para el producto por escalares: si u 2 W y a 2 K, entonces au 2 W.
iii) au + bv 2 W para todo u, v 2 W y a, b 2 K.
Observación 2. 1. Si W es un subespacio vectorial de V , entonces ¯0 2 W.
Diremos que un vector v 2 V es combinación lineal de la familia S = {v1, . . . , vm} V si v =
a1v1 + · · · + amvm con ai 2 K para todo i = 1, . . . ,m.
Sea S un subconjunto del espacio vectorial V y sea L(S) el conjunto formado por todas las combinaciones lineales de elementos de S.
L(S) = {a1v1 + · · · + amvm tal que m 2 N, vi 2 S, ai 2 K, i = 1, . . . ,m}
Al conjunto L(S) se le llama envolvente lineal de S o subespacio generado por S y es el menor
subespacio vectorial de V que contiene al conjunto S, esto es, si S W, con W un subespacio
vectorial de V , entonces L(S) W.
Sea V un K-espacio vectorial y sean v1 . . . , vm 2 V . Se dice que la familia de vectores S =
{v1, . . . , vm} es linealmente dependiente si existen a1, . . . , am 2 K, no todos nulos, tales que
a1v1 + a2v2 + · · · + amvm =¯0
a1v1 + a2v2 + · · · + amvm =¯0, entonces a1 = · · · = am = 0. Esto equivale a decir que ningún vector de S se puede poner como combinación lineal del resto.
Observación 3. 1. {v1} es l.i. (linealmente independiente) si y sólo si v1 6=¯0.
2. Si {v1, . . . , vm} es l.d. (linealmente dependiente), entonces
{v1, . . . , vm, vm+1, . . . , vm+r}
también es l.d..
3. Si {v1, . . . , vm, vm+1, . . . , vm+r} es l.i., entonces {v1, . . . , vm} es l.i..
Definición 5. (Sistema de generadores)
Un conjunto de vectores S V es un sistema de generadores del espacio vectorial V si L(S) = V .
Propiedades.
1. Si S = {v1, . . . , vm} es un sistema de generadores de V , con vi combinación lineal de los restantes
vectores, entonces {v1, . . . , vi−1, vi+1, . . . , vm} es también un sistema de generadores de V .
2. Si {v1, . . . , vm} son l.i., entonces cualquier sistema de generadores de V tendrá, al menos, m
elementos.
Ejemplo 5. Sistemas de generadores.
Definición 6. (Base)
Una familia de vectores B V es una base del espacio vectorial V si es linealmente independiente
y sistema de generadores de V .
Si V admite una base finita B = {v1, . . . , vn} de n vectores, lo llamaremos espacio vectorial de
dimensión finita. Diremos que la dimensión de V es n, dim(V ) = n.
2
Propiedades. Sea V un espacio vectorial de dimensión finita n. Entonces:
1. Cada vector v 2 V se podrá escribir de modo único como combinación lineal de los elementos de
cualquier base.
2. (Teorema de la base) Todas las bases de V tienen n vectores.
3. (Teorema de ampliación de la base) Sea S = {v1, . . . , vm} una familia de vectores l.i. de V .
Entonces S se puede ampliar a otra {v1, . . . , vm, vm+1, . . . , vn} que es una base de V .
4. Si S = {v1, . . . , vn} son n vectores de V linealmente independientes, entonces son también base
de V .
5. Si S = {v1, . . . , vm} contiene más de n vectores, S es linealmente dependiente.
6. Si S = {v1, . . . , vm} es sistema de generadores de V , cualquier número máximo de vectores
linealmente independientes de S es base de V .
7. Una familia de vectores S = {v1, . . . , vm} V es base de un subespacio vectorial W V si S es
linealmente independiente y L(S) = W.
Ejemplo 6. Bases.
1.3. SUBESPACIO GENERADO POR LAS FILAS DE UNA MATRIZ. OBTENCIÓN
DE LA BASE DE UNA ENVOLVENTE LINEAL.
Sea A 2 Mm×n(K). Las filas de A,
A1 = (a11, . . . , a1n), . . . ,Am = (am1, . . . , amn)
pueden verse como vectores de Kn y, por tanto, podemos decir que generan un subespacio de Kn
llamado espacio fila de A y que denotamos por F(A), esto es,
F(A) = L(A1, . . . ,Am)
Propiedades.
1. Si al realizar operaciones elementales sobre las filas de A obtenemos una nueva matriz B, entonces
F(A) = F(B).
2. Si E es una matriz escalonada asociada a A, entonces los vectores fila no nulos de E son base de
F(A) = F(E).
3. Para saber si dos subespacios engendrados por dos familias de vectores de Kn son iguales basta
ver si las dos matrices cuyas filas son las coordenadas de los vectores de las dos familias dan lugar
a la misma matriz escalonada reducida.
4. El rango de una matriz A 2 Mm×n(K) coincide con el número máximo de vectores fila l.i. (la
dimensión de F(A)), y con el número máximo de vectores columna l.i.
Ejemplo 7. Obtención de la base de una envolvente lineal.
1.4. ECUACIONES CARTESIANAS Y PARAMÉTRICAS DE UN SUBESPACIO.
Dado un sistema homogéneo de m ecuaciones con n incógnitas (I) A¯x = ¯0, con A 2 Mm×n(K), y
dado el conjunto W = {soluciones de (I)}, a (I) lo llamaremos ecuaciones cartesianas (o implícitas) de
W.
Propiedades.
1. W es un subespacio vectorial de Kn con dim(W) = n − r siendo r el rango de A.
3
2. El sistema homogéneo (II) B¯x = ¯0 con B una matriz obtenida de A mediante operaciones
elementales sobre las filas es equivalente a (I), esto es, tiene las mismas soluciones. Reduciremos
el problema de resolver (I) al de resolver (II) E¯x =¯0 con E una matriz escalonada asociada a A.
Ejemplo 8. Sistemas homogéneos. Sistemas equivalentes.
Sea W un subespacio vectorial de Kn con dim(W) = m n y sea BW = {w1, . . . ,wm} una base
de W con wi = (a1i, a2i, . . . , ani) para i = 1, . . . ,m. Entonces cualquier vector x = (x1, . . . , xn) 2 W
se escribe como (x1, . . . , xn) = 1(a11, . . . , an1) + · · · + m(a1m, . . . , anm).
Si igualamos las coordenadas, quedan las ecuaciones paramétricas de W
8>
<>
:
x1 = a111 + a122 + · · · + a1mm
...
xn = an11 + an22 + · · · + anmm
Como vemos, a partir de una base de W obtenemos automáticamente las ecuaciones paramétricas.
Veamos con unos ejemplos cómo pasar de las ecuaciones paramétricas a las implícitas y a la inversa.
Ejemplo 9. Ecuaciones paramétricas y cartesianas.
1.5. SUMA E INTERSECCIÓN DE SUBESPACIOS. SUMA DIRECTA.
Definición 7. (Intersección de subespacios vectoriales)
Sean U y W subespacios vectoriales de V . La intersección de U y W, U \W, es el conjunto
U \W = {v 2 V tal que v 2 U y v 2 W}
Propiedades.
1. U \ W es un subespacio vectorial de V . En general, tendremos que la intersección de cualquier
familia de subespacios vectoriales de V , Ti Ui, es un subespacio vectorial de V .
2. Si U y W son subespacios vectoriales de Kn, las ecuaciones cartesianas de U \ W serán las
ecuaciones resultantes de unir las de U y las de W.
Ejemplo 10. Intersección de subespacios vectoriales. Ecuaciones.
Definición 8. (Suma de subespacios vectoriales)
Dados U,W subespacios vectoriales de V , llamamos suma de U y W, denotada por U + W, al
conjunto
U +W = {u + w tal que u 2 U,w 2 W}
Propiedades.
1. U + W es un subespacio vectorial de V que contiene al conjunto U [ W. De hecho, es el menor
subespacio vectorial que contiene a U [W, esto es, U +W = L(U [W).
2. De manera análoga se puede definir la suma de cualquier familia de subespacios vectoriales {Ui} de V como Pi Ui = L(Si Ui).
3. (Fórmula de las dimensiones) Si V es de dimensión finita y U,W son subespacios vectoriales
suyos, entonces dim(U +W) = dim(U) + dim(W) − dim(U \W).
Ejemplo 11. Suma de subespacios vectoriales. Ecuaciones.
4
Definición 9. (Suma directa de dos subespacios)
Un espacio vectorial V es suma directa de los subespacios U,W, escrito V = UW, si U \W = {¯0 } y V = U +W.
Es fácil probar que V = U W si y sólo si cada vector v 2 V se escribe de modo único como
v = u + w para ciertos u 2 U y w 2 W.
Ejemplo 12. Suma directa.
También es posible definir la suma directa para más de dos subespacios vectoriales. Decimos que V
es suma directa de los subespacios vectoriales U1, . . . ,Un, escrito V = U1U2· · ·Un, si todo vector
v 2 V se puede escribir de modo único como v = u1 +u2 +· · ·+un con ui 2 Ui para todo i = 1, . . . , n.
De manera equivalente, V = U1 U2 · · · Un si:
1. V = L(U1 [ · · · [ Un) y
2. Ui \Pj6=i Uj = {¯0 }.
1.6. COORDENADAS Y CAMBIO DE BASE.
A continuación desarrollamos la herramienta que nos permitirá trabajar en un K-espacio vectorial
V de dimensión finita n como si estuvieramos en Kn.
Definición 10. (Coordenadas de un vector respecto de una base)
Dado un K-espacio vectorial V de dimensión finita n y dada una base B = {e1, . . . , en}, cada vector
x 2 V tiene una única expresión en función de los vectores de B de la forma
x = x1e1 + · · · + xnen
Llamaremos a (x1, . . . , xn) 2 Kn coordenadas de x respecto de la base B y lo representaremos por
xB = (x1, . . . , xn).
Propiedades. Sea V un K-espacio vectorial de dimensión finita n y sea B una base de V . Si x, y 2
V tienen coordenadas (x1, . . . , xn) e (y1, . . . , yn) respecto de B, esto es, xB = (x1, . . . , xn), yB =
(y1, . . . , yn), entonces:
1. [x + y]B = (x1 + y1, . . . , xn + yn).
2. [ax]B = (ax1, . . . , axn).
3. Dado un conjunto de vectores S = {v1, . . . , vr} de V , tendremos que S es l.i., l.d., sistema de
generadores o base de V si y sólo si lo son sus vectores de coordenadas respecto de B en Kn.
Ejemplo 13. Coordenadas.
Dado un espacio vectorial V de dimensión finita n y dadas dos bases distintas
B = {e1, . . . , en} y B0 = {e01, . . . , e0n}
queremos determinar la relación entre las coordenadas de un mismo vector x respecto de las dos bases.
Consideremos las coordenadas de los vectores de B0 en la base B:
e01 = a11e1 + a21e2 + · · · + an1en
...
e0n = a1ne1 + a2ne2 + · · · + annen
5
Sea x 2 V con coordenadas xB = (x1, . . . , xn) y xB0 = (x01, . . . , x0n) respecto de las bases B y B0,
esto es,
x1e1 + · · · + xnen = x = x01e01 + · · · + x0ne0n
Entonces
x1e1 + · · · + xnen = x01(a11e1 + · · · + an1en) + · · · + x0n(a1ne1 + · · · + annen)
Reordenando términos queda
x1e1 + · · · + xnen = (a11x01 + · · · + a1nx0n)e1 + · · · + (an1x01 + · · · + annx0n)en
De modo que
8>
<>
:
x1 = a11x01 + · · · + a1nx0n
...
xn = an1x01 + · · · + annx0n
Estas son las ecuaciones de cambio de base de B0 a B. Si P es la matriz
P =0B@
a11 · · · a1n
...
. . .
...
an1 · · · ann
1CA
entonces tenemos que xB = PxB0 , esto es,
0B@
x1
...
xn
1CA
=0B@
a11 · · · a1n
...
. . .
...
an1 · · · ann
1CA
0B@
x01...
x0n
1CA
Decimos que ésta es la ecuación matricial del cambio de base. A la matriz P se la llama matriz de
cambio de base de B0 a B o matriz de paso, escribiéndose P = M(B0,B), y nos permite determinar las
coordenadas de un vector x en la base B a partir de sus coordenadas en la base B0. Obsérvese que las
columnas de P son las coordenadas de los vectores de B0 respecto de B. Además, P es regular y por
tanto xB0 = P−1xB, fórmula que nos da las coordenadas de un vector x en la base B0 a partir de sus
coordenadas en la base B. Escribimos P−1 = M(B,B0)
Ejemplo 14. Cambio de base.
6
Si tenemos una base en V,podemos pasar a partir de ella a una base que es ortonormal . El proceso que se sigue es el siguiente: Comenzamos con un vector de la base , dividimos por su norma y ya lo tenemos de norma 1.
Consideramos ahora otro vector de la base, V2 y tomamos uno ortogonal a. Por definición
sábado, 18 de abril de 2009
En lo que sigue consideraremos como una matriz cuadrada de orden n; Fi y Cj una fila y una columna cualesquiera de esa matriz. El determinante de una matriz lo podemos ver como una función de sus filas
o de sus columnas
Las propiedades mas importantes de los determinantes son:
1. El determinante de una matriz cuadrada es igual al determinante de su matriz traspuesta.
2. Si los elementos de una línea o columna de una matriz se multiplican por un número, el determinante de la matriz queda multiplicado por dicho numero:
3. Si todas las lineas de una matriz de orden están multiplicadas por un mismo número el determinante de la matriz queda multiplicado por
4.
5. El determinante del producto de dos matrices cuadradas es igual al producto de los determinantes de ambas matrices:
6. Si en una matriz cuadrada se permutan dos lineas, su determinante cambia de signo:
7. Si una línea de una matriz cuadrada es combinacion lineal de las lineas restantes, es decir, es el resultado de sumar los elementos de otras lineas multiplicadas por números reales, su determinante es cero. Consecuencia inmediata de esta propiedad es que si una matriz tiene una línea de ceros su determinante es cero.
8. Si a los elementos de una línea de una matriz cuadrada se les suma una combinacion lineal de las líneas restantes, su determinante no varia.
El metodo de Chío consiste en hacer cero el mayor número posible de elementos de una línea utilizando las propiedad anterior de los determinantes y posteriormente desarrollar el determinante por los adjuntos de los elementos de esa linea en la que hemos hecho ceros.
Si en una matriz cuadrada es:
aij = 0 , "i esmenor que j
se dice que la matriz es triangular superior.
La que sigue es una matriz triangular superior de orden 4:
aij = 0 , "i>j
se dice que la matriz es triangular inferior.
La que sigue es una matriz triangular inferior de orden 4:
Se llama matriz diagonal a toda matriz que es simultáneamente triangular superior y triangular inferior.
Es inmediato que, en una matriz diagonal, es
aij = 0 , "i¹j .
El siguiente es un ejemplo de matriz diagonal:
d11=d22=d33= ... = dii= k , siendo k un escalar.
Este es un ejemplo de matriz escalar:
La matriz inversa
Sabemos ya multiplicar matrices y hemos visto algunas de las propiedades de esta operacion.
Recordemos, en primer lugar, que no siempre es posible efect´uar la multiplicacion de dos matrices, y en segundo lugar, que aunque sea posible hacer esta multiplicacion, en general no es conmutativo, es decir A·B es distinto de B·A.
En el caso particular de que tratemos con matrices cuadradas del mismo orden A y B, es claro que podemos efectuar los productos A·B y B·A, que daran como resultado otra matriz del mismo orden, aunque, como ya se ha dicho, las matrices resultantes seran, en general, distintas.
Sabemos tambien que el elemento neutro del producto de matrices es la matriz identidad In.
Por analogıa con el caso de los numeros reales, podemos plantearnos la siguiente cuestion:
Si tenemos un numero real, por ejemplo el 2, podemos interesarnos en buscar el inverso del 2 para el producto, es decir un n´umero real x tal que 2·x = 1, el producto de 2 por x sea igual al elemento neutro, el 1.
Evidentemente, en el caso de los n´umeros reales es bien facil despejar x para obtener, en nuestro caso, que x = 1/2, es decir, el inverso de un numero real es otro numero que multiplicado por el da el elemento neutro, el 1.
Todo numero real, salvo el 0, tiene inverso.
Trasladando esto a las matrices, nos podemos plantear si dada una matriz cuadrada A de orden n, cualquiera, existe su inversa X para el producto de matrices,tal que
A ・ X = In
es decir, el producto de A por su inversa produce el elemento neutro matricial, la matriz identidad In.
Sin embargo, hay algunas diferencias con respecto al caso de los numeros reales:
1) No podemos “despejar” la matriz X del modo X = In /A , porque no hemos definido la division de matrices.
2) No todas las matrices cuadradas no nulas tienen matriz “inversa” (sea lo que sea, por analogıa
con los numeros).
Definamos, en primer lugar, el termino de matriz inversa:
Dada una matriz cuadrada de orden n , A, se dice que A es invertible (o que posee inversa o que es no singular o que es regular ), si existe otra matriz del mismo orden, denominada matriz inversa de A y representada por A−1 y tal que:
A ・ A−1 = In y A−1 ・ A = In
Si A no tiene inversa, se dice que es singular o no invertible.
Abreviadamente suele expresarse en la forma A =(aij), con i =1, 2, ..., m, j =1, 2, ..., n. Los subíndices indican la posición del elemento dentro de la matriz, el primero denota la fila (i) y el segundo la columna (j). Por ejemplo el elemento a25 será el elemento de la fila 2 y columna 5.
Dos matrices son iguales cuando tienen la misma dimensión y los elementos que ocupan el mismo lugar en ambas son iguales.
Una matriz es un arreglo de los coeficientes constantes de un sistema de ecuaciones lineales.Para el acomodo de dichos coeficientes se toma como filas y columnas, y las coordenadas o lugares donde se encuentran cada cantidad se empiezan a numerar desde 1,1 o sea, fila 1, columna 1.Las matrices pueden ser cuadradas o rectangulares, son cuadradas cuando el numero de filas y columnas es el mismo, y son rectangulares cuando son diferentes.
Como se puede ver, la matriz resultante tiene en su posicion 1,1 la suma de la posicion 1,1 de la primera matriz mas la 1,1 de la segunda, y asi se van poniendo todas las sumas de las posiciones, y es todo lo que hay que decir acerca de la suma de matrices.
Multiplicacion de matrices
La multiplicacion de matrices es un poco mas complicada.La regla aqui es que el numero de columnas de la primera matriz sea igual al numero de filas de la segunda, esto es, que se puede hacer una multiplicacion de una matriz 2x3 por una de 3x5, y la matriz resultante tiene el numero de filas de la primer matriz y las columnas de la segunda, por lo que quedaria una matriz de 2x5.Ademas, a diferencia de la suma y la resta, la multiplicacion no es posicion por posicion, sino que se hace de la siguiente manera:Se toma la primera fila de la primer matriz y la primer columna de la segunda matriz, y lo que se hace es multiplicar una posicion de fila por una de columna:
En el ejemplo de arriba se multiplica una matriz de 2x3 por una de 3x1, y se toma la primera fila de la primer matriz, o sea 2,4,6 y la primer columna de la otra, o sea -5,-7,6, y la resultante toma las filas de la primera, o sea 2 y las columnas de la segunda, o sea 1, y quedan 2 lugares solamente.Se llenan haciendo la multiplicacion (2x-5) + (4x-7) + (6*6) o sea posicion de fila por posicion de columna.Despues si la segunda matriz tuviera mas columnas, se pasa a la siguiente, y sin cambiar de fila en la primera se vuelve a hacer la multiplicacion y las sumas hasta que se acaben las columnas de la segunda matriz.Ya que se acabaron las filas de la segunda, se pasa a la siguiente fila en la primera y se empieza de nuevo: (-1x-5) + (3x-7) + (9x6) y se pone en el segundo lugar de la matriz, en este caso el unico que queda, pero si hubiera mas columnas se va llenando hasta que se completen las columnas y luego se baja a la siguiente fila.Asi se sigue hasta que se acaben las filas de la primer matriz.