viernes, 11 de septiembre de 2009

domingo, 9 de agosto de 2009

THE UNDERTAKER



Nombre Real : Mark Callaway

Altura : 6'10"

Peso : 328 lbs

Fecha de Ncimiento : 24 de Marzo de 1965

Ciudad de Nacimiento : Las Vegas, NV

Lucha desde : 1989

Movimiento Final : The Tombstone



TÍTULOS QUE HA TENIDO

Campeón mundial de la USWA

Campeón de Texas de la USWA

Campeón Mundial 3 veces de la WWF

Campeón en parejas 3 veces de la WWF


El comienzo del Undertaker



En 1989 Mark comprendió que que él quiso volverse un luchador, él encontró un lugar para entrenar. Después de algunos meses de entrenamiento duro, Mark empezó luchando en la USWA, donde él era llamado "The Master of Pain". El "Master of Pain" se estableció como luchador y derrotó a Jerry Lawler por el Título Mundial de la USWA , pero él no pudo retenerlo por mucho tiempo.

Cuando Jerry Lawler recobró el título, Mark siguió a Dallas en la USWA, donde era conocido como "Texas Red", pero ese gimnick no duró, y fue reemplazado por el "Masked Punisher" ("El Castigador enmascarado). Como el Castigador, Mark pudo ganar el título de texas de la USWA, pero esa victoria se terminó pronto cuando Kerry von Erich le ganó. Mark dejó esa federación para lanzarse al estrellato en la WCW.


NWA / WCW



En 1989 Mark, hizo su debut hizo en la NWA/WCW, ahora bajo la identidad de Mark Callous. Poco después de su debut, se unió con Dan Spivey y formaron los "Skycrapers" (Los Rascacielos). Mark tomó el lugar del Sid que fue lesionado en un momento.


Mark se volvió a poner entonces en la competición individual, donde es mas aceptado y derrota a luchadores tales como Johnny Ace y Brian Pillman. Mark también consiguió una oportunidad al título de los EE.UU de la NWA , el cual estaba siendo defendido por el "Paquete completo" Lex Luger, pero Mark no lo pudo derrotar, por suerte para Mark, su contrato terminó y él se unió a la WWF.

LA WWF



En la Serie de los Sobrevivientes de 1990, Mark hizo su debut como "The Undertaker". El Enterrador fue manejado por Brother Love, y fue compañero para el "Million Team", traído a la WWF por Ted DiBiase para reforzar su grupo. Todos estában mirándolo fijamente cuando él hizo su entrada al cuadrilatero con sus movimientos robóticos lentos.
Durante la lucha, el Enterrador demostró que no podía sentir dolor, y rápidamente eliminó a Koko B. Ware y Dusty Rhodes. Pero la Serie del Sobreviviente le sirvió al Enterrador para darse cuanta de que en poco tiempo sería una superestrella.


En 1991, el Enterrador asumió a un nuevo manager que lo entendió mucho mejor, era el empresario de una funeraria, Paul Bearer. Juntos destruyeron a Tugboat, el Big Bossman, Jimmy Snuka, y Jim Duggan, después de una victoria la pareja impar puso al antagonista en una "bolsa de muertos". También durante este periodo Paul Bearer empezó a traer una urna al cuadrilatero que hacían creer que el Enterrador sacaba sus poderes desde la urna. El Enterrador estaba listo para cosas más grandes y mejores.

Paul Bearer y el Enterrador entonces fijaron sus miradas en el título mundial de la WWF, Hulk Hogan en esos momentos era el dueño del cetro. La lucha pasó a la Serie de los Sobrevivientes de 1991, donde Hogan usó todos los movimientos de su repertorio para ganarle al Enterrador, pero el Enterrador, con un poco la ayuda de Ric Flair que tiró una silla al cuadrilatero, logró ganarle el título mundial de la WWF por primera vez .

Al parecer la WWF no estaba bastante lista para tener al Enterrador como su campeón, por esto se proclamó a una polémica lucha, un rematch 6 días después en un PPV llamado "Tuesday in Texas". La lucha fue así polémica porque Ric Flair de nuevo mostró su cara, cuando trató nuevamente lo que hizo en la primera lucha, esta vez no le resultó, esta vez el Undertaker resultó con un silletazo en la cabeza y Hogan ganó la lucha.

Otro gran enemigo de del Undertaker fue el casi 8 pies de alto "Giant Gonzalez". Durante el Royal Rumble, Gonzalez limpió el ring y le hizo la Chokeslam al Enterrador. Éste era sólo el principio de un gran odio entre los dos. El Gigante Gonzalez es, por opinion de muchos, uno de los peores luchadores que ha pisado el cuadrilatero.

El Enterrador y Gonzalez se enfrentaron en WrestleMania IX en su primera lucha que acabó con una victoria por descalificación para el Undertaker cuando Gonzalez usó un paño con cloroformo en el Enterrador.



Otro gran enemigo en la vida del Enterrador fue Mankind, todo empezó en una lucha en Raw is War del Undertaker con Bradshaw,el Enterrador fue atacado por Mick Foley (Cactus Jack). Aquí empezó el odio en 1996. Mankind se unió con Goldust y juntos los dos trataron de vencer al Undertaker.

El Enterrador fue programado para tener una "Lucha de Ataúd" con Goldust. Cuándo la "lucha de la ataúd" tuvo lugar, en el "In Your House 10" y el Enterrador estaba a punto de abrir el ataúd, para que pudiera poner a Goldust en él, ¿Quién creen que estaba dentro del ataúd?, Mankind quien le puso el "Garfio Mandibular" al Enterrador y lo puso en el ataúd.

En "King of the Ring" 1996, el Undertaker y Mankind se encontraron por primera vez en una lucha, la lucha acabó cuando Paul Bearer "accidentalmente" golpeó al Undertaker con la "copa", eso fue el comienzo de una nueva historia en contra de Paul Berer.

El Enterrador y Mankind pelearon denuevo en Summerslam en una lucha de calderas, el objetivo de la lucha era recuperar la copa de Paul Bearer que estaba de pie en el centro del cuadrilatero. La lucha fue violenta, pero cuando el Enterrador llegó al cuadrilatero y estaba a punto de conseguir la copa, Paul Bearer golpeó al Enterrador con la copa. Berer se había puesto de acuerdo con Mankind y había dejado al Undertaker.

Más adelante se fijó una lucha "Enterrado Vivo" (Buried Alive Match). Fue su tercer encuentro con Mankind donde el objetivo de la lucha era echar al enemigo en la tumba y cavar con pala la tierra sobre él. El Undertaker ganó la lucha, pero fue atacado por el nuevo protegido de Paul Berer, "The Executioner (Terry Gordy), quién puso al Enterrador en la tumba y junto con algunos de los otros luchadores taparon la tumba. El PPV estaba casi por acabar cuando un relámpago golpeó sobre la tumba del Undertaker y la mano del Enterrador surgió de la tumba.


En la actualidad, el Enterrador es quizás el más imponente que la Federación nunca ha visto. "El Hombre del Lado Oscuro" se ha tornado más oscuro a partir de la formación del "Ministerio Corporativo", un grupo que también incluye Shane McMahon. Gracias a su alianza con Shane, el Undertaker derrotó a Austin por el Campeonato de la Federación en Mayo.


Hasta abril, la "Corporación" y el "Ministerio de la Oscuridad" existieron como entidades separadas en la Federación de la WWF. Pero las dos tenían una meta común: tomar el mando de la Federación de Vince McMahon. El Undertaker es el líder del Ministerio, y Shane McMahon, el líder de la Corporación. Él se ha transformado en un poder aterrador. Él promete que su Ministerio Corporativo dominará todos aquéllos que lo reprimen y hasta ahora él lo ha cumplido.



sábado, 8 de agosto de 2009

BABIES EN CARROS

NECAXA EN LA LIGA DE ASCENSO

SUPER CARRO

PARA TODA LA BANDA QUE LE GUSTA
LA MOTA

PARA TODOS LOS AFICIONADOS DEL NECAXA POR QUE DENTRO DE UNAÑO VOLVEMOS

domingo, 17 de mayo de 2009

Espacio vectorial



Un espacio vectorial es un conjunto de objetos (llamados vectores) que pueden escalarse y sumarse.
Un espacio vectorial (o espacio lineal) es el objeto básico de estudio en la rama de la matemática llamada álgebra lineal. A los elementos de los espacios vectoriales se les llama vectores. Sobre los vectores pueden realizarse dos operaciones: escalarse (multiplicarlos por un escalar) y sumarse. Estas dos operaciones se tienen que ceñir a un conjunto de axiomas que generalizan las propiedades comunes de las tuplas de números reales así como de los vectores en el espacio euclídeo. Un concepto importante es el de dimensión.
Los espacios vectoriales tienen aplicaciones en otras ramas de la matemática, la ciencia y la ingeniería. Se utilizan en métodos como las series de Fourier, que se utiliza en las rutinas modernas de compresión de imágenes y sonido, o proporcionan el marco para resolver ecuaciones en derivadas parciales. Además, los espacios vectoriales proporcionan una forma abstracta libre de coordenadas de tratar con objetos geométricos y físicos, tales como tensores, que a su vez permiten estudiar las propiedades locales de variedades mediante técnicas de linealización.
Definición formal

La definición de un espacio vectorial requiere de un cuerpo de escalares K (como el cuerpo de los números reales o el cuerpo de los números complejos). Un espacio vectorial es un conjunto V (no vacío) a cuyos elementos se llaman vectores, dotado de dos operaciones:
suma de vectores: cualquiera dos vectores v y w pueden sumarse para obtener un tercer vector v + w
producto por un escalar: cualquier vector v puede multiplicarse por un escalar, i.e. un elemento de K, a. El producto se denota como av.
que satisfacen las siguientes propiedades o axiomas (u, v, w son vectores arbitrarios de V, y a, b son escalares, respectivamente):
Propiedad
Propiedad asociativa de la suma
u + (v + w) = (u + v) + w
Propiedad conmutativa de la suma
v + w = w + v
Existencia de elemento neutro o nulo de la suma
Existe un elemento 0 ∈ V, llamado vector cero o nulo, de forma que v + 0 = v para todo v ∈ V.
Existencia de elemento opuesto o simétrico de la suma
Para todo v ∈ V, existe un elemento -v ∈ V, llamado opuesto de v, de forma que v + (-v) = 0.
Propiedad distributiva del producto por un escalar respecto a la suma de vectores
a (v + w) = a v + a w
Propiedad distributiva del producto por un vector respecto a la suma de escalares
(a + b) v = a v + b v
Propiedad asociativa mixta del producto por un escalar
a (b v) = (ab) v[nb 1]
Existencia de elemento unidad del producto por un escalar
1 v = v, donde 1 es la identidad multiplicativa en K
Propiedades del espacio vectorial.

Hay una serie de propiedades que se demuestran fácilmente a partir de los axiomas del espacio vectorial. Algunas de ellas se derivan de la teoría elemental de grupos, aplicada al grupo (aditivo) de vectores: por ejemplo, el vector nulo 0 Є V, y el opuesto -v de un vector v son únicos. Otras propiedades se pueden derivar de la propiedad distributiva, por ejemplo, la multiplicación por el escalar cero da el vector nulo y ningún otro escalar multiplicado por un vector da cero:
Propiedad

Unicidad del vector nulo
Unicidad del opuesto de un vector
Producto por el escalar cero
0 v = 0. El 0 es el único escalar que cumple esta propiedad.
Producto de un escalar por el vector nulo
a 0 = 0
Opuesto del producto de un vector por un escalar
- (a v) = (-a) v = a (-v)
1. ESPACIOS VECTORIALES
1.1. ESPACIOS VECTORIALES. SUBESPACIOS VECTORIALES.
Definición 1. (Espacio vectorial)
Decimos que un conjunto no vacío V es un espacio vectorial sobre un cuerpo K, o K-espacio
vectorial, si en él se han definido dos operaciones, una interna y otra externa, llamadas respectivamente suma y producto por un escalar que pasamos a describir.
La suma de dos elementos (o vectores) u, v 2 V da lugar a otro elemento de V que denotamos u+v y tiene las propiedades:
(S1) Asociativa: (u + v) + w = u + (v + w) 8u, v,w 2 V .
(S2) Conmutativa: u + v = v + u 8u, v 2 V .
(S3) Existencia de elemento neutro: 9¯0 2 V tal que ¯0 + v = v +¯0 = v 8v 2 V
(S4) Existencia de elemento opuesto: 8v 2 V existe otro vector −v 2 V tal que v + (−v) =¯0.
El producto de un escalar, o elemento del cuerpo K, por un vector da lugar a otro elemento de V
y tiene las propiedades:
(M1) a(u + v) = au + av para todo a 2 K y para todo par de vectores u, v 2 V .
(M2) (a + b)u = au + bu para todo par de escalares a, b 2 K y para todo u 2 V .
(M3) a(bu) = (ab)u para todo u 2 V y a, b 2 K.
(M4) 1u = u para todo u 2 V , donde 1 es la unidad para el producto en K.
Las primeras cuatro propiedades hacen referencia a la suma de vectores y se resumen diciendo que (V, +) es un grupo conmutativo.

Observación 1. De las propiedades enunciadas se deducen las siguientes:
1. 0u =¯0, 2. a¯0 =¯0, 3. Si au =¯0, entonces a = 0 ó u =¯0, 4. (−a)u = a(−u) = −(au).
Ejemplo 1. Espacios vectoriales.
Definición 2. (Subespacio vectorial)

Un subconjunto W del espacio vectorial V es un subespacio vectorial de V si cumple:
i) W es cerrado para la suma: si u, v 2 W, entonces u + v 2 W.
ii) W es cerrado para el producto por escalares: si u 2 W y a 2 K, entonces au 2 W.
Estas dos condiciones se pueden resumir en una escribiendo:
iii) au + bv 2 W para todo u, v 2 W y a, b 2 K.
Observación 2. 1. Si W es un subespacio vectorial de V , entonces ¯0 2 W.
2. Todo subespacio vectorial W de V tiene asimismo estructura de espacio vectorial con las mismas operaciones que V .
Definición 3. (Combinación lineal)

Diremos que un vector v 2 V es combinación lineal de la familia S = {v1, . . . , vm}  V si v =
a1v1 + · · · + amvm con ai 2 K para todo i = 1, . . . ,m.
Sea S un subconjunto del espacio vectorial V y sea L(S) el conjunto formado por todas las combinaciones lineales de elementos de S.

L(S) = {a1v1 + · · · + amvm tal que m 2 N, vi 2 S, ai 2 K, i = 1, . . . ,m}
Al conjunto L(S) se le llama envolvente lineal de S o subespacio generado por S y es el menor
subespacio vectorial de V que contiene al conjunto S, esto es, si S  W, con W un subespacio
vectorial de V , entonces L(S)  W.

1.2. DEPENDENCIA E INDEPENDENCIA LINEAL. BASES.
Definición 4. (Dependencia e independencia lineal)
Sea V un K-espacio vectorial y sean v1 . . . , vm 2 V . Se dice que la familia de vectores S =
{v1, . . . , vm} es linealmente dependiente si existen a1, . . . , am 2 K, no todos nulos, tales que
a1v1 + a2v2 + · · · + amvm =¯0
o, dicho de otro modo, si existe un vector vi 2 S que se puede poner como combinación lineal del resto.
Se dice que el conjunto de vectores S = {v1, . . . , vm} es linealmente independiente si no es linealmente dependiente, esto es, de ser cierta la igualdad
a1v1 + a2v2 + · · · + amvm =¯0, entonces a1 = · · · = am = 0. Esto equivale a decir que ningún vector de S se puede poner como combinación lineal del resto.
Ejemplo 4. Dependencia e independencia lineal.
Observación 3. 1. {v1} es l.i. (linealmente independiente) si y sólo si v1 6=¯0.
2. Si {v1, . . . , vm} es l.d. (linealmente dependiente), entonces
{v1, . . . , vm, vm+1, . . . , vm+r}
también es l.d..
3. Si {v1, . . . , vm, vm+1, . . . , vm+r} es l.i., entonces {v1, . . . , vm} es l.i..
Definición 5. (Sistema de generadores)
Un conjunto de vectores S  V es un sistema de generadores del espacio vectorial V si L(S) = V .
Propiedades.
1. Si S = {v1, . . . , vm} es un sistema de generadores de V , con vi combinación lineal de los restantes
vectores, entonces {v1, . . . , vi−1, vi+1, . . . , vm} es también un sistema de generadores de V .
2. Si {v1, . . . , vm} son l.i., entonces cualquier sistema de generadores de V tendrá, al menos, m
elementos.
Ejemplo 5. Sistemas de generadores.
Definición 6. (Base)
Una familia de vectores B  V es una base del espacio vectorial V si es linealmente independiente
y sistema de generadores de V .
Si V admite una base finita B = {v1, . . . , vn} de n vectores, lo llamaremos espacio vectorial de
dimensión finita. Diremos que la dimensión de V es n, dim(V ) = n.
2
Propiedades. Sea V un espacio vectorial de dimensión finita n. Entonces:
1. Cada vector v 2 V se podrá escribir de modo único como combinación lineal de los elementos de
cualquier base.
2. (Teorema de la base) Todas las bases de V tienen n vectores.
3. (Teorema de ampliación de la base) Sea S = {v1, . . . , vm} una familia de vectores l.i. de V .
Entonces S se puede ampliar a otra {v1, . . . , vm, vm+1, . . . , vn} que es una base de V .
4. Si S = {v1, . . . , vn} son n vectores de V linealmente independientes, entonces son también base
de V .
5. Si S = {v1, . . . , vm} contiene más de n vectores, S es linealmente dependiente.
6. Si S = {v1, . . . , vm} es sistema de generadores de V , cualquier número máximo de vectores
linealmente independientes de S es base de V .
7. Una familia de vectores S = {v1, . . . , vm}  V es base de un subespacio vectorial W  V si S es
linealmente independiente y L(S) = W.
Ejemplo 6. Bases.
1.3. SUBESPACIO GENERADO POR LAS FILAS DE UNA MATRIZ. OBTENCIÓN
DE LA BASE DE UNA ENVOLVENTE LINEAL.
Sea A 2 Mm×n(K). Las filas de A,
A1 = (a11, . . . , a1n), . . . ,Am = (am1, . . . , amn)
pueden verse como vectores de Kn y, por tanto, podemos decir que generan un subespacio de Kn
llamado espacio fila de A y que denotamos por F(A), esto es,
F(A) = L(A1, . . . ,Am)
Propiedades.
1. Si al realizar operaciones elementales sobre las filas de A obtenemos una nueva matriz B, entonces
F(A) = F(B).
2. Si E es una matriz escalonada asociada a A, entonces los vectores fila no nulos de E son base de
F(A) = F(E).
3. Para saber si dos subespacios engendrados por dos familias de vectores de Kn son iguales basta
ver si las dos matrices cuyas filas son las coordenadas de los vectores de las dos familias dan lugar
a la misma matriz escalonada reducida.
4. El rango de una matriz A 2 Mm×n(K) coincide con el número máximo de vectores fila l.i. (la
dimensión de F(A)), y con el número máximo de vectores columna l.i.
Ejemplo 7. Obtención de la base de una envolvente lineal.
1.4. ECUACIONES CARTESIANAS Y PARAMÉTRICAS DE UN SUBESPACIO.
Dado un sistema homogéneo de m ecuaciones con n incógnitas (I) A¯x = ¯0, con A 2 Mm×n(K), y
dado el conjunto W = {soluciones de (I)}, a (I) lo llamaremos ecuaciones cartesianas (o implícitas) de
W.
Propiedades.
1. W es un subespacio vectorial de Kn con dim(W) = n − r siendo r el rango de A.
3
2. El sistema homogéneo (II) B¯x = ¯0 con B una matriz obtenida de A mediante operaciones
elementales sobre las filas es equivalente a (I), esto es, tiene las mismas soluciones. Reduciremos
el problema de resolver (I) al de resolver (II) E¯x =¯0 con E una matriz escalonada asociada a A.
Ejemplo 8. Sistemas homogéneos. Sistemas equivalentes.
Sea W un subespacio vectorial de Kn con dim(W) = m  n y sea BW = {w1, . . . ,wm} una base
de W con wi = (a1i, a2i, . . . , ani) para i = 1, . . . ,m. Entonces cualquier vector x = (x1, . . . , xn) 2 W
se escribe como (x1, . . . , xn) = 1(a11, . . . , an1) + · · · + m(a1m, . . . , anm).
Si igualamos las coordenadas, quedan las ecuaciones paramétricas de W
8>
<>
:
x1 = a111 + a122 + · · · + a1mm
...
xn = an11 + an22 + · · · + anmm
Como vemos, a partir de una base de W obtenemos automáticamente las ecuaciones paramétricas.
Veamos con unos ejemplos cómo pasar de las ecuaciones paramétricas a las implícitas y a la inversa.
Ejemplo 9. Ecuaciones paramétricas y cartesianas.
1.5. SUMA E INTERSECCIÓN DE SUBESPACIOS. SUMA DIRECTA.
Definición 7. (Intersección de subespacios vectoriales)
Sean U y W subespacios vectoriales de V . La intersección de U y W, U \W, es el conjunto
U \W = {v 2 V tal que v 2 U y v 2 W}
Propiedades.
1. U \ W es un subespacio vectorial de V . En general, tendremos que la intersección de cualquier
familia de subespacios vectoriales de V , Ti Ui, es un subespacio vectorial de V .
2. Si U y W son subespacios vectoriales de Kn, las ecuaciones cartesianas de U \ W serán las
ecuaciones resultantes de unir las de U y las de W.
Ejemplo 10. Intersección de subespacios vectoriales. Ecuaciones.
Definición 8. (Suma de subespacios vectoriales)
Dados U,W subespacios vectoriales de V , llamamos suma de U y W, denotada por U + W, al
conjunto
U +W = {u + w tal que u 2 U,w 2 W}
Propiedades.
1. U + W es un subespacio vectorial de V que contiene al conjunto U [ W. De hecho, es el menor
subespacio vectorial que contiene a U [W, esto es, U +W = L(U [W).
2. De manera análoga se puede definir la suma de cualquier familia de subespacios vectoriales {Ui} de V como Pi Ui = L(Si Ui).
3. (Fórmula de las dimensiones) Si V es de dimensión finita y U,W son subespacios vectoriales
suyos, entonces dim(U +W) = dim(U) + dim(W) − dim(U \W).
Ejemplo 11. Suma de subespacios vectoriales. Ecuaciones.
4
Definición 9. (Suma directa de dos subespacios)
Un espacio vectorial V es suma directa de los subespacios U,W, escrito V = UW, si U \W = {¯0 } y V = U +W.
Es fácil probar que V = U  W si y sólo si cada vector v 2 V se escribe de modo único como
v = u + w para ciertos u 2 U y w 2 W.
Ejemplo 12. Suma directa.
También es posible definir la suma directa para más de dos subespacios vectoriales. Decimos que V
es suma directa de los subespacios vectoriales U1, . . . ,Un, escrito V = U1U2· · ·Un, si todo vector
v 2 V se puede escribir de modo único como v = u1 +u2 +· · ·+un con ui 2 Ui para todo i = 1, . . . , n.
De manera equivalente, V = U1  U2  · · ·  Un si:
1. V = L(U1 [ · · · [ Un) y
2. Ui \Pj6=i Uj = {¯0 }.
1.6. COORDENADAS Y CAMBIO DE BASE.
A continuación desarrollamos la herramienta que nos permitirá trabajar en un K-espacio vectorial
V de dimensión finita n como si estuvieramos en Kn.
Definición 10. (Coordenadas de un vector respecto de una base)
Dado un K-espacio vectorial V de dimensión finita n y dada una base B = {e1, . . . , en}, cada vector
x 2 V tiene una única expresión en función de los vectores de B de la forma
x = x1e1 + · · · + xnen
Llamaremos a (x1, . . . , xn) 2 Kn coordenadas de x respecto de la base B y lo representaremos por
xB = (x1, . . . , xn).
Propiedades. Sea V un K-espacio vectorial de dimensión finita n y sea B una base de V . Si x, y 2
V tienen coordenadas (x1, . . . , xn) e (y1, . . . , yn) respecto de B, esto es, xB = (x1, . . . , xn), yB =
(y1, . . . , yn), entonces:
1. [x + y]B = (x1 + y1, . . . , xn + yn).
2. [ax]B = (ax1, . . . , axn).
3. Dado un conjunto de vectores S = {v1, . . . , vr} de V , tendremos que S es l.i., l.d., sistema de
generadores o base de V si y sólo si lo son sus vectores de coordenadas respecto de B en Kn.
Ejemplo 13. Coordenadas.
Dado un espacio vectorial V de dimensión finita n y dadas dos bases distintas
B = {e1, . . . , en} y B0 = {e01, . . . , e0n}
queremos determinar la relación entre las coordenadas de un mismo vector x respecto de las dos bases.
Consideremos las coordenadas de los vectores de B0 en la base B:
e01 = a11e1 + a21e2 + · · · + an1en
...
e0n = a1ne1 + a2ne2 + · · · + annen
5
Sea x 2 V con coordenadas xB = (x1, . . . , xn) y xB0 = (x01, . . . , x0n) respecto de las bases B y B0,
esto es,
x1e1 + · · · + xnen = x = x01e01 + · · · + x0ne0n
Entonces
x1e1 + · · · + xnen = x01(a11e1 + · · · + an1en) + · · · + x0n(a1ne1 + · · · + annen)
Reordenando términos queda
x1e1 + · · · + xnen = (a11x01 + · · · + a1nx0n)e1 + · · · + (an1x01 + · · · + annx0n)en
De modo que
8>
<>
:
x1 = a11x01 + · · · + a1nx0n
...
xn = an1x01 + · · · + annx0n
Estas son las ecuaciones de cambio de base de B0 a B. Si P es la matriz
P =0B@
a11 · · · a1n
...
. . .
...
an1 · · · ann
1CA
entonces tenemos que xB = PxB0 , esto es,
0B@
x1
...
xn
1CA
=0B@
a11 · · · a1n
...
. . .
...
an1 · · · ann
1CA
0B@
x01...
x0n
1CA
Decimos que ésta es la ecuación matricial del cambio de base. A la matriz P se la llama matriz de
cambio de base de B0 a B o matriz de paso, escribiéndose P = M(B0,B), y nos permite determinar las
coordenadas de un vector x en la base B a partir de sus coordenadas en la base B0. Obsérvese que las
columnas de P son las coordenadas de los vectores de B0 respecto de B. Además, P es regular y por
tanto xB0 = P−1xB, fórmula que nos da las coordenadas de un vector x en la base B0 a partir de sus
coordenadas en la base B. Escribimos P−1 = M(B,B0)
Ejemplo 14. Cambio de base.
6
Método de ortogonalización de Gram-Schmidt

En matemáticas y análisis numérico, el método de ortogonalización de Gram–Schmidt de álgebra lineal es un método de ortogonalizar un conjunto de vectores en un espacio prehilbertiano, más comunmente el espacio euclídeo Rn. Ortogonalización en este contexto significa lo siguiente: comenzamos con vectores v1,…, vk los cuales son linealmente independientes y queremos encontrar mutuamente vectores ortogonales u1, …, uk los cuales generan el mismo subespacio que los vectores v1, …, vk.

Si tenemos una base en V,podemos pasar a partir de ella a una base que es ortonormal . El proceso que se sigue es el siguiente: Comenzamos con un vector de la base , dividimos por su norma y ya lo tenemos de norma 1.

Consideramos ahora otro vector de la base, V2 y tomamos uno ortogonal a. Por definición



es tal que . Así que podemos tomar como nuevo vector

y resulta ser ortogonal a U1.



Lo normalizamos y ya tiene norma uno

A continuación tomamos

Continuamos este proceso hasta
















sábado, 18 de abril de 2009

Propiedades de los determinantes

En lo que sigue consideraremos como una matriz cuadrada de orden n; Fi y Cj una fila y una columna cualesquiera de esa matriz. El determinante de una matriz lo podemos ver como una función de sus filas


o de sus columnas



Las propiedades mas importantes de los determinantes son:

1. El determinante de una matriz cuadrada es igual al determinante de su matriz traspuesta.


2. Si los elementos de una línea o columna de una matriz se multiplican por un número, el determinante de la matriz queda multiplicado por dicho numero:




3. Si todas las lineas de una matriz de orden están multiplicadas por un mismo número el determinante de la matriz queda multiplicado por



4.







5. El determinante del producto de dos matrices cuadradas es igual al producto de los determinantes de ambas matrices:


6. Si en una matriz cuadrada se permutan dos lineas, su determinante cambia de signo:


7. Si una línea de una matriz cuadrada es combinacion lineal de las lineas restantes, es decir, es el resultado de sumar los elementos de otras lineas multiplicadas por números reales, su determinante es cero. Consecuencia inmediata de esta propiedad es que si una matriz tiene una línea de ceros su determinante es cero.


8. Si a los elementos de una línea de una matriz cuadrada se les suma una combinacion lineal de las líneas restantes, su determinante no varia.

El metodo de Chío consiste en hacer cero el mayor número posible de elementos de una línea utilizando las propiedad anterior de los determinantes y posteriormente desarrollar el determinante por los adjuntos de los elementos de esa linea en la que hemos hecho ceros.
CLASIFICACION DE LAS MATRICES POR SU ORDEN
MATRICES TRIANGULARES

Si en una matriz cuadrada es:

aij = 0 , "i esmenor que j

se dice que la matriz es triangular superior.

La que sigue es una matriz triangular superior de orden 4:

Si en una matriz cuadrada es:

aij = 0 , "i>j

se dice que la matriz es triangular inferior.

La que sigue es una matriz triangular inferior de orden 4:
MATRIZ DIAGONAL

Se llama matriz diagonal a toda matriz que es simultáneamente triangular superior y triangular inferior.

Es inmediato que, en una matriz diagonal, es

aij = 0 , "i¹j .

El siguiente es un ejemplo de matriz diagonal:

MATRIZ ESCALAR
Se llama matriz escalar a toda matriz diagonal en la que:

d11=d22=d33= ... = dii= k , siendo k un escalar.

Este es un ejemplo de matriz escalar:

La matriz inversa

Sabemos ya multiplicar matrices y hemos visto algunas de las propiedades de esta operacion.
Recordemos, en primer lugar, que no siempre es posible efect´uar la multiplicacion de dos matrices, y en segundo lugar, que aunque sea posible hacer esta multiplicacion, en general no es conmutativo, es decir A·B es distinto de B·A.
En el caso particular de que tratemos con matrices cuadradas del mismo orden A y B, es claro que podemos efectuar los productos A·B y B·A, que daran como resultado otra matriz del mismo orden, aunque, como ya se ha dicho, las matrices resultantes seran, en general, distintas.
Sabemos tambien que el elemento neutro del producto de matrices es la matriz identidad In.
Por analogıa con el caso de los numeros reales, podemos plantearnos la siguiente cuestion:
Si tenemos un numero real, por ejemplo el 2, podemos interesarnos en buscar el inverso del 2 para el producto, es decir un n´umero real x tal que 2·x = 1, el producto de 2 por x sea igual al elemento neutro, el 1.
Evidentemente, en el caso de los n´umeros reales es bien facil despejar x para obtener, en nuestro caso, que x = 1/2, es decir, el inverso de un numero real es otro numero que multiplicado por el da el elemento neutro, el 1.
Todo numero real, salvo el 0, tiene inverso.
Trasladando esto a las matrices, nos podemos plantear si dada una matriz cuadrada A de orden n, cualquiera, existe su inversa X para el producto de matrices,tal que
A ・ X = In
es decir, el producto de A por su inversa produce el elemento neutro matricial, la matriz identidad In.
Sin embargo, hay algunas diferencias con respecto al caso de los numeros reales:
1) No podemos “despejar” la matriz X del modo X = In /A , porque no hemos definido la division de matrices.
2) No todas las matrices cuadradas no nulas tienen matriz “inversa” (sea lo que sea, por analogıa
con los numeros).
Definamos, en primer lugar, el termino de matriz inversa:
Dada una matriz cuadrada de orden n , A, se dice que A es invertible (o que posee inversa o que es no singular o que es regular ), si existe otra matriz del mismo orden, denominada matriz inversa de A y representada por A−1 y tal que:
A ・ A−1 = In y A−1 ・ A = In
Si A no tiene inversa, se dice que es singular o no invertible.
Definición de matriz

Se llama matriz de orden m×n a todo conjunto rectangular de elementos aij dispuestos en m líneas horizontales (filas) y n verticales (columnas) de la forma:




Abreviadamente suele expresarse en la forma A =(aij), con i =1, 2, ..., m, j =1, 2, ..., n. Los subíndices indican la posición del elemento dentro de la matriz, el primero denota la fila (i) y el segundo la columna (j). Por ejemplo el elemento a25 será el elemento de la fila 2 y columna 5.
Dos matrices son iguales cuando tienen la misma dimensión y los elementos que ocupan el mismo lugar en ambas son iguales.
Operaciones con Matrices


Una matriz es un arreglo de los coeficientes constantes de un sistema de ecuaciones lineales.Para el acomodo de dichos coeficientes se toma como filas y columnas, y las coordenadas o lugares donde se encuentran cada cantidad se empiezan a numerar desde 1,1 o sea, fila 1, columna 1.Las matrices pueden ser cuadradas o rectangulares, son cuadradas cuando el numero de filas y columnas es el mismo, y son rectangulares cuando son diferentes.
Suma de matrices
La unica regla que hay para la suma de matrices es que ambas tienen que tener el mismo numero de filas y de columnas, y no importa si son rectangulares o cuadradas.Lo que se hace es sumar cada posicion de una matriz con la misma de la otra, por lo que la matriz resultante es una con el mismo numero de filas y columnas que las demas y cuyos valores son la suma de los valore de las otras 2 matrices.Por ejemplo:

+ =


Como se puede ver, la matriz resultante tiene en su posicion 1,1 la suma de la posicion 1,1 de la primera matriz mas la 1,1 de la segunda, y asi se van poniendo todas las sumas de las posiciones, y es todo lo que hay que decir acerca de la suma de matrices.
Resta de matrices

La unica regla que hay para la resta de matrices es que ambas tienen que tener el mismo numero de filas y de columnas, y no importa si son rectangulares o cuadradas.Lo que se hace es restar cada posicion de una matriz con la misma de la otra, por lo que la matriz resultante es una con el mismo numero de filas y columnas que las demas y cuyos valores son la resta de los valore de las otras 2 matrices.Por ejemplo:

- =

El proceso es identico al de la suma, solo que aqui se restan las posiciones, por eso la matriz resultante en su posicion 1,1 tiene la resta de la posicion 1,1 de la primer matriz menos la 1,1 de la segunda.


Multiplicacion de matrices

La multiplicacion de matrices es un poco mas complicada.La regla aqui es que el numero de columnas de la primera matriz sea igual al numero de filas de la segunda, esto es, que se puede hacer una multiplicacion de una matriz 2x3 por una de 3x5, y la matriz resultante tiene el numero de filas de la primer matriz y las columnas de la segunda, por lo que quedaria una matriz de 2x5.Ademas, a diferencia de la suma y la resta, la multiplicacion no es posicion por posicion, sino que se hace de la siguiente manera:Se toma la primera fila de la primer matriz y la primer columna de la segunda matriz, y lo que se hace es multiplicar una posicion de fila por una de columna:

X =


En el ejemplo de arriba se multiplica una matriz de 2x3 por una de 3x1, y se toma la primera fila de la primer matriz, o sea 2,4,6 y la primer columna de la otra, o sea -5,-7,6, y la resultante toma las filas de la primera, o sea 2 y las columnas de la segunda, o sea 1, y quedan 2 lugares solamente.Se llenan haciendo la multiplicacion (2x-5) + (4x-7) + (6*6) o sea posicion de fila por posicion de columna.Despues si la segunda matriz tuviera mas columnas, se pasa a la siguiente, y sin cambiar de fila en la primera se vuelve a hacer la multiplicacion y las sumas hasta que se acaben las columnas de la segunda matriz.Ya que se acabaron las filas de la segunda, se pasa a la siguiente fila en la primera y se empieza de nuevo: (-1x-5) + (3x-7) + (9x6) y se pone en el segundo lugar de la matriz, en este caso el unico que queda, pero si hubiera mas columnas se va llenando hasta que se completen las columnas y luego se baja a la siguiente fila.Asi se sigue hasta que se acaben las filas de la primer matriz.