Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

problemas resuelto de algebra lineal, Ejercicios de Álgebra Lineal

escrita y compartida por otra escuela. solo comparto, esta excelente el documento, contiene problemas que es falcil de comprender.

Tipo: Ejercicios

2017/2018

Subido el 02/06/2018

ELIVER12
ELIVER12 🇲🇽

5

(1)

1 documento

1 / 99

Toggle sidebar

Esta página no es visible en la vista previa

¡No te pierdas las partes importantes!

bg1
PONTIFICIA UNIVERSIDAD CATOLICA DE CHILE
ALGEBRA LINEAL
PROBLEMAS RESUELTOS
Rodrigo Vargas
Santiago de Chile
2007
pf3
pf4
pf5
pf8
pf9
pfa
pfd
pfe
pff
pf12
pf13
pf14
pf15
pf16
pf17
pf18
pf19
pf1a
pf1b
pf1c
pf1d
pf1e
pf1f
pf20
pf21
pf22
pf23
pf24
pf25
pf26
pf27
pf28
pf29
pf2a
pf2b
pf2c
pf2d
pf2e
pf2f
pf30
pf31
pf32
pf33
pf34
pf35
pf36
pf37
pf38
pf39
pf3a
pf3b
pf3c
pf3d
pf3e
pf3f
pf40
pf41
pf42
pf43
pf44
pf45
pf46
pf47
pf48
pf49
pf4a
pf4b
pf4c
pf4d
pf4e
pf4f
pf50
pf51
pf52
pf53
pf54
pf55
pf56
pf57
pf58
pf59
pf5a
pf5b
pf5c
pf5d
pf5e
pf5f
pf60
pf61
pf62
pf63

Vista previa parcial del texto

¡Descarga problemas resuelto de algebra lineal y más Ejercicios en PDF de Álgebra Lineal solo en Docsity!

PONTIFICIA UNIVERSIDAD CATOLICA DE CHILE

ALGEBRA LINEAL

PROBLEMAS RESUELTOS

Rodrigo Vargas

Santiago de Chile 2007

ii

iv

´Indice general

  1. Algebra Lineal Elemental 1
  2. Factorizaciones de Matrices 21
  3. Determinantes 43
  4. Espacios Vectoriales 49
  5. Transformaciones Lineales, Teorema de la Dimensi´on y Cam- bio de Base 61
  6. Bases Ortonormales y Proyecciones 79
  7. Vectores y Valores Propios, Diagonalizaci´on 85

v

Cap´ıtulo 1

Algebra Lineal Elemental

1.1. Se dice que v es combinaci´on lineal convexa de u 1 , u 2 , ..., uk si v = α 1 v 1 + α 2 v 2 + ... + αkvk donde αi ≥ 0, i = 1, ..., k y α 1 + α 2 + ... + αk = 1. Demuestre que si u 4 es combinaci´on convexa de u 1 , u 2 , u 3 y v es combi- naci´on convexa de u 1 , u 2 , u 3 , u 4 entonces v es combinaci´on convexa de u 1 , u 2 , u 3.

Soluci´on: Si u 4 es combinaci´on convexa de u 1 , u 2 , u 3 , entonces u 4 = α 1 u 1 + α 2 u 2 + α 3 u 3 ,

donde

αi = 1 y αi ≥ 0 para i = 1,... , 3. Si v es combinaci´on convexa de u 1 , u 2 , u 3 , u 4 , entonces

v = β 1 u 1 + β 2 u 2 + β 3 u 3 + β 4 u 4 , donde

βi = 1 y βi ≥ 0 para i = 1,... , 4. Luego, v = β 1 u 1 + β 2 u 2 + β 3 u 3 + β 4 u 4 = β 1 u 1 + β 2 u 2 + β 3 u 3 + β 4 (α 1 u 1 + α 2 u 2 + α 3 u 3 ) = (β 1 + β 4 α 1 )u 1 + (β 2 + β 4 α 2 )u 2 + (β 3 + β 4 α 3 )u 3 = γ 1 u 1 + γ 2 u 2 + γ 3 u 3 donde γ 1 = β 1 + β 4 α 1 ≥ 0, γ 2 = β 2 + β 4 α 2 ≥ 0 y γ 3 = β 3 + β 4 α 3 ≥ 0. Adem´as, ∑ γi = γ 1 + γ 2 + γ 3 + γ 4 = β 1 + β 4 α 1 + β 2 + β 4 α 2 + β 3 + β 4 α 3 = β 1 + β 2 + β 3 + β 4 (α 1 + α 2 + α 3 ) = β 1 + β 2 + β 3 + β 4 = 1. Por lo tanto, v es combinaci´on convexa de u 1 , u 2 , u 3.

2 Cap´ıtulo 1. Algebra Lineal Elemental

1.2. Demuestre que si u 1 = 2v 1 + 3v 2 , u 2 = −v 1 + 3v 2 entonces se cumple que: < u 1 , u 2 >=< v 1 , v 2 >.

Soluci´on: Primero probaremos que < u 1 , u 2 > ⊂ < v 1 , v 2 >. Para esto, sea x ∈< u 1 , u 2 > entonces

x = α 1 u 1 + α 2 u 2 = α 1 (2v 1 + 3v 2 ) + α 2 (−v 1 + 3v 2 ) = (2α 1 − α 2 )v 1 + 3(α 1 + α 2 )v 2.

Como x es combinaci´on lineal de los vi’, es claro que x ∈< v 1 , v 2 > y, por lo tanto, hemos probado que

< u 1 , u 2 > ⊂ < v 1 , v 2 >.

Ahora se probar´a que < v 1 , v 2 > ⊂ < u 1 , u 2 >. Notemos que:

u 1 = 2v 1 + 3v 2 ⇒ 3 v 2 = u 1 − 2 v 1

y u 2 = −v 1 + 3v 2 ⇒ 3 v 2 = u 2 + v 1. Igualando obtenemos que

u 1 − 2 v 1 = u 2 + v 1 3 v 1 = u 1 − u 2 v 1 =

(u 1 − u 2 ).

Despejando obtenemos

v 2 =

(u 1 + 2u 2 ).

Sea x ∈< v 1 , v 2 >, este vector se puede escribir de la forma

x = β 1 u 1 + β 2 u 2

= β 1

(u 1 + u 2 ) + β 2

u 1

=

(β 1 + β 2 )u 1 +

β 1 u 2.

Como x es combinaci´on lineal de los ui’, es claro que x ∈< u 1 , u 2 > y, por lo tanto, hemos probado que

< v 1 , v 2 > ⊂ < u 1 , u 2 >

y por lo tanto, < u 1 , u 2 >=< v 1 , v 2 >.

4 Cap´ıtulo 1. Algebra Lineal Elemental

1.5. Exprese el plano x + y + 2z = 1 como combinaci´on lineal de vectores. Indique el vector normal unitario al plano.

Soluci´on: Podemos despejar cualquiera de las variables de la ecuaci´on del plano en funci´on de las otras dos. Por ejemplo, podemos despejar x y obtenemos x = 1 − y − 2 z en forma vectorial  

x y z

1 − y − 2 z y z

 (^) y +

 (^) z.

Se puede observar que el plano se puede expresar como combinaci´on lineal de los vectores (− 1 , 1 , 0), (− 2 , 0 , 1), donde el primer vector siempre esta ponderado por 1, esto es

P =

En general, el vector normal de un plano ax + by + cz = d es (a, b, c), en nuestro caso el vector normal es ~n = (1, 1 , 2) con modulo

‖ ~n ‖=

12 + 1^2 + 2^2 =

Luego, el vector normal unitario es:

nˆ =

1.6. Si un hiperplano pasa por los puntos (1, − 1 , 1 , 1), (2, − 1 , 2 , 1), (0, 1 , 1 , 1), (1, 0 , 0 , 1). Determine los valores α, β tal que el punto (α, β, α−β, α+β) pertenezca al hiperplano.

Soluci´on: La ecuaci´on de un plano en R^4 es:

ax + by + cz + dw = e.

Como el hiperplano pasa por los puntos (1, − 1 , 1 , 1), (2, − 1 , 2 , 1), (0, 1 , 1 , 1), (1, 0 , 0 , 1) las constantes a, b, c, d, e deben cumplir

a − b + c + d = e , 2 a − b + 2c + d = e , b + c + d = e , a + d = e.

Algebra Lineal - Rodrigo Vargas 5

Entonces tenemos 4 ecuaciones y 5 incognitas. Hay una variable libre que es e y a, b, c, d son variables b´asicas. Resolviendo el sistema obten- emos a = b = c = 0, d = e. La ecuaci´on del hiperplano es entonces:

dw = d ⇒ w = 1.

Luego, para que (α, β, α − β, α + β) pertenezca al hiperplano se debe cumplir que: α + β = 1.

1.7. ¿Para qu´ e valor(es) de λ ser´an linealmente dependientes los vectores

λ 4

Soluci´on: Suponga que

c 1

 (^) + c 2

 (^) + c 3

λ 4

Entonces mulptiplicando y sumando se obtiene 

c 1 + 2c 2 + 3c 3 2 c 1 − c 2 + λc 3 3 c 1 + 4c 2 + 4c 3

Esto nos lleva al sistema de tres ecuaciones y tres incognitas

c 1 + 2c 2 + 3c 3 = 0 , (1.1) 2 c 1 − c 2 + λc 3 = 0 , (1.2) 3 c 1 + 4c 2 + 4c 3 = 0. (1.3)

As´ı, los vectores ser´an linealmente dependientes si y s´olo si el sistema tiene soluciones no triviales. Despejando en (1.1)

c 1 = − 2 c 2 − 2 c 3. (1.4)

Si (1.4) en (1.3) y despejando

c 2 = −

5 c 3 2

Algebra Lineal - Rodrigo Vargas 7

Para que no haya soluciones es necesario que el sistema sea inconsis- tente, es decir, que algunas de sus ecuaciones contenga alguna contradic- ci´on. La ´unica posible es 0 · x 3 6 = 0. Es decir, con a = 4 y 3c − b − 5 6 = 0. Para que existan infinitas soluciones se necesita una identidad que se cumpla siempre. La ´unica que se cumple siempre independiente del va- lor de x 3 es 0 · x 3 = 0. Es decir, con a = 4 y 3c − b − 5 = 0. Si se quiere una sola soluci´on, se debe tener tantas ecuaciones lineal- mente independientes como incognitas y adem´as el sistema debe ser consistente. Esto se cumple para cualquier valor de a, b, c excepto para el valor a = 4.

1.9. Encuentre eficientemente la soluci´on general de los sistemas

 

x 1 x 2 x 3

 (^) y

x 1 x 2 x 3

Soluci´on: Con el m´etodo de eliminaci´on de Gauss es posible resolver m´ultiples sistemas con la misma matriz de coeficientes y distintos vec- tores a la vez. Para esto se construye una matriz ampliada de la forma [ A | b~ 1 ... b~n ].  

Una vez obtenida la matriz escalonada reducida, se debe despejar las inc´ognitas del primer y segundo sistema a partir de las columnas corres- pondientes a los vectores (2, 3 , 4) y (2, 3 , 5), respectivamente. En este caso el segundo sistema es inconsistente, es decir no tienen soluciones, ya que tenemos 0 · x 3 = 1. Para el segundo sistema tenemos infinitas soluciones dadas por

x 1 = 1, x 2 = 1 − x 3 , x 3 ∈ R.

8 Cap´ıtulo 1. Algebra Lineal Elemental

1.10. Determine un sistema de ecuaciones Ax = b tal que su conjunto soluci´on sea:

S =

Soluci´on: El conjunto soluci´on de Ax = b es x 0 + kerA, donde x 0 es una soluci´on particular de Ax = b. Adem´as KerA = 〈 filas de A〉⊥. Entonces KerA = 〈(− 1 , 0 , 0 , 1), (1, 1 , − 1 , 0)〉. Sea (a, b, c, d) una fila de A, entonces:    

a b c d

 = 0^ y

a b c d

−a + d = 0 a + b − c = 0

d = a c = a + b

Tomando A =

(a = 0, b = 1) (a = 1, b = 0)

. Ahora sea

b = A

Eligiendo A =

y b = (2, 3) el conjunto de Ax = b coincide con

S =

1.11. Considere el plano P de R^3 dado por P = {(x, y, z) ∈ R^3 : 2x− 3 y +z = 0 } y la matriz

A =

10 Cap´ıtulo 1. Algebra Lineal Elemental

Soluci´on: Notemos que

A^2 =

p 1 0 0 p 1 0 0 p

p 1 0 0 p 1 0 0 p

p^2 2 p 1 0 p^2 2 p 0 0 p^2

A^3 =

p^2 2 p 1 0 p^2 2 p 0 0 p^2

p 1 0 0 p 1 0 0 p

p^3 3 p^2 3 p 0 p^3 3 p^2 0 0 p^3

A^4 =

p^3 3 p 3 p 0 p^3 3 p^2 0 0 p^3

p 1 0 0 p 1 0 0 p

p^4 4 p^3 6 p^2 0 p^4 4 p^3 0 0 p^4

A^5 =

p^4 4 p^3 6 p^2 0 p^4 4 p^3 0 0 p^4

p 1 0 0 p 1 0 0 p

p^5 5 p^4 10 p^3 0 p^5 5 p^4 0 0 p^5

Luego, An^ =

pn^ npn−^1 anpn−^2 0 pn^ npn−^1 0 0 pn

 (^) donde an+1 = an+(n−1), ∀n > 1

y a 1 = 0.

1.13. Demuestre que cualquier matriz cuadrada se puede escribir de manera ´unica como la suma de una matriz sim´etrica y una matriz antisim´etrica.

Soluci´on: Se dice que una matriz es sim´etrica si At^ = A y se dice que una matriz es antisim´etrica si At^ = −A. Consideremos las matrices 1 2 (A^ +^ A

t) y 1 2 (A^ −^ A

t) entonces

[

(A + At)]t^ =

(At^ + (At)t) =

(At^ + A) =

(A + At).

Luego, 12 (A + At) es una matriz sim´etrica.

[

(A − At)]t^ =

(At^ − (At)t) =

(At^ − A) = −

(A − At).

Luego, 12 (A − At) es un matriz antisim´etrica. Por lo tanto, podemos escribir A como A =

(A + At) +

(A − At).

1.14. Resuelva la siguiente ecuaci´on matricial ( 1 1 3 4

X

Algebra Lineal - Rodrigo Vargas 11

Soluci´on: Sean A =

, B =

y C =

y notemos que si existen las matrices inversas de A y B, entonces

AXB = C ⇒ AXBB−^1 = CB−^1

⇒ AX = CB−^1

⇒ A−^1 AX = A−^1 CB−^1

⇒ X = A−^1 CB−^1.

Usando eliminaci´on de Gauss, podemos encontrar A−^1 y B−^1. [ 1 1 3 4

]

[

]

[

]

y [ 4 − 2 − 3 2

]

[

1 −^12

1 4 0 0 1

]

[

1 −^12

1 43 0 4 1

]

[

3 4 1

]

[

3 2 2

]

Entonces A−^1 =

, B−^1 =

3 2 2

Luego, tenemos que

X = A−^1 CB−^1 =

3 2 2

3 2 2

1.15. Sea A de 2 × 2 tal que A(1, 0)⊤^ = (3, 6)⊤^ y A(0, 1)⊤^ = (1, 2)⊤

(a) Mostrar que la imagen bajo A de la recta 3x + 2y = 0 es la recta 2 x − y = 0. (b) Hay una recta L que pasa por el origen y que queda fija bajo A, ( es decir, A(L) = L, aunque no necesariamente A(l) = l, para l ∈ L). ¿Cu´al es la recta?

Algebra Lineal - Rodrigo Vargas 13

Entonces,

m

3 + m 6 + 2m

y

A(L) = 〈{(3 + m, 6 + 2m)}〉 = {((3 + m, 6 + 2m) : x ∈ R} = {(x, y) ∈ R^2 : 2x − y = 0}.

Si consideremos la recta

L = {(x, y) ∈ R^2 : 2x − y = 0}

entonces A(L) = L.

1.16. Sea A = (aij ) ∈ Mn(R). Se define la traza de A, denotada por tr(A), como tr(A) =

∑^ n

i=

aii = a 11 + a 22 + · · · + ann.

Si A, B ∈ Mn(R), demuestre

(a) tr(AB) = tr(BA). (b) tr(AAt) > 0, si A 6 = 0.

Soluci´on:

(a) Sean A = (aij ), B = (bij ), AB = (cij ) y BA = (dij ) entonces un elemento de la diagonal de la matriz AB es

cii =

∑^ n

k=

aikbki ,

luego,

tr(AB) =

∑^ n

i=

cii =

∑^ n

i=

∑^ n

k=

aikbki =

∑^ n

i=

∑^ n

k=

bkiaik =

∑^ n

k=

[ (^) n ∑

i=

bkiaik

]

∑^ n

k=

dkk = tr(BA).

(b) Si A = (aij ) entonces At^ = (bij ) = (aji) si denotamos AAt^ = (rij ) entonces:

tr(AAt) =

∑^ n

i=

rii =

∑^ n

i=

∑^ n

k=

aikbki =

∑^ n

i=

∑^ n

k=

aikaik =

∑^ n

k=

∑^ n

i=

(aki)^2 > 0.

14 Cap´ıtulo 1. Algebra Lineal Elemental

1.17. Si tan α = (a/b), demuestre que

[ 1 (a/b) −(a/b) 1

]n

a^2 b^2

)n/ 2 [ cos nα sin nα − sin nα cos nα

]

Soluci´on: Demostramos la igualdad haciendo inducci´on sobre n Para n = 1, tenemos que: ( 1 +

a^2 b^2

) 1 / 2 [

cos α sin α − sin α cos α

]

1 + tan^2 α

[

cos α sin α − sin α cos α

]

= sec α

[

cos α sin α − sin α cos α

]

[

1 (a/b) −(a/b) 1

]

Ahora suponiendo que se cumple para n, probamos que es v´alido para n + 1. [ 1 a b −a b 1

]n+

[

1 a b −a b 1

]n [ 1 a b −a b 1

]

a^2 b^2

)n/ 2 [ cos nα sin nα − sin nα cos nα

] [

1 a b −a b 1

]

= (1 + tan^2 α)n/^2

[

cos nα sin nα − sin nα cos nα

] [

(^1) cossin^ αα − sin cos^ αα 1

]

= (sec^2 α)n/^2

[

cos nα sin nα − sin nα cos nα

]

sec α

[

cos α sin α − sin α cos α

]

= secn+1^ α

[

cos nα cos α − sin nα sin α cos nα sin α + sin nα cos α − sin nα cos α − cos nα sin α − sin nα sin α + cos nα cos α

]

= (1 + tan^2 α)(n+1)/^2

[

cos(n + 1)α sin(n + 1)α − sin(n + 1)α cos(n + 1)α

]

a^2 b^2

)(n+1)/ 2 [ cos(n + 1)α sin(n + 1)α − sin(n + 1)α cos(n + 1)α

]

1.18. Demuestre que si A es una matriz cuadrada tal que An^ = 0, entonces I − A es invertible.

Soluci´on: Basta observar que

(I − A)(I + A + A^2 + ... + An−^1 ) = (I − An).