Es seien v1, v2 ∈ R^n zwei Eigenvektoren einer Matrix C ∈ R^(n x n) zu unterschiedlichen Eigenwerten. Zeige dass v1 + v2 kein Eigenvektor der Matrix C ist?

3 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Sei λ₁ der Eigenwert zu v₁, λ₂ der zu v₂.

Sei v₃:=v₁+v₂ der Eigenvektor zum Eigenwert λ₃ mit λ₃≠λ₁≠λ₂.

Dann ist A*(v₁+v₂) = λ₃*(v₁+v₂)

<=>A*v₁ + A*v₂ = λ₃*v₁ + λ₃*v₂

Nun wird links genutzt, dass v₁ und v₂ Eigenvektoren zu λ₁ und λ₂ sind.

<=> λ₁*v₁ + λ₂*v₂ = λ₃*v₁ + λ₃*v₂

<=> (λ₁- λ₃)*v₁ + (λ₂-λ₃)*v₂ = 0

Hier haben wir also eine Linearkombination der beiden bekannten Eigenvektoren. Die beiden Eigenvektoren sind voneinander linear unabhängig, da sie zu verschiedenen Eigenwerten gehören. Damit diese Unabhängigkeit gegeben ist, muss λ₁=λ₂=λ₃ gelten. Das ist aber so nicht möglich. λ₃ wurde ja so gewählt, dass λ₁≠λ₂≠λ₃ gilt, und λ₁≠λ₂ gilt sowieso nach Aufgabenstellung. Also gibt es ein solches λ₃ nicht, sodass v₃ kein Eigenvektor der Matrix ist.

Woher ich das weiß:Studium / Ausbildung – Höheres Fachsemester
Jensek81 
Fragesteller
 18.02.2019, 00:47

Vielen lieben Dank dir!

0

[Zusatz: Sind zwei Vektoren Eigenvektoren zu unterschiedlichen Eigenwerten, so folgt Unabhängigkeit!

Indirekt: Angenommen wir haben Abhängigkeit vorliegen, dann gilt:



Damit hätten beide Vektoren den selben Eigenwert.]

Eigentliche Aufgabe:

Nehmen wir an, dass v1 + v2 einen Eigenwert haben, und zwar:



Dann folgt durch Anwenden der Matrix: (Bei mir hier A := C)



Aufgrund der linearen Unabhängigkeit der Vektoren v1,v2 erhalten wir einen Widerspruch.

(Hoffentlich ist alles so korrekt)

Woher ich das weiß:Studium / Ausbildung – Mathematikstudium

Hier musst du nur die Definition von Eigenvektoren anwenden.die Kurzform:

Zu zeigen v1+v2 ist EV von C. D.h. zu zeigen: C×(v1+v2)= a×(v1+v2) mit a aus R.

Jetzt musst du nur noch unter der Voraussetzung dass v1 und v2 EVen sind umformen

Woher ich das weiß:Studium / Ausbildung