Es seien v1, v2 ∈ R^n zwei Eigenvektoren einer Matrix C ∈ R^(n x n) zu unterschiedlichen Eigenwerten. Zeige dass v1 + v2 kein Eigenvektor der Matrix C ist?
3 Antworten
Sei λ₁ der Eigenwert zu v₁, λ₂ der zu v₂.
Sei v₃:=v₁+v₂ der Eigenvektor zum Eigenwert λ₃ mit λ₃≠λ₁≠λ₂.
Dann ist A*(v₁+v₂) = λ₃*(v₁+v₂)
<=>A*v₁ + A*v₂ = λ₃*v₁ + λ₃*v₂
Nun wird links genutzt, dass v₁ und v₂ Eigenvektoren zu λ₁ und λ₂ sind.
<=> λ₁*v₁ + λ₂*v₂ = λ₃*v₁ + λ₃*v₂
<=> (λ₁- λ₃)*v₁ + (λ₂-λ₃)*v₂ = 0
Hier haben wir also eine Linearkombination der beiden bekannten Eigenvektoren. Die beiden Eigenvektoren sind voneinander linear unabhängig, da sie zu verschiedenen Eigenwerten gehören. Damit diese Unabhängigkeit gegeben ist, muss λ₁=λ₂=λ₃ gelten. Das ist aber so nicht möglich. λ₃ wurde ja so gewählt, dass λ₁≠λ₂≠λ₃ gilt, und λ₁≠λ₂ gilt sowieso nach Aufgabenstellung. Also gibt es ein solches λ₃ nicht, sodass v₃ kein Eigenvektor der Matrix ist.
[Zusatz: Sind zwei Vektoren Eigenvektoren zu unterschiedlichen Eigenwerten, so folgt Unabhängigkeit!
Indirekt: Angenommen wir haben Abhängigkeit vorliegen, dann gilt:
Damit hätten beide Vektoren den selben Eigenwert.]
Eigentliche Aufgabe:
Nehmen wir an, dass v1 + v2 einen Eigenwert haben, und zwar:
Dann folgt durch Anwenden der Matrix: (Bei mir hier A := C)
Aufgrund der linearen Unabhängigkeit der Vektoren v1,v2 erhalten wir einen Widerspruch.
(Hoffentlich ist alles so korrekt)
Hier musst du nur die Definition von Eigenvektoren anwenden.die Kurzform:
Zu zeigen v1+v2 ist EV von C. D.h. zu zeigen: C×(v1+v2)= a×(v1+v2) mit a aus R.
Jetzt musst du nur noch unter der Voraussetzung dass v1 und v2 EVen sind umformen