Mathematik online lernen im Mathe-Forum. Nachhilfe online
Startseite » Forum » Matrizen, Links- und Rechtsinverse

Matrizen, Links- und Rechtsinverse

Universität / Fachhochschule

Tags: Inversenbestimmung, Ist Linksinverse immer auch Rechtsinverse ??, Matrizen, n²

 
Antworten Neue Frage stellen Im Forum suchen
Neue Frage
oculus

oculus aktiv_icon

11:33 Uhr, 06.08.2012

Antworten
Hallo,

eine von vinceO zur Diskussion gestellte Frage interessiert mich.
Er hatte ein Problem mit einer (2,2)-Matrix A und fragte, ob immer gelte A-1A=AA-1.
Die Frage ist bei einer (2,2)-Matrix durch Rechnung leicht zu bejahen.

Wie aber ist das bei allgemeinen (n,n)-Matrizen?
Man müsste dann doch zeigen: Wenn A'A=I, dann auch AA'=I.

Der mögliche Beweis scheint nicht so trivial zu sein, wie es auf den ersten Blick scheint. Wer kennt einen ?

oculus


Online-Nachhilfe in Mathematik
Antwort
Mathematica

Mathematica aktiv_icon

11:38 Uhr, 06.08.2012

Antworten
Hallo,
Was willst du denn beweisen, dass es zu jeder n×n Matrix eine Inverse gibt?

mfG M.
Antwort
anonymous

anonymous

12:27 Uhr, 06.08.2012

Antworten
Ich glaube eher, das hier ein Beweis für A-1A=AA-1=I gesucht ist. Aber da fällt mir keiner ein. Soweit ich weis ist die Inverse doch so definiert:


Eine Matrix A nennen wir invertierbar, wenn es eine Matrix B gibt so dass

AB=BA=I
(I ist die Einheitsmatrix)

Die Matrix B nennen wir dann das Inverse der Matrix A und schreiben

B=A-1


Und da in der Definition schon AB=BA=I vorausgesetzt ist folgt AA-1=A-1A=I direkt aus der Definition.


Oder aber, was mir gerade aufgefallen ist:
Es ist gemeint, dass jede Linksinverse auch zugleich eine Rechtsinverse ist.

Das stimmt aber im Allgemeinen nicht. Sondern nur wenn die Linksinverse zugleich auch (allgemeine) Inverse der Matrix nach oben genannter Definition ist.
Das ist bei m×n -Matrizen mit mn ist dies nicht der Fall, bei quadratischen n×n -Matrizen hingegn schon.

Bei m×n- Matrizen mit mn ist das sowieso klar, da eine Linksinverse eine a×m -Matrix sein muss und eine Rechtsinverse eine n×b- Matrix sein muss. Also müsste eine Linksinverse, die zugleich eine Rechtsinverse ist eine n×m -Matrix sein. Wenn man nun die Linksinverse mit der Matrix multipliziert erhält man die m×m -Identitätsmatrix. Multipliziert man die Matrix mit der Rechtsinversen erhält man die n×n -Matrix. Und da sich die beiden Identitätsmatrizen nach mn in ihren Dimensionen unterscheiden, gilt folglich auch BAAB.

Anders sieht das bei quadratischen n×n -Matrizen aus. Sowohl Linksinverse also auch Rechtsinverse müssen eine n×n -Matrix sein. Hier entsteht beide Male eine n×n -Identitätsmatrix. Nun bleibt noch zu beweisen, dass die Linksinverse in diesem Fall wirklich auch eine Rechtsinverse ist:

Wenn B das Linksinverse von A ist und C das Rechtsinverse von A ist so folgt:

BA=I        AC=I

B=BI=B(AC)=(BA)C=IC=C
oculus

oculus aktiv_icon

12:55 Uhr, 06.08.2012

Antworten
Danke Denji,

dein Beweis für (n,n)-Matrizen funktioniert unter der Voraussetzung, dass mit der Existenz einer Linksinversen auch die einer Rechtsinversen gesichert ist. Insofern war meine Fragestellung unvollständig. Sie muss heißen:

Ist B eine Linksinverse von A, gibt es dann auch eine Rechtsinverse C von A und gilt dann B=C?

MfG
oculus
Antwort
anonymous

anonymous

13:53 Uhr, 06.08.2012

Antworten
Stimmt, über die Existenz habe ich mir bisher noch keine Gedanken gemacht.
Ich selbst habe noch nicht mit dem Studium begonnen und in der Schule lernt man sowas ja auch nicht. Weshalb ich vielleicht keine allzu große Hilfe bin. Aber ich habe da kurz ein wenig in Google gesucht und folgendes gefunden:

http://reh.math.uni-duesseldorf.de/~axler/11_winter/304.pdf

Da wird per Vergleich mit Gleichungssystemen gezeigt, das gilt (Seite 187):

Am×n besitzt genau dann eine Rechtsinverse C, wenn Rang(A)=m ist.

und

Am×n besitzt genau dann eine Linksinverse C, wenn Rang(A)=n ist.

Allerdings habe ich mir das selbst nicht so genau durchgelesen.
Selbst könnte ich das gerade nicht beweisen.

Wenn nun A eine quadratische Matrix ist, also An×n (Für andere Körper als müsste das auch gehen, doch habe ich leider keinen Beweis dafür.), so folgt:

Aus

A besitzt eine Linksinverse     Rang(A)=n

und

Rang(A)=n    A besitzt eine Rechtsinverse

folgt

A besitzt eine Linksinverse     A besitzt eine Rechtsinverse

Somit ist bei Existenz einer Linksinversen auch die Existenz einer Rechtsinversen gesichert.
Die Eindeutigkeit, dass die Linksinverse dann gleich der Rechtsinversen ist, folgt aufgrund der letzten Zeilen meines vorangegangenen Beitrags.

Ich hoffe ich konnte wenigstens ein bisschen voranbringen.
Anonsten können dir evtl. auch andere noch weiterhelfen.
oculus

oculus aktiv_icon

15:14 Uhr, 06.08.2012

Antworten
Respekt, denji, und Dank für deine Bemühungen.
Deinen Hinweise will ich nachgehen.

Herzlichen Gruß

oculus
Antwort
hagman

hagman aktiv_icon

16:33 Uhr, 06.08.2012

Antworten
Es ist überschaubarer, wenn man statt mit Matrizen mit linearen Abbildungen (oder Abbildungen überhaupt) rechnet:
Ist V ein Vektorraum und sind f,g:VV lineare Abbildungen mit gf=1V, so folgt eigentlich nur, dass f injektiv und g surjektiv ist!
Aber bei n×n Matrizen wissen wir ja: Wenn sie injektiv oder surjektiv sind, dann sind sie automatisch bijektiv.
Oder auch: Wenn f injektiv ist, dann ist automatisch die Dimension des Bildes von f gleich dimV. Und wenn V endlichdimensional ist, folgt daraus bereits Gleichheit der Räume. Somit ist f auch surjektiv.
Um zu zeigen, dass auch fg=1V ist, geht man dann so vor:
Sei vV beliebig. Da f surjektiv ist, gibt es ein wV mit v=f(w).
Also gilt (fg)(v)=f(g(v))=f(g(f(w))=f((gf)(w))=f(w)=v.
Da vV beliebig war, folgt fg=1V.

Bei dieser Argumentation war aber die Voraussetzung dimV< durchaus wesentlich (und bei n×n Matrizen ist ja die Dimension zum Glück endlich)!

--

Kleines Gegenbeispiek für unendlichdimensionale Vektorräume gefällig?
Sei V der Vektorraum der Polynome.
Ist P in Polynom, so ist die Ableitungsfunktion ddxP ebenfalls ein Polynom. Nach den bekannten Rechenregeln ist das Ableiten D:VV,PddxP eine lineare Abbildung.
Ebenso ist das Integrieren I:V->V, P(x0xP(t)dt) eine lineare Abbildung VV (Es ist I(P) diejenige Stammfunktion von P, die durch den Ursprung geht).
Die Hintereinanderausführung DI ist die Identität auf V, aber ID nicht: Beispielsweise bildet D das Polynom X3+7X+5 auf 3X2+7 ab und I bildet dieses wiederum auf X3+7X ab.
In der Tat kann D kein Linksinverses haben, weil es nicht injektiv ist (Kern sind die konstanten Polynome) und I kann kein Rechtsinverses haben, weil es nicht surjektiv ist (im Bild sind nur die Polynome P mit P(0)=0).

oculus

oculus aktiv_icon

23:16 Uhr, 06.08.2012

Antworten
Danke Hagmann,

deinen Beweis habe ich verstanden. Die Gegenbeispiele kenne ich wohl, allerdings in einem anderen Zusammenhang.

Zum ersten Satz deines Beweises eine Zusatzfrage: Da mit gf=1 die Bijektivität von bf vorausgesetzt werden kann, und daraus auf die Injektivität von f sowie die Surjektivität von g geschlossen werden kann, gilt dann auch für beliebige Abbildungen f:UV und g:vW die Verallgemeinerung:
bij (fg) inj (f) surj (g)?

Danke für deine Antwort !

oculus


Diese Frage wurde automatisch geschlossen, da der Fragesteller kein Interesse mehr an der Frage gezeigt hat.