Beweis Rechenregel Matrizenmultiplikation

Hallo,
woher kommt denn die Rechenregel für das Multiplizieren von Matrizen?
Was bedeutet diese?

Bei der Multiplikation von natürlichen Zahlen bedeutet 2*3 ja 3+3, aber wie soll man denn die Multiplikation von Matrizen deuten?

http://de.wikipedia.org/wiki/Matrizenmultiplikation#…

Hat das jemand mal so festgelegt oder hätte genauso gut statt dessen Matrizen auch so multiplizieren können: a_11*b_11=c_11; a_12*b_12=c_12; usw.?

Vielen Dank
Gruß
Tim

Hallo,

woher kommt denn die Rechenregel für das Multiplizieren von
Matrizen?

überleg Dir einfach mal, was eine Matrixgleichung eigentlich ist: nichts anderes als ein Gleichungssystem aus mehreren Gleichungen mit mehreren Unbekannten in anderer Schreibweise.
Und nun kannst Du Dir auch überlegen, was man mit den Gleichungen dieses Systems anstellen darf, ohne das Ergebnis zu verändern. Das gleiche darfst Du mit den Matrizen dann auch machen.

Und wenn Du nun zwei Matrizen miteinander mutliplizieren willst, ist das auch nichts anderes als die Multiplikation von was?
Gruß
loderunner

überleg Dir einfach mal, was eine Matrixgleichung eigentlich
ist: nichts anderes als ein Gleichungssystem aus mehreren
Gleichungen mit mehreren Unbekannten in anderer Schreibweise.
Und nun kannst Du Dir auch überlegen, was man mit den
Gleichungen dieses Systems anstellen darf, ohne das Ergebnis
zu verändern. Das gleiche darfst Du mit den Matrizen dann auch
machen.

Also nehmen wir zwei Gleichungen:
a_11*x_11 + a_12*x_12 = d_1 b_11*x_11 + b_12*x_12 = e_1
a_21*x_21 + a_22*x_22 = d_2 b_21*x_21 + b_22*x_22 = e_2

So nun kann man das ja so schreiben:
a_11 a_12 * b_11 b_12
a_21 a_22 b_21 b_22

Ist das so richtig? Wo notiert man d_1, d_2, e_1, e_2?

Ich sehe da keinen Sinn drin die Stelle der neuen Matrix jetzt so auszurechnen c_11=a_11*b_11+a_12*b_21; c_12=a_11*b_12+ a_12*b_22; usw.

Warum kann man c_11 nicht auch so berechnen? c_11 = a_11*b_11?

Ich kann mir auch nicht vorstellen, was man da macht. Man multipliziert die Koeffizienten der einzelnen Glieder der Gleichung miteinander.

Und wenn Du nun zwei Matrizen miteinander mutliplizieren
willst, ist das auch nichts anderes als die Multiplikation von
was?

Von Gleichungen. Aber was bedeutet das?

Vielen Dank für Erklärungen
Gruß
Tim

Hallo,

Also nehmen wir zwei Gleichungen:

Ich dachte erstmal mehr an was einfacheres. Matrix A mal Vektor x = Ergebnisvektor b

Ich kann mir auch nicht vorstellen, was man da macht. Man
multipliziert die Koeffizienten der einzelnen Glieder der
Gleichung miteinander.

Lies mal: http://de.wikipedia.org/wiki/Matrix_%28Mathematik%29… und rechne ein entsprechendes Beispiel durch.

Gruß
loderunner

Hallo Tim, es ist ein längeres Posting geworden, aber vielleicht magst Du Dich ja durchkämpfen… :smile:

woher kommt denn die Rechenregel für das Multiplizieren von
Matrizen? Was bedeutet diese?

Diese Regel gibt an, wie Du zu zwei gegebenen Matrizen A und B die Matrix C berechnen kannst, die zur Hintereinanderanwendung von A und B äquivalent ist (warum man das „Multiplikation“ nennt, erkläre ich weiter unten).

Zunächst sei ein Vektorraum E mit der Dimension n gegeben. Irgendwelche n Vektoren e k (k = 1, …, n) mögen eine Basis von E bilden. Dann lässt sich jeder Vektor x aus E als Linearkombination der Basisvektoren e k darstellen:

x = Σk xk e k  (k = 1, …, n)

Die n Zahlen („Skalare“) xk, die angeben, wie stark die e k an x"beteiligt" sind, nennt man die Komponenten von x = (x1, x2, …, xn).

Analog kann man für die Vektoren y , die in einem zweiten, m-dimensionalen Vektorraum F mit der Basis f j (j = 1, …, m) wohnen, schreiben:

y = Σj yj f j  (j = 1, …, m)

So weit, so gut. Jetzt betrachen wir eine lineare Abbildung A vom Raum E in den Raum F. Die besondere Eigenschaft „linear“ bedeutet, dass die Beziehungen A( x 1 + x 2) = A( x 1) + A( x 2) sowie A(λ x ) = λ A( x ) erfüllt sind (λ irgendein Skalar).

Frage: Auf welchen Bildvektor y = A x wird x durch A abgebildet?

Antwort:

y = A x = A Σk xk e k = Σk xk (A e k)

(Zum Nach-rechts-Schieben des A im letzten Schritt waren wir dabei aufgrund der Linearitätseigenschaft berechtigt.) Um y zu berechnen, genügt es also zu wissen, auf welche n F-Vektoren A e k die n E-Basisvektoren e k abgebildet werden (diese Bildvektoren sind natürlich im allgemeinen nicht identisch mit den F-Basisvektoren f j, sondern nur irgendwelche F-Vektoren, die wir aber als Linearkombination der f j darstellen können). Genau diese aus n · m Zahlen bestehende Information ist jedoch definitionsgemäß in der zu A gehörenden Matrix (ajk) verzeichnet. Die Definition dieser Matrix lautet:

A e k =def Σj ajk f j

Die die Abbildung beschreibende Matrix A enthält „in Tabellenform“ also genau diejenigen n · m Stück Elemente ajk, mit denen diese Gleichung erfüllt ist. Das ajk-Element an der Position (j, k) ist gerade der „Beitrag“ des j-ten F-Basisvektors f j zum Bild A e k des k-ten E-Basisvektors e k.

Dazu noch eine Anmerkung: Die ajk hängen von den gewählten E- und F-Basen ab, aber diese wollen wir hier als fest annehmen. Dann kann man die Abbildung mit der Matrix gleichsetzen, und deshalb verwende ich „A“ sowohl zur Bezeichnung der Abbildung als auch der zugehörigen Matrix (würde man dagegen mehrere unterschiedliche Basen betrachten, hätte man zu ein und derselben Abbildung verschiedene Matrizen, für jede der Basen eine andere).

Damit können wir unsere y -Berechnung fortsetzen:

y = … (s. o.) … = Σk xkj ajk f j) = Σk Σj x k ajk f j = Σjk ajk x k) f j

Geschafft. Die Vorschrift zur Berechnung der j-te Komponente yj von y = A x lautet also yj = Σk ajk x k.

(„Vertauschung“ von Summationen wie hier im letzten Schritt Σk und Σj ist natürlich wegen des Distributivgesetzes zulässig. Es müssen nur immer alle k-indizierte Größen hinter Σk stehen etc.)

Neuer Abschnitt. Wir wollen zusätzlich zu A noch zwei Abbildungen/Matrizen A1 und A2 vorliegen haben. Auf einen Vektor können wir dann einmal A1 und einmal A2 anwenden, was A1 x und A2 x liefert. Summieren wir das anschließend auf, bekommen wir A1 x + A2 x. Dies wiederum können wir als neue Abbildung „A1 + A2“ auffassen, mit ebendieser Definition:

(A1 + A2) x =def A1 x + A2 x

Desweiteren können wir analog das skalare Vielfache der Abbildung A definieren:

(λ A) x =def A (λ x )

wobei λ irgendeine Zahl ist. Diese beiden so konstruierten Abbildungen A1 + A2 und λ A sind wiederum linear (der Beweis ist sehr einfach, vielleicht magst Du ihn selbst durchführen). Wie sehen dann aber die entsprechenden Matrizen aus? Nun, man kann sich schnell überlegen, dass die Matrix A1 + A2 aus A1 und A2 durch elementweise Addition, und die Matrix λ A aus A durch elementweise mit-λ-Multiplikation hervorgeht.

Prima, nun wissen wir, wie man Summen und skalare Vielfache von Abbildungen definieren kann, doch letztlich ist das eher langweilig. Zum Glück kann man mit Abbildungen aber noch etwas tun, nämlich (mindestens) zwei Stück davon hintereinander ausführen. Das jedoch wirft natürlich sofort zwei spannende Fragen auf, nämlich: Wenn zwei Abbildungen linear sind und hintereinander ausgeführt werden, was ist dann mit der Gesamtabbildung? Ist sie auch linear? Und wenn ja, wie sieht dann die zugehörige Matrix aus, d. h. wie kann man ihre Elemente aus denen der beiden Einzelmatrizen berechnen?

Dies wollen wir untersuchen. Dazu benötigen wir einen dritten Vektorraum G. Er habe die Dimension l, und ( g i, i = 1, …, l) sei eine (wieder feste) Basis. Jeder Vektor z darin lässt sich – das ist für uns schon ein alter Hut – darstellen als

z = Σi zi g i  (i = 1, …, l)

Außerdem brauchen wir noch eine lineare Abbildung B vom F-Raum in den G-Raum. Sie bildet den Vektor y auf z = B y ab. Dabei ist y seinerseits aus x durch die Abbildung A hervorgegangen. Insgesamt haben wir damit:

z = B y = B A x

Dies ist die Hintereinanderausführung oder „Komposition“ von A und B, und zwar wird hier erst A angewendet, dann B.

Zuerst prüfen wir, ob B A auch linear ist, wenn A und B linear sind. Das ist schnell erledigt:

B (A ( x 1 + x 2)) = B (A x 1 + A x 2) = B (A x 1)) + B (A x 2))

B (A (λ x )) = B (λ A x ) = λ B (A x )

Hui: B A ist tatsächlich wieder linear! Also muss die erwähnte Kompositionsmatrix C = B A existieren, die direkt vom E-Raum in den G-Raum abbildet, ohne den Umweg über den F-Raum. Wir wissen nur noch nicht, wie man sie zu gegebenem A und B errechnen kann.

Frage: Wenn man A, B und x kennt ( x durch seine n Komponenten, A durch seine n · m Elemente, B durch seine m · l Elemente), wie ergibt sich daraus dann der Vektor z = B A x?

Auch das können wir ausrechnen:

z = B y = Σij bij yj) g i

Wie groß yj ist, wissen wir schon, nämlich yj = Σk ajk x k. Es hilft nix, wir müssen das einsetzen:

z = … = Σij bijk ajk x k)) g i = Σikj bij ajk) x k) g i

Das wars schon mit rechnen. Aus dem letzten Ausdruck können wir ablesen, wie groß die i-te Komponente zi von z ist, nämlich zi = Σkj bij ajk) x k.

Das ist aber noch nicht alles! Der Term verrät uns außerdem auch noch, die Elemente der Kompositionsmatrix C sind, die uns so interessiert. Auch das brauchen wir nur abzulesen: Das Element cik von C ist offensichtlich gegeben durch Σj bij ajk:

cik = Σj bij ajk  [:diamonds:]

Und das ist sie, die Regel, nach der Du gefragt hast. Wendet man Matrizen hintereinander an, dann muss man also nicht unbedingt erst die eine auf den Vektor, und dann die zweite auf den Ergebnisvektor loslassen, sondern man kann auch zuerst aus den beiden Matrizen die Kompositionsmatrix gemäß [:diamonds:] bestimmen, und dann nur diese einmal auf den Vektor anwenden. Beidemal kommt dasselbe heraus.

Verkettet man drei Matrizen R, S, T miteinander, dann kann man zeigen, dass die Verrechnung aller drei gemäß R (S T) einerseits und gemäß (R S) T andererseits stets dasselbe Resultat ergibt. Matrizen genügen also dem Assoziativgesetz R (S T) = (R S) T. Außerdem erfüllen sie die Distributivgesetze R (S1 + S2) = R S1 + R S2 sowie (R1 + R2) S = R1 S + R2 S, genau wie es die gewöhnliche Multiplikation von Zahlen tut (einelementige Matrizen erfüllen sogar alle Regeln, die auch Zahlen erfüllen). Da die Matrixoperation [:diamonds:] also einige wichtige Eigenschaften mit der Zahlen-Multiplikation gemeinsam hat, spricht man von einer Matrix-Matrix-Multiplikation. Allerdings: Eine Eigenschaft teilt die Matrix-Matrix-Multiplikation mit der Zahlen-Multiplikation nicht, nämlich die Kommutativität: Im allgemeinen ist R S von S R verschieden! Das ist hier ausdrücklich anders als bei der normalen Multiplikation.

Vielleicht möchtest Du noch wissen, wozu man überhaupt so ein Aufhebens um lineare Abbildungen (LA) macht. Nun, viele Probleme in der Natur führen auf LA; der Schatten, den ein Baum im Sommer auf einen Sportplatz wirft, wäre ein Beispiel. Hier wird von einem 3dimensionalen Raum in einen 2dimensionalen abgebildet. Warum linear? Nun, der Schatten eines λ-mal so hohen Baums ist genau λ mal so lang: Schatten(λ Baum) = λ Schatten(Baum). Und wenn ein Zweig an einem Ast wächst (beides als Vektoren ansehen), dann wächst der Schatten am Boden „vektorsummengetreu“: Schatten(Ast + Zweig) = Schatten(Ast) + Schatten(Zweig). Beides zusammen weist den Schatten als LA aus. Auch Streckungen, Scherungen, Punkt- und Achsspiegelungen sowie Drehungen sind lineare Abbildungen. Das Skalar- und Kreuzprodukt stellen LA dar. In der Mechanik des starren Körpers und in der Relativitätstheorie werden sie gebraucht, und in der Quantenmechanik sind sie von zentraler Bedeutung (fast allen physikalischen Größen werden dort lineare Operatoren zugeordnet). Auch in der Festkörperphysik tauchen LA auf. Dort hat man es oft mit anisotropem Verhalten zu tun. Beispiel: Elektronen in einem Kristall, die einem elektrischen Feld mit einer bestimmten Richtung ausgesetzt sind, beschleunigen nicht genau in diese Richtung, sondern in eine leicht davon abweichende. Trotzdem gilt aber „n-fache Feldstärke bewirkt n-fache Beschleunigung“ und „die von mehreren überlagerten Feldern (Überlagerung = Summe) bewirkte Beschleuningung ist identisch mit der Summe der Beschleunigungen durch die einzelnen Felder alleine“, d. h. der „Feldvektor-Beschleunigungsvektor-Zusammenhang“ ist linear.

Gruß
Martin

Hallo,
ein sehr toller Beitrag.
Respekt!
Ganz logisch und zielgerichtet mit Fachwissen aufgebaut.

Nochmal vielen Dank für diese lehrreiche Antwort

Lieber Martin!
Es war eine wahre Freude, deinen Beitrag zu lesen!
Fachlich top, schön aufgebaut, locker und witzig formuliert, trotzdem immer am Punkt.
Schöne Beispiele und super verständlich!
Dickes Lob!
LG
Wolfgang