heim · Installation · Finden der inversen Matrix durch die Identitätsmatrix. Höhere Mathematik

Finden der inversen Matrix durch die Identitätsmatrix. Höhere Mathematik

Für jede nicht singuläre Matrix A gibt es eine eindeutige Matrix A -1, so dass

A*A -1 =A -1 *A = E,

wobei E die Identitätsmatrix der gleichen Ordnungen wie A ist. Die Matrix A -1 wird als Umkehrung der Matrix A bezeichnet.

Falls jemand es vergessen hat: In der Identitätsmatrix sind bis auf die mit Einsen gefüllte Diagonale alle anderen Positionen mit Nullen gefüllt, ein Beispiel für eine Identitätsmatrix:

Finden der inversen Matrix mit der Methode der adjungierten Matrix

Die inverse Matrix wird durch die Formel definiert:

wo A ij - Elemente a ij.

Diese. Um die inverse Matrix zu berechnen, müssen Sie die Determinante dieser Matrix berechnen. Finden Sie dann die algebraischen Komplemente für alle ihre Elemente und bilden Sie daraus eine neue Matrix. Als nächstes müssen Sie diese Matrix transportieren. Und dividieren Sie jedes Element der neuen Matrix durch die Determinante der ursprünglichen Matrix.

Schauen wir uns ein paar Beispiele an.

Finden Sie A -1 für eine Matrix

Lösung: Finden wir A -1 mithilfe der Methode der adjungierten Matrix. Wir haben det A = 2. Finden wir die algebraischen Komplemente der Elemente der Matrix A. In diesem Fall sind die algebraischen Komplemente der Matrixelemente die entsprechenden Elemente der Matrix selbst, genommen mit einem Vorzeichen gemäß der Formel

Wir haben A 11 = 3, A 12 = -4, A 21 = -1, A 22 = 2. Wir bilden die adjungierte Matrix

Wir transportieren die Matrix A*:

Wir finden die inverse Matrix mit der Formel:

Wir bekommen:

Finden Sie mit der Adjungierten-Matrix-Methode A -1 if

Lösung: Zunächst berechnen wir die Definition dieser Matrix, um die Existenz der inversen Matrix zu überprüfen. Wir haben

Hier haben wir zu den Elementen der zweiten Zeile die Elemente der dritten Zeile hinzugefügt, die zuvor mit (-1) multipliziert wurden, und dann die Determinante für die zweite Zeile erweitert. Da die Definition dieser Matrix ungleich Null ist, existiert ihre inverse Matrix. Um die adjungierte Matrix zu konstruieren, ermitteln wir die algebraischen Komplemente der Elemente dieser Matrix. Wir haben

Nach der Formel

Transportmatrix A*:

Dann nach der Formel

Finden der inversen Matrix mit der Methode der Elementartransformationen

Zusätzlich zu der Methode zum Ermitteln der inversen Matrix, die sich aus der Formel ergibt (die Methode der adjungierten Matrix), gibt es eine Methode zum Ermitteln der inversen Matrix, die als Methode der Elementartransformationen bezeichnet wird.

Elementare Matrixtransformationen

Die folgenden Transformationen werden als elementare Matrixtransformationen bezeichnet:

1) Neuanordnung von Zeilen (Spalten);

2) Multiplizieren einer Zeile (Spalte) mit einer Zahl ungleich Null;

3) Addieren der entsprechenden Elemente einer anderen Zeile (Spalte) zu den Elementen einer Zeile (Spalte), zuvor multipliziert mit einer bestimmten Zahl.

Um die Matrix A -1 zu finden, erstellen wir eine rechteckige Matrix B = (A|E) der Ordnungen (n; 2n) und weisen der Matrix A rechts die Identitätsmatrix E durch eine Trennlinie zu:

Schauen wir uns ein Beispiel an.

Finden Sie mit der Methode der Elementartransformationen A -1 if

Lösung. Wir bilden Matrix B:

Bezeichnen wir die Zeilen der Matrix B mit α 1, α 2, α 3. Führen wir die folgenden Transformationen an den Zeilen der Matrix B durch.

Matrix A -1 heißt die inverse Matrix bezüglich Matrix A, wenn A*A -1 = E, wobei E die Identitätsmatrix n-ter Ordnung ist. Eine inverse Matrix kann nur für quadratische Matrizen existieren.

Zweck des Dienstes. Mithilfe dieses Dienstes können Sie online algebraische Komplemente, transponierte Matrizen A T, alliierte Matrizen und inverse Matrizen finden. Die Entscheidung wird direkt auf der Website (online) getroffen und ist kostenlos. Die Berechnungsergebnisse werden in einem Bericht im Word- und Excel-Format dargestellt (d. h. es besteht die Möglichkeit, die Lösung zu überprüfen). siehe Designbeispiel.

Anweisungen. Um eine Lösung zu erhalten, ist es notwendig, die Dimension der Matrix anzugeben. Füllen Sie als Nächstes Matrix A im neuen Dialogfeld aus.

Matrixdimension 2 3 4 5 6 7 8 9 10

Siehe auch Inverse Matrix mit der Jordano-Gauß-Methode

Algorithmus zum Finden der inversen Matrix

  1. Finden der transponierten Matrix A T .
  2. Definition algebraischer Komplemente. Ersetzen Sie jedes Element der Matrix durch sein algebraisches Komplement.
  3. Erstellen einer inversen Matrix aus algebraischen Additionen: Jedes Element der resultierenden Matrix wird durch die Determinante der ursprünglichen Matrix dividiert. Die resultierende Matrix ist die Umkehrung der ursprünglichen Matrix.
Nächste Algorithmus zum Finden der inversen Matrixähnelt dem vorherigen, mit Ausnahme einiger Schritte: Zuerst werden die algebraischen Komplemente berechnet und dann wird die zugehörige Matrix C bestimmt.
  1. Bestimmen Sie, ob die Matrix quadratisch ist. Wenn nicht, dann gibt es dafür keine inverse Matrix.
  2. Berechnung der Determinante der Matrix A. Ist sie ungleich Null, setzen wir die Lösung fort, andernfalls existiert die inverse Matrix nicht.
  3. Definition algebraischer Komplemente.
  4. Ausfüllen der Vereinigungsmatrix (gegenseitig, adjungiert) C .
  5. Erstellen einer inversen Matrix aus algebraischen Additionen: Jedes Element der adjungierten Matrix C wird durch die Determinante der ursprünglichen Matrix dividiert. Die resultierende Matrix ist die Umkehrung der ursprünglichen Matrix.
  6. Sie führen eine Prüfung durch: Sie multiplizieren die Original- und die resultierenden Matrizen. Das Ergebnis sollte eine Identitätsmatrix sein.

Beispiel Nr. 1. Schreiben wir die Matrix in der Form:


Algebraische Ergänzungen.
A 1,1 = (-1) 1+1
-1 -2
5 4

∆ 1,1 = (-1 4-5 (-2)) = 6
A 1,2 = (-1) 1+2
2 -2
-2 4

∆ 1,2 = -(2 4-(-2 (-2))) = -4
A 1,3 = (-1) 1+3
2 -1
-2 5

∆ 1,3 = (2 5-(-2 (-1))) = 8
A 2,1 = (-1) 2+1
2 3
5 4

∆ 2,1 = -(2 4-5 3) = 7
A 2,2 = (-1) 2+2
-1 3
-2 4

∆ 2,2 = (-1 4-(-2 3)) = 2
A 2,3 = (-1) 2+3
-1 2
-2 5

∆ 2,3 = -(-1 5-(-2 2)) = 1
A 3,1 = (-1) 3+1
2 3
-1 -2

∆ 3,1 = (2 (-2)-(-1 3)) = -1
A 3,2 = (-1) 3+2
-1 3
2 -2

∆ 3,2 = -(-1 (-2)-2 3) = 4
A 3,3 = (-1) 3+3
-1 2
2 -1

∆ 3,3 = (-1 (-1)-2 2) = -3
Dann inverse Matrix kann geschrieben werden als:
A -1 = 1 / 10
6 -4 8
7 2 1
-1 4 -3

A -1 =
0,6 -0,4 0,8
0,7 0,2 0,1
-0,1 0,4 -0,3

Ein weiterer Algorithmus zum Finden der inversen Matrix

Lassen Sie uns ein anderes Schema zum Finden der inversen Matrix vorstellen.
  1. Finden Sie die Determinante einer gegebenen quadratischen Matrix A.
  2. Wir finden algebraische Komplemente zu allen Elementen der Matrix A.
  3. Wir schreiben algebraische Additionen von Zeilenelementen zu Spalten (Transposition).
  4. Wir dividieren jedes Element der resultierenden Matrix durch die Determinante der Matrix A.
Wie wir sehen, kann die Transpositionsoperation sowohl am Anfang auf die Originalmatrix als auch am Ende auf die resultierenden algebraischen Additionen angewendet werden.

Ein Sonderfall: Die Umkehrung der Identitätsmatrix E ist die Identitätsmatrix E.

Die inverse Matrix für eine gegebene Matrix ist eine solche Matrix, deren Multiplikation mit der Originalmatrix die Identitätsmatrix ergibt: Eine zwingende und ausreichende Bedingung für das Vorhandensein einer inversen Matrix ist, dass die Determinante der Originalmatrix ist ungleich Null (was wiederum impliziert, dass die Matrix quadratisch sein muss). Wenn die Determinante einer Matrix gleich Null ist, dann heißt sie singulär und eine solche Matrix hat keine Umkehrung. In der höheren Mathematik sind inverse Matrizen wichtig und werden zur Lösung einer Reihe von Problemen verwendet. Zum Beispiel am Finden der inversen Matrix Es wurde eine Matrixmethode zur Lösung von Gleichungssystemen entwickelt. Unsere Serviceseite ermöglicht Inverse Matrix online berechnen zwei Methoden: die Gauß-Jordan-Methode und die Verwendung der Matrix algebraischer Additionen. Die erste beinhaltet eine große Anzahl elementarer Transformationen innerhalb der Matrix, die zweite umfasst die Berechnung der Determinante und algebraische Additionen aller Elemente. Um die Determinante einer Matrix online zu berechnen, können Sie unseren anderen Service nutzen – Berechnung der Determinante einer Matrix online

.

Finden Sie die inverse Matrix für die Site

Webseite ermöglicht Ihnen das Finden Inverse Matrix online schnell und kostenlos. Vor Ort werden mit unserem Service Berechnungen durchgeführt und das Ergebnis mit einer detaillierten Lösung zur Findung angegeben inverse Matrix. Der Server gibt immer nur eine genaue und korrekte Antwort. In Aufgaben per Definition Inverse Matrix online, ist es notwendig, dass die Determinante Matrizen war sonst ungleich Null Webseite wird über die Unmöglichkeit berichten, die inverse Matrix zu finden, da die Determinante der ursprünglichen Matrix gleich Null ist. Die Aufgabe des Findens inverse Matrix findet sich in vielen Bereichen der Mathematik und ist eines der grundlegendsten Konzepte der Algebra und ein mathematisches Werkzeug für angewandte Probleme. Unabhängig Definition der inversen Matrix erfordert erheblichen Aufwand, viel Zeit, Berechnungen und große Sorgfalt, um Tippfehler oder kleinere Fehler in den Berechnungen zu vermeiden. Deshalb unser Service Finden Sie die Umkehrmatrix online wird Ihre Aufgabe erheblich erleichtern und zu einem unverzichtbaren Werkzeug zur Lösung mathematischer Probleme werden. Auch wenn Du Finden Sie die inverse Matrix Wenn Sie selbst Probleme haben, empfehlen wir Ihnen, Ihre Lösung auf unserem Server zu überprüfen. Geben Sie Ihre Originalmatrix bei unserer Online-Berechnung der inversen Matrix ein und überprüfen Sie Ihre Antwort. Unser System macht niemals Fehler und findet keine Fehler inverse Matrix gegebene Dimension im Modus online sofort! Auf der Seite Webseite Zeicheneingaben sind in Elementen erlaubt Matrizen, in diesem Fall Inverse Matrix online werden in allgemeiner symbolischer Form dargestellt.

Dieses Thema ist eines der am meisten gehassten unter Studenten. Noch schlimmer sind wahrscheinlich die Qualifikanten.

Der Trick besteht darin, dass uns das Konzept eines inversen Elements (und ich spreche nicht nur von Matrizen) auf die Operation der Multiplikation verweist. Sogar im Lehrplan der Schule wird die Multiplikation als komplexe Operation betrachtet, und die Multiplikation von Matrizen ist im Allgemeinen ein separates Thema, dem ich einen ganzen Absatz und eine Videolektion gewidmet habe.

Auf die Details der Matrixberechnungen gehen wir heute nicht ein. Erinnern wir uns einfach daran: wie Matrizen bezeichnet werden, wie sie multipliziert werden und was daraus folgt.

Rezension: Matrixmultiplikation

Lassen Sie uns zunächst die Notation vereinbaren. Eine Matrix $A$ der Größe $\left[ m\times n \right]$ ist einfach eine Zahlentabelle mit genau $m$ Zeilen und $n$ Spalten:

\=\underbrace(\left[ \begin(matrix) ((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) \\ (( a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) \\ ... & ... & ... & ... \\ ((a)_(m1)) & ((a)_(m2)) & ... & ((a)_(mn)) \\\end(matrix) \right])_(n)\]

Um zu vermeiden, dass Zeilen und Spalten versehentlich verwechselt werden (glauben Sie mir, in einer Prüfung kann man eine Eins mit einer Zwei verwechseln, geschweige denn einige Zeilen), schauen Sie sich einfach das Bild an:

Bestimmung von Indizes für Matrixzellen

Was ist los? Wenn Sie das Standardkoordinatensystem $OXY$ in der oberen linken Ecke platzieren und die Achsen so ausrichten, dass sie die gesamte Matrix abdecken, dann kann jede Zelle dieser Matrix eindeutig den Koordinaten $\left(x;y \right)$ zugeordnet werden - Dies ist die Zeilennummer und Spaltennummer.

Warum ist das Koordinatensystem in der oberen linken Ecke platziert? Ja, denn von dort aus beginnen wir, Texte zu lesen. Es ist sehr leicht zu merken.

Warum ist die $x$-Achse nach unten und nicht nach rechts gerichtet? Auch hier ist es einfach: Nehmen Sie ein Standardkoordinatensystem (die $x$-Achse geht nach rechts, die $y$-Achse geht nach oben) und drehen Sie es so, dass es die Matrix abdeckt. Das ist eine Drehung um 90 Grad im Uhrzeigersinn – das Ergebnis sehen wir im Bild.

Im Allgemeinen haben wir herausgefunden, wie man die Indizes von Matrixelementen bestimmt. Schauen wir uns nun die Multiplikation an.

Definition. Matrizen $A=\left[ m\times n \right]$ und $B=\left[ n\times k \right]$, wenn die Anzahl der Spalten in der ersten mit der Anzahl der Zeilen in der zweiten übereinstimmt, sind als konsistent bezeichnet.

Genau in dieser Reihenfolge. Man kann verwirrt sein und sagen, dass die Matrizen $A$ und $B$ ein geordnetes Paar $\left(A;B \right)$ bilden: Wenn sie in dieser Reihenfolge konsistent sind, dann ist es überhaupt nicht notwendig, dass $B $ und $A$ diese. das Paar $\left(B;A \right)$ ist ebenfalls konsistent.

Nur übereinstimmende Matrizen können multipliziert werden.

Definition. Das Produkt der übereinstimmenden Matrizen $A=\left[ m\times n \right]$ und $B=\left[ n\times k \right]$ ist die neue Matrix $C=\left[ m\times k \right ]$ , dessen Elemente $((c)_(ij))$ nach der Formel berechnet werden:

\[((c)_(ij))=\sum\limits_(k=1)^(n)(((a)_(ik)))\cdot ((b)_(kj))\]

Mit anderen Worten: Um das Element $((c)_(ij))$ der Matrix $C=A\cdot B$ zu erhalten, müssen Sie die $i$-Zeile der ersten Matrix, die $j$, nehmen -te Spalte der zweiten Matrix und multiplizieren Sie dann paarweise Elemente aus dieser Zeile und Spalte. Addieren Sie die Ergebnisse.

Ja, das ist eine so harte Definition. Daraus ergeben sich unmittelbar mehrere Fakten:

  1. Die Matrixmultiplikation ist im Allgemeinen nicht kommutativ: $A\cdot B\ne B\cdot A$;
  2. Allerdings ist die Multiplikation assoziativ: $\left(A\cdot B \right)\cdot C=A\cdot \left(B\cdot C \right)$;
  3. Und sogar distributiv: $\left(A+B \right)\cdot C=A\cdot C+B\cdot C$;
  4. Und noch einmal distributiv: $A\cdot \left(B+C \right)=A\cdot B+A\cdot C$.

Die Distributivität der Multiplikation musste gerade wegen der Nichtkommutativität der Multiplikationsoperation getrennt für den linken und rechten Summenfaktor beschrieben werden.

Wenn sich herausstellt, dass $A\cdot B=B\cdot A$, werden solche Matrizen kommutativ genannt.

Unter all den Matrizen, die dort mit etwas multipliziert werden, gibt es besondere – solche, die, wenn sie mit einer beliebigen Matrix $A$ multipliziert werden, wiederum $A$ ergeben:

Definition. Eine Matrix $E$ heißt Identität, wenn $A\cdot E=A$ oder $E\cdot A=A$. Im Fall einer quadratischen Matrix $A$ können wir schreiben:

Die Identitätsmatrix ist ein häufiger Gast beim Lösen von Matrixgleichungen. Und überhaupt ein häufiger Gast in der Welt der Matrizen. :)

Und aufgrund dieses $E$ hat sich jemand den ganzen Unsinn ausgedacht, der als nächstes geschrieben wird.

Was ist eine inverse Matrix?

Da die Matrixmultiplikation eine sehr arbeitsintensive Operation ist (Sie müssen eine Reihe von Zeilen und Spalten multiplizieren), erweist sich das Konzept einer inversen Matrix auch als nicht das trivialste. Und bedarf einer Erklärung.

Schlüsseldefinition

Nun, es ist Zeit, die Wahrheit zu erfahren.

Definition. Eine Matrix $B$ heißt die Umkehrung einer Matrix $A$, wenn

Die inverse Matrix wird mit $((A)^(-1))$ bezeichnet (nicht zu verwechseln mit dem Grad!), daher kann die Definition wie folgt umgeschrieben werden:

Es scheint, dass alles äußerst einfach und klar ist. Doch bei der Analyse dieser Definition stellen sich sofort mehrere Fragen:

  1. Existiert immer eine inverse Matrix? Und wenn nicht immer, wie kann man dann feststellen, wann es existiert und wann nicht?
  2. Und wer hat gesagt, dass es genau eine solche Matrix gibt? Was wäre, wenn es für eine Anfangsmatrix $A$ eine ganze Menge Inversen gäbe?
  3. Wie sehen all diese „Umkehrungen“ aus? Und wie genau sollen wir sie zählen?

Was die Berechnungsalgorithmen betrifft, werden wir etwas später darauf eingehen. Aber die restlichen Fragen werden wir gleich beantworten. Formulieren wir sie in Form separater Aussage-Lemmas.

Grundeigenschaften

Beginnen wir damit, wie die Matrix $A$ im Prinzip aussehen sollte, damit $((A)^(-1))$ dafür existiert. Jetzt stellen wir sicher, dass beide Matrizen quadratisch und gleich groß sind: $\left[ n\times n \right]$.

Lemma 1. Gegeben sei eine Matrix $A$ und ihre Umkehrung $((A)^(-1))$. Dann sind beide Matrizen quadratisch und haben die gleiche Ordnung $n$.

Nachweisen. Es ist einfach. Sei die Matrix $A=\left[ m\times n \right]$, $((A)^(-1))=\left[ a\times b \right]$. Da das Produkt $A\cdot ((A)^(-1))=E$ per Definition existiert, sind die Matrizen $A$ und $((A)^(-1))$ in der gezeigten Reihenfolge konsistent:

\[\begin(align) & \left[ m\times n \right]\cdot \left[ a\times b \right]=\left[ m\times b \right] \\ & n=a \end( ausrichten)\]

Dies ist eine direkte Folge des Matrixmultiplikationsalgorithmus: Die Koeffizienten $n$ und $a$ sind „Transit“-Koeffizienten und müssen gleich sein.

Gleichzeitig ist auch die inverse Multiplikation definiert: $((A)^(-1))\cdot A=E$, daher sind die Matrizen $((A)^(-1))$ und $A$ auch konsistent in der angegebenen Reihenfolge:

\[\begin(align) & \left[ a\times b \right]\cdot \left[ m\times n \right]=\left[ a\times n \right] \\ & b=m \end( ausrichten)\]

Somit können wir ohne Beschränkung der Allgemeinheit annehmen, dass $A=\left[ m\times n \right]$, $((A)^(-1))=\left[ n\times m \right]$. Allerdings stimmen nach der Definition von $A\cdot ((A)^(-1))=((A)^(-1))\cdot A$ die Größen der Matrizen streng überein:

\[\begin(align) & \left[ m\times n \right]=\left[ n\times m \right] \\ & m=n \end(align)\]

Es stellt sich also heraus, dass alle drei Matrizen – $A$, $((A)^(-1))$ und $E$ – quadratische Matrizen der Größe $\left[ n\times n \right]$ sind. Das Lemma ist bewiesen.

Nun ja, das ist schon gut. Wir sehen, dass nur quadratische Matrizen invertierbar sind. Stellen wir nun sicher, dass die inverse Matrix immer dieselbe ist.

Lemma 2. Gegeben sei eine Matrix $A$ und ihre Umkehrung $((A)^(-1))$. Dann ist diese inverse Matrix die einzige.

Nachweisen. Gehen wir den Widerspruch an: Die Matrix $A$ habe mindestens zwei Inverse – $B$ und $C$. Dann gelten per Definition folgende Gleichheiten:

\[\begin(align) & A\cdot B=B\cdot A=E; \\ & A\cdot C=C\cdot A=E. \\ \end(align)\]

Aus Lemma 1 schließen wir, dass alle vier Matrizen – $A$, $B$, $C$ und $E$ – Quadrate derselben Ordnung sind: $\left[ n\times n \right]$. Daher ist das Produkt wie folgt definiert:

Da die Matrixmultiplikation assoziativ (aber nicht kommutativ!) ist, können wir schreiben:

\[\begin(align) & B\cdot A\cdot C=\left(B\cdot A \right)\cdot C=E\cdot C=C; \\ & B\cdot A\cdot C=B\cdot \left(A\cdot C \right)=B\cdot E=B; \\ & B\cdot A\cdot C=C=B\Rightarrow B=C. \\ \end(align)\]

Wir haben die einzig mögliche Option: Zwei Kopien der inversen Matrix sind gleich. Das Lemma ist bewiesen.

Die obigen Argumente wiederholen fast wörtlich den Beweis der Eindeutigkeit des Umkehrelements für alle reellen Zahlen $b\ne 0$. Die einzige wesentliche Ergänzung ist die Berücksichtigung der Dimension von Matrizen.

Allerdings wissen wir immer noch nichts darüber, ob jede quadratische Matrix invertierbar ist. Hier kommt uns die Determinante zu Hilfe – sie ist ein Schlüsselmerkmal aller quadratischen Matrizen.

Lemma 3. Gegeben sei eine Matrix $A$. Wenn ihre inverse Matrix $((A)^(-1))$ existiert, dann ist die Determinante der ursprünglichen Matrix ungleich Null:

\[\left| A\right|\ne 0\]

Nachweisen. Wir wissen bereits, dass $A$ und $((A)^(-1))$ quadratische Matrizen der Größe $\left[ n\times n \right]$ sind. Daher können wir für jeden von ihnen die Determinante berechnen: $\left| A\right|$ und $\left| ((A)^(-1)) \right|$. Die Determinante eines Produkts ist jedoch gleich dem Produkt der Determinanten:

\[\left| A\cdot B \right|=\left| Ein \right|\cdot \left| B \right|\Rightarrow \left| A\cdot ((A)^(-1)) \right|=\left| Ein \right|\cdot \left| ((A)^(-1)) \right|\]

Aber gemäß der Definition ist $A\cdot ((A)^(-1))=E$, und die Determinante von $E$ ist immer gleich 1, also

\[\begin(align) & A\cdot ((A)^(-1))=E; \\ & \left| A\cdot ((A)^(-1)) \right|=\left| E\right|; \\ & \left| Ein \right|\cdot \left| ((A)^(-1)) \right|=1. \\ \end(align)\]

Das Produkt zweier Zahlen ist nur dann gleich eins, wenn jede dieser Zahlen ungleich Null ist:

\[\left| A \right|\ne 0;\quad \left| ((A)^(-1)) \right|\ne 0.\]

Es stellt sich also heraus, dass $\left| A \right|\ne 0$. Das Lemma ist bewiesen.

Tatsächlich ist diese Anforderung durchaus logisch. Jetzt analysieren wir den Algorithmus zum Finden der inversen Matrix – und es wird völlig klar, warum mit einer Nulldeterminante grundsätzlich keine inverse Matrix existieren kann.

Aber formulieren wir zunächst eine „Hilfs“-Definition:

Definition. Eine singuläre Matrix ist eine quadratische Matrix der Größe $\left[ n\times n \right]$, deren Determinante Null ist.

Somit können wir behaupten, dass jede invertierbare Matrix nicht singulär ist.

So finden Sie die Umkehrung einer Matrix

Nun betrachten wir einen universellen Algorithmus zum Finden inverser Matrizen. Im Allgemeinen gibt es zwei allgemein akzeptierte Algorithmen, und wir werden heute auch den zweiten betrachten.

Die Methode, die jetzt besprochen wird, ist sehr effektiv für Matrizen der Größe $\left[ 2\times 2 \right]$ und – teilweise – der Größe $\left[ 3\times 3 \right]$. Aber ab der Größe $\left[ 4\times 4 \right]$ ist es besser, es nicht zu verwenden. Warum - jetzt werden Sie alles selbst verstehen.

Algebraische Ergänzungen

Bereit machen. Jetzt wird es Schmerzen geben. Nein, keine Sorge: Eine schöne Krankenschwester in Rock, Strümpfen mit Spitze wird nicht zu Ihnen kommen und Ihnen eine Spritze ins Gesäß geben. Alles ist viel prosaischer: Algebraische Additionen und Ihre Majestät die „Union Matrix“ kommen zu Ihnen.

Beginnen wir mit der Hauptsache. Es sei eine quadratische Matrix der Größe $A=\left[ n\times n \right]$, deren Elemente $((a)_(ij))$ heißen. Dann können wir für jedes dieser Elemente ein algebraisches Komplement definieren:

Definition. Algebraisches Komplement $((A)_(ij))$ zum Element $((a)_(ij))$ in der $i$ten Zeile und $j$ten Spalte der Matrix $A=\left[ n \times n \right]$ ist eine Konstruktion der Form

\[((A)_(ij))=((\left(-1 \right))^(i+j))\cdot M_(ij)^(*)\]

Wobei $M_(ij)^(*)$ die Determinante der Matrix ist, die aus dem ursprünglichen $A$ durch Löschen derselben $i$-ten Zeile und $j$-ten Spalte erhalten wird.

Noch einmal. Das algebraische Komplement zu einem Matrixelement mit den Koordinaten $\left(i;j \right)$ wird als $((A)_(ij))$ bezeichnet und nach dem Schema berechnet:

  1. Zuerst löschen wir die $i$-Zeile und die $j$-te Spalte aus der Originalmatrix. Wir erhalten eine neue quadratische Matrix und bezeichnen ihre Determinante als $M_(ij)^(*)$.
  2. Dann multiplizieren wir diese Determinante mit $((\left(-1 \right))^(i+j))$ – auf den ersten Blick mag dieser Ausdruck umwerfend erscheinen, aber im Wesentlichen finden wir einfach das Vorzeichen heraus $M_(ij)^(*) $.
  3. Wir zählen und erhalten eine bestimmte Zahl. Diese. die algebraische Addition ist genau eine Zahl und keine neue Matrix usw.

Die Matrix $M_(ij)^(*)$ selbst wird als zusätzliches Nebenelement des Elements $((a)_(ij))$ bezeichnet. Und in diesem Sinne ist die obige Definition eines algebraischen Komplements ein Sonderfall einer komplexeren Definition – die wir uns in der Lektion über die Determinante angesehen haben.

Wichtiger Hinweis. Tatsächlich werden algebraische Additionen in der „Erwachsenen“-Mathematik wie folgt definiert:

  1. Wir nehmen $k$ Zeilen und $k$ Spalten in einer quadratischen Matrix. An ihrem Schnittpunkt erhalten wir eine Matrix der Größe $\left[ k\times k \right]$ – ihre Determinante wird als Minor der Ordnung $k$ bezeichnet und mit $((M)_(k))$ bezeichnet.
  2. Dann streichen wir diese „ausgewählten“ $k$ Zeilen und $k$ Spalten durch. Sie erhalten wieder eine quadratische Matrix – ihre Determinante wird zusätzliches Minor genannt und mit $M_(k)^(*)$ bezeichnet.
  3. Multiplizieren Sie $M_(k)^(*)$ mit $((\left(-1 \right))^(t))$, wobei $t$ (Achtung!) die Summe der Zahlen aller ausgewählten Zeilen ist und Spalten. Dies wird die algebraische Addition sein.

Schauen Sie sich den dritten Schritt an: Es gibt tatsächlich eine Summe von 2.000 $! Eine andere Sache ist, dass wir für $k=1$ nur zwei Terme erhalten – diese werden die gleichen $i+j$ sein – die „Koordinaten“ des Elements $((a)_(ij))$, für das wir uns befinden auf der Suche nach einer algebraischen Ergänzung.

Daher verwenden wir heute eine leicht vereinfachte Definition. Aber wie wir später sehen werden, wird es mehr als genug sein. Viel wichtiger ist folgendes:

Definition. Die mit der quadratischen Matrix $A=\left[ n\times n \right]$ verbundene Matrix $S$ ist eine neue Matrix der Größe $\left[ n\times n \right]$, die aus $A$ erhalten wird durch Ersetzen von $(( a)_(ij))$ durch algebraische Additionen $((A)_(ij))$:

\\Rightarrow S=\left[ \begin(matrix) ((A)_(11)) & ((A)_(12)) & ... & ((A)_(1n)) \\ (( A)_(21)) & ((A)_(22)) & ... & ((A)_(2n)) \\ ... & ... & ... & ... \\ ((A)_(n1)) & ((A)_(n2)) & ... & ((A)_(nn)) \\\end(matrix) \right]\]

Der erste Gedanke, der im Moment der Verwirklichung dieser Definition entsteht, ist: „Wie viel muss gezählt werden?“ Entspannen Sie sich: Sie müssen zählen, aber nicht so viel. :)

Nun, das ist alles sehr schön, aber warum ist es notwendig? Aber warum.

Hauptsatz

Gehen wir noch ein wenig zurück. Denken Sie daran, dass in Lemma 3 angegeben wurde, dass die invertierbare Matrix $A$ immer nicht singulär ist (das heißt, ihre Determinante ist ungleich Null: $\left| A \right|\ne 0$).

Das Gegenteil gilt also auch: Wenn die Matrix $A$ nicht singulär ist, dann ist sie immer invertierbar. Und es gibt sogar ein Suchschema für $((A)^(-1))$. Hör zu:

Satz der inversen Matrix. Gegeben sei eine quadratische Matrix $A=\left[ n\times n \right]$, deren Determinante ungleich Null sei: $\left| A \right|\ne 0$. Dann existiert die inverse Matrix $((A)^(-1))$ und wird nach der Formel berechnet:

\[((A)^(-1))=\frac(1)(\left| A \right|)\cdot ((S)^(T))\]

Und jetzt ist alles beim Alten, aber in leserlicher Handschrift. Um die Umkehrmatrix zu finden, benötigen Sie:

  1. Berechnen Sie die Determinante $\left| Ein \right|$ und stellen Sie sicher, dass es ungleich Null ist.
  2. Konstruieren Sie die Vereinigungsmatrix $S$, d.h. Zähle 100500 algebraische Additionen $((A)_(ij))$ und platziere sie an der Stelle $((a)_(ij))$.
  3. Transponieren Sie diese Matrix $S$ und multiplizieren Sie sie dann mit einer Zahl $q=(1)/(\left| A \right|)\;$.

Und alle! Die inverse Matrix $((A)^(-1))$ wurde gefunden. Schauen wir uns Beispiele an:

\[\left[ \begin(matrix) 3 & 1 \\ 5 & 2 \\\end(matrix) \right]\]

Lösung. Lassen Sie uns die Reversibilität überprüfen. Berechnen wir die Determinante:

\[\left| A\right|=\left| \begin(matrix) 3 & 1 \\ 5 & 2 \\\end(matrix) \right|=3\cdot 2-1\cdot 5=6-5=1\]

Die Determinante ist von Null verschieden. Dies bedeutet, dass die Matrix invertierbar ist. Lassen Sie uns eine Vereinigungsmatrix erstellen:

Berechnen wir die algebraischen Additionen:

\[\begin(align) & ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| 2 \right|=2; \\ & ((A)_(12))=((\left(-1 \right))^(1+2))\cdot \left| 5 \right|=-5; \\ & ((A)_(21))=((\left(-1 \right))^(2+1))\cdot \left| 1 \right|=-1; \\ & ((A)_(22))=((\left(-1 \right))^(2+2))\cdot \left| 3\right|=3. \\ \end(align)\]

Bitte beachten: Die Determinanten |2|, |5|, |1| und |3| sind Determinanten von Matrizen der Größe $\left[ 1\times 1 \right]$ und keine Module. Diese. Wenn die Determinanten negative Zahlen enthielten, muss das „Minus“ nicht entfernt werden.

Insgesamt sieht unsere Unionsmatrix so aus:

\[((A)^(-1))=\frac(1)(\left| A \right|)\cdot ((S)^(T))=\frac(1)(1)\cdot ( (\left[ \begin(array)(*(35)(r)) 2 & -5 \\ -1 & 3 \\\end(array) \right])^(T))=\left[ \begin (array)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(array) \right]\]

OK, jetzt ist alles vorbei. Das Problem ist behoben.

Antwort. $\left[ \begin(array)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(array) \right]$

Aufgabe. Finden Sie die inverse Matrix:

\[\left[ \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right] \]

Lösung. Wir berechnen die Determinante noch einmal:

\[\begin(align) & \left| \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right|=\begin(matrix ) \left(1\cdot 2\cdot 1+\left(-1 \right)\cdot \left(-1 \right)\cdot 1+2\cdot 0\cdot 0 \right)- \\ -\left (2\cdot 2\cdot 1+\left(-1 \right)\cdot 0\cdot 1+1\cdot \left(-1 \right)\cdot 0 \right) \\\end(matrix)= \ \ & =\left(2+1+0 \right)-\left(4+0+0 \right)=-1\ne 0. \\ \end(align)\]

Die Determinante ist ungleich Null – die Matrix ist invertierbar. Aber jetzt wird es wirklich schwierig: Wir müssen bis zu neun (neun, Mistkerl!) algebraische Additionen zählen. Und jeder von ihnen enthält die Determinante $\left[ 2\times 2 \right]$. Geflogen:

\[\begin(matrix) ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| \begin(matrix) 2 & -1 \\ 0 & 1 \\\end(matrix) \right|=2; \\ ((A)_(12))=((\left(-1 \right))^(1+2))\cdot \left| \begin(matrix) 0 & -1 \\ 1 & 1 \\\end(matrix) \right|=-1; \\ ((A)_(13))=((\left(-1 \right))^(1+3))\cdot \left| \begin(matrix) 0 & 2 \\ 1 & 0 \\\end(matrix) \right|=-2; \\ ... \\ ((A)_(33))=((\left(-1 \right))^(3+3))\cdot \left| \begin(matrix) 1 & -1 \\ 0 & 2 \\\end(matrix) \right|=2; \\ \end(matrix)\]

Kurz gesagt sieht die Vereinigungsmatrix so aus:

Daher lautet die Umkehrmatrix:

\[((A)^(-1))=\frac(1)(-1)\cdot \left[ \begin(matrix) 2 & -1 & -2 \\ 1 & -1 & -1 \\ -3 & 1 & 2 \\\end(matrix) \right]=\left[ \begin(array)(*(35)(r))-2 & -1 & 3 \\ 1 & 1 & -1 \ \2 & 1 & -2 \\\end(array) \right]\]

Das ist es. Hier ist die Antwort.

Antwort. $\left[ \begin(array)(*(35)(r)) -2 & -1 & 3 \\ 1 & 1 & -1 \\ 2 & 1 & -2 \\\end(array) \right ]$

Wie Sie sehen, haben wir am Ende jedes Beispiels eine Überprüfung durchgeführt. In diesem Zusammenhang ein wichtiger Hinweis:

Seien Sie nicht faul, dies zu überprüfen. Multiplizieren Sie die ursprüngliche Matrix mit der gefundenen inversen Matrix – Sie sollten $E$ erhalten.

Diese Prüfung ist viel einfacher und schneller durchzuführen, als in weiteren Berechnungen nach einem Fehler zu suchen, wenn Sie beispielsweise eine Matrixgleichung lösen.

Alternativer Weg

Wie gesagt, der inverse Matrixsatz funktioniert hervorragend für die Größen $\left[ 2\times 2 \right]$ und $\left[ 3\times 3 \right]$ (im letzteren Fall ist er nicht so „großartig“) ), aber bei größeren Matrizen beginnt die Traurigkeit.

Aber keine Sorge: Es gibt einen alternativen Algorithmus, mit dem Sie auch für die Matrix $\left[ 10\times 10 \right]$ ganz einfach die Umkehrung finden können. Aber wie so oft benötigen wir zur Betrachtung dieses Algorithmus ein wenig theoretischen Hintergrund.

Elementare Transformationen

Unter allen möglichen Matrixtransformationen gibt es einige besondere – sie werden elementar genannt. Es gibt genau drei solcher Transformationen:

  1. Multiplikation. Sie können die $i$te Zeile (Spalte) nehmen und sie mit einer beliebigen Zahl $k\ne 0$ multiplizieren;
  2. Zusatz. Fügen Sie zur $i$-ten Zeile (Spalte) jede andere $j$-te Zeile (Spalte) hinzu, multipliziert mit einer beliebigen Zahl $k\ne 0$ (Sie können natürlich $k=0$ tun, aber was ist das? der Punkt? ? Nichts wird sich ändern).
  3. Neuordnung. Nehmen Sie die $i$te und $j$te Zeile (Spalte) und tauschen Sie die Plätze aus.

Warum diese Transformationen elementar genannt werden (bei großen Matrizen sehen sie nicht so elementar aus) und warum es nur drei davon gibt – diese Fragen gehen über den Rahmen der heutigen Lektion hinaus. Daher gehen wir nicht näher darauf ein.

Noch etwas ist wichtig: Wir müssen alle diese Perversionen an der adjungierten Matrix durchführen. Ja, ja: Du hast richtig gehört. Nun kommt noch eine weitere Definition – die letzte in der heutigen Lektion.

Adjungierte Matrix

Sicherlich haben Sie in der Schule Gleichungssysteme mit der Additionsmethode gelöst. Nun, subtrahieren Sie eine weitere Zeile von einer Zeile, multiplizieren Sie eine Zeile mit einer Zahl – das ist alles.

Also: Jetzt wird alles beim Alten sein, aber auf eine „erwachsene“ Art und Weise. Bereit?

Definition. Gegeben seien eine Matrix $A=\left[ n\times n \right]$ und eine Identitätsmatrix $E$ gleicher Größe $n$. Dann ist die adjungierte Matrix $\left[ A\left| E\richtig. \right]$ ist eine neue Matrix der Größe $\left[ n\times 2n \right]$, die wie folgt aussieht:

\[\left[ A\left| E\richtig. \right]=\left[ \begin(array)(rrrr|rrrr)((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) & 1 & 0 & ... & 0 \\((a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) & 0 & 1 & ... & 0 \\... & ... & ... & ... & ... & ... & ... & ... \\((a)_(n1)) & ((a)_(n2)) & ... & ((a)_(nn)) & 0 & 0 & ... & 1 \\\end(array) \right]\]

Kurz gesagt, wir nehmen die Matrix $A$, weisen ihr rechts die Identitätsmatrix $E$ der erforderlichen Größe zu, wir trennen sie der Schönheit halber durch einen vertikalen Balken – hier haben Sie die Adjungierte. :)

Was ist der Haken? Hier ist was:

Satz. Die Matrix $A$ sei invertierbar. Betrachten Sie die adjungierte Matrix $\left[ A\left| E\richtig. \right]$. Bei Verwendung Elementare String-Konvertierungen Bringen Sie es in die Form $\left[ E\left| Hell. \right]$, d.h. durch Multiplizieren, Subtrahieren und Neuanordnen von Zeilen, um aus $A$ die Matrix $E$ auf der rechten Seite zu erhalten, dann ist die auf der linken Seite erhaltene Matrix $B$ die Umkehrung von $A$:

\[\left[ A\left| E\richtig. \right]\to \left[ E\left| Hell. \right]\Rightarrow B=((A)^(-1))\]

So einfach ist das! Kurz gesagt sieht der Algorithmus zum Finden der inversen Matrix so aus:

  1. Schreiben Sie die adjungierte Matrix $\left[ A\left| E\richtig. \right]$;
  2. Führen Sie elementare String-Konvertierungen durch, bis $E$ anstelle von $A$ erscheint;
  3. Natürlich wird auch links etwas erscheinen – eine bestimmte Matrix $B$. Das wird das Gegenteil sein;
  4. PROFITIEREN!:)

Das ist natürlich viel leichter gesagt als getan. Schauen wir uns also ein paar Beispiele an: für die Größen $\left[ 3\times 3 \right]$ und $\left[ 4\times 4 \right]$.

Aufgabe. Finden Sie die inverse Matrix:

\[\left[ \begin(array)(*(35)(r)) 1 & 5 & 1 \\ 3 & 2 & 1 \\ 6 & -2 & 1 \\\end(array) \right]\ ]

Lösung. Wir erstellen die adjungierte Matrix:

\[\left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & -2 & 1 & 0 & 0 & 1 \\\end(array) \right]\]

Da die letzte Spalte der ursprünglichen Matrix mit Einsen gefüllt ist, subtrahieren Sie die erste Zeile vom Rest:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & - 2 & 1 & 0 & 0 & 1 \\\end(array) \right]\begin(matrix) \downarrow \\ -1 \\ -1 \\\end(matrix)\to \\ & \to \left [ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right] \\ \end(align)\]

Außer der ersten Zeile gibt es keine weiteren Einheiten. Aber wir rühren es nicht an, sonst beginnen sich die neu entfernten Einheiten in der dritten Spalte zu „vermehren“.

Aber wir können die zweite Zeile zweimal von der letzten subtrahieren – wir erhalten eins in der unteren linken Ecke:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right]\begin(matrix) \ \\ \downarrow \\ -2 \\\end(matrix)\to \\ & \left [ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Jetzt können wir die letzte Zeile von der ersten und zweimal von der zweiten subtrahieren – auf diese Weise „nullen“ wir die erste Spalte:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) -1 \\ -2 \\ \uparrow \\\end(matrix)\to \\ & \ bis \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Multiplizieren Sie die zweite Zeile mit −1, subtrahieren Sie sie dann sechsmal von der ersten und addieren Sie einmal zur letzten Zeile:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \ \ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) \ \\ \left| \cdot \left(-1 \right) \right. \\ \ \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) -6 \\ \updownarrow \\ +1 \\\end (matrix)\to \\ & \to \left[ \begin(array)(rrr|rrr) 0 & 0 & 1 & -18 & 32 & -13 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & 0 & 0 & 4 & -7 & 3 \\\end(array) \right] \\ \end(align)\]

Jetzt müssen nur noch die Zeilen 1 und 3 vertauscht werden:

\[\left[ \begin(array)(rrr|rrr) 1 & 0 & 0 & 4 & -7 & 3 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 0 & 0 & 1 & - 18 & 32 & -13 \\\end(array) \right]\]

Bereit! Rechts ist die erforderliche inverse Matrix.

Antwort. $\left[ \begin(array)(*(35)(r))4 & -7 & 3 \\ 3 & -5 & 2 \\ -18 & 32 & -13 \\\end(array) \right ]$

Aufgabe. Finden Sie die inverse Matrix:

\[\left[ \begin(matrix) 1 & 4 & 2 & 3 \\ 1 & -2 & 1 & -2 \\ 1 & -1 & 1 & 1 \\ 0 & -10 & -2 & -5 \\\end(matrix) \right]\]

Lösung. Wir bilden den Adjungierten noch einmal:

\[\left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \ \ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right]\]

Lasst uns ein wenig weinen, traurig darüber sein, wie viel wir jetzt zählen müssen... und anfangen zu zählen. Lassen Sie uns zunächst die erste Spalte „auf Null setzen“, indem wir Zeile 1 von den Zeilen 2 und 3 subtrahieren:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \\ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right]\begin(matrix) \downarrow \\ -1 \\ -1 \\ \ \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & -1 & 1 & 0 & 0 \\ 0 & -5 & -1 & -2 & -1 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right] \\ \end(align)\]

Wir sehen in den Zeilen 2-4 zu viele „Nachteile“. Multiplizieren Sie alle drei Zeilen mit −1 und brennen Sie dann die dritte Spalte aus, indem Sie Zeile 3 vom Rest subtrahieren:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & - 1 & 1 & 0 & 0 \\ 0 & -5 & -1 & -2 & -1 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\ \end(array) \right]\begin(matrix) \ \\ \left| \cdot \left(-1 \right) \right. \\ \left| \cdot \left(-1 \right) \right. \\ \left| \cdot \left(-1 \right) \right. \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & 6 & 1 & 5 & ​​​​1 & -1 & 0 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 10 & 2 & 5 & 0 & 0 & 0 & -1 \\ \end (array) \right]\begin(matrix) -2 \\ -1 \\ \updownarrow \\ -2 \\\end(matrix)\to \\ & \to \left[ \begin(array)( rrrr| rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Jetzt ist es an der Zeit, die letzte Spalte der ursprünglichen Matrix zu „braten“: Subtrahieren Sie Zeile 4 vom Rest:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array ) \right]\begin(matrix) +1 \\ -3 \\ -2 \\ \uparrow \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Letzter Wurf: „Brennen“ Sie die zweite Spalte aus, indem Sie Zeile 2 von Zeile 1 und 3 subtrahieren:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end( array) \right]\begin(matrix) 6 \\ \updownarrow \\ -5 \\ \ \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 0 & 0 & 0 & 33 & -6 & -26 & -17 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 0 & 1 & 0 & -25 & 5 & 20 & -13 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Und wieder ist die Identitätsmatrix links, was bedeutet, dass die Umkehrung rechts ist. :)

Antwort. $\left[ \begin(matrix) 33 & -6 & -26 & 17 \\ 6 & -1 & -5 & 3 \\ -25 & 5 & 20 & -13 \\ -2 & 0 & 2 & - 1 \\\end(matrix) \right]$

Es sei eine quadratische Matrix n-ter Ordnung

Matrix A -1 wird aufgerufen inverse Matrix in Bezug auf Matrix A, wenn A*A -1 = E, wobei E die Identitätsmatrix n-ter Ordnung ist.

Identitätsmatrix- eine solche quadratische Matrix, in der alle Elemente entlang der Hauptdiagonale, die von der oberen linken Ecke zur unteren rechten Ecke verlaufen, Einsen und der Rest Nullen sind, zum Beispiel:

inverse Matrix kann existieren nur für quadratische Matrizen diese. für diejenigen Matrizen, bei denen die Anzahl der Zeilen und Spalten übereinstimmt.

Satz für die Existenzbedingung einer inversen Matrix

Damit eine Matrix eine inverse Matrix hat, ist es notwendig und ausreichend, dass sie nicht singulär ist.

Die Matrix A = (A1, A2,...A n) wird aufgerufen nicht entartet, wenn die Spaltenvektoren linear unabhängig sind. Die Anzahl der linear unabhängigen Spaltenvektoren einer Matrix wird als Rang der Matrix bezeichnet. Daher können wir sagen, dass es für die Existenz einer inversen Matrix notwendig und ausreichend ist, dass der Rang der Matrix gleich ihrer Dimension ist, d.h. r = n.

Algorithmus zum Finden der inversen Matrix

  1. Schreiben Sie die Matrix A in die Tabelle zur Lösung von Gleichungssystemen nach der Gaußschen Methode und weisen Sie ihr rechts (anstelle der rechten Seite der Gleichungen) die Matrix E zu.
  2. Reduzieren Sie Matrix A mithilfe von Jordan-Transformationen auf eine Matrix, die aus Einheitsspalten besteht. In diesem Fall ist es notwendig, gleichzeitig die Matrix E zu transformieren.
  3. Ordnen Sie bei Bedarf die Zeilen (Gleichungen) der letzten Tabelle neu an, sodass Sie unter der Matrix A der Originaltabelle die Identitätsmatrix E erhalten.
  4. Schreiben Sie die inverse Matrix A -1 auf, die sich in der letzten Tabelle unter der Matrix E der Originaltabelle befindet.
Beispiel 1

Finden Sie für Matrix A die inverse Matrix A -1

Lösung: Wir schreiben Matrix A und weisen rechts die Identitätsmatrix E zu. Mithilfe von Jordan-Transformationen reduzieren wir Matrix A auf die Identitätsmatrix E. Die Berechnungen sind in Tabelle 31.1 angegeben.

Überprüfen wir die Richtigkeit der Berechnungen, indem wir die ursprüngliche Matrix A und die inverse Matrix A -1 multiplizieren.

Als Ergebnis der Matrixmultiplikation wurde die Identitätsmatrix erhalten. Daher wurden die Berechnungen korrekt durchgeführt.

Antwort:

Lösen von Matrixgleichungen

Matrixgleichungen können wie folgt aussehen:

AX = B, HA = B, AXB = C,

wobei A, B, C die angegebenen Matrizen sind, X die gewünschte Matrix ist.

Matrixgleichungen werden durch Multiplikation der Gleichung mit inversen Matrizen gelöst.

Um beispielsweise die Matrix aus der Gleichung zu ermitteln, müssen Sie diese Gleichung links mit multiplizieren.

Um eine Lösung der Gleichung zu finden, müssen Sie daher die inverse Matrix finden und sie mit der Matrix auf der rechten Seite der Gleichung multiplizieren.

Andere Gleichungen werden auf ähnliche Weise gelöst.

Beispiel 2

Lösen Sie die Gleichung AX = B, wenn

Lösung: Da die inverse Matrix gleich ist (siehe Beispiel 1)

Matrixmethode in der Wirtschaftsanalyse

Sie werden unter anderem auch verwendet Matrixmethoden. Diese Methoden basieren auf linearer Algebra und Vektor-Matrix-Algebra. Solche Methoden werden zur Analyse komplexer und mehrdimensionaler wirtschaftlicher Phänomene eingesetzt. Am häufigsten werden diese Methoden verwendet, wenn eine vergleichende Bewertung der Funktionsweise von Organisationen und ihrer Struktureinheiten erforderlich ist.

Bei der Anwendung von Matrixanalysemethoden lassen sich mehrere Phasen unterscheiden.

In der ersten Phase Es wird ein System von Wirtschaftsindikatoren erstellt und auf dieser Grundlage eine Matrix von Ausgangsdaten erstellt, bei der es sich um eine Tabelle handelt, in der die Systemzahlen in den einzelnen Zeilen aufgeführt sind (i = 1,2,....,n) und in vertikalen Spalten - Anzahl der Indikatoren (j = 1,2,....,m).

In der zweiten Phase Für jede vertikale Spalte wird der größte der verfügbaren Indikatorwerte identifiziert, der als eins genommen wird.

Anschließend werden alle in dieser Spalte angezeigten Beträge durch den größten Wert dividiert und eine Matrix standardisierter Koeffizienten gebildet.

In der dritten Stufe Alle Komponenten der Matrix sind quadriert. Bei unterschiedlicher Bedeutung wird jedem Matrixindikator ein bestimmter Gewichtskoeffizient zugeordnet k. Der Wert des letzteren wird durch ein Gutachten ermittelt.

Beim letzten, vierte Stufe Bewertungswerte gefunden Rj werden in der Reihenfolge ihrer Zunahme oder Abnahme gruppiert.

Die beschriebenen Matrixmethoden sollten beispielsweise bei einer vergleichenden Analyse verschiedener Investitionsvorhaben sowie bei der Bewertung anderer wirtschaftlicher Indikatoren der Aktivitäten von Organisationen eingesetzt werden.