Geradlinige Algebra

Geradlinige Algebra ist der Zweig der Mathematik, die wegen des Nachforschens der Eigenschaften von begrenzten sowie zählbar unendlichen dimensionalen Vektorräumen und geradlinigem mappings zwischen solchen Räumen angeklagt ist. Solch eine Untersuchung wird durch ein System von geradlinigen Gleichungen in mehreren unknowns am Anfang motiviert. Solche Gleichungen werden mit dem Formalismus von matrices und Vektoren natürlich vertreten.

Geradlinige Algebra ist sowohl zur reinen als auch zu angewandten Mathematik zentral. Zum Beispiel entsteht abstrakte Algebra durch das Entspannen der Axiome, die zu mehreren Generalisationen führen. Jedoch konzentriert sich geradlinige Algebra mehr auf begrenzte dimensionale Räume, wohingegen Funktionsanalyse die unendlich-dimensionale Version dieser Theorie studiert. Verbunden mit der Rechnung erlaubt es die Lösung geradliniger Systeme von Differenzialgleichungen. Die Techniken sind auch in der analytischen Geometrie anwendbar. Seine Methoden werden umfassend in der Technik, der Physik, den Naturwissenschaften, der Informatik und den Sozialwissenschaften (besonders in der Volkswirtschaft) verwendet. Nichtlinearen mathematischen Modellen kann manchmal durch geradlinige näher gekommen werden.

Geschichte

Die Studie der geradlinigen Algebra und matrices ist zuerst aus Determinanten erschienen, die verwendet wurden, um Systeme von geradlinigen Gleichungen zu lösen. Determinanten wurden von Leibniz 1693, und nachher verwendet, Cramer hat die Regierung von Cramer ausgedacht, um geradlinige Systeme 1750 zu lösen.

Später hat Gauss weiter die Theorie entwickelt, geradlinige Systeme zu lösen, indem er Beseitigung von Gaussian verwendet hat, die als eine Förderung in der Erdmessung am Anfang verzeichnet wurde.

Die Studie der Matrixalgebra ist zuerst in England Mitte der 1800er Jahre erschienen. Sylvester 1848 hat den Begriff Matrix eingeführt, die für "die Gebärmutter" lateinisch ist. Während er Zusammensetzungen geradlinige Transformationen studiert hat, wurde Arthur Cayley dazu gebracht, Matrixmultiplikation und Gegenteile zu definieren. Entscheidend hat Cayley einen einzelnen Brief verwendet, um eine Matrix anzuzeigen, so matrices als ein gesamter Gegenstand denkend. Er hat auch die Verbindung zwischen matrices und Determinanten begriffen und hat geschrieben, dass "Es viele Dinge geben würde, über diese Theorie von matrices zu sagen, der es mir scheint, sollte der Theorie von Determinanten vorangehen".

Die erste moderne und genauere Definition eines Vektorraums wurde von Peano 1888, und vor 1900 eingeführt, eine Theorie von geradlinigen Transformationen von endlich-dimensionalen Vektorräumen war erschienen.

Das Thema hat zuerst seine moderne Form in der ersten Hälfte des zwanzigsten Jahrhunderts angenommen. In dieser Zeit wurden viele Ideen und Methoden von vorherigen Jahrhunderten als abstrakte Algebra verallgemeinert. Der Gebrauch von matrices in der Quant-Mechanik, speziellen Relativität und Statistik hat viel getan, um das Thema der geradlinigen Algebra außer der reinen Mathematik auszubreiten. Die Entwicklung von Computern hat zu vergrößerter Forschung in effizienten Algorithmen für die Beseitigung von Gaussian und Matrixzergliederungen geführt, und geradlinige Algebra ist ein wesentliches Werkzeug für das Modellieren und die Simulationen geworden.

Der Ursprung von vielen dieser Ideen wird in den Artikeln über Determinanten und Beseitigung von Gaussian besprochen.

Spielraum der Studie

Vektorräume

Die Hauptstrukturen der geradlinigen Algebra sind Vektorräume. Ein Vektorraum über Feld F ist ein Satz V zusammen mit zwei binären Operationen, die die acht Axiome befriedigen, die unten verzeichnet sind. Elemente V werden Vektoren genannt, und Elemente von F werden Skalare genannt. Die erste Operation, Vektor-Hinzufügung, nimmt irgendwelche zwei Vektoren v und w und teilt ihnen einen dritten Vektoren zu Die zweite Operation nimmt jeden Skalar a und jeden Vektoren v und gibt einem anderen. Im Hinblick auf das erste Beispiel, wo die Multiplikation durch das Wiederschuppen des Vektoren v durch einen Skalar a getan wird, wird die Multiplikation Skalarmultiplikation von v durch a genannt.

Um sich als ein Vektorraum zu qualifizieren, müssen der Satz V und die Operationen der Hinzufügung und Multiplikation an den folgenden Axiomen kleben. In der Liste unten, lassen Sie u, v und w willkürliche Vektoren in V, und a und b Skalare in F. sein

Elemente eines allgemeinen Vektorraums V können Gegenstände jeder Natur, zum Beispiel, Funktionen, Polynome, Vektoren oder matrices sein. Geradlinige Algebra ist mit für alle Vektorräume üblichen Eigenschaften beschäftigt.

Geradlinige Transformationen

Ähnlich als in der Theorie anderer algebraischer Strukturen studiert geradlinige Algebra mappings zwischen Vektorräumen, die die Vektorraum-Struktur bewahren. In Anbetracht zwei Vektorräume V und W über Feld F ist eine geradlinige Transformation (hat auch geradlinige Karte genannt, geradlinig kartografisch darzustellen, oder geradlinigen Maschinenbediener), eine Karte

:

das ist mit der Hinzufügung und Skalarmultiplikation vereinbar:

:

für irgendwelche Vektoren u, v  V und ein Skalar ein  F.

Wenn es gibt zwischen zwei Vektorräumen bijektiv geradlinig kartografisch darzustellen (d. h. eine Weise, jeden Vektoren vom ersten Raum bis das zweite und umgekehrt zu vereinigen), sagen wir, dass die zwei Räume isomorph sind. Weil ein Isomorphismus geradlinige Struktur bewahrt, sind zwei isomorphe Vektorräume "im Wesentlichen dasselbe" aus dem geradlinigen Algebra-Gesichtspunkt. Eine wesentliche Frage in der geradlinigen Algebra besteht darin, ob kartografisch darzustellen, ein Isomorphismus oder nicht ist, und auf diese Frage durch die Überprüfung geantwortet werden kann, ob die Determinante Nichtnull ist. Wenn kartografisch darzustellen, nicht ein Isomorphismus ist, interessiert sich geradlinige Algebra für die Entdeckung seiner Reihe (oder Image) und der Satz von Elementen, die zur Null, genannt den Kern kartografisch dargestellt werden, kartografisch darzustellen.

Subräume, Spanne und Basis

Wieder in der Entsprechung mit Theorien anderer algebraischer Gegenstände interessiert sich geradlinige Algebra für Teilmengen von Vektorräumen, die Vektorräume selbst sind; diese Teilmengen werden geradlinige Subräume genannt. Zum Beispiel sind die Reihe und der Kern, geradlinig kartografisch darzustellen, beide Subräume, und werden so häufig den Reihe-Raum und den nullspace genannt; das sind wichtige Beispiele von Subräumen. Eine andere wichtige Weise, einen Subraum zu bilden, nimmt eine geradlinige Kombination von einer Reihe von Vektoren v, v, …, v:

:

wo a, a, …, Skalare sind. Der Satz aller geradlinigen Kombinationen von Vektoren v, v, …, v wird ihre Spanne genannt, die einen Subraum bildet.

Eine geradlinige Kombination jedes Systems von Vektoren mit allen Nullkoeffizienten ist Nullvektor V. Wenn das die einzige Weise ist, Nullvektoren als eine geradlinige Kombination von v, v, …, v dann auszudrücken, sind diese Vektoren linear unabhängig.

In Anbetracht einer Reihe von Vektoren, die einen Raum abmessen, wenn ein Vektor eine geradlinige Kombination anderer Vektoren wäre (und so ist der Satz nicht linear unabhängig), dann würde die Spanne dasselbe bleiben, wenn wir vom Satz umzögen. So, eine Reihe linearer abhängig Vektoren ist im Sinn überflüssig, dass eine linear unabhängige Teilmenge denselben Subraum abmessen wird.

Deshalb interessieren wir uns größtenteils für einen linear unabhängigen Satz von Vektoren, der einen Vektorraum V abmisst, den wir eine Basis V nennen. Jeder Satz von Vektoren, der V abmisst, enthält eine Basis, und jeder linear unabhängige Satz von Vektoren in V kann zu einer Basis erweitert werden. Es stellt sich heraus, dass, wenn wir das Axiom der Wahl akzeptieren, jeder Vektorraum eine Basis hat; dennoch kann diese Basis, und tatsächlich unnatürlich sein, kann nicht constructable sogar sein. Zum Beispiel, dort besteht eine Basis für die reellen Zahlen betrachtet als ein Vektorraum über den rationals, aber keine ausführliche Basis ist gebaut worden.

Irgendwelche zwei Basen eines Vektorraums V haben denselben cardinality, der die Dimension V genannt wird. Die Dimension eines Vektorraums ist durch den Dimensionslehrsatz für Vektorräume bestimmt. Wenn eine Basis V begrenzte Zahl der Elemente hat, V wird einen endlich-dimensionalen Vektorraum genannt. Wenn V endlich-dimensional ist und U ein Subraum V ist, dann verdunkeln Sie sich U verdunkeln sich  V. Wenn U und U Subräume V, dann sind

:.

Man schränkt häufig Rücksicht auf endlich-dimensionale Vektorräume ein. Ein Hauptsatz der geradlinigen Algebra stellt fest, dass alle Vektorräume derselben Dimension isomorph sind, einen leichten davon weggebend, Isomorphismus zu charakterisieren.

Vektoren als N-Tupel: Matrixtheorie

Eine besondere Basis {v, v, …, v} V erlaubt, ein Koordinatensystem in V zu bauen: Der Vektor mit Koordinaten (a, a, …, a) ist die geradlinige Kombination

:

Die Bedingung dass messen v, v, …, v V Garantien ab, dass jeder Vektor v Koordinaten zugeteilt werden kann, wohingegen die geradlinige Unabhängigkeit von v, v, …, v weiter versichert, dass diese Koordinaten auf eine einzigartige Weise bestimmt werden (d. h. es nur eine geradlinige Kombination der Basisvektoren gibt, die v gleich ist). Auf diese Weise, sobald eine Basis eines Vektorraums V über F, V gewählt worden ist, kann mit dem KoordinatenN-Raum F identifiziert werden. Unter dieser Identifizierung entsprechen Hinzufügung und Skalarmultiplikation von Vektoren in V Hinzufügung und Skalarmultiplikation ihrer Koordinatenvektoren in F. Außerdem, wenn V und W ein n-dimensional und M dimensionaler Vektorraum über F sind, und eine Basis V und eine Basis von W, dann jede geradlinige Transformation T befestigt worden sind: V  W können durch eine M &times verschlüsselt werden; n Matrix mit Einträgen in Feld F, genannt die Matrix von T in Bezug auf diese Basen. Zwei matrices, die dieselbe geradlinige Transformation in verschiedenen Basen verschlüsseln, werden ähnlich genannt. Matrixtheorie ersetzt die Studie von geradlinigen Transformationen, die axiomatisch durch die Studie von matrices definiert wurden, die konkrete Gegenstände sind. Diese Haupttechnik unterscheidet geradlinige Algebra aus Theorien anderer algebraischer Strukturen, die gewöhnlich so konkret nicht parametrisiert werden können.

Es gibt eine wichtige Unterscheidung zwischen dem KoordinatenN-Raum R

und ein allgemeiner endlich-dimensionaler Vektorraum V. Während R eine Standardbasis {e, e, …, e} hat, kommt ein Vektorraum V normalerweise ausgestattet mit einer Basis nicht, und viele verschiedene Basen bestehen (obwohl sie alle aus derselben Zahl der Elemente bestehen, die der Dimension V gleich ist).

Eine Hauptanwendung der Matrixtheorie ist Berechnung von Determinanten, einem Hauptkonzept in der geradlinigen Algebra. Während Determinanten auf eine basisfreie Weise definiert werden konnten, werden sie gewöhnlich über eine spezifische Darstellung eingeführt, kartografisch darzustellen; der Wert der Determinante hängt von der spezifischen Basis nicht ab. Es stellt sich heraus, dass kartografisch darzustellen, invertible ist, wenn, und nur wenn die Determinante Nichtnull ist. Wenn die Determinante Null ist, dann ist der nullspace nichttrivial. Determinanten haben andere Anwendungen einschließlich einer systematischen Weise zu sehen, ob eine Reihe von Vektoren linear unabhängig ist (wir schreiben die Vektoren als die Säulen einer Matrix, und wenn die Determinante dieser Matrix Null ist, sind die Vektoren linear abhängig). Determinanten konnten auch verwendet werden, um Systeme von geradlinigen Gleichungen zu lösen (sieh die Regierung von Cramer), aber in echten Anwendungen ist Beseitigung von Gaussian eine schnellere Methode.

Eigenvalues und Eigenvektoren

Im Allgemeinen ist die Handlung einer geradlinigen Transformation hart zu verstehen, und so einen besseren Griff über geradlinige Transformationen zu bekommen, werden jene Vektoren, die relativ durch diese Transformation befestigt werden, spezielle Aufmerksamkeit gelenkt. Um das konkreter zu machen, lassen Sie, jede geradlinige Transformation zu sein. Wir interessieren uns besonders für jene Nichtnullvektoren solch das, wo ein Skalar im Grundfeld des Vektorraums ist. Diese Vektoren werden Eigenvektoren genannt, und die entsprechenden Skalare werden eigenvalues genannt.

Um einen Eigenvektoren oder einen eigenvalue zu finden, bemerken wir das

:

wo die Identitätsmatrix ist.

Für dort, um nichttriviale Lösungen dieser Gleichung zu sein.

Die Determinante ist ein Polynom, und so, wie man versichert, bestehen die eigenvalues nicht, wenn das Feld R ist. So arbeiten wir häufig mit einem algebraisch geschlossenen Feld wie die komplexen Zahlen, wenn, sich mit Eigenvektoren und eigenvalues befassend, so dass ein eigenvalue immer bestehen wird.

Es, würde wenn gegeben, eine Transformation besonders nett sein, die einen Vektorraum in sich nimmt, wir können eine Basis finden, um aus Eigenvektoren zu bestehen. Wenn solch eine Basis besteht, können wir die Handlung der Transformation auf jedem Vektoren leicht schätzen:

wenn linear unabhängige Eigenvektoren sind, von n-dimensional Räumen mit (nicht notwendigerweise verschieden) eigenvalues, und wenn, kartografisch darzustellen

dann,

:

Solch eine Transformation wird eine diagonalizable Matrix genannt, da im eigenbasis die Transformation durch eine Diagonalmatrix vertreten wird. Weil Operationen wie Matrixmultiplikation, Matrixinversion und bestimmende Berechnung auf Diagonalmatrizen einfach sind, ist Berechnung, die matrices verbunden ist, viel einfacher, wenn wir die Matrix zu einer diagonalen Form bringen können. Nicht alle matrices sind diagonalizable (sogar über ein algebraisch geschlossenes Feld), aber diagonalizable bilden matrices eine dichte Teilmenge des ganzen matrices.

Skalarprodukt-Räume

Außer diesen grundlegenden Konzepten studiert geradlinige Algebra auch Vektorräume mit der zusätzlichen Struktur wie ein Skalarprodukt. Das Skalarprodukt ist ein Beispiel einer bilinearen Form, und es gibt dem Vektorraum eine geometrische Struktur durch das Berücksichtigen der Definition der Länge und Winkel. Formell ist ein Skalarprodukt eine Karte

:

das befriedigt die folgenden drei Axiome für alle Vektoren und alle Skalare:

  • Verbundene Symmetrie:
::

Bemerken Sie, dass in R es symmetrisch ist.

::::
  • Positive Bestimmtheit:

:: mit der Gleichheit nur für

Wir können die Länge eines Vektoren durch definieren, und wir können die Ungleichheit von Cauchy-Schwartz beweisen:

:

Insbesondere die Menge

:

und so wir diese Menge den Kosinus des Winkels zwischen den zwei Vektoren nennen können.

Zwei Vektoren sind wenn orthogonal. Eine orthonormale Basis ist eine Basis, wo alle Basisvektoren Länge 1 haben und zu einander orthogonal sind.

In Anbetracht jedes endlich-dimensionalen Vektorraums konnte eine orthonormale Basis durch das Verfahren des Gramms-Schmidt gefunden werden. Orthonormale Basen sind besonders nett, sich, seitdem wenn, dann zu befassen.

Das Skalarprodukt erleichtert den Aufbau von vielen nützlichen Konzepten. Zum Beispiel, in Anbetracht eines Umgestaltens, können wir seinen verbundenen Hermitian definieren, weil die geradlinigen Zufriedenheit umgestalten

:

Wenn T befriedigt, nennen wir T normal. Es stellt sich heraus, dass normale matrices genau die matrices sind, die ein orthonormales System von Eigenvektoren diese Spanne V haben.

Einige nützliche Hauptlehrsätze

  • Eine Matrix ist invertible, oder nichtsingulär, wenn, und nur wenn die geradlinige durch die Matrix vertretene Karte ein Isomorphismus ist.
  • Jeder Vektorraum über Feld F der Dimension n ist zu F als ein Vektorraum über F isomorph.
  • Folgeerscheinung: Irgendwelche zwei Vektorräume über F derselben begrenzten Dimension sind zu einander isomorph.
  • Eine geradlinige Karte ist ein Isomorphismus, wenn, und nur wenn die Determinante Nichtnull ist.

Anwendungen

Wegen der Allgegenwart von Vektorräumen wird geradlinige Algebra in vielen Feldern von Mathematik, Naturwissenschaften, Informatik und Sozialwissenschaft verwendet. Unten sind gerade einige Beispiele von Anwendungen der geradlinigen Algebra.

Lösung geradliniger Systeme

Geradlinige Algebra stellt die formelle Einstellung für die geradlinige Kombination von in der Methode von Gaussian verwendeten Gleichungen zur Verfügung. Nehmen Sie an, dass die Absicht ist, die Lösung (En), falls etwa, des folgenden Systems von geradlinigen Gleichungen zu finden und zu beschreiben:

:

2x && \; + \;&& y && \; - \;&& z && \; = \;&& 8 & \qquad (L_1) \\

- 3x && \; - \;&& y && \; + \;&& 2z && \; = \;&&-11 & \qquad (L_2) \\

- 2x && \; + \;&& y && \; + \;&& 2z && \; = \;&&-3 & \qquad (L_3)

\end {alignat} </Mathematik>

Der Gaussian-Beseitigungsalgorithmus ist wie folgt: Beseitigen Sie x von allen Gleichungen unten, und dann beseitigen Sie y von allen Gleichungen unten. Das wird das System in die Dreiecksform stellen. Dann, mit dem Rückwartseinsetzen, kann jeder unbekannt dafür gelöst werden.

Im Beispiel wird x von durch das Hinzufügen dazu beseitigt. x wird dann von durch das Hinzufügen dazu beseitigt. Formell:

::

Das Ergebnis ist:

:

2x && \; + && y && \; - && \; z && \; = \;&& 8 & \\

&& && \frac {1} {2} y && \; + && \; \frac {1} {2} z && \; = \;&& 1 & \\

&& && 2y && \; + && \; z && \; = \;&& 5 &

\end {alignat} </Mathematik>

Jetzt wird y von durch das Hinzufügen beseitigt zu:

:Das Ergebnis ist::

2x && \; + && y \;&& - && \; z \;&& = \;&& 8 & \\

&& && \frac {1} {2} y \;&& + && \; \frac {1} {2} z \;&& = \;&& 1 & \\

&& && && && \;-z \;&& \; = \;&& 1 &

\end {alignat} </Mathematik>

Dieses Ergebnis ist ein System von geradlinigen Gleichungen in der Dreiecksform, und so ist der erste Teil des Algorithmus abgeschlossen.

Der letzte Teil, Rückwartseinsetzen, besteht aus dem Lösen für den knowns in umgekehrter Reihenfolge. Es kann so das gesehen werden

:

Dann, kann darin eingesetzt werden, der dann gelöst werden kann, um zu erhalten

:

Dann kann z und y darin eingesetzt werden, der gelöst werden kann, um zu erhalten

:

Das System wird gelöst.

Wir können im Allgemeinen jedes System von geradlinigen Gleichungen als eine Matrixgleichung schreiben:

:

Die Lösung dieses Systems wird wie folgt charakterisiert: Erstens finden wir eine besondere Lösung dieses Gleichungsverwendens Beseitigung von Gaussian.

Dann schätzen wir die Lösungen dessen; d. h. wir finden den nullspace von A.

Durch den Lösungssatz dieser Gleichung wird gegeben.

Wenn die Zahl von Variablen der Zahl von Gleichungen gleichkommt, dann können wir charakterisieren, wenn das System eine einzigartige Lösung hat:

da N trivial ist, wenn, und nur wenn die Gleichung eine einzigartige Lösung wenn und nur wenn hat.

Am-Wenigsten-Quadrate passen am besten Linie

Reihenentwicklung von Fourier

Reihen von Fourier sind eine Darstellung einer Funktion als eine trigonometrische Reihe:

:

Diese Reihenentwicklung ist im Lösen teilweiser Differenzialgleichungen äußerst nützlich.

In diesem Artikel werden wir mit Konvergenz-Problemen nicht beschäftigt sein; es ist nett zu bemerken, dass alle dauernden Funktionen eine konvergierende Reihenentwicklung von Fourier haben, und nette genug diskontinuierliche Funktionen eine Reihe von Fourier haben, die zum Funktionswert an den meisten Punkten zusammenläuft.

Der Raum aller Funktionen, die durch eine Reihe von Fourier vertreten werden können, bildet einen Vektorraum

(technisch das Sprechen, wir nennen Funktionen, die dieselbe Reihenentwicklung von Fourier "dieselbe" Funktion haben, seitdem zwei verschiedene diskontinuierliche Funktionen dieselbe Reihe von Fourier haben könnten). Außerdem ist dieser Raum auch ein Skalarprodukt-Raum mit dem Skalarprodukt

:

Die Funktionen für und für sind eine orthonormale Basis für den Raum von Fourier-erweiterbaren Funktionen.

Wir können so die Werkzeuge der geradlinigen Algebra verwenden, um die Vergrößerung jeder Funktion in diesem Raum in Bezug auf diese Basisfunktionen zu finden. Zum Beispiel, um den Koeffizienten zu finden, nehmen wir das Skalarprodukt mit:

:

und durch orthonormality; d. h.

Quant-Mechanik

Quant-Mechanik wird durch Begriffe in der geradlinigen Algebra hoch begeistert.

In der Quant-Mechanik wird der physische Staat einer Partikel durch einen Vektoren vertreten, und observables (wie Schwung, Energie und winkeliger Schwung) werden von geradlinigen Maschinenbedienern auf dem zu Grunde liegenden Vektorraum vertreten.

Konkreter beschreibt die Welle-Funktion einer Partikel seinen physischen Staat und liegt im Vektorraum L (die solche Funktionen, der begrenzt ist), und es sich gemäß der Gleichung von Schrödinger entwickelt.

Energie wird als der Maschinenbediener vertreten, wo V die potenzielle Energie ist. H ist auch bekannt als der Maschinenbediener von Hamiltonian.

Der eigenvalues von H vertritt die möglichen Energien, die beobachtet werden können.

In Anbetracht einer Partikel in einem Staat können wir uns in ausbreiten

eine geradlinige Kombination von eigenstates von H. Der Bestandteil von H in jedem eigenstate bestimmt die Wahrscheinlichkeit, den entsprechenden eigenvalue zu messen, und das Maß zwingt die Partikel, dass eigenstate (Welle-Funktionszusammenbruch) anzunehmen.

Generalisationen und verwandte Themen

Da geradlinige Algebra eine erfolgreiche Theorie ist, sind seine Methoden entwickelt und in anderen Teilen der Mathematik verallgemeinert worden. In der Modul-Theorie ersetzt man das Feld von Skalaren durch einen Ring. Die Konzepte von geradliniger Unabhängigkeit, Spanne, Basis und Dimension (der Reihe in der Modul-Theorie genannt wird) haben noch Sinn. Dennoch werden viele Lehrsätze von der geradlinigen Algebra falsch in der Modul-Theorie. Zum Beispiel haben nicht alle Module eine Basis (diejenigen, die tun, werden freie Module genannt), die Reihe eines freien Moduls, ist nicht nicht notwendigerweise einzigartig alle linear unabhängigen Teilmengen eines Moduls können erweitert werden, um eine Basis und nicht alle Teilmengen eines Moduls zu bilden, die den Raum abmessen, enthält eine Basis.

In der mehrgeradlinigen Algebra denkt man mehrvariable geradlinige Transformationen, d. h. mappings, die in jeder mehrerer verschiedener Variablen geradlinig sind. Diese Linie der Untersuchung führt natürlich zur Idee vom Doppelraum, der Vektorraum, der aus geradlinigen Karten besteht, wo F das Feld von Skalaren ist. Mehrgeradlinige Karten können über Tensor-Produkte von Elementen dessen beschrieben werden.

Wenn, zusätzlich zur Vektor-Hinzufügung und Skalarmultiplikation, es ein bilineares Vektorprodukt gibt, dann wird der Vektorraum eine Algebra genannt; zum Beispiel sind assoziative Algebra Algebra mit einem Mitvektorprodukt (wie die Algebra des Quadrats matrices oder die Algebra von Polynomen).

Funktionsanalyse mischt die Methoden der geradlinigen Algebra mit denjenigen der mathematischen Analyse und studiert verschiedene Funktionsräume wie LP-Räume.

Darstellungstheorie studiert die Handlungen von algebraischen Gegenständen auf Vektorräumen durch das Darstellen dieser Gegenstände als matrices. Es interessiert sich auf alle Weisen, wie das möglich ist, und es so durch die Entdeckung von Subräumen invariant unter allen Transformationen der Algebra tut. Das Konzept von eigenvalues und Eigenvektoren ist besonders wichtig.

Siehe auch

  • Liste von geradlinigen Algebra-Themen
  • Numerische geradlinige Algebra
  • Eigenvektoren
  • Transformationsmatrix
  • Grundsätzliche Matrix in der Computervision
  • Simplexmethode, eine Lösungstechnik für geradlinige Programme
  • Geradliniges rückwärts Gehen, eine statistische Bewertungsmethode

Referenzen

Weiterführende Literatur

Geschichte

  • Fearnley-Sander, Desmond, "Hermann Grassmann und die Entwicklung der Geradlinigen Algebra" (http://mathdl.maa.org/images/upload_library/22/Ford/DesmondFearnleySander.pdf), Amerikaner Mathematisch Monatlich 86 (1979), Seiten 809-817.
  • Grassmann, Hermann, Die lineale Ausdehnungslehre ein neuer Zweig der Mathematik: Dargestellt und durch Anwendungen auf sterben übrigen Zweige der Mathematik wie auch sterben auf Statik, Mechanik, sterben Lehre vom Magnetismus und sterben Krystallonomie erläutert, O. Wigand, Leipzig, 1844.

Einleitende Lehrbücher

Fortgeschrittene Lehrbücher

Studienhandbücher und Umrisse

Links

Online-Bücher


Basis (geradlinige Algebra) / Schamlippen majora
Impressum & Datenschutz