Grundlagen

Allgemein gesprochen ist ein Vektor in der linearen Algebra ein Element eines Vektorraumes. Für die analytische Geometrie eignet sich die Veranschaulichung als Pfeil besser. Entscheidend dabei sind Richtung, Orientierung und Länge des Pfeiles, die den Vektor eindeutig charaktierisieren. Ein Vektor kann demnach auch als Verschiebung im Raum angesehen werden.
Vektoren werden wie Variablen mit Buchstaben bezeichnet, bekommen aber einen Pfeil darüber, um den Vektorcharakter zu symbolisieren.
\vec{a}

Im Sinne der linearen Algebra handelt es sich hierbei um Elemente des n-dimensionalen reellen Vektorraumes, wobei n eine natürliche Zahl ist. Für uns interessant sind dabei vor allem der zwei- und der dreidimensionale Fall.
\vec{a} \in \bbR^n

Als Symbol für die Länge eines Vektors haben sich zwei Schreibweisen eingebürgert: entweder der Variablenname ohne Vektorpfeil oder die Betragsstriche, wobei hier auf die letztere Version zurückgegriffen wird.
\delim{|}{\vec{a}}{|}

Die folgenden Definitionen und Begriffe sollte man sich einfach ganz entspannt zu Gemüte führen und an späterer Stelle noch einmal nachschlagen. Allerdings sind sie essenziell, um andere Begrifflichkeiten sauber einzuführen.

Vektorraumoperationen

Aus der Vektorraumdefinition der linearen Algebra lassen sich Schlüsse auf Vektoren ziehen, die auch für die Vektoranalysis von Relevanz sind. Diese sind im einzelnen:
(Im folgenden sind \vec{a}, \vec{b} und \vec{c} beliebige Vektoren des n-dimensionalen Vektorraumes \bbR^n und \lambda und \mu beliebige reelle Zahlen.)

  1. Es existiert eine Additionsoperation, welche zwei Vektoren des Vektorraumes verknüpft und wieder einen Vektor des selben Vektorraumes liefert. Geometrisch gedeutet wird dazu der Anfang des zweiten Pfeiles an das Ende des ersten angelegt. Dies entspricht der Nacheinanderausführung der durch die Vektoren beschriebenen Verschiebungen.
    (\vec{a} + \vec{b}) \in \bbR^n
  2. Die Addition ist sowohl kommutativ als auch assoziativ. Dies folgt auch direkt aus der Deutung als Verschiebung im Raum.
    \vec{a} + \vec{b} = \vec{b} + \vec{a}
    (\vec{a} + \vec{b}) + \vec{c} = \vec{a} + (\vec{b} + \vec{c})
  3. Bezüglich der Addition existiert ein (eindeutiger) Nullvektor), der einen Vektor bei Addition nicht ändert.
    \vec{a} + \vec{o} = \vec{a}
  4. Für jeden Vektor existiert ein bezüglich der Addition (eindeutiger) inverser Vektor, der bei Addition den Nullvektor liefert. Dieser Vektor ist dadurch charakterisiert, dass er die gleiche Länge und Richtung hat, aber die entgegengesetzte Orientierung besitzt.
    \vec{a} + (-\vec{a}) = \vec{o}
  5. Die Skalarmultiplikation eines Vektors mit einer reelen Zahl liefert wieder einen Vektor. Geometrisch gedeutet ist das die Streckung oder Stauchung des Vektors um einen Faktor. Ist dabei das Vorzeichen negativ, dann ändert sich die Orientierung.
    (\lambda · \vec{a}) \in \bbR^n
    \delim{|}{\lambda · \vec{a}}{|} = \delim{|}{\lambda}{|} · \delim{|}{\vec{a}}{|}
  6. Die Skalarmultiplikation ist sowohl kommutativ als auch homogen.
    \lambda · \vec{a} = \vec{a} · \lambda
    \lambda · (\mu · \vec{a}) = (\lambda · \mu) · \vec{a}
  7. Die Skalarmultiplikation eines Vektors mit eins ergibt den Vektor selbst, mit minus eins kommt der inverse Vektor heraus und mit null liefert sie den Nullvektor.
    1 · \vec{a} = vec{a}
    (-1) · \vec{a} = -vec{a}
    0 · \vec{a} = vec{o}
  8. Addition und Skalarmultiplikation sind verträglich, es gilt also das Distributivgesetz.
    (\lambda + \mu) · \vec{a}) = \lambda · \vec{a} ~+~ \mu · \vec{a}
    \lambda · (\vec{a} + \vec{b}) = \lambda · \vec{a} ~+~ \lambda · \vec{b}

Gleichheit von Vektoren

Zwei Vektoren sind genau dann gleich, wenn die sie repräsentierenden Pfeile die gleiche Länge besitzen, in die selbe Richtung zeigen und gleich orientiert sind. Gleich orientiert heißt hierbei, dass die Spitze am selben Ende ist. Die beiden Vektoren charakterisieren also dieselbe Verschiebung im Raum.
vec{a} = \vec{b} \doubleleftright delim{|}{\vec{a}}{|} = delim{|}{\vec{b}}{|}~und \vec{a} und \vec{b} haben gleiche Richtung und Orientierung

Einheitsvektor

Ein Vektor heißt Einheitsvektor genau dann, wenn er die Länge eins besitzt. Einen Einheitsvektor nennt man auch normiert.
Der übliche Buchstabe für Einheitsvektoren ist ein kleines E eventuell mit Index.
vec{e} ist Einheitsvektor \doubleleftright \delim{|}{\vec{e}}{|} = 1

Skalarprodukt

Das Skalarprodukt ist neben der Addition eine weitere Operation, die zwei Vektoren miteinander verknüpft. Ergebnis ist aber hier - wie der Name schon nahelegt - ein Skalar, also eine reelle Zahl. Es ist im allgemeinen als Produkt der Beträge der Vektoren und dem Cosinus des von den Vektoren eingeschlossenen Winkels 1) definiert.
\vec{a} • \vec{b} = \delim{|}{\vec{a}}{|} · \delim{|}{\vec{b}}{|} · cos ∡(\vec{a}, \vec{b})

Geometrisch gedeutet ist das Skalarprodukt die orthogonale Projektion eines Vektors auf den anderen.
dot_product.4.jpg


Für das Skalarprodukt gelten folgende Regeln:

  1. Das Skalarprodukt ist kommutativ, distributiv bezüglich der Addition und homogen im Bezug auf die Skalarmultiplikation.
    \vec{a} • \vec{b} = \vec{b} · \vec{a}
    \vec{a} • (\vec{b} + \vec{c}) = \vec{a} • \vec{b} + \vec{a} • \vec{c}
    \lambda · (\vec{a} • \vec{b}) = (\lambda · \vec{a}) • \vec{b}
  2. Das Skalarprodukt eines Vektors mit sich selbst ist das Quadrat des Betrages des Vektors. Damit ist es stets positiv und genau dann Null, wenn der Vektor der Nullvektor ist.
    \vec{a} • \vec{a} = {\vec{a}}{}^2 = \delim{|}{\vec{a}}{|}{}^2 \ge 0
    \vec{a}{}^2 = 0 ~\doubleleftright~ \vec{a} = \vec{o}
  3. Das Skalarprodukt zweier Vektoren ist genau dann Null, wenn die Vektoren orthogonal, also senkrecht, aufeinander stehen. Damit ist der Nullvektor per definitionem orthogonal zu jedem Vektor.
    \vec{a} • \vec{b} = 0 ~\doubleleftright~ \vec{a} \ortho \vec{b}
  4. Das Skalarprodukt eines beliebigen Vektors mit einem Einheitsvektor ergibt den parallelen Anteil des Vektors in Richtung des Einheitsvektors.
    \delim{|}{\vec{e}}{|}=1 ~\doubleright~ \vec{b} • \vec{e} = \delim{|}{\vec{b}}{|} · cos ∡(\vec{b}, \vec{e})

Linearkombination und lineare Unabhängigkeit

Sei eine Menge von n Stück Vektoren vec{a_1}, \vec{a_2}, ..., \vec{a_n} gegeben. Dann nennt man den Vektor \vec{b} Linearkombination der Vektoren \vec{a_i}, falls es reele Koeffizienten \lambda_1, \lambda_2, ... \lambda_n gibt, so dass gilt2):
\vec{b} = \lambda_i · \vec{a_i}

Eine Menge von n Stück Vektoren vec{a_1}, \vec{a_2}, ..., \vec{a_n} heißt genau dann linear unabhängig, falls sich der Nullvektor nur als triviale Linearkombination - also jene, bei der alle Koeffizienten Null sind - aus den Vektoren ergibt, also wenn gilt:
\lambda_i · \vec{a_i} = vec{o} ~\doubleleftright~ \lambda_1 = \lambda_2 = ... = \lambda_n = 0
Anders formuliert bedeutet dies, dass sich keiner der Vektoren als Linearkombination der anderen darstellen lässt.

Basis und Orthonormalbasis

Als Basis eines n-dimensionalen Vektorraumes versteht man eine Menge von n linear unabhängigen Vektoren (Basisvektoren) \vec{e_1}, \vec{e_2}, …, \vec{e_n}, aus deren Linearkombinationen sich jeder Vektor \vec{a} des Vektorraumes eindeutig darstellen lässt. Dabei heißen die Koeffizienten a_1, a_2, …, a_n der Linearkombination Koordinaten bezüglich der Basis.
\vec{a} ~=~ a_i · \vec{e_i} ~=~ (\vec{a} • \vec{e_i}) · \vec{e_i}

Unter einer Orthonormalbasis versteht man eine Basis, die aus normierten und untereinander paarweise orthogonalen Vektoren besteht.


Anwendungen

Auch wenn die bisherigen Ausführungen alle recht theoretisch und allgemein gehalten waren, so lässt sich mit dem erworbenen Wissen doch schon etwas anstellen. So lassen sich zum Beispiel zwei altbekannte Aussagen der Geometrie, nämlich der Satz des Pythagoras und der Satz des Thales, wie folgt beweisen.

Satz des Pythagoras

Voraussetzungen: Gegeben seien die drei Vektoren \vec{a}, \vec{b} und \vec{c}, wobei \vec{a} \ortho \vec{b} und \vec{c} = \vec{a} + \vec{b}.
Behauptung: \delim{|}{\vec{a}}{|}{}^2 + \delim{|}{\vec{b}}{|}{}^2 = \delim{|}{\vec{c}}{|}{}^2

Beweis:
\vec{a} \ortho \vec{b} ~\doubleleftright~ \vec{a} • \vec{b} = 0
\delim{|}{\vec{c}}{|}{}^2 ~=~ \vec{c}{}^2 ~=~ (\vec{a}+\vec{b}){}^2 ~=~ \vec{a}{}^2 + 2 · (\vec{a} • \vec{b}) + \vec{b}{}^2 ~=~ \vec{a}{}^2 + \vec{b}{}^2 ~=~ \delim{|}{\vec{a}}{|}{}^2 + \delim{|}{\vec{b}}{|}{}^2
q.e.d.





Satz des Thales

Voraussetzungen: Gegeben seien die Vektoren \vec{a}, \vec{b}, \vec{r} und \vec{R}, wobei \vec{a} = \vec{r} + \vec{R}, \vec{b} = \vec{r} - \vec{R} und \delim{|}{\vec{r}}{|} = \delim{|}{\vec{R}}{|}.
Behauptung: \vec{a} \ortho \vec{b}

Beweis:
\delim{|}{\vec{r}}{|} = \delim{|}{\vec{R}}{|} ~\doubleright~ \vec{r}{}^2 = \vec{R}{}^2
\vec{a} • \vec{b} ~=~ (\vec{r} + \vec{R}) • (\vec{r} - \vec{R}) ~=~ \vec{r}{}^2 - \vec{r} • \vec{R} + \vec{R} • \vec{r} - \vec{R}{}^2
~~~=~ \vec{r}{}^2 - \vec{R}{}^2 ~=~ 0 ~~\doubleright~ \vec{a} \ortho \vec{b}

q.e.d.





Diskussion

1)
also der kleinste Winkel zwischen den Vektoren, wenn man die Anfänge der repräsentierenden Pfeile aneinanderlegt
2)
Man beachte hier die Anwendung der Einsteinschen Summenkonvention!