/ math / algebra /

[edit]

Definition

A Matrix is a table of math objects.

${\boldsymbol{A}}=(a_{ij}) \in \mathbb K^{m\times n}$ has $m$ rows (index $i$) and $n$ columns (index $j$)

Example

A matrix ${\boldsymbol{A}} \in \mathbb K^{2\times 3}$ could be ${\boldsymbol{A}} = {\begin{bmatrix} a & b & c \\ d & e & f \end{bmatrix}}$.

Dimension
$\dim \mathbb K = n = {\text{rang}}{\boldsymbol{A}} + \dim{\,\text{ker}}{\boldsymbol{A}}$
${\text{rang}}{\boldsymbol{A}} = {\text{rang}}{\boldsymbol{A}}^{\top}$

Table of Contents

Calculations

For two general matrices ${\boldsymbol{A}}$ and ${\boldsymbol{B}}$:

Norms

${\boldsymbol{A}} \in {\mathop{\mathbb K}}^{m \times n}, i\in[1,m], j\in[1,n]$

Norm
Gesamtnorm ${\left\lVert{{\boldsymbol{A}}}\right\rVert}_G$ $\sqrt{mn}\cdot{\tiny\begin{matrix}\\ \normalsize \max \\[1em] \scriptsize i,j \end{matrix}}{\left\vert{a_{ij}}\right\vert}$
Zeilennorm (max Zeilensumme) ${\left\lVert{{\boldsymbol{A}}}\right\rVert}_\infty$ $= {\tiny\begin{matrix}\\ \normalsize \max \\[1em] \scriptsize i \end{matrix}}\sum\limits_{j=1}^n{\left\vert{a_{ij}}\right\vert}$
Spaltennorm (max Spaltensumme) ${\left\lVert{{\boldsymbol{A}}}\right\rVert}_1$ $= {\tiny\begin{matrix}\\ \normalsize \max \\[1em] \scriptsize j \end{matrix}}\sum\limits_{i=1}^m{\left\vert{a_{ij}}\right\vert}$
${\tiny\begin{matrix}\\ \normalsize \text{Frobeniusnorm} \\[1em] \scriptsize \text{euklidische Norm} \end{matrix}}$ ${\left\lVert{{\boldsymbol{A}}}\right\rVert}_E$ $= \sqrt{\sum\limits_{i=1}\sum\limits_{j=1}{\left\vert{a_{ij}}\right\vert}^2}$
Spektralnorm, Hilbertnorm ${\left\lVert{{\boldsymbol{A}}}\right\rVert}_\lambda$ $= \sqrt{\lambda_\text{max}({\boldsymbol{A}}^\top\cdot{\boldsymbol{A}})}$

$\left({\left\lVert{{\boldsymbol{A}}}\right\rVert}_M = \frac{{\left\lVert{{\boldsymbol{A}}}\right\rVert}_G}{\sqrt{mn}}\right)$

Eigenvalues and Eigenvectors

Eigenvalues: $\det({\boldsymbol{A}} - \lambda {\boldsymbol{1}}) = 0$
Eigenvectors: ${\,\text{ker}}({\boldsymbol{A}} - \lambda_i {\boldsymbol{1}}) = {\boldsymbol v}_i$

$${\boldsymbol{A}} {\boldsymbol v} = \lambda {\boldsymbol v}$ \qquad $\det {\boldsymbol{A}} = \prod \lambda_i$ \qquad\ ${\,\text{Sp}}{\boldsymbol{A}} = \sum a_{ii} = \sum \lambda_i$$

with the Eigenvalue $\lambda$ and the Eigenvector ${\boldsymbol v}$.

Quadratic Matrices

Properties
regular $\Leftrightarrow \det ({\boldsymbol{A}}) \ne 0 \Leftrightarrow {\text{rang}}{\boldsymbol{A}} = n$
singular $\Leftrightarrow \det ({\boldsymbol{A}}) = 0 \Leftrightarrow {\text{rang}}{\boldsymbol{A}} \ne n$
orthogonal $\Leftrightarrow {\boldsymbol{A}}^\top={\boldsymbol{A}}^{-1} {\Rightarrow}\det({\boldsymbol{A}}) = \pm 1$
symmetric ${\boldsymbol{A}}={\boldsymbol{A}}^\top$ schiefsymmetrisch: ${\boldsymbol{A}}=-{\boldsymbol{A}}^\top$

Determinant

The determinant of a square matrix ${\boldsymbol{A}}$ is denoted $\det({\boldsymbol{A}})$, $\det {\boldsymbol{A}}$, or $|A|$. Geometrically, it can be viewed as the volume scaling factor of the linear transformation described by the matrix.

If ${\boldsymbol{A}}$ has $\ge 2$ lin. dependent rows/columns $\Rightarrow |A|=0$.

$$\det\begin{pmatrix}A&0\\C&D\end{pmatrix}=\det\begin{pmatrix}A&B\\0&D\end{pmatrix}=\det(A)\cdot\det(D)$$

$|A|=\sum\limits_{i=1}^n (-1)^{i+j} \cdot a_{ij} \cdot |A_{ij}|$

Inverse Matrix

An $n \times n$ square matrix ${\boldsymbol{A}}$ is called invertible (nonsingular) if there exists an $n \times n$ square matrix ${\boldsymbol{B}}$ such that

$${\boldsymbol{A}} \cdot {\boldsymbol{B}} = {\boldsymbol{B}} \cdot {\boldsymbol{A}} = {\boldsymbol{1}}_n$$

Explanation

Eine Matrix heißt singulär, wenn ihre Spaltenvektoren linear abhängig voneinander sind. Daraus folgt, dass der Bildraum mindestens eine Dimension weniger hat als der Abbildungsraum, da die Spaltenvektoren den ${\mathop{\mathbb R}}^n$ nicht mehr erzeugen können und keine Basis mehr zum ${\mathop{\mathbb R}}^n$ darstellen. Hat man nun einen Bildpunkt im ${\mathop{\mathbb R}}^{n-1}$ gegeben, so lässt sich nicht mehr sagen, von wo aus dem ${\mathop{\mathbb R}}^n$ dieser Punkt auf den Bildraum ${\mathop{\mathbb R}}^{n-1}$ abgebildet worden ist, da er ja durch unendlich verschiedene Linearkombination der Spaltenvektoren erreicht werden kann. Die Abbildung lässt sich deshalb nicht mehr umkehren, die Matrix ist nicht invertierbar, die Determinante ist null.

Rotation Matrix of ${\mathop{\mathbb R}}^3$

for rotations in a right-handed coordinate system $XYZ$.

$$\begin{matrix} \begin{bmatrix} 1 & 0 & 0 \\ 0 & \cos \alpha & -\sin \alpha \\ 0 & \sin \alpha & \cos \alpha \end{bmatrix} & \begin{bmatrix} \cos \alpha & 0 & \sin \alpha \\ 0 & 1 & 0 \\ -\sin \alpha & 0 & \cos \alpha \end{bmatrix} & \begin{bmatrix} \cos \alpha &-\sin \alpha & 0\\ \sin \alpha & \cos \alpha & 0\\ 0 & 0 & 1 \end{bmatrix} \\ {\boldsymbol{R}}_x(\alpha) & {\boldsymbol{R}}_y(\alpha) & {\boldsymbol{R}}_{z}(\alpha) \end{matrix} $$

Explanation

Bei einer Rotationsmatrix stehen die Spaltenvektoren senkrecht aufeinander (orthogonal). Deshalb ist der Bildraum nicht verzerrt da nur die Richtung der Einheitsvektoren verändert wird, allerdings nicht ihre Stellung zueinander. Somit entspricht eine orthogonale Abbildungsmatrix einer Drehung des Koordinatensystems in eine andere Richtung (bezüglich $n$ Freiheitsgraden).

Special 2×2 Matrices

For a $2 \times 2$ matrix ${\boldsymbol{A}} = {\begin{bmatrix} a & b \\ c & d \end{bmatrix}}$ the following rules hold:

Determinant: $\det({\boldsymbol{A}}) = ad - bc$

Trace (ger. „Spur“): ${\,\text{Sp}}({\boldsymbol{A}}) = a+d$

Inverse: $\displaystyle{\begin{bmatrix} a & b \\ c & d \end{bmatrix}}^{-1} = \frac{1}{\det {\boldsymbol{A}}} {\begin{bmatrix} d & -b \\ -c & a \end{bmatrix}}$

Eigenvalues:

$$\lambda_{1/2} = \frac{{\,\text{Sp}}{\boldsymbol{A}}}{2} \pm \sqrt{ \left( \frac{{\,\text{Sp}}{\boldsymbol{A}}}{2} \right)^2 - \det {\boldsymbol{A}} }$$

with ${\boldsymbol{A}} = {\begin{bmatrix} a & b \\ c & d \end{bmatrix}}$, and ${\,\text{Sp}}({\boldsymbol{A}}) = a+d$.

-->