/ math / algebra /

[edit]

Definition

A Matrix is a table of math objects.

\boldsymbol{A}=(a_{ij}) \in \mathbb K^{m\times n} has m rows (index i) and n columns (index j)

Example

A matrix \boldsymbol{A} \in \mathbb K^{2\times 3} could be \boldsymbol{A} = \begin{bmatrix} a & b & c \\ d & e & f \end{bmatrix}.

Dimension
\dim \mathbb K = n = \text{rang}\boldsymbol{A} + \dim\,\text{ker}\boldsymbol{A}
\text{rang}\boldsymbol{A} = \text{rang}\boldsymbol{A}^{\top}

Table of Contents

Calculations

For two general matrices \boldsymbol{A} and \boldsymbol{B}:

Norms

\boldsymbol{A} \in \K^{m \times n}, i\in[1,m], j\in[1,n]

Norm
Gesamtnorm \left\lVert{\boldsymbol{A}}\right\rVert_G \sqrt{mn}\cdot\tiny\begin{matrix}\\ \normalsize \max \\[1em] \scriptsize i,j \end{matrix}\left\vert{a_{ij}}\right\vert
Zeilennorm (max Zeilensumme) \left\lVert{\boldsymbol{A}}\right\rVert_\infty = \tiny\begin{matrix}\\ \normalsize \max \\[1em] \scriptsize i \end{matrix}\sum\limits_{j=1}^n\left\vert{a_{ij}}\right\vert
Spaltennorm (max Spaltensumme) \left\lVert{\boldsymbol{A}}\right\rVert_1 = \tiny\begin{matrix}\\ \normalsize \max \\[1em] \scriptsize j \end{matrix}\sum\limits_{i=1}^m\left\vert{a_{ij}}\right\vert
\tiny\begin{matrix}\\ \normalsize \text{Frobeniusnorm} \\[1em] \scriptsize \text{euklidische Norm} \end{matrix} \left\lVert{\boldsymbol{A}}\right\rVert_E = \sqrt{\sum\limits_{i=1}\sum\limits_{j=1}\left\vert{a_{ij}}\right\vert^2}
Spektralnorm, Hilbertnorm \left\lVert{\boldsymbol{A}}\right\rVert_\lambda = \sqrt{\lambda_\text{max}(\boldsymbol{A}^\top\cdot\boldsymbol{A})}

\left(\left\lVert{\boldsymbol{A}}\right\rVert_M = \frac{\left\lVert{\boldsymbol{A}}\right\rVert_G}{\sqrt{mn}}\right)

Eigenvalues and Eigenvectors

Eigenvalues: \det(\boldsymbol{A} - \lambda \boldsymbol{1}) = 0
Eigenvectors: \,\text{ker}(\boldsymbol{A} - \lambda_i \boldsymbol{1}) = \boldsymbol v_i

\boldsymbol{A} \boldsymbol v = \lambda \boldsymbol v$ \qquad $\det \boldsymbol{A} = \prod \lambda_i$ \qquad\ $\,\text{Sp}\boldsymbol{A} = \sum a_{ii} = \sum \lambda_i

with the Eigenvalue \lambda and the Eigenvector \boldsymbol v.

Quadratic Matrices

Properties
regular \Leftrightarrow \det (\boldsymbol{A}) \ne 0 \Leftrightarrow \text{rang}\boldsymbol{A} = n
singular \Leftrightarrow \det (\boldsymbol{A}) = 0 \Leftrightarrow \text{rang}\boldsymbol{A} \ne n
orthogonal \Leftrightarrow \boldsymbol{A}^\top=\boldsymbol{A}^{-1} \Rightarrow\det(\boldsymbol{A}) = \pm 1
symmetric \boldsymbol{A}=\boldsymbol{A}^\top schiefsymmetrisch: \boldsymbol{A}=-\boldsymbol{A}^\top

Determinant

The determinant of a square matrix \boldsymbol{A} is denoted \det(\boldsymbol{A}), \det \boldsymbol{A}, or |A|. Geometrically, it can be viewed as the volume scaling factor of the linear transformation described by the matrix.

If \boldsymbol{A} has \ge 2 lin. dependent rows/columns \Rightarrow |A|=0.

\det\begin{pmatrix}A&0\\C&D\end{pmatrix}=\det\begin{pmatrix}A&B\\0&D\end{pmatrix}=\det(A)\cdot\det(D)

|A|=\sum\limits_{i=1}^n (-1)^{i+j} \cdot a_{ij} \cdot |A_{ij}|

Inverse Matrix

An n \times n square matrix \boldsymbol{A} is called invertible (nonsingular) if there exists an n \times n square matrix \boldsymbol{B} such that

\boldsymbol{A} \cdot \boldsymbol{B} = \boldsymbol{B} \cdot \boldsymbol{A} = \boldsymbol{1}_n

Explanation

Eine Matrix heißt singulär, wenn ihre Spaltenvektoren linear abhängig voneinander sind. Daraus folgt, dass der Bildraum mindestens eine Dimension weniger hat als der Abbildungsraum, da die Spaltenvektoren den \R^n nicht mehr erzeugen können und keine Basis mehr zum \R^n darstellen. Hat man nun einen Bildpunkt im \R^{n-1} gegeben, so lässt sich nicht mehr sagen, von wo aus dem \R^n dieser Punkt auf den Bildraum \R^{n-1} abgebildet worden ist, da er ja durch unendlich verschiedene Linearkombination der Spaltenvektoren erreicht werden kann. Die Abbildung lässt sich deshalb nicht mehr umkehren, die Matrix ist nicht invertierbar, die Determinante ist null.

Rotation Matrix of \R^3

for rotations in a right-handed coordinate system XYZ.

\begin{matrix} \begin{bmatrix} 1 & 0 & 0 \\ 0 & \cos \alpha & -\sin \alpha \\ 0 & \sin \alpha & \cos \alpha \end{bmatrix} & \begin{bmatrix} \cos \alpha & 0 & \sin \alpha \\ 0 & 1 & 0 \\ -\sin \alpha & 0 & \cos \alpha \end{bmatrix} & \begin{bmatrix} \cos \alpha &-\sin \alpha & 0\\ \sin \alpha & \cos \alpha & 0\\ 0 & 0 & 1 \end{bmatrix} \\ \boldsymbol{R}_x(\alpha) & \boldsymbol{R}_y(\alpha) & \boldsymbol{R}_{z}(\alpha) \end{matrix}

Explanation

Bei einer Rotationsmatrix stehen die Spaltenvektoren senkrecht aufeinander (orthogonal). Deshalb ist der Bildraum nicht verzerrt da nur die Richtung der Einheitsvektoren verändert wird, allerdings nicht ihre Stellung zueinander. Somit entspricht eine orthogonale Abbildungsmatrix einer Drehung des Koordinatensystems in eine andere Richtung (bezüglich n Freiheitsgraden).

Special 2×2 Matrices

For a 2 \times 2 matrix \boldsymbol{A} = \begin{bmatrix} a & b \\ c & d \end{bmatrix} the following rules hold:

Determinant: \det(\boldsymbol{A}) = ad - bc

Trace (ger. „Spur“): \,\text{Sp}(\boldsymbol{A}) = a+d

Inverse: \displaystyle\begin{bmatrix} a & b \\ c & d \end{bmatrix}^{-1} = \frac{1}{\det \boldsymbol{A}} \begin{bmatrix} d & -b \\ -c & a \end{bmatrix}

Eigenvalues:

\lambda_{1/2} = \frac{\,\text{Sp}\boldsymbol{A}}{2} \pm \sqrt{ \left( \frac{\,\text{Sp}\boldsymbol{A}}{2} \right)^2 - \det \boldsymbol{A} }

with \boldsymbol{A} = \begin{bmatrix} a & b \\ c & d \end{bmatrix}, and \,\text{Sp}(\boldsymbol{A}) = a+d.