00TD02A Matrixkalkulus_v2 - itnett/FTD02H-N GitHub Wiki

matrixkalkulus forklart på norsk og engelsk

§D.1 derivater av vektorfunksjoner

norsk: la $x$ og $y$ være vektorer av orden n og m henholdsvis: $$x = \begin{bmatrix} x_1 \ x_2 \ \vdots \ x_n \end{bmatrix}, \quad y = \begin{bmatrix} y_1 \ y_2 \ \vdots \ y_m \end{bmatrix}$$ hvor hver komponent $y_i$ kan være en funksjon av alle $x_j$. dette representerer at $y$ er en funksjon av $x$, eller $y = y(x)$.

engelsk: let $x$ and $y$ be vectors of orders n and m respectively: $$x = \begin{bmatrix} x_1 \ x_2 \ \vdots \ x_n \end{bmatrix}, \quad y = \begin{bmatrix} y_1 \ y_2 \ \vdots \ y_m \end{bmatrix}$$ where each component $y_i$ may be a function of all the $x_j$, represented by saying that $y$ is a function of $x$, or $y = y(x)$.

§D.1.1 derivert av en vektor med hensyn til en vektor

norsk: derivaten av vektoren $y$ med hensyn til vektoren $x$ er en n × m matrise:

$$\frac{\partial y}{\partial x} = \begin{bmatrix} \frac{\partial y_1}{\partial x_1} & \frac{\partial y_2}{\partial x_1} & \cdots & \frac{\partial y_m}{\partial x_1} \ \frac{\partial y_1}{\partial x_2} & \frac{\partial y_2}{\partial x_2} & \cdots & \frac{\partial y_m}{\partial x_2} \ \vdots & \vdots & \ddots & \vdots \ \frac{\partial y_1}{\partial x_n} & \frac{\partial y_2}{\partial x_n} & \cdots & \frac{\partial y_m}{\partial x_n} \end{bmatrix}$$

engelsk: the derivative of the vector $y$ with respect to vector $x$ is the n × m matrix: $$ \frac{\partial y}{\partial x} = \begin{bmatrix} \frac{\partial y_1}{\partial x_1} & \frac{\partial y_2}{\partial x_1} & \cdots & \frac{\partial y_m}{\partial x_1} \ \frac{\partial y_1}{\partial x_2} & \frac{\partial y_2}{\partial x_2} & \cdots & \frac{\partial y_m}{\partial x_2} \ \vdots & \vdots & \ddots & \vdots \ \frac{\partial y_1}{\partial x_n} & \frac{\partial y_2}{\partial x_n} & \cdots & \frac{\partial y_m}{\partial x_n} \end{bmatrix} $$

§D.1.2 derivert av en skalar med hensyn til en vektor

norsk: hvis $y$ er en skalar: $$ \frac{\partial y}{\partial x} = \begin{bmatrix} \frac{\partial y}{\partial x_1} \ \frac{\partial y}{\partial x_2} \ \vdots \ \frac{\partial y}{\partial x_n} \end{bmatrix} $$

engelsk: if $y$ is a scalar: $$ \frac{\partial y}{\partial x} = \begin{bmatrix} \frac{\partial y}{\partial x_1} \ \frac{\partial y}{\partial x_2} \ \vdots \ \frac{\partial y}{\partial x_n} \end{bmatrix} $$

§D.1.3 derivert av en vektor med hensyn til en skalar

norsk: hvis $x$ er en skalar: $$ \frac{\partial y}{\partial x} = \begin{bmatrix} \frac{\partial y_1}{\partial x} & \frac{\partial y_2}{\partial x} & \cdots & \frac{\partial y_m}{\partial x} \end{bmatrix} $$

engelsk: if $x$ is a scalar: $$ \frac{\partial y}{\partial x} = \begin{bmatrix} \frac{\partial y_1}{\partial x} & \frac{\partial y_2}{\partial x} & \cdots & \frac{\partial y_m}{\partial x} \end{bmatrix} $$

§D.1.4 jacobian av en variabeltransformasjon

norsk: i multivariat analyse, hvis $x$ og $y$ er av samme orden, kalles determinanten til kvadratmatrisen $\partial x / \partial y$: $$ J = \left| \frac{\partial x}{\partial y} \right| $$ jacobian av transformasjonen bestemt av $y = y(x)$. den inverse determinanten er: $$ J^{-1} = \left| \frac{\partial y}{\partial x} \right| $$

engelsk: in multivariate analysis, if $x$ and $y$ are of the same order, the determinant of the square matrix $\partial x / \partial y$ is called the jacobian of the transformation determined by $y = y(x)$: $$ J = \left| \frac{\partial x}{\partial y} \right| $$ the inverse determinant is: $$ J^{-1} = \left| \frac{\partial y}{\partial x} \right| $$

eksempel på jacobian (norsk og engelsk)

norsk: transformasjonen fra sfæriske til kartesiske koordinater er definert som: $$ x = r \sin \theta \cos \psi, \quad y = r \sin \theta \sin \psi, \quad z = r \cos \theta $$ for å oppnå jacobian av transformasjonen: $$ J = \left| \frac{\partial x}{\partial y} \right| = \left| \begin{array}{ccc} \sin \theta \cos \psi & \sin \theta \sin \psi & \cos \theta \ r \cos \theta \cos \psi & r \cos \theta \sin \psi & -r \sin \theta \ -r \sin \theta \sin \psi & r \sin \theta \cos \psi & 0 \end{array} \right| = r^2 \sin \theta $$

engelsk: the transformation from spherical to cartesian coordinates is defined by: $$ x = r \sin \theta \cos \psi, \quad y = r \sin \theta \sin \psi, \quad z = r \cos \theta $$ to obtain the jacobian of the transformation: $$ J = \left| \frac{\partial x}{\partial y} \right| = \left| \begin{array}{ccc} \sin \theta \cos \psi & \sin \theta \sin \psi & \cos \theta \ r \cos \theta \cos \psi & r \cos \theta \sin \psi & -r \sin \theta \ -r \sin \theta \sin \psi & r \sin \theta \cos \psi & 0 \end{array} \right| = r^2 \sin \theta $$

§D.2 kjederegelen for vektorfunksjoner

norsk: la $x$, $y$ og $z$ være vektorer, der $z$ er en funksjon av $y$, som igjen er en funksjon av $x$: $$ x = \begin{bmatrix} x_1 \ x_2 \ \vdots \ x_n \end{bmatrix}, \quad y = \begin{bmatrix} y_1 \ y_2 \ \vdots \ y_r \end{bmatrix}, \quad z = \begin{bmatrix} z_1 \ z_2 \ \vdots \ z_m \end{bmatrix} $$ bruk definisjonen $y = y(x)$ og $z = z(y)$: $$ \frac{\partial z}{\partial x} = \frac{\partial y}{\partial x} \frac{\partial z}{\partial y} $$

engelsk: let $x$, $y$, and $z$ be vectors, where $z$ is a function of $y$, which is in turn a function of $x$: $$ x = \begin{bmatrix} x_1 \ x_2 \ \vdots \ x_n \end{bmatrix},

\quad y = \begin{bmatrix} y_1 \ y_2 \ \vdots \ y_r \end{bmatrix}, \quad z = \begin{bmatrix} z_1 \ z_2 \ \vdots \ z_m \end{bmatrix} $$ using the definitions $y = y(x)$ and $z = z(y)$: $$ \frac{\partial z}{\partial x} = \frac{\partial y}{\partial x} \frac{\partial z}{\partial y} $$

§D.3 derivert av skalarfunksjoner av en matrise

norsk: la $X = (x_{ij})$ være en matrise av orden (m × n) og la: $$ y = f(X) $$ være en skalarfunksjon av $X$. derivaten av $y$ med hensyn til $X$ er definert som: $$ \frac{\partial y}{\partial X} = \begin{bmatrix} \frac{\partial y}{\partial x_{11}} & \frac{\partial y}{\partial x_{12}} & \cdots & \frac{\partial y}{\partial x_{1n}} \ \frac{\partial y}{\partial x_{21}} & \frac{\partial y}{\partial x_{22}} & \cdots & \frac{\partial y}{\partial x_{2n}} \ \vdots & \vdots & \ddots & \vdots \ \frac{\partial y}{\partial x_{m1}} & \frac{\partial y}{\partial x_{m2}} & \cdots & \frac{\partial y}{\partial x_{mn}} \end{bmatrix} $$

engelsk: let $X = (x_{ij})$ be a matrix of order (m × n) and let: $$ y = f(X) $$ be a scalar function of $X$. the derivative of $y$ with respect to $X$ is defined as: $$ \frac{\partial y}{\partial X} = \begin{bmatrix} \frac{\partial y}{\partial x_{11}} & \frac{\partial y}{\partial x_{12}} & \cdots & \frac{\partial y}{\partial x_{1n}} \ \frac{\partial y}{\partial x_{21}} & \frac{\partial y}{\partial x_{22}} & \cdots & \frac{\partial y}{\partial x_{2n}} \ \vdots & \vdots & \ddots & \vdots \ \frac{\partial y}{\partial x_{m1}} & \frac{\partial y}{\partial x_{m2}} & \cdots & \frac{\partial y}{\partial x_{mn}} \end{bmatrix} $$

eksempel på derivert av skalarfunksjoner av en matrise (norsk og engelsk)

norsk: finn gradientmatrisen hvis $y$ er sporet av en kvadratisk matrise $X$ av orden n, det vil si: $$ y = tr(X) = \sum_{i=1}^n x_{ii} $$ derivaten er: $$ \frac{\partial y}{\partial X} = I $$ hvor $I$ er identitetsmatrisen av orden n.

engelsk: find the gradient matrix if $y$ is the trace of a square matrix $X$ of order n, that is: $$ y = tr(X) = \sum_{i=1}^n x_{ii} $$ the derivative is: $$ \frac{\partial y}{\partial X} = I $$ where $I$ is the identity matrix of order n.

§D.4 matrisens differensial

norsk: for en skalarfunksjon $f(x)$, der $x$ er en n-vektor, er det ordinære differensialet av multivariat kalkulus definert som: $$ df = \sum_{i=1}^n \frac{\partial f}{\partial x_i} dx_i $$ i tråd med denne formelen definerer vi differensialet til en m × n matrise $X = [x_{ij}]$ som: $$ dX \triangleq \begin{bmatrix} dx_{11} & dx_{12} & \cdots & dx_{1n} \ dx_{21} & dx_{22} & \cdots & dx_{2n} \ \vdots & \vdots & \ddots & \vdots \ dx_{m1} & dx_{m2} & \cdots & dx_{mn} \end{bmatrix} $$ denne definisjonen samsvarer med de multiplikative og assosiative reglene: $$ d(\alpha X) = \alpha dX, \quad d(X + Y) = dX + dY $$ hvis $X$ og $Y$ er produktkonforme matriser, kan det verifiseres at differensialet av deres produkt er: $$ d(XY) = (dX)Y + X(dY) $$ som er en utvidelse av den velkjente regelen $$ d(xy) = y dx + x dy $$ for skalarfunksjoner.

engelsk: for a scalar function $f(x)$, where $x$ is an n-vector, the ordinary differential of multivariate calculus is defined as: $$ df = \sum_{i=1}^n \frac{\partial f}{\partial x_i} dx_i $$ in harmony with this formula, we define the differential of an m × n matrix $X = [x_{ij}]$ to be: $$ dX \triangleq \begin{bmatrix} dx_{11} & dx_{12} & \cdots & dx_{1n} \ dx_{21} & dx_{22} & \cdots & dx_{2n} \ \vdots & \vdots & \ddots & \vdots \ dx_{m1} & dx_{m2} & \cdots & dx_{mn} \end{bmatrix} $$ this definition complies with the multiplicative and associative rules: $$ d(\alpha X) = \alpha dX, \quad d(X + Y) = dX + dY $$ if $X$ and $Y$ are product-conforming matrices, it can be verified that the differential of their product is: $$ d(XY) = (dX)Y + X(dY) $$ which is an extension of the well-known rule $$ d(xy) = y dx + x dy $$ for scalar functions.

eksempler på matrisens differensial (norsk og engelsk)

norsk: hvis $X = [x_{ij}]$ er en kvadratisk nonsingulær matrise av orden n, og betegner $Z = |X|X^{-1}$. finn differensialet til determinanten av $X$: $$ d|X| = \sum_{i,j} \frac{\partial |X|}{\partial x_{ij}} dx_{ij} = \sum_{i,j} X_{ij} dx_{ij} = tr(|X|X^{-1})^T dX) = tr(Z^T dX) $$

engelsk: if $X = [x_{ij}]$ is a square nonsingular matrix of order n, and denote $Z = |X|X^{-1}$. find the differential of the determinant of $X$: $$ d|X| = \sum_{i,j} \frac{\partial |X|}{\partial x_{ij}} dx_{ij} = \sum_{i,j} X_{ij} dx_{ij} = tr(|X|X^{-1})^T dX) = tr(Z^T dX) $$

norsk: med de samme antakelsene som ovenfor, finn $d(X^{-1})$. den raskeste utledningen følger ved å differensiere begge sider av identiteten $X^{-1}X = I$: $$ d(X^{-1})X + X^{-1} dX = 0 $$ hvorfra $$ d(X^{-1}) = -X^{-1} dX X^{-1} $$ hvis $X$ reduseres til skalaren $x$, har vi: $$ d\left( \frac{1}{x} \right) = -\frac{dx}{x^2} $$

engelsk: with the same assumptions as above, find $d(X^{-1})$. the quickest derivation follows by differentiating both sides of the identity $X^{-1}X = I$: $$ d(X^{-1})X + X^{-1} dX = 0 $$ from which $$ d(X^{-1}) = -X^{-1} dX X^{-1} $$ if $X$ reduces to the scalar $x$, we have: $$ d\left( \frac{1}{x} \right) = -\frac{dx}{x^2} $$