
English: 
Hi there, Did you know that every symmetric
matrix is orthogonally diagonalizable?
Well, now you do!
Do you know what it means?
I will tell you!
First of all a symmetric matrix is a matrix
that is equal to its transpose.
In a previous chapter we already 
met orthogonal matrices.
A square matrix U is orthogonal if U-transpose
times U equals the identity matrix.
This is equivalent to: 
the columns of U are orthonormal;
in fact they form an orthonormal basis for R-to-the-n.
Another way to put it: U is orthogonal if and only if 
the inverse of U is equal to the transpose of U.

Dutch: 
Hallo daar, wist je dat elke symmetrische
matrix ​​orthogonaal diagonaliseerbaar is?
Nou, nu wel!
Weet je wat het betekent?
Ik zal het je vertellen!
Allereerst is een symmetrische matrix een matrix die is gelijk zijn getransponeerde.
In een vorig hoofdstuk hebben we al orthogonale matrices gezien.
Een vierkante matrix U is orthogonaal als U-getransponeerd maal U gelijk is aan de identiteitsmatrix.
Dit is equivalent aan: de kolommen van U zijn orthonormaal;
in feite vormen ze een orthonormale basis voor R^n.
Een andere manier om het te zeggen: U is orthogonaal als en alleen als de inverse van U gelijk is aan de getransponeerde van U.

Dutch: 
Nu kan ik uitleggen wat orthogonaal diagonaliseerbaar betekent voor een matrix A:
het betekent dat A kan worden geschreven als Q maal een diagonaal matrix D maal Q-invers voor een orthogonale matrix Q.
En dit is hetzelfde als: er bestaat een orthonormale basis van R^n bestaande uit eigenvectoren van A.
Merk op dat deze eigenvectoren juist de kolommen van de matrix Q zijn.
Het omgekeerde van de hoofdstelling is ook waar,
en het is bewezen in twee regels.
Als volgt: als A orthogonaal diagonaliseerbaar is, dan is A gelijk aan QDQ-invers, met Q orthogonaal,
Dus A is gelijk aan QDQ-getransponeerd. Gebruik nu de regels van de transponeeroperator en

English: 
Now I can explain what orthogonally diagonalizable
means for a matrix A:
it means that A can be written as Q times a diagonal 
matrix D times Q-inverse for an orthogonal matrix Q.
And this is the same as: there exists an orthonormal
basis of R-to-the-n consisting of eigenvectors of A.
Note that these eigenvectors are precisely the columns of the matrix Q.
The converse of the main theorem is also true,
and it is proved in two lines.
As follows: IF A is orthogonally diagonalizable,
then A equals QDQ-inverse, with Q orthogonal,
So A equals QDQ-transpose Now use the rules
of the transpose operator - and

English: 
the simple fact that a diagonal matrix is symmetric,
and you see that the transpose of A equals
A, so A is indeed symmetric.
Nice, no!?
The main theorem itself rests on three important
properties of symmetric matrices:
First: all eigenvalues of a symmetric matrix are real.
Second: for each eigenvalue the geometric
multiplicity equals the algebraic multiplicity.
Third: eigenvectors for different eigenvalues
are orthogonal.
Note that the first two properties together
imply that symmetric matrices are diagonalizable.
Namely, they imply that there are sufficiently
many eigenvectors.
Let’s have a look at a small example first:
The matrix A shown here is symmetric .

Dutch: 
het simpele feit dat een diagonale matrix symmetrisch is, en je ziet dat de getransponeerde van A gelijk is aan
A, dus A is inderdaad symmetrisch.
Leuk toch !?
De hoofdstelling zelf berust op drie belangrijke eigenschappen van symmetrische matrices:
Ten eerste: alle eigenwaarden van een symmetrische matrix zijn reëel.
Ten tweede: voor elke eigenwaarde is de geometrische multipliciteit gelijk aan de algebraïsche multipliciteit.
Ten derde: eigenvectoren voor verschillende eigenwaarden zijn orthogonaal.
Merk op dat de eerste twee eigenschappen samen impliceren dat symmetrische matrices diagonaliseerbaar zijn.
Namelijk, zij impliceren dat er voldoende veel eigenvectoren zijn.
Laten we eerst een klein voorbeeld bekijken: de hier getoonde matrix A is symmetrisch.

Dutch: 
Zijn karakteristiek polynoom is gelijk aan 
lambda^2 - 25.
Hieruit kun je al concluderen dat A diagonaliseerbaar is: A heeft namelijk twee eigenwaarden,
plus en minus vijf, die twee onafhankelijke eigenvectoren geven, en deze vormen een basis van eigenvectoren.
Het is niet moeilijk om de eigenvectoren te berekenen: voor lambda = 5 moet je een lineair stelsel oplossen.
Uit de gereduceerde vorm kun je aflezen dat [2, -1] een eigenvector is en voor lambda = -5
zal je vinden dat v2=[1, 2] een eigenvector is.
Over de orthogonaliteit: bereken het inproduct!
Je ziet: deze eigenvectoren zijn inderdaad orthogonaal.
Je kunt ze schalen om een ​​orthonormale basis q1, q2 van eigenvectoren te vinden en als je

English: 
Its characteristic polynomial equals 
lambda-squared minus twenty-five.
From this you can already conclude that A
is diagonalizable: Namely, A has two eigenvalues,
plus and minus five, which give two independent
eigenvectors, and these form a basis of eigenvectors.
It’s not hard to compute the eigenvectors:
For lambda equals 5 you have to solve a linear system.
from the reduced form you can read off that
[2, -1] is an eigenvector, and for lambda
equals minus-5 you will find that v2 equals
[1, 2] is an eigenvector.
About the orthogonality:
compute the inner product!
You see: these eigenvectors are indeed orthogonal.
You can scale them to find an orthonormal
basis q1, q2 of eigenvectors, and putting

English: 
these into a matrix Q you get an orthogonal
matrix diagonalizing the matrix A.
Of course the matrix D is the diagonal matrix
with the corresponding eigenvalues on the diagonal.
Beautiful, isn’t it!?
Here you see the three important properties
of symmetric matrices again: The third property
implies that the matrix that diagonalizes
A may be taken orthogonal.
Namely, For each eigenspace you can construct
an orthonormal basis, using the Gram-Schmidt process,
and these bases put together give a basis consisting 
of eigenvectors for the whole R-to-the-n.
Because of the orthogonality property 3, this
is automatically an orthonormal basis of R-to-the-n.
To see how it works: Consider the symmetric 
matrix on the slide.

Dutch: 
deze in een matrix Q zet, krijg je een orthogonale matrix die de matrix A diagonaliseert.
Natuurlijk is de matrix D de diagonale matrix met de bijbehorende eigenwaarden op de diagonaal.
Prachtig, is het niet?
Hier zie je de drie belangrijke eigenschappen van symmetrische matrices opnieuw: de derde eigenschap
impliceert dat de matrix die A diagonaliseert orthogonaal kan worden gekozen.
Namelijk, voor elke eigenruimte kun je een orthonormale basis bouwen, met behulp van het Gram-Schmidt-proces,
en deze bases samen vormen een basis die bestaat van eigenvectoren voor heel R^n.
Vanwege de orthogonaliteitseigenschap 3, is dit automatisch een orthonormale basis van R^n.
Om te zien hoe het werkt: bekijk de symmetrische matrix op de dia.

English: 
Skipping the computations, the eigenvalues
are 3, 3, 6 and -3, And you may (or may not)
check that the vectors {v1 up to v4} as shown
give a corresponding basis of eigenvectors.
Note that indeed the double eigenvalue 3 gives
rise to two independent eigenvectors v1 and v2.
This is precisely what property two guarantees.
The orthogonality property states that 
the inner products of v1 and v3, v2 and v3 etcetera
should all be equal to zero, which is true,
as you may check.
The eigenspace for the double eigenvalue lambda
equals 3 has the basis v1, v2
that is not automatically orthogonal.
Using Gram-Schmidt you get this orthogonal
basis u1, u2 for this eigenspace, and replacing
the first vectors by these gives an orthogonal
basis of eigenvectors for the whole space.

Dutch: 
De berekeningen slaan we over, de eigenwaarden zijn 3, 3, 6 en -3, en je kunt
controleren (of niet) of de vectoren {v1 tot en met v4} zoals weergegeven een overeenkomstige basis geven van eigenvectoren.
Merk op dat inderdaad de dubbele eigenwaarde 3 twee onafhankelijke eigenvectoren v1 en v2 geeft.
Dit is precies wat eigenschap twee garandeert.
De orthogonaliteitseigenschap stelt dat 
de inproducten van v1 en v3, v2 en v3 enzovoort
allemaal gelijk moeten zijn aan nul, wat waar is, zoals je kunt controleren.
De eigenruimte voor de dubbele eigenwaarde lambda=3 heeft de basis v1, v2
die zijn niet automatisch orthogonaal.
Met Gram-Schmidt krijg je de orthogonale
basis u1, u2 voor deze eigenruimte en het vervangen
van de eerste vectoren geeft een orthogonale basis van eigenvectoren voor de hele ruimte.

English: 
Normalizing and putting them together gives
the orthogonal matrix Q that diagonalizes A,
that is A equals Q times D times Q-inverse.
Brilliant!
For this example again
 the three properties are satisfied.
Two examples is of course quite insufficient
as a proof.
Let’s have one last look at the big three.
The proof of the third property is the easiest,
and I will give it here.
Suppose u and v are eigenvectors for different
eigenvalues lambda and mu.
Then the inner product of (A times u) and
v can be calculated in two ways:
The easiest way leads to lambda times u dot v, However,
using the product rule of the transpose and

Dutch: 
Normaliseren en bij elkaar zetten geeft
de orthogonale matrix Q die A diagonaliseert,
dus A is gelijk aan Q maal D maal Q-invers.
Briljant!
Voor dit voorbeeld wordt er opnieuw voldaan aan de drie eigenschappen.
Twee voorbeelden zijn natuurlijk behoorlijk ontoereikend als een bewijs.
Laten we nog een laatste blik werpen op de grote drie.
Het bewijs van de derde eigenschap is de makkelijkste, en ik zal het hier geven.
Stel dat u en v eigenvectoren zijn voor verschillende eigenwaarden lambda en mu.
Dan kan het inproduct van (A keer u) en
v op twee manieren worden berekend:
De makkelijkste manier leidt tot het inproduct van lambda-keer u met v, echter, gebruikmakend van de productregel van de getransponeerde en

Dutch: 
de symmetrie van A zie je dat het ook gelijk is aan het inproduct van (mu keer u) met v
Het combineren van de twee geeft: het inproduct van u met v is gelijk aan 0, dat wil zeggen: u en v zijn orthogonaal.
Ook mooi, nietwaar !?
De bewijzen van de andere twee eigenschappen laat ik aan jou over.
Ze zijn niet zo makkelijk, maar zoals je misschien weet is schoonheid niet de enige eigenschap die
wiskunde deelt met diamanten.
We zijn klaar, tot ziens!

English: 
the symmetry of A you see that it is also
equal to mu times u dot v
Combining the two 
Gives: u dot v equals 0, that is: u and v are orthogonal.
Beautiful again, don’t you agree!?
The proofs of the other two properties I leave to you.
They are not so easy, but as you might know
by now, beauty is not the only property that
mathematics shares with diamonds.
Time’s up, Goodbye!
