
Polish: 
Ostatnim razem zapytałem: co oznacza według was matematyka? I niektórzy odpowiedzieli: manipulacja liczbami, manipulacja strukturami.
A jeżeli spytałbym, co oznacza dla was muzyka, odpowiedzielibyście "manipulacja nutami"?
Wektory własne i wartości własne to jeden z tych tematów, które studenci często uważają za nieintyicyjne.
Pytania typu "dlaczego to robimy?" albo "co to tak naprawdę oznacza?"
zbyt często nie doczekują się odpowiedzi, zagubione w wirze obliczeń
W miarę jak wstawiałem kolejne filmiki,
wielu z was pisało w komentarzach, że szczególnie czekacie na opisanie i zwizualizowanie tego tematu.
Podejrzewam,
że powodem nie jest że te "własne" zagadnienia są szczególnie zawiłe lub źle opisane.
Tak naprawdę, są one względnie proste
i większość książek dobrze je wytłumacza.
Jedynym problemem jest to,
że ma to sens dopiero gdy mamy porządne wizualne wyobrażenie wielu tematów które to poprzedzają.

Arabic: 
"Eigenvectors and eigenvalues" هي واحدة من تلك المواضيع التي يجدها الكثير من الطلاب غير واضحة بشكل خاص.
أسئلة مثل "لماذا نفعل هذا" و "ماذا يعني هذا في الواقع"
غالبًا ما يتم تركها في بحر من الحسابات دون إجابة.
ولأنني وضعت مقاطع الفيديو الخاصة بالسلسلة ،
لقد علق الكثير منكم على التطلع إلى تصور هذا الموضوع على وجه الخصوص.
وأظن أن
السبب في ذلك ليس كثيرا أن الأشياء eigen- معقدة أو سيئة بشكل خاص.
في الواقع ، إنها بسيطة نسبيا
وأعتقد أن معظم الكتب تقوم بعمل جيد لشرحها.
القضية هي ذلك
من المنطقي حقًا أن يكون لديك فهم مرئي راسخ للعديد من الموضوعات التي تسبقها.

English: 
"Eigenvectors and eigenvalues" is one of those topics that a lot of students find particularly unintuitive.
Questions like "why are we doing this" and "what does this actually mean"
are too often left just floating away in an unanswered sea of computations.
And as I put out the videos of the series,
a lot of you have commented about looking forward to visualizing this topic in particular.
I suspect that
the reason for this is not so much that eigen-things are particularly complicated or poorly explained.
In fact, it's comparatively straightforward
and I think most books do a fine job explaining it.
The issue is that
it only really make sense if you have a solid visual understanding for many of the topics that precede it.

German: 
"Eigenvektoren und Eigenwerte" ist eines der Themen , das viele Studenten besonders unintuitiv finden.
Fragen wie "warum machen wir das" und "was heißt das überhaupt"
gehen oft in einem Meer aus Berechnungen unter.
Und als ich die Videos dieser Serie herausbrachte,
haben viele von Euch kommentiert, sie würden sich auf die Visualisierung dieses Themas im Speziellen freuen.
Ich nehme an, dass
der Grund dafür nicht darin liegt, dass "Eigen"-Dinge besonders kompliziert wären oder schlecht erklärt würden.
Tatsächlich sind sie vergleichbar einfach
und ich denke, dass die meisten Bücher es gut erklären.
Das Problem ist, dass
es nur wirklich Sinn ergibt, wenn man ein solides visuelles Verständnis für vorhergehende Themen hat.

Modern Greek (1453-): 
"Ιδιοδιανύσματα και Ιδιοτιμές" είναι ένα από τα θέματα που πολλοί φοιτητές δεν βρίσκουν ιδιαίτερα  διαισθητικό.
Ερωτήσεις όπως "γιατί το κάνουμε αυτό" και "τι σημαίνει αυτό στην πραγματικότητα",
πολύ συχνά αφήνονται απλώς να επιπλέουν σε μια αναπάντητη θάλασσα υπολογισμών.
Και καθώς έβαζα τα βίντεο της σειράς,
πολλοί από εσάς σχολιάσατε ότι προσβλέπατε ειδικότερα στην οπτικοποίηση αυτού του θέματος.
Υποψιάζομαι ότι
ο λόγος για αυτό δεν είναι τόσο πολύ ότι τα 'ιδιο'-πράγματα είναι ιδιαίτερα περίπλοκα ή ελάχιστα εξηγημένα.
Στην πραγματικότητα, είναι συγκριτικά απλά
και νομίζω ότι τα περισσότερα βιβλία κάνουν καλή δουλειά στην εξήγησή τους.
Το θέμα είναι ότι
βγάζει πραγματικά νόημα μόνο αν έχετε μια σταθερή οπτική κατανόηση για πολλά από τα θέματα που προηγούνται.

Portuguese: 
"Outra vez eu perguntei: 'O que a matemática significa para você?', e algumas pessoas responderam:
'A manipulação de números, a manipulação de estruturas.'  Se eu tivesse perguntado,
'E o que a música significa para você?', você teria respondido 'A manipulação de notas'?"
-- Serge Lang
Autovetores e autovalores é um daqueles temas
que um monte de alunos acham 
particularmente não intuitiva.
Perguntas como “Por que estamos fazendo isso?”
e “O que isso realmente significa?”
muitas vezes são deixados apenas flutuando para longe
num mar sem resposta de computações
e à medida que eu disponibilizava vídeos desta série,
muitos de vocês têm comentado sobre estarem ansiosos para visualizar este tema em particular.
Eu suspeito que a razão para isso não é tanto que
auto-coisas são particularmente 
complicadas ou mal explicadas.
Na verdade, é relativamente simples
e eu acho que a maioria dos livros fazem um bom trabalho de explicar isso.
A questão é que ele realmente só faz sentido
se você tiver uma compreensão visual sólida
para muitos dos tópicos que o precedem.
O mais importante aqui

Chinese: 
“特征向量与特征值”是许多学生认为非常不直观的一个话题
“为什么要这么做”以及“它究竟意味着什么”之类的问题
通常都淹没在计算的海洋中无人问津
在我放出这个视频系列之后
有很多人都在评论，说特别期待这一部分的形象解释
我怀疑
原因并不在于特征的东西特别复杂或是缺乏说明
实际上，相对而言它更加直接
而且我认为大部分的书也提供了良好的解释
问题在于
只有对之前讲的内容有充分的几何直观，你才能真正理解它

Czech: 
Minule jsem se zeptal, co pro vás znamená matematika. Někteří odvětili "manipulaci s čísly, manipulaci se strukturami". A kdybych se zeptal, co pro vás znamená hudba, řekli byste "manipulaci s notami"?
-- Serge Lang
Vlastní čísla a vlastní vektory jsou jedním z témat,
ve kterých se studenti ztrácejí.
Otázky jako "Proč počítáme tohle?"
"Co má tohle znamenat?"
se často zůstávají vznášet
nad mořem nevysvětlených výpočtů.
Jak jsem začal vydávat tuhle sérii videí
hodně z vás se těšilo zejména na tuhle látku.
Nemyslím ale, že by to bylo kvůli tomu,
že vlastní věci jsou složité nebo špatně vykládány.
Je to vlastně docela přímočaré,
a řekl bych, že ve většině knížek je to vysvětlené dobře.
Problém je, že to dává smysl teprve až
když solidně vizuálně rozumíte
předcházejícím tématům.
Nejdůležitější tu je

Spanish: 
Los vectores propios y los valores propios son de aquellos conceptos
que muchos estudiantes encuentran particularmente poco intuitivos
Preguntas como: "Por qué estamos haciendo esto?"
y "Qué quiere decir ésto realmente?"
son frecuentemente dejadas al flote
en un mar de cálculos sin respuestas
Y a medida que publico los videos de esta serie
muchos de vosotros habéis expresado vuestro interés en poder visualizar este tema en concreto
Sospecho que la razón para esto no es tanto por el hecho de que
el mundo de las cosas "propias" sea particularmente complicado o pobremente explicado
De hecho, es bastante sencillo en comparación con otros conceptos
y creo que la mayoría de los libros hacen un buen trabajo explicándolo
El problema es que solo tiene de veras sentido
si tienes una sólida concepción visual
de muchos de los otros conceptos que lo preceden
En este caso, lo más importante

Korean: 
고유벡터와 고유값은 많은 학생들이
특히 직관적이지 않다고 느끼는 주제 중 하나입니다.
"왜 우리가 이걸 하고 있지? 혹은
"이게 정말 의미하는게 뭐야?" 와 같은 질문들은
너무 많은 계산들 사이로
그냥 흘러가 버립니다
그리고 제가 이 비디오 시리즈들을 게시하자 많은 분들이
특히 이 주제를 시각화 하는데에 기대를 가지고 코멘트를 남겼습니다
저는 이것에 대한 이유가
고유- 무언가들이 특별히 복잡하거나 나쁘게 설명되어서가 아니라고 생각합니다
사실, 이것들은 직접적인 편으로
대부분의 책들에 설명이 나름 잘 되어있습니다
문제는 당신이 선행되는 여러 주제에 대한
탄탄한 시각적 이해가 있어야지만
정말로 이해가 된다는 것입니다.
여기서 가장 중요한 것은

Arabic: 
الأهم هنا هو أن تعرف كيف تفكر في المصفوفات كتحولات خطية ،
ولكن عليك أيضًا أن تكون مرتاحًا مع الأشياء
مثل المحددات والنظم الخطية للمعادلات وتغيير الأساس.
الارتباك حول المواد eigen عادة ما يكون له علاقة مع أساس هش في واحدة من هذه المواضيع
مما هي عليه في eigenvectors و eigenvalues ​​نفسها.
للبدء ، ضع في اعتبارك بعض التحولات الخطية في بعدين ،
مثل الذي ظهر هنا.
وهو يتحرك على أساس i-hat المتجه إلى الإحداثيات (3 ، 0) و j-hat إلى (1 ، 2) ،
بحيث يتم تمثيلها بمصفوفة ، تكون أعمدةها (3 ، 0) و (1 ، 2).
التركيز على ما يفعله لمتجه واحد معين
وفكر في مدى ذلك الناقل ، الخط الذي يمر من خلال أصله وطرفه.
معظم المتجهات سوف تخرج عن نطاقها خلال التحول.
أعني ، قد يبدو الأمر من قبيل الصدفة
إذا كان المكان الذي هبط فيه الناقل في مكان ما على هذا الخط.

Modern Greek (1453-): 
Το πιο σημαντικό εδώ είναι ότι ξέρετε πώς να σκεφτείτε τους πίνακες ως γραμμικούς μετασχηματισμούς,
αλλά πρέπει επίσης να είστε άνετοι με πράγματα
όπως ορίζουσες, γραμμικά συστήματα εξισώσεων και αλλαγή βάσης.
Η σύγχυση σχετικά με τα ιδιο-πράγματα συνήθως έχει περισσότερο να κάνει με ένα χαμηλό υπόβαθρο σε ένα από αυτά τα θέματα
απ' ότι έχει να κάνει με τα ίδια τα ιδιοδιανύσματα και ιδιοτιμές.
Ξεκινώντας, σκεφτείτε κάποιο γραμμικό μετασχηματισμό σε δύο διαστάσεις,
όπως αυτό που φαίνεται εδώ.
Μετακινεί το διάνυσμα βάσης i στις συντεταγμένες 
(3, 0) και το j στο (1, 2),
έτσι αντιπροσωπεύεται με ένα πίνακα, των οποίων οι στήλες είναι (3, 0) και (1, 2).
Εστιάστε στο τι κάνει σε ένα συγκεκριμένο διάνυσμα
και σκεφτείτε το span (γραμμική θήκη) αυτού του διανύσματος, τη γραμμή που διέρχεται από την αρχή και την άκρη του.
Τα περισσότερα διανύσματα θα μετακινηθούν από το span τους κατά τη διάρκεια του μετασχηματισμού.
Θέλω να πω, θα φαινόταν αρκετά συμπτωματικό,
εάν ο τόπος όπου το διάνυσμα σταματά, συμβαίνει επίσης να βρίσκεται κάπου στη γραμμή αυτή.

Chinese: 
这里最重要的部分是，你需要了解如何将矩阵看作线性变换
但你也需要熟悉其他的内容
例如行列式、线性方程组和基变换
通常而言，对特征的东西感到疑惑，更多的是因为以上内容的薄弱基础
而不是在于特征向量与特征值本身
首先，考虑二维空间中的某个线性变换
比如现在展示的这个
它将基向量i帽变换到坐标(3, 0)，j帽变换到坐标(1, 2)
所以如果用矩阵来表达，它的列就是(3, 0)和(1, 2)
我们关注它对一个特定向量的作用
并且考虑这个向量张成的空间，也就是通过原点和向量尖端的直线
大部分向量在变换中都离开了其张成的空间
我的意思是，如果向量正好落在这条直线上，感觉更像是巧合

Czech: 
umět se dívat na matice jako na
lineární transformace,
ale taky se musíte kamarádit s tématy jako jsou
determinanty, soustavy lineárních rovnic a změna báze.
Zmatení okolo vlastních věcí obvykle spíše vychází
z křehkého povědomí o některém z těchto témat
než ze samotných vlastních čísel a vektorů.
Začneme tím, že si vezmeme nějakou dvourozměrnou lineární transformaci,
jako třeba tuhle.
Přesouvá bázový vektor 'i' na souřadnice (3, 0) a
'j' na (1, 2),
takže jej reprezentujeme maticí se sloupečky
(3, 0) a (1, 2)
Zaměříme se na to, co to provádí s jedním konkrétním vektorem
a podíváme se na jeho lineární obal,
přímku procházející počátkem a jeho špičkou.
Většina vektorů během transformace vypadne ze svého obalu.
Rozumějte, byla by fakt haluz,
aby výsledný vektor dopadl
zase přesně na tu přímku.

Polish: 
W szczególności, ważna jest interpretacja macierzy jako przekształceń liniowych,
chociaż potrzebna jest też płynność w myśleniu o
wyznacznikach, układach liniowych i zmianie bazy.
Zamęt związany z tymi pojęciami zwykle wynika bardziej ze słabej znajomości któregoś z tych tematów,
niż z samej trudności tematu wektorów i wartości własnych.
Na początek rozważmy jakieś przekształcenie liniowe w dwóch wymiarach,
takie jak pokazane tutaj.
Przeprowadza ono wektor i-z-daszkiem na [3, 0] a j-z-daszkiem na [1, 2]
więc reprezentowane jest macierzą, której kolumny to (3,0) oraz (1,2)
Przypatrzmy się na jakiś ustalony wektor
i pomyślmy o całej przestrzeni przez niego rozpiętej, czyli prostej przechodzącej przez początek układu oraz jego koniec.
Większość wektorów zostanie "zrzuconych" ze swoich prostych podczas przekształcenia.
Byłoby trochę przypadkowe,
jeżeli koniec wektora po przekształceniu wylądował znowu gdzieś na swojej prostej.

Korean: 
당신이 행렬을 선형변형(linear
 transformations)으로 생각하는 방법을
아는 것입니다
그리고 행렬식(determinants), 선형
 방정식계(linear systems of equations), 기저 변환(change of basis)들에
익숙해야 할 필요도 있습니다
고유- 무언가들에 대한 혼란은 보통 이 주제들 중 하나를
확실하게 알고 있지 않는 탓이 크지
고유벡터와 고유값 자체에 있지 않습니다
시작하자면,  여기 보이는 것과 같은 이차원에서의
선형변환에 대해 생각해 보십시오
이 변환은 기저 벡터인 i-hat을 좌표 [3, 0]으로, j-hat을 [1, 2]로 옮겨서
열이 [3, 0] 과 [1, 2]인 행렬로 나타냅니다
한 특정한 벡터에 무엇이 일어나는지와
벡터의 종점과 시점을 지나는 선인
그 벡터의 스팬(span)에 대해서 생각해 봅시다
대부분의 벡터는 변환의 과정에서 자신의 스팬을 벗어 날 것입니다
제 말은, 만약 벡터가 위치하는 장소가
그 선 위의 어딘가가 된다면
상당히 우연처럼 보일 것입니다

Spanish: 
es que sepas como pensar en matrices
como aplicaciones lineales
pero también tienes que sentirte cómodo con cosas como
determinantes, sistemas lineales de ecuaciones, y cambios de base
Confusión con cosas "propias" normalmente tiene más que ver
con una concepción débil en alguno de estos temas
que con los vectores y valores propios en sí
Para empezar, considera una aplicación lineal en dos dimensiones
como la mostrada aquí
Mueve el vector unitario i de la base a las coordenadas [3,0] y el vector j a [1,2]
de manera que queda representado con una matriz cuyas columnas son [3,0] y [1,2]
Céntrate en lo que la aplicación le hace a un vector en particular
y piensa en el sistema generador de ese vector;
la línea pasando a través de su origen y su punta
La mayoría de los vectores van a verse desplazados respecto su sistema generador durante la transformación
Quiero decir, sería toda una coincidencia
si el lugar en donde el vector fuera a parar
también resultara ser algún sitio en esa misma línea

English: 
Most important here is that you know how to think about matrices as linear transformations,
but you also need to be comfortable with things
like determinants, linear systems of equations and change of basis.
Confusion about eigen stuffs usually has more to do with a shaky foundation in one of these topics
than it does with eigenvectors and eigenvalues themselves.
To start, consider some linear transformation in two dimensions,
like the one shown here.
It moves the basis vector i-hat to the coordinates (3, 0) and j-hat to (1, 2),
so it's represented with a matrix, whose columns are (3, 0) and (1, 2).
Focus in on what it does to one particular vector
and think about the span of that vector, the line passing through its origin and its tip.
Most vectors are going to get knocked off their span during the transformation.
I mean, it would seem pretty coincidental
if the place where the vector landed also happens to be somewhere on that line.

Portuguese: 
é que você sabe como pensar sobre matrizes
como transformações lineares
mas você também precisa estar 
confortável com coisas como
determinantes, sistemas lineares de equações e mudança de base.
A confusão sobre auto-coisas 
geralmente tem mais a ver
com uma base instável em um desses tópicos
do que com os próprios autovetores e autovalores.
Para começar, considere certa 
transformação linear em duas dimensões
como a mostrada aqui.
Ela move o vetor de base î para as 
coordenadas [3, 0] e ĵ para [1, 2]
por isso é representada com uma 
matriz cujas colunas são [3, 0] e [1, 2].
Concentre-se no que ela faz para um determinado vetor
e pensar sobre a reta gerada por esse vetor,
a linha que passa por sua origem e sua ponta.
A maioria dos vetores vão ser retirados de sua reta durante a transformação.
Quer dizer, seria muita coincidência
se o lugar onde o vetor aterrissou
também fosse em algum lugar nessa linha.

German: 
Am wichtigsten ist hier, dass man Matrizen als lineare Transformationen ansieht,
aber man sollte auch mit Dingen
wie Determinanten, linearen Gleichungssystemen und Basiswechsel vertraut sein.
Verwirrung über "Eigen"-Dinge hat normalerweise mehr mit einem unsicheren Grundwissen in einem jener Themen zu tun,
als mit Eigenvektoren und Eigenwerten selbst.
Zu Anfang sei eine lineare Transformation in zwei Dimensionen,
wie die hier gezeigte.
Sie bewegt den Basisvektor î zu den Koordinaten (3 | 0) und ĵ zu (1 | 2),
und wird daher durch eine Matrix mit den Spalten (3 | 0) und (1 | 2) repräsentiert.
Konzentrier Dich darauf, was sie mit genau diesem Vektor macht
und denk über den Spann dieses Vektors nach, die Gerade die durch die Spitze des Vektors und den Ursprung verläuft.
Während der Transformation werden die meisten Vektoren aus ihrem Spann herausbewegt.
Es schiene doch sehr zufällig,
wenn die Stelle, an der der Vektor landet, sich auch auf dieser Geraden befindet.

Korean: 
하지만 몇몇 특별한 벡터들은 고유한 스팬에 남아있습니다
이것은 행렬이 이러한 벡터들이 마치 스칼라인 것처럼
늘이고 줄이는 것  밖에 하지 않는다는 뜻입니다
이 특정한 예시에서는
기저 벡터인 i-hat은 특별한 벡터입니다
i-hat의 스팬은 x축이고
행렬의 첫 열에서 나온 것입니다
우리는 i-hat이 자신의 3배가 되게 움직여도
아직 x축 위에 있는 것을 볼 수 있습니다
또, 선형변환이 이루어지는 방식 때문에
x축 위의 다른 벡터도 3배로 늘어나고
자신의 span에 남아있습니다
이 변환 과정에 span이 변하지 않는 또다른 벡터는
바로 [-1, 1]입니다
이 벡터는 두 배로 늘어나게 됩니다
그리고 선형성(linearity)에 의해
이 대각선 위에 있는 다른 어떤 벡터도
2배로 늘어나게 될 것이라는 것을 알 수 있습니다

Polish: 
Ale niektóre, szczególne wektory właśnie zostają na swoich prostych,
to znaczy, że jedyne co ta macierz robi z tym wektorem, to go rozciąga lub ściska.
W tym przypadku, wektor bazowy i-z-daszkiem jest właśnie takim wektorem.
Prosta rozpięta przez i-z-daszkiem to oś OX,
a z pierwszej kolumny macierzy wiemy, że
i-z-daszkiem przechodzi na 3 razy siebie, czyli nadal na osi OX.
Co więcej, ponieważ wiemy jak działają przestrzenie liniowe,
dowolny wektor z osi OX też będzie rozciągnięty 3 razy,
i też zostanie na swojej podprzestrzeni (czyli tej prostej).
Trochę mniej oczywistym wektorem, który pozostaje na swojej prostej podczas przekształcenia jest [-1, 1],
jest on po prostu rozciągany 2 razy.
I tak jak wcześniej, ponieważ przekształcenie jest liniowe,
dowolny inny wektor na tej prostej zachowa się podobnie.
Zostanie on rozciągnięty 2 razy.

Modern Greek (1453-): 
Αλλά μερικά ειδικά διανύσματα παραμένουν στο δικό τους span,
που σημαίνει ότι η επίδραση που έχει ο πίνακας σε ένα τέτοιο διάνυσμα είναι απλώς να το τεντώσει ή να το συμπιέσει, όπως το βαθμωτό.
Για αυτό το συγκεκριμένο παράδειγμα, το διάνυσμα βάσης i, είναι ένα τέτοιο διάνυσμα.
Το span του i είναι ο άξονας των x,
και από την πρώτη στήλη του πίνακα,
μπορούμε να δούμε ότι το διάνυσμα i προχωρά 3 φορές τον εαυτό του, στον ίδιο αυτό άξονα x.
Επιπλέον, λόγω του τρόπου με τον οποίο λειτουργούν οι γραμμικοί μετασχηματισμοί,
οποιοσδήποτε άλλο διάνυσμα στον άξονα των x, επίσης απλώς τεντώνεται με συντελεστή 3
και ως εκ τούτου παραμένει στο δικό του span.
Ένα ελαφρά πιο ύπουλο διάνυσμα που παραμένει στο δικό του span κατά τη διάρκεια αυτού του μετασχηματισμού είναι το (-1, 1).
Καταλήγει να τεντώνεται κατά συντελεστή 2.
Και πάλι, η γραμμικότητα θα υποδηλώσει ότι
κάθε άλλο διάνυσμα στη διαγώνια γραμμή με span από αυτόν τον τύπο
πρόκειται απλώς να επεκταθεί με συντελεστή 2.

Spanish: 
Pero algunos vectores especiales sí que se mantienen en su propio sistema generador
Queriendo decir que el efecto que la matriz asociada a la aplicación lineal  tiene sobre tal vector
es simplemente el de alargarlo o encogerlo como un escalar
Para este ejemplo en concreto,
El vector de la base i es un vector así de especial
El sistema generador del vector i es el eje x
y a partir de la primera columna de la matriz
podemos ver que i se mueve 3 veces sí mismo hacia la derecha,
todavía en ese eje x.
Es más, debido a cómo las aplicaciones lineales funcionan
cualquier otro vector en el eje x también es alargado o encogido por un factor de 3
y, por consiguiente, permanece en su propio sistema generador
Un vector algo escondido que también permanece sobre su propio sistema generador a lo largo de esta transformación
es el [-1,1]
el cuál acaba siendo alargado por un factor de 2
Y una vez más, la linealidad de la aplicación va a implicar
que cualquier otro vector en la línea diagonal que genera este vector
va también a ser alargado por un factor de 2

German: 
Aber ein paar spezielle Vektoren verbleiben auf ihrem Spann,
bedeutet, dass die Matrix so einen Vektor nur streckt oder staucht, wie ein Skalar.
Für dieses spezifische Beispiel, der Basisvektor î ist so ein spezieller Vektor.
Der Spann von î ist die x-Achse,
und der ersten Spalte der Matrix können wir entnehmen,
dass î sich um das Dreifache auf der x-Achse verlängert.
Zudem wird aufgrund der Weise, wie Transformationen funktionieren,
jeder andere Vektor auf der x-Achse um das Dreifache gestreckt wird
und daher auf seinem Spann bleibt.
Ein etwas unauffälligerer Vektor, der auf seinem Spann bleibt ist (-1 | 1),
wird um einen Faktor von zwei gestreckt.
Und erneut impliziert die Linearität, dass
jeder andere Vektor auf der diagonalen Gerade, die von dem Kerl aufgespannt wird,
nur um einen Faktor von zwei gestreckt wird.

Chinese: 
不过，某些特殊向量的确留在它们张成的空间里
意味着矩阵对它的作用仅仅是拉伸或者压缩而已，如同一个标量
在这个例子中，基向量i帽就是这样一个特殊向量
i帽张成的空间是x轴
而且从矩阵的第一列可以看出
i帽变成了原来的3倍，仍然留在x轴上
此外，因为线性变换的性质
x轴上的任何其他向量都只是被拉伸为原来的3倍
因此也就留在它们张成的空间里
有一个略显隐蔽的向量(-1, 1)，它在变换中也留在自己张成的空间里
最终被拉伸为原来的2倍
同上，线性性质暗示着一点
处在它所张成的对角线上的其他任何一个向量
也仅仅被拉伸为原来的2倍

Arabic: 
لكن بعض المتجهات الخاصة تبقى في نطاقها الخاص ،
وهذا يعني أن تأثير المصفوفة على مثل هذا المتجه هو فقط لتمديده أو إسحقه ، مثل العدد القياسي.
لهذا المثال بالتحديد ، فإن المتجه الأساسي i-hat هو أحد هذه المتجهات الخاصة.
امتداد i-hat هو المحور السيني ،
ومن العمود الأول للمصفوفة ،
يمكننا أن نرى أن i-hat يتحرك إلى 3 أضعاف نفسه ، لا يزال على ذلك المحور x.
ما هو أكثر من ذلك ، بسبب الطريقة التي تعمل بها التحولات الخطية ،
أي متجه آخر على المحور السيني هو أيضا امتدت من قبل عامل 3
وبالتالي لا يزال على المدى الخاص به.
ناقل أضيق قليلاً الذي يبقى على امتداده خلال هذا التحول هو (-1 ، 1) ،
ينتهي الأمر الحصول على تمدد بواسطة عامل 2.
ومرة أخرى ، فإن الخطية تعني ذلك
أي متجه آخر على الخط القطري الذي يمتد إليه هذا الشخص
هو مجرد الحصول على امتدت بها عامل 2.

English: 
But some special vectors do remain on their own span,
meaning the effect that the matrix has on such a vector is just to stretch it or squish it, like a scalar.
For this specific example, the basis vector i-hat is one such special vector.
The span of i-hat is the x-axis,
and from the first column of the matrix,
we can see that i-hat moves over to 3 times itself, still on that x axis.
What's more, because of the way linear transformations work,
any other vector on the x-axis is also just stretched by a factor of 3
and hence remains on its own span.
A slightly sneakier vector that remains on its own span during this transformation is (-1, 1),
it ends up getting stretched by a factor of 2.
And again, linearity is going to imply that
any other vector on the diagonal line spanned by this guy
is just going to get stretched out by a factor of 2.

Czech: 
V jistých speciálních případech ale vektory ve svém obalu zůstanou,
což znamená, že když tento vektor vynásobíme naší maticí,
tak se jen natáhne nebo zmáčkne nějakým skalárem.
V našem případě
je jedním takovým speciálním vektorem vektor 'i',
obal 'i' je x-ová osa
a z prvního sloupečku matice vidíme,
že se 'i' přesune na svůj trojnásobek,
stále na ose x.
Co víc, díky vlastnostem lineárních transformací
se i jakýkoli jiný vektor na ose x přesune na svůj trojnásobek,
a tedy zůstane ve svém obalu.
A pak se schovává ještě další takový vektor, který zůstává ve svém obalu:
(-1, 1).
Ten se během transformace natáhne dvakrát.
A opět z linearity dostáváme,
že i jakýkoli jiný vektor na této úhlopříčce
se během transformace jenom natáhne dvakrát.

Portuguese: 
Mas alguns vetores especiais 
realmente permanecem em sua reta,
significando que o efeito que a matriz tem em tal vetor
é apenas para esticá-lo ou esmagá-lo como um escalar.
Para este exemplo específico,
o vetor de base î é um desses vetores especiais
o espaço de î é o eixo dos x
e a partir da primeira coluna da matriz
podemos ver que î se move sobre si mesmo 3 vezes,
ainda nesse eixo x.
Além do mais, por causa da maneira transformações lineares trabalham
qualquer outro vetor no eixo dos x também é simplesmente esticada por um fator de três
e, portanto, permanece na sua própria reta.
Um vetor ligeiramente mais escondido que permanece em sua própria reta durante esta transformação
é [-1, 1].
Ele acaba sendo esticado por um fator de 2.
E novamente linearidade vai implicar
que qualquer outro vetor na linha diagonal gerado por esse cara
só será estendido por um fator de 2.

Modern Greek (1453-): 
Και για αυτόν τον μετασχηματισμό,
αυτά είναι όλα τα διανύσματα με αυτή την ειδική ιδιότητα να μένουν στο span τους.
Εκείνα που βρίσκονται στον άξονα των χ επεκτείνονται με συντελεστή 3
και εκείνα σε αυτή τη διαγώνια γραμμή τεντώνονται με συντελεστή 2.
Οποιοδήποτε άλλο διάνυσμα πρόκειται να περιστραφεί κάπως, κατά τη διάρκεια του μετασχηματισμού,
να μετακινηθεί από το span του.
Όπως ίσως έχετε μαντέψει μέχρι τώρα,
αυτά τα ειδικά διανύσματα ονομάζονται "ιδιοδιανύσματα" του μετασχηματισμού,
και κάθε ιδιοδιάνυσμα συνδέεται με αυτό που ονομάζεται "ιδιοτιμή",
που είναι ακριβώς ο παράγοντας με τον οποίο τεντώνεται ή συμπιέζεται κατά τη διάρκεια του μετασχηματισμού.
Φυσικά, δεν υπάρχει τίποτα το ιδιαίτερο σχετικά με το τέντωμα έναντι της συμπίεσης,
ή το γεγονός ότι αυτές οι ιδιοτιμές τυγχάνει να είναι θετικές.
Σε ένα άλλο παράδειγμα, θα μπορούσατε να έχετε ένα ιδιοδιάνυσμα με ιδιοτιμή -1/2.
Που σημαίνει ότι το διάνυσμα αναστρέφεται και συμπιέζεται με συντελεστή 1/2.

Portuguese: 
E para esta transformação
esses são todos os vetores com esta propriedade especial de permanecer na sua reta.
Aqueles no eixo x, ficando estendidos por um fator de 3
e aqueles nesta linha diagonal, 
ficando esticadas por um fator de 2.
Qualquer outro vetor vai ser rodado um pouco durante a transformação,
derrubado de sua própria linha.
Como você deve ter adivinhado por agora,
esses vetores especiais são chamados de “autovetores” da transformação
e cada autovetor tem associado com ele
o que é chamado um "autovalor" ou “valor próprio”,
que é apenas o fator pelo qual o vetor é esticado ou comprimido durante a transformação.
Claro, não há nada de especial sobre alongar ou esmagar
ou o fato de que esses autovalores são positivos.
Em outro exemplo, você poderia ter 
um autovetor com autovalor -1/2
o que significa que o vetor foi virado e esmagado por um fator de 1/2.
Mas a parte importante aqui

Arabic: 
ولهذا التحول ،
هذه هي جميع المتجهات مع هذه الخاصية الخاصة للبقاء على امتدادها.
تلك التي على محور اكس تمد من قبل عامل 3
وتنتشر تلك الموجودة على هذا الخط القطري بواسطة عامل 2.
أي ناقل آخر سيتم تدويره نوعًا ما أثناء التحويل ،
خرج من الخط الذي يمتد.
كما قد تفكر الآن ،
تسمى هذه النواقل الخاصة "المتجهات الذاتية" للتحول ،
وقد ارتبط كل من eigenvector بها ، ما يسمى "قيمة الذاتية" ،
وهو العامل الوحيد الذي امتد من خلاله أو تم سحقه أثناء التحول.
بالطبع ، لا يوجد شيء خاص حول التمدد مقابل السحق
أو حقيقة أن قيم eigenvalues ​​هذه كانت إيجابية.
في مثال آخر ، يمكن أن يكون لديك متجاوب مع eigenvalue -1/2 ،
وهذا يعني أن ناقلات يحصل انقلبت ويسحقها عامل 1/2.

Korean: 
그리고 이 변형에서
이것들은 span을 유지하는 특별한 성질을 가진 모든 벡터입니다
x축 상의 벡터들은 세 배로 늘어나고
대각선 상의 벡터들은 두 배로 늘어납니다
변환 도중에 다른 벡터들은 어떤 식으로든 회전이 되어
스팬하는 선 위를 벗어날 것입니다
지금쯤 당신이 짐작하고 있는 대로
이 특별한 벡터들은 변환의 "고유벡터(eigenvectors)"라고 불립니다
그리고 각 고유벡터들은 "고유값(eigenvalue)"라고 불리는
값들을 가지고 있습니다
이것은 변환 도중 늘어나고 줄어드는 정도의 배수에 불과합니다
당연하게도, 늘어나는 것 vs. 줄어드는 것에 특별한 것은 없습니다
고유값이 양수가 된다는 사실도 마찬가지입니다
다른 예시에서는, 고유값 -1/2를 가진 고유벡터가 주어질 수 있습니다
이는 벡터가 (음의 부호로 인해) 뒤집어지고 1/2 만큼 줄어든다는 것을 의미합니다
하지만 여기에서 중요한 것은

German: 
Und für diese Transformation
sind das alle Vektoren mit der speziellen Eigenschaft, dass sie auf ihrem Spann bleiben.
Diejenigen, die auf der x-Achse um einen Faktor von drei gestreckt werden,
und die auf dieser diagonalen Geraden, die auf das Doppelte gestreckt werden.
Jeder andere Vektor wird während der Transformation irgendwie gedreht,
weg von der Geraden die er aufspannt.
Wie Ihr vielleicht schon erraten habt,
diese speziellen Vektoren werden "Eigenvektoren" der Transformation genannt,
und jeder Eigenvektor wird mit einem sogenannten "Eigenwert" assoziiert,
der einfach dem Faktor entspricht, mit dem er während der Transformation gestreckt oder gestaucht wird.
Natürlich ist das "Strecken" und "Stauchen" nichts besonderes
oder, dass diese Eigenwerte positiv sind.
In einem anderen Beispiel, könnte man einen Eigenvektor mit einem Eigenwert von -1/2 haben,
was bedeute, dass der Vektor umgedreht und um den Faktor zwei gestaucht wird.

English: 
And for this transformation,
those are all the vectors with this special property of staying on their span.
Those on the x-axis getting stretched out by a factor of 3
and those on this diagonal line getting stretched by a factor of 2.
Any other vector is going to get rotated somewhat during the transformation,
knocked off the line that it spans.
As you might have guessed by now,
these special vectors are called the "eigenvectors" of the transformation,
and each eigenvector has associated with it, what's called an "eigenvalue",
which is just the factor by which it stretched or squashed during the transformation.
Of course, there's nothing special about stretching vs. squishing
or the fact that these eigenvalues happen to be positive.
In another example, you could have an eigenvector with eigenvalue -1/2,
meaning that the vector gets flipped and squished by a factor of 1/2.

Chinese: 
对这个变换而言
以上就是所有拥有这一特殊性质（留在它们张成的空间里）的向量
x轴上的向量被拉伸为原来的3倍
而这条对角线上的向量被拉伸为原来的2倍
任何其他向量在变换中都有或多或少的旋转
从而离开它张成的直线
估计你现在已经猜到了
这些特殊向量就被称为变换的“特征向量”
每个特征向量都有一个所属的值，被称为“特征值”
即衡量特征向量在变换中拉伸或压缩比例的因子
当然，拉伸和压缩或者特征值恰好为正，并没有什么特殊的地方
换个例子，你可以有一个属于特征值-1/2的特征向量
意味着这个向量被反向，并且被压缩为原来的1/2

Polish: 
Dla tego przekształcenia,
to sa wszystkie wektory o tej własności - tylko one zostają na dwoich prostych.
Te na osi OX są rozciągnięte 3 razy,
te na przekątnej są rozciągnięte 2 razy.
Dowolny inny wektor będzie trochę przekręcony,
spadnie więc z prostej którą rozpina.
Jak mogliście się już domyślić,
te szczególne wektory nazywamy właśnie wektorami własnymi przekształcenia,
a każdy wektor własny ma przypisaną mu liczbę, nazywaną wartością własną,
która jest po prostu liczbą, przez którą mnoży się ten wektor.
oczywiście, nie ma większej różnicy między rozciąganiem a ściskaniem,
ani nie jest ważny fakt, że te wartości własne są dodatnie.
W innym przypadku moglibyśmy mieć wektor własny z wart. własną -1/2
to znaczy, że wektor jest przerzucony na przeciwną stronę i ściśnięty o 1/2.

Spanish: 
Y para esta aplicación lineal
esos son todos los vectores con esta propiedad especial de mantenerse en su generador
Aquellos que en el eje x son encogidos por un factor 3
y aquellos sobre esta linea diagonal que son encogidos por un factor 2
Cualquier otro vector va a ser rotado aunque sea un poco durante la transformación;
desplazado de la linea que genera.
Como ya habrás adivinado probablemente
a estos vectores especiales se les llama "vectores propios" de la aplicación
y cada vector propio tiene asociado con él
lo que se llama un "valor propio"
que no es más que el factor por el cuál el vector es alargado o encogido durante la transformación
Por supuesto, no hay nada especial en que se alarguen o en que se encojan
o en el hecho de que estos valores propios resulten haber sido positivos
En otro ejemplo, podrías tener un vector propio con un valor propio -1/2
queriendo decir que el vector  es volteado y encogido por un factor de 1/2
Pero la parte importante aquí

Czech: 
A pro tuto transformaci
to už jsou všechny vektory, které zůstanou ve svém obalu,
Ty na x-ové ose, které se natáhnout koeficientem 3,
a ty na zpětné úhlopříčce, které se natáhnou koeficientem 2.
Všechny ostatní vektory se během transformace někam pootočí,
a vypadnou ze svého obalu.
Jak byste si mohli tipnout,
tyhle zvláštní vektory se nazývají "vlastními vektory" dané transformace
a každému vlastnímu vektoru náleží jeho
"vlastní číslo",
to je ten skalár, kterým se během transformace daný vektor natáhne či smrskne.
Samozřejmě není třeba rozlišovat natahování a smrskávání,
ani se zaobírat jen kladnými vlastními čísly.
V jiném případě bychom mohli mít vlastní vektor s vlastním číslem -1/2,
to znamená, že se vektor překlopí a dvakrát smrskne.
Důležité je,

Arabic: 
لكن الجزء المهم هنا هو أنه يبقى على الخط الذي يمتد من دون أن يدور حوله.
وللمحافظة على السبب ، قد يكون هذا أمرًا مفيدًا للتفكير فيه ،
النظر في بعض دوران ثلاثي الأبعاد.
إذا كان بإمكانك العثور على مُخترِع لهذا التناوب ،
ناقل يمتد على المدى الخاص به ،
ما وجدته هو محور الدوران.
ومن الأسهل التفكير في الدوران ثلاثي الأبعاد من حيث بعض محور الدوران وزاوية الدوران ،
بدلاً من التفكير في المصفوفة الكاملة 3-بواسطة 3 المرتبطة بهذا التحول.
في هذه الحالة ، بالمناسبة ، يجب أن تكون قيمة eigenvalue المقابلة 1 ،
بما أن الدورات لا تمتد أو تسحق أي شيء ،
لذا فإن طول المتجه سيبقى كما هو.
يظهر هذا النمط كثيرًا في الجبر الخطي.
مع أي تحول خطي موصوف في المصفوفة ، يمكنك فهم ما تفعله
من خلال قراءة أعمدة هذه المصفوفة مثل بقع الهبوط للمتجهات الأساسية.

English: 
But the important part here is that it stays on the line that it spans out without getting rotated off of it.
For a glimpse of why this might be a useful thing to think about,
consider some three-dimensional rotation.
If you can find an eigenvector for that rotation,
a vector that remains on its own span,
what you have found is the axis of rotation.
And it's much easier to think about a 3-D rotation in terms of some axis of rotation and an angle by which is rotating,
rather than thinking about the full 3-by-3 matrix associated with that transformation.
In this case, by the way, the corresponding eigenvalue would have to be 1,
since rotations never stretch or squish anything,
so the length of the vector would remain the same.
This pattern shows up a lot in linear algebra.
With any linear transformation described by a matrix, you could understand what it's doing
by reading off the columns of this matrix as the landing spots for basis vectors.

Polish: 
Ważne jest jednak, że zostaje na swojej prostej.
Żeby zrozumieć, do czego to może się przydać,
rozważmy pewien trójwymiarowy obrót.
Jeżeli znajdziemy wektor własny tego obrotu,
czyli wektor, który zostaje na swojej prostej,
to znaleźliśmy oś obrotu.
A dużo łatwiej jest myśleć o obrocie w 3D w języku osi obrotu i kącie, o który się obraca
niż o pełnej macierzy 3x3 związanej z tym przekształceniem.
W tym przypadku, przy okazji, odpowiadającą wartością własną musi być 1,
skoro obroty nic nie rozciągają,
zatem długość wektora zostaje taka sama.
To postępowanie pojawia się wielokrotnie w algebrze liniowej.
Dla dowolnego przekształcenia liniowego opisanego macierzą, możemy zrozumieć co robi
patrząc na kolumny macierzy jako na wektory, na które przechodzą wektory z bazy.

Czech: 
že zůstane v přímce, kterou vytyčuje
a nestočí se z ní pryč.
Pro malý náznak, proč to může být užitečné,
si představte rotaci ve 3D.
Když najdeme vlastní vektor této rotace,
tedy vektor, který zůstane ve svém obalu,
tak vlastně najdeme osu této rotace.
A je mnohem jednodušší se 3D rotaci dívat
v pojmech jako je osa rotace
a úhel, o který se otočí,
než si představovat celou matici 3x3
odpovídající této rotaci.
V tomhle případě by mimochodem
odpovídající vlastní bylo číslo rovno 1,
protože rotace nikdy nic nenatáhne ani nesmrskne,
takže délka vektoru by zůstala stejná.
Tahle myšlenka se v lineární algebře vyskytuje hojně.
Když máte lineární transformaci popsanou maticí,
můžete si sice představit, co dělá, tím,
že si přečtete sloupce matice a
interpretujete je jako obrazy bázových vektorů,

Korean: 
벡터가 스팬하는 선 위에 머무르고
회전해서 벗어나는 일이 없다는 것입니다
왜 이것이 중요한지 생각해 보기 위해
삼차원에서의 회전을 생각해 봅시다
만약 당신이 이 회전에서의 고유벡터,
자신의 span에 남아있는 벡터를 찾을 수 있다면
그것이 바로 회전축입니다
그리고 3D회전을 생각할 때는
몇 개의 회전축과
회전하게 되는 각을 가지고 생각하는 것이 훨씬 편합니다
이 변환과 관련된 3x3 행렬 전체를
생각하는 것보단 말이죠
이 경우에는
회전이 그 무엇도 늘이거나 줄이지 않으니
고유값은 1이 될 것입니다
벡터의 길이가 변하지 않는다는 것이죠
이 유형은 행렬로 묘사된
선형변환에서 많이 등장합니다
이 행렬의 열을 기저 벡터의 위치로
읽어내릴 수 있다면
무엇이 일어나는지 알 수 있습니다

Portuguese: 
é que ele permanece na linha que ele mesmo gera,
sem ser rodado para fora dela.
Para um vislumbre de por que isso pode ser uma coisa útil sobre a qual se pensar,
Considere certa rotação tridimensional.
Se você puder encontrar um autovetor 
para essa rotação,
um vetor que permanece na sua própria reta,
o que você encontrou é o eixo de rotação
E é muito mais fácil pensar em uma rotação 3D
em termos de algum eixo de rotação
e um ângulo pelo qual ele está girando
ao invés de pensar sobre a matriz 3x3 integral
associada com essa transformação.
Neste caso, a propósito
O valor próprio correspondente teria de ser um
uma vez que rotações não esticam nem esmagam nada,
de modo que o comprimento do vetor permaneceria o mesmo.
Este padrão mostra-se muito em Álgebra Linear
Com qualquer transformação linear 
descrita por uma matriz
você poderia entender o que está fazendo
através da leitura das colunas desta matriz
como os pontos de pouso para vetores de base.

Spanish: 
es que se queda en la linea que genera
sin ser desplazado fuera de ella
Para que puedas ver por qué esto podría ser algo útil a tener en cuenta
Considera una rotación en tres dimensiones
Si tú puedes encontrar un vector propio para esa rotación
un vector que se mantiene en su sistema generador
lo que has encontrado es el eje de rotación
Y es mucho más facil pensar en una rotación 3D
desde el punto de vista de un eje de rotación
y un ángulo bajo el cuál está rotando
que tener que pensar en la matriz 3x3 entera
asociada a esa aplicación lineal
En este caso, por cierto
El valor propio correspondiente tendría que ser 1
ya que las rotaciones nunca alargan ni encogen nada
de manera que la longitud del vector siempre permanecería igual
Este patrón aparece con mucha frecuencia en álgebra lineal
Con cualquier aplicación lineal descrita por una matriz
tú podrías entender lo que está haciendo
leyendo las columnas de esa matriz
como los sitios en los que los vectores de la base aterrizan

Chinese: 
但是重点在于，它停留在它张成的直线上，并未发生旋转
若想知道为什么它有用途并且值得细究
那就考虑一个三维空间中的旋转
如果你能找到这个旋转的特征向量
也就是留在它张成的空间里的向量
那么你找到的就是旋转轴
而且把一个三维旋转看成绕某个轴旋转一定角度，要比考虑相应的3×3矩阵直观得多
顺便一提，在这种情况下，相应的特征值必须为1
因为旋转并不缩放任何一个向量
所以向量的长度保持不变
这种规律在线性代数中经常出现
对于任一矩阵描述的线性变换
你可以通过将矩阵的列看作变换后的基向量来理解它

Modern Greek (1453-): 
Αλλά το σημαντικό είναι ότι παραμένει στο span του χωρίς να απομακρυνθεί από αυτό.
Μια ματιά για το λόγο που αυτό μπορεί να είναι ένα χρήσιμο να σκεφτούμε,
σκεφτείτε κάποια τρισδιάστατη περιστροφή.
Εάν μπορείτε να βρείτε ένα ιδιοδιάνυσμα για αυτή την περιστροφή,
ένα διάνυσμα που παραμένει στο δικό του span,
αυτό που βρήκατε, είναι ο άξονας περιστροφής.
Και είναι πολύ πιο εύκολο να σκεφτούμε μια τρισδιάστατη περιστροφή όσον αφορά κάποιον άξονα περιστροφής και τη γωνία από την οποία περιστρέφεται,
παρά να σκεφτούμε τον πλήρη 3x3 πίνακα που σχετίζεται με αυτόν τον μετασχηματισμό.
Σε αυτή την περίπτωση, παρεμπιπτόντως, η αντίστοιχη ιδιοτιμή θα πρέπει να είναι 1,
δεδομένου ότι οι περιστροφές ποτέ δεν τεντώνουν ή συμπιέζουν κάτι,
άρα το μήκος του διανύσματος θα παραμείνει το ίδιο.
Αυτό το μοτίβο εμφανίζεται συχνά στην γραμμική άλγεβρα.
Με κάθε γραμμικό μετασχηματισμό που περιγράφεται από ένα πίνακα, θα μπορούσατε να καταλάβετε τι κάνει
με την ανάγνωση των στηλών αυτού του πίνακα ως τα ακραία σημεία των διανυσμάτων βάσης.

German: 
Hauptsache er bleibt auf der Geraden, die er aufspannt, ohne weggedreht zu werden.
Um einen Einblick zu bekommen, warum es sinnvoll wäre darüber nachzudenken,
sollte man sich eine dreidimensionale Rotation vorstellen.
Findet man einen Eigenvektor dieser Rotation,
einen Vektor der auf seinem Spann bleibt,
hat man die Rotationsachse gefunden.
Und es ist viel einfacher sich eine 3D- Drehbewegung als Rotationsachse und -winkel vorzustellen,
als als volle 3x3-Matrix, die diese Transformation beschreibt.
In diesem Fall müsste der entsprechende Eigenwert 1 betragen,
nachdem Rotationen nichts strecken oder stauchen
und so die Länge des Vektors dieselbe bleibt.
Dieses Muster taucht oft in linearer Algebra auf.
Man kann verstehen was jede lineare Transformation, die durch eine Matrix beschrieben wird, tut,
wenn man die Spalten jener Matrix als Landepunkte für die Eigenvektoren liest.

Czech: 
ale často je k pochopení,
co tato transformace doopravdy dělá,
lepší zvolit cestu méně závislou
na konkrétním souřadnicovém systému,
najít vlastní vektory a vlastní čísla.
Nepokryji tu všechny podrobnosti metod
výpočtu vlastních vektorů a vlastních čísel,
ale pokusím se poskytnout přehled myšlenek výpočtu,
které jsou nejdůležitější pro celkové pochopení.
Symbolicky vypadá představa vlastního vektoru takto.
'A' je matice reprezentující jistou transformaci,
'v' je její vlastní vektor a λ (lambda) je příslušné vlastní číslo.
Tahle rovnice říká, že
součin matice a vektoru Av
vyjde stejně jako jenom vyškálování vlastního vektoru 'v' nějakým skalárem λ.
Takže hledání vlastních čísel a vlastních vektorů matice A
přejde na hledání hodnot 'v' a λ,

Arabic: 
لكن في الغالب طريقة أفضل للحصول على قلب ما يحدثه التحول الخطي ،
أقل اعتمادا على نظام الإحداثيات الخاص بك ،
هو ايجاد eigenvectors و eigenvalues.
لن أغطي التفاصيل الكاملة حول طرق حساب eigenvectors وقيم eigenvalues ​​هنا ،
ولكن سأحاول تقديم نظرة عامة على الأفكار الحسابية
التي هي الأهم لفهم مفاهيمي.
رمزيا ، وهنا ما تبدو فكرة eigenvector.
A هي المصفوفة التي تمثل بعض التحول ،
مع v كالمخترع ،
و λ هو رقم ، أي القيمة الذاتية المقابلة.
ما يقوله هذا التعبير هو أن المنتج المتجه المصفوفة - A مرة v
يعطي نفس النتيجة بمجرد تحجيم eigenvector v ببعض القيمة λ.
حتى إيجاد eigenvectors وقيمها الذاتية من مصفوفة A

Korean: 
하지만 선형변환 중 일어나는 일에 대해
확실하게 느낌을 받으려면
특정 좌표계에 덜 관계있는
"고유벡터(eigenvectors)"와 "고유값(eigenvalues)"를 찾아야 합니다
고유벡터와 고유값을 계산하는 방법에 대해
자세히 설명하지는 않을  것이지만
개념의 이해에 중요한 부분만
훑어 보려고 합니다
상징적으로, "고유벡터"의 개념은 이렇게 생겼습니다
A는 임의의 변환을 나타내는 행렬이며
v는 고유벡터, λ는 고유값인 상수입니다
이 표현이 나타내는 것은
행렬-벡터 곱셈인 Av가
고유벡터 v를 임의의 상수 λ로 스케일링 한 결과와 같다는 것입니다
따라서 행렬 A의 고유벡터와 고유값을 찾는 것은
이 표현을 참으로 만드는

Polish: 
Jednak często lepszym sposobem na zrozumienie, co naprawdę robi przekształcenie,
mniej zależnym od danego układu współrzędnych,
jest znalezienie wektorów własnych i ich wartości.
Nie opiszę w pełnej dokładności metod znajdowana wektorów własnych i ich wartości własnych,
ale spróbuję opisać "pomysły" obliczeniowe
które są najważniejsze, żeby zrozumieć cały koncept.
Symbolicznie, tak wygląda moja reprezentacja wektora własnego.
A to macierz pewnego przekształcenia,
z v jako wektorem własnym,
a λ to liczba, dokładniej - odpowiadająca wartość własna.
To wyrażenie mówi, że iloczyn wektora i macierzy A razy v
daje ten sam wynik co przeskalowanie wektora v przez pewną liczbę λ.
Więc znalezienie wektorów własnych i ich wartości dla macierzy A

Spanish: 
Pero a menudo, una mejor manera de llegar al corazón
de lo que las aplicaciones lineales de verdad hacen
—sin tener que depender de tus sistema de coordenadas en particular—
es encontrar los vectores propios y los valores propios.
No cubriré en lujo de detalles los métodos
para calcular vectores propios y valores propios en este video
Pero intentaré dar un resumen de las ideas referidas a su cálculo
que son más importantes para un entendimiento conceptual
Simbólicamente hablando, así es como se ve la idea de un vector propio
A es la matriz que representa una aplicación lineal
con v como el vector propio y , λ, es un número, conocido como el valor propio asociado a este vector propio
Lo que está diciendo esta expresión
es que el producto entre la matriz y el vector, Av
da el mismo resultado que simplemente escalando el vector propio v por algún valor λ
Así que encontrar los vectores propios y sus respectivos valores propios de la matriz A
se reduce a encontrar los valores de v y λ

English: 
But often a better way to get at the heart of what the linear transformation actually does,
less dependent on your particular coordinate system,
is to find the eigenvectors and eigenvalues.
I won't cover the full details on methods for computing eigenvectors and eigenvalues here,
but I'll try to give an overview of the computational ideas
that are most important for a conceptual understanding.
Symbolically, here's what the idea of an eigenvector looks like.
A is the matrix representing some transformation,
with v as the eigenvector,
and λ is a number, namely the corresponding eigenvalue.
What this expression is saying is that the matrix-vector product - A times v
gives the same result as just scaling the eigenvector v by some value λ.
So finding the eigenvectors and their eigenvalues of a matrix A

Chinese: 
但是，理解线性变换作用的关键往往较少依赖于你的特定坐标系
更好的方法是求出它的特征向量和特征值
我并不会涉及计算特征向量和特征值的具体细节
但是我会尽量概述一下计算思想
这对概念上的理解至关重要
用符号表示的话，以下就是特征向量的概念
A是代表某个变换的矩阵
v是特征向量
λ是一个数，也就是对应的特征值
这个等式是说，矩阵向量乘积，也就是A乘以v
等于特征向量v乘以某个数λ
因此求解矩阵A的特征向量和特征值

German: 
Aber um zu verstehen, was eine lineare Transformation macht,
unabhängiger vom eigenen Koordinatensystem,
ist es oft besser, die Eigenvektoren und Eigenwerte zu finden.
I werde hier nicht alle Details zur Berechnung von Eigenvektoren und Eigenwerten abdecken,
aber ich werde versuchen einen Überblick über die rechnerischen Grundideen zu bieten,
die am wichtigsten für das Konzeptverständnis sind.
Symbolisch, hier ist, wie die Idee eines Eigenvektors aussieht.
A sei eine Matrix, die eine gewisse Transformation darstellt,
mit v als Eigenvektor,
und Lambda als Entsprechenden Eigenwert.
Was dieser Ausdruck besagt ist, dass das Matrix-Vektor-Produkt A ⋅ v
das gleiche Ergebnis liefert, wie wenn man den Eigenvektor v um einen Wert Lambda skaliert.
Also findet man im Endeffekt die Eigenvektoren und Eigenwerte der Matrix A,

Portuguese: 
Mas muitas vezes a melhor maneira de chegar ao coração
do que a transformação linear realmente faz
menos dependente do seu sistema de 
coordenadas particular,
é encontrar os autovetores e autovalores.
Eu não cobrirá os detalhes completos sobre os métodos
para computar autovetores e autovalores aqui,
mas vou tentar dar uma visão geral das idéias computacionais
que são mais importantes para uma compreensão conceitual.
Simbolicamente, aqui está o que a ideia de um autovetor se parece.
A é a matriz que representa certa transformação
com 'v' como o autovetor e λ é um número, ou seja, o autovalor correspondente.
O que esta expressão está dizendo
é que o produto matriz-vector, 'Av'
dá o mesmo resultado que apenas escalar o autovetor 'v' por algum valor λ.
Assim, encontrar os autovetores e seus autovalores da matriz A
se resume a encontrar os valores de v e λ

Modern Greek (1453-): 
Αλλά συχνά ένας καλύτερος τρόπος να βρεθείτε στο επίκεντρο αυτού που πραγματικά κάνει ο γραμμικός μετασχηματισμός,
λιγότερο εξαρτημένο από το συγκεκριμένο σύστημα συντεταγμένων σας,
είναι να βρείτε τα ιδιοδιανύσματα και τις ιδιοτιμές.
Δεν θα καλύψω όλες τις λεπτομέρειες για τις μεθόδους υπολογισμού ιδιοδιανυσμάτων και ιδιοτιμών εδώ,
αλλά θα προσπαθήσω να δώσω μια γενική εικόνα των υπολογιστικών ιδεών
που είναι πιο σημαντικές για μια εννοιολογική κατανόηση.
Συμβολικά, να πως μοιάζει η ιδέα ενός ιδιοδιανύσματος.
Α είναι ο πίνακας που αντιπροσωπεύει κάποιο μετασχηματισμό,
με το v ως το ιδιοδιάνυσμα,
και το λ είναι ένας αριθμός, η αντίστοιχη ιδιοτιμή.
Αυτό που λέει αυτή η έκφραση είναι ότι το γινόμενο πίνακας x διάνυσμα - A επί v
δίνει το ίδιο αποτέλεσμα με το απλό βαθμωτό γινόμενο του ιδιοδιανύσματος v με κάποια τιμή λ.
Επομένως, βρίσκοντας τα ιδιοδιανύσματα και τις ιδιοτιμές τους, ενός πίνακα Α

Polish: 
sprowadza się do znajdowania v oraz λ takich, że to wyrażenie jest prawdziwe.
Może wydawać się, że to niewiele daje,
bo po lewej mamy macierz razy wektor,
a po prawej skalar razy wektor.
Zacznijmy więc od przepisania prawej strony jako iloczyn wektora i pewnej macierzy
tak, żeby było to to samo co skalowanie v przez λ.
Kolumny takiej macierzy będą mówić, co dzieje się z danym wektorem bazowym
a skoro każdy bazowy wektor ma być rozciągnięty o λ,
to macierz będzie miała po prostu λ na przekątnej i 0 wszędzie indziej.
Zwykle zapisuje się to, rozbijając λ na λ razy I,
gdzie I to macierz identyczności, czyli z jedynkami na przekątnej.
Z oboma stronami jako mnożeniem wektora i macierzy,
możemy odjąć od lewej strony i wyłączyć v przed nawias.
Mamy teraz nową macierz - A minus λ razy identyczność,

English: 
comes down to finding the values of v and λ that make this expression true.
It's a little awkward to work with at first,
because that left hand side represents matrix-vector multiplication,
but the right hand side here is scalar-vector multiplication.
So let's start by rewriting that right hand side as some kind of matrix-vector multiplication,
using a matrix, which has the effect of scaling any vector by a factor of λ.
The columns of such a matrix will represent what happens to each basis vector,
and each basis vector is simply times λ,
so this matrix will have the number λ down the diagonal with 0's everywhere else.
The common way to write this guy is to factor that λ out and write it as λ times I,
where I is the identity matrix with 1's down the diagonal.
With both sides looking like matrix-vector multiplication,
we can subtract off that right hand side and factor out the v.
So what we now have is a new matrix - A minus λ times the identity,

Korean: 
v와 λ의 값을 찾는 것이 됩니다
왼쪽이 행렬-벡터 곱셈인 반면에
오른쪽은 스칼라-벡터 곱셈이여서
계산하기가 이상할 것입니다
그러니까 오른쪽을
임의의 벡터를 λ배로 스케일링 하는
행렬-벡터 곱으로 다시 쓰는 것부터 시작합시다
이러한 행렬의 열은
각 기저 벡터에 일어나는 변화를 나타내는데
여기선 단순히 λ배를 하므로
이 행렬은 대각선 아래로 상수 λ를 가지고
다른 곳은 전부 0이 들어갑니다
좀 더 보편적인 방법은
λ를 묶어내서 λI로 쓰는 것입니다
I는 대각선에 1이 있는 항등 행렬입니다
이제 양변이 모두 행렬-벡터 곱으로 나타내졌으니
양변을 빼서 v라는 인수로 묶어낼 수 있습니다
이제 새로운 행렬인 A-λI을 얻었으니

German: 
wenn man die Werte für v und Lambda findet, die diesen Ausdruck wahr machen.
Es ist erstmals etwas unangenehm damit zu arbeiten,
weil die linke Seite eine Matrix-Vektor-Multiplikation,
aber die rechte Seine ein Skalarprodukt beinhaltet.
Also beginnen wir damit, dass wir die Rechte Seite als eine Art Matrix-Vektor-Multiplikation scheiben,
indem wir eine Matrix verwenden, die den Effekt einer Skalierung um den Faktor Lambda hat.
Die Spalten dieser Matrix repräsentieren, was mit den jeweiligen Basisvektoren passiert,
und da jeder Basisvektor einfach mit Lambda multipliziert wird,
hat diese Matrix in der Diagonalen der Wert Lambda und 0 überall sonst.
Üblicherweise wird das Lambda herausgehoben und es wird als Lambda mal I geschrieben,
mit I als Einheitsmatrix mit Einsern hinunter in der Diagonalen.
Wenn beide Seiten, wie eine Vektor-Matrix-Multiplikation aussehen,
kann man die rechte Seite subtrahieren und v ausklammern.
Jetzt haben wir eine neue Matrix A minus Lambda mal der Einheitsmatrix,

Chinese: 
实际上就是求解使得这个等式成立的向量v和数λ
乍一看，求解这个等式有些棘手
因为等号左侧代表的是矩阵向量乘积
但是等号右侧代表的是向量数乘
所以我们首先将等号右侧重写为某个矩阵向量乘积
其中，矩阵的作用效果是将任一向量乘以λ
这个矩阵的列代表着变换后的基向量
而每个基向量仅仅与λ相乘
所以这个矩阵的对角元均为λ，其余位置都是0
通常的书写方法是提出因子λ，写作λ乘以 I
这里的 I 就是单位矩阵，对角元均为1
现在两侧都是矩阵向量乘积的形式
我们就能将等号右侧的东西移到左侧，然后提出因子v
现在我们得到的是一个新的矩阵 - A减去λ乘以单位阵

Modern Greek (1453-): 
καταλήγετε να βρείτε τις τιμές των v και λ που κάνουν αυτή την έκφραση αληθή.
Είναι λίγο παράξενο να εργαστεί κανείς με αυτό αρχικά,
επειδή αυτό το αριστερό μέλος αντιπροσωπεύει πολλαπλασιασμό πίνακα με διάνυσμα,
αλλά το δεξί μέλος εδώ είναι βαθμωτός πολλαπλασιασμός διανύσματος.
Ας αρχίσουμε λοιπόν με το να ξαναγράψουμε αυτό το δεξί μέλος ως ένα είδος πολλαπλασιασμού 
πίνακα επί διάνυσμα,
χρησιμοποιώντας ένα πίνακα, ο οποίος έχει ως αποτέλεσμα τo βαθμωτό γινόμενο οποιουδήποτε διανύσματος με έναν συντελεστή λ.
Οι στήλες ενός τέτοιου πίνακα θα αντιπροσωπεύουν αυτό που συμβαίνει σε κάθε διάνυσμα βάσης,
και κάθε διάνυσμα βάσης είναι απλά πολλαπλασιασμός με λ,
οπότε αυτός ο πίνακας θα έχει τον αριθμό λ στη διαγώνιο και 0 οπουδήποτε αλλού.
Ο συνηθισμένος τρόπος για να γράψετε αυτό το πράγμα είναι να βγάλετε τον κοινό παράγωντα λ έξω, και να το γράψετε ως λ επί I,
όπου I είναι ο ταυτοτικός πίνακας με 1 στη διαγώνιο.
Με τις δύο πλευρές να μοιάζουν με πολλαπλασιασμό πίνακα με διάνυσμα,
μπορούμε να αφαιρέσουμε το δεξί μέλος και να βγάλουμε κοινό παράγωντα το v.
Άρα αυτό που έχουμε τώρα είναι ένας νέος πίνακας,
 Α μείον λ επί τον ταυτοτικό:  (A - λI) ,

Spanish: 
que hacen esta expresión verdadera.
Es un poco incómodo trabajar con esto al principio
porque el término de la izquierda representa un producto entre una matriz y un vector
mientras que en el lado derecho aparece el producto de un escalar por un vector
Así que vamos a comenzar reescribiendo el lado derecho
como si se tratara de un producto entre una matriz y un vector
usando una matriz que tiene el efecto de escalar cualquier vector por un factor λ
Las columnas de dicha matriz
representarán lo que le ocurre a cada vector de la base
y cada vector de la base es simplemente multiplicado por λ
así que esta matriz tendrá el numero λ
en su diagonal, con 0s en el resto de posiciones
La manera común de escribir esto
es sacando factor común esa λ y escribirlo como λI
donde I es la matriz identidad con 1s en la diagonal
Ahora que ambos lados representan el producto de una matriz por un vector
podemos restar el término de la derecha en ambos lados y factorizar la v
Y los que nos queda ahora es la nueva matriz A-λI

Czech: 
aby byla splněna tato rovnice.
Ze začátku není jasné, co s tím,
protože na levé straně násobíme vektor maticí,
zatímco na pravé násobíme vektor skalárem.
Takže napřed přepíšeme pravou stranu,
taky na nějaké násobení s maticí.
Použijeme matici, která každý vektor vyškáluje skalárem λ,
Sloupečky takové matice
tvoří transformované bázové vektory,
tedy bázové vektory vynásobené λ.
Matice tak bude mít čísla λ
na úhlopříčce a všude jinde nuly.
Je běžné ji zapsat tak,
že λ vytkneme, a píšeme λI,
kde I je jednotková matice s jedničkami na úhlopříčce.
Když teď na obou stranách rovnice násobíme vektor s maticí,
můžeme od sebe strany rovnice odečíst a vytknout 'v'.
Takže vznikne nová matice A-λI

Arabic: 
ينزل لإيجاد قيم v و λ التي تجعل هذا التعبير صحيحًا.
من الصعب أن تعمل معه في البداية ،
لأن هذا الجانب الأيسر يمثل مضاعفة متجه المصفوفة ،
لكن الجانب الأيمن هنا هو مضاعفة العددية.
لذلك دعونا نبدأ بإعادة كتابة ذلك الجانب الأيمن كنوع من مضاعفة متجهات المصفوفة ،
باستخدام مصفوفة ، والتي لها تأثير تحجيم أي ناقل بواسطة عامل λ.
سوف تمثل أعمدة مثل هذه المصفوفة ما يحدث لكل ناقل أساس ،
وكل ناقل أساس هو ببساطة λ ،
لذا فإن هذا المصفوفة سيكون لها الرقم λ أسفل القطر مع الصفر في كل مكان آخر.
الطريقة الشائعة لكتابة هذا الشخص هي أن تدرج ذلك وتكتبه كـ λ الأوقات I ،
أين أنا مصفوفة الهوية مع 1 أسفل القطري.
مع النظر إلى كلا الجانبين مثل مضاعفة متجهات المصفوفة ،
يمكننا طرح هذا الجانب الأيمن وعامل v.
إذاً ، ما لدينا الآن هو مصفوفة جديدة - A ناقص the أضعاف الهوية ،

Portuguese: 
que fazem esta expressão verdadeira.
É um pouco estranho para trabalhar com isto de início,
pois o lado esquerdo representa 
multiplicação matriz-vetor,
mas o lado direito aqui é multiplicação escalar-vetor.
Então, vamos começar por reescrever o membro direito
como algum tipo de multiplicação matriz-vetor
usando uma matriz que tem o efeito de escalonar qualquer vetor por um factor de λ.
As colunas de uma tal matriz
irão representar o que acontece com cada vetor de base
e cada vetor de base é simplesmente multiplicado por λ,
logo, esta matriz terá o número λ
ao longo da diagonal, com zeros em 
qualquer outro lugar.
A maneira comum de escrever esse cara
é fatorar fora aquele λ e escrevê-lo como λI,
onde I é a matriz identidade com 1's 
ao longo da diagonal.
Com ambos os lados parecendo multiplicação matriz-vector
podemos subtrair fora esse lado direito e fatorar o 'v'.
Então, o que temos agora é uma nova matriz, A-λI

Modern Greek (1453-): 
και ψάχνουμε για ένα διάνυσμα v, τέτοιο ώστε αυτός ο νέος πίνακας επί το v να δίνει το μηδενικό διάνυσμα.
Τώρα, αυτό πάντα θα βγαίνει αληθές εάν το ίδιο το v είναι το μηδενικό διάνυσμα,
αλλά, αυτό δεν έχει ενδιαφέρον.
Αυτό που θέλουμε είναι ένα μη-μηδενικό ιδιοδιάνυσμα.
Και αν παρακολουθήσατε τα Κεφάλαια 5 και 6,
θα γνωρίζετε ότι ο μόνος τρόπος το γινόμενο ενός πίνακα με ένα μη-μηδενικό διάνυσμα να δώσει μηδέν
είναι αν ο μετασχηματισμός που σχετίζεται με αυτό τον πίνακα, 'συμπιέζει' το χώρο σε μια μικρότερη διάσταση.
Και αυτή η 'συμπίεση' οφείλεται στη μηδενική ορίζουσα του πίνακα.
Για να είμαστε συγκεκριμένοι, ας πούμε ότι ο πίνακάς σας Α έχει στήλες (2, 1) και (2, 3),
και σκεφτείτε να αφαιρείτε μια μεταβλητή ποσότητα λ από κάθε διαγώνια θέση.
Τώρα φανταστείτε το μεταβαλλόμενο λ, πατώντας ένα κουμπί να αλλάζετε την αξία του.
Καθώς αυτή η τιμή του λ αλλάζει,
ο ίδιος ο πίνακας αλλάζει, και άρα και η ορίζουσα του πίνακα αλλάζει.

Polish: 
i szukamy wektora v takiego, że nowa macierz razy v daje wektor zerowy.
To oczywiście będzie prawda, jeżeli v jest samo wektorem zerowym,
ale to nuda.
Chcemy niezerowych wektorów własnych.
Jeżeli oglądaliście rozdziały 5 i 6,
będziecie wiedzieć, że niezerowy wektor pomnożony przez macierz może być zero
tylko wtedy, gdy ta macierz "ściska" przestrzeń w mniejszą liczbę wymiarów.
A to ściskanie odpowiada zerowemu wyznacznikowi macierzy.
Dla przykładu, powiedzmy, że macierz ma kolumny (2, 1) i (2, 3),
i pomyślmy o odjęciu zmiennej λ od przekątnej.
Teraz wyobraźmy sobie, że lekko zmieniamy λ, używając jakiegoś pokrętła.
W miarę jak λ się zmienia,
Sama macierz też, zatem jej wyznacznik również.

Portuguese: 
E nós estamos à procura de um vetor 'v'
de tal forma que esta nova matriz 
vezes 'v' dá o vetor nulo.
Agora, isto será sempre verdade
se o próprio 'v' é o vetor nulo, mas isso é chato.
O que nós queremos é um autovetor não-nulo.
E se você assistiu os capítulos 5 e 6
você vai saber que a única maneira é possível para o produto de uma matriz
com um vetor diferente de zero para se tornar 0,
é se a transformação associada com a matriz esmagar o espaço para uma dimensão inferior.
E que esse esmagamento corresponde a um determinante nulo para a matriz.
Para ser concreto, digamos que a sua matriz A
tenha colunas [2, 1] e [2, 3],
e pense sobre subtrair uma quantidade variável λ,
a partir de cada entrada diagonal.
Agora imagine ajustar λ,
rodando um botão para mudar o seu valor
à medida que o valor de λ muda, a própria matriz muda
e também muda o determinante da matriz.

Spanish: 
Y estamos buscando un vector v
tal que esta nueva matriz multiplicada por v nos dé el vector 0
Ahora bien, esto siempre sera cierto
si el vector v  en sí es el vector 0. Pero eso es aburrido
Lo que queremos es un vector propio que no sea el 0
Y si miraste los capítulos 5 y 6
sabrás que la única forma de que el producto de una matriz
por un vector dé 0
es si la aplicación asociada con esa matriz encoge el espacio a una dimensión menor
y ese encogimiento se corresponde con un determinante que dé 0 para esa matriz
Para poner un ejemplo, digamos que tu matriz A
tiene las columnas [2, 1] y [2, 3]
y  piensa en restarle una cantidad λ variable
a cada elemento de la diagonal
Ahora imagina que modificamos λ
girando de una rueda para cambiar su valor
a medida que el valor de λ cambia, la matriz también lo hace
y por tanto el determinante de la matriz cambia

English: 
and we're looking for a vector v, such that this new matrix times v gives the zero vector.
Now this will always be true if v itself is the zero vector,
but that's boring.
What we want is a non-zero eigenvector.
And if you watched Chapters 5 and 6,
you'll know that the only way it's possible for the product of a matrix with a non-zero vector to become zero
is if the transformation associated with that matrix squishes space into a lower dimension.
And that squishification corresponds to a zero determinant for the matrix.
To be concrete, let's say your matrix a has columns (2, 1) and (2, 3),
and think about subtracting off a variable amount λ from each diagonal entry.
Now imagine tweaking λ, turning a knob to change its value.
As that value of λ changes,
the matrix itself changes, and so the determinant of the matrix changes.

Chinese: 
我们就寻找一个向量v，使得这个新矩阵与v相乘结果为零向量
如果v本身就是零向量的话，这个等式恒成立
但是这没什么意思
我们想要的是一个非零特征向量
如果你看过第五章和第六章视频的话
你就知道，当且仅当矩阵代表的变换将空间压缩到更低的维度时
才会存在一个非零向量，使得矩阵和它的乘积为零向量
而空间压缩对应的就是矩阵的行列式为零
举个具体的例子，假设你有一个矩阵，列为(2, 1)和(2, 3)
考虑每个对角元都减去某个变量λ
现在想象一下，逐渐调整λ的值
当λ的值改变时
矩阵本身发生改变，因此行列式也在改变

Korean: 
이 행렬과 곱해서
영벡터를 만드는 벡터 v를 찾아야 합니다
물론 v가 영벡터가 된다면
이 식은 항상 성립하겠지만, 재미가 없습니다
영이 아닌 고유벡터를 얻고 싶으니까요
만약 챕터 5와 6을 보셨다면
영벡터가 아닌 벡터와 행렬을 곱해서
0이 되게 만드는 방법은
행렬에 일어나는 변환이 낮은 차원으로 내리는 것이면 됩니다
이 축소는 행렬이 영 행렬식(zero determinant)이 되게 합니다
정확히 하기 위해,  어떤 행렬 A가
[2, 1]과 [2, 3]이라는 열을 가지고
변수 λ를 각 대각선의 값에서 빼는 경우를
생각해 봅시다
이제 λ의 값이
이리저리 바뀐다고 생각해 봅시다
λ의 값이 바뀌면, 행렬이 바뀌고
행렬식도 바뀌게 됩니다

Czech: 
a hledáme vektor 'v',
aby když jej vynásobíme s touto maticí, vyšla nula.
To bude určitě platit,
když bude nulový sám 'v', ale to je nuda.
Chtěli bychom nenulový vlastní vektor.
Jestli jste viděli kapitoly 5 a 6,
tak víte, že aby součin matice a nenulového vektoru
mohl vyjít jako nula,
musí transformace odpovídající této matici splácnout prostor do nižší dimenze.
Tohle splácnutí odpovídá nulovému determinantu matice.
Abychom byli konkrétní, dejme tomu,
že A má sloupečky (2, 1) a (2, 3),
a podle vzorečku odečteme proměnnou λ
z každé položky na úhlopříčce.
Teď si pošolícháme λ,
jako bychom točili kolečkem měnícím jeho hodnotu.
Jak se λ mění, mění se samotná matice
a s ní i její determinant.

German: 
und jetzt suchen wir einen Vektor v, sodass die neue Matrix mal v den Nullvektor ergibt.
Jetzt wird das auch immer wahr sein, wenn  v der Nullvektor ist,
aber das ist uninteressant.
Was wir wollen ist ein Eigenvektor v ≠ 0.
Wenn Du Kapitel 5 und 6 gesehen hat,
wirst du wissen, dass die einzige Möglichkeit, wie das Produkt einer Matrix mit einem Vektor v ≠ 0, null ergeben kann,
ist, wenn die mit der Matrix assoziierte Transformation den Raum in eine niedrigere Dimension quetscht.
Und diese Quetschung entspricht einer Null-Determinante für die Matrix.
Konkret sei A eine Matrix mit den Spalten (2 | 1) und (2 | 3),
und Lambda ein variabler Wert, der von jedem diagonalen Eintrag subtrahiert wird.
Man stelle sich vor, dass man Lambda wie 
mit einem Drehregler verändert.
Und wenn sich der Wert von Lambda ändert,
verändert sich die Matrix selbst, und somit ihre Determinante.

Arabic: 
ونحن نبحث عن v المتجه ، بحيث تعطي هذه المصفوفة الجديدة v المتجه صفر.
الآن سيظل هذا صحيحًا دائمًا إذا كانت v هي المتجه صفر ،
لكن هذا ممل.
ما نريده هو aigenvector غير الصفر.
وإذا كنت تشاهد الفصلين الخامس والسادس ،
ستعرف أن الطريقة الوحيدة الممكنة لمنتج مصفوفة ذات ناقل غير صفري لتصبح صفرًا
إذا كان التحويل المرتبط بهذه المصفوفة يسحق الفضاء في بُعد أقل.
وهذا الاستنزال يقابله محدد صفري للمصفوفة.
لكي تكون ملموسًا ، لنفترض أن المصفوفة تحتوي على أعمدة (2 ، 1) و (2 ، 3) ،
والتفكير في طرح كمية متغيرة λ من كل إدخال قطري.
الآن تخيل التغيير والتبديل ، وتحويل مقبض لتغيير قيمته.
حيث أن قيمة التغييرات،
المصفوفة نفسها تتغير ، وبالتالي فإن محدد المصفوفة يتغير.

Korean: 
이 행렬식을 0으로 만드는
λ값을 찾는 것은
이 공간의 차원을 낮추는
변환을 찾는 것입니다
이 경우에는 λ=1이 됩니다
당연히 다른 행렬이였다면
고유값이 1이 될 필요는 없습니다
아마 λ는 다른 값을 가졌을 겁니다
약간 로또같긴 하지만
이것이 갖는 의미를 해석해 봅시다
λ=1일 때,
행렬 A-λI는 선이 됩니다
(A-λI)을 영벡터로 만드는
영벡터가 아닌 v벡터가 있다는 겁니다
지금 우리가 이걸 하고 있는 것은
Av=λv로 만드는 v 벡터가
변환 A에서 span이 변하지 않는
고유벡터 v이기 때문에
찾고 있다는 것을 기억해 두십시요

Chinese: 
目标在于找到一个λ使得这个行列式为零
也就是说调整后的变换将空间压缩到一个更低的维度上
在这个例子中，λ等于1时恰到好处
当然，如果我选择其他的矩阵
特征值不一定是1，λ取其他值时才能使行列式为零
这看起来有点复杂，不过我们来解释这个过程的意思
当λ等于1时，A减去λ乘以单位阵将空间压缩到一条直线上
这意味着存在一个非零向量v
使得A减去λ乘以单位阵的结果乘以v等于零向量
记住一点，我们关注它，是因为它意味着A乘以v等于λ乘以v
也就是说向量v是A的一个特征向量
在变换中停留在它张成的空间里

German: 
Das Ziel hier ist es einen Wert für Lambda zu finden, bei dem die Determinante der Matrix 0 ist,
was bedeutet, dass die angepasste Transformation den Raum in eine niedrigere Dimension quetscht.
In diesem Fall, dieser Sweetspot wird erreicht, wenn Lambda 1 ist.
Wenn wir eine andere Matrix gewählt hätten,
müsste der Eigenwert natürlich nicht unbedingt 1 entsprechen, der Sweetspot könnte durch einen anderen Wert von Lambda erreicht werden.
Das ist irgendwie viel, aber lasst uns den Sinn davon entwirren.
Wenn Lambda 1 entspricht, quetscht die Matrix A - I ⋅ λ den Raum in eine Gerade.
Das bedeutet, es gibt einen Vektor v ≠ 0,
sodass A minus Lambda mal der Einheitsmatrix mal v dem Nullvektor entspricht.
Zur Erinnerung, der Grund dafür, dass uns das interessiert, ist, dass es bedeutet, dass A ⋅ v = λ ⋅ v,
was heißt, dass v ein Eigenvektor von A ist,
und während der Transformation auf seinem Spann bleibt.

Polish: 
Celem jest znalezienie λ takiego, że macierz ma zerowy wyznacznik,
znaczy że to przekształcenie ściska przestrzeń w mniejszy wymiar.
w tym przypadku, jest tak gdy λ równa się 1.
Oczywiście, jeżeli wybralibyśmy inną macierz,
wartość własna niekoniecznie byłaby 1, ten punkt mógłby być osiągany dla jakiejś innej wartości λ.
Wiem, że właśnie powiedzieliśmy dużo rzeczy, ale popatrzmy powoli:
Kiedy λ równa się 1, macierz A minus λ razy identyczność ściska przestrzeń w prostą.
To znaczy że istnieje niezerowy wektor v,
taki że A minus λ razy identyczność, przemnożone przez wektor v, daje wektor zerowy.
A pamiętajmy, że obchodzi to nas, bo znaczy to, że A razy v to to samo co λ razy v,
co można odczytać jako fakt, że v jest wektorem własnym A,
zostającym na własnej prostej podczas przekształcenia A.

Arabic: 
الهدف هنا هو إيجاد قيمة λ التي ستجعل هذا العزم صفر ،
مما يعني أن التحويل المعدّل يسحق الفضاء في بُعد أقل.
في هذه الحالة ، تأتي النقطة الحلوة عندما يساوي λ 1.
بالطبع ، إذا اخترنا بعض المصفوفات الأخرى ،
قد لا تكون قيمة eigenvalue بالضرورة 1 ، فقد يتم ضرب البقعة الحلوة بعض القيمة الأخرى لـ λ.
إذن هذا نوع كثير ، لكن دعنا نفكك ما يقوله هذا.
عندما تساوي λ 1 ، فإن المصفوفة A ناقص the تضغط الهوية على الفضاء على خط.
هذا يعني أن هناك متجه غير صفري v ،
بحيث يكون ناقص the أضعاف مرات الهوية v مساوية للناقل صفر.
وتذكر أن سبب اهتمامنا بذلك هو أنه يعني أن الأوقات v تساوي λ المرات v ،
والتي يمكنك قراءتها كقول أن المتجه v هو عامل ملاحي من A ،
البقاء على المدى الخاص بها أثناء التحول A.

Czech: 
Chceme najít hodnotu λ takovou,
aby determinant vyšel nulový,
to znamená, že takto naladěná transformace
splácne prostor do nižší dimenze.
V tomhle případě zvítězíme, když λ=1.
Samozřejmě, kdybychom si zvolili jinou matici,
tak by jednička nejspíš nevyšla jako vlastní číslo
a správná hodnota λ by byla nějaká jiná.
Je toho docela hodně,
tak si rozklíčujme, co se teď děje.
Když je λ=1,
tak matice A-λI splácne rovinu do přímky.
To znamená, že existuje nenulový vektor 'v',
takový, že (A-λI)v vyjde jako nulový vektor.
A to všechno nás zajímá proto,
že z toho pak plyne Av=λv,
což můžeme přečíst jako
"vektor 'v' je vlastní vektor matice A",
neboli vektor 'v' zůstane během transformace 'A' ve svém obalu.

Modern Greek (1453-): 
Ο στόχος εδώ είναι να βρούμε μια τιμή του λ που θα κάνει αυτήν την ορίζουσα μηδέν,
πράγμα που σημαίνει ότι ο μεταβάλλον μετασχηματισμός 'σπρώχνει' το χώρο σε μικρότερη διάσταση.
Σε αυτή την περίπτωση, το ακριβές σημείο έρχεται όταν το λ ισούται με 1.
Φυσικά, εάν είχαμε επιλέξει κάποιον άλλο πίνακα,
η ιδιοτιμή μπορεί να μην ήταν απαραίτητα 1, το ακριβές σημείο μπορεί να το έβρισκε κάποια άλλη τιμή του λ.
Άρα είναι κάπως πολλά, αλλά ας ξεδιπλώσουμε το τί λέει αυτό.
Όταν το λ ισούται με 1, ο πίνακας A μείον λ φορές τον ταυτοτικό, πιέζει το χώρο σε μια γραμμή.
Αυτό σημαίνει, ότι υπάρχει ένα μη μηδενικό διάνυσμα v,
τέτοιο ώστε, το A μείον λ φορές τον ταυτοτικό, φορές v, να ισούται με το μηδενικό διάνυσμα.
Και θυμάστε, ο λόγος που μας ενδιαφέρει αυτό, είναι γιατί σημαίνει ότι A φορές v, ισούται με λ φορές v,
που μπορείτε να διαβάσετε λέγοντας ότι το διάνυσμα v είναι ένα ιδιοδιάνυσμα του Α,
παραμένοντας στο span του κατά τη διάρκεια του μετασχηματισμού A.

Portuguese: 
O objetivo aqui é encontrar um valor de λ
que vai fazer esse determinante 0
ou seja, a transformação ajustada
esmaga o espaço para uma dimensão inferior.
Neste caso, o ponto ideal vem quando λ = 1.
Claro, se nós escolhêssemos alguma outra matriz
o valor próprio pode não ser necessariamente 1.
O ponto ideal pode ser atingido algum outro valor de λ.
Portanto, é muita informação,
mas vamos desvendar o que isto está dizendo.
Quando λ = 1,
a matriz A-λI comprime o espaço para uma linha.
Isso significa que há um vetor diferente de zero, 'v',
de tal modo que (A-λI) v é igual ao vetor nulo.
E lembre-se, a razão pela qual nos preocupamos com isto
é, porque isto significa Av = λv,
que você pode ler como dizendo
que o vetor 'v' é um autovetor de A
ficando na sua própria reta durante a transformação A.

Spanish: 
El objetivo aquí es encontrar un valor de λ
que hará este determinante 0
lo cual significa que la aplicación modificada
encoge el espacio a una dimensión menor
En este caso, el lugar indicado llega cuando λ=1.
Por supuesto, si hemos escogido alguna otra matriz distinta
el valor propio no necesariamente tendría que ser 1.
El punto que buscamos podría estar para otro valor de λ
Bueno, esto es ya bastante
Pero vamos a tratar de desvelar lo que esto está diciendo.
Cuando λ=1,
la matriz A-λI encoge el espacio en una línea.
Esto significa que hay un vector distinto de 0
tal que (A-λI)v  es igual al vector 0.
Y recuerda, el motivo por el cuál nos importa todo esto
es porque significa que Av=λv
lo cuál puedes leer como si dijera
que el vector v es un vector propio de A
al quedarse en su propio generador durante la transformación A.

English: 
The goal here is to find a value of λ that will make this determinant zero,
meaning the tweaked transformation squishes space into a lower dimension.
In this case, the sweet spot comes when λ equals 1.
Of course, if we have chosen some other matrix,
the eigenvalue might not necessarily be 1, the sweet spot might be hit some other value of λ.
So this is kind of a lot, but let's unravel what this is saying.
When λ equals 1, the matrix A minus λ times the identity squishes space onto a line.
That means there's a non-zero vector v,
such that A minus λ times the identity times v equals the zero vector.
And remember, the reason we care about that is because it means A times v equals λ times v,
which you can read off as saying that the vector v is an eigenvector of A,
staying on its own span during the transformation A.

Spanish: 
En este ejemplo, el valor propio correspondiente es 1.
Así que v quedaría simplemente fijada en su lugar.
Pausa y reflexiona si necesitas asegurarte
que esta línea de razonamiento te cuadra
Este es el tipo de problema que mencioné en la introducción
Si no tuvieras una comprensión sólida de determinantes
y el porqué se relacionan con que los sistemas lineales de ecuaciones
tengan soluciones distintas de 0
una expresión como ésta podría hacer parecer que sale de la nada
Para ver ésto en acción
vamos a revisitar el ejemplo del principio
Con la matriz cuyas columnas son [3, 0] y [1, 2]
para encontrar si un valor λ es un valor propio
resta λ en la diagonal de esta matriz
y calcula su determinante
Al hacer esto, obtenemos un polinomio cuadrático en λ
(3-λ)(2-λ)
como λ solo puede ser un valor propio

Modern Greek (1453-): 
Σε αυτό το παράδειγμα, η αντίστοιχη ιδιοτιμή είναι 1, οπότε το v θα μείνει στην πραγματικότητα σταθερό στη θέση του.
Σταματήστε και σκεφτείτε εάν χρειάζεστε να βεβαιωθείτε ότι η λογική είναι σωστή.
Αυτό είναι το πράγμα που ανέφερα στην εισαγωγή.
Εάν δεν είχατε μια σταθερή αντίληψη των οριζουσών
και γιατί σχετίζονται με γραμμικά συστήματα εξισώσεων που έχουν μη μηδενικές λύσεις,
μια έκφραση όπως αυτήν, θα την αισθανόσασταν εντελώς άσχετη.
Για να το δείτε αυτό σε δράση, ας επανεξετάσουμε το παράδειγμα από την αρχή
με τον πίνακα του οποίου οι στήλες είναι 
(3, 0) και (1, 2).
Για να δούμε αν μια τιμή λ είναι ιδιοτιμή,
αφαιρέστε την από τα διαγώνια στοιχεία του πίνακα και υπολογίστε την ορίζουσα.
Κάνοντας αυτό, παίρνουμε ένα συγκεκριμένο πολυώνυμο 4ου βαθμού ως προς λ, (3-λ) (2-λ).

Portuguese: 
Neste exemplo, o valor próprio correspondente é 1.
Então 'v' apenas ficaria fixo no lugar.
Pare e pense se você precisa se certificar de
que essa linha de raciocínio faz sentido.
Este é o tipo de coisa que eu mencionei na introdução,
se você não tem uma sólida compreensão dos determinantes
e por que eles se relacionam com sistemas lineares de equações
Tendo em soluções diferentes de zero,
uma expressão como esta iria se parecer completamente vinda do nada.
Para ver isso em ação,
vamos revisitar o exemplo do início.
Com a matriz cujas colunas são [3, 0] e [1, 2],
para descobrir se um valor λ é um autovalor
subtraia o mesmo a partir da diagonal desta matriz
e calcule o determinante.
Fazendo isso, temos um certo polinomial quadrático em λ,
(3-λ) (2-λ)
Dado que λ ​​só pode ser um autovalor

Polish: 
W tym przykładzie, odpowiadającą wartością własną jest 1, zatem v po prostu zostaje na swoim miejscu.
Zatrzymaj i zastanów się, jeżeli potrzeba ci pomyśleć chwilę, dlaczego to prawda.
To jest właśnie to, o czym mówiłem we wstępie:
jeżeli nie masz dobrego pojęcia o wyznacznikach
albo ich związku z niezerowymi rozwiązaniami układów równań,
to takie wyrażenie mogłoby się wydawać wzięte kompletnie znikąd.
Żeby zobaczyć to w praktyce, weźmy przykład z początku,
z macierzą o kolumnach (3, 0) i (1, 2).
Żeby sprawdzić, czy λ jest wartością własną,
odejmijmy ją od przekątnej macierzy i policzmy wyznacznik.
Robiąc to, otrzymamy wyrażenie kwadratowe z λ, (3-λ)(2-λ).

Arabic: 
في هذا المثال ، تكون قيمة eigenvalue المقابلة هي 1 ، لذا فإن v سيكون في الواقع ثابتًا في مكانه.
وقفة والتأمل إذا كنت بحاجة للتأكد من أن خط التفكير يبدو جيدا.
هذا هو الشيء الذي ذكرته في المقدمة ،
إذا لم يكن لديك فهم قوي للمحددات
ولماذا تتعلق بنظم خطية من المعادلات التي لها حلول غير صفرية ،
مثل هذا التعبير من شأنه أن يشعر تماما من فراغ.
لرؤية هذا في العمل ، دعنا نرجع إلى المثال من البداية
مع المصفوفة التي تكون أعمدةها (3 ، 0) و (1 ، 2).
لمعرفة ما إذا كانت القيمة λ هي قيمة ذاتية ،
طرح من الأقطار من هذه المصفوفة وحساب المحدد.
عند القيام بذلك ، نحصل على بعض الحدود المتعددة التربيعية في λ ، (3-λ) (2-λ).

Korean: 
이 예시에서 고유값은 1이 되어
v는 그대로 있습니다
잘 이해가 가지 않는다면
잠깐 멈춰서 생각해 보십시요
초반에 말했던 것처럼, 행렬식(determinants)과
영이 아닌 해를 가지는 선형 방정식계(linear systems of equations)가
어떤 관계가 있는지를
정확히 알지 못한다면
이러한 표현이 전혀 이해가 되지 않을 것입니다
영상으로 보기 위해
처음부터 예시를 다시 봅시다
[3, 0]와 [1, 2]의 열을 가지는 행렬과
고유값이 되는 λ의 값을 찾기 위해
이 행렬의 대각선에서 빼서
행렬식을 계산합니다
이렇게 하면, λ에 대한 이차식인
(3-λ)(2-λ)을 얻습니다
행렬식을 0으로 만드는 λ만이

German: 
In diesem Beispiel ist der entsprechende Eigenwert 1, also wäre v nur ein fixer Punkt.
Pausiert und spult zurück um diesen Argumentationsweg nachzuvollziehe.
Das habe ich in der Einleitung gemeint,
wenn man keinen Dunst von Determinanten hat,
und was sie mit linearen Gleichungssystemen mit Lösungen ≠ 0 zu tun haben,
scheint ein Ausdruck wie dieser aus der Luft gegriffen.
Um das in Aktion zu sehen, kehren wir zum Beispiel vom Anfang zurück
mit einer Matrix, deren Spalten (3 | 0) und (1 | 2) sind.
Um herauszufinden ob Lambda ein Eigenwert ist,
subtrahiert man es von der Diagonale der Matrix und berechnet die Determinante.
Dadurch erhält man eine quadratisches Polynom in Lambda, (3-λ)(2-λ).

English: 
In this example, the corresponding eigenvalue is 1, so v would actually just a fixed in place.
Pause and ponder if you need to make sure that line of reasoning feels good.
This is the kind of thing I mentioned in the introduction,
if you didn't have a solid grasp of determinants
and why they relate to linear systems of equations having non-zero solutions,
an expression like this would feel completely out of the blue.
To see this in action, let's revisit the example from the start
with the matrix whose columns are (3, 0) and (1, 2).
To find if a value λ is an eigenvalue,
subtracted from the diagonals of this matrix and compute the determinant.
Doing this, we get a certain quadratic polynomial in λ, (3-λ)(2-λ).

Czech: 
V našem případě je odpovídající vlastní číslo rovno jedné,
takže 'v' jenom zůstane na místě.
Zastavte si video, jestli si
tuhle argumentaci potřebujete rozmyslet.
To je to, co jsem zmínil v úvodu,
jestli pořádně nerozumíte determinantu,
a jak souvisí se soustavami lineárních rovnic,
která mají nenulová řešení,
taková rovnice může vypadat jak spadlá z nebe.
Abychom to viděli v praxi,
podíváme se ještě na úvodní příklad
s maticí se sloupečky (3, 0) a (1, 2).
Abychom zjistili, která čísla λ jsou vlastní,
odečteme λ od položek na úhlopříčce
a spočteme determinant.
Tím nám vyjde kvadratický polynom v proměnné λ:
(3-λ)(2-λ)
Číslo λ bude vlastní jen tehdy, když

Chinese: 
在这个例子中，v对应的特征值是1，所以它实际上保持不变
如果你觉得理解还不够透彻，那就暂停思考一下
这就是我在绪论中提到的内容
如果你没有充分理解行列式，以及它为什么与线性方程组存在非零解有所联系
这个等式会让你感到出乎意料
为了了解这个过程，我们重温一下视频开头的例子
这个矩阵的列是(3, 0)和(1, 2)
为了求解特征值λ
将矩阵的对角元减去λ，然后计算行列式
这样我们就得到了一个关于λ的二次多项式(3-λ)(2-λ)

Spanish: 
si el determinante resulta ser 0
puedes concluir que los únicos valores propios posibles son λ = 2 y λ = 3
Para averiguar cuáles son los vectores propios
que tienen asociados cada uno de estos valores propios
Digamos λ = 2
introduce ese valor de λ en la matriz
y luego resuelve para qué vectores esta nueva matriz envía al cero
Si te pusieras a calcular esto
de la misma forma que hariás con cualquier otro sistema lineal
verías que las soluciones son todos los vectores sobre la línia diagonal generada por [-1, 1].
Esto se corresponde con el hecho de que la matriz sin alterar 3, 0, 1, 2
tiene el efecto de alargar todos esos vectores por un factor de 2.
Ahora bien, una aplicación lineal en 2 dimensiones no tiene por qué tener vectores propios.
Por ejemplo, considera una rotación de 90 grados
ésta no tiene ningún vector propio
ya que rota cada uno de los vectores fuera de su sistema generador

Czech: 
vyjde determinant nulový.
Z toho můžeme usoudit, že vlastní čísla jsou jenom λ=2 a λ=3.
Abychom určili odpovídající vlastní vektory,
když už máme nějaké vlastní číslo,
řekněme λ=2,
dosadíme tuto hodnotu do matice
a vyřešíme soustavu rovnic, abychom zjistili, které vektory se pošlou na nulu.
Když to spočtete,
vaší oblíbenou metodou řešení soustav lineárních rovnic,
zjistíte, že řešením jsou vektory v lineárním obalu (-1, 1).
To odpovídá tomu, že původní matice ((3,0),(1,2))
všechny tyto vektory vyškáluje dvěma.
Ne každá 2D transformace má vlastní vektory.
Příkladem může být otočení o 90°,
které žádné nenulové vlastní vektory nemá,
protože každý vektor stočí pryč ze svého obalu.

Modern Greek (1453-): 
Δεδομένου ότι το λ μπορεί να είναι ιδιοτιμή αν αυτή η ορίζουσα συμβαίνει να είναι μηδέν,
μπορείτε να καταλήξετε στο ότι οι μόνες πιθανές ιδιοτιμές είναι οι λ = 2 και λ = 3.
Για να βρείτε ποιά είναι τα ιδιοδιανύσματα, που έχουν πράγματι μία από αυτές τις ιδιοτιμές, έστω την λ = 2,
τοποθετήστε αυτή την τιμή του λ στον πίνακα
και στη συνέχεια λύστε για ποιά διανύσματα αυτός ο διαγωνίως αλλαγμένος πίνακας, στέλνει στο 0.
Εάν το υπολογίσατε αυτό, με τον τρόπο που θα κάνατε ένα οποιοδήποτε άλλο γραμμικό σύστημα,
θα βλέπατε ότι οι λύσεις είναι όλα τα διανύσματα στη διαγώνια γραμμή με span το (-1, 1).
Αυτό αντιστοιχεί στο γεγονός ότι ο αμετάβλητος πίνακας [(3, 0), (1, 2)],
έχει ως αποτέλεσμα να τεντώνει όλα αυτά τα διανύσματα με συντελεστή 2.
Τώρα, ένας μετασχηματισμός 2 διαστάσεων δεν χρειάζεται να έχει ιδιοδιανύσματα.
Για παράδειγμα, φανταστείτε μια περιστροφή κατά 90 μοίρες.
Αυτό δεν έχει ιδιοδιανύσματα, αφού περιστρέφει κάθε διάνυσμα έξω από το δικό του span.

Arabic: 
بما أن λ لا يمكن أن تكون سوى قيمة ذاتية إذا كان هذا المحدد هو صفر ،
يمكنك أن تستنتج أن القيم الذاتية الوحيدة الممكنة هي λ يساوي 2 و λ تساوي 3.
لمعرفة ما هي العوامل الذاتية التي لديها في الواقع واحدة من هذه القيم الذاتية ، يقول λ يساوي 2 ،
قم بتوصيل تلك القيمة بـ λ إلى المصفوفة
ثم حل لأي نواقل ترسل هذه المصفوفة المتغيرة مائلًا إلى 0.
إذا قمت بحساب هذه الطريقة التي تريد بها أي نظام خطي آخر ،
سترى أن الحلول هي جميع المتجهات على خط قطري يمتد من (-1 ، 1).
وهذا يتوافق مع حقيقة أن المصفوفة غير المعدلة [(3 ، 0) ، (1 ، 2)]
لديه تأثير لتمديد كل تلك المتجهات بعامل 2.
الآن ، لا يجب أن يكون للتحول ثنائي البعد متواجدة.
على سبيل المثال ، ضع في الاعتبار دوران بمقدار 90 درجة.
هذا لا يملك أي متابعين ، لأنه يدور كل ناقل من نطاقه الخاص.

Chinese: 
因为只有当这个行列式为零时，λ才会是特征值
你就能推断出，所有可能的特征值是λ等于2和λ等于3
为了求出属于某个特征值的特征向量，比如λ等于2
将λ的值代入矩阵当中
然后求解出在这个对角线变化的矩阵变换后成为零的向量
如果进行计算，如同求解其他线性方程组一样
你会发现所有的解全部落在由向量(-1, 1)张成的对角线上
与之对应的，就是原始的矩阵[(3, 0), (1, 2)]将这些向量拉伸为原来的2倍
不过，二维线性变换不一定有特征向量
举个例子，考虑这样一个90度的旋转
它并没有特征向量，因为每一个向量都发生了旋转并离开了其张成的空间

English: 
Since λ can only be an eigenvalue if this determinant happens to be zero,
you can conclude that the only possible eigenvalues are λ equals 2 and λ equals 3.
To figure out what the eigenvectors are that actually have one of these eigenvalues, say λ equals 2,
plug in that value of λ to the matrix
and then solve for which vectors this diagonally altered matrix sends to 0.
If you computed this the way you would any other linear system,
you'd see that the solutions are all the vectors on the diagonal line spanned by (-1, 1).
This corresponds to the fact that the unaltered matrix [(3, 0), (1, 2)]
has the effect of stretching all those vectors by a factor of 2.
Now, a 2-D transformation doesn't have to have eigenvectors.
For example, consider a rotation by 90 degrees.
This doesn't have any eigenvectors, since it rotates every vector off of its own span.

German: 
Da Lambda nur ein Eigenwert sein kann, wenn die Determinante 0 ist,
kann man schlussfolgern, dass die einzigen Eigenwerte λ = 2 und λ = 3 sind.
Um die Eigenvektoren herauszufinden, die einen dieser Eigenwerte haben, sei λ = 2,
setzt man den Wert von Lambda in die Matrix ein
und dann löst man für welche Vektoren diese diagonal veränderte Matrix 0 zu einem Ergebnis von 0 führt.
Würde man es so wie jedes andere Gleichungssystem berechnen,
sähe man, dass die Lösungen alle Vektoren sind, die auf der Diagonalen liegen, die von (-1 | 1) aufgespannt wird.
Das ist darauf zurückzuführen, dass die unveränderte Matrix [(3 | 0), (1 | 2)]
die Eigenschaft hat, jene Vektoren um den Faktor 2 zu strecken.
Nun, eine 2D-Transformation muss keine Eigenvektoren haben.
Man nehme beispielsweise eine 90°-Rotation.
Sie hat keine Eigenvektoren, da sie jeden Vektor von seinem Spann wegdreht.

Polish: 
Skoro λ może być wartością własną tylko, gdy wyznacznik jest zero,
możemy stwierdzić, że jedyne możliwe wartości własne λ to 2 oraz 3.
Żeby znaleźć wektory własne, na przykład ten o wart. własnej 2,
podstawmy tę wartość λ do macierzy
i znajdźmy, które wektory ta zmieniona macierz posyła na 0.
Jeżeli obliczymy to jak dowolny inny układ równań,
to okaże się że rozwiązaniem są wszystkie wektory rozpięte przez [-1 ,1].
To odpowiada stwierdzeniu, że niezmieniona macierz [(3, 0), (1, 2)]
działa na tych wektorach przez rozciągnięcie ich 2 razy.
Trzeba powiedzieć, że przekształcenie 2D nie musi mieć wektorów własnych.
Rozważmy na przykład obrót o 90 stopni.
nie musi mieć on żadnych wektorów własnych, skoro obraca każdy wektor ze swojej prostej na inną.

Portuguese: 
se este determinante passa a ser 0,
você pode concluir que os únicos valores próprios possíveis são λ = 2 e λ = 3.
Para descobrir quais são os autovetores
que realmente têm um desses autovalores,
digamos, λ = 2,
coloque este valor de λ na matriz
e, em seguida, resolva os vetores que esta matriz alterada envia ao vetor nulo.
Se você fez a conta,
da mesma forma que você faria com qualquer outro sistema linear,
você veria que as soluções são todos os vetores na linha diagonal gerada por [-1, 1].
Isto corresponde ao fato da matriz inalterada 
3 1
0 2
tem o efeito de alongar todos esses vetores por um fator de 2.
Agora, uma transformação 2D não tem que ter autovetores.
Por exemplo, considere uma rotação de 90°,
esta não tem nenhum autovetor,
uma vez que gira cada vetor fora de sua própria reta.

Korean: 
고유값이 될 수 있으므로
가능한 고유값은 λ= 2와 λ=3 밖에 없다는 결론을 얻습니다
이 중 하나의 고유값을 가지는
고유벡터를 알아내기 위해
λ=2라고 가정합시다
λ의 값을 행렬에 집어넣어서
대각선이 바뀐 이 행렬이 [2, 0]를 어떻게 변환하는지 봅시다
다른 선형계에서 하듯이
이걸 계산하면
해가 [-1, 1]이 span하는 대각선 위에 있는 모든 벡터라는 사실을 알 수 있습니다
이건 원래 행렬 3, 0, 1, 2가
이 벡터들을 두 배로 늘린다는 사실과 일치합니다
2D 변환은 고유벡터가 무조건 존재하지 않습니다
예를 들어, 고유벡터가 없는
90°회전의 경우에는
모든 벡터가 자신의 span을 벗어납니다

Spanish: 
Si intentaras calcular los valores propios de una rotación como esta
mira qué ocurre
su matriz tiene las columnas [0, 1] y [-1, 0]
resta λ en los elementos de la diagonal
y busca cuándo el determinante es 0.
En este caso, obtendrás el polinomio λ^2+1
las únicas soluciones de ese polinomio
son los números imagionarios i y -i
El hecho de que no haya soluciones reales
indica que no hay vectores propios.
Otro ejemplo bastante interesante
que merecer la pena recordar, es el de la "cizalla"
que fija el vector i en su lugar
y mueve j 1 unidad a la derecha
De manera que su matriz tiene las columnas [1, 0] y [1, 1]
Todos los vectores en el eje x
son vectores propios con valor propio 1
puesto que se mantienen fijos en su lugar
De hecho, estos son los únicos vectores propios

English: 
If you actually try computing the eigenvalues of a rotation like this, notice what happens.
Its matrix has columns (0, 1) and (-1, 0),
subtract off λ from the diagonal elements and look for when the determinant is 0.
In this case, you get the polynomial λ^2+1,
the only roots of that polynomial are the imaginary numbers i and -i.
The fact that there are no real number solutions indicates that there are no eigenvectors.
Another pretty interesting example worth holding in the back of your mind is a shear.
This fixes i-hat in place and moves j-hat one over,
so its matrix has columns (1, 0) and (1, 1).
All of the vectors on the x-axis are eigenvectors with eigenvalue 1, since they remain fixed in place.
In fact, these are the only eigenvectors.

Arabic: 
إذا كنت تحاول بالفعل حساب قيم eigenvalues ​​لدوران كهذا ، فلاحظ ما يحدث.
تحتوي المصفوفة على أعمدة (0 ، 1) و (-1 ، 0) ،
طرح λ من العناصر القطرية والبحث عن عندما يكون المحدد 0.
في هذه الحالة ، تحصل على كثير الحدود λ ^ 2 + 1 ،
والجذور الوحيدة لهذا متعدد الحدود هي الأرقام الخيالية i و i.
تشير حقيقة عدم وجود حلول رقمية حقيقية إلى عدم وجود أي حركات ذاتية.
مثال آخر مثير للاهتمام يستحق الإمساك في الجزء الخلفي من عقلك هو القص.
يعمل هذا على إصلاح قبعة i-hat في مكانها وتحريك j-hat one over over،
لذلك لها المصفوفة أعمدة (1 ، 0) و (1 ، 1).
جميع المتجهات على المحور السيني عبارة عن متجهات ذاتية ذات قيمة ذاتية 1 ، حيث تظل ثابتة في مكانها.
في الواقع ، هذه هي eigenvectors الوحيدة.

Polish: 
Jak spróbujemy obliczyć wartości własne takiego obrotu, spójrzmy, co się stanie.
Jego macierz ma kolumny (0, 1) i (-1, 0),
odejmijmy λ od przekątnej i znajdźmy, kiedy wyznacznik jest 0.
otrzymujemy wielomian  λ^2+1,
a jego jedynymi pierwiastkami są urojone liczby i oraz -i.
Skoro nie ma żadnych rozwiązań rzeczywistych, to nie ma też wektorów własnych.
Innym interesującym przykładem, który warto pamiętać jest naprężenie.
I-z-daszkiem zostaje w miejscu, a j-z-daszkiem dostaje jedną jednostkę w prawo,
zatem kolumny jego macierzy to (1, 0) i (1, 1).
Wszystkie wektory na OX to wektory własne z wartością własną 1, bo pozostają niezmienione.
Są to właśnie jedyne wektory własne.

Czech: 
Všimněte si, co se stane, když se pokusíme spočítat vlastní čísla
takového otočení,
Matice má sloupečky (0,1) a (-1,0),
odečteme λ od hodnot na úhlopříčce
a podíváme se, kdy je determinant nulový.
V tomhle případě vyjde polynom λ^2+1,
jehož jediné kořeny jsou
imaginární čísla 'i' a '-i'.
Skutečnost, že tato rovnice nemá reálná řešení,
značí, že tu nejsou žádné nenulové vlastní vektory.
Jiný důležitý příklad,
který je dobré mít na paměti, je zkosení.
To nechává 'i' na místě,
a ''j' posune o 1 doprava.
Takže jeho matice má sloupečky (1,0) a (1,1).
Všechny vektory na ose 'x'
jsou vlastní příslušné vlastnímu číslu 1,
jelikož zůstanou na místě.
Ale jsou to popravdě jediné vlastní vektory.

German: 
Sieh, was passiert, wenn man versucht die Eigenwerte von so einer Rotation zu ermitteln.
Die Matrix dieser Rotation hat die Spalten (0 | 1) und (-1 | 0),
man subtrahiere Lambda von den diagonalen Elementen und, suche den Wert, wo die Determinante 0 ist.
In diesem Fall erhält man das Polynom λ^2+1,
und die einzigen Nullstellen von diesem Polynom sind die imaginären Zahlen i und -i.
Die Tatsache, dass es keine reelle Lösung gibt, weist darauf hin, dass es keine Eigenvektoren gibt.
Ein anderes sehr interessantes Beispiel, das es wert ist, im Gedächtnis zu behalten, ist ein "Shear".
Das hält î am Platz und bewegt und ĵ um eins nach rechts,
also hat seine Matrix die Spalten (1 | 0) und (1 | 1).
Alle Vektoren auf der x-Achse sind Eigenvektoren mit Eigenwert 1, da sie am Platz bleiben.
Tatsächlich sind sie die einzigen Eigenvektoren.

Korean: 
이런 회전에서 고유벡터를 계산하려고 시도한다면
어떤 일이 일어나는지 봅시다
행렬의 열이 [0, 1]과 [-1, 0]이고
대각선 성분에서 λ를 빼고
행렬식이 0이 되는 경우를 찾아보면
다항식 λ^2+1을 얻게 되는데
이 다항식의 해는
허수 i와 -i 뿐입니다
실수해가 없다는 것은
고유벡터가 없다는 것입니다
생각해 볼 만한
다른 재밌는 예시는 미는 것(shear)입니다
i-hat은 그대로 두고
j-hat은 1만큼 움직이면
행렬의 열이 [1, 0]과 [1, 1]이 됩니다
x축 위에 있는 모든 벡터들은
그 자리에 그대로 있기 때문에
고유값 1을 가지는 고유벡터가 됩니다
사실, 이 벡터들은 대각선에서 λ를 빼고

Portuguese: 
Se você realmente tente calcular os valores próprios de uma rotação como esta,
observe o que acontece:
a sua matriz tem colunas [0, 1] e [-1, 0]
subtraia λ a partir dos elementos da diagonal,
e procure por quando o determinante é 0.
Neste caso, você tem o polinômio a λ^2 + 1;
as únicas raízes desse polinômio
são os números imaginários i e -i;
o fato de que não existem soluções reais
indica que não existem autovetores.
Outro exemplo bastante interessante,
que vale a pena se lembrar, é um cisalhamento.
Isso mantém î no lugar,
e move ĵ chapéu para î+ĵ,
Portanto, a sua matriz tem colunas [1, 0] e [1, 1]
Todos os vetores no eixo x
são autovetores com autovalor 1,
uma vez que eles permanecem fixos no lugar.
Na verdade, estes são os únicos autovetores

Chinese: 
如果你真的尝试去计算它的特征值，注意一下会发生什么
矩阵的列为(0, 1)和(-1, 0)
对角元减去λ后，然后寻找行列式为0的情形
在这个例子里，你会得到多项式λ^2+1
这个多项式的根只能是虚数i与-i
没有实数解表明它没有特征向量
另一个很有意思并且值得思考的例子是剪切变换
它保持i帽不变，将j帽向右移动一个单位
所以矩阵的列为(1, 0)和(1, 1)
所有x轴上的向量都是属于特征值1的特征向量，因为它们都保持不变
实际上，这些就是所有的特征向量

Modern Greek (1453-): 
Εάν προσπαθήσετε πραγματικά να υπολογίσετε τις ιδιοτιμές μιας περιστροφής όπως αυτή, παρατηρήστε τί συμβαίνει.
Ο πίνακάς του έχει στήλες (0, 1) και (-1, 0).
Αφαιρέστε λ από τα διαγώνια στοιχεία και αναζητήστε πότε η ορίζουσα γίνεται 0.
Σε αυτή την περίπτωση, παίρνετε το πολυώνυμο λ ^ 2 + 1.
Οι μοναδικές ρίζες αυτού του πολυώνυμου είναι οι φανταστικοί αριθμοί i και -i.
Το γεγονός ότι δεν υπάρχουν πραγματικές λύσεις υποδηλώνει ότι δεν υπάρχουν ιδιοδιανύσματα.
Ένα άλλο πολύ ενδιαφέρον παράδειγμα που αξίζει να κρατάτε στο πίσω μέρος του μυαλού σας είναι μια διάτμηση.
Αυτό κρατά το i στη θέση του και μετακινεί το j κατά 1,
οπότε ο πίνακάς του έχει στήλες (1, 0) και (1, 1).
Όλα τα διανύσματα στον άξονα των x είναι ιδιοδιανύσματα με ιδιοτιμή 1, αφού παραμένουν σταθερά στη θέση τους.
Στην πραγματικότητα, αυτά είναι τα μόνα ιδιοδιανύσματα.

Chinese: 
当你将对角元减去λ，然后计算行列式
你得到的是(1-λ)^2
这个多项式唯一的根是λ等于1
这与几何上得到的“所有特征向量均属于特征值1”的结果一致
不过注意一点
可能会出现只有一个特征值，但是特征向量不止在一条直线上的情况
一个简单的例子是将所有向量变为两倍的矩阵
唯一的特征值是2，但是平面内每一个向量都是属于这个特征值的特征向量
现在是暂停思考这部分的绝好时机
因为接下来我会继续最后一个话题

Arabic: 
عندما تقوم بطرح λ من الأقطار وحساب المحدد ،
ما تحصل عليه هو (1-λ) ^ 2 ،
والجذر الوحيد لهذا التعبير هو λ يساوي 1.
يتطابق هذا مع ما نراه هندسيًا من أن جميع المتجهات الذاتية لها قيمة ذاتية 1.
ضع في اعتبارك رغم ذلك ،
من الممكن أيضًا أن تكون لديك قيمة ذاتية واحدة فقط ، ولكن مع أكثر من مجرد خط مليء بالمفاهيم الذاتية.
مثال بسيط هو مصفوفة تقاس كل شيء بمقدار 2 ،
قيمة eigenvalue الوحيدة هي 2 ، لكن كل متجه في المستوي يصبح متجاوراً ذا قيمة eigenvalue.
الآن هو وقت آخر جيد للتوقف والتأمل في بعض من هذا
قبل الانتقال إلى الموضوع الأخير.

English: 
When you subtract off λ from the diagonals and compute the determinant,
what you get is (1-λ)^2,
and the only root of this expression is λ equals 1.
This lines up with what we see geometrically that all of the eigenvectors have eigenvalue 1.
Keep in mind though,
it's also possible to have just one eigenvalue, but with more than just a line full of eigenvectors.
A simple example is a matrix that scales everything by 2,
the only eigenvalue is 2, but every vector in the plane gets to be an eigenvector with that eigenvalue.
Now is another good time to pause and ponder some of this
before I move on to the last topic.

Polish: 
Jeżeli odejmiemy λ od przekątnej i policzymy wyznacznik,
to dostaniemy (1-λ)^2,
a jedynym miejscem zerowym tego wyrażenia jest λ równe 1.
to zgadza się z tym co widzimy geometrycznie - wszystkie wektory własne mają wartość własną 1.
Pamiętajmy jednak,
możliwa jest jedna wartość własna, ale z kilkoma wektorami własnymi.
Łatwym przykładem jest macierz która skaluje wszystko przez 2,
jedyną wartością własną jest 2, ale każdy wektor w przestrzeni jest wektorem własnym z tą wartością.
Teraz to dobry czas zatrzymać się i ułożyć to wszystko w głowie,
zanim przejdę do ostatniego tematu.

Portuguese: 
quando você subtrai λ das diagonais
e calcula o determinante.
O que você recebe é (1-λ)^2,
e a única raiz desta expressão é λ = 1.
Isto se alinha com o que vemos geometricamente,
que todos os autovetores têm valor próprio 1.
Tenha em mente, no entanto, também é possível ter apenas um valor próprio
mas com mais do que apenas uma linha completa de autovetores.
Um exemplo simples é uma matriz que escala tudo por 2.
O único valor próprio é 2,
mas cada vetor no plano consegue ser um autovetor associado a este autovalor.
Agora é outro bom momento
para fazer uma pausa e refletir sobre algumas dessas
antes de passar para o último tópico.

Korean: 
행렬식을 계산 했을 때 얻는
유일한 고유벡터입니다
1-λ^2이라는 식이 나오는데
이 식의 해는 λ=1 뿐입니다
우리가 기하학적으로 알아낸
모든 고유벡터는 고유값 1을 가진다는 것을 알아낸 사실과 일치합니다
하나의 고유값을 가지면서도 다양한 고유벡터들을
가질 수 있다는 것도 염두에 두십시요
간단한 예는 모든 것을 두배로 스케일하는 행렬인데,
고유값은 2 뿐이지만
평면 상의 모든 벡터는 고유벡터가 됩니다
마지막 주제로 넘어가기 전에
멈춰서 생각할 시간을 가질
좋은 타이밍입니다

German: 
Wenn man Lambda von den Diagonalen subtrahiert und die Determinante berechnet,
erhält man (1-λ)²,
und die einzige Nullstelle dieses Ausdrucks ist 1.
Das stimmt mit dem überein, was man geometrisch sieht, nämlich, dass alle Eigenvektoren Eigenwerte von 1 haben.
Man muss aber beachten,
dass es auch möglich ist nur einen Eigenwert zu haben, aber mehr als eine Gerade an Eigenvektoren.
Ein simples Beispiel wäre eine Matrix, die alles um den Faktor 2 skaliert,
der einzige Eigenwert ist 2, aber jeder Vektor in der Ebene ist ein Eigenvektor mit diesem Eigenwert.
Jetzt ist wieder ein guter Zeitpunkt zum Pausieren und Zurückspulen,
bevor ich mit dem letzen Thema fortfahre.

Spanish: 
cuando restas λ en la diagonal
y calculas el determinante
Lo que obtienes es (1-λ)^2
Y la única solución a esa expresión es λ = 1
Esto coincide con lo que vemos geométricamente
que todos los vectores propios tienen valor propio 1
Aunque, ten en cuenta, que también es posible tener un único valor propio
con más de una línea entera de vectores propios
Un simple ejemplo es una matriz que lo escala todo por 2
El  único valor propio es 2
pero todos los vectores en el plano son vectores propios con ese valor propio
Ahora es otro buen momento
para pausar y reflexionar un poco sobre esto
antes de que me mueva hacia el último tema

Czech: 
Když od úhlopříčky odečtete λ
a spočtete determinant,
vyjde 1-λ^2.
Jediný kořen takové rovnice je λ=1.
To odpovídá tomu, co vidíme geometricky,
že všechny vlastní vektory odpovídají vlastnímu číslu 1.
Dále mějte na paměti, že můžeme mít jenom jedno vlastní číslo,
ale víc vlastních vektorů než jen jedna přímka.
Jednoduchým příkladem je matice, která vše zvětší dvakrát.
Jediná vlastní hodnota je 2,
ale každý vektor v rovině je vlastním vektorem odpovídající tomuto vlastnímu číslu.
Teď je opět dobrý moment
na pozastavení videa a uspořádání si toho všeho,
než že přesuneme na poslední podkapitolu.

Modern Greek (1453-): 
Όταν αφαιρείτε λ από τα διαγώνια στοιχεία και υπολογίζετε την ορίζουσα,
αυτό που παίρνετε είναι (1-λ) ^ 2.
Και η μόνη ρίζα αυτής της έκφρασης είναι η 
λ = 1.
Αυτό ταιριάζει με αυτό που βλέπουμε γεωμετρικά, ότι όλα τα ιδιοδιανύσματα έχουν ιδιοτιμή 1.
Λάβετε υπόψη όμως,
είναι επίσης δυνατό να έχουμε μόνο μία ιδιοτιμή, αλλά με περισσότερες από μία γραμμές γεμάτες ιδιοδιανύσματα.
Ένα απλό παράδειγμα είναι ένας πίνακας που προσαρμόζει βαθμωτά τα πάντα κατά 2.
Η μόνη ιδιοτιμή είναι 2, αλλά κάθε διάνυσμα στο επίπεδο, γίνεται ιδιοδιάνυσμα, με αυτή την ιδιοτιμή.
Τώρα είναι μια άλλη καλή στιγμή να σταματήσετε και να αναλογιστείτε μερικά από αυτά τα πράγματα
πριν προχωρήσω στο τελευταίο θέμα.

Chinese: 
我想以特征基的概念结束这期视频
而它在很大程度上依赖于上期视频的思想
如果我们的基向量恰好是特征向量，来看看会发生什么
比如说，可能i帽变为原来的(-1)倍，j帽变为原来的2倍
将它们的新坐标作为矩阵的列
注意，它们的倍数-1和2，也就是i帽和j帽所属的特征值
位于矩阵的对角线上，而其他元素均为0
除了对角元以外其他元素均为0的矩阵被称为对角矩阵，这非常合理
解读它的方法是，所有基向量都是特征向量
矩阵的对角元是它们所属的特征值

German: 
Ich möchte hier mit einer Idee von einer Eigenbasis abschließen,
die sehr auf den Ideen des letzten Videos beruht.
Seht, was passiert, wenn gerade die Basisvektoren Eigenvektoren sind.
Zum Beispiel werde  î um -1 skaliert und ĵ um 2.
Schreibt man ihre neuen Koordinaten als die Spalten einer Matrix,
sieht man, dass die Skalarfaktoren -1 und 2, die die Eigenwerte von î und ĵ sind,
sich auf der diagonalen der Matrix befinden und jeder andere Eintrag 0 ist.
Immer, wenn eine Matrix bis auf die Diagonale nur aus Nullen besteht,
wird sie, aus gutem Grund, diagonale Matrix genannt.
Und das ist so zu interpretieren, dass alle Basisvektoren Eigenvektoren,
und die diagonalen Werte deren Eigenwerte sind.

Arabic: 
أريد أن أنتهي هنا بفكرة وجود eigenbasis ،
التي تعتمد بشكل كبير على أفكار من الفيديو الأخير.
ألقِ نظرة على ما يحدث إذا حدث أن تمكَّن لنا المتجهات الأساسية من أن تكون مجرد متجهات ذاتية.
على سبيل المثال ، ربما يتم تحجيم i-hat بمقدار -1 ويتم تحجيم j-hat بمقدار 2.
كتابة إحداثياتهم الجديدة كأعمدة مصفوفة ،
لاحظ أن هذه مضاعفات العددية -1 و 2 ، والتي هي القيم الذاتية من i-hat و j-hat ،
الجلوس على قطري لدينا المصفوفة وكل إدخال آخر هو 0.
في أي وقت ، تحتوي المصفوفة على صفر في كل مكان بخلاف القطر ،
يطلق عليه ، بشكل معقول بما فيه الكفاية ، مصفوفة قطرية.
والطريقة لتفسير هذا هو أن جميع المتجهات الأساسية هي متجهات ذاتية ،
مع الإدخالات القطرية لهذه المصفوفة كونها قيمها الذاتية.

English: 
I want to finish off here with the idea of an eigenbasis,
which relies heavily on ideas from the last video.
Take a look at what happens if our basis vectors just so happened to be eigenvectors.
For example, maybe i-hat is scaled by -1 and j-hat is scaled by 2.
Writing their new coordinates as the columns of a matrix,
notice that those scalar multiples -1 and 2, which are the eigenvalues of i-hat and j-hat,
sit on the diagonal of our matrix and every other entry is a 0.
Anytime a matrix has 0's everywhere other than the diagonal,
it's called, reasonably enough, a diagonal matrix.
And the way to interpret this is that all the basis vectors are eigenvectors,
with the diagonal entries of this matrix being their eigenvalues.

Spanish: 
Quiero terminar aquí
con la idea de una "base propia"
que depende fuertemente de ideas del último vídeo.
Observa qué ocurre
si los vectores de nuestra base resultaran ser vectores propios
Por ejemplo, tal vez el vector i es escalado por -1 y j es escalado por 2.
Escribiendo las nuevas coordenadas como las columnas de una matriz
observa que esos escalares -1 y 2,
que son los valores propios de i y j
se encuentran en la diagonal de nuestra matriz
y el resto de elementos son 0
Siempre que una matriz tenga 0 en todas partes
excepto en la diagonal
se le llama, de forma esperada, una "matriz diagonal"
y la manera de interpretar esto
es que todos los vectores de la base son vectores propios
con los elementos de la diagonal de esta matriz siendo sus valores propios

Portuguese: 
Eu quero terminar aqui
com a idéia de uma "autobase",
que depende fortemente de idéias do último vídeo.
Dê uma olhada no que acontece
se os nossos vetores de base apenas calham de ser autovetores.
Por exemplo, talvez î é dimensionado 
por -1 e ĵ é dimensionado por 2.
Escrevendo suas novas coordenadas como as colunas de uma matriz,
note que estes múltiplos escalares -1 e 2
que são os valores próprios de î e ĵ,
sentam-se na diagonal da nossa matriz
e todas as outras entradas são 0.
Sempre que uma matriz tem zeros em todos os lugares
com exceção da diagonal,
ele é chamada, muito razoavelmente, de “matriz diagonal”
e a maneira de se interpretar isso
é que todos os vetores de base são autovetores
com os elementos da diagonal desta matriz sendo os seus valores próprios.

Modern Greek (1453-): 
Θέλω να τελειώσω εδώ με την ιδέα μιας ιδιο-βάσης,
που στηρίζεται κυρίως σε ιδέες από το τελευταίο βίντεο.
Ρίξτε μια ματιά στο τι συμβαίνει εάν τα διανύσματα βάσης μας, απλά συμβαίνει να είναι ιδιοδιανύσματα.
Για παράδειγμα, ίσως το i πολλαπλασιάζεται βαθμωτά με -1 και το j με 2.
Γράφοντας τις νέες συντεταγμένες τους ως στήλες ενός πίνακα,
παρατηρήστε ότι αυτά τα βαθμωτά πολλαπλάσια -1 και 2, που είναι οι ιδιοτιμές του i και j,
βρίσκονται στη διαγώνιο του πίνακά μας και κάθε άλλο στοιχείο είναι 0.
Οποτεδήποτε ένας πίνακας έχει μηδενικά οπουδήποτε εκτός από τη διαγώνιο,
καλείται, αρκετά λογικά, Διαγώνιος Πίνακας.
Και ο τρόπος που ερμηνεύουμε αυτό, είναι πως όλα τα διανύσματα βάσης είναι ιδιοδιανύσματα,
με τις διαγώνιες τιμές αυτού του πίνακα να είναι οι ιδιοτιμές τους.

Korean: 
저번 영상의 개념들과
깊은 관계가 있는 개념인
"고유기저(eigenbasis)"로 마무리짓고 싶습니다
만약 기저벡터들이
고유벡터이기도 했다면 어떤 일이 일어나는지 봅시다
예를 들어, i-hat은 1만큼, j-hat은 2만큼 스케일 되었다고 합시다
새로운 좌표로 행렬의 열을 써내면
i-hat과 j-hat의 고유값인
스칼라 곱 -1 과 2가
행렬의 대각선에 있고
다른 값들은 모두 0입니다
대각선 외에 모두 0인 행렬은
뻔하지만,
"대각선 행렬(diagonal matrix)"라고 불립니다
이걸 해석하면
모든 기저벡터는 고유벡터이고
대각선의 값들은 고유값이 됩니다

Polish: 
chcę zakończyć ten film konceptem bazy złożonej z wektorów własnych,
która polega głównie na rzeczach, o których mówiłem w ostatnim filmie.
Sprawdźmy, co się dzieje, gdy wektory z naszej bazy są akurat wektorami własnymi.
Na przykład, może i-z-daszkiem jest skalowany przez -1, a j-z-daszkiem jest skalowany przez 2.
Zapisując ich nowe współrzędne jako kolumny macierzy,
zauważ że te skalary, -1 oraz 2, czyli wartości własne odpowiadające i-z-daszkiem i j-z-daszkiem
są na przekątnej naszej macierzy, a reszta macierzy jest zerem.
Każda macierz o samych zerach poza przekątną
nazywana macierzą diagonalną.
Możemy to interpretować tak, że wektory z bazy są wektorami własnymi,
gdzie wartości na przekątnej są wartościami własnymi.

Czech: 
Vlastní čísla zakončíme
myšlenkou "vlastní báze",
která se hodně opírá o minulé video.
Podívejme se, co se stane,
když jsou všechny bázové vektory shodou okolností vlastní.
Například 'i' jen vyškálujeme hodnotou -1 a 'j' vyškálujeme dvakrát.
Všimněte si, že když zapíšeme výsledné souřadnice do sloupců matice,
tak tyto skaláry -1 a 2,
což jsou vlastní čísla příslušející vektorům 'i' a 'j'
jsou na úhlopříčce naší matice,
zatímco všude jinde jsou nuly.
Kdykoli má matice nuly všude
kromě úhlopříčky,
nazýváme ji, nepřekvapivě, "diagonální maticí".
Na takovou matici se můžeme dívat
tak, že všechny bázové vektory jsou vlastní,
a vlastní čísla jsou napsána na úhlopříčce matice.

Chinese: 
对角矩阵在很多方面都更容易处理
其中一个重要的方面是，矩阵与自己多次相乘的结果更容易计算
因为对角矩阵仅仅让基向量与某个特征值相乘
所以多次应用矩阵乘法，比如100次
也只是将每个基向量与对应特征值的100次幂相乘
相比之下，尝试计算一个非对角矩阵的100次幂
真的去试试看，这就是场噩梦
当然对于基向量同时也是特征向量的情况，你很可能不像它那么幸运
但是如果你的变换有许多特征向量，就像视频开始时的例子一样
多到你能选出一个张成全空间的集合
那么你就能变换你的坐标系，使得这些特征向量就是基向量
我在上期视频中已经讨论过基变换了

Czech: 
S diagonálními maticemi se zachází snáze v mnoha ohledech,
zejména třeba při výpočtu transformace, která vyjde
z opakovaného násobení danou maticí.
Protože taková matice nedělá nic jiného,
než že škáluje každý bázový vektor nějakým vlastním číslem,
když to provedeme dejme tomu 100krát,
bude výsledek stejný jako když vyškálujeme každý bázový vektor
stou mocninou příslušného vlastního čísla.
Na druhou stranu si zkuste spočítat stou mocninu matice, která není diagonální.
Vážně si to na chvíli zkuste,
no, je to hrůza!
Samozřejmě musíte mít fakt štěstí,
aby byly bázové vektory rovnou vlastní,
ale za předpokladu, že má transformace dost vlastních vektorů,
jako ta z úvodu tohoto videa,
dost na to, abyste z nich mohli vybrat množinu, která generuje celý prostor,
tak si můžete upravit systém souřadnic,
aby bázové vektory opravdu byly vlastní.
V minulém videu jsem vysvětloval změnu báze.

Modern Greek (1453-): 
Υπάρχουν πολλά πράγματα που κάνουν τους διαγώνιους πίνακες πολύ καλύτερους να δουλέψει κανείς.
Ένα μεγάλο είναι ότι
είναι ευκολότερο να υπολογίσετε το τί θα συμβεί αν πολλαπλασιάσετε αυτόν τον πίνακα με τον εαυτό του πολλές φορές.
Αφού αυτό που κάνουν όλοι αυτοί οι πίνακες είναι ο βαθμωτός πολλαπλασιασμός κάθε διανύσματος βάσης με κάποια ιδιοτιμή,
εφαρμόζοντας αυτό τον πίνακα πολλές φορές, ας πούμε 100 φορές,
απλώς θα αντιστοιχήσει το βαθμωτό πολλαπλάσιο κάθε διανύσματος βάσης με την 100η δύναμη της αντίστοιχης ιδιοτιμής.
Σε αντίθεση, δοκιμάστε να υπολογίσετε την 100η δύναμη ενός μη - διαγώνιου πίνακα.
Πραγματικά, δοκιμάστε το για μια στιγμή. 
Είναι εφιάλτης.
Φυσικά, σπάνια θα είστε τόσο τυχεροί ώστε να έχετε τα διανύσματα βάσης σας να είναι επίσης ιδιοδιανύσματα,
αλλά αν ο μετασχηματισμός σας έχει πολλά ιδιοδιανύσματα, όπως αυτός από την αρχή αυτού του βίντεο,
αρκεί ώστε να μπορείτε να διαλέξετε ένα σύνολο του οποίου η γραμμική θήκη (span) είναι ολόκληρος ο χώρος,
τότε θα μπορούσατε να αλλάξετε το σύστημα συντεταγμένων σας έτσι ώστε αυτά τα ιδιοδιανύσματα να είναι τα διανύσματα βάσης σας.
Μίλησα για την αλλαγή βάσης στο τελευταίο βίντεο,

German: 
Es gibt viele Szenarien, in denen es viel einfacher ist mit diagonalen Matrizen zu arbeiten.
Ein entscheidendes ist, dass
es einfacher ist zu berechnen, was passiert, wenn man diese Matrix sehr oft mit sich selbst multipliziert.
Das all diese Matrizen nur die einzelnen Eigenvektoren um einen bestimmen Eigenwert skalieren,
ist es dasselbe, die Matrix sehr viele Male, sagen wir hundertmal, anzuwenden,
wie jeden Basisvektor einfach nur um die hundertste Potenz des jeweiligen Eigenwerts zu skalieren.
Zum Vergleich, versuch mal die hundertste Potenz einer nicht-diagonalen Matrix zu berechnen.
Wirklich jetzt, versuch es mal! Es ist ein Albtraum.
Natürlich hat man selten so Glück, dass die Basisvektoren auch Eigenvektoren sind,
aber wenn die Transformation viele Eigenvektoren hat, wie die vom Beginn des Videos,
genug, dass man eine Menge wählen kann, die den ganzen Raum aufspannt,
dann kann man das Koordinatensystem so verändern, sodass diese Eigenvektoren die Basisvektoren sind.
Ich habe bereits letztes Video über Basiswechsel gesprochen,

Arabic: 
هناك الكثير من الأشياء التي تجعل المصفوفات المائلة أكثر جاذبية للعمل بها.
واحد كبير هو ذلك
من الأسهل حساب ما سيحدث إذا ضربت هذه المصفوفة بذاتها مجموعة من المرات.
بما أن كل واحدة من هذه المصفوفات هي مقياس كل ناقل أساس بواسطة بعض القيم الذاتية ،
تطبيق ذلك المصفوفة عدة مرات ، ولنقل 100 مرة ،
سوف يتطابق فقط مع توسيع نطاق كل ناقل أساس بواسطة القوة 100 في القيمة الذاتية المقابلة.
على النقيض من ذلك ، جرب استخدام القوة المئة عشر لمصفوفة غير قطرية.
حقا ، جربها للحظة ، إنه كابوس.
وبالطبع ، نادرًا ما تكون محظوظًا جدًا لأن تكون متجهاتك الأساسية هي أيضًا متجهات ذاتية ،
ولكن إذا كان للتحول لديك الكثير من العوامل الذاتية ، مثل ذلك الذي يحدث في بداية هذا الفيديو ،
بما فيه الكفاية بحيث يمكنك اختيار مجموعة تغطي المساحة الكاملة ،
ثم يمكنك تغيير نظام الإحداثيات الخاص بك بحيث تكون هذه الموجات الذاتية هي المتجهات الأساسية الخاصة بك.
تحدثت عن تغيير الفيديو الأخير أساس ،

Polish: 
Jest wiele powodów, z których macierze diagonalne są wygodne w użyciu.
Jednym z nich jest to, że
bardzo łatwo jest wielokrotnie mnożyć przez siebie takie macierze.
Skoro te macierze rozciągają wektory bazowe o pewną wartość,
to przyłożenie jest wiele razy, np 100,
odpowiadać będzie po prostu skalowaniu każdego wektora bazowego przez setną potęgę odpowiedniej wartości własnej.
Można dla porównania spróbować policzyć setną potęgę jakiejś niediagonalnej macierzy.
Serio, spróbujcie, to absolutny koszmar.
Oczywiście, rzadko ma się takie szczęście, że wektory z bazy są własne,
ale jeśli przekształcenie ma dużo wektorów własnych, jak to z początku filmiku,
tyle, że rozpinają całą przestrzeń,
to możemy zmienić nasz układ współrzędnych tak, żeby mieć bazę z wektorów własnych.
Mówiłem o zmianie bazy w ostatnim filmie,

Korean: 
대각선 행렬이 다루기 좋은 이유 중 하나는
만약 이 행렬을 아주 많이 스스로 곱한다면
무엇이 일어날지 계산하기 쉽다는 것입니다
이 행렬이 하는 것은
각 기저 벡터를 특정한 고유값으로 스케일 하는 것이니까 말입니다
이 행렬을 100번정도 적용하는 것은
기저 벡터들을 고유값의 100제곱으로
스케일링 하는 것과 동일합니다
대조적으로, 대각선 행렬이 아닌 것을 100번 곱한 것을 계산하는 걸 시도해 보십시오
진심으로, 한번 해 보세요
악몽입니다!
당연히, 기저 벡터가 고유벡터가 되는 상황은
아주 운이 좋은 상황일 것입니다
하지만 만약 변환이 앞서 했던 것과 같이
전체 공간을 span하는 세트를 고를 수 있을 만큼
고유벡터들을 많이 가지고 있다면
고유벡터가 기저벡터가 되도록
좌표계를 바꿀 수 있습니다
저번 영상에서 기저를 바꾸는 것을 설명했지만

English: 
There are a lot of things that make diagonal matrices much nicer to work with.
One big one is that
it's easier to compute what will happen if you multiply this matrix by itself a whole bunch of times.
Since all one of these matrices does is scale each basis vector by some eigenvalue,
applying that matrix many times, say 100 times,
is just going to correspond to scaling each basis vector by the 100-th power of the corresponding eigenvalue.
In contrast, try computing the 100-th power of a non-diagonal matrix.
Really, try it for a moment, it's a nightmare.
Of course, you will rarely be so lucky as to have your basis vectors also be eigenvectors,
but if your transformation has a lot of eigenvectors, like the one from the start of this video,
enough so that you can choose a set that spans the full space,
then you could change your coordinate system so that these eigenvectors are your basis vectors.
I talked about change of basis last video,

Portuguese: 
Há um monte de coisas que tornam matrizes diagonais muito mais agradáveis de se trabalhar,
uma grande motivo é que é mais fácil de calcular o que vai acontecer
se você multiplicar essa matriz por si só um monte de vezes
uma vez que tudo que uma dessas matrizes faz
é dimensionar cada vetor da base por algum autovalor.
Aplicando essa matriz muitas vezes, digamos, 100 vezes,
é só ir para corresponder a escalar cada vetor da base
pela 100-ésima potência do valor próprio correspondente.
Em contraste, tente computar a centésima potência de uma matriz não-diagonal.
Sério, experimente por um momento,
é um pesadelo!
Claro, você raramente vai ter tanta sorte
como ter seus vetores de base como  autovetores.
Mas se a sua transformação tem um monte de autovetores,
como aquela no início deste vídeo,
o suficiente para que você possa escolher um conjunto que gera todo o espaço,
então você pode mudar o seu sistema de coordenadas
de modo que estes autovetores são seus vetores de base.
Eu falei sobre mudança de base no último vídeo,

Spanish: 
Hay muchas cosas que hacen que las matrices diagonales sean más cómodas para trabajar
Una importante es que es más facil calcular lo que pasará
si multiplicas esta matriz por sí mismo un montón de veces
puesto que todo lo que estas matrices hacen
es escalar cada vector de la base por un valor propio
Aplicando esta matriz muchas veces, digamos 100 veces
simplemente va a equivaler a escalar cada vector de la base
por la 100º potencia del valor propio correspondiente
En contraste, intenta calcular la 100º potencia de una matriz no diagonal
En serio, inténtalo
¡Es una pesadilla!
Por supuesto, rara vez tendrás la suerte
de que los vectores de tu base sean también vectores propios
Pero si tu aplicación lineal tiene muchos vectores propios
como aquella al comienzo del vídeo
suficientes como para que puedas escoger un conjunto que genere el espacio entero
entonces podrías cambiar tu sistema de coordenadas
de modo que esos vectores propios fueran los vectores de tu base
Hablé sobre los cambios de base en el anterior vídeo

German: 
aber ich werde hier noch einmal sehr schnell wiederholen,
wie man eine Transformation in unserem Koordinatensystem mit einem anderem System ausdrückt.
Man nehme die Koordinaten der Vektoren, die man als neue Basis verwenden möchte,
was, in diesem Fall, bedeutet, dass es zwei Eigenvektoren sind,
die deren Koordinaten zu den Spalten einer Matrix machen, die sogenannte Basiswechsel-Matrix.
Wenn man die ursprüngliche Transformation in die Mitte,
die Basiswechsel-Matrix auf die rechte Seite,
und die umgekehrte Basiswechsel-Matrix auf die linke Seite stellt,
ist das Ergebnis eine Matrix, die dieselbe Transformation darstellt,
aber von der Perspektive eines Koordinatensystem mit der neuen Basis.
Die Intention, das zu tun, ist, dass
diese neue Matrix garantiert diagonal ist mit den entsprechenden Eigenwerten in dieser Diagonale.
Das funktioniert, da sie die Arbeit in einem Koordinatensystem repräsentiert,
wo die Eigenvektoren durch diese Transformation nur skaliert werden.
Eine Menge von Basisvektoren, die auch Eigenvektoren sind

Modern Greek (1453-): 
αλλά θα κάνω μια πολύ γρήγορη επανάληψη εδώ
για το πώς εκφράζετε ένα μετασχηματισμό που είναι γραμμένος στο σύστημα συντεταγμένων μας σε ένα διαφορετικό σύστημα.
Πάρτε τις συντεταγμένες των διανυσμάτων που θέλετε να χρησιμοποιήσετε ως νέα βάση,
που, στην περίπτωση αυτή, σημαίνει δύο ιδιοδιανύσματα,
που κάνουν αυτές τις συντεταγμένες, τις στήλες ενός πίνακα, που είναι γνωστή ως η αλλαγή βάσης του πίνακα.
Όταν μετατρέπετε σε σάντουιτς τον αρχικό μετασχηματισμό,
θέτοντας τον πίνακα αλλαγής βάσης στα δεξιά του
και τον αντίστροφο πίνακα αλλαγής βάσης στα αριστερά του,
το αποτέλεσμα θα είναι ένας πίνακας που αντιπροσωπεύει τον ίδιο το μετασχηματισμό,
αλλά από την οπτική γωνία του νέου συστήματος συντεταγμένων των διανυσμάτων βάσης.
Ο σκοπός που το κάνουμε αυτό με τα ιδιοδιανύσματα είναι διότι
αυτός ο νέος πίνακας είναι εγγυημένα διαγώνιος, με τις αντίστοιχες ιδιοτιμές στη διαγώνιό του.
Αυτό συμβαίνει επειδή αντιπροσωπεύει το να δουλεύεις σε ένα σύστημα συντεταγμένων,
όπου αυτό που συμβαίνει στα διανύσματα βάσης, είναι ότι πολλαπλασιάζονται βαθμωτά κατά τη διάρκεια του μετασχηματισμού.
Ένα σύνολο διανυσμάτων βάσης, που είναι επίσης ιδιοδιανύσματα,

Korean: 
쓰고 있는 좌표계를 바꿔 기술할 때
변환을 어떻게 표현하는 지에 대한
아주 빠른 복습을 해봅시다
새로운 기저로 쓰고 싶은
벡터의 좌표를 가져와
(여기선 두 고유벡터가 됩니다)
행렬의 열을 구성합니다
이게 기저 행렬을 바꾸는 것입니다
바뀐 기저 행렬을 오른쪽에 두고
왼쪽에 바뀐 기저 행렬의 역을 두고
원래 변환을 사이에 끼면
같은 변환을 나타내지만
다른 기저 벡터 좌표계를 쓰는 행렬을 얻습니다
이걸 고유벡터로 하는 이유는
새로운 행렬이 대각선에 고유값들을 가지는
대각선 행렬이 되게 하기 위해서입니다
이제 기저 벡터가 변환될 때
스케일 되기만 하는 좌표계에서
작업할 수 있습니다
기저벡터이기도 한 고유벡터의 쌍은

Czech: 
Ale ještě tu stručně připomenu,
jak přeložit transformaci
z našeho souřadnicového systému do jiného.
Vezmeme souřadnice vektorů,
ze kterých chceme postavit novou bázi,
což v našem případě znamená dva vlastní vektory,
tyto souřadnice zapíšeme do sloupců matice,
které se říká matice přechodu ke standardní bázi.
Pak sem vmáčkneme původní matici transformace
nalevo od matice přechodu,
a nakonec přidáme inverzní matici k matici přechodu.
Výsledná matice reprezentuje tu samou transformaci,
ale z pohledu nového souřadnicového systému.
Tu celou záležitost jsme s vlastními vektory dělali proto,
že takhle bude matice transformace zaručeně diagonální,
a vlastní čísla budou ležet na úhlopříčce.
To proto, že pracujeme v souřadnicovém systému,
kde se všechny bázové vektory během transformace
jenom nějak vyškálovaly.
Taková množina vlastních vektorů, která tvoří bázi

Chinese: 
不过我在这里再做一次超快的回顾
说说如何在另一个坐标系中表达当前坐标系所描述的变换
取出你想用作新基的向量的坐标
在这里指的是两个特征向量
然后将坐标作为一个矩阵的列，这个矩阵就是基变换矩阵
在右侧写下基变换矩阵
在左侧写下基变换矩阵的逆
当你将原始的变换夹在两个矩阵中间时
所得的矩阵代表的是同一个变换
不过是从新基向量所构成的坐标系的角度来看的
用特征向量来完成这件事的意义在于
这个新矩阵必然是对角的，并且对角元为对应的特征值
这是因为，它所处的坐标系的基向量在变换中只进行了缩放

Polish: 
ale zrobię tutaj małe przypomnienie
jak wyrazić przekształcenie opisane w danym układzie w języku innego układu współrzędnych.
weź współrzędne wektorów które chcesz użyć jako nową bazę,
co w tym przypadku oznacza dwa wektory własne,
następnie wstaw je do kolumn macierzy, zwanej macierzą zmiany bazy.
Gdy obłożysz to początkowe przekształcenie macierzami zmiany bazy,
tzn. obliczoną macierzą po prawej
a jej odwrotnością po lewej,
to w wyniku otrzymamy macierz dającą to samo przekształcenie,
ale już w nowej bazie.
Cały cel robienia tego z wektorami własnymi jest taki, że
ta macierz na pewno będzie diagonalna, z wart. własnymi na przekątnej.
Jest tak, ponieważ działamy wtedy w układzie współrzędnych,
w którym wektory bazowe są po prostu skalowane podczas przekształcenia.
Układ wektorów bazowych, które są także wektorami własnymi,

Portuguese: 
mas eu vou passar um lembrete super rápido aqui
de como expressar a transformação
atualmente escrito em nosso sistema de coordenadas, em um sistema diferente.
Tome as coordenadas dos vetores
que você deseja usar como uma nova base
que, neste caso, são os dois autovetores,
em seguida, faça essas coordenadas como as colunas de uma matriz
conhecido como a matriz de mudança de base.
Quando você faz um sanduíche com transformação original
colocando a mudança da matriz de base à direita,
e o inverso da matriz de mudança de  base à esquerda,
o resultado será uma matriz representando aquela mesma transformação,
mas a partir da perspectiva do sistema de coordenadas dos novos vetores de base.
Todo a ponto de fazer isso com autovetores
é que esta nova matriz é garantida para ser diagonal
com os seus autovalores correspondentes ao longo da diagonal.
Isso é porque ele representa trabalhar em um sistema de coordenadas
onde o que acontece com os vetores de base
é que eles são escalados durante a transformação.
Um conjunto de vetores de base, que são também autovetores

English: 
but I'll go through a super quick reminder here
of how to express a transformation currently written in our coordinate system into a different system.
Take the coordinates of the vectors that you want to use as a new basis,
which, in this case, means are two eigenvectors,
that make those coordinates the columns of a matrix, known as the change of basis matrix.
When you sandwich the original transformation
putting the change of basis matrix on it's right
and the inverse of the change of basis matrix on its left,
the result will be a matrix representing that same transformation,
but from the perspective of the new basis vectors coordinate system.
The whole point of doing this with eigenvectors is that
this new matrix is guaranteed to be diagonal with its corresponding eigenvalues down that diagonal.
This is because it represents working in a coordinate system
where what happens to the basis vectors is that they get scaled during the transformation.
A set of basis vectors, which are also eigenvectors,

Arabic: 
لكنني سأذهب من خلال تذكير سريع جدًا هنا
كيفية التعبير عن تحويل مكتوب حاليًا في نظام الإحداثيات الخاص بنا إلى نظام مختلف.
خذ إحداثيات المتجهات التي تريد استخدامها كأساس جديد ،
والتي ، في هذه الحالة ، تعني اثنين من المتجهات الذاتية ،
التي تجعل هذه الإحداثيات أعمدة مصفوفة ، والمعروفة باسم تغيير مصفوفة الأساس.
عند شطيرة التحول الأصلي
وضع تغيير مصفوفة الأساس على حق
وعكس تغيير مصفوفة الأساس على يساره ،
ستكون النتيجة مصفوفة تمثل هذا التحول نفسه ،
ولكن من منظور نظام تنسيق ناقلات أساس جديد.
بيت القصيد من القيام بذلك مع eigenvectors هو ذلك
مضمونة هذه المصفوفة الجديدة لتكون قطري مع قيم eigen المقابلة لها أسفل هذا القطري.
هذا لأنه يمثل العمل في نظام الإحداثيات
حيث يحدث ما يحدث للمتجهات الأساسية التي يتم تحجيمها أثناء التحويل.
مجموعة من المتجهات الأساسية ، والتي هي أيضا ناقلات ،

Spanish: 
pero haré un recordatorio rápido en éste
de como expresar la aplicación
actualmente escrita en nuestro sistema de coordenadas a un sistema diferente
Toma las coordenadas de los vectores
que quieres usar como tu nueva base
la cual, en este caso, serán dos vectores propios
que forman las columnas de una matriz a partir de sus coordenadas
conocida como la matriz del cambio de base
Cuando juntas la aplicación original
poniendo la matriz del cambio de base a su derecha
y la inversa de la matriz del cambio de base a su izquierda
el resultado sera una matriz que representa esa misma transformación
pero desde la perspectiva del sistema de coordenadas de la nueva base
El objetivo de hacer esto con vectores propios
es que esta matriz será sí o sí diagonal
con sus correspondientes valores propios en la diagonal
Esto es así porque representa que trabajas en un sistema de coordenadas
donde lo que le ocurre a los vectores de la base
es que están siendo escalados durante la transformación
Un conjunto de vectores que formen una base, que además sean vectores propios

German: 
wird, wieder aus gutem Grund, "Eigenbasis" genannt.
Wenn man also die hundertste Potenz dieser Matrix berechnen muss,
ist es viel einfacher zu einer Eigenbasis zu wechseln,
die hundertste Potenz in diesem System zu berechnen
und dann zurück zu unserem Standardsystem zu konvertieren.
Man kann das allerdings nicht mit allen Transformationen machen.
Ein "Shear" beispielsweise hat nicht genug Eigenvektoren um den ganzen Raum aufzuspannen.
Aber wenn man eine Eigenbasis findet, macht es Matrixoperationen wirklich schön.
Für diejenigen, die sich durch ein ordentliches Rätsel arbeiten wollen, um zu sehen, wie das in Aktion aussieht
und wie man es benutzen kann um überraschende Ergebnisse zu erzielen, werde ich eine Angabe auf dem Bildschirm einblenden.
Es ist ein gutes Stück Arbeit, aber ich denke Ihr werdet es mögen.
Das nächste und finale Video dieser Serie wird über abstrakte Vektorräume sein.
Wir sehen und dann!

Chinese: 
一组基向量（同样是特征向量）构成的集合被称为一组“特征基”，这也非常合理
所以说，如果你要计算这个矩阵的100次幂
一种更容易的做法是先变换到特征基
在那个坐标系中计算100次幂
然后转换回标准坐标系
不是所有变换都能进行这一过程
比如说剪切变换，它的特征向量不够多，并不能张成全空间
但是如果你能找到一组特征基，矩阵运算就会变得非常轻松
对于那些愿意动笔计算的人，我在屏幕上留了一道练习
帮助你们理解矩阵幂次计算的实际过程，以及它所能带来的惊人结论
这需要下一点功夫，不过我觉得你会喜欢它的
下期，也就是最后一期视频，是关于抽象向量空间的内容
到时候再见！

Modern Greek (1453-): 
καλείται, και πάλι αρκετά λογικά, μια "ιδιοβάση".
Αν λοιπόν, για παράδειγμα, έπρεπε να υπολογίσετε την 100η δύναμη αυτού του πίνακα,
θα ήταν πολύ ευκολότερο να αλλάξετε σε μια ιδιοβάση,
να υπολογίστε την 100η δύναμη σε αυτό το σύστημα,
και στη συνέχεια να το μετατρέψετε πίσω στο κανονικό μας σύστημα.
Δεν μπορείτε να το κάνετε αυτό με όλους τους μετασχηματισμούς.
Μια διάτμιση, για παράδειγμα, δεν έχει αρκετά ιδιοδιανύσματα για να 'καλύψει' τον πλήρη χώρο.
Αλλά αν μπορείτε να βρείτε μια ιδιοβάση, κάνει τις πράξεις του πίνακα πραγματικά υπέροχες.
Για όσους από εσάς επιθυμούν να δουλέψουν μέσα από ένα πολύ όμορφο παζλ για να δουν πως μοιάζει αυτό σε δράση
και πώς μπορεί να χρησιμοποιηθεί για την παραγωγή κάποιων εκπληκτικών αποτελεσμάτων, θα αφήσω μια προτροπή εδώ, στην οθόνη.
Χρειάζεται λίγη δουλειά, αλλά πιστεύω ότι θα το απολαύσετε.
Το επόμενο και τελευταίο βίντεο αυτής της σειράς θα είναι σε αφηρημένους διανυσματικούς χώρους.
Τα λέμε τότε!

Spanish: 
se le llama, como era de esperar, una "base propia"
Así que si, por ejemplo, necesitaras calcular la 100º potencia de esta matriz
sería mucho más sencillo cambiarla a una base propia,
calcular la 100º potencia en esa base
y luego convertirla de vuelta a tu base original
No puedes hacer esto con todas las aplicaciones
Una "cizalla", por ejemplo, no tiene suficientes vectores propios para generar el espacio entero
Pero si puedes encontrar una base propia
te hace las operaciones con matrices algo realmente agradable
Para aquellos de vosotros dispuestos a resolver un puzzle bastante chulo
con tal de ver como se ve esto en acción
y cómo puede ser usado para producir algunos resultados sorprendentes
Dejaré un enunciado aquí en la pantalla.
Requiere algo de trabajo
pero creo que lo disfrutaréis.
El próximo y último vídeo de esta serie
va a ser sobre "espacios vectoriales abstractos"
¡Nos vemos hasta entonces!

Arabic: 
يسمى ، مرة أخرى ، بشكل معقول بما فيه الكفاية ، "eigenbasis".
إذا ، على سبيل المثال ، إذا كنت بحاجة إلى حساب القوة المائة عشر لهذه المصفوفة ،
سيكون من الأسهل بكثير أن تتغير إلى أيغبار ،
حساب القوة ال 100 في هذا النظام ،
ثم تحويل إلى نظامنا القياسي.
لا يمكنك فعل هذا مع كل التحولات.
على سبيل المثال ، لا يحتوي القص على ما يكفي من العناصر الذاتية لإمتداد المساحة الكاملة.
ولكن إذا كنت تستطيع إيجاد eigenbasis ، فإنه يجعل عمليات المصفوفة جميلة حقا.
لأولئك منكم على استعداد للعمل من خلال لغز أنيق جدا لنرى كيف يبدو هذا في العمل
وكيف يمكن استخدامه لإنتاج بعض النتائج المفاجئة ، سأترك موجه هنا على الشاشة.
يتطلب الأمر بعضًا من العمل ، ولكنني أعتقد أنك ستستمتع به.
سيكون الفيديو التالي والأخير من هذه السلسلة على مساحات ناقلات مجردة.
اراك لاحقا!

Czech: 
se z pochopitelných důvodů nazývá "vlastní báze".
Takže když třeba potřebujete spočítat stou mocninu takovéhle matice,
bude mnohem jednodušší přejít k vlastní bázi,
spočítat stou mocninu v těchto souřadnicích,
výsledek přeložit zpátky do standardního systému.
To se nedá udělat se všemi transformacemi.
Třeba zkosení nemá dost vlastních vektorů, které by generovaly celý prostor.
Ale když najdete vlastní bázi,
jsou maticové operace miloučké.
Pro ty, co jsou ochotni si promyslet pěknou úlohu,
aby to všechno viděli v akci,
a podívali se na netriviální výsledek,
tu nechám něco na obrazovce.
Dá to trochu práce,
ale doufám, že si to užijete.
Příští a poslední video téhle série
bude o "abstraktních vektorových prostorech".
Nashle příště!

English: 
is called, again, reasonably enough, an "eigenbasis".
So if, for example, you needed to compute the 100-th power of this matrix,
it would be much easier to change to an eigenbasis,
compute the 100-th power in that system,
then convert back to our standard system.
You can't do this with all transformations.
A shear, for example, doesn't have enough eigenvectors to span the full space.
But if you can find an eigenbasis, it makes matrix operations really lovely.
For those of you willing to work through a pretty neat puzzle to see what this looks like in action
and how it can be used to produce some surprising results, I'll leave up a prompt here on the screen.
It takes a bit of work, but I think you'll enjoy it.
The next and final video of this series is going to be on abstract vector spaces.
See you then!

Korean: 
"고유 기저(eigenbasis)"라고 불립니다
만약 이 행렬의 100제곱을 계산해야 한다면
고유 기저로 바꾼 후
100제곱을 계산하고
다시 원래의 계로 전환하는 것이 훨씬 쉬울 것입니다
모든 변환에서 이게 되진 않습니다
미는 것(shear)은 모든 공간을 span하는 고유벡터가 없습니다
하지만 고유기저를 찾을 수 있다면
행렬 계산이 아주 쉬워집니다
이걸 활용해서 놀라운 결과를 내는 일을
직접 해보고 싶은 사람들을 위해
괜찮은 퀴즈를 준비했습니다
문제를 화면에 띄워 놓겠습니다
약간 힘들 수 있지만
재밌을 거라고 생각합니다
이 시리즈의 다음이자 마지막 영상은
"추상 벡터 공간(abstract vector spaces)"에 대한 것입니다
다음에 봐요!

Portuguese: 
é chamado, novamente com muita razão, uma “autobase” [base de autovetores].
Assim, se, por exemplo, que você precisava calcular a 100-ésima potência desta matriz,
seria muito mais fácil mudar para uma autobase
calcular o poder 100º nesse sistema
em seguida, converter de volta para o 
nosso sistema padrão.
Você não pode fazer isso com todas as transformações.
Um cisalhamento, por exemplo, não tem autovetores suficientes para se estender por todo o espaço.
Mas se você puder encontrar uma autobase,
ela faz as operações matriciais realmente adoráveis.
Para aqueles dispostos a trabalhar em um quebra-cabeça muito legal
para ver o que esta parece em ação
e como ele pode ser usado para produzir alguns resultados surpreendentes.
Vou deixar um prompt aqui na tela.
É preciso um pouco de trabalho
mas acho que você vai gostar.
O próximo e último vídeo desta série
vai ser em “espaços vetoriais abstratos”.
Vejo você lá!
"Tome a seguinte matriz: A = 
0 1
1 1
E comece a computar as primeiras potências à mão, A², A³, etc. Que padrão você vê? Você pode explicar o surgimento deste padrão?
Isto pode torná-lo curioso para saber se há uma maneira eficiente de se computar potências arbitrárias desta matriz A^n, para qualquer n.
Dado que os dois autovetores desta matriz são 
v1 = [2, 1+√5] e v2 = [2, 1-√5],

Polish: 
nazywa się bazą złożoną z wektorów własnych (po polsku brzmi to trochę gorzej niż angielskie eigenbasis)(przyp. tłumacza)
Zatem jeśli, na przykład, trzeba obliczyć setną potęgę macierzy,
to o wiele łatwiej zmienić jest bazę na bazę z wekt. własnych,
obliczyć setną potęgę w tej bazie,
a następnie wrócić do naszego początkowego układu.
Niestety nie z wszystkimi przekształceniami tak się da.
Naprężenie, o którym mówiliśmy, nie ma wystarczająco wektorów własnych, aby rozpiąć przestrzeń.
Ale jeżeli możemy znaleźć bazę z wekt. własnych, to operacje na macierzy są bardzo przyjemne.
Jeżeli chcecie rozwiązać małą zagadkę i zobaczyć całą tę teorię w praktyce,
oraz jak ciekawe i zaskakujące wyniki może ona dać, zostawię na ekranie zadanko.
Wymaga ciut pracy, ale myślę że wam się spodoba.
Następny, ostatni film z serii będzie o abstrakcyjnych przestrzeniach liniowych.
Do zobaczenia wtedy!

Portuguese: 
veja se você consegue imaginar uma forma de computar A^n migrando para uma autobase,
computando a representação de A^n naquela base e depois voltando para a base original.
O que esta fórmula lhe diz?"
