
Czech: 
Zeptat se na správnou otázku je těžší než na ni odpovědět. -- Georg Cantor
 
Jak už jste asi pochopili, těžiště této série tkví ve vnímání operací
s vektory a maticemi
prostřednictvím vizuálního pohledu lineárních transformací.
V tomhle videu tomu nebude jinak, vysvětlíme si inverzní matici,
sloupcový prostor, hodnost a jádro z tohoto úhlu pohledu.
Upozornění: Nebudu mluvit o algoritmech, jak se tyhle věci skutečně počítají,
 
a někdo by mohl namítat, že jsou dost důležité.
Na Internetu můžete najít dost dobrých zdrojů, kde se tyhle postupy můžete naučit,
klíčová slova: "Gaussova eliminační metoda" a "řádkově odstupňovaný tvar matice".
Myslím, že nejhodnotnější bude předat tu polovinu týkající se intuice.
Navíc v praxi obvykle pro výpočty najdete software který to spočítá za vás.
Na začátek řeknu pár slov o užitečnosti lineární algebry.
Zatím tušíte, jak se s ní popisují manipulace
s prostorem,

Arabic: 
كما يمكنك أن تقول الآن ، الجزء الأكبر
من هذه السلسلة هو على فهم المصفوفة
وعمليات ناقلات
من خلال هذه العدسة البصرية أكثر من التحولات الخطية.
هذا الفيديو ليس استثناء ، واصفا
مفاهيم المصفوفات العكسية ،
الفضاء العمود ، رتبة ، والفضاء من خلال
تلك العدسة.
تحذير مسبق: لن أتحدث
حول طرق حوسبة هذه بالفعل
الأشياء،
وقد يجادل البعض بأن هذا مهم جدًا.
هناك الكثير من الموارد الجيدة جدا
تعلم هذه الأساليب خارج هذه السلسلة.
الكلمات الرئيسية: "القضاء الغاوسي" و "الصف
شكل القيادة ".
أعتقد أن معظم القيمة أنني في الواقع
يجب أن تضيف هنا في النصف الحدس.
بالإضافة إلى ذلك ، من الناحية العملية ، عادةً ما نحصل على برامج
لحساب هذه الاشياء بالنسبة لنا على أي حال.
أولا ، بضع كلمات حول فائدة الخطية
الجبر.
الآن ، لديك بالفعل تلميحًا لكيفية حدوث ذلك
تستخدم في وصف التلاعب
الفراغ،

French: 
Poser la bonne question
est plus difficile que d'y répondre.
~ Georg Cantor
Comme vous avez pu le constater, le coeur de cette serie est la compréhension des matrices
et opérations vectorielles
à travers cet aspect visuelle de transformations linéaires.
Cette vidéo ne fait pas exception, décrivant le concept d'inverse de matrice,
d'image, de rang, et de noyau à travers cet aspect.
Attention cependant : je ne vais pas parler de méthodes de calcul
et certains diront que c'est assez important.
Il y a des tas de très bonnes ressources pour apprendre ces méthodes en dehors de cette série.
Mots-clés: « Élimination de Gauss-Jordan » et « Matrice Échelonnée » .
Je pense que la majeur partie de la valeur ajoutée ici est du coté de l'intuition.
De plus, dans la pratique, nous utilisons généralement des logiciels pour calculer ce genre de choses pour nous.
Tout d'abord, quelques mots sur l'utilité de l'algèbre linéaire.
Jusque maintenant, vous devriez déjà entrevoir comment elle est utilisée pour décrire la manipulation de l'espace

Korean: 
지금쯤이면 아마도 알거야
이 동영상 시리즈의 대부분이 행렬과 벡터연산의 이해를
선형변환의 시각화 렌즈를 통해서 본거지.
이 동영상도 마찬가지야.
역행렬(inverse matrix) 개념을 설명할때나
열공간, 계수(rank), 영공간(null space) 설명할때도 그런 렌즈를 통해서 설명할거야.
미리 말해두건대,
이런 것들을 실제 계산하는 방법에 대해서는 다루지 않을거야.
누구에게는 그게 꽤 중요할 수도 있지만.
다른 동영상들을 찾아보면
그런 계산법을 다루는 좋은 게 많이 있을거야.
검색할때 키워드로 "가우스 소거법(Gaussian elimination)" 나 "Row echelon form" 이라고 검색해봐.
내가 여기서 설명하려고 하는 것,
나머지 직관부분이 더 중요하다고 생각해.
또, 실제로 이런 것들을 계산해주는 소프트웨어를 보통 구할 수 있어.
우선, 선형대수의 유용성에 몇마디 말하자면
지금쯤이면 너는 이미 공간의 조작에 대한 설명이라는 힌트는 가지고 있을거야.

Spanish: 
Hacer la pregunta correcta es más difícil que responderla.
-George Cantor
Como se habrán dado cuenta, la mayor parte de la serie consiste en entender las operaciones matriciales y vectoriales
a través del lente de las transformaciones lineales.
Este video no es ninguna excepción, describiendo los conceptos de matriz inversa,
espacio de columna, rango y núcleo a través de ese lente.
Pero antes les advierto, no voy a hablar de los métodos para en realidad computar estas cosas,
y algunos argumentarán que eso es bastante importante.
Hay muchos buenos recursos para aprender esos métodos fuera de esta serie.
Busquen: "eliminasión gaussiana" y "forma escalonada reducida por columnas".
Yo creo que el valor que de verdad puedo agregar
 es en la parte de la intuición.
Además, en la práctica, usualmente tenemos software que computan estas cosas por nosotros de todas maneras.
Primero, unas palabras sobre la utilidad del álgebra lineal.
A estas alturas ya tienen una idea de cómo se usa para describir la manipulación del espacio,

Polish: 
Jak już zapewne zauważyłeś, kładę w tych filmach nacisk na rozumienie macierzy i operacji wektorowych
z użyciem wyobraźni przestrzennej.
Ten film nie będzie wyjątkiem, omawiając koncepcje odwracania macierzy,
przestrzeni kolumn, rzędu i pustej przestrzeni w ten sposób.
Uprzedzę jednak:nie zamierzam mówić o metodach obliczeniowych,
a niektórzy będą argumentować że to bardzo ważne.
Jest bardzo dużo dobrych materiałów omawiających metody obliczeniowe poza tą serią filmów.
Słowa kluczowe: "eliminacja gaussa" i "macierz schodkowa"
Uważam że najwięcej mogę tu dodać w kwestii intuicji.
Dodatkowo - w praktyce - zazwyczaj mamy programy które to za nas obliczają.
Na wstępie kilka słów o użyteczności algebry liniowej.
Póki co, masz już odczucie jak jest używana do opisu manipulacji przestrzennej,
co jest przydatne w temacie grafiki komputerowej i robotyki,

Turkish: 
Doğru soruyu sormak,
Soruyu sormaktan daha zordur.
 
 
 
~ Georg Cantor
Şu ana kadar ki anlatma biçimimden anlamış olduğunuz gibi, maktrix ve
vektörler ile ilgili işlemleri
doğrusal cebirin görsel yanı ile anlatmaya çalışıyorum.
Bu video da farklı olmayacak. Ters Matrix kavramını,
Sütun Uzayı, mertebe ve boş uzay kavramlarını da
görsel bir şekilde ele alacağım.
Bu arada peşinen uyarayım: bunları hesaplamanın nasıl yapıldığını anlatmayacağım...
 
bazılarınız bunun oldukça önemli olduğunu iddia edebilir..
Ama bunları öğrenmek için bir sürü başka kaynak
bulabilirsiniz..
Anahtar sözcükler: "Gaus eliminasyonu" "satır dizilimli biçim"
Benim konuya katkı sağlamak istediğim nokta
daha ziyade kavramakla ilgili kısım.
Artı, pratikte, genellikle bu hesaplamalar için zaten bilgisayar kullanmaktayız..
ilk olarak doğrusal cebirin kullanışlılığı hakkında
konuşmak istiyorum.
Şu an itibariyle, bu işlemlerin uzayı nasıl büktüğümüzü betimlemek için nasıl kullanıldığını biliyorsunuz
 

English: 
As you can probably tell by now, the bulk
of this series is on understanding matrix
and vector operations
through that more visual lens of linear transformations.
This video is no exception, describing the
concepts of inverse matrices,
column space, rank, and null space through
that lens.
A forewarning though: I'm not going to talk
about the methods for actually computing these
things,
and some would argue that that's pretty important.
There are a lot of very good resources for
learning those methods outside this series.
Keywords: "Gaussian elimination" and "Row
echelon form."
I think most of the value that I actually
have to add here is on the intuition half.
Plus, in practice, we usually get software
to compute this stuff for us anyway.
First, a few words on the usefulness of linear
algebra.
By now, you already have a hint for how it's
used in describing the the manipulation of
space,

iw: 
לשאול את השאלה הנכונה היא יותר קשה מלענות עליה - ג'ורג' קאנטור(מתמטיקאי יהודי ואבי תורת הקבוצות)
-כפי שאתה יכול להבין עד עכשיו, מרבית הסידרה(סירטונים) היא על הבנת המטריצה
והפעולות הוקטוריות
בעזרתן קיבלנו יותר עדשות שונות דרכן ראינו של מהן טרנספורמציות לינאריות.
הסירטון הזה לא יוצא דופן, מתואר בו הרעיונות של מטריצות הפיכות.
מרחב העמודה, דרגה ומרחב הגרעין דרך אותן עדשות.
הנה אזהרה מוקדמת: אני לא הולך לדבר על השיטות איתן אפשר לחשב את
הדברים הללו,
וחלק מהאנשים יטענו שזה דיי חשוב.
יש הרבה מקורות טובים כדי ללמוד את השיטות הללו שהן לא במסגרת הסירטונים הללו.
מילות מפתח: "דירוג מטריצות" ו"מטריצה מדורגת קנונית".
אני חושב שעיקר הערך שהוספתי כאן הוא מהצד האינטואיטיבי של החשיבה.
בנוסף, באופן מעשי, אנחנו בדרך כלל משתמשים בתוכנה לחשב דברים כאלה בכל מקרה.
קודם, מספר מילים על השימושיות של אלגברה לינארית.
עד עכשיו, אתה כבר קיבלת רמז על איך משתמשים באלגברה לינארית לתיאור השינוי של
המרחב,

Portuguese: 
"Fazer a pergunta certa é mais difícil 
do que respondê-la" -- Georg Cantor
Como você vem observando, a maior parte desta série está na compreensão de matrizes.
e de operações com vetores
através de uma forma mais visual das transformações lineares.
Este vídeo não é exceção, descrevendo os conceitos de matrizes inversas,
espaços colunas (espaço imagem), posto e espaço nulo (núcleo) de forma visual.
Um aviso prévio: eu não vou falar sobre os métodos para implementar computacionalmente esses
conceitos.
Alguém até poderia argumentar que tal implementação seria muito importante.
Existem muitas boas fontes para aprender a como implementar esses métodos além do material aqui paresentado.
Palavras chaves: "Eliminação de Gauss" e "Escalonamento de Linhas"
Eu acredito que o maior valor que eu tenho para agregar aqui é na parte intuitiva.
Além disso, na prática, nós usualmente utilizamos programas para computar esses métodos.
Primeiramente, algumas palavras sobre a utilizade da Algebra Linear.
Por hora, você já tem uma ideia de como isso é usado para descrever a manipulação do
espaço,

Russian: 
Гораздо сложнее задать правильный вопрос, чем ответить на него. - Георг Кантор
Как вы уже смогли догадаться, основная тема в этом видео -
 понимание операций с матрицами и векторами
в более визуальном ключе - через призму линейных преобразований
Это видео не является исключением, ведь здесь мы описываем 
понятия обратных матриц,
пространства столбцов, ранга и линейной оболочки ('нулевого пространства")
Предупреждение: я не буду говорить о методах вычисления этих вещей
несмотря на то, что некоторые посчитают это очень важным.
Есть много хороших ресурсов для
изучения методов вычисления вне этого курса.
Ключевые слова: «Метод Гаусса» и "Треугольная форма" (или "Ступенчатый вид по строкам")
Я думаю, что здесь я могу больше рассказать об интуитивной стороне вопроса.
Кроме того, на практике у нас обычно есть компьютерные программы, для того чтобы все это вычислять.
Во-первых, несколько слов о пользе линейной алгебры
К настоящему времени у вас уже есть подсказка к тому, как это
используется при описании манипуляций с пространством

Portuguese: 
Fazer a pergunta certa é mais difícil que respondê-la.
Como você já deve ter percebido,
o essencial desta série está no entendimento
das operações sobre matrizes e vetores
através de uma representação visual 
das transformações lineares.
Este vídeo não é uma exceção, descrevendo 
os conceitos de matrizes inversas,
espaço coluna, posto (rank) e espaço nulo
através de representações visuais.
É importante esclarecer que não vou falar sobre 
como realmente calcular estas coisas
e algumas pessoas argumentariam 
que isso é muito importante.
Há recursos muito bons para
aprender esses cálculos fora desta série.
Procure por: "eliminação de Gauss" 
e "matriz escalonada".
Eu acho que minha maior contribuição aqui 
é na parte da intuição
Além disso, na prática, nós usamos softwares
para calcular essas coisas.
Primeiro, algumas palavras sobre
a utilidade da álgebra linear.
Até agora, você já tem uma ideia de como ela é utilizada para descrever a manipulação do espaço,

German: 
Wie ihr inzwischen vermutlich erkennst, liegt der Fokus dieser Serie auf dem Verstehen von Matrix-
und Vektor-Operationen
mithilfe des visuelleren Blickwinkels linearer Abbildungen
Dieses Video ist keine Ausnahme, denn es beschreibt Konzepte von Inversen,
Lösungsraum ("Spaltenraum"), Rang und Kern anhand dieses Blickwinkels.
Vorwarnung: Ich werde nicht über die eigentlichen Berechnungsmethoden
für diese Dinger reden
und manche würden sagen, dass das recht wichtig sei.
Es gibt viele andere sehr gute Quellen, um diese Methoden abseits dieser Reihe zu lernen.
Stichwörter: "Gauss'sches Eliminationsverfahren" und "Stufenform".
Ich denke, der meiste Mehrwert, den ich vermitteln kann, liegt auf der intuitiven Seite.
Außerdem berechnet das in der Realität sowieso meistens ein Programm für uns.
Zunächst ein paar Worte über die Nützlichkeit von linearer Algebra.
Mittlerweile haben Sie bereits eine Vermutung, dass es für die Beschreibung von Raummanipulationen
benutzt wird,

Chinese: 
估计你现在也了解到了
这个系列的大部分旨在透过直观的线性变换来理解矩阵与向量运算
这个视频也不例外
我们要透过线性变换来了解逆矩阵、列空间、秩和零空间的概念
预先提醒一下，我并不打算讨论计算的方法
即便你们有人会说这部分很重要
这个系列外还有很多优质资源帮助你学习这些方法
例如关键字“高斯消元法”和“行阶梯型”
我认为我最需要在这里添加的是直觉这一部分
再说，实践中我们有软件来计算这些东西
首先说一说线性代数的有用之处
目前你已经体会到它能用来描述对空间的操纵

Danish: 
Som du sikkert har opdaget nu, handler hovedparten af ​​denne serie om at forstå matrix- og vektoroperationer
gennem en mere visuel linse af lineære transformationer.
Denne video er ingen undtagelse, og beskriver begreberne inverse matricer,
søjlerum, rang, og nulrum gennem denne linse.
En lille advarsel dog: Jeg har ikke tænkt mig at tale om metoder til rent faktisk at beregne disse ting,
og nogle vil hævde, at det er temmelig vigtigt.
Der er mange meget gode ressourcer til at lære disse metoder uden denne serie.
Nøgleord: "Gauss elimination" og "Reduceret echelon form."
Jeg tror, ​​at intuitionen er der hvor jeg tilfører mest værdi.
Plus, i praksis, får vi normalt software til at beregne disse ting for os alligevel.
Først et par ord om nytten af ​​lineær algebra.
Du har allerede nu en idé om, hvordan det bruges til at beskrive manipulation af rummet,
som er nyttig til ting som computergrafik og robotteknik,

Chinese: 
正如你們現在也許可以講得出，這個系列，
通過更多綫性變換的視覺透鏡，
而在於懂得j矩陣和矢量的各種運算。
這個錄像也不例外，通過那個透鏡描述
反矢量，列空間，秩，和零空間的概念。
但有個預先警告：我不講實際計算它們的
而有些人會說那開始相當重要的。
在這個系列之外有很多來學習那些方法很好的資源。
查關鍵詞：“Gaussian elimination(高司消除法)”和“Row echolon form”
我想在我實際加在這裏的大部分的價值是在直覺方面的。
再加上，在實際中，我們可是通常用軟件來計算這些東西的。
首先，講幾句綫性代數的用処。
到了現在，你們已經對它怎樣
用在描述空間上有了一點提示

iw: 
שמאוד שימושי לדברים כמו מחשב, גראפיקה ורובוטיקה,
אבל אחת הסיבות העיקריות שאלגברה לינאריות היא יותר ישימה במובן הרחב
ודרושה עבור כמעט כל תחום טכני של מחקר ,
זה שהיא נותנת לך לפתור מערכות מסויימות של משוואות.
כשאני אומר "מערכות של משוואות", אני מתכוון שיש לך רשימה של פרמטרים(משתנים), דברים שאתה לא
יודע,
ורשימה של משוואות שקשורות אליהם.
בהרבה מקרים, המשוואות הללו נהיות מאוד מסובכות,
אבל, אם יש לך מזל, אתה תשתמש בצורה מיוחדת.
שבתוך כל משוואה, הדבר היחידי שקורה לכל משתנה הוא שהוא מוכפל בסקלר ע"י
קבוע כלשהו,
והדבר היחידי שקורה לאותם משתנים שמוכפלים בסקלר, הם שמתווספים
אחד לשני.
לא, בלי אקספוננט או משוואות מוזרות אחרות, או הכפלת שני משתנים אחד בשני; דברים כאלה.
הדרך הרגילה לארגן מערכת מיוחדת כזאת של משוואות
היא "לזרוק" את כל המשתנים לצד שמאל,
ולהשים קבועים כלשהם מצד ימין שלהם.
זה גם מאוד נחמד לסדר את כולם בצורה אנכית בעמודה,

Chinese: 
那就是對像計算機圖象和機器人之類的東西是有用的。
但綫性代數是更廣汎的用處和幾乎
任何的技術學科都需要的，
是它讓我們來解某些方程組。
在我說到“方程組”的時候，我的
意思是你有一批變量，你所不知道的
東西，和一組把它們聯係起來的方程。
在很多情況下，這些方程可以是很複雜的，
但是，如果你運氣好，他們可以是某種特殊的形式。
在每個方程裏，對每個變量唯一做的事
就是乘以了一個不變的係數，
而對每一個乘了係數的變量唯一做的事
它們互相相加。
因此，沒有指數或者花妙的函數，或者把兩個變量相乘起來那樣的事情。
組織這樣的特殊的方程系統的典型方法
是把所有變量放到左邊，
並把餘下的常數放在右面。
把同樣的變量豎直對好也是很好的，

English: 
which is useful for things like computer graphics
and robotics,
but one of the main reasons that linear algebra
is more broadly applicable,
and required for just about any technical
discipline,
is that it lets us solve certain systems of
equations.
When I say "system of equations," I mean you
have a list of variables, things you don't
know,
and a list of equations relating them.
In a lot of situations, those equations can
get very complicated,
but, if you're lucky, they might take on a
certain special form.
Within each equation, the only thing happening
to each variable is that it's scaled by some
constant,
and the only thing happening to each of those
scaled variables is that they're added to
each other.
So, no exponents or fancy functions, or multiplying
two variables together; things like that.
The typical way to organize this sort of special
system of equations
is to throw all the variables on the left,
and put any lingering constants on the right.
It's also nice to vertically line up the common
variables,

Portuguese: 
o que é útil para coisas como computação gráfica e robótica
mas uma das razões principais da álgebra linear ser aplicada de forma mais abrangente
e requisitada para qualquer disciplina técnica
é que ela nos permite resolver certos
 sistemas de equações.
Quando eu digo "sistemas de equações", eu quero dizer que você tem uma lista de variáveis, coisas que você não
conhece
e uma lista de equações relacionando-as
Em muitas situações, essas equações
 podem ser bem complicadas
mas, se você tem sorte, elas podem 
estar em uma certa forma especial
Em cada equação, a única acontecendo com cada variável é que ela está sendo escalada (multiplicada) por
alguma constante
e a única coisa acontecendo com aquelas variáveis escaladas é que elas estão sendo somadas
umas às outras.
Então, sem expoentes ou funções chiques, ou multiplicação de duas variáveis; coisas assim.
A forma típica de organizar esse tipo especial de sistemas de equações
é colocar todas as variáveis na esquerda
e colocar qualquer constante "sobrando" na direita.
Também é bom alinhar verticalmente as variáveis comuns

Polish: 
ale jednym z głównych powodów dla których algebra liniowa jest szeroko stosowana,
i wymagana w zasadniczo każdej dziedzinie technicznej,
jest to że pozwala nam rozwiązywać pewne układy równań.
Kiedy mówię "układ równań", mam na myśli iż mamy zbiór zmiennych które musimy odgadnąć,
i zbiór równań opisujących je.
W wielu przypadkach te równania mogą stać się bardzo złożone,
ale, przy odrobinie szczęścia, mogą przyjąć pewną specjalną formę.
W każdym równaniu jedyną rzeczą która dotyka każdej zmiennej jest to że skaluje się przez pewną stałą,
a jedyną rzeczą która spotyka te przeskalowane zmienne jest to że dodają się do siebie.
Zatem, żadnych potęg lub dziwnych funkcji, mnożenia zmiennych przez siebie - ani innych takich rzeczy.
Zwyczajowym sposobem opisu tego systemu równań
jest ułożenie wszystkich zmiennych po lewej,
i pozostawienie stałych po stronie prawej.
Jest również wygodne ułożenie w jednej kolumnie tych samych zmiennych,
a by to osiągnąć czasem trzeba dodać zerowe współczynniki.

Turkish: 
Ki bu genelde bilgisayar grafiklerinde ve robotik işlerde kullanılıyor demiştik.
Fakat doğrusal cebirin daha geniş ölçekte yararlı olmasını sağlayan ana nedenlerden birisi,
tüm teknik alanlarda gerekli olmasının nedeni
bize eşitlik sistemlerini çözme konusunda yardımcı olmasıdır.
Eşitlikler derken, değerlerini bilmediğimiz değişkenler ve
ve
bu değişkenlerle ilişkilendirilmiş işlemleri ifade ediyorum.
Pek çok durumda bu eşitlikler, çok karmaşık bir hal alabilir,
ama ne şans ki, hepsini belirli bir biçime sokmamız mümkün.
Her bir eşitlikte, her değişkenin başına gelen işlem,
bir değerle genişletilmek ,
ve
ve bu esnetilen değişkenlerin toplanması şeklinde olmalıdır.
 
Tuhaf işlevler, Üstel ifadeler ya da iki değişkenin birbiri ile çarpılması gibi işlemler yok dikkat ediniz.
Bu tipteki eşitlikleri düzenlemenin bir en ideal yolu
tüm değişkenleri sola almak,
boşta kalan sayıları da sağ tarafa almaktır.
Ayrıca aynı değişkenleri alt alta getirmek de yararlı olacaktır.

Portuguese: 
que é útil para computação gráfica
e robótica, por exemplo,
mas uma das principais razões que álgebra linear
é amplamente aplicável,
e necessária em praticamente 
qualquer disciplina técnica,
é que ela nos permite resolver
certos sistemas de equações.
Quando eu digo "sistema de equações", 
quero dizer que você tem uma lista de variáveis,
coisas que você quer conhecer,
e uma lista de equações relacionadas a elas.
Em muitas situações, essas equações 
podem ser muito complicadas,
mas, se você tiver sorte,
elas podem ter uma forma especial.
Dentro de cada equação, a única coisa que
está acontecendo com cada variável
é que elas são dimensionadas
por constantes (escalares)
e a única coisa acontecendo com as variáveis dimensionadas é que elas são adicionadas entre si.
Portanto, não há expoentes nem funções bacanas, ou multiplicação de duas variáveis; coisas desse tipo.
A forma como geralmente organizamos
esse tipo especial de sistema de equações
é colocar todas as variáveis ​​do lado esquerdo,
e colocar quaisquer constantes restantes à direita.
Também é bom alinhar verticalmente 
as variáveis comuns

Spanish: 
lo cual es útil para cosas como gráficos de computadora y robótica,
pero una de las razones por la que el álgebra lineal es ampliamente aplicable
y requerida para casi cualquier disciplina técnica,
es que nos permite resolver ciertos sistemas de ecuaciones.
Cuando digo "sistemas de ecuaciones", quiero decir que tienen una lista de variables, cosas que no conocen,
y una lista de ecuaciones vinculándolas.
En muchas situaciones esas ecuaciones se pueden volver muy complicadas,
pero, si tienes suerte, puede que tomen una forma especial.
Dentro de cada ecuación, lo único que le ocurre a cada variables es que es "escalada" por alguna constante
y lo único que le ocurre a cada una de esas variables escaladas es que se suman mutuamente.
Por lo tanto, no hay exponentes o funciones  complicadas, o dos variables multiplicándose; cosas como esa.
La forma típica de organizar este tipo especial de sistemas de ecuaciones
es poner todas las variables a la izquierda
y dejar las constantes sobrantes a la derecha.
También es bueno alinear las variables comunes verticalmente

Arabic: 
وهو أمر مفيد لأشياء مثل رسومات الحاسوب
والروبوتات ،
لكن أحد الأسباب الرئيسية للجبر الخطي
هو أكثر قابلية للتطبيق على نطاق واسع ،
ومطلوبة فقط عن أي تقنية
تهذيب،
هو أنه يتيح لنا حل بعض أنظمة
المعادلات.
عندما أقول "نظام المعادلات" ، أعني أنت
لديك قائمة من المتغيرات ، الأشياء التي لا تفعلها
أعرف،
وقائمة بالمعادلات المتعلقة بها.
في كثير من الحالات ، يمكن لهذه المعادلات
معقد للغاية ،
ولكن ، إذا كنت محظوظا ، قد يأخذون على
شكل خاص معين.
داخل كل معادلة ، الشيء الوحيد الذي يحدث
لكل متغير هو أنه يتم قياسه من قبل البعض
ثابت،
والشيء الوحيد الذي يحدث لكل واحد من هؤلاء
المتغيرات التي تم قياسها هي تلك التي تمت إضافتها إليها
بعضهم البعض.
لذلك ، لا دعاة أو وظائف الهوى ، أو ضرب
اثنين من المتغيرات معا ؛ أشياء من هذا القبيل.
الطريقة النموذجية لتنظيم هذا النوع من الخاص
نظام المعادلات
هو رمي كل المتغيرات على اليسار ،
ووضع أي ثوابت باقية على اليمين.
من الجميل أيضًا أن يصطف رأسيًا بشكل عام
المتغيرات،

German: 
was praktisch ist für Dinge wie Computergrafik und Robotik,
aber einer der Hauptgründe, dass Lineare Algebra breiter anwendbar ist
und für nahezu jede technische Disziplin benötigt wird,
ist, dass sie uns bestimmte Systeme von Gleichungen lösen lasst.
Wenn ich Gleichungssysteme sagen, meine ich, dass ihr eine Liste von Variablen habt, Sachen,
die ihr nicht kennt,
und Gleichungen, die diese verwenden.
In vielen Situationen können diese Gleichungen sehr kompliziert werden,
aber mit etwas Glück nehmen sie eine bestimmte besondere Form an.
In jeder Gleichung ist jede Variable nur  um irgendeine
Konstante skaliert,
und das Einzige, was mit den skalierten Variablen gemacht wird, ist dass sie aufeinander
aufaddiert werden.
Also, keine Exponenten oder besondere Funktionen, oder Multiplikation zweier Variablen, oder derartiges.
Der typische Weg, um dieses spezielle Gleichungssystem zu organisieren,
ist, alle Variablen nach links zu packen,
und alle übrigen Konstanten nach rechts.
Es ist auch schön, die gemeinsamen Variablen untereinanderzuschreiben,

Danish: 
men en af ​​de vigtigste årsager til, at lineær algebra er mere bredt anvendelig,
og krævet indenfor næsten enhver teknisk disciplin,
er, at det lader os med at løse visse systemer af ligninger.
Når jeg siger "system af ligninger," mener jeg, du har en liste over variabler, ting, du ikke kender,
og en liste over ligninger vedrørende dem.
I mange situationer kan disse ligninger blive meget komplicerede,
men, hvis du er heldig, kan de se ud på en bestemt særlig form.
Inden for hver ligning, er det eneste, der sker med hver variabel, dét at den er skaleres med en konstant,
og det eneste, der sker til hver af disse skalerede variabler er, at de er lægges sammen.
Så ikke noget med eksponenter eller smarte funktioner eller at gange to variabler sammen; den slags ting.
Den typiske måde at organisere denne form for særlige ligningssystemer
er at skrive alle variabler til venstre,
og skrive de resterende konstanter til højre.
Det er også rart at centrere de fælles variable lodret under hinanden,
og for at gøre det, er du måske nødt til at skrive nogle nulkoefficienter, der hvor variablen ikke vises i en af ​​ligningerne.

Chinese: 
这对计算机图形学和机器人学很有用
但是线性代数在几乎所有技术领域中都有所体现
并被广泛应用的一个主要原因是
它能帮助我们求解特定的方程组
当我说“方程组”时
我是在说你有一系列未知量和一系列与之相关的方程
大部分情况下，这些方程会显得非常复杂
但如果你幸运的话，它们可能具有一个特定的形式
在每一个方程中，所有的未知量只具有常系数
这些未知量之间只进行加和
也就是说没有幂次，没有奇怪的函数，没有未知量间的乘积等等
要整理这一特定的方程组，一个典型的方法是
将未知量放在等号左边
剩余的常数项放在等号右边
并且将同一个未知量竖直对齐也是极好的

Russian: 
(а эти операции полезны для таких вещей, как компьютерная графика
и робототехника)
но одна из основных причин большей применимости линейной алгебры,
и того, почему она требуется практически для любой технической специальности,
заключается в том, что она позволяет нам решать некоторые системы
уравнений.
Когда я говорю «система уравнений», я имею в виду вот что. 
У вас есть список переменных
(величины, которые вам неизвестны)
и список уравнений, связывающих их.
Во многих ситуациях эти уравнения могут
становиться очень сложными,
но, если вам повезет, они могут принять один конкретный внешний вид.
Единственное, что происходит с
каждой переменной в уравнении - умножение ее на какую-то константу.
и вот то, что происходит с каждым таким произведением переменной и числа - они складываются между собой
Таким образом, у нас нет никаких экспонент, странных функции, перемножения
нескольких переменных и под.
Типичный способ организации такого рода специальных
систем уравнений
это перебросить все переменные влево
и поместить все отбившиеся константы вправо
Также удобно вертикально выстраивать общие
переменные,

Korean: 
컴퓨터 그래픽이나 로봇 분야에서 유용하지.
그러나 선형대수가 훨씬 광범위하게 적용가능하다고 하는 주된 이유는,
, 어떤 기술적 분야이든지 필요하다고 하는 이유는,
어떤 방정식계이든지 해결할 수 있기 때문이야.
여기서 "방정식계(system of equations)" 란,
미지수인 변수 리스트와
변수들과 관련된 방정식의 리스트를 가졌을때를 말해.
많은 상황에서, 이런 방정식들은 상당히 복잡해.
하지만, 운이 좋으면
이렇게 어떤 특정한 형태로 다룰 수 있어.
각 방정식 내에서, 각 변수들의 역할은 어떤 상수를 스케일링하는 거야.
그리고 스케일된 변수들을 서로 더하는게 전부야.
지수함수나 어떤 특이한 함수같은 건 없어.
두 변수를 서로 곱하는 것도 없고 말야.
이런 변수들을 조직화한 게 
일종의 특수한 방정식계야.
모든 변수들을 좌항으로 던지고,
오른쪽에는 상수항을 놓아.
세로 방향으로도 같은 변수끼리 열맞추는 것도 좋아.

Czech: 
což je užitečné v počítačové grafice a v robotice.
Ale hlavní důvod, proč je lineární algebra široce přijímaná
a vyžadovaná pro skoro jakýkoli technický obor,
je, že umožňuje řešit jisté soustavy rovnic.
Když řeknu "soustava rovnic", znamená to, že máme nějaké neznámé označující čísla s neznámou
hodnotou
a pak seznam rovnic, který je svazuje.
V mnoha případech jsou tyto rovnice velmi těžké,
ale, když máte štěstí, může se stát, že jsou jistého speciálního tvaru.
Jediné, co se neznámým v každé rovnici přihodí, je, že je škálujeme nějakou
konstantou,
a s těmito škálovanými neznámými pak uděláme jen to, že je sečtem
 
Takže, žádné mocnění, žádné divoké funkce, žádné násobení neznámých mezi sebou, nic takového.
Je zvykem si takovou specifickou soustavu uspořádat tak,
že proměnné hodíte nalevo
a přebývající konstanty napravo.
Taky je pěkné, když dáte stejné proměnné pod sebe do sloupečků,

French: 
ce qui est utile dans des domaines comme l'infographie et la robotique,
mais une des principales raisons pour laquelle l'algèbre linéaire est importante en pratique,
et nécessaire dans n'importe quelle discipline technique,
est qu'elle permet de résoudre certains systèmes d'équations.
Quand je dis « système d'équations » , je parle d'une liste de variables, des choses inconnues
et une liste d'équations qui les relient.
Dans beaucoup de situations, ces équations peuvent être très compliqué,
mais, si vous êtes chanceux, ils peuvent prendre une forme particulière.
Dans chaque équation, la seule chose qui se arrive à chaque variable est qu'elle soit mis à l'échelle par une certaine constante
et passe la seule chose qui arrive à chacun de ces variables mises à l'échelle est qu'elles sont additionnées entre elles.
Donc, aucune puissances ou fonctions fantaisistes, ou multiplication de deux variables ensemble.
La façon classique d'organiser ce genre de système d'équations particulier
est de placer toutes les variables sur la gauche,
et de mettre toutes les constantes restantes à droite.
Il est également préférable d'aligner verticalement les mêmes variables,

Danish: 
Dette kaldes et "lineært ligningssystem."
Du vil måske bemærke, at dette ligner matrix-vektor multiplikation meget.
Faktisk kan man samle alle ligningerne sammen til en enkelt vektorligning,
hvor du har matricen, der indeholder alle de konstante koefficienter, og en vektor, der indeholder alle variablerne,
og deres matrix-vektor produkt er lig en anden konstant vektor.
Lad os kalde matricen med konstanter for A,
og kalde vektoren der holder variablerne med en fed x,
og kalde den konstante vektor på højre side v.
Dette er mere end blot et notationstrick for at få vores system af ligninger skrevet på én linje.
Det kaster lys over en temmelig cool geometrisk fortolkning for problemet.
Matricen A svarer til en lineær transformation, så at løse Ax = v
betyder, at vi leder efter en vektor x, der, efter anvendelse af transformationen, lander på v.
Tænk over, hvad der sker her et øjeblik.

Spanish: 
y para hacer eso puede que requieran escribir algún coeficiente cero cuando sea que la variable no aparezca en una de las ecuaciones.
A esto se le llama un "sistema lineal de ecuaciones".
Puede que se den cuenta de que esto se parece mucho al producto matriz-vector.
De hecho, pueden escribir todas las ecuaciones juntas en una sola ecuación vectorial,
donde tienen la matriz que contiene todos los coeficientes constantes  y un vector que contiene las variables
y su producto matriz-vector es igual a un vector constante.
Llamemos a la matriz constante "A",
denotemos al vector que contiene las variables con una "x" en negrillas
y llamemos al vector constante de la derecha "v".
Esto es más que un truco notacional para que nuestro sistema de ecuaciones quede escrito en una línea.
Arroja luz a una interesante interpretación geométrica del problema.
La matriz "A" corresponde a alguna transformación lineal, entonces resolver Ax = v
significa que buscamos un vector "x" el cual, después de aplicar la transformación, cae en "v".

Russian: 
и для этого вам может понадобиться добавить
пару нулевых коэффициентов всякий раз, когда переменная
не появляется ни в одном из уравнений.
Это называется «линейной системой уравнений».
Вы можете заметить, что это очень похоже на
умножение матрицы на вектор.
Вообще, вы можете запаковать все уравнения
вместе в одно векторное уравнение,
где у вас есть матрица, содержащая все
постоянные коэффициенты и вектор, содержащий
все переменные,
и их матрично-векторное произведение равно некоторому
вектору с константами
Назовем эту матрицу с константами буквой A,
обозначим вектор, содержащий переменные буквой x жирным шрифтом со стрелочкой
и назовем вектор с константами в правой части уравнения v.
Возможность разместить целую систему уравнений на одной линии - не просто новая хитрая нотация.
Это проливает свет на довольно крутую геометрическую
интерпретацию нашей задачи.
Матрица А соответствует некоторому линейной
преобразованию. Поэтому решение уравнения 
Ax = v
означает, что мы ищем вектор x, который,
после применения преобразования,
оказывается совпадающим с вектором v

Turkish: 
Bunu gerçekleştirebilmek için, yanlarına sıfır koyabiliriz şayet
ilgili değişken bir eşitlikte yoksa...
Bu yapıya işte, "doğrusal eşitlik sistemleri" denmekte.
Hemen farkettiğiniz gibi, vektör matrix çarpıma benziyor bu.
Aslında gerçekten de, tüm eşitlikleri bir vektör eşitliğine çevirebiliriz,
tek yapmamız gereken, tüm katsayıları bir matrix e doldurmak ve değişkenleri de
vektör şeklinde yazmak.
Sonuç olarak bu vektör matrix çarpımı başka bir vektöre eşit olmuş olacaktır.
Hadi dilerseniz matrix'imize A ismini,
değişkenleri tutan vektöre de üzerinde ok olan x (oklu x) ismini,
sağdaki vektöre de oklu v vektörü ismini verelim.
Bu eşitlik sistemimizi tek satıra yazmak için kullanılan bir hileden ibaret değil
elbette.
Bu işlem, Problemle ilgili geometrik yorum hakkında aydınlatıcı olacaktır.
A matrix'i doğrusal bir dönüşümü ifade edeceğinden,
Ax=v çözümünü yaparken
"kendisi üzerinde dönüşüm gerçekleştirdikten sonra v noktasına düşen x vektörünü arıyoruz" gibi düşünebiliriz.
"kendisi üzerinde dönüşüm gerçekleştirdikten sonra v noktasına düşen x vektörünü arıyoruz" gibi düşünebiliriz.

Chinese: 
要做到这一点，你可能需要在某个未知量不出现时添加0这个系数
这就被称为“线性方程组”
你可能注意到了，这和矩阵向量乘法非常相似
实际上，你可以将所有的方程合并为一个向量方程
这个方程有一个包含所有常数系数的矩阵
一个包含所有未知量的向量
以及它们乘积所得到的一个常数向量
我们称系数矩阵为A
包含未知量的向量为粗体的x
右侧的常数向量为v
这不仅仅是将方程组写进一行的书写技巧
它还阐明了这个问题中优美的几何直观部分
矩阵A代表一种线性变换
所以求解Ax=v意味着我们去寻找一个向量x
使得它在变换后与v重合

Korean: 
이렇게 하다보면 숫자가 0 인 변수도 있어서
하나의 방정식에 어떤 변수가 없을때도 있지.
이렇게 놓은 것을 "선형 방정식계(linear system of equations)" 라고 해.
행렬-벡터 곱셈이랑 많이 비슷해보이는 걸 눈치챘을거야.
사실, 모든 방정식들을 하나의 벡터방정식으로 표현할 수 있어.
상수 계수만을 모아서 행렬을 만들고, 
변수들을 모아서 벡터를 만들어서
행렬 벡터 곱셈하면 다른 상수벡터랑 같아져.
상수 행렬을 A 라고 하자.
굵은 x 변수는 벡터를 나타내도록 하고
오른쪽의 상수 벡터를 v 라고 하자.
이렇게 쓴 한 줄은 선형방정식계를 짧게 표현한 것일 뿐이야.
이렇게 표현하는 것은 문제에 대해 
상당히 멋진 기하학적 해석을 들어나게 해줘.
행렬 A 는 어떤 선형변환을 나타내고,
그럼 Ax = v  를 푸는 것은
변환후에는 벡터 v 가 되는 벡터 x 가 있는지 찾아보는게 돼.

English: 
and to do that you might need to throw in
some zero coefficients whenever the variable
doesn't show up in one of the equations.
This is called a "linear system of equations."
You might notice that this looks a lot like
matrix vector multiplication.
In fact, you can package all of the equations
together into a single vector equation,
where you have the matrix containing all of
the constant coefficients, and a vector containing
all of the variables,
and their matrix vector product equals some
different constant vector.
Let's name that constant matrix A,
denote the vector holding the variables with
a boldface x,
and call the constant vector on the right-hand
side v.
This is more than just a notational trick
to get our system of equations written on
one line.
It sheds light on a pretty cool geometric
interpretation for the problem.
The matrix A corresponds with some linear
transformation, so solving Ax = v
means we're looking for a vector x which,
after applying the transformation, lands on
v.

Polish: 
Nazywamy to "liniowym układem równań".
Możemy zauważyć że bardzo przypomina to mnożenie macierzy przez wektor.
Rzeczywiście, może spakować te wszystkie równania w jedno równanie wektorowe,
w którym macierz zawiera wszystkie stałe współczynniki a wektor zawiera wszystkie zmienne,
a iloczyn tej macierzy i wektora jest równy pewnemu innemu wektorowi ze stałymi.
Nazwijmy tę macierz A,
a wektor zawierający zmienne nazwijmy x,
natomiast wektor stałych po prawej stronie v.
Jest to coś więcej niż sprytny sposób zapisu pozwalający zapisać równania w jednej linii.
Naświetla nam świetny sposób geometrycznego rozumienia tego zagadnienia.
Macierz A odpowiada pewnej transformacji liniowej, zatem rozwiązanie Ax = v
oznacza iż szukamy wektora x, który po nałożeniu transformacji, staje się v.
Zastanówmy się co tu się dzieje.

Czech: 
což může vyžadovat přidání nulových koeficientů k neznámým,
které se v rovnici nevyskytnou.
To se nazývá "soustava lineárních rovnic".
Můžete si všimnout, že to dost vypadá jako násobení matice a vektoru.
Vlastně můžete zabalit celou soustavu do jedné vektorové rovnice,
kde matice obsahuje všechny konstantní koeficienty, neznámý vektor
všechny proměnné,
a jejich součin se musí rovnat dalšímu konstantnímu vektoru.
Označme tu matici A,
neznámý vektor jako tučné x
a vektor konstant na pravé straně jako v.
Je to víc než jen trikový zápis, jak zapsat soustavu rovnic na
jeden řádek.
Objasňuje to dost drsný geometrický pohled na věc.
Matice A odpovídá nějaké lineární transformaci, takže řešení rovnice Ax = v
znamená, že hledáme vektor x, který se v této transformaci přesune na v.
 

Arabic: 
للقيام بذلك قد تحتاج لرمي
بعض معاملات الصفر كلما المتغير
لا تظهر في واحدة من المعادلات.
وهذا ما يسمى "نظام خطي من المعادلات".
قد تلاحظ أن هذا يشبه إلى حد كبير
مصفوفة ناقلات الضرب.
في الواقع ، يمكنك حزم جميع المعادلات
معا في معادلة متجه واحد ،
حيث لديك مصفوفة تحتوي على كل من
معاملات ثابتة ، وناقل يحتوي
كل المتغيرات
ومنتج ناقلاتهم المصفوفة يساوي بعض
ناقل ثابت مختلف.
دعونا اسم ذلك المصفوفة المستمرة A ،
يدل على المتجه عقد المتغيرات مع
a boldface x ،
واستدعاء المتجه المستمر على اليمين
الجانب الخامس.
هذا أكثر من مجرد خدعة
للحصول على نظام المعادلات المكتوبة
خط واحد.
يلقي الضوء على هندسية رائعة
تفسير لهذه المشكلة.
تتطابق المصفوفة A مع بعض الخطوط الخطية
التحول ، لذلك حل الفأس = الخامس
يعني أننا نبحث عن ناقل X الذي
بعد تطبيق التحول ، والارض
الخامس.

Chinese: 
而這樣做的你也許需要把一些係數
為0的放到在方程中沒有的變量。
這叫做一個“綫性方程系統。”
你們也許會注意到這個看上去很像
矩陣矢量乘法。事實上，你可以把所有的方程放進一個矢量方程，在其中你
有這矩陣包括了所有的不變的係數，和
一個矢量包括了所有的變量，
而它們的矩陣和矢量的積等於一些常數的矢量。
讓我們命名常數矩陣為A，
代表變量的矢量為x，
並把在右邊的常數矢量叫做v。
這個不只是為了要把我們的方程系統
寫成一個等式的一個字面上的一個技巧而已。
它對這問題的一種很美妙幾何解釋更容易懂得。
矩陣A對應以一些綫性變換，因此解
Ax = v 意思是我們在找一個矢量 x
對它施加這變換之後，就停在v。

French: 
quitte à rajouter des coefficients nuls lorsque la variable
ne se présente pas dans une équations.
On appelle cela un « système d'équations linéaires »
Vous remarquerez peut-être que cela ressemble beaucoup à une multiplication matrice-vecteur.
En fait, vous pouvez emballer toutes les équations ensemble dans une seule équation vectorielle,
où vous avez la matrice contenant tous
les coefficients constants, et un vecteur contenant
toutes les variables,
et le produit matrice-vecteur est égal à un certain vecteur constant.
Appelons cette matrice constante A,
notons le vecteur des variables avec un x gras,
et appelons le vecteur constant sur la droite v.
Ceci est plus qu'une simple astuce de notation réduisant le système en une ligne.
Une porte s'ouvre vers une interprétation géométrique assez cool du problème.
La matrice A correspond à une certaine transformation linéaire, ainsi résoudre Ax = v
signifie que nous recherchons un vecteur x qui, après application de la transformation, atterrit sur v

iw: 
וכדי לעשות זאת, אתה אולי תצטרך לזרוק קצת מקדמים של אפס איפה שתראה שהמשתנה
לא מופיע באחת מהמשוואות הללו.
זה נקרא " מערכת משוואות לינארית".
אתה אולי תבחין בכך שזה נראה כמו הכפלת וקטור במטריצה.
למעשה, אתה יכול לארוז את כל המשוואות יחדיו לתוך משוואה של וקטור בודד,
בעוד שהמטריצה מכילה את כל המקדמים הקבועים, הוקטור מכיל
את כל המשתנים,
והתוצר, שהוא הוקטור מטריצה שלהם - שווה לוקטור שהוא קבוע שונה כלשהו.
בוא נסמן את המטריצה הקבועה הזאת כ-A,
נסמן את הוקטור המכיל את המשתנים ב-x מודגש,
ונקרא לוקטור הקבוע מצד ימין בסימן v.
זה יותר מסתם טריק של סימון בו אנו נעזרים כדי לכתוב את המערכת
בשורה אחת.
זה שופך אור על פירוש גיאומטרי ממש מגניב עבור הבעיה הזאת.
המטריצה A מתאימה לטרנספורמציה לינארית כלשהי, כשפותרים A*x = v
הכוונה היא, שאנחנו מחפשים וקטור x, איתו, לאחר יישום הטרנספורמציה - הוא ינחת על
.v

Portuguese: 
e para isso talvez você precise adicionar
alguns coeficientes zero sempre que a variável
não apareça em uma das equações.
Isso é chamado de um "sistema de equações lineares".
Você pode notar que isto se parece muito com
multiplicação de matriz por vetor
Na verdade, você pode juntar todas as equações
em uma única equação vetorial
onde você tem a matriz contendo todos
os coeficientes constantes,
e um vetor contendo todas as variáveis,
e o produto da matriz pelo vetor é
igual a outro vetor constante.
Vamos chamar de A a matriz de constantes,
chamar o vetor de variáveis de x (em negrito),
e chamar de v o vetor constante da direita.
Isso é mais do que um simples artifício para escrever nosso sistema de equações em uma única linha.
Isso traz uma luz de uma intepretação geométrica muito bacana para o problema.
A matriz A corresponde a algumas transformações lineares, de modo que resolver Ax = v
significa que estamos procurando um vetor x que,
depois de aplicada as transformações,
param em v.

German: 
und dafür muss man eventuell ein paar Null-Koeffizienten einbauen, sobald die Variable
in einer der Gleichungen nicht auftaucht.
Das nennt man ein "Lineares Gleichungssystem".
Euch fällt vielleicht auf, dass das sehr nach einer Matrix-Vektor-Multiplikation aussieht.
Tatsächlich kann man all die Gleichungen in eine einzige Vektorgleichung verpacken,
in der die Matrix alle Koeffizienten enthält, und ein Vektor
alle Variablen,
und das Matrix-Vektor-Produkt gleich einem anderen konstanten Vektor ist.
Nennen wir die Konstanten-Matrix A,
bezeichen den Variablen-Vektor mit einem fettgeschriebenen x,
und nennen den Konstantenvektor rechts v.
Das ist mehr als nur ein Notationstrick, um unser Gleichungssystem in einer
einzigen Zeile schreiben zu können.
Es gibt Aufschluss über eine ziemlich coole geometrische Interpretation dieses Problems.
Die Matrix A korrespondiert mit irgendeiner linearen Abbildung, also bedeutet das Lösen von Ax=v,
dass wir einen Vektor x suchen, der nach Anwendung der Abbildung
auf v landet.

Portuguese: 
e para fazer isso você pode precisar colocar alguns coeficientes zeros quando uma variável
não aparece em uma das equações.
Isso é chamado sistema linear de equações.
Você pode ter percebido que isso se assemelha muito à uma multiplicação de matriz por vetor.
Na verdade, você pode agregar todas as equações juntas em uma única equação vetorial,
onde você tem a matriz contendo todos os coeficientes constantes, e um vetor contendo
todas as variáveis,
e seu produto matriz-vetor é igual a um vetor constante diferente.
Chamemos essa matriz constante de A,
denote o vetor com as variáveis x negrito,
e chame o vetor constante do lado direito de 'v'.
Isso é mais que um truque notacional para conseguir que nosso sistema de equações fique escrito em
uma linha.
Ele sugere uma interpretação geométrica muito legal para este problema.
A matriz A corresponde a uma transformação linear, então resolver Ax=v
significa que procuramos por um vetor x que, ao ser aplicado à transformação, vai parar em
v.

Portuguese: 
Pense sobre o que está acontecendo aqui
por um momento.
Você pode esquecer um pouco essa ideia realmente complicada de várias variáveis
misturando-se umas às outras
e pensar apenas em comprimir e rotacionar o espaço
para tentar descobrir qual vetor para em outro.
Legal, né?
Para começar devagar, suponha que você tem
um sistema com duas equações e duas incógnitas.
Isto significa que a matriz A é uma matriz 2x2,
e v e x são vetores bidimensionais.
Agora, como nós podemos pensar que 
as soluções para este sistema
dependem se as transformações associadas a A comprimem todo o espaço em uma dimensão menor,
como uma linha ou um ponto,
ou se elas acabam gerando o espaço bidimensional onde elas começaram.
Na linguagem do último vídeo, nós dividimos no caso no qual A tem determinante zero,
e no caso no qual A tem determinante diferente de zero.
Vamos começar com o caso mais provável, 
no qual o determinante é diferente de zero,
ou seja, o espaço não se comprime 
em um região de área zero.

Spanish: 
Piensen un momento en lo que está ocurriendo.
Pueden tener en su cabeza esta idea complicada de varias variables entremezcladas unas con otras,
pensando en cómo se deforma el espacio e intentando averiguar qué vector cae en otro vector dado.
¿Fino no?
Para empezar por lo fácil, digamos que tienen un sistema de dos ecuaciones y dos incógnitas.
Esto quiere decir que la matriz es una matriz de 2x2,
y que "v" y "x" son dos vectores bidimensionales.
Ahora, cómo pensar en la solución de estas ecuaciones
depende de si la transformación asociada a "A" comprime todo el espacio a una dimensión menor,
como una línea o un punto,
o de si termina generando todo el espacio de dos dimensiones en el cual empezó.
Usando el lenguaje del último video, subdividimos en el caso donde el determinante de "A" es cero
y el caso donde el determinante es distinto de cero.
Empecemos por el caso más probable: que el determinante es distinto de cero,
por lo cual el espacio no es comprimido en una región de área cero.

Korean: 
무슨 말인지 잠깐 생각해보자.
너는 여러 변수들 모두를 섞은 복잡한 개념을
머리속에 담으려면
그냥 공간을 변형시키는 것으로 생각하고,
어떤 벡터가 어디로 이동하는지만 찾으려고 하면 돼.
멋지지 않아?
간단하게 시작해보자, 
2개의 미지수를 가진 두개의 방정식 계를 생각해보자.
이때 행렬 A는 2 × 2 행렬이 되고,
v 와 x 벡터는 2차원 벡터가 돼.
이제, 이 방정식의 해를 찾는 방법은
행렬 A 변환이 모든 공간을 더 낮은 차원으로 축소시키는지, 선이나 점같은 공간으로,
아니면 공간 전부가 그대로 남는지를 알아보는게 시작점이야.
지난 동영상에서 다룬 말을 빌리자면,
행렬 A 의 행렬식 값이 0 인지,
아니면 0 값이 아닌지로 나누는 것과 같아.
우선은 가장 흔한 경우인 행렬식값이 0이 아닌 경우부터 살펴보자.,
공간을 제로 영역으로 축소시키지 않는 경우야.

Russian: 
Подумайте немного о том, что происходит здесь.
Вы можете держать в своей голове эту действительно сложную
идею тесной связи нескольких переменных
друг с другом
просто подумав о сплющивании или растягивании
пространства, и попытаться выяснить,
какой вектор окажется на месте другого.
Круто, правда?
Начнем с простого. Скажем, у вас есть система
с двумя уравнениями и двумя неизвестными.
Это означает, что матрица A является матрицей 2x2,
и v и x - два двумерных вектора.
Теперь, то как мы думаем о решениях этого
уравнения
зависит от ответа на следующий вопрос. Что делает преобразование, записываемое матрицей А:
оно сплющивает все пространство в пространство меньшей размерности (например, в точку или линию)?
или же оно оставляет плоскость всех возможных векторов в той же размерности?
На языке последнего видео мы подразделяем
это на два случая:
1 - А имеет нулевой определитель,
2 - А имеет ненулевой определитель
Начнем с наиболее вероятного случая, когда
детерминант отличен от нуля,
т.е. пространство не сплющивается в ноль

Chinese: 
想一想這裏發生著什麽。
你可以有這個真正複雜的所有互相混在一起的多個變量
的想法在你的頭腦裏
就想著空間的移動和變化來得出一個
矢量停留住的地方。
真好，對嗎？
開始簡單的，讓我們有一個有兩個等式和兩個未知數的。
那意思是矩陣 A 是一個2x2的矩陣，
而 v 和 x 都是一個2維的矢量。
現在，我們怎樣來考慮這個方程的解
取決於和A相關的變換是否把所有的
變到一個更低維數的空間，
像一根綫或者一個點，或者它擴展
它所在的2維空間。
用說一個錄像中的的說法，我們再把
這情況細分而在A ，和A的行列式值不為0 的情況。
讓我們以最為可能的情況說起，那就是行列式值不為0，
意思是空間沒有被壓成一個沒有面積的區域。

Turkish: 
Burada ne olduğunu bir durup düşünelim...
Kafanda, bu işlemlerin, birbirleriyle karmaşık ilişkileri olan çok değişkenli bir denklem olduğu
fikri yerine,
sadece uzayı eğip büküyor olmak gibi bir mana yaratıp hangi vektörün nerede olacağını
hesapladığını düşünebilirsin.
Müthiş değil mi?
Kolay bi başlangıç yapalım,
diyelim ki iki eşitliğimiz ve iki de bilinmeyenimiz olsun.
Bu, A matrix'i 2x2 lik bir matrix,
v ile x vektörleri de iki boyutlu vektör demek olacak.
Şimdiii, bu problemin çözümü ile ilgili olarak düşünebileceklerimiz
A matrix i ile ilişkili bu dönüşümün tüm uzayı daha düşük boyutlu bir uzaya sıkıştırıp
sıkıştıramadığına göre,
bu bir çizgi ya da nokta olabilir,
ya da uzayın başladığı gibi 2 boyutta kalıp kalmamasına göre değişir.
Son videoda öğrendiklerimize göre, iki farklı olasılık çerçevesinde düşünebiliriz.
A matrixinin determinantının sıfır olduğu durum ve sıfır olmadığı durum şeklinde.
Yüksek olasılıkla olacak olan, determinantın sıfır olmadığı durum ile başlayalım,
demek ki uzay bir çizgiye ya da noktaya çökmemiş..

Danish: 
Du kan i dit hoved holde den virkelig komplicerede idé om flere variabler alle sammenblandede med hinanden
bare ved at tænke på at klemme og strække rum og forsøge at finde ud af, hvilken vektor der lander på en anden.
Sejt, ikke?
For at starte enkelt, lad os sige du har et system med to ligninger og to ubekendte.
Dette betyder, at matricen A er en 2x2 matrix,
og v og x er hver todimensionelle vektorer.
Hvordan vi tænker på løsningerne på denne ligning
afhænger af, om transformationen i forbindelse med A klemmer hele rummet ned i en lavere dimension,
som en linje eller et punkt,
eller om det efterlader alt udspændende de fulde to dimensioner, hvor det startede.
I sprogbrugen fra forrige video, inddeler vi i det tilfælde, hvor A har determinant nul,
og det tilfælde, hvor A har determinant forskellig fra nul.
Lad os starte med det mest sandsynlige tilfælde, hvor determinanten er forskellig fra nul,
hvilket betyder rummet ikke bliver klemt ind i et område med et areal på nul.
I dette tilfælde vil der altid være en og kun en vektor, der lander på v,

Czech: 
Zamyslete se na chvíli, co se tu děje.
Můžete uchopit složitou představu několika navzájem promíchaných
neznámých
jako šoupání a tahání prostoru, a hledání vektoru, který
přistane na jiném.
Dobré, ne?
Pro začátek dejme tomu, že máme soustavu dvou rovnic o dvou neznámých.
To znamená, že matice A je tvaru 2x2
a 'v' a 'x' jsou oba dvourozměrné vektory,
Jak vypadají řešení této rovnice
závisí na tom, jestli zobrazení příslušné matici A všechno splácne do nižší
dimenze,
tedy do přímky či do bodu,
nebo bude transformovaná mřížka stále pokrývat celý původní prostor.
Terminologií předchozího videa bychom rozdělili případy na ty, kdy má A nulový determinant
a na ty, kdy je determinant A nenulový.
Začneme s typičtějším případem, kdy je determinant nenulový,
to znamená, že se prostor nesplácne do něčeho s nulovým obsahem.

iw: 
תחשוב לרגע מה קורה כאן.
אתה יכול לשמור את זה בראשך, זהו רעיון מסובך עבור מספר משתנים שמתערבבים
אחד עם השני
רק על לחשוב על כיווץ ושינוי המרחב, ולנסות להבין איזה וקטור
נוחת על אחד אחר.
מגניב, נכון?
נתחיל בפשטות, בוא נגיד שיש לך מערכת עם שתי משוואות ו-2 נעלמים.
זה אומר שהמטריצה A היא מטריצה 2 על 2(2x2),
ו-v ו-x - כל אחד מהם הוא וקטור ב-2 מימדים.
עכשיו, תחשוב על כל הפיתרונות האפשריים של המשוואה
תלוי אם הטרנספורמציה הזאת מתקשרת לכך ש-A מכווץ את כל המרחב לתוך מימד
נמוך יותר,
כמו קו או נקודה,
או שזה משאיר את הפרישה של הוקטורים ב-2 מימדים, איפה שהם היו מתלכתחילה.
או כמו שאמרנו בשפה של הסירטון האחרון: אנחנו חילקנו את זה למקרה פרטי בו הדטרמיננטה של A היא אפס.
ולמקרה פרטי בו הדטרמיננטה של A שונה מאפס.
בוא נתחיל עם המקרה שסביר להניח שתתקל בו. המקרה בו הדטרמיננטה שונה מאפס.
הכוונה היא, שהמרחב לא מתכווץ לתוך שטח שהוא אפס.

Chinese: 
思考一下这一过程
你完全可以只考虑对空间变形，以及变换前后向量的重叠
就将多个未知量相互混合的复杂方程组印入脑中
很酷，对吧？
先举一个简单的例子，你有两个方程和两个未知量构成的方程组
意味着A是一个2×2的矩阵，v和x都是二维向量
现在，这个方程的解依赖于矩阵A所代表的变换
是将空间挤压到一条线或一个点等低维空间
还是保持像初始状态一样的完整二维空间
用上期视频中的语言来说
我们将它们分为两种情况：A的行列式为零和A的行列式不为零
先来看看最可能发生的情况，即A的行列式不为零
此时空间并未被挤压为零面积的区域

English: 
Think about what's happening here for a moment.
You can hold in your head this really complicated
idea of multiple variables all intermingling
with each other
just by thinking about squishing and morphing
space and trying to figure out which vector
lands on another.
Cool, right?
To start simple, let's say you have a system
with two equations and two unknowns.
This means that the matrix A is a 2x2 matrix,
and v and x are each two dimensional vectors.
Now, how we think about the solutions to this
equation
depends on whether the transformation associated
with A squishes all of space into a lower
dimension,
like a line or a point,
or if it leaves everything spanning the full
two dimensions where it started.
In the language of the last video, we subdivide
into the case where A has zero determinant,
and the case where A has nonzero determinant.
Let's start with the most likely case, where
the determinant is nonzero,
meaning space does not get squished into a
zero area region.

Arabic: 
فكر فيما يحدث هنا للحظة.
يمكنك أن تعقد في رأسك هذا معقد حقا
فكرة المتغيرات المتعددة عن الاختلاط
مع بعض
فقط من خلال التفكير في السحق والتحول
الفضاء ومحاولة معرفة أي ناقل
يهبط على آخر.
رائع ، صحيح؟
لتبدأ بسيطًا ، لنفترض أن لديك نظامًا
مع معادلتين ومجهولين.
هذا يعني أن المصفوفة A هي مصفوفة 2 × 2 ،
و v و x كل ناقلات ثنائية الأبعاد.
الآن ، كيف نفكر في الحلول لهذا
معادلة
يعتمد على ما إذا كان التحول المرتبطة بها
مع اسحق كل المساحة في الأسفل
البعد،
مثل خط أو نقطة ،
أو إذا ترك كل شيء ممتلئًا
بعدين حيث بدأت.
في لغة الفيديو الأخير ، نحن ننقسم
في الحالة التي يكون فيها A محددًا صفرًا ،
والحالة التي تحتوي فيها A على محدد غير صفري.
لنبدأ بالحالة الأكثر احتمالاً ، أين
المحدد هو غير صفري ،
لا معنى معنى الفضاء لا
منطقة الصفر.

French: 
Réfléchissez un moment à ce qui se passe ici.
Vous pouvez avoir dans votre tête cette idée vraiment compliquée de multiples variables s'entremêlent ensembles
juste en immaginant des transformations de l'espace et en cherchant quel vecteur arrive sur un autre.
Cool, non ?
Pour commencer simplement, disons que vous avez un système avec deux équations à deux inconnues.
Cela signifie que la matrice A est une matrice de 2x2,
et v et x sont chacun des vecteurs 2D.
Maintenant, la façon de réfléchir aux solutions à ce équation
est différente si la transformation associée à A écrase tout l'espace dans une plus petite dimension,
comme une ligne ou un point,
ou si elle remplis les deux dimensions où elle a commencé.
Dans la vocabulaire de la dernière vidéo, nous séparons le cas où A a un déterminant nul,
et le cas où A a un déterminant non nul.
Commençons par le cas le plus courant, où le déterminant est non nul,
ce qui signifie que l'espace n'est pas réduit à région de surface nulle.

Portuguese: 
Pense sobre o que está acontecendo aqui por um momento.
Você consegue manter em mente esta ideia complicada de múltiplas variáveis todas conectadas
umas com as outras
apenas pensando sobre esmagar e esticar o espaço para pensar em que vetor
aterrissa em outro.
Legal, não é?
Para começar aos poucos, vamos supor que você tenha um sistema com duas equações e duas incógnitas.
Isto significa que a matriz A é uma matriz 2 x 2,
e v e x são dois vetores bidimensionais.
Agora, a forma como pensamos nas soluções dessa equação
depende da transformação linear associada a A apertar o espaço numa
dimensão menor,
como uma reta ou um ponto,
ou se deixa o plano alcançando as duas dimensões de onde partiu.
Na linguagem do último vídeo, dividimos nos casos em que A tem determinante nulo,
em o caso em que A tem determinante não nulo.
Vamos começar com o caso mais provável, que é com o determinante não nulo,
significando que o espaço não é apertado em uma região de área nula.

Polish: 
Można sobie wyobrazić ten skomplikowany problem wielu zmiennych mieszających się ze sobą
poprzez myślenie o rozciąganiu i ściskaniu przestrzeni tak by zgadnąć który wektor przemieszcza się w inny.
To świetne, prawda?
Zaczynając od prostego przykładu, weźmy układ dwóch równań z dwoma niewiadomymi.
Oznacza to że macierz A jest macierzą 2 na 2,
a v i x są dwu-wymiarowymi wektorami.
Sposób w jaki myślimy o rozwiązaniach tego równania
zależy od tego czy transformacja związana z A zmniejsza przestrzeń do mniejszej liczby wymiarów,
jak linia czy punkt,
czy też zostawia wszystko w przestrzeni dwuwymiarowej od której zaczęliśmy.
W języku poprzedniego filmu, dzielimy to na przypadek gdzie A ma zerowy wyznacznik,
oraz przypadek gdzie A ma niezerowy wyznacznik.
Zacznijmy od bardziej prawdopodobnego przypadku gdzie wyznacznik jest niezerowy,
czyli przestrzeń nie zmniejsza się do zerowego rozmiaru.
W tym przypadku będzie jeden i tylko jeden wektor który stanie się v,

German: 
Denkt einen Moment lang darüber nach, was hier passiert.
Folgende wirklich komplexe Vorstellung ist greifbar:  Eine Vielzahl von Variablen, die
sich alle miteinander vermischen,
einfach, indem man über das Quetschen und Verformen eines Raumes nachdenkt und probiert herauszufinden,
welcher Vektor auf welchem landet.
Cool, oder?
Um simpel anzufangen; sagen wir, wir haben ein System mit zwei Gleichungen und zwei Unbekannten.
Das heißt, dass die Matrix A eine 2x2-Matrix ist,
und v und x sind beides zweidimensionale Vektoren.
Wie wir jetzt über die Lösungen dieser Gleichung nachdenken,
hängt davon ab, ob die Abbildung, die zu A gehört, den Raum in eine niedrigere
Dimension quetscht,
z.B. eine Gerade oder ein Punkt,
oder ob sie die ganzen beiden Anfangsdimensionen beibehält.
Mithilfe den Begriffen des letzten Videos, unterscheiden wir den Fall, in dem die Determinante von A 0 ist,
und den Fall, in dem die Determinante von A ungleich 0 ist.
Lasst uns mit dem wahrscheinlicheren Fall starten, in dem die Determinante ungleich 0 ist,
was heißt, dass der Raum nicht in eine Region mit Fläche 0 gequetscht wird.

Russian: 
В этом случае всегда будет один и
только один вектор, который приземляется на v,
и вы можете найти его, проиграв преобразование
в обратном порядке.
Следуя за тем, куда идет v, когда мы перематываем наше преобразование назад
вы найдете вектор x такой, что A умножить на x равно v.
Когда вы перематываете назад преобразование
это фактически соответствует отдельному линейному преобразованию
Обычно такую трансформацию наывают "обратной к матрице A"
обозначается "A в степени -1"
Например, если A обозначала поворот на 90º против часовой стрелки
то обратной к А будет поворот по часовой стрелке на 90º.
Если A - наклон вправо, который толкает вектор  j на одну единицу вправо.
обратным к а будет наклон влево
который сдвигает j на единицу влево.
В общем случае A обратное является единственным преобразованием
с тем свойством, что если вы сначала примените трансформацию А
затем примените обратную трансформацию к А
вы возвращаетесь туда, откуда вы начали.
Применение одного преобразования за другим
записывается алгебраически с помощью умножения матриц.

Spanish: 
En este caso, siempre habrá uno y sólo un vector que cae en "v"
y pueden hallarlo reproduciendo la transformación en sentido contrario.
Siguiendo a dónde va "v" mientras rebobinamos la cinta,
hallaran el vector "x" tal que Ax = v.
Aplicar la transformación en reversa, se corresponde con una transformación lineal independiente,
comunmente llamada la inversa de "A"
denotada por "A" a la menos uno.
Por ejemplo,  si "A" fuera una rotación de 90º en contra de las agujas del reloj,
entonces la inversa de "A" sería una rotación de 90º en el sentido de las agujas del reloj.
Si "A" fuera un "shear" que empuja a "j" una unidad hacia la derecha,
la inversa de "A" sería un "shear" que empuja a "j" una unidad hacia la izquierda.
En general,  la inversa de "A" es la única transformación con la propiedad de que si primero aplican "A"
y luego aplican la transformación inversa de "A",
terminan de vuelta en donde empezaron.
Aplicar una transformación después de la otra se define algebráicamente con el producto matricial,

Arabic: 
في هذه الحالة ، سيكون هناك دائما واحد و
ناقل واحد فقط يهبط على v ،
ويمكنك العثور عليها عن طريق لعب التحول
إلى الوراء.
بعد حيث v يتم إحضار الشريط
مثله،
ستجد المتجه س مثل هذه الأوقات
س يساوي v.
عندما تلعب التحول في الاتجاه المعاكس ،
انها تقابل في الواقع خطي منفصل
تحويل،
يسمى عادة "معكوس A"
تشير إلى واحد سلبي.
على سبيل المثال ، إذا كان A عبارة عن دوران عكس عقارب الساعة
بواسطة 90º
ثم يكون معكوس A في اتجاه عقارب الساعة
الدوران بمقدار 90 درجة.
إذا كان A هو القص المستقيم الذي يدفع j-hat
وحدة واحدة إلى اليمين ،
معكوس a سيكون a قصّ اليسار
يدفع j-hat وحدة واحدة إلى اليسار.
بشكل عام ، معكوس هو التحويل الفريد
مع الخاصية التي إذا قمت بتطبيق لأول مرة
ا،
ثم متابعته مع التحول معكوس ،
كنت في نهاية المطاف من حيث بدأت.
تطبيق تحول واحد تلو الآخر
يتم التقاطها جبريًا مع مضاعفة المصفوفة ،

Korean: 
이 경우, 특정 v 벡터로 변할 수 있는 벡터는 항상 하나만 있어.
(역자: 일대일 대응 변환)
변환을 역방향으로 돌리면 찾을 수 있어.
뒤로감기처럼 플레이하며 벡터 v 가 어디로 가는지 따라가보면
벡터 x 를 찾을 수 있을거야. 
Ax = v 에서 x 를 말야.
역으로 변환하는 것,
이것은
일반적으로 "A의 역행렬(the inverse of A)" 이라고 해.
A 의 윗첨자로 -1 을 표시해놓지.
예를 들어, A가 반 시계 방향으로 90 ° 회전이라면
그 역은 시계방향으로 90 ° 회전일거야.
행렬 A 가 j-hat 을 오른쪽 한칸만큼 기울이는 변환이라면
그 역은 j-hat 왼쪽 방향으로 한칸만큼 기울이는 변환이야.
일반적으로, A 역행렬의 특별한 속성은
A 행렬을 적용한 뒤,
그다음 A 역행렬을 적용하면,
다시 시작한 점으로 돌아오게 돼.
이렇게 연달아 적용하는 변환을 
행렬 곱셈으로 대수적 축약할 수 있어.

Chinese: 
在这种情况下，有且仅有一个向量（在变换后）与v重合
并且你可以通过逆向进行变换来找到这个向量
如同倒带一样，通过跟踪v的动向
你就能找到满足Ax=v的向量x
当你逆向进行变换时，它实际上对应了另一个线性变换
通常被称为“A的逆”，记为A^(-1)
比如说，如果A是逆时针旋转90度的变换
那么A的逆就是顺时针旋转90度的变换
如果A向右剪切的变换，将j帽向右移动一个单位
A的逆就是向左剪切的变换，将j帽向左移动一个单位
总的来说，A逆是满足以下性质的唯一变换
首先应用A代表的变换，再应用A逆代表的变换
你会回到原始状态
两个变换相继作用在代数上体现为矩阵乘法

iw: 
במקרה הזה, תמיד יהיה וקטור אחד ויחיד שנוחת על v,
ואתה יכול למצוא אותו ע"י כך שתשחק הפוך עם הטרנספורמציה.
אם עוקבים אחרי איפה v הולך, כשאנחנו מריצים אחורה ככה את הסירטון,
אתה תמצא שהוקטור x, כך ש- A כפול x שווה ל-v.
כשאתה משחק עם הטרנספורמציה בצורה הפוכה, זה למען האמת מתאים לטרנספורמציה
לינארית נפרדת,
הידועה בשם "ההופכית של A"
מסומן ב-A עם מינוס אחת(כמו 1 חלקי A).
לדוגמא, אם הייתי מסובב את A כנגד כיוון השעון בזווית של 90 מעלות,
אז ההופכי לכך יהיה לסובב את A ב-90 מעלות בכיוון השעון.
אם A היה נגזרת ימנית שדוחפת את j כובע יחידה אחת ימינה,
ההפוכי של A יהיה נגזרת שדוחפת את j כובע שמאלה ביחידה אחת.
באופן כללי, ההופכית של A היא טרנספורמציה מיוחדת עם התכונה שאם קודם תפעיל את A
 
ואז לאחר מכך עם הטרנספורמציה של A הופכית
אתה חוזר לנקודת ההתחלה.
יישום טרנספורמציה אחת אחרי השניה, מיוצגת אלגברה עם כפל מטריצות,

Czech: 
V tomhle případě bude vždy přesně jeden vektor, který skončí na 'v',
a najdeme jej tak, že přehrajeme transformaci obráceně.
Když sledujeme 'v' a přehráváme video dozadu,
najdeme vektor x, který splňuje Ax = v.
Obrácené přehrávání transformace skutečně odpovídá další lineární
transformaci,
obvykle nazývané "inverzní transformace k A",
stručně "inverz k A"
a značené A na minus prvou.
Například, když A je otočení o 90º proti směru hodinových ručiček,
inverzní transformace bude otočení o 90º po směru.
Když A bude zkosení, které posune 'j' o jedna doprava,
inverz bude zkosení, které posune 'j' o jedna doleva.
Obecně je inverz k A to jednoznačně určené zobrazení, pro které platí, že když napřed provedete A
 
a následně tu inverzní transformaci,
skončíte tam, kde jste začali.
Algebraicky se provedení jednoho zobrazení a pak druhého napíše jako násobení matic,

Danish: 
og du kan finde den ved at spille transformationen baglæns.
Ved at følge hvor v går hen når vi spoler båndet baglæns som her,
finder du vektoren x således at A gange x er lig med v.
Når du spiller transformationen baglæns, svarer det reelt til en separat lineær transformation,
almindeligvis kaldet "den inverse af A"
betegnet A i minus første.
For eksempel, hvis A var en 90º rotation mod uret
så ville den inverse af A ville være en rotation på 90º med uret.
Hvis A var en forskydning mod højre, der skubber j-hat en enhed til højre,
så er den inverse af A en forskydning mod venstre, der skubber j-hat en enhed til venstre.
Generelt - den inverse af A er den unikke transformation med den egenskab, at hvis du først anvender A,
og derefter anvender den inverse af A,
så ender du tilbage hvor du startede.
Anvendelsen af en transformation efter den anden indfanges algebraisk med matrixmultiplikation,

Portuguese: 
Neste caso, haverá sempre um e
apenas um vetor que para em v,
e você pode encontrá-lo,
fazendo a transformação reversa.
Seguindo de onde v se encontra 
e voltando a fita desse jeito
você vai encontrar o vetor x tal que 
A vezes x é igual a v.
Quando você faz a transformação em sentido inverso,
ela corresponde na verdade
a uma transformação linear separada
que geralmente chamamos de "a inversa de A"
e denotamos A a menos 1
Por exemplo, se A é uma rotação anti-horária de 90º
então a inversa de A seria uma rotação horária de 90º
Se A é um cisalhamento para a direita 
que empurra ĵ uma unidade para a direita,
a inversa de A um cisalhamento para a esquerda
que empurra ĵ uma unidade para a esquerda
Em geral, a inversa de A é a única transformação
com a propriedade de que, se você aplicar primeiro A
e, em seguida, aplicar a transformação da inversa de A
você acaba no mesmo lugar onde começou.
Aplicar uma transformação após a outra
significa, algebricamente, multiplicar matrizes,

Turkish: 
Bu durumda, bir yalnızca bir vektör v üzerine gelecektir dönüşüm sonrasında.
Ve bu değeri, dönüşümü tersine oynatarak bulabiliriz.
animasyonu böyle tersten oynatıp v yi takip ederek,
A kere x değerini v ye eşitleyen x i bulabiliriz.
Esasen animasyonu tersten oynatmak, başka bir doğrusal dönüşüm anlamına gelmekte.
Bu dönüşüm
"A nın tersi " olarak adlandırılır ve
A üzeri -1 şeklinde gösterilir.
Örneğin, A saatin tersi yönünde 90º döndürme olsaydı
A nın tersi; saat yönünde 90º derece dönüş anlamına gelecekti.
Eğer A, j vektörünü sağa bir birim kaydırıyor olsaydı,
tersi de j vektörünü sola bir birim kaydırma işlemi olacaktı.
Genel olarak, A'nın tersi, eşsiz bir dönüşümü ifade eder. Öyle ki
A, uygulandıktan sonra
A'nın tersini uygularsak eğer,
başladığımız yere döneriz.
Bir dönüşüm peşi sıra başka bir dönüşüm gerçekleştirmek cebirsel açıdan çarpma işlemidir,

English: 
In this case, there will always be one and
only one vector that lands on v,
and you can find it by playing the transformation
in reverse.
Following where v goes as we rewind the tape
like this,
you'll find the vector x such that A times
x equals v.
When you play the transformation in reverse,
it actually corresponds to a separate linear
transformation,
commonly called "the inverse of A"
denoted A to the negative one.
For example, if A was a counterclockwise rotation
by 90º
then the inverse of A would be a clockwise
rotation by 90º.
If A was a rightward shear that pushes j-hat
one unit to the right,
the inverse of a would be a leftward shear
that pushes j-hat one unit to the left.
In general, A inverse is the unique transformation
with the property that if you first apply
A,
then follow it with the transformation A inverse,
you end up back where you started.
Applying one transformation after another
is captured algebraically with matrix multiplication,

Polish: 
i możemy go znaleźć odtwarzając transformację od końca.
Podążając za v podczas gdy przewijamy taśmę do tyłu jak tutaj,
znajdziemy taki wektor x iż A razy x wynosi v.
Kiedy odtwarzamy transformację do tyłu, zasadniczo odpowiada to innej transformacji liniowej,
zazwyczaj nazywanej "odwrotnością A"
zapisywanej jako A do potęgi -1.
Dla przykładu, jeśli A było obrotem przeciwnym do ruchu wskazówek zegara o 90 stopni,
wtedy odwrotność A będzie obrotem zgodnym z ruchem wskazówek zegara o 90 stopni.
Jeśli A była ścięciem które przesuwało j-z-daszkiem jedną jednostkę w prawo,
wtedy odwrotność A będzie ścięciem przesuwającym j-z-daszkiem jedną jednostkę w lewo.
Zasadniczo, odwrotność A jest unikalną transformacją mającą tą cechę że gdy pierwsze zaaplikujemy A,
a później zaaplikujemy transformację odwrotną A,
znajdziemy się z powrotem w miejscu z którego wyszliśmy.
Nakładanie jednej transformacji za drugą przedstawiamy algebraicznie za pomocą mnożenia macierzowego,

German: 
In diesem Fall wird es immer genau einen Vektor geben, der auf v landet,
und man kann ihn finden, indem man die Abbildung rückwärts ablaufen lässt.
Wenn man den Verlauf von v während dieses Rückwärtsspulens nachvollzieht,
kommt man auf den Vektor x, bei dem A mal x gleich v ist.
Das Rückwärtsspulen entspricht übrigens einer anderen linearen
Abbildung,
die meist "Inverses von A" genannt wird,
geschrieben als A hoch minus 1.
Zum Beispiel, wenn A einer Drehung gegen den Uhrzeigersinn um 90° entspricht,
dann wäre das Inverse von A eine Drehung im Uhrzeigersinn um 90°.
Wenn A eine Rechtsscherung wäre, das j-hat eine Einheit nach rechts verschiebt,
dann wäre das Inverse von a eine Linksscherung, die j-hat eine Einheit nach links verschiebt.
Allgemein ist das Inverse von A die eindeutige Abbildung mit der Eigenschaft, dass wenn man zuerst
A anwendet,
und danach die Abbildung Inverses von A,
landet man dort, wo man angefangen hat.
Eine Abbildung nach der anderen anzuwenden, kann man algebraisch mit Matrixmultiplikation darstellen,

French: 
Dans ce cas, il y aura toujours un seul et un seul vecteur qui atterrit sur v,
et vous pouvez le trouver en jouant la transformation en marche arrière.
En suivant ainsi l'endroit où v se dirige
vous trouverez le vecteur x tel que A fois x est égal à v.
Lorsque vous jouez à la transformation en sens inverse, cela correspond en fait à une autre transformation linéaire,
communément appelée « l'inverse de A »
notée A à la puissance -1.
Par exemple, si A est une rotation anti-horaire de 90 degrés
alors l'inverse de A serait une rotation dans le sens horaire de 90 degrés.
Si A était un cisaillement qui pousse j d'une unité vers la droite,
l'inverse d'un serait un cisaillement qui pousse j une unité vers la gauche.
D'une manière générale, A est l'unique transformation qui a la propriété que si vous appliquez d'abord A
puis continuez avec la transformation inverse de A,
vous finissez où vous avez commencés.
L'application d'une transformation après l'autre est représenté algébriquement avec la multiplication de matrices,

Chinese: 
這這種情況下，總歸有一個并且只有一個矢量 在 v上，
而你可以用逆變換來找到它的。
而我們像這樣地重新回放磁帶，
你將發現矢量 x 而A乘以 x 等於v。
在你施加一個逆變換的時候，它實際上
相當於另一個不同的變換，
通常稱作“A的逆（矩陣）”
記法為A的負一次方。
例如，如果A是一個90度的逆時針轉動的話，
那麽A的逆矩陣將是順時針轉動90度。
如果A是向右的剪切，那就是把j-hat推向右面一個單位，
其逆矩陣將是一個向左的剪切，那就是把j-hat向左推一個單位。
一般來說，A的逆矩陣是矩陣A的一種
獨特的變換，它具有這樣的性質
如果你施加A，然後施加A的逆矩陣，
你回到你所開始的地方。
在施加一個變換之後又施加另一個，那在代數裏就是矩陣的乘法

Portuguese: 
Nesse caso, sempre haverá um, e apenas um vetor que aterrissa em v,
e você pode achá-lo reproduzindo a transformação ao contrário.
Seguindo 'v' à medida que voltamos a fita assim,
você encontrará o vetor 'x' tal que A vezes 'x' é igual a 'v'.
Quando você reproduz a transformação ao contrário, na verdade corresponde a outra
transformação linear,
comumente chamada "a inversa de A"
denotada "A a menos 1" [Aˆ(-1)].
Por exemplo, se A fosse uma rotação de 90º no sentido anti-horário,
então a inversa de A seria uma rotação de 90º no sentido horário.
Se A fosse um cisalhamento à direita que empurra ĵ uma unidade à direita,
então a inversa de A seria um cisalhamento à esquerda que empurra ĵ uma unidade à esquerda.
Em geral, Aˆ(-1) é a única transformação com a propriedade em que se você primeiro aplica
A,
depois aplica Aˆ(-1),
você volta onde começou.
Aplicar uma transformação após a outra é capturado algebricamente com uma multiplicação matricial,

Russian: 
поэтому основное свойство этого преобразования A^-1
является то, что A * A^-1
равно преобразованию, которое не делает ничего
Преобразование, которое ничего не делает, называется
«преобразование идентичности».
Он оставляет i и j там же, где они были до этого, не двигает их.
поэтому столбцы такой матрицы равны единице, нулю и нулю.
Когда вы найдете эту обратную матрицу (что на практике,
вы делаете в компьютере)
вы можете решить свое уравнение, умножив
эту обратную матрица на v. 
(Применив свойство ассоциативности умножения)
И снова, геометрически это означает
что вы перематываете преобразование назад,
пристально следя за вектором v
Этот случай с det != 0 (безусловно, самый вероятный, т.к. у случайно взятой матрицы скорее всего
будет именно такое свойство)
соответствует идее, что если у вас есть
две неизвестных и два уравнения,
это почти наверняка, что есть
единственное, уникальное решение.
Эта идея также имеет смысл в более высоких измерениях,
когда число уравнений равно числу
неизвестных.

Chinese: 
所以這種A的逆矩陣乘以A的變換的
性質的核心相當於什麽也沒有做
而什麽也沒做的變換就叫做“等同變換。”
它把i-hat和j-hat都留在原地，沒有移動過，
所以它的列是1, 0, 和 0, 1。
一旦你找到這個逆矩陣，在實踐中，你用計算機來做的，
你就可以通過這個逆矩陣乘以矩陣v來解你的方程了。
再說一遍，幾何意義上這意味著你
用v 施加著逆轉換。
這種行列式不是0的情況，這對隨機
選擇的一個矩陣是最有可以的一種，
就像相當於你有2個未知數和2個方程的想法，
在大多數情況下那有一個獨特的解。
這種想法在更高維數中也是容易理解的，
如果方程的個數等於未知數的個數。

Portuguese: 
portanto, a propriedade principal da inversão de matrizes é que A vezes inversa de A
é igual à matriz que corresponde a não fazer nada.
A transformação que não faz nada é chamada de
"transformação de identidade".
Ele deixa î e ĵ onde estão, sem se mover,
suas colunas são então um, zero, e zero, um.
Uma vez encontrada esta inversa
(que na prática você faz com um computador)
você pode resolver sua equação multiplicando
esta matriz inversa por v.
E, de novo, o que isso significa geometricamente é
que você está fazendo
a tranformação reversa e seguindo v.
Este caso de determinante diferente de zero, 
que é de longe a escolha aleatória de matriz
mais provável
corresponde à idéia de que se você tiver
duas incógnitas e duas equações,
é quase certo o caso de que há
uma única solução.
Esta ideia também faz sentido
em dimensões maiores,
quando o número de equações 
é igual ao número de incógnitas.

Portuguese: 
então a propriedade central desta transformação Aˆ(-1) é que ela vezes A
é igual à matriz que corresponde a fazer nada.
Esta transformação que não faz nada é chamada "transformação identidade".
Ela deixa î e ĵ ambos onde estão, imóveis,
então suas colunas são (1,0) e (0,1).
Uma vez que você encontra essa inversa, o que em geral é feito em computador,
você pode resolver sua equação multiplicando a matriz inversa por 'v'.
Novamente, o que isto significa geometricamente é que você está aplicando a transformação
ao contrário, e seguindo v.
Esse caso em que o determinante é diferente de zero, o qual para uma escolha aleatória de matriz é
de longe o mais provável,
corresponde à ideia de que se você tem duas incógnitas e duas equações,
é quase certo que existe uma única solução.
Esta ideia também faz sentido em dimensões maiores,
quando o número de equações é igual ao número de incógnitas.

Czech: 
takže klíčová vlastnost inverzní transformace je, že A inverz krát A
je matice transformace, která nechává všechno na místě.
Tato transformace se nazývá "identita",
a protože nechává na místě i bázové vektory 'i', 'j',
má ve sloupečcích (1,0) a (0,1).
Jak jednou najdete inverz, který v praxi většinou najde počítač,
můžete vyřešit svou rovnici tím, že vynásobíte inverzní maticí vektor v.
To přesně geometricky znamená, že přehrajete transformaci pozadu
a sledujete 'v'.
Tenhle případ nenulového determinantu, který je u náhodně zvolené matice zdaleka
nejpravděpodobnější,
odpovídá představě, že s dvěma rovnicemi o dvou neznámých
máte skoro vždycky přesně jedno řešení.
Obecně to tak funguje i pro více-rozměrné prostory,
když se počet rovnic rovná počtu neznámých.

Spanish: 
así que la propiedad principal de esta transformación inversa de "A" es que la inversa de "A" por "A"
es igual a la matriz que corresponde a no hacer nada.
La transformación que no hace nada se llama la "transformación identidad".
Deja a "i" y a "j" donde estaban, sin moverlos,
por lo que sus columnas son [1,0] y [0,1].
Una vez hallan esta inversa, la cual en la práctica, lo hacen con una computadora,
pueden resolver su ecuación multiplicando esta matriz inversa por "v".
Y de nuevo, lo que esto quiere decir, geométricamente, es que están reproduciendo la transformación en sentido contrario y siguiendo a "v".
Este caso con determinante distinto de cero, el cual para una matriz aleatoria es de lejos el más probable,
corresponde con la idea de que si tienen dos incógnitas y dos ecuaciones,
es casi seguro que hay una solución única.
Esta idea también tiene sentido en dimensiones mayores,
cuando el número de ecuaciones es igual al número de incógnitas.

Turkish: 
dolayısıyla bu dönüşümün temeli, özü: A nın tersi odur ki; A kere A'nın tersi
eşittir hiçbir dönüşüm yapılmayan matrix!
Hiçbir dönüşüm yapmayan dönüşüme "birim dönüşüm" denir.
i ve j vektörleri olduğu yerde kalır, hareket etmezler,
dolayısıyla bu matrixin sütunları: [1,0] ve [0,1] dir.
A'nın tersini bir kez buldun mu, bunu bilgisayarla yapabilirsiniz,
v vektörü ile bu A 'nın tersini çarparak sonucu bulabilirsiniz.
Ve tekrar edeyim, geometrik olarak bunun anlamı: "dönüşümü tersinden
yürütüyorsunuz"dur. v yi takip ederek tabii.
Bu ele aldığımız determinant sıfır olmaMA hali,
en olası olan seçenek,
eğer iki değişkeniniz ve eşitlikleriniz varsa,
bu eşitlikleri çözen, eşsiz değerleri bulmanız neredeyse kesindir.
Bu düşünce daha yüksek boyutlar için de geçerlidir.
Değişken sayısı ile eşitlik sayısı eşit oldukça elbette.

iw: 
אז תכונת הליבה של הטרנספורמציה של A הופכית, היא ש-A הפוך כפול A
שווה למטריצה מתאימה אשר לא עושה דבר.
הטרנספורמציה שלא עושה כלום נקראת "טרנספורמציית הזהות".
היא משאירה את i כובע ו-j כובע איפה שהם היו, בלי להזיז אותם,
כך שהעמודות שלה הם אחד, אפס ו-אפס, אחת.
ברגע שאתה מוצא את ההופכית, אשר, באופן מעשי אתה עושה עם המחשב שלך,
אתה יכול לפתור את המשוואה ע"י כך שתכפיל את המטריצה ההופכית ב-v.
ושוב, מה שזה אומר מבחינה גיאומטרית, זה שאתה משחק עם הטרנספורמציה
באופן הפוך, ובעקבותיו גם עם v.
המקרה בו הדטרמיננטה שונה מאפס, הוא מקרה בו בבחירה אקראית של מטריצה יותר
יותר מסביר שתקבל אחת כזאת(כלומר, קיים סיכוי רב יותר שתקבל מטריצה שהדטרמיננטה שלה שונה מאפס).
זה מתאים לרעיון שיש לך שני נעלמים ו-2 משוואות,
זה כמעט לבטח המקרה שיש פיתרון אחד ומיוחד.
הרעיון הזה נהיה הגיוני במימדים גבוהים יותר,
כשמספר המשוואות שווה למספר הנעלמים.

Danish: 
så kernenegenskaben af transformationen A invers er, at A invers gange A
lig med matricen, der svarer til ikke at gøre noget.
Transformationen, der ikke gør noget kaldes "identitetstransformation."
Den efterlader i-hat og j-hat hver hvor de er, uberørt,
så dets søjler er én, nul, og nul, en.
Når du finder denne inverse, som du i praksis gør med en computer,
kan du løse din ligning ved at gange denne inverse matrix med v.
Og igen, hvad det betyder geometrisk er, at du spiller transformationen baglæns, og følger efter v.
Dette tilfælde med determinant forskellig fra nul, hvilket for et tilfældigt valg af matrix er langt det mest sandsynlige,
svarer til den idé, at hvis du har to ligninger med to ubekendte,
det er næsten helt sikkert sådan, at der er en enkelt, entydig løsning.
Denne idé giver også mening i højere dimensioner,
når antallet af ligninger er lig med antallet af ubekendte.
Igen, ligningssystemet kan oversættes til den geometriske fortolkning

Polish: 
zatem zasadniczą własnością transformacji odwrotność-z-A jest to, że odwrotność A razy A
odpowiada macierzy która nic nie robi.
Transformacja która nic nie robi jest nazywana "transformacją tożsamościową."(?)
Zostawia ona i-z-daszkiem oraz j-z-daszkiem tam gdzie były, nieruchomo,
zatem jest kolumny to 1, 0, i 0, 1.
Kiedy już znajdziemy odwrotność, która w praktyce policzy za nas komputer,
możemy rozwiązać nasze równanie przez mnożenie macierzy odwrotnej przez v.
Zatem to co oznacza to geometrycznie to odtworzenie transformacji wspak i podążanie za v.
Przypadek niezerowego wyznacznika, który dla dowolnie wybranej macierzy jest najbardziej prawdopodobny,
odpowiada koncepcji dwóch zmiennych i dwóch równań,
w której zwykle mamy jedno unikalne rozwiązanie.
Ta idea ma też sens przy większej ilości wymiarów,
gdzie ilość równań jest taka sama jak liczba niewiadomych.
I znowu, system równań może być przełożony na interpretację geometryczną,

Arabic: 
وبالتالي فإن الملكية الأساسية لهذا التحول
معكوس هو أن A أوقات معكوسة أ
يساوي المصفوفة التي تقابل القيام به
لا شيئ.
يسمى التحويل الذي لا يفعل شيئا
"تحويل الهوية."
يترك i-hat و j-hat في كل مكان
هي غير متأثرة
بحيث تكون أعمدةها واحدة ، صفر ، و صفر ، واحد.
بمجرد العثور على هذا معكوس ، والذي ، من الناحية العملية ،
كنت تفعل مع جهاز كمبيوتر ،
يمكنك حل المعادلة من خلال ضرب
هذه المصفوفة العكسيّة بواسطة v.
ومرة أخرى ، ما يعنيه هذا هو هندسيا
أنك تلعب التحول في
عكس ، وبعد ت.
هذه الحالة غير محدده ، والتي ل a
اختيار عشوائي للمصفوفة هو أكثر بكثير
من المحتمل واحد ،
يتوافق مع فكرة أنه إذا كان لديك
اثنين مجهولين واثنين من المعادلات ،
يكاد يكون من المؤكد أن هناك حالة
حل واحد وفريد.
هذه الفكرة منطقية أيضًا في الأبعاد العالية
عندما يكون عدد المعادلات مساويا للرقم
من مجهولين.

English: 
so the core property of this transformation
A inverse is that A inverse times A
equals the matrix that corresponds to doing
nothing.
The transformation that does nothing is called
the "identity transformation."
It leaves i-hat and j-hat each where they
are, unmoved,
so its columns are one, zero, and zero, one.
Once you find this inverse, which, in practice,
you do with a computer,
you can solve your equation by multiplying
this inverse matrix by v.
And again, what this means geometrically is
that you're playing the transformation in
reverse, and following v.
This nonzero determinant case, which for a
random choice of matrix is by far the most
likely one,
corresponds with the idea that if you have
two unknowns and two equations,
it's almost certainly the case that there's
a single, unique solution.
This idea also makes sense in higher dimensions,
when the number of equations equals the number
of unknowns.

Korean: 
그래서 A역행렬 변환이 가진 핵심속성은 이거야.
A역행렬 곱하기 A행렬은
아무 것도 바꾸지 않는 행렬과 같다는 것.
아무것도하지 않는 변환을 "항등 변환(identity transformation)" 이라고 불러.
i-hat 과 j-hat 을 이동시키지 않고 놔두지.
그래서 그대로 (1,0),(0,1) 이야.
일단 역행렬을 찾았으면, 
, 수동으로 했든 컴퓨터를 사용했든,
방정식 역행렬을 v 벡터에 곱해서 풀 수 있어.
자 다시한번, 기하학적으로 이 말이 무슨 뜻이냐면,
v 벡터에 역변환을 가한거야.
이렇게 행렬식 값이 0이 아닌 경우에,
아무렇게나 랜덤하게 행렬을 만들면 대부분 이 경우일텐데,
이게 2개의 미지수에 2개의 방정식을 가진 문제와 똑같아져.
이런 경우 대부분은 확실히 하나의 유일한 해가 존재해.
이 아이디어는 더 높은 차원에서도 맞아.
미지수 개수와 방정식 개수가 같은 경우

Chinese: 
所以A逆的核心性质在于
A逆乘以A等于一个“什么都不做”的矩阵
这个“什么都不做”的变换被称为“恒等变换”
它保持i帽和j帽不变，所以它的列就是(1, 0)和(0, 1)
一旦你找到了A的逆 （实践中你可以用计算机完成）
你就能在两边同乘A的逆矩阵来求解向量方程
这个过程在几何上
就对应于逆向进行变换并跟踪v的动向
随机选一个矩阵，有很大可能会遇到这一非零行列式的情况
也就是说，对于两个未知量和两个方程构成的方程组
几乎可以确定它存在唯一解
当方程数目与未知量数目相同时，这一思想在高维情况下也有意义

German: 
also ist die Kerneigenschaft dieser Abbildung "Inverses von A", dass "Inverses von A" mal A
die Matrix ergibt, die dem Nichtstun entspricht.
Diese Abbildung, die nichts tut, heißt Identitätsabbildung.
Sie lässt i-hat und j-hat beide dort, wo sie sind, unbewegt,
also sind ihre Spalten 1,0 und 0,1.
Sobald man dieses Inverse findet, was in der Praxis mit einem Computer gemacht wird,
kann man die Gleichung lösen, indem man die inverse Matrix mit v multipliziert.
Nochmal, was das geometrisch heißt, ist dass man diese Abbildung rückwärts
abspielt, und v beobachtet.
Der Nicht-Null-Determinanten Fall, der für eine zufällig gewählte Matrix mit Abstand der
wahrscheinlichste ist,
korrespondiert mit der Idee, dass wenn man zwei Unbekannte und zwei Gleichungen hat,
es fast immer der Fall sein wird, dass es eine einzige, einzigartige Lösung gibt.
Diese Idee ergibt auch in höheren Dimensionen Sinn,
wenn die Anzahl der Gleichungen der Anzahl der Unbekannten entspricht.

French: 
ainsi la propriété de base de l'inverse de A est que l'inverses de A fois A
est égale à la matrice qui ne fait aucune transformation.
La transformation qui ne fait rien est appelé la « transformation identité »
Elle laisse i et j où ils sont, inchangés,
et donc ses colonnes sont un, zéro, et zéro, un.
Une fois que vous avez trouvez cette inverse, ce que, dans la pratique, vous faites avec un ordinateur,
vous pouvez résoudre votre équation en multipliant cette matrice inverse avec v.
Encore une fois, la vision géométrique consiste à jouer la transformation inverse, et suivre v.
Ce cas où le déterminant est non nul, qui est de loins le cas le plus courant pour une matrice
prise aléatoirement,
correspond à l'idée que, si vous avez
deux inconnues et deux équations,
il est presque certain qu'il existe une solution unique.
Cette idée est également valable dans des dimensions plus élevées,
lorsque le nombre d'équations est égal au nombre d'inconnues.

French: 
Encore une fois, le système d'équations peut être traduit en interprétation géométrique
où vous avez une certaine transformation A,
et un vecteur v,
et vous cherchez le vecteur x qui atterit sur v.
Tant que la transformation A n'écrase pas l'espace dans une dimension inférieure,
c'est à dire, son déterminant est non nul,
il y aura une transformation inverse, A
puissance -1,
qui a comme propriété que si vous appliquez d'abord A,
puis l'inverse de A,
c'est la même chose que de ne rien faire.
Et pour résoudre votre équation, il vous suffit pour multiplier cette matrice de transformation inverse
avec le vecteur v.
Mais lorsque le déterminant est égal à zéro, et la transformation associée à ce système d'équations
écrase l'espace dans une dimension plus petite, il n'y a pas d'inverse.
Vous ne pouvez pas dé-écraser une ligne pour la transformer en un plan.
Du moins, ce n'est pas quelque chose qu'une fonction peut faire.

Portuguese: 
Mais uma vez, o sistema de equações pode ser traduzido para a interpretação geométrica
na qual você tem alguma transformação, A,
e algum vetor, v,
e você procura o vetor x que para em v.
Sempre que a transformação A não comprime
todo o espaço em uma dimensão menor,
ou seja, seu determinante é diferente de zero,
haverá uma transformação inversa,
a inversa de A,
com a propriedade de que se você primeiro fizer A,
e depois fizer a inversa de A
é o mesmo que não fazer nada.
E para resolver a equação, você só tem
que multiplicar a matriz de transformação reversa
pelo vetor v.
Mas quando o determinante é zero, e a
transformação associada a este sistema de equações
comprime o espaço em uma dimensão menor, 
não existe inversa.
Você não pode "descomprimir" uma linha
para transformá-la em um plano.
Pelo menos, isso não é algo que uma função pode fazer.

Arabic: 
مرة أخرى ، يمكن ترجمة نظام المعادلات
للتفسير الهندسي
حيث لديك بعض التحولات ، A ،
وبعض المتجه ، الخامس ،
وأنت تبحث عن ناقلات x تلك الأراضي
في الخامس.
طالما أن التحول A لا يسحق
كل المساحة في البعد السفلي ،
بمعنى ، محدده غير صفري ،
سيكون هناك تحول عكسي ، أ
معكوس،
مع الخاصية أنه إذا قمت أولاً بعمل A ،
ثم تفعل معكوس ،
إنه نفس عدم القيام بأي شيء.
ولحل المعادلة الخاصة بك ، لديك فقط
لضرب ذلك مصفوفة التحويل العكسي
من قبل المتجه ضد.
ولكن عندما يكون المحدد هو صفر ، و
التحول المرتبطة بهذا النظام
المعادلات
يسحق الفضاء في بعد أصغر ، هناك
ليس معكوس.
لا يمكنك إسكات خط لتحويلها إلى
طائرة.
على الأقل ، هذا ليس شيئا وظيفة
يمكن القيام به.

Czech: 
Soustava rovnic může být opět přeložena do geometrického pohledu,
kde máte transformaci A,
vektor 'v',
a hledáte vektor, který přistane na 'v'.
V případě, že transformace nesplácne všechno do nižší dimenze,
čili determinant je nenulový,
najdeme inverzní transformaci A inverz
splňující, že když napřed provedete A
a potom A inverz,
je to totéž jako byste nic neudělali.
Abychom vyřešili naši rovnici, musíme vynásobit tuhle matici obrácené transformace
vektorem v.
Když je ale determinant nulový, a transformace odpovídající této soustavě
rovnic
všechno splácne do nižší dimenze, inverzní transformace neexistuje.
Nemůžete rozbalit přímku zpátky do roviny,
přinejmenším to není něco, co by dokázaly funkce.

Spanish: 
De nuevo, el sistema de ecuaciones puede ser trasladado a la interpretación geométrica
donde tienen alguna transformación "A"
y algún vector"v",
y buscan el vector "x" que caiga en "v".
Siempre que la transformación "A" no comprima el espacio a una dimensión menor,
es decir, su determinante es distinto de cero,
habrá una transformación inversa, inversa de "A",
con la propiedad de que si primero aplican "A"
y luego aplican la inversa de "A",
será lo mismo que no hacer nada.
Y para resolver su sistema de ecuaciones, sólo tienen que multiplicar esa matriz de transformación inversa por el vector "v".
Pero cuando el determinante es cero y la transformación asociada con el sistema de ecuaciones
comprime el espacio a una dimensión menor, no hay inversa.
No pueden descomprimir una línea y volverla un plano,
o por lo menos, eso no es algo que pueda hacer una función.

Turkish: 
Tekrar ediyorum, Eşitlik sistemlerini, geometrik olarak yorumlarsak,
A isimli bir dönüşüm yapacağımız,
bu dönüşümü v vektörüne uygulayacağımız,
ve v üzerinde konumlanan x vektörünü bulacağımızı söyleyebiliriz.
A dönüşümü, uzayı alt bir boyuta indirgemediği müddetçe,
ki bu determinant sıfır değil demekti,
A dönüşümünün tersi olan bir "ters A" olacaktır.
Bu ters A, A uygulandıktan sonra
uygulandığında
hiçbir şey yapmamak anlamına gelen bir dönüşüm olmalıdır.
Ve eşitliği çözmek için tek yapman gereken, dönüşümün tersini
v vektörüne uygulaman olacaktır.
Fakat determinant sıfır olduğunda, bu eşitlik sistemi ile ilişkili
dönüşüm,
uzayı daha alt bir boyuta indirgiyor olduğunda ters Matrix olmayacaktır..
Bir çizgiyi genişleterek bir düzlem elde edemeyiz...
En azından bir fonksiyon bu işlemi gerçekleştiremez.

Russian: 
Опять же, систему уравнений можно перевести
на язык геометрии
Вот у вас есть трансформация, A,
и некоторый вектор, v,
и вы ищете вектор x, который приземляется
на v.
До тех пор пока преобразование А не скукоживает
все пространство в более низкое измерение,
т.к., его определитель отличен от нуля det (A)  != 0
будет обратное преобразование A^-1
с тем свойством, что если вы сначала примените A,
а затем применяете A^-1
это то же самое, что ничего не делать с пространством
И чтобы решить ваше уравнение, вы просто должнв
умножить эту матрицу обратного преобразования
на вектор v.
Но когда определитель равен нулю, а
преобразование, связанное с этой системой
уравнений
схлопывает пространство в меньшую размерность,  то обратного преобразования не существует
Вы не можете раскукожить линию обратно в плоскость.
По крайней мере, это не то, что [любая] функция способна сделать

iw: 
שוב, אפשר לפרש את מערכת המשוואות בצורה גיאומטרית
כשיש לך טרנספורמציה כלשהי A,
ווקטור v כלשהו,
ואתה מחפש וקטור x שינחת על v.
כל עוד הטרנספורמציה לא מוחצת את כל המרחב לתוך מימד נמוך יותר,
כלומר, הדטרמיננטה שלה שונה מאפס,
אז יהיה לה טרנספורמציה הפוכה, A הפוכה.
עם התכונה שאם אתה רוצה קודם להפעיל את A
ואז תפעיל את A הפיכה,
זה כמו לעשות כלום.
וכדי לפתור את המשוואה, אתה תצטרך להכפיל את המטריצה של הטרנספורמציה ההפוכה
ע"י הוקטור v.
אבל כאשר הדטרמיננטה היא אפס, אז הטרנספורמציה הקשורה למערכת
המשוואות
מוחצת את כל המרחב למימד נמוך יותר, אז אין הופכי.
אתה לא יכול לקחת קו ולהפוך אותו למישור.
לפחות, זה לא משהו שפונקציה יכולה לעשות.

English: 
Again, the system of equations can be translated
to the geometric interpretation
where you have some transformation, A,
and some vector, v,
and you're looking for the vector x that lands
on v.
As long as the transformation A doesn't squish
all of space into a lower dimension,
meaning, its determinant is nonzero,
there will be an inverse transformation, A
inverse,
with the property that if you first do A,
then you do A inverse,
it's the same as doing nothing.
And to solve your equation, you just have
to multiply that reverse transformation matrix
by the vector v.
But when the determinant is zero, and the
transformation associated with this system
of equations
squishes space into a smaller dimension, there
is no inverse.
You cannot un-squish a line to turn it into
a plane.
At least, that's not something that a function
can do.

Portuguese: 
Novamente, o sistema de equações pode ser interpretado geometricamente
com uma transformação A,
e algum vetor 'v',
e você procura pelo vetor 'x' que vai parar em 'v'.
Desde que a transformação A não aperte todo o espaço em uma dimensão menor,
ou seja, seu determinante é não-nulo,
então haverá uma transformação inversa, Aˆ(-1),
com a propriedade de que se você fizer antes A,
e depois Aˆ(-1),
é o mesmo que não fazer nada.
E para resolver sua equação, você apenas tem que multiplicar a transformação inversa
pelo vetor 'v'.
Mas quando o determinante é nulo, e a transformação
associada com esse sistema
esmaga o espaço em uma dimensão menor, não há inversa.
Você não pode "desesmagar" uma linha para transformá-la num plano.
Pelo menos não é o que uma função pode fazer.

Chinese: 
同样地可以给方程组赋予几何意义
也就是你有线性变换A
某个向量v
并且你在寻找向量x，在变换后与v重合
只要变换A不将空间压缩到一个更低的维度上
也就是它的行列式不为零
那它就存在逆变换 - A逆
使得应用A变换再应用A逆变换之后，结果与恒等变换无异
要想求解方程，你只需要将A逆与向量v相乘即可
但是当行列式为零时
与这个方程组相关的变换将空间压缩到更低的维度上
此时没有逆变换
你不能将一条线“解压缩”为一个平面
至少这不是一个函数能做的

Danish: 
hvor du har en given transformation, A,
og en given vektor, v,
og du leder efter vektoren x, der lander på v.
Så længe transformationen A ikke klemmer hele rummet i en lavere dimension,
hvilket betyder, dens determinant er forskellig fra nul,
vil der være en invers transformation, A invers,
med den egenskab, at hvis du først anvender A,
og så anvender A invers,
det er det samme som ikke at gøre noget.
Og for at løse din ligning, er du bare nødt til at gange den inverse transformationsmatrix med vektoren v.
Men når determinanten er nul, og transformationen foranledet af dette system af ligninger
klemmer rummet ned i en lavere dimension, er der ingen invers.
Du kan ikke hive en linje op og lave det til en plan.
I det mindste, det er ikke noget, som en funktion kan gøre.
Det ville kræve at omdanne hver enkelt vektor
til en hel linie fuld af vektorer.

Chinese: 
重復一遍，方程系統可以翻譯成用幾何的解釋，
你有一些變換， A
和一些矢量 v
并且你在尋找一個矢量 x 它停到 v 上。
只要A的變換不把空間壓縮進一個更低
維數的空間，就是說，它的行列式值
不為0，將將有一個逆轉換，A的逆矩陣，
具有這樣的性質，如果你先做A
然後你做A的逆轉換，
它和什麽也不做的效果是一樣的。
而來解你的方程，你就得把
矢量v 來乘以那個逆矩陣。
但是 如果這行列式值為0，那麽
和這個系統有關的變換
把空間壓縮到一個更低維數，就沒有逆變換了。
你不能去-壓縮一根綫來把它回到一個平面的。
至少那不是一個函數能做的一件事。

Polish: 
gdzie mamy pewną transformację, A,
i pewien wektor, v,
i szukamy wektora x który przemieści się w miejsce v.
Tak długo jak transformacja A nie redukuje przestrzeni w mniejszą ilość wymiarów,
czyli jej wyznacznik jest niezerowy,
będzie istnieć transformacja odwrotna, odwrotność z A,
mająca taka własność że jeśli pierwsze zrobimy A,
a potem odwrotność-z-A,
będzie to tym samym co zrobienie niczego.
I by rozwiązać twoje równanie, wystarczy że pomnożysz tą macierz transformacji odwrotnej przez wektor v.
Lecz gdy wyznacznik jest zerem, i transformacja związana z tym układem równań
redukuje przestrzeń w mniejszą ilość wymiarów, odwrotność nie istnieje.
Nie możesz od-zredukować prostej by przekształcić ją w płaszczyznę.
A w każdym razie, nie jest to coś co może zrobić funkcja.
Wymagałoby to przetworzenia każdego jednego wektora
w całą linię pełną wektorów.

Korean: 
또다시, 방정식계는 기하학적 해석으로 변환해서
어떤 변환을 나타내는 A 행렬과
어떤 벡터 v 를 가지고
벡터 v 로 변환되는 벡터 x 를 찾는 게 되지.
변환 A 가 공간을 더 낮은 차원으로 뭉게지 않는 한,
즉, 행렬식 값이 0 이 아닌 경우,
역행렬 A 가 존재하게 돼.
이 역행렬의 속성은 A 를 적용한 뒤,
A 역행렬을 적용하면,
아무것도 변하지 않는 거지.
그리고 이 방정식을 푼다는 것은, 
역행렬을 v 벡터에 곱하는 것이고.
하지만 행렬식 값이 0이면,
그리고 이 방정식계에 대한 변환이
더 작은 차원으로 뭉게버린다면,
역행렬은 존재하지 않게돼.
뭉게진 선을 되돌려서 평면으로 만들 수 없어.
적어도, 그 함수가 할 수 있는 일이 아니야.

German: 
Nochmal, das Gleichungssystem kann in die geometrische Interpretation übersetzt werden,
in der man irgendeine Abbildung A hat,
und irgendeinen Vektor v,
und man sucht den Vektor x, der auf v landet.
Solange diese Abbildung A den Raum nicht in einer kleinere Dimension quetscht,
also wenn ihre Determinante nicht-null ist,
wird es eine Inverse Abbildung, A^-1 geben,
mit der Eigenschaft, dass wenn man erst A anwendet,
und dann A^-1 anwendet,
das das Gleiche ist wie Nichtstun.
Und um die Gleichung zu lösen, muss man nur diese Umkehr-Abbildungs-Matrix mit
dem Vektor v multiplizieren.
Aber wenn die Determinante 0 ist, und die Abbildung, die dem
Gleichungssystem entspricht,
den Raum in eine kleinere Dimension quetscht, dann gibt es kein Inverses.
Man kann keine Gerade zu einer Ebene ent-quetschen.
Zumindest eine Funktion kann das nicht.

Turkish: 
Çünkü bu işlem her bir vektörü,
bir sürü vektör içeren doğrulara dönüştürmek demek olacaktır.
Lakin, fonksiyonlar, aynı girdi için farklı sonuçlar üretemezler!
Aynı şekilde üç değişkenli üç bilinmeyenli durumda da
ters Matrix olmayacaktır, eğer ilgili dönüşüm 3Boyutlu
uzayı, düzleme indirgiyor olursa.
hatta bir doğru ya da noktaya sıkıştırsa da olmaz.
Tüm bunlar elbette determinant sıfır olursa geçerli olur,
zira herhangi bir alan sıfır hacimli bir bölgeye hapsoldu.
Ters matrix olmadığında bile bir çözüm olması hala mümkün,
eğer vektör v , dönüşüm sonrasında, diyelim uzay doğruya dönüşürse,
ve şansımız yaver gider de, bu doğru üzerine denk gelirse v vektörü, çözüm vardır hala.
Siz de farketmiş olabilirsiniz ki; kimi sıfır determinant durumları diğer durumlara kıyasla daha kısıtlayıcı gibi.
Verilen bir 3x3 lük bir matrix düşünelim, bir çözüm olma olasılığı
doğru üzerine çöktüğünde uzay daha az iken, düzleme çöktüğünde

English: 
That would require transforming each individual
vector
into a whole line full of vectors.
But functions can only take a single input
to a single output.
Similarly, for three equations in three unknowns,
there will be no inverse if the corresponding
transformation
squishes 3D space onto the plane,
or even if it squishes it onto a line, or
a point.
Those all correspond to a determinant of zero,
since any region is squished into something
with zero volume.
It's still possible that a solution exists
even when there is no inverse,
it's just that when your transformation squishes
space onto, say, a line,
you have to be lucky enough that the vector
v lives somewhere on that line.
You might notice that some of these zero determinant
cases feel a lot more restrictive than others.
Given a 3x3 matrix, for example, it seems
a lot harder for a solution to exist
when it squishes space onto a line compared
to when it squishes things onto a plane,

Spanish: 
Eso requeriría transformar cada vector individual
en toda una línea llena de vectores.
Pero las funciones sólo pueden llevar una sola entrada a una sola salida.
De manera similar para tres ecuaciones y tres incógnitas,
no habrá inversa si la transformación correspondiente
comprime el espacio 3-D en un plano,
o inclusive si lo comprime a una línea o un punto.
Todos esos corresponden a un determinante cero,
dado que cualquier región es comprimida a algo de volumen cero.
Puede que haya una solución inclusive cuando no haya inversa,
sólo que cuando su transformación comprima el espacio en, digamos, una línea,
tienen que tener la suerte suficiente para que ese vector "v" esté sobre esa línea.
Puede que se den cuenta que algunos de estos casos con determinante 0 parecen más restrictivos que otros.
Dada una matriz de 3x3, por ejemplo, pareciera más difícil que exista una solución
cuando comprima el espacio en una línea comparado con cuando lo comprime en un plano,

French: 
Il faudrait pour cela transformer chaque vecteur individuel
en une ligne entière de vecteurs.
Mais les fonctions ne peuvent que transformer une unique entrée à une unique sortie.
De même, pour trois équations à trois inconnues,
il n'y aura pas d'inverse si la transformation correspondante
écrase l'espace 3D sur le plan,
ou encore si elle l'écrase sur une ligne, ou un point.
Ces cas correspondent tous à un déterminant de zéro,
étant donné que toute la région est écrasée en quelque chose de volume zéro.
Il est encore possible qu'une solution existe même quand il n'y a pas d'inverse,
c'est juste que lorsque votre transformation écrase l'espace sur, par exemple, une ligne,
vous devez être suffisament chanceux pour que le vecteur v soit quelque part sur cette ligne.
Vous remarquerez peut-être que certains cas de déterminant nul semblent beaucoup plus restrictif que d'autres.
Etant donné une matrice 3x3, par exemple, il semble beaucoup plus difficile qu'une solution existe
lorsque l'espace est écrasé sur une ligne plutot que quand il est écrasé sur un plan,

Portuguese: 
Isso envolveria transformar cada vetor individual
em uma linha cheia de vetores.
Mas funções só podem tomar uma entrada simples e devolver uma saída simples.
Similarmente, para três equações e incógnitas,
não haverá inversa de a transformação correspondente
apertar o espaço 3D num plano,
ou mesmo se apertar numa linha ou num ponto.
Todos esses casos correspondem ao determinante nulo,
dado que alguma região é apertada em algo com volume nulo.
Ainda é possível que a solução exista mesmo sem inversa,
é só que quando a sua transformação aperta o espaço, digamos, em uma reta,
você tem que ter sorte do vetor 'v' viver em algum local desta reta.
Você pode notar que alguns desses casos de determinante nulo parecem mais restritivos que outros.
Dada uma matriz 3 x 3, por exemplo, parece mais difícil que haja uma solução
quando ela aperta o espaço em uma linha do que quando ela aperta o espaço em um plano,

Russian: 
Для этого тогда бы пришлось преобразовывать каждый отдельный вектор
в целую серию векторов
Но функции только могут сопоставлять один вход одному выходу
Аналогично, для трех уравнений с тремя неизвестными,
не будет обратного преобразования, если соответствующее
преобразование
схлопывает 3D-пространство в плоскость,
или даже если оно схлопывает его в линию или
точку.
Все они соответствуют детерминанту, равному нулю
так как любой кусок пространство плоскости зажат во что-то
с нулевым объемом.
Возможно, существует решение
даже если нет обратного,
это просто, когда ваша трансформация схлопывает
пространство в, например, линию,
вам должно сильно повезти, чтобы вектор v оказался на одной из огромного числа линий.
Вы могли заметить, что некоторые такие случаи с det = 0 на вид имеют гораздо больше ограничений, чем другие.
Например, для матрицы 3x3, кажется что решение очень вряд ли существует,
когда преобразование схлопывает пространство в линию, по сравнению
с плоскостью.

Czech: 
Vyžadovalo by to rozbalit každý jednotlivý vektor
do celé přímky plné vektorů.
Ale funkce smí pouze vzít jeden vstup a vyhodit jeden výstup.
Podobné to je ve s třemi rovnicemi o třech neznámých,
inverzní transformace neexistuje, když ta dopředná
splácne 3D prostor na rovinu,
nebo dokonce na přímku či do bodu.
To odpovídá transformacím s nulovým determinantem,
protože se každá oblast splácne na nulový obsah.
I když nemáme inverz, může stále existovat řešení,
když transformace všechno splácne například do přímky,
můžeme mít stále štěstí, když vektor 'v' bude taky ležet někde na této přímce.
Můžete si všimnout, že některé případy s nulovým determinantem jsou více omezující než jiné.
Když máte třeba matici 3x3, řešení bude existovat s menší pravděpodobností,
když se prostor splácne do přímky, než když se splácne do roviny,

Arabic: 
وهذا يتطلب تحويل كل فرد
قوه موجهة
في خط كامل مليئ بالنواقل.
لكن يمكن للوظائف أن تأخذ مدخلاً واحدًا فقط
إلى خرج واحد.
بالمثل ، لثلاث معادلات في ثلاثة مجهولة ،
لن يكون هناك معكوس إذا كان المقابل
تحويل
يسحق الفضاء 3D على الطائرة ،
أو حتى إذا كانت تسحقه على خط أو
نقطة.
تلك كلها تتوافق مع محدد من الصفر ،
بما أن أي منطقة يتم سحقها في شيء ما
مع حجم صفر.
لا يزال من الممكن وجود حل
حتى عندما لا يكون هناك معكوس ،
إنه فقط عندما يسحق التحول
الفضاء على ، على سبيل المثال ، خط ،
عليك أن تكون محظوظا بما فيه الكفاية أن المتجه
v يعيش في مكان ما على هذا الخط.
قد تلاحظ أن بعض هذه المحددات صفر
الحالات يشعر بأنها أكثر تقييدا ​​من غيرها.
بالنظر إلى مصفوفة 3X3 ، على سبيل المثال ، على ما يبدو
أصعب بكثير للتوصل إلى حل
عندما يسحق الفضاء على خط مقارنة
عندما يسحق الأشياء على متن طائرة ،

Polish: 
Lecz funkcje mogą brać tylko jedno wyjście i mieć jedno wyjście.
Podobnie, dla trzech równań z trzema niewiadomymi,
nie będzie odwrotności jeśli odpowiadająca transformacja
redukuje przestrzeń 3D w płaszczyznę,
lub nawet w prostą lub punkt.
Wszystkie one mają zerowy wyznacznik,
ponieważ każdy obszar jest redukowany do czegoś o zerowej objętości.
Ciągle jest możliwe że rozwiązanie istnieje nawet gdy nie ma odwrotności,
po prostu gdy transformacja redukuje przestrzeń w, dla przykładu, linię,
musisz mieć sporo szczęścia by wektor v znajdował się na tej linii.
Możesz spostrzec że część z tych przypadków o zerowym wyznaczniku jest bardziej restrykcyjna niż inne.
Mając macierz 3x3 (dla przykładu), wygląda na to że trudniej istnieć rozwiązaniu
gdy redukuje ona przestrzeń do linii w porównaniu do sytuacji gdy redukuje przestrzeń do płaszczyzny,
mimo tego że w obu przypadkach mamy tak samo zerowy wyznacznik.

Korean: 
그렇게 하려면 필요한게,
각 벡터를 변환시켜서
하나의 온전한 선, 선을 이루는 모든 벡터로 바꿔야 해.
하지만, 함수들은 하나의 입력을 받아 하나의 출력만 만들어.
마찬가지로, 3개 미지수로 구성된 3개의 방정식에서도
이같은 변환을 나타낼 길은 없어.
3차원 공간을 평면으로 축소시키거나
또는 선이나 점으로 뭉게뜨리는 것은 가능해도 말야.
행렬식 값 0 인 모든 것은
어떤 지역이라도 영부피로 만들기 때문에
해는 여전히 존재할 수 있긴 해.
역행렬이 없는 경우라도 말야.
어떤 변환이 공간을 하나의 선으로 변환시키는 경우라면,
벡터 v 가 그 선 위에 놓여있는 경우가 다행인 거야.
(역자: 이때만 해를 구할 수 있다)
너는 아마도 행렬식 0 값인 경우가 
다른 경우보다 제한되는 느낌을 받을 거야.
3x3 행렬을 예를들면, 
해가 존재하기 상당히 힘들어 지는 경우가 있어.
공간을 하나의 선으로 수축하는 경우가
공간을 평면으로 수축하는 경우보다 더 말야.

Portuguese: 
Isso exigiria transformar cada vetor individual
em toda uma linha cheia de vetores.
Mas funções só pode ter uma única entrada
para uma única saída.
Da mesma forma, para três equações 
com três incógnitas,
não haverá inversa se a transformação correspodente
comprime o espaço 3D em um plano,
ou mesmo comprime-o em uma linha, 
ou um ponto.
Todos esses casos correspondem a 
um determinante zero,
uma vez que qualquer região é 
comprimida em algo com volume zero.
É possível que ainda exista uma solução
mesmo quando não há nenhuma inversa,
só que quando a sua transformação comprime
o espaço para, digamos, uma linha,
você tem que ter a sorte do vetor
v existir em algum lugar nessa linha.
Você pode notar que alguns casos de determinante zero
são ainda mais restritivos que outros.
Dada uma matriz 3x3, por exemplo, parece
muito mais difícil uma solução existir
quando se comprime espaço em uma linha,
do que quando se comprime tudo em um plano

Chinese: 
这样就会要求将一个单独的向量变换为一整条线的向量
但是函数只能将一个输入变换为一个输出
类似地，对于三个方程和三个未知量
如果变换将三维空间压缩为一个平面，甚至是一条直线或一个点，那么它也没有逆变换
它们都对应行列式为零的情况，因为此时所有区域都被压缩到零体积
即便不存在逆变换，解仍然可能存在
比如说，一个变换将空间压缩为一条直线
你得足够幸运，让向量v恰好处于这条直线上
你可能注意到一些零行列式的情况比其他的更加严格
比如说一个3×3的矩阵
当它将空间压缩为一条直线时，与平面相比，解存在的难度更高了

German: 
Das würde bedeuten, einen einzelnen Vektor
auf eine ganze Gerade voller Vektoren abzubilden.
Aber Funktionen können aus einer einzigen Eingabe nur eine einzige Ausgabe machen.
Analog, wird es für drei Gleichungen mit drei Unbekannten
kein Inverses geben, wenn die entsprechende Abbildung
3D-Raum in eine Ebene quetscht,
oder sogar in eine Gerade, oder einen Punkt.
All diese entsprechen einer Determinante von 0,
da jede Region in etwas mit Volumen 0 gequetscht wird.
Es ist immer noch möglich, dass es auch ohne Inverses eine Lösung gibt,
es ist nur so, dass wenn die Abbildung den Raum auf, sagen wir eine Gerade quetscht,
muss man sehr viel Glück haben, wenn der Vektor v irgendwo auf dieser Geraden leben soll.
Euch fällt vielleicht auf, dass manche der Null-Determinanten-Fälle sich viel restriktiver anfühlen als andere.
Gegeben eine 3x3-Matrix ist es z.B. viel unwahrscheinlicher, dass eine Lösung existiert
wenn sie den Raum auf eine Gerade anstatt auf eine Ebene zusammenquetscht.

iw: 
זה ידרוש טרנספורמציה לכל וקטור בנפרד
לקו שלם שיש בו מלא וקטורים.
אבל פונקציות יכולות לקבל רק קלט אחד ולהוציא פלט אחד.
באופן דומה, עובר שלוש משוואות ב-3 נעלמים,
לא יהיה שום טרנספורמציה הופכית, אם הטרנספורמציה המתאימה
מוחצת את המרחב התלת-מימדי לתוך מישור.
או אפילו אם היא מוחצת אותו לתוך קו או נקודה.
כל אלה מתאימים לכך שהדטרמיננטה היא אפס,
מכיוון שכל איזור נמחץ לתוך משהו שנפחו הוא אפס.
זה עדיין סביר להניח שקיים פיתרון, אפילו כשאין מטריצה הופכית,
העניין הוא כשטרנספורמציה שלך מוחצת את המרחב לתוך, נגיד לדוגמא, לקו,
אם יש לך מספיק מזל, הוקטור הזה, v חי איפשהו על הקו הזה.
אתה אולי תבחין שחלק מהמקרים של דטרמיננטות שהן אפס - מרגיש כמו משהו שיותר מגביל אותך ממקרים אחרים.
בהינתן מטריצה 3x3, לדוגמא, זה נראה שפחות סביר לכך שיהיה פיתרון
כאשר זה מוחץ את המרחב לתוך קו ביחס לאם מוחצים את המרחב לתוך מישור,

Chinese: 
那需要轉換各個矢量變成
都是矢量的一整條綫。
但是函數只能有一個輸入變成一個輸出。
與此相似，對於3個未知數的3個方程中，
如果相應的變換把3維的空間壓縮到
這個平面上，或者甚至如果它吧它壓成
一根綫，或者一個點的話，那就沒有逆矩陣了。
所有的這些都相對應於一個行列式為0的情況，
因爲然後的區域被壓縮到一個體積為0的一個東西了。
如果沒有逆矩陣的話也是有可能存在一個解的，
這只不過是在你的變換時把空間壓縮成
比分說，一根綫，而你運氣必須好到這矢量在那根綫上的一個地方。
你可能注意到這些行列式值為0的情況中有些比其他的要更嚴格一些。
舉個例，給出一個3x3 的矩陣，這看起來更難些來存在一個解的
如果它和相比一個平面壓縮空間到一條綫相比

Danish: 
Men funktioner kan kun tage et enkelt argument til et enkelt output.
Tilsvarende for tre ligninger i tre ubekendte,
vil der ikke være omvendt, hvis den tilsvarende transformation
klemmer 3D-rummet ned på en plan,
eller helt ned på en linie eller et punkt.
Disse svarer alle til tilfældet hvor deternimanten er nul,
da enhvert område bliver klemt til noget med et volumen på nul.
Det er stadig muligt, at der findes en løsning, selv når der ikke er en invers,
det er bare, at når din transformation klemmer rummet ned på, lad os sige, en linje,
så skal du skal være heldig at vektoren v bor et sted på denne linje.
Du vil måske bemærke, at nogle af disse nul determinant tilfælde føles meget mere restriktive end andre.
Givet en 3x3 matrix, for eksempel, synes det meget sværere for en løsning til at eksistere
når den klemmer rummet ned på en linie sammenlignet med, når den klemmer ting ned på en plan,
selv om de begge har determinant nul.

Chinese: 
即使兩者都是那些行列式為0的。
比起我們說“行列式值為0”，我們有些更為確定的語言。
在一個變換輸出是一根綫的時候，意思是這是1-維的，
我們說這變換有‘秩(rank)’為1.
如果所有的矢量都在某個2-維平面上，
我們是這變換有一個‘秩（rank）’為2.
因此'秩(rank)'這個字意思是一個便會的輸出的數字的維數。
例如，在一個2x2 矩陣的情況中，秩為2是它所能做到最高的了。
它意味著單位矢量繼續擴展到整個2-維空間，
而行列式值不為0.
但是對3x3矩陣，秩為2意味著我們已經坍縮了，
但並沒有想在一個秩為1的情況會有的那種坍縮。
如果一個3-維的變換具有一個不為0的行列式值，而它的輸出填滿了整個3-維空間，
它就有一個秩是3.
對你的矩陣所有可能有的輸出的集合，

Turkish: 
her iki determinant sıfır olsa da daha fazla gibi.
Sadece determinantı sıfır demekten ötesini anlatabilmek için yeni bir söylemimiz var aslında.
Bir dönüşümün sonucu eğer doğru ise, ki bu tek-boyutlu anlamına geliyor,
dönüşümün "mertebesi" 1 dir deriz.
Eğer üm vektörler iki boyutlu biz düzlem üzerine düşerse,
Dönüşümün "mertebesi" 2 dir deriz.
Dolayısıyla, "mertebe" dönüşümün sonucundaki boyut anlamına gelmektedir.
Misal, 2x2'lik bir matrixte mertebe 2 en yüksek mertebeli sonuçtur.
Bu da asıl vektörlerin tüm 2 boyut uzanımında konumlara gidebileceği anlamına gelir ki;
determinant sıfırdan faklıdır.
3x3 matrix için ise; mertebe 2, uzay çöktü demektir.
Fakat mertebe 1 olduğunda çöktüğü kadar değil bu çöküş elbette.
Eğer 3Boyutlu bir dönüşüm sıfır olmayan bir determinanta sahipse, sonuç tüm 3Boyut uzayını kapsarsa
mertebesi 3'tür.
Matrix'in tüm olası çıktılarını içeren bu set

French: 
même si dans les deux cas le déterminant est nul.
Il y a un terme qui est un peu plus précis que de simplement dire « déterminant nul ».
Lorsque la sortie d'une transformation est une ligne, c'est à dire qu'elle est unidimensionnelle,
on dit que la transformation a un « rang » de 1.
Si tous les vecteurs atterrissent sur un plan à deux dimensions,
on dit que la transformation a un « rang » de 2.
Ainsi, le mot « rang » désigne le nombre de dimensions à la sortie d'une transformation.
Par exemple, dans le cas des matrices 2x2, rang 2 est le plus grand que l'on peut avoir.
Il signifie que les vecteurs de base continuent d'engendrer les deux dimensions de l'espace, et le
déterminant est non nul.
Mais pour les matrices 3x3, rang 2 signifie que l'espace s'est écrasé,
mais pas autant qu'ils l'aurait été dans une situation de rang 1.
Si une transformation 3D a un déterminant non nul, et sa sortie remplit tout l'espace 3D,
il a un rang de 3.
Cet ensemble de toutes les sorties possibles pour la matrice,

Portuguese: 
mesmo que em ambos os casos
sejam de determinante zero.
Usamos uma linguagem um pouco mais específica
ao invés de dizer "determinante zero"
Quando a saída de uma transformação é uma linha, 
ou seja, é unidimensional,
dizemos que a transformação tem um posto (rank) um.
Se todos os vetores param em algum plano (bidimensional),
Nós dizemos a transformação tem um posto (rank) dois
Assim, a palavra posto (rank) significa o número de dimensões do resultado de uma transformação.
Por exemplo, no caso de matrizes 2x2,
posto 2 é o melhor que podemos conseguir.
Isso significa que os vetores de base continuam a gerar todo o espaço bidimensional,
e o determinante é diferente de zero.
Mas para matrizes 3x3, 
posto 2 significa que nós temos uma compressão,
mas não tanto quanto seria se comprimíssemos
para uma situação de posto 1.
Se uma transformação 3D tem um 
determinante diferente de zero,
e sua saída gera todo o espaço 3D, ela tem posto 3.
Este conjunto de todas as saídas possíveis
para a sua matriz,

Russian: 
хотя оба они соответствуют условию det = 0
У нас есть некоторый язык, который немного конкретнее
чем просто сказать «нулевой детерминант».
Когда выход преобразования является линией,
что означает одномерность,
мы говорим, что преобразование имеет «ранг»
один.
Если все векторы приземляются на какой-то двумерной плоскости
Мы говорим, что преобразование имеет «ранг»
два.
Таким образом, слово «ранг» означает количество измерений
на выходе преобразования.
Например, в случае 2x2-матриц,
ранг 2 - лучшее, что может быть.
Это означает, что базисные векторы продолжают задавать полное двухмерное векторное пространство
и детерминант отличен от нуля.
Но для матриц 3x3 ранг 2 означает, что мы схлопнулись,
но не настолько, как было бы в
ситуации ранга 1.
Если трехмерное преобразование имеет ненулевой определитель,
а вывод преобразования заполняет все трехмерное пространство,
оно имеет ранг 3.
Этот набор всех возможных выводов для вашей матрицы

Polish: 
Mamy pewien bardziej dokładny sposób opisania tej sytuacji niż tylko "zerowy wyznacznik".
Gdy rezultat transformacji jest linią, tzn. jest jedno-wymiarowy,
mówimy że transformacja ma "rząd" równy jeden.
Jeśli wszystkie wektory lądują na pewnej dwu-wymiarowej płaszczyźnie,
mówimy że transformacja ma "rząd" równy 2.
Zatem słowo "rząd" oznacza ilość wymiarów wyjściowych z transformacji.
Dla przykładu, gdy mamy macierze 2x2, rząd równy 2 jest największym jaki może być.
Oznacza to że wektory bazowe dalej rozpinają pełne dwa wymiary przestrzenne, a wyznacznik jest niezerowy.
Lecz dla macierzy 3x3, rząd równy 2 oznacza że nastąpiła redukcja,
choć nie aż tak jak by mogła w przypadku rządu równego jeden.
Gdy transformacja 3D ma niezerowy wyznacznik, i jej wynik zapełnia całą przestrzeń 3D,
ma ona rząd równy 3.
Zbiór wszystkich możliwych wyników z twojej macierzy,
niezależnie czy są one linią, płaszczyzną, przestrzenią 3d, jakkolwiek,
nazywamy "przestrzenią kolumnową" twojej macierzy.

German: 
obwohl beide Determinante 0 haben.
Es gibt eine Ausdrucksweise, die spezifischer ist, als einfach "Determinante 0" zu sagen.
Wenn die Ausgabe einer Abbildung eine Gerade ist, also eindimensional,
sagen wir, dass die Abbildung einen "Rang" von 1 hat.
Wenn all die Vektoren auf einer zwei-dimensionalen Ebene landen,
sagen wir, dass die Abbildung einen "Rang" von 2 hat.
Also steht das Wort "Rang" für die Anzahl der Dimensionen in der Ausgabe einer Abbildung.
Zum Beispiel ist im Fall von 2x2-Matrizen Rang 2 das Beste, das passieren kann.
Er bedeutet, dass die Basisvektoren immer noch die vollen zwei Raumdimensionen aufspannen, und dass die
Determinante ungleich 0 ist.
Aber für 3x3-Matrizen, heißt Rang 2, dass wir zusammengefallen sind,
wenn auch nicht soviel wie wenn wir in einer Rang-1-Situation zusammengefallen wären.
Wenn eine 3D-Abbildung eine Determinante ungleich 0 hat, und ihre Ausgabe den gesamten 3D-Raum ausfüllt,
hat sie einen Rang von 3.
Diese Menge aller möglichen Ausgaben Ihrer Matrix,

Danish: 
Vi har sprogbrug, der er lidt mere specifik end bare at sige "nul determinant."
Når værdimængden af ​​en transformation er en linje, hvilket betyder at det er endimensional,
siger vi at transformationen har "rang" en.
Hvis alle vektorerne lander på en todimensional plan,
siger vi at transformationen har "rang" to.
Så ordet "rang" betyder antallet af dimensioner i værdirummet af ​​en transformation.
For eksempel i tilfældet med 2x2 matricer, er rang 2 er det bedste, det kan være.
Det betyder basisvektorer fortsat spænder de fulde to dimensioner af rummet, og determinanten er forskellig fra nul.
Men for 3x3 matricer, betyder rang 2, at vi har kollapset,
men ikke så meget som de ville have kollapset i rang 1 situationen.
Hvis en 3D transformation har en determinant forskellig fra nul, og dens output fylder hele 3D rummet,
har den rang 3.
Dette sæt af alle mulige værdier for din matrix,
uanset om det er en linje, en plan, 3D-rum, eller noget fjerde,
kaldes "søjlerummet" af din matrix.

Spanish: 
aún cuando en ambos casos el determinante es cero.
Tenemos un lenguaje que es un poco más específico que sólo decir que tiene "determinante igual a cero".
Cuando la salida de una transformación es una línea, 
es decir que es unidimensional,
Decimos que la transformación tiene "rango" 1.
Si todos los vectores caen en algún plano bidimensional,
decimos que la transformación tiene rango 2.
Así que la palabra "rango" quiere decir el número de dimensiones de la salida de una transformación.
Por ejemplo, en el caso de las matrices de 2x2, el rango 2 es el mejor que puede ser.
Quiere decir que los vectores base siguen generando todo el espacio bidimensional y su determinante no es cero.
Pero para matrices de 3x3, rango 2 quiere decir que hemos colapsado,
pero no tanto como hubiéramos colapsado en un caso de rango 1.
Si una transformación 3-D posee determinante distinto de cero o su salida abarca todo el espacio 3-D,
tiene rango 3.
Este conjunto de todas las posibles salidas de su matriz,
no importa si es una línea, un plano, el espacio 3-D o lo que sea,

Czech: 
i když je determinant nulový v obou případech.
Existuje jistá terminologie, která je přesnější než jenom "nulový determinant".
Když je výstup transformace jenom přímka, tedy jednorozměrný,
řekneme, že "hodnost" této transformace je 1.
Když vektory přistanou ve dvourozměrné rovině,
řekneme, že "hodnost" je rovna dvěma.
Hodnost tedy obecně značí dimenzi výstupů z transformace.
V případě matic 2x2 je nejlepší možná hodnost 2,
což značí, že obal bázových vektorů nadále pokrývá celou rovinu
a determinant je nenulový.
Pro matice 3x3 na druhou stranu hodnost 2 znamená, že jsme se splácli,
ale ne tak moc jako v případě hodnosti 1.
Když má 3D transformace nenulový determinant a její výstup vyplňuje celý prostor,
má hodnost 3.
Množina všech možných výstupů z matice,

Arabic: 
على الرغم من أن كلاهما محدد تمامًا.
لدينا لغة أكثر تحديدًا
من مجرد القول "صفر محدد".
عندما يكون ناتج التحويل هو الخط ،
بمعنى أنها أحادية البعد ،
نقول أن التحول له "رتبة"
واحدة.
إذا كانت جميع ناقلات الأرض على بعض ثنائية الأبعاد
طائرة،
نقول أن التحول له "رتبة"
اثنين.
إذن كلمة "رتبة" تعني عدد الأبعاد
في إخراج التحول.
على سبيل المثال ، في حالة المصفوفات 2x2 ،
الترتيب 2 هو أفضل ما يمكن أن يكون.
هذا يعني أن المتجهات الأساسية تستمر في الامتداد
البعد الكامل للفضاء ، و
المحدد هو غير صفري.
ولكن بالنسبة لمصفوفات 3x3 ، فإن الترتيب 2 يعني أننا قمنا بذلك
انهار،
ولكن ليس بقدر ما كان يمكن أن ينهار
لوضع رتبة 1.
إذا كان التحويل ثلاثي الأبعاد يحتوي على محدد غير صفري ،
وإخراجها يملأ كل المساحة الثلاثية الأبعاد ،
لديها رتبة 3.
هذه المجموعة من جميع المخرجات الممكنة لجهودكم
مصفوفة،

Korean: 
심지어 둘 다 행렬식 값은 0 으로 같은데도 말야.
이 경우 우리는 단순히 "행렬식 0(zero determinant)" 보다 더 정확한 표현이 필요한 거 같아.
변환의 결과가 선이라면, 
즉 1차원 이라면,
이 경우 랭크(rank)=1 이라고 해.
모든 벡터가 2차원 평면에 놓여있다면,
이때는 랭크(rank)=2 라고 말해.
그래서 단어 "랭크(rank)" 의 의미는 
변환 결과의 차원의 수를 말해주지.
예를 들어, 2 × 2 행렬의 경우에, 
최대로 될 수 있는 랭크는 2야.
이 말은 기저벡터들을 확장시켜 온전한 2차원 공간을 만들 수 있다는 거야. 행렬식 값이 0 이 아니라는 뜻이지.
그러나 3 × 3 행렬에서, 랭크가 2 라는 말은
공간이 붕괴(축소) 했음을 말해.
하지만 랭크 1 만큼 붕괴된 것은 아닌 거지.
3차원 변환의 행렬식 값이 0 이 아니라면,
3차원 공간의 결과가 온전한 3차원이라면,
이때는 랭크 3 이야.
행렬의 가능한 결과의 집합을
, 선이든, 평면이든, 3차원 공간이든지 간에,

iw: 
למרות שלשניהם של דטרמיננטה שהיא אפס.
יש לנו שפה שהיא יותר מרק להגיד באופן ספיציפי "דטרמיננטה שווה לאפס".
כאשר הפלט של הטרנספורמציה הוא קו, כלומר, הוא חד-מימדי(מימד 1)
אנחנו אומרים שלטרנספורמציה של "דרגה" של אחת.
אם כל הוקטורים נוחתים במישור הדו-מימדי,
אנחנו אומרים שלטרנספורמציה של "דרגה" של 2.
אז המילה "דרגה" מתייחסת למספר מימדים במקרה של פלט של טרנספורמציה
לדוגמא, במקרה של מטריצות 2x2, הדרגה 2 היא הכי גבוהה שיכולה להיות.
הכוונה לכך היא: וקטורי הבסיס ממשיכים לפרוש את כל המרחב הדו-מימדי
והדטרמיננטה שונה מאפס.
אבל עבור מטריצות 3x3, משמעות הדרגה 2 היא שהתמוטטנו(מדרגה 3 לדרגה 2)
אבל לא כמו שהיינו מתמוטטים עבור המצב של דרגה 1.
אם לטרנספורמציה ב-3 מימדים יש דטרמיננטה שונה מאפס, אז הפלט שלה ימלא את כל המרחב התלת-מימדי,
ויש לה את הדרגה של 3.
הקבוצות של הפלטים הללו של המטריצה,

Portuguese: 
mesmo que ambos desses casos tenham determinante nulo.
Temos uma linguagem que é um pouco mais específica do que apenas dizer "determinante nulo".
Quando a saída de uma transformação é uma linha, significando que é unidimensional,
dizemos que a transformação tem "posto" 1.
Se todos os vetores aterrissam em um plano bidimensional,
dizemos que a transformação tem "posto" 2.
Então a palavra "posto" significa o número de dimensões na saída da transformação.
Por exemplo, no caso de matrizes 2 x 2, posto 2 é o melhor que dá pra alcançar.
Significa que os vetores da base continuam a alcançar as duas dimensões do espaço,
e o determinante é não-nulo.
Mas para matrizes 3 x 3, posto 2 indica que colapsamos,
mas não tanto quanto numa solução de posto 1.
Se uma transformação 3D tem determinante não-nulo, e sua saída enche todo o espaço 3D,
ela tem posto 3.
Esse conjunto de todas as saídas possíveis para esta matriz,

Chinese: 
即使这两种情况下行列式均为零
除了零行列式之外，我们还有特定术语来描述它们
当变换的结果为一条直线时，也就是说结果是一维的
我们称这个变换的秩为1
如果变换后的向量落在某个二维平面上
我们称这个变换的秩为2
所以说“秩”代表着变换后空间的维数
比如说对于2×2的矩阵，它的秩最大为2
意味着基向量仍旧能张成整个二维空间
并且矩阵的行列式不为零
但是对于3×3的矩阵，秩为2意味着空间被压缩了
但是和秩为1的情况相比，压缩并不是那么严重
如果一个三维变换的行列式不为零，变换结果仍旧充满整个三维空间
那么它的秩为3
不管是一条直线、一个平面还是三维空间等，所有可能的变换结果的集合

English: 
even though both of those are zero determinant.
We have some language that's a bit more specific
than just saying "zero determinant."
When the output of a transformation is a line,
meaning it's one-dimensional,
we say the transformation has a "rank" of
one.
If all the vectors land on some two-dimensional
plane,
We say the transformation has a "rank" of
two.
So the word "rank" means the number of dimensions
in the output of a transformation.
For instance, in the case of 2x2 matrices,
rank 2 is the best that it can be.
It means the basis vectors continue to span
the full two dimensions of space, and the
determinant is nonzero.
But for 3x3 matrices, rank 2 means that we've
collapsed,
but not as much as they would have collapsed
for a rank 1 situation.
If a 3D transformation has a nonzero determinant,
and its output fills all of 3D space,
it has a rank of 3.
This set of all possible outputs for your
matrix,

Portuguese: 
seja uma linha, um plano, o espaço 3D, o que for,
é chamada "espaço coluna" da sua matriz.
Você provavelmente pode chutar de onde vem esse nome.
As colunas da sua matriz te dizem onde os vetores da base aterrissam,
e o subespaço gerado de todos os vetores de base transformados lhe dá todas as saídas possíveis.
Em outras palavras, o espaço coluna é o subespaço gerado pelas colunas de sua matriz.
Então, uma definição mais precisa de posto seria que
é o número de dimensões no espaço coluna.
Quando este posto é tão alto quanto possível,
significando que é igual ao número de colunas, dizemos que a matriz tem "posto cheio".
Note que o vetor nulo sempre está no espaço coluna.
dado que transformações lineares mantém a origem fixa.
Para uma transformação de posto cheio, o único vetor que para na origem é
o próprio vetor nulo,
mas para matrizes que não são posto cheio, que apertam as coisas em dimensões menores,

Chinese: 
不管它是一條綫，一個平面，3-維空間
被稱作你的矩陣的“列空間”。
你也許可以猜出這名字是從那兒來的。
你矩陣的列告訴你這單位矢量停在什麽地方的，
而這些經變換的單位矢量給出所有可能有的輸出。
換句話說，列空間是你的矩陣的列的擴展。
因此秩的一個更為精確定義會是
如果這個秩是它所能達到最高的，
意思是它等於列的數目，我們叫這矩陣“全秩(full rank)”。
注意，0矢量將永遠被包括在這列空間裏。
因爲綫性變換必須保持原點不動的。
對一個全秩變換來說，停在原點的矢量
只有是0矢量的自身。
但是對不是全秩的矩陣，也就是它壓縮到一個更小的維數的，來說

iw: 
בין אם זה קו, מישור, מרחב תלת-מימדי, מה שלא יהיה
זה נקרא "מרחב העמודה" של המטריצה שלך.
אתה בטח יכול לנחש מאיפה השם הזה בא.
העמודות הללו במטריצה יאמרו לך איפה וקטורי הבסיס הללו ינחתו,
והפרישה וקטורי הבסיס שעברו טרנספורמציה, נותנת לך את כל הפלטים האפשריים.
במילים אחרות, העמודה במרחב היא הפרישה של העמודות של המטריצה שלך.
אז, באופן יותר מדויק, ההגדרה של דרגה תהיה:
זהו מספר המימדים בעמודה של המרחב.
כשהדרגה הזאת היא הכי גבוהה שהיא יכולה להיות,
כלומר, היא שווה למספר העמודות, אנחנו קוראים למטריצה הזו שהיא מ"דרגה מלאה".
שים לב, וקטור האפס תמיד יהיה בעמודה במרחב,
מכיוון שהטרנספורמציות הלינארות חייבות לשמור את ראשית הצירים במקום.
אבל טרנספורמציה של דרגה מלאה, הוקטור היחיד שנוחת על הראשית הוא וקטור האפס
בעצמו,
אבל המטריצות שהן לא דרגה מלאה, אשר מוחצות את המרחב למימד קטן יותר

Czech: 
ať už to je rovina, přímka, či něco jiného,
se nazývá "sloupcový prostor" matice.
Asi uhodnete, odkud tento název pochází.
Sloupečky matice říkají, kde skončí bázové vektory,
a lineární obal těchto transformovaných bázových vektorů dává všechny možné výstupy.
Jinými slovy je "sloupcový prostor matice" lineárním obalem všech jejích sloupečků.
Takže přesnější definice hodnosti by mohla znít:
"dimenze sloupcového prostoru".
Když je hodnost tak vysoká, jak jen může,
tedy je rovna počtu sloupečků, říkáme o matici, že má "plnou hodnost".
Všimněte si, že nulový vektor se bude v sloupcovém prostoru nacházet pokaždé,
jelikož lineární transformace musí zachovávat počátek na místě.
V případě plné hodnosti skončí v počátku pouze samotný nulový
vektor,
ale u matic, které nemají plnou hodnost, u těch, které splácnou celý prostor do nižší dimenze,

Korean: 
그 행렬의 "열 공간(column space)"라고 불러.
넌 지금쯤 이 이름이 어떻게 나왔는지 알 수 있을거야.
행렬의 열들은 기저벡터의 변환 후 위치이고,
이 변환후 기저벡터들의 확장공간은 가능한 모든 결과공간을 알려주지.
즉, 열 공간(column space) 란,
행렬의 열들의 확장공간이야.
그래서, 랭크의 좀 더 정확한 정의는
열공간의 차원 수야.
이 랭크가 높아질 수록,
열의 갯수와 같다는 말이고, 
이 때를 "온전한 랭크(full rank)" 라고 불러.
기억해야할 것은, 영 벡터(zero vector)는 어느 열공간에든지 포함되어 있다는 거야.
선형변환은 반드시 원점이 고정되어 있어야 하기 때문이야.
(역자: 앞선 "linear tranformation" 챕터 확인)
완전한 랭크(full rank) 인 변환에서,
원점으로 변하는 벡터는 영벡터 뿐이야.
그렇지만 행렬이 온전한 랭크(full rank) 가 아니라면, 
즉 더 작은 차원으로 축소된다면,
제로벡터가 되는 수많은 벡터들을 가지게 될거야.

English: 
whether it's a line, a plane, 3D space, whatever,
is called the "column space" of your matrix.
You can probably guess where that name comes
from.
The columns of your matrix
tell you where the basis vectors land,
and the span of those transformed basis
vectors gives you all possible outputs.
In other words, the column space is the
span of the columns of your matrix.
So, a more precise definition of rank
would be that
it's the number of dimensions in the column
space.
When this rank is as high as it can be,
meaning it equals the number of columns, we
call the matrix "full rank."
Notice, the zero vector will always be
included in the column space,
since linear transformations must keep the
origin fixed in place.
For a full rank transformation, the only vector
that lands at the origin is the zero vector
itself,
but for matrices that aren't full rank,
which squish to a smaller dimension,

French: 
que ce soit une ligne, un plan, un espace 3D, ou quoi que soit,
est appelé « l'image » de la matrice, ou « l'espace des colonnes » (anglicisme non utilisé en pratique)
Vous pouvez peut-être deviner d'où ce nom vient.
Les colonnes de votre matrice
vous donnent l'endroit où la base des vecteurs atterit,
et cette base transformée engendre l'ensemble des sorties possibles.
En d'autres termes, l'espace de colonne est l'espace engendré par les colonnes de votre matrice,
où va « s'imprimer » les résultats de la transformation, d'où le terme « image ».
Ainsi, une définition plus précise du rang serait
le nombre de dimensions de l'image.
Lorsque ce rang est à son maximum,
c'est à dire qu'il est égal au nombre de colonnes, on qualifie la matrice de « plein rang »
Notez que le vecteur nul sera toujours
inclus dans l'image,
étant donné que les transformations linéaires doivent maintenir l'origine fixé à sa place.
Pour une transformation de plein rang, le seul vecteur qui atterit à l'origine est le vecteur nul lui-même
mais avec les matrices qui ne sont pas de plein rang, qui s'écrasent dans une dimension plus petite,

Chinese: 
被称为矩阵的“列空间”
你大概也能猜到这个名字从哪来了
矩阵的列告诉你基向量变换后的位置
这些变换后的基向量张成的空间就是所有可能的变换结果
换句话说，列空间就是矩阵的列所张成的空间
所以更精确的秩的定义是列空间的维数
当秩达到最大值时，意味着秩与列数相等
我们称之为“满秩”
注意，零向量一定会被包含在列空间中
因为线性变换必须保持原点位置不变
对一个满秩变换来说，唯一能在变换后落在原点的就是零向量自身
但是对一个非满秩的矩阵来说，它将空间压缩到一个更低的维度上
也就是说会有一系列向量在变换后成为零向量

Russian: 
будь то линия, плоскость, 3D-пространство, что угодно,
называется «пространством столбцов» вашей матрицы.
Вероятно, вы можете догадаться, откуда это имя
из.
Столбцы вашей матрицы
говорят вам, где лежат основополагающие векторы,
и пространство векторов, задаваемое этими преобразованными базисными векторами дают вам все возможные результаты.
Другими словами, пространство столбцов является векторным пространством, которое задают векторы в столбцах матрицы
Итак, более точное определение ранга
было бы следующее:
это число измерений пространстве столбцов
Когда этот ранг настолько высок, насколько это возможно,
то есть он равен числу столбцов, мы
называем матрицу «полный ранг».
Обратите внимание, что нулевой вектор всегда будет
включен в пространство столбцов,
так как линейные преобразования должны оставлять начало координат на месте
Для преобразования полного ранга единственный вектор,
что окажется начале координат, - это сам нулевой вектор
но для матриц, которые не являются полным рангом,
которые схлопывают пространство до меньшего размерности,

Danish: 
Du kan sikkert gætte, hvor det navn kommer fra.
Søjlerne i din matrix
fortælle dig, hvor basisvektorerne havner,
og spandet af ​​disse tranformerede basisvektorer giver dig alle mulige outputs.
Med andre ord, søjlerummet er
spandet af kolonnerne i din matrix.
Så en mere præcis definition af rang
ville være, at
det er antallet af dimensioner i søjlerummet.
Når denne rang er så højt som det kan være,
hvilket betyder at det er lig med antallet af kolonner, siger vi at matricen har "fuld rang."
Bemærk at nulvektoren altid vil være
i søjlerummet,
da lineære transformationer altid holder origo på plads.
For en transformation med fuld rang er den eneste vektor, der lander på nulvektoren, nulvektoren selv,
men for matricer, der ikke har fuld rang,
som klemmer til en lavere dimension,
kan du kan have en hel masse af vektorer, der lander på nul.

Turkish: 
ister doğru olsun, ister düzlem olsun ister 3Boyut olsun, ne olursa olsun...
Matrix'imizin "Sütun Uzayı" olarak adlandırılır.
Eminim bu ismin nereden geldiğini merak ediyorsunuzdur.
Matrix'in sütunları bize asıl vektörlerin dönüşüm sonrası nereye konumlandırını söylüyordu.
asıl vektörlerin dönüşümlerinin kapsamı ise olası tüm sonuçların toplamı idi.
Başka bir deyişle, sütun uzayı, matrix'in sütunlarının alabileceği değerler kapsamıdır.
Dolayısıyla, daha isabetli bir tarifle; mertebe
Sütun uzayındaki boyut anlamı şeklinde ifade edilebilir.
Bu mertebe olabildiğince yüksek olduğunda,
yani sütun sayısına eşit olduğunda matrix'imizi Tam Mertebeli ?! olarak tarif ederiz. (Full Rank)
Dikkat et, sıfır vektör daima Sütun Uzayına dahil ediliyor.
Çünki, doğrusal dönüşümlerde orijin yerini korumalı.
Tam Mertebeli dönüşümlerde orijinde olan tek vektör sıfır vektörün
kendisidir,
Tam Mertebeli olmayan matrixlerde ise, ki uzay alt boyutlara büzüşür,

Arabic: 
سواء كان خطًا أو طائرة أو مساحة ثلاثية الأبعاد
يسمى "مساحة العمود" من المصفوفة الخاصة بك.
ربما يمكنك تخمين مكان هذا الاسم
من عند.
أعمدة المصفوفة الخاصة بك
اقول لكم أين أرض ناقلات أساس ،
وامتداد تلك القاعدة المحولة
ناقلات يعطيك كل المخرجات الممكنة.
وبعبارة أخرى ، فإن مساحة العمود هي
تمتد من أعمدة المصفوفة الخاصة بك.
لذلك ، هناك تعريف أكثر دقة للرتبة
سيكون ذلك
إنه عدد الأبعاد في العمود
الفراغ.
عندما تكون هذه الرتبة عالية قدر الإمكان ،
بمعنى أنه يساوي عدد الأعمدة ، نحن
استدعاء المصفوفة "مرتبة كاملة".
لاحظ ، وسوف يكون ناقل الصفر دائما
المدرجة في مساحة العمود ،
منذ التحولات الخطية يجب أن تحافظ على
أصل ثابت في المكان.
لتحويل كامل الرتبة ، المتجه الوحيد
أن الأراضي في الأصل هي ناقلات الصفر
بحد ذاتها،
ولكن بالنسبة إلى المصفوفات غير الكاملة ،
التي تسحق إلى بعد أصغر

Polish: 
Możesz prawdopodobnie odgadnąć skąd się bierze ta nazwa.
Kolumny twojej macierzy mówią nam gdzie znajdą się wektory bazowe,
a rozpięcie tych przetransformowanych wektorów bazowych da nam wszystkie możliwe wyniki.
Innymi słowy, przestrzeń kolumn jest rozpięciem kolumn twojej macierzy. (?)
Zatem, bardziej precyzyjną definicją rzędu będzie to
iż jest to ilość wymiarów w przestrzeni kolumn.
Gdy rząd jest tak wysoki jak to tylko możliwe,
czyli jest równy ilości kolumn, nazywamy macierz "pełnego rzędu".
Zauważ, wektor zerowy zawsze będzie zawarty w przestrzeni kolumn,
gdyż transformacja liniowa musi zachować początek na swoim miejscu.
Dla transformacji o pełnym rzędzie, jedyny wektor który ląduje w środku jest sam wektor zerowy,
lecz dla macierzy nie mającej pełnego rzędu, które redukują przestrzeń do mniejszej liczby wymiarów,
możemy mieć całe stado wektorów które przemieszczają się do zera.

German: 
ob Gerade, Ebene, 3D-Raum, was auch immer,
heißt der "Lösungsraum" (hier "Zeilenraum") Ihrer Matrix.
Ihr können euch vermutlich denken, wo der Name herkommt.
Die Spalten eurer Matrix sagen euch, wo die Basisvektoren landen,
und die lineare Hülle der Abbildungen dieser Basisvektoren enthält alle möglichen Ausgaben.
Mit anderen Worten, der Spaltenraum ist die lineare Hülle der Spalten der Matrix.
Also wäre eine präzisere Definition des Rangs, dass
er die Anzahl der Dimensionen im Spaltenraum/Lösungsraum bezeichnet.
Wenn dieser Rang maximal hoch ist,
also der Anzahl an Spalten entspricht, hat die Matrix "vollen Rang".
Merke: Der Nullvektor wird immer im Lösungsraum enthalten sein,
da lineare Transformationen den Ursprung nicht verschieben dürfen.
Für eine Abbildung mit vollem Rang ist der einzige Vektor, der auf dem Ursprung landet, der Nullvektor
selbst,
aber für Matrizen, die nicht vollen Rang haben, also auf eine kleinere Dimension quetschen,

Spanish: 
es llamado el "espacio de columna" de su matriz.
Pueden adivinar de dónde sale el nombre.
Las columnas de su matriz les dicen dónde caen sus vectores base
y el espacio generado por las transformadas de los vectores base les da todas las posibles salidas.
En otras palabras, el espacio de columna es el espacio generado por las columnas de tu matriz.
Entonces, una definición más precisa de rango sería
el número de dimensiones en el espacio de columna.
Cuando este rango es el valor más alto que puede tener,
es decir, es igual al número de columnas, decimos que la matriz es de "rango completo".
Fíjense que el vector cero siempre estará incluido en el espacio de columna,
dado que las transformaciones lineales siempre mantienen el origen fijo.
Para una transformación de rango completo, el único vector que cae en el origen es el mismo vector cero,
pero para matrices que no son de rango completo, que comprimen a una dimensión menor,
pueden tener un montón de vectores que caigan en el cero.

Portuguese: 
quer seja uma linha, um plano, espaço 3D, ou o que for,
é chamado de "espaço coluna" de sua matriz.
Você provavelmente pode adivinhar
de onde vem esse nome.
As colunas da sua matriz lhe dizem 
onde os vetores básicos param,
e o espaço gerado por esses vetores transformados
tem todas as saídas possíveis.
Em outras palavras, o espaço coluna é o 
espaço gerado (span) das colunas da sua matriz.
Assim, uma definição mais precisa de posto (rank) seria
o número de dimensões no espaço coluna.
Quando o posto é o máximo que ele poderia ser,
ou seja, quando ele é igual ao número de colunas,
dizemos que a matriz tem "posto completo."
Lembre-se que o vetor nulo  sempre 
está incluído no espaço coluna,
uma vez que as transformações lineares devem
manter a origem fixa em seu lugar.
Para uma transformação de posto completo, o único vetor que para na origem é o próprio vetor nulo
mas para matrizes que não são de posto completo,
que comprimem em uma dimensão menor,

Spanish: 
Si una transformación 2-D comprime el espacio en una línea, por ejemplo,
hay una línea distinta con una dirección diferente,
llena de vectores que son comprimidos al origen.
Si una transformación 3-D comprime el espacio a un plano,
hay también una línea llena de vectores que caen en el origen.
Si una transformación 3-D comprime todo el espacio en una línea,
hay un plano completo lleno de vectores que cae en el origen.
Este conjunto de vectores que cae en el origen es llamado el "núcleo" o el "kernel" de la matriz.
Es el espacio de todos los vectores que se hacen nulos,
en el sentido de que caen en el vector cero.
En términos de sistemas de ecuaciones lineales, cuando sucede que "v"es el vector cero,
el núcleo les da todas las posibles soluciones de la ecuación.
Esa es una visión general subida de nivel

Polish: 
Gdy transformacja 2d redukuje przestrzeń do linii, dla przykładu,
jest oddzielna linia w innym kierunku
pełna wektorów zredukowanych do środka.
Gdy transformacja 3d redukuje przestrzeń do płaszczyzny,
jest też pełna linia wektorów które lądują w środku.
Gdy transformacja 3d redukuje przestrzeń do linii,
jest płaszczyzna pełna wektorów które lądują w środku.
Ten zbiór wektorów które lądują w środku jest nazywany jądrem twojej macierzy.
Jest to przestrzeń wszystkich tych wektorów które stają się zerem,
w tym sensie że przemieszczają się do wektora zerowego.
W rozumieniu układu równań liniowych, gdy v okaże się wektorem zerowym,
jądro daje nam wszystkie możliwe rozwiązania tego układu równań.
Jest to bardzo wysokopoziomowy sposób
spojrzenia na to jak myśleć o systemach równań liniowych przestrzennie.

Russian: 
вы можете иметь целую кучу векторов, которые
приземляются в начало координат.
Если двумерное преобразование схлопывает пространство в
прямую,
есть отдельная прямая в другом направлении,
полная векторов, которые схлопнулись к
началу координат
Если 3D-преобразование сжимает пространство в
плоскость,
также существует целая прямая с векторами, которые
попали на начало координат.
Если 3D-преобразование схлопывает все пространство
в линию,
то есть целая плоскость, полная векторов,
что попали в начало координат.
Этот набор векторов, которые попали в начало координат, называется «нулевым пространством» или «линейной оболочкой"
вашей матрицы.
Это пространство всех векторов, которые становятся
нулевыми.
в том смысле, что они приземляются на нулевой вектор.
В терминах линейной системы
уравнения, когда v оказывается нулевым вектором,
нулевое пространство дает вам все
возможные решения уравнения.
Так что это очень высокий уровень обзора

Arabic: 
يمكنك الحصول على مجموعة كاملة من المتجهات
الأرض على الصفر.
إذا أدى التحول الثنائي الأبعاد إلى إسحق الفضاء
خط ، على سبيل المثال ،
هناك خط منفصل في اتجاه مختلف ،
مليئة من المتجهات التي تحصل على سحق على
الأصل.
إذا كان التحويل ثلاثي الأبعاد يسحق الفضاء
طائرة،
هناك أيضا مجموعة كاملة من المتجهات
الأرض على الأصل.
إذا كان هناك تحوّل ثلاثي الأبعاد يقوم بتدوير كل المساحة
على خط
ثم هناك طائرة كاملة مليئة بالنواقل
تلك الأرض على الأصل.
هذه المجموعة من المتجهات التي تهبط على
يسمى الأصل "الفضاء الفارغ" أو "النواة"
من المصفوفة الخاصة بك.
إنها مساحة جميع المتجهات التي تصبح
لا شيء،
بمعنى أنها تهبط على ناقلات الصفر.
من حيث النظام الخطي ل
المعادلات ، عندما يحدث الخامس ليكون المتجه صفر ،
المساحة الفارغة يمنحك كل من
الحلول الممكنة للمعادلة.
هذه نظرة عامة على مستوى عالٍ جدًا

Chinese: 
你可以有一大堆停在0上的矢量。
如果一個2-維的變換把空間壓縮到一根綫是，舉個例子說，
在一個不同的方向上有著一根分開的綫，
滿是矢量被壓縮到原點。
如果一個3-維的變換把空間壓縮到一個平面，
也滿是經過原點的矢量。
如果一個3-維的變換把所有的空間壓縮到一根綫上，
然後就滿是經過原點的矢量。
這個經過遠點的矢量集叫做矩陣的“0空間(null space)”或者“核(kernel)”
在它們經過0的矢量的意義上，
它是所有矢量成爲0的空間。
在綫性方程系統中，就是v 恰好是0矢量。
0空間給出方程所有可能的解。
那就是一個很高度的概述

Korean: 
2 차원 변환에서 선으로 축소되는 경우를 예를 들게.
서로 다른 방향을 가리키는 벡터들이지만
같이 원점으로 뭉게지는 수 많은 벡터들이 있어.
3 차원 변환이 평면으로 축소되는 예를 들면,
마찬가지로 원점으로 이동하는 선의 수많은 벡터들이 존재해.
3차원 변환이 공간을 선으로 축소시킨다면,
한 평면의 모든 벡터들이 원점으로 이동하게 돼.
원점으로 이동되는 벡터들의 집합을 그 행렬의 "영공간(null space)" 혹은 "커널(kernel)" 이라고 불러.
그것은 널 (null)이 되는 모든 벡터의 공간이라는 뜻이야.
이 벡터들 모두 영벡터로 이동한다는 말이야.
선형 방정식계 용어로 말하면, 
벡터v 가 영벡터인 경우,
영공간(null space) 모두가 해가 될 수 있어.
그럼 좀 더 높여서 훑어보자.

Portuguese: 
você pode ter um monte de vetores
 que vão parar na origem.
Se uma transformação 2D aperta o espaço em uma linha, por exemplo,
há uma outra reta, em uma direção diferente,
cheia de vetores que são apertados na origem.
Se uma transformação 3D aperta o espaço em um plano,
também há uma reta inteira de vetores que aterrissam na origem.
Se uma transformação 3D aperta todo o espaço em uma linha,
então há todo um plano de vetores que são enviados na origem.
Esse conjunto de vetores que aterrissam na origem é chamado "espaço nulo" ou "núcleo"
da sua matriz.
É o (sub)espaço de todos os vetores que se tornam nulos,
no sentido que vão parar no vetor nulo.
Em termos do sistema linear de equações, quando 'v' calha de ser o
vetor nulo, o núcleo te dá todas as soluções possíveis para a equação.
Então essa é uma visão geral em alto nível

iw: 
אתה יכול לקבל מספר וקטורים שונים שנוחתים על אפס.
אם טרנספורמציה בעולם הדו-מימדי מוחצת את המרחב לתוך קו, לדוגמא,
יש קו נפרד עבור כל כיוון,
המכיל מלא וקטורים שנמחצו לתוך הראשית.
אם טרנספורמציה תלת-מימדית מוחצת את המרחב לתוך מישור,
יש גם קווים מלאים של וקטורים שנוחתים על הראשית
אם טרנספורמציות ב-3 מימד מוחצת את כל המרחב לקו,
אז יש מישור מלא של וקטורים שנוחתים בראשית.
קבוצת הוקטורים שנוחתים בראשית נקראים "הגרעין"
של המטריצה שלך.
זהו המרחב שמלא בוקטורים שהופך לאפס,
במובן הזה, הם נוחתים על וקטור האפס.
במובן של מערכת משוואות לינאריות, כאשר v  הוא וקטור האפס
מרחב האפס נותן לך את כל הפיתרונות האפשריים של המשוואה.
ככה שזהו סיקור ברמה מאוד גבוהה

Turkish: 
sıfır üzerine düşen bir sürü vektör vardır.
eğer 2Boyutlu bir vektör doğru üzerine çökerse, örneğin
sıfır noktasına sıkışan bir doğru dolusu
vektör olacaktır ki hepsi orijine birikecekler.
Eğer 3Boyutlu bir dönüşüm, uzayı düzleme sıkıştırırsa,
bir doğru dolusu vektör orijine çöker yine.
eğer 3Boyutlu bir dönüşüm bir doğruya sıkışırsa,
bir düzlem dolusu vektör orijine sıkışmış demektir.
İşte tüm bu orijine (sıfır noktasına)sıkışan vektörler, o matrixin
"boşluk uzayı" ya da çekirdeği
diye anılırlar.
Öyle bir uzay ki tüm vektörleri boşluk,
boşluk derken tüm vektörler sıfır üzerinde anlamında.
Doğrusal eşitlik sistemleri bakımından, v vektörü zero vektör olduğunda
boşluk uzayı eşitlik için tüm olası çözümleri verir.
İşte bu, kabaca

Portuguese: 
você pode ter um monte de vetores que param em zero.
Se uma transformação 2D comprime o espaço
em uma linha, por exemplo,
há uma linha separada em uma direção diferente,
cheia de vetores que são comprimidos na origem.
Se uma transformação 3D comprime
o espaço em um plano,
há também uma linha cheia de vetores 
que param sobre a origem.
Se uma transformação 3D comprime 
todo o espaço sobre uma linha,
então há um plano cheio de vetores
que param sobre a origem.
Este conjunto de vetores que param na origem
é chamado de "espaço nulo" ou "núcleo" (kernel)
de sua matriz.
É o espaço de todos os vetores que se tornam nulos
no sentido de que eles param sobre o vetor nulo.
Em termos do sistema linear de equações,
quando v passa a ser o vetor nulo,
o espaço nulo dá todas as possíveis 
soluções para a equação.
Bom, essa é uma visão bem geral

German: 
kann es ganz viele Vektoren geben, die auf 0 landen.
Wenn eine 2D-Transformation den Raum z.B. auf eine Gerade quetscht,
dann gibt es eine separate Gerade in eine andere Richtung,
voller Vektoren, die auf den Ursprung abgebildet werden.
Wenn eine 3D-Abbildung den Raum auf eine Ebene quetscht,
gibt es auch eine ganze Gerade voller Vektoren, die auf dem Ursprung landen.
Wenn eine 3D-Abbildung den gesamten Raum auf eine Ebene abbildet,
gibt es eine ganze Ebene voller Vektoren, die auf dem Ursprung landen.
Diese Vektor-Menge, die auf dem Ursprung landet, nennt man  "Nullraum" oder "Kern"
dieser Matrix.
Es ist der Raum aller Vektoren, die zu Null werden,
was heißt, dass sie auf dem Nullvektor landen.
Was das lineare Gleichungssystem angeht, sollte  v der Nullvektor sein,
gibt der Nullraum aller möglichen Lösungen dieser Gleichung an.
Das war ein recht hochsprachlicher Überblick,

Chinese: 
举个例子，如果一个二维线性变换将空间压缩到一条直线上
那么沿某个不同方向直线上的所有向量就被压缩到原点
如果一个三维线性变换将空间压缩到一个平面上
同样也会有一整条线上的向量在变换后落在原点
如果一个三维线性变换将空间压缩到一条直线上
那么就有一整个平面上的向量在变换后落在原点
变换后落在原点的向量的集合
被称为矩阵的“零空间”或“核”
变换后一些向量落在零向量上，而“零空间”正是这些向量所构成的空间
对线性方程组来说，当向量v恰好为零向量时
零空间给出的就是这个向量方程所有可能的解

Czech: 
máme celý paklík vektorů, které se vynulují.
Když se například celý 2D prostor splácne na přímku,
je tu další přímka v (obecně) jiném směru,
plná vektorů, které všechny skončí v počátku
Když 3D transformace splácne prostor do roviny,
taky najdete celou přímku vektorů, které přistanou v počátku.
Když transformace splácne celý prostor do přímky,
pak tu je dokonce celá rovina vektorů, které skončí v počátku.
Tato množina vektorů, které skončí v nule, se nazývá jádro
dané matice.
Je to prostor všech vektorů, které se po transformaci stanou nulovými,
v tom smyslu, že se pošlou na nulový vektor.
V terminologii soustav lineárních rovnic jádro udává všechna řešení soustavy,
když je 'v' nulový vektor.
To by byl stručný přehled

English: 
you can have a whole bunch of vectors that
land on zero.
If a 2D transformation squishes space onto
a line, for example,
there is a separate line in a different direction,
full of vectors that get squished onto the
origin.
If a 3D transformation squishes space onto
a plane,
there's also a full line of vectors that
land on the origin.
If a 3D transformation squishes all the space
onto a line,
then there's a whole plane full of vectors
that land on the origin.
This set of vectors that lands on the
origin is called the "null space" or the "kernel"
of your matrix.
It's the space of all vectors that become
null,
in the sense that they land on the zero vector.
In terms of the linear system of
equations, when v happens to be the zero vector,
the null space gives you all of
the possible solutions to the equation.
So that's a very high-level overview

Danish: 
Hvis en 2D transformation klemmer rummet ned på en linje, for eksempel,
er der er en separat linie i en anden retning,
fuld af vektorer der bliver klemt ned på origo.
Hvis en 3D transformation klemmer rummet ned på en plan,
er der også en hel linie af vektorer, som havner på nulvektoren.
Hvis et 3D transformation klemmer hele rummet ned på en linje,
så er der en hel plan fuld af vektorer, der lander på nulvektoren.
Dette sæt af vektorer, der lander i nul kaldes "nulrummet" eller "kernen" af din matrix.
Det er rummet af alle vektorer, der bliver nul,
i den forstand, at de lander på nulvektoren.
Med hensyn til det lineære ligningssystem, når v er nulvektoren,
giver nulrummet dig alle
de mulige løsninger til ligningen.
Så det er en meget overfladisk oversigt
om, hvordan man kan tænke lineære ligningssystemer geometrisk.

French: 
vous pouvez avoir tout un tas de vecteurs atterissant sur zéro.
Si une transformation 2D écrase l'espace sur une ligne, par exemple,
il y a une autre ligne dans une direction différente
dont tous les vecteurs se retrouvent sur l'origine.
Si une transformation 3D écrase l'espace sur un plan,
il y a aussi une ligne complète de vecteurs atterissant sur l'origine.
Si une transformation 3D écrase tout l'espace sur une ligne,
il y a alors tout un plan de vecteurs
atterissant sur l'origine.
Cet ensemble de vecteurs qui arrive sur l'origine est appelée le « noyau » ou le « kernel » de la matrice.
Il est l'ensemble de tous les vecteurs qui deviennent nuls,
dans le sens où ils atterrissent sur le vecteur zéro.
Du point de vue du système d'équations linéaires, lorsque v se trouve être le vecteur nul,
le noyau vous donne tous
les solutions possibles à l'équation.
C'est une vue d'ensemble de très haut niveau

Danish: 
Hvert system har
en slags lineær transformation associeret  med det,
og når den
transformation har en invers,
kan du bruge denne inverse til at løse dit system.
Tanken om søjlerum lader
os forstå, hvornår en løsning eksisterer,
og tanken om et nulrum
hjælper os til at forstå, hvordan sættet af
alle mulige løsninger kan se ud.
Igen er der en masse, som jeg ikke har
dækket her,
især hvordan man kan beregne disse ting.
Jeg var også nødt til til at begrænse mit indhold til eksempler, hvor antallet af ligninger
er lig med antallet af ubekendte.
Men målet her er ikke at forsøge at lære alt;
det er, at du kommer herfra med
en stærk intuition for inverse matricer, søjlerum, og nulrum,
og at disse intuitioner vil gøre enhver fremtidig læring, som du gør mere frugtbar.
Næste video, ved populær anmodning, vil være en kort fodnote om ikke-kvadratiske matricer.
Så efter det, vil jeg give dig mit bud på prikprodukter,
og noget temmelig cool der sker, når du se dem
i lyset af lineære transformationer.
Vi ses!

Russian: 
о том, как думать о линейных системах уравнений
геометрически.
Каждая система имеет
связанное с ней линейное преобразование
и когда это
преобразование имеет обратное себе,
вы можете использовать обратное для решения вашей системы.
В противном случае идея пространства столбцов позволяет нам понять, существует ли решение вообще.
и идея нулевого пространства
помогает нам понять, что
как возможные решения могут выглядеть.
Опять же. Есть много всего, о чем я не рассказал.
в первую очередь, как все это вычислить.
Мне также пришлось ограничить сферу охвата примерами, где
число уравнений
равно числу неизвестных.
Но цель здесь - не пытаться научить всему;
Цель -  чтобы вы ушли с
сильной интуицией по поводу обратных матриц, рангов
пространством столбцов и линейной оболочкой
и чтобы эти озарения делают любое ваше дальнейшее обучение
более плодотворным.
Следующее видео, по многочисленным просьбам,
будет краткая сноска о неквадратных матрицах.
Затем, после этого, я попробую вам объяснить поэлементное умножение матриц
и то крутое, что с ним происходит, когда вы это рассматриваете

Chinese: 
以上就是从几何角度理解线性方程组的一个高水平概述
每个方程组都有一个线性变换与之联系
当逆变换存在时，你就能用这个逆变换求解方程组
否则，列空间的概念让我们清楚什么时候存在解
零空间的概念有助于我们理解所有可能的解的集合是什么样的
这里有不少我没有涉及到的内容
尤其是如何进行计算
我还得把范围限制在方程数目与未知量数目相等的情况内
但是我的目标并不是尝试教所有内容
而是让你留下对逆矩阵、列空间和零空间的深刻直观印象
并且让这些直观让你未来学习的收获更加丰硕
应观众要求，下期视频是关于非方阵的简短补充内容
在此之后，我会开始讲讲我对点积的看法
并且以线性变换的眼光看待点积时，会出现有意思的现象
到时候再见！

Czech: 
toho, jak vnímat soustavy lineárních rovnic geometricky.
Každé soustavě odpovídá jista lineární transformace,
 
a když tahle transformace má inverz,
můžete jej použít na vyřešení vaší soustavy.
V opačném případě nám dává myšlenka sloupcového prostoru představu, kdy řešení vůbec existuje,
a současně jádro nám pomáhá porozumět, jak může vypadat
množina všech řešení.
Stále je toho mnoho, co jsem tu nepokryl,
zejména, jak se tyhle věci počítají.
Taky jsem musel omezit příklady na ty, kde se počet rovnic
rovná počtu neznámých.
Ale mým cílem není snažit se obsáhnout všechno;
chci, abyste si odnesli dobrou intuici pro inverzní matici, sloupcový
prostor a jádro,
a tahle intuice může učinit jakékoli další vzdělávání produktivnějším.
V příštím videu se na žádost publika stručně podíváme na nečtvercové matice
a pak budem pokračovat skalárním součinem,
a nějakými prima triky, když se na něj díváme

Turkish: 
"doğrusal eşitlik sistemleri geometrik olarak nedir" sorusunun cevabı.
Her sistem kendisi ile ilişkilendirilecek bir doğrusal dönüşüme sahiptir,
ve
bu dönüşümün tersi mevcut olduğunda,
bu ters i kullnarak sistemi çözebiliriz.
Aksi durumda; sütun uzayı fikri ise bize, yine de bir çözüm olacağını bildirir.
Boşluk uzayı kavramı ise; tüm olası sonuçların nasıl görünebileceği hakkında
fikir verir.
Tekrar edeyim, burada ele almadığım bir sürü konu var,
en dikkat çekeni ise, bunların nasıl hesaplandığı konusu.
Ayrıca örneklerimi eşitlik sayısı ile
bilinmeyen sayısının eşit olduğu durumlara kısıtladım.
Fakat buradaki amacımız herşeyi öğretmek değil zaten;
amacımız, ters matrix, sütun
uzayı, ve boşluk uzayı konularında kavrama gerçekleştirmeniz.
BU kavramalar sayesinde gelecekteki öğrenmeleriniz çok zengin olacaktır.
Gelecek videoda, yaygın talep olarak, özetle karesel olmayan matrixlerden bahsedeceğim.
Sonrasında, Nokta Ürünü hakkında notlarımı aktaracağım.
İşlemleri doğrusal dönüşümler ışığında görünce

Arabic: 
عن كيفية التفكير في أنظمة خطية من المعادلات
هندسيا.
كل نظام لديه
نوع من التحول الخطي المرتبطة
مع ذلك ،
ومتى
التحول لديه معكوس ،
يمكنك استخدام هذا معكوس في حل نظامك.
خلاف ذلك ، فإن فكرة مساحة العمود يتيح
نفهم عند وجود حل حتى ،
وفكرة الفضاء فارغة
يساعدنا على فهم ما هي مجموعة
يمكن أن تبدو جميع الحلول الممكنة.
مرة أخرى ، هناك الكثير الذي لم أفعله
غطينا هنا ،
أبرزها كيفية حساب هذه الأشياء.
واضطررت أيضاً إلى قصر نطاقي على أمثلة حيث
عدد المعادلات
يساوي عدد المجهول.
لكن الهدف هنا ليس محاولة تعليم كل شيء.
انها تأتي مع
حدس قوي للمصفوفات العكسية ، العمود
الفضاء ، والفضاء لاغية ،
وأن تلك البديهيات تجعل أي مستقبل
تعلم أن تفعل أكثر مثمرة.
الفيديو التالي ، حسب الطلب الشائع ، سيكون
حاشية موجزة حول مصفوفات nonsquare.
ثم ، بعد ذلك ، سأقدم لك
تأخذ على منتجات نقطة ،
وشيء رائع
يحدث عند عرضها

Chinese: 
怎樣來把綫性方程組用幾何方法來考慮。
各個系統都和某種類型的綫性變換相聯係的
 
而如果那個變換有一個逆矩陣，
你就可以用那個匿矩陣來解你的系統（綫性方程組）。
否則，列空間的想法讓我們知道是否存在著一個解，
而一個0空間的想法幫助我們來理解
所有可能有的解的集合看起來可以什麽樣的。
再提一下我還有很多在這裏還沒有講到了，
最明顯的是怎樣來計算這些東西。
我還不得不來限制用在例子中
方程的數目等於未知數的數目。
然後這裏的目的並不是試圖來教所有的東西；
而是你可以對逆矩陣，列空間，
和0空間獲得很強的直覺感
以及那些直覺使你在將來的學習中更獲益。
下一個錄像，按大衆的要求，將是對非方矩陣的一個簡單的注解。
之後，我將講點我對付點乘積(dot product)，
以及你們會看到的

Spanish: 
sobre cómo pensar en los sistemas de ecuaciones lineales geométricamente.
Cada sistema tiene algún tipo de transformación lineal asociado a él,
y cuando esa transformación tiene una inversa
pueden usar esa inversa para resolver su sistema.
En caso contrario, la idea de espacio de columna nos permite entender cuándo una solución puede existir,
y la idea del núcleo nos ayuda a entender cómo se puede ver el conjunto de
todas las posibles soluciones.
De nuevo, hay mucho que no he cubierto aquí,
la más notable siendo cómo computar estas cosas.
Además tuve que limitar mi alcance a ejemplos en los que el número de ecuaciones
es igual al número de incógnitas.
Pero el objetivo acá no es tratar de enseñar todo,
sino que queden con una intuición sólida de las matrices inversas, el espacio de columna y el núcleo,
y que esa intuición haga que cualquier aprendizaje que tengan en el futuro sea más rico
El próximo video, por demanda popular,  será un breve comentario sobre las matrices no cuadradas.
Luego, después de eso, les daré mi perspectiva del producto punto,
y una consecuencia bastante interesante de verlo
bajo la perspectiva de las transformaciones lineales.

Korean: 
선형방정식계가 기하학적으로 어떻게 생각할 수 있는지 정리해보자.
각 계(system)는 선형변환과 같은 것을 가지고
그와 관련된 선형 변환의 일종,
그 변환이 역변환을 가지면,
계(system) 를 풀기 위해 역변환을 사용하면 돼.
그게 안된다면, 열공간(column space) 이라는 개념이 해의 존재 여부를 알려줄거야.
영공간(null space) 라는 개념이 주는 것은
모든 가능한 해집합이 어떻게 될지를 알려줘.
다시 말하지만, 
여기서 다루지 않은 많은 것들이 남아있어.
특히 이것을 어떻게 계산해야 하는지는 다루지 않았어.
또 예를들때 제한을 두어서
방정식의 갯수와
미지수 갯수가 동일하게 했어.
그러나 여기에서 목표는 모든 것을 가르치는게 아니야.
역행렬, 열공간, 영공간에 대한 튼튼한 직관을 따르게 하는 거야.
그리고 이런 직관은 나중에 다른 것들을 학습할때 더 많은 결실을 맺게 해줄거야.
다음 동영상에는, 많은 요청이 있었는데,
비정사각형 행렬에 대해 간략하게 다룰거야.
그런 다음, 그 후, 나는 dot product 에 대해 다룰거야.
나중에 너가 보면 알겠지만,
정말 멋질 거야.
선형변환이라는 빛 아래서 살펴보게되면 말야.

German: 
wie man sich lineare Gleichungssysteme geometrisch vorstellen kann.
Jedes System besitzt irgendeine lineare Abbildung
und wenn diese Abbildung ein Inverses hat,
kann man dieses Inverse nutzen, um das System zu lösen.
Andererseits lässt uns die Idee eines Lösungsraums verstehen, wann es eine Lösung überhaupt gibt,
und die Idee des Nullraums hilft uns zu verstehen, wie die Menge
aller möglichen Lösungen  aussehen kann.
Nochmal, es gibt vieles, das ich hier nicht behandelt habe,
vor allem, wie man diese Dinger berechnet.
Ich musste mich auch auf Beispiele beschränken, in denen die Anzahl der Gleichungen
der Anzahl der Unbekannten entsprach.
Aber das Ziel ist nicht, alles zu behandeln;
sondern dass ihr ein starkes Gefühl dafür bekommt, was Inverse Matrizen, Lösungsraum
und Nullraum sind,
und dass dieses Gefühl euch euer weiteres Lernen erleichtert.
Das nächste Video wird aufgrund der großen Nachfrage eine kurze Fußnote zu nichtquadratischen Matrizen sein.
Dann, danach, werde ich meinen Versuch mit Kreuzprodukten liefern.
und etwas ziemlich cooles, das passiert, wenn man sie
aus dem Blickwinkel linearer Abbildungen sieht.

iw: 
על איך לחשוב על מערכת משוואות לינאריות באופן גיאומטרי.
לכל מערכת יש סוג מסויים של טרנספורמציה לינארית הקשורה אליה
איתה,
ומתי שהטרספורמציה הזאת יש הופכית,
אתה יכול להשתמש בהופכית כדי לפתור את המערכת.
אחרת, הרעיון שמרחב העמודה יתן לך להבין מתי הפיתרון בכלל קיים,
והרעיון של מרחב האפס שעוזר לך להבין מהי איך יכולה להיראות קבוצת
כל הפיתרונות האפשריים.
שוב, יש כאן הרבה שלא כיסיתי כאן,
באופן הכי ברור, לא כיסיתי איך אפשר לחשב את הדברים הללו.
אני הייתי חייב לצמצם את היקף הדוגמאות שלי, כאשר מספר המשוואות
שווה למספר הנעלמים.
אבל המטרה שלי היא לא ללמד הכל;
אלא היא לכך שתצא מכך עם אינטואיציה מאוד חזקה עבור מטריצות הפיכות, עמודה
במרחב מרחב הגרעין.
והאינטואיציות הללו מאפשרות לכך שתפיק את המימד מלמידה עתידית של נושא זה.
בסירטון הבא, בגלל הבקשות הרבות, יהיה הערת שוליים קצרה על מטריצות שהן לא ריבועיות.
ואז, לאחר מכן, אני הולך לדבר על מכפלה סקלרית
משהו מאוד מגניב כשאתה מראה אותם

English: 
of how to think about linear systems of equations
geometrically.
Each system has
some kind of linear transformation associated
with it,
and when that
transformation has an inverse,
you can use that inverse to solve your system.
Otherwise, the idea of column space lets
us understand when a solution even exists,
and the idea of a null space
helps us to understand what the set of
all possible solutions can look like.
Again there's a lot that I haven't
covered here,
most notably how to compute these things.
I also had to limit my scope to examples where
the number of equations
equals the number of unknowns.
But the goal here is not to try to teach everything;
it's that you come away with
a strong intuition for inverse matrices, column
space, and null space,
and that those intuitions make any future
learning that you do more fruitful.
Next video, by popular request, will be a
brief footnote about nonsquare matrices.
Then, after that, I'm going to give you my
take on dot products,
and something pretty cool that
happens when you view them

French: 
sur la façon de penser des systèmes d'équations linéaires géométriquement.
Chaque système est en quelque sorte associé à une transformation linéaire
et lorsque celle-ci a un inverse,
vous pouvez utiliser cette inverse pour résoudre votre système.
Dans le cas contraire, la notion d'image permet de savoir quand une solution existe,
et la notion de noyau nous aide à comprendre à quoi ressemble
l'espace de l'ensemble des solutions.
Encore une fois, il y a beaucoup de choses dont je n'ai pas parlé ici,
notamment comment calculer ces choses.
J'ai aussi du limiter les exemples où le nombre d'équations
est égal au nombre d'inconnues.
Mais le but ici n'est pas d'essayer de tout enseigner,
il est que vous ressortiez avec
une bonne intuition sur les matrices inverses, images et noyaux
et que ces intuitions rendent les explications futures que vous aurez plus fécondes.
La prochaine vidéo, sur demande populaire, sera un brève note sur les matrices non carrées.
Ensuite, après ca, je vais vous donner mon interprétation sur les produits scalaires,
et quelque chose d'assez cool que l'on observe lorsqu'on les regarde
sous la lumière des transformations linéaires.

Portuguese: 
sobre como pensar sobre sistemas lineares geometricamente.
Cada sistema tem uma transformação linear associada
com ele.
e quando esta transformação tem um inverso,
você pode usar esse inverso para resolver seu sistema.
Caso contrário, a ideia de um espaço coluna nos deixa entender quando a solução existe,
e a ideia de um espaço nulo nos deixa entender o conjunto de
a forma de todas as possíveis soluções.
Novamente, há muito que eu não cobri aqui,
principalmente como computar estas coisas.
Também tive que limitar meu escopo a exemplos em que o número de equações
é igual ao número de incógnitas.
Mas o objetivo aqui não é tentar ensinar tudo;
e sim que você saia com uma intuição forte para matrizes inversas,
espaço-coluna, núcleo,
e que essas intuições tornem seu aprendizado futuro mais frutífero.
No próximo vídeo, por aclamação popular, farei uma breve nota sobre matrizes não-quadradas.
Depois disso, lhes darei minha visão em produtos internos,
e algo bem legal quando você os vê
sob a luz de transformações lineares.

Polish: 
Każdy układ ma pewną transformację liniową skojarzoną z nim,
i gdy ta transformacja ma odwrotność,
możesz użyć tej odwrotności do rozwiązania swojego układu.
W przeciwnym przypadku, koncepcja przestrzeni kolumnowej pozwala nam dojść czy rozwiązanie w ogóle istnieje,
a idea jądra pomaga nam zrozumieć jak zbiór
wszystkich możliwych rozwiązań może wyglądać.
Jak zwykle, jest bardzo dużo rzeczy których nie omówiłem tutaj,
w szczególności jak obliczać te sprawy.
Musiałem ograniczyć zakres przykładów do przypadków gdzie ilość równań
jest równa ilości nieznanych.
Lecz moim celem nie jest nauczenie wszystkiego;
Chodzi o to byś miał silną intuicję związaną z macierzami odwrotnymi, przestrzenią kolumn, i jądrem,
i te intuicji sprawią że późniejsza nauką będzie bardziej owocna.
Następny film będzie krótkim omówieniem macierzy nie-kwadratowych.
Później po tym opowiem o iloczynie skalarnym,
i tym jak świetny jest kiedy patrzysz na niego poprzez
perspektywę transformacji liniowych.
Do zobaczenia! (tłum. Jakub Trznadel)

Portuguese: 
de como pensar nas sistemas de equações lineares
de forma geométrica.
Cada sistema tem algum tipo de transformação linear associada
e quando essa transformação tem uma inversa,
você pode usar essa inversa
para resolver o seu sistema.
Caso contrário, a idéia de espaço de coluna nos permite entender quando uma solução mesmo existe,
e a idéia de um espaço nulo
nos ajuda a entender como o conjunto de
todas as soluções possíveis se parece.
De novo, tem muita coisa que eu não cobri aqui,
especialmente como calcular essas coisas.
Eu também tive que limitar o meu escopo para exemplos nos quais o número de equações
é igual ao número de incógnitas.
Mas o objetivo aqui não é tentar ensinar tudo;
é que você saia com uma forte intuição sobre:
matrizes inversas, espaço coluna
e espaço nulo,
e que essas intuições possam fazer com que qualquer aprendizado futuro possa ser mais frutífero.
O próximo vídeo, a pedidos, será um
breve nota sobre matrizes não quadradas.
E depois dele, vou passar minha visão 
sobre produto escalar (interno)
e algo muito legal que
acontece quando você

Portuguese: 
o enxerga sob a luz das transformações lineares.
Até lá!

English: 
under the light of linear transformations.
See you then!

Czech: 
z pohledu lineárních transformací.
Nashle příště!

Korean: 
그때 만나!

Spanish: 
¡Nos vemos entonces!

Chinese: 
在綫性代數裏一些好東西。
回頭見！

French: 
À plus tard !

Arabic: 
تحت ضوء التحولات الخطية.
اراك لاحقا!

Portuguese: 
Até lá!

Russian: 
под углом линейных преобразований.
Увидимся!

iw: 
תחת האור של טרנספורמציות לינאריות
נראה אותך שם!
 
- תורגם ע"י סער קטלן.

Turkish: 
aydınlanma gibi bir duygu yaşayacaksınız.
Görüşürüz!

German: 
Bis dann!

Chinese: 
（下期视频：非方阵）
