
Polish: 
>> Hej przyjaciele.
Jestem Scott Hansen
i to Azure w piątek.
Jestem z Emily Lawton
i mówimy
o kosmos DB ponownie,
tylko tym razem
Łącznik Spark.
Dwie rzeczy, które jeszcze nie podłączony
razem w moim mózgu jeszcze,
masz DB kosmos
i Apache Spark.
>> Tak, jak wiadomo,
dane w czasie rzeczywistym jest niezwykle
najbardziej rozpowszechnione wokół NAS dzisiaj,
a każdy chce użyć DB kosmos
jako sposób na kwerendy i
utrzymują się te dane czasu rzeczywistego dla
Sieci Web, aplikacje mobilne, IoT.
A także ma kosmos
wsparcie dla wielu
funkcje agregacji
takich jak Suma,
min, średniej, zliczania.
Ale jeśli jesteś analitykiem danych
Niektóre z tych funkcji nie są
wystarczające dla typów
złożonych kwerend i analiz
chcesz
czy nad danymi.
Tak więc cieszę się
tutaj dzisiaj, aby porozmawiać na temat
Ten nowy łącznik
Mamy przynieść
razem Spark i kosmos DB.
I zasadniczo, co z tym
Złącze umożliwia to kosmos DB

Turkish: 
>> Merhaba, arkadaşlar.
Scott Hansen olduğumu,
ve Cuma Azure demektir.
Burada Emily Lawton olduğum,
ve Başladık
yeniden Cosmos DB hakkında
Bu süre dışında
Spark bağlayıcı.
İki şey takılı değil
birlikte benim beyin içinde henüz,
Cosmos DB aldı
ve Apache Spark.
>> Bu nedenle, hepimiz bildiðiniz gibi
gerçek zamanlı veri son derece olduğu
Bize bugün çevresinde yaygın
ve insanların Cosmos DB kullanmak seviyorum
Sorgu için bir yol olarak ve
Bu gerçek zamanlı verileri için kalıcı
Web, mobil, IOT, uygulamalar.
Ve Cosmos da vardır
bir sayı için destek
Toplama işlevleri
TOPLA gibi
en az, ortalama, Say.
Ancak veri Bilimcisi iseniz,
Bu işlevlerden bazıları değildir
türleri için yeterli
karmaşık sorgular ve analizi
için istediğiniz
verileriniz üzerinde yapın.
Bu nedenle, ben olacak şekilde Çoğalması
hakkında konuşmak için bugün burada
Bu yeni bağlayıcı
Biz getirmek zorunda
birlikte Spark ve Cosmos DB.
Ve aslında ne bu
bağlayıcı olan Cosmos DB sağlar

Japanese: 
>> さん、こんにちは友人。
私はスコットのしました。
Azure の金曜日。
私がここに Emily の Lawton
話と
もう一度、世界の DB について
この時間を除く
スパークのコネクタです。
接続していない 2 つのこと
まだ、私の脳で
世界 DB を取得します。
Apache のスパークを生成します。
>> など、ご存知のように、
リアルタイム データは、大量
今日、私たちの周りで流行しています。
世界の DB を使用する人が大好きと
クエリする方法として、
リアルタイム データを永続化します。
Web、モバイル、IoT、アプリケーションです。
世界でもあり、
いくつかのサポート
集計関数の
sum など
最小値、平均、カウントします。
場合は、データの科学者が、
いない一部の関数
種類のための十分です
複雑なクエリおよび分析
します。
データの操作を行います。
したがって、私は期待する
今日ここでは話をする
この新しいコネクタ
前面にあります。
スパークと世界の DB を連携しています。
基本的には、どのような
コネクタにより、世界の DB は、

Korean: 
>>이 봐, 친구.
Scott Hansen 난
며 Azure 금요일.
내가 여기와 Emily Lawton
우리 고 얘기 하 고
Cosmos DB를 다시 하는 방법에 대 한
이 이번에를 제외 하 고
스파크 커넥터입니다.
두 가지를 연결 하지 않은 내가
아직 내 뇌에서
Cosmos DB를가지고
Apache 점화 하 고입니다.
>> 따라서 우리는 모두 알고 있는 것 처럼
실시간으로 데이터를 그만큼
오늘날 우리 주변에 널리 알려진
Cosmos DB를 사용 하 여 사람들이 사랑 하 고
쿼리 하는 방법으로 하 고
실시간으로 데이터를 유지 합니다.
웹, 모바일, IoT, 응용 프로그램입니다.
Cosmos도 있고
숫자에 대 한 지원
집계 함수
sum과 같은
최소값, 평균을 계산 합니다.
그러나 데이터 과학자, 당신은
이러한 함수 중 일부 되지 않으면
형식에 대 한 충분 한
복잡 한 쿼리 및 분석
되도록
데이터 작업을 수행 합니다.
것으로 흥분
여기에 대 한 이야기를 오늘
이 커넥터
가져올 수 있다고
함께 점화 및 Cosmos Db입니다.
기본적으로, 내용에이 고
Cosmos DB는 커넥터를 사용 하면

Russian: 
>> Эй друзья.
Я стул Скотт
и это пятница Azure.
Я здесь с Lawton Эмили
и мы говорим
о, DB Cosmos
но в этот раз
Разъем Spark.
Две вещи, которые я еще не подключено
в мой мозг еще,
есть Cosmos DB
и Apache Spark.
>> Так, как мы все знаем,
невероятно является данных реального времени
наиболее распространенных вокруг нас сегодня
и людям нравится использовать Cosmos DB
как способ запроса и
сохранять данные реального времени для
Веб-приложения для мобильных устройств, IoT.
А также имеет Cosmos
Поддержка нескольких
для статистических функций
Например, sum,
минимальное, среднее, число.
Но если вы ученый данных
Некоторые из этих функций не
достаточно для типов
сложных запросов и аналитики
что вы хотите
сделать по данным.
Итак я очень рад быть
Здесь сегодня, чтобы поговорить о
Этот новый разъем
у нас есть для переноса
вместе Spark и Cosmos DB.
И по существу, такая
разъем позволяет не Cosmos DB

Portuguese: 
>> Ei, amigos.
Eu sou Scott Hansen,
e é Azure sexta-feira.
Estou aqui com Emily Lawton,
e estamos falando
sobre o banco de dados de Cosmos novamente,
exceto que desta vez
Conector Spark.
Duas coisas que ainda não conectado
em Meu cérebro
você obteve Cosmos DB
e Apache Spark.
>> Assim, como todos sabemos,
dados em tempo real serão incrivelmente
predominante nos hoje em dia, cerca
e as pessoas adoram utilizar Cosmos DB
como a forma de consulta e
Manter dados de tempo real
Web, aplicativos para dispositivos móveis, IoT.
E também tem um Cosmos
suporte para um número
funções de agregação
como soma,
min, média, contar.
Mas se você for um cientista de dados
Algumas dessas funções não são
suficientes para os tipos de
consultas complexas e análises
que você deseja
Faça seus dados.
Portanto, estou animado ser
aqui hoje para falar sobre
Esse novo conector
precisamos colocar
Spark e Cosmos DB juntos.
E, basicamente, o que isso
conector permite é Cosmos DB

German: 
>> Ich Freunden.
Ich bin Scott Hansen
und Azure Freitag.
Ich bin hier mit Emily Lawton,
und wir sprechen
über erneut Cosmos DB
außer dieser Zeit
Spark-Connector.
Zwei Dinge, die ich noch nicht angeschlossen
in Mein Kopf noch
Sie haben Cosmos DB
und Apache.
>> So, wie wir alle wissen,
Echtzeitdaten ist unglaublich
Um uns heute verbreitet,
und Personen verwenden Sie Cosmos DB
Abfrage so und
die Echtzeit-Daten für beibehalten
Web, Mobile IoT Applications.
Und Cosmos
Unterstützung für eine Reihe
der Aggregatfunktionen
wie Summe
Mittelwert, min zählen.
Aber wenn Sie datenwissenschaftler,
Einige dieser Funktionen nicht
für welche
komplexe Abfragen und Analysen
möchten
Führen Sie Ihre Daten.
Ich bin so begeistert sein
Hier heute sprechen
Diese neuen connector
Wir müssen
Spark und Cosmos DB.
Und im Wesentlichen das
Connector ermöglicht Cosmos DB

Chinese: 
>> 您好，朋友。
我是 Scott Hansen
并且是 Azure 星期五。
Emily Lawton 跟我
和我们谈谈
再次，宇宙数据库关于
只不过这一次，
触发的连接线。
两件事情我还没有接通电源
在我的大脑里，在一起
你宇宙 DB
和 Apache 触发。
>> 因此，我们都知道，
实时数据是令人难以置信
围绕我们今天，流行
人们喜欢使用宇宙 DB 和
查询方式和
实时数据的保存
Web、 移动设备、 IoT，应用程序。
宇宙也有
对很多的支持
聚合函数的
如总和，
最小平均计数。
但是，如果您是数据科学家，
其中的一些功能不是
足够的类型
复杂的查询和分析功能
要对
请不要对您的数据。
因此，我很高兴能
这里今天要谈一谈
此新的连接器
我们必须让
结合添姿加宇宙 DB。
实质上，这是什么，
连接器使宇宙 DB 是

Spanish: 
>> Hola amigos.
Soy Scott Hansen,
y es el viernes de Azure.
Estoy aquí con Emily Lawton,
y estamos hablando
acerca de Cosmos DB de nuevo,
pero esta vez,
el conector de la bujía.
Dos cosas que yo no he conectado
en mi cerebro todavía,
consiguió Cosmos DB
y chispa de Apache.
>> Por lo tanto, como todos sabemos,
datos en tiempo real están increíblemente
muy extendido en la actualidad, nos rodea
y todos preferimos usar Cosmos DB
como la forma de consulta y
conservan los datos en tiempo real para
Web, aplicaciones móviles, IoT.
Y también tiene Cosmos
soporte para un número
funciones de agregación
como suma,
min, promedio, contar.
Pero si eres un científico de datos
algunas de estas funciones no están
suficiente para los tipos de
realizar consultas complejas y análisis
Si desea
realizar sobre los datos.
Por lo tanto, me emociona ser
aquí hoy para hablar
Este nuevo conector
tenemos que Traer
Chispa y Cosmos DB.
Y básicamente, lo que esto
el conector permite es Cosmos DB

Czech: 
>> Haló Přátelé.
Já jsem Scott Hansen
a pátek je Azure.
Jsem zde s Emily Lawton
a jsme konverzaci
o Cosmos DB znovu,
Kromě této doby
Konektor zapalovací.
Dvě věci, které nebyly připojeny I
společně do mého mozku ještě,
Máte Cosmos DB
a Apache Spark.
>> Tak, jak všechny víme,
dat v reálném čase je velmi
vyskytujícího se kolem nás dnes,
a lidé se rádi použít Cosmos DB
jako způsob, jak dotaz a
zachování této dat v reálném čase pro
Webových, mobilních IoT, aplikace.
A také má Cosmos
Podpora pro číslo
funkce agregace
například SUMA,
min, průměr, počet.
Ale pokud jste data vědci
Některé z těchto funkcí nejsou
dostatečné pro typy
složité dotazy a analytics
Chcete
to nad daty.
Jsem se těší
Dnes zde hovořit o
Tento nový konektor
Máme tak, aby
Zapalovací a Cosmos DB.
A v podstatě, co to
konektor umožňuje Cosmos DB

English: 
>> Hey, friends.
I'm Scott Hansen,
and it is Azure Friday.
I'm here with Emily Lawton,
and we're talking
about Cosmos DB again,
except this time,
the Spark Connector.
Two things I haven't plugged
together in my brain yet,
you got Cosmos DB
and Apache Spark.
>> So, as we all know,
real time data is incredibly
prevalent around us today,
and people love to use Cosmos DB
as the way to query and
persist that real time data for
Web, Mobile, IoT, Applications.
And Cosmos also has
support for a number
of aggregation functions
such as sum,
min, average, count.
But if you're a data scientist,
some of these functions aren't
sufficient for the types of
complex querying and analytics
that you want to
do over your data.
So, I'm excited to be
here today to talk about
this new connector
we have to bring
together Spark and Cosmos DB.
And essentially, what this
connector allows is Cosmos DB

French: 
>> Bonjour, amis.
Je suis Scott Hansen,
et il est Azure vendredi.
Je suis avec Emily Lawton,
et nous parlons
sur base de données Cosmos à nouveau,
mais cette fois,
le connecteur de l’explosion.
Deux choses que je n’ai pas connecté
dans mon cerveau encore,
vous avez obtenu Cosmos DB
et érosion d’Apache.
>> Alors, comme nous le savons tous,
données en temps réel sont incroyablement
répandus autour de nous aujourd'hui,
et les gens aiment utiliser Cosmos DB
comme le moyen de requête et
conserver les données en temps réel pour
Web, d’Applications mobiles, IoT.
Et Cosmos a également
prise en charge d’un nombre
des fonctions d’agrégation
telle que somme,
min, moyenne, de compter.
Mais si vous êtes un chercheur de données,
certaines de ces fonctions ne sont pas
suffisant pour les types de
exécuter des requêtes complexes et analytique
que vous le souhaitez
effectuer sur vos données.
Par conséquent, je suis heureux d’être
ici aujourd'hui pour parler
le nouveau connecteur
Nous devons mettre
ensemble d’allumage et Cosmos DB.
Et pour l’essentiel, ce que cela
connecteur permet Cosmos DB

Italian: 
>> Hey, amici.
Mi Scott Marco,
e Azure venerdì.
Sono qui con Emily Lawton,
e stiamo parlando
su Cosmos DB
ma questa volta,
il connettore di scintilla.
Due elementi che sono stati collegati
nel mio cervello ancora,
è stato ottenuto Cosmos DB
e Apache scintilla.
>> In modo che, come tutti sappiamo,
dati in tempo reale sono incredibilmente
prevalente attorno a noi oggi,
e persone adorano l'utilizzo di Cosmos DB
come strumento per query e
mantenere i dati in tempo reale per
Web, applicazioni per dispositivi mobili, IoT.
E dispone anche di Cosmos
supporto per un numero
delle funzioni di aggregazione
ad esempio somma,
Min, Media, conteggio.
Ma se sei un scienziato di dati,
alcune di queste funzioni non sono
sufficiente per i tipi di
esecuzione di query complesse e analitica
che si desidera
operazione sui dati.
In questo caso, sono orgogliosi di essere
qui oggi per parlare
Questo nuovo connettore
è necessario portare
Scintilla e Cosmos DB.
E in pratica, quali il
connettore consente Cosmos DB

Chinese: 
>> 嘿，朋友。
我是 Scott Hansen
而且很 Azure 星期五。
我在這裡的 Emily Lawton
和我們所說
同樣地，在宇宙 DB 有關
除了這段時間，
電花術的連接器。
我還沒有插入兩件事
在我的大腦一起
你宇宙 DB
與 Apache 電花術。
>> 因此，我們都知道，
即時資料是非常
現在，我們週遭的普遍
和人喜歡用宇宙 DB
為查詢的方式，
保存該即時的資料
Web，行動，IoT，應用程式。
也有宇宙
數字的支援
彙總函式
例如 sum，
最小，平均計算。
但如果您是資料科學家，
不到這些函式的某些
足夠的類型
複雜的查詢和分析
您想要
執行您的資料。
因此，，我很興奮，是
今天這裡談
此新的連接器
我們必須將
在一起的電花術和宇宙 DB。
和基本上此
連接器可允許是宇宙 DB

German: 
kann als eine Eingabequelle oder
eine Ausgabe Sync für
Apache Spark Aufträge.
>> In Ordnung. Wenn ich habe
eine Menge von Daten in
COSMOS oder möchten
Verwenden Sie Cosmos einen Shop
die Menge der Daten,
Bereits tue Spark,
Es wird nur rechts?
>> Ja.
>> Es funktioniert?
>> Ja.
>> Das ziemlich Cool. Ist
er ein open-Source-Connector?
>> Dieser connector
ist open Source.
Sie gelangen zu unserem Github
und auch finden Sie unter
Connectors
ist nicht in der Quelle
aber wenn Sie zu unserem Github,
Sie sehen alle
Beispiele und
Einführung und
hochgefahren auf.
>> Und
Einige aktuelle live
Demos, wo Sie
Schließen Sie diese jetzt?
>> Wir und gehe ich
durch eine kurz.
Aber ich möchte
Bestätigen Sie die Art der
die beiden Vorteile
Diese beiden bringen
Dienste jetzt zusammen.
Mit Spark möglich
sehr komplexen verteilten
Aggregationen für Ihre Daten
und Cosmos, was
Damit ist die Tabelle
ist der
die Echtzeit-Daten selbst.
Und alles,
mit kommt

Chinese: 
可以作为一个输入源或
对于输出同步
Apache 触发的作业。
>> 好。因此，如果我有
大量的数据中
宇宙，或者我想
到存储使用宇宙
巨大的数据，
我可是已经触发，
它只需插入右？
>> 是。
>> 它正常工作？
>> 是。
>> 的真是棒极。是
它的开源连接器？
>> 此连接器
是开放源代码。
您可以转到我们 Github
好吧，请参阅和
连接器
不在源中
但是，如果您转到我们 Github，
您可以看到所有
这些示例以及如何
若要开始，
在其上斜向上。
>> 并没有
一些实际生存
演示在您
现在插入这吗？
>> 我们做，我就会说
通过一个不久。
但我也想
确认类型的
两个的优点
把这两个
现在在一起的服务。
使用触发，可以执行
非常复杂分布式
对您的数据聚合
和宇宙，什么
这将使表
是可以利用
实时数据本身。
和一切，
一起说

Portuguese: 
pode agir como uma fonte de entrada ou
uma sincronização de saída para
Trabalhos do Apache Spark.
>> Okey. Portanto, se eu tenho
uma grande quantidade de dados em
Cosmos ou deseja
Use Cosmos para uma loja
grande quantidade de dados,
Já estou fazendo Spark,
Ele apenas é encaixado à direita na?
>> Sim.
>> Simplesmente funciona?
>> Sim.
>> Que 's muito interessante. É
-um conector de código-fonte aberto?
>> Esse conector
é o código-fonte aberto.
Você pode ir para nosso Github
e veja bem,
o conector
não está na fonte
mas se você ir para nosso Github
Você pode ver todas
Os exemplos e como
para iniciar e
aumentada nele.
>> E você tem
Alguns real ao vivo
demonstrações onde você
Conecte este agora?
>> Fazemos e entrarei
através de um breve.
Mas também quero
reconhecer o tipo de
as vantagens de dois
colocar esses dois
serviços agora juntos.
Com Spark, você pode fazer
muito complexos distribuídos
agregações seus dados
e Cosmos, que
Isso traz a tabela
o acesso ao
os dados em tempo real em si.
E tudo o que
vem junto com

Polish: 
może działać jako źródła danych wejściowych lub
Synchronizacja danych wyjściowych
Zadania Apache Spark.
>> OK. Tak więc, jeśli mam
ogromna ilość danych w
Kosmos lub Chcę
Użyj kosmos do sklepu
ogromna ilość danych,
Już robię Spark,
po prostu podłącza prawo?
>> Tak.
>> Po prostu działa?
>> Tak.
>> To jest dość Fajny. Jest
to złącze typu open source?
>> Ten łącznik
jest open source.
Możesz przejść do naszego Github
i widzimy,
Łącznik sam
nie ma źródła
ale jeśli przejdziesz do naszych Github
można wyświetlić wszystkie
próbki i w jaki sposób
Aby rozpocząć pracę i
podniesienie na nim.
>> I czy masz
część rzeczywista live
pokazy gdzie możesz
Podłącz to teraz?
>> NAS, a ja go
za pośrednictwem jednego wkrótce.
Ale także Chcę
przyjmuje do wiadomości, rodzaju z
dwie zalety
wprowadzenie tych dwóch
teraz razem usługi.
Świece można wykonać
bardzo skomplikowane rozproszonych
agregacji nad danymi,
i kosmos, co
Tabela, która ożywi
jest dostęp do
same dane czasu rzeczywistego.
I wszystko, który
pochodzi wraz z

Spanish: 
puede actuar como un origen de entrada o
una sincronización de salida para
Trabajos de chispa de Apache.
>> Está bien. Por lo tanto, si tengo
una gran cantidad de datos en
COSMOS o desee
Utilice Cosmos para un almacén
gran cantidad de datos,
Ya estoy haciendo chispa,
¿Conéctelo derecha?
>> Sí.
¿>> Simplemente funciona?
>> Sí.
>> Que está muy bien. Es
¿un conector de fuente abierta?
>> Este conector
es de código abierto.
Puede ir a nuestro Github
y, bueno,
conector propiamente dicho
no está en origen
pero si vas a nuestro Github
puede ver todos
los ejemplos y cómo
Para empezar a trabajar y
intensificado en él.
>> Y es necesario
Algunos real live
demostraciones donde se
¿Enchufe ahora?
>> De hacerlo y voy a ir
a través de una breve.
Pero también quiero
confirmar el tipo de
las dos ventajas de
poner estas dos
servicios ahora juntos.
Con chispa, puede hacer
muy complejas distribuidas
agregaciones de sus datos
y Cosmos, lo que
Esto lleva a la tabla
es su acceso a
los propios datos en tiempo real.
Y todo lo que
viene junto con

Italian: 
può fungere da un'origine di input o
per una sincronizzazione di output
Processi di Apache scintilla.
>> OK (Okay). Pertanto, se ho
una grande quantità di dati
COSMOS o si desidera
Utilizzare Cosmos per un archivio
enorme quantità di dati,
Le operazioni già scintilla,
sufficiente va collegato destra?
>> Sì.
>> Funziona?
>> Sì.
>> Che un semplicemente fantastico. È
è un connettore Apri origine?
>> Questo connettore
è open source.
È possibile passare alla nostra Github
e, Beh,
il connettore stesso
non è presente nell'origine
ma se si passa alla nostra Github,
è possibile visualizzare tutti
gli esempi e come
Per iniziare e
scaglionato verso l'alto su di esso.
>> E dispone di
alcuni effettivo live
demo dove si
collegare questo adesso?
>> Attività e presenterò
attraverso uno al più presto.
Ma è anche necessario
riconoscere il tipo di
i vantaggi di due
portare questi due
servizi ora insieme.
Con accensione comandata, è possibile eseguire
molto complesse distribuite
aggregazioni di dati,
e Cosmos, novità
che visualizza la tabella
è l'accesso a
i dati in tempo reale.
E tutto ciò che
viene fornito con

Chinese: 
可以做為輸入的來源或
輸出同步
Apache 電花術的作業。
>> [確定]。因此，如果我有
大量的資料
宇宙] 或 [我想要
使用宇宙至存放區
大量資料，
我已做的電花術，
它只會插入權限？
>> [是]。
>> 只運作？
>> [是]。
>> 很酷的的。是
它的開放原始碼連接器？
>> 此連接器
是開啟的來源。
您可以前往我們的 Github
然後，請參閱
連接器本身
不是來源
但如果您前往我們的 Github，
您可以看到所有
範例和方式
若要開始，
往上 ramped，在其上。
>> 及您有
有些實際 live
示範其中您
現在插入這？
>> 我們嗎，我走了
透過其中一個短時間內。
不過我也想要
認可種類的
兩個優點
將這兩
服務現在一起。
電花術，您可以執行一項動作
非常複雜分散式
您的資料彙總
和宇宙，什麼
接著就資料表
是您的存取權
即時資料本身。
與所有元件，
隨附沿著

English: 
can act as an input source or
an output sync for
Apache Spark jobs.
>> Okay. So, if I've got
a huge amount of data in
Cosmos or I want to
use Cosmos to a store
huge amount of data,
I'm already doing Spark,
it just plugs right in?
>> Yes.
>> It just works?
>> Yes.
>> That's pretty cool. Is
it an open source connector?
>> This connector
is open source.
You can go to our Github
and see, well,
the connector itself
is not in source
but if you go to our Github,
you can see all
the samples and how
to get started and
ramped up on it.
>> And do you have
some actual live
demos where you
plug this right now?
>> We do and I'll go
through one shortly.
But I also want to
acknowledge the kind of
the two advantages of
bringing these two
services together now.
With Spark, you can do
very complex distributed
aggregations over your data,
and Cosmos, what
that brings the table
is your access to
the real time data itself.
And everything that
comes along with

Czech: 
může sloužit jako vstupní zdroj nebo
synchronizací výstup
Apache Spark úlohy.
>> V pořádku. Takže pokud mám
velké množství dat v
Cosmos nebo chcete
Pomocí úložiště Cosmos
velké množství dat,
Již to jiskření,
to právě přesně zapadá?
>> Ano.
>> Právě funguje?
>> Ano.
>> To je velmi zajímavé. Je
je konektor otevřít zdroj?
>> Tento konektor
je-li otevřít zdroj.
Můžete přejít na naše Github
a viz také
samotný konektor
není zdroj
ale pokud přejdete na naši Github
můžete vidět všechny
vzorky a jak
jak začít a
ramped nahoru na něj.
>> A máte k dispozici
Některé skutečné živé
Ukázky kde se
to nyní zapojit?
>> Jsme se a budete přejít
prostřednictvím jednoho krátce.
Ale také chci
Typ potvrzení o
dvě výhody
uvedení těchto dvou
služby jsou nyní pohromadě.
S jiskrou proveďte
velmi složitých distribuovaných
agregace dat,
a Cosmos, co
který přináší tabulka
je váš přístup k
samotná data reálného času.
A vše,
dodáván spolu s

French: 
peut agir comme une source d’entrée ou
une synchronisation de sortie pour
Travaux d’allumage d’Apache.
>> OK. Par conséquent, si j’ai
une énorme quantité de données dans
COSMOS ou je souhaite
Utilisez Cosmos à un magasin
énorme quantité de données,
Je fais déjà étincelle,
Il simplement branche droite ?
>> Oui.
>> Ça marche ?
>> Oui.
>> De très pratique. Est
il un connecteur open source ?
>> Ce connecteur
est open source.
Vous pouvez accéder à notre Github
et, ainsi,
le connecteur lui-même
n’est pas dans la source
mais si vous passez à notre Github,
Vous pouvez voir tous les
les exemples et les procédures
mise en route et
accroissement des dessus.
>> Et
partie réelle live
démonstrations où vous
Branchez maintenant ?
>> Nous et je vais aller
via un peu de temps.
Mais je veux également
le type d’accusé de réception de
les deux avantages de
mettre ces deux
Services ensemble maintenant.
Vous pouvez réaliser avec l’explosion,
très complexe distribués
agrégations sur vos données,
et Cosmos, ce qui
Cela amène la table
votre accès à
données en temps réel lui-même.
Et tout ce qui
est fourni avec

Turkish: 
bir giriş kaynağı işlev görebilir veya
bir çıkış eşitleme için
Apache Spark işler.
>> Tamam. Bunu, var ki
çok büyük miktarda veri
Cosmos veya ı istiyor
bir mağazaya Cosmos kullanın
çok büyük miktarda veri,
Spark zaten yaptığımı,
Bu sadece sağ takıldığı?
>> Evet.
>> Yalnızca çalışır?
>> Evet.
>> O güzel serin. Değil
Bu bir açık kaynak bağlayıcısını?
>> Bu bağlayıcı
Açık kaynağıdır.
Bizim Github için gidebilirsiniz.
ve, görmeyi,
Bağlayıcı
kaynak yok
ancak bizim için Github giderseniz,
Tüm görebilirsiniz
örnekleri ve nasıl
başlama ve
Yukarı üzerinde ramped.
>> Ve sahip
Bazı gerçek Canlı
gösteriler nerede,
şu anda bu Tak?
>> Biz yapmak ve gitmek
aracılığıyla kısa bir süre içinde.
Ancak aynı zamanda istiyorum
tür onaylamak,
iki avantajları
Bu iki duruma getirme
Hizmetleri şimdi birlikte.
Spark ile bunu yapabilirsiniz.
çok karmaşık dağıtılmış
toplamalardan verileriniz üzerinde
ve Cosmos, ne
Bu tabloyu getirir
erişiminiz olan
gerçek zamanlı veri kendisi.
Ve her şey,
ile birlikte gelir.

Korean: 
입력 소스로 사용할 수 있습니다 또는
에 대 한 출력 동기화
Apache 점화 작업을 했습니다.
>> 확인 합니다. 따라서, 그러니까
엄청난 양의 데이터를
Cosmos 나 내가
Cosmos 저장소를 사용 하 여
방대한 양의 데이터를
스파크를 이미 수행 하 고
바로 오른쪽 연결 되어 있습니까?
>> 그래입니다.
>>만 작동?
>> 그래입니다.
>>를 아주 멋지지 않습니까? 은
그는 오픈 소스 커넥터?
>> 커넥터
오픈 소스가입니다.
우리의 Github로 이동할 수 있습니다.
음, 확인
커넥터
소스에
그러나 우리의 Github로가 서
모두 볼 수 있습니다.
샘플은 어떻게
시작 하 고
것을 심어줍니다.
>> 고 있습니까
일부 실제 라이브
데모를 하면
이 현재 플러그?
>> 작업을 수행 하 고 난 들어갈 거 야
하나를 통해 곧.
하 고 싶습니다.
종류 승인의
두 가지 장점
이 두 가지 상태로 전환
이제는 함께 사용 되는 서비스입니다.
스파크를 사용 하 여 수행할 수 있습니다.
매우 복잡 한 분산
데이터를 집계
Cosmos, 및 내용
테이블을 제공 하는
에 대 한 액세스
실시간으로 데이터 자체입니다.
기분입니다
와 함께 제공합니다.

Russian: 
может использоваться в качестве входного источника или
синхронизацию вывода
Задания Apache Spark.
>> О ' кей. Поэтому, если у меня
огромный объем данных в
Cosmos или мне нужно
использовать Cosmos в хранилище
огромное количество данных,
Уже делаю Spark,
он просто подключает справа?
>> Да.
>> Это работает?
>> Да.
>> На довольно круто. Является
он соединитель с открытым исходным кодом?
>> Этот разъем
является открытым исходным кодом.
Вы можете посетить наши Github
и посмотрите
сам разъем
не в источнике
но при переходе в нашем Github
Чтобы увидеть все
Примеры и как
Чтобы приступить к работе и
ramped вверх на нем.
>> И у вас есть
Некоторые фактические live
демонстрации где вы
Подключите это прямо сейчас?
>> Мы и будем перейти
через один чуть ниже.
Но я также хочу
Тип подтверждения из
два преимущества
перенос этих двух
службы теперь вместе.
Spark можно сделать
очень сложные распределенные
статистические схемы данных,
и Cosmos, что
Это приводит таблицы
имеет доступ к
сами данные реального времени.
И все,
поставляется вместе с

Japanese: 
入力ソースとして動作することができますか
出力の同期
Apache スパーク ジョブです。
>> 可能。ですから、私
大量のデータの
世界または私がします。
世界を使用して、ストアへ
大量のデータ、
スパークを既に行っています
右側を差し込むだけですか。
>> [はい] です。
>> だけで動作しますか。
>> [はい] です。
>> のとても便利です。します。
オープン ソースのコネクタでしょうか。
>> このコネクタ
オープン ソースです。
Github に移動することができます。
参照してくださいと
コネクタ自体
ソースではありません。
Github に移動する場合は
すべてを表示することができます。
サンプルとする方法
開始して
その上に増やします。
>> を持っていると
一部実際ライブ
デモで、
今すぐこのプラグを差し込みますか。
>> よと
1 つを使用いたします。
たいが、
種類を確認の
2 つの利点
これら 2 つの導入
サービスが一緒になりました。
火花が操作を実行できます。
非常に複雑な分散
、データの集計
世界、どのような
テーブルを表示します。
アクセスは、します。
リアルタイム データそのものです。
すべてのものとします。
に沿ってが付属しています

Korean: 
완전히 관리 되는 데이터베이스
가 우리와 같은 서비스
자동 인덱싱
턴키 글로벌 메일
이러한 모든 훌륭한 기능
도 얻을 수 있습니다.
>> 까 요
Cosmos 비슷합니다
하는 것이 좋습니다
Spark 데이터를 넣습니다.
같이 좋 거 든 요
자리 수 있습니다.
제공 된 데이터
점화, 오른쪽?
>> 예. 음, 사실
해당 Cosmos DB는 단지 완전 하 게
관리 및 사용
이러한 좋은 Sla
그는 정말 좋은 곳
데이터를 유지 합니다.
>>를 사용 하 여
용어 집계 합니다.
난 슈퍼
그에 대해 잘 알고
sum 함수 처럼
집계의 일종이입니다.
>> 따라서 어떤 떠 올리려면 실제로
가 배분 하는
이 종류의 부족
여러 함수
작업자 노드
다음 모든 작업을 수행 하 고
작은 양의 대
데이터 및 다음 해당
함께 집계 뒤쪽에 있습니다.
저리로 전원
스파크의 실제로 것입니다.
>> 확인 합니다. 따라서 걸리는
계정 또는 sum 또는 분
또는 일치 하는 모든,
그렇게 그대로 고
이러한 모든.
스파크는 스마트.
모든 수학은
mathy 이지요입니다.
물론, 다음
다른 결합
글로벌 스마트 데이터베이스
Cosmos DB는 무엇입니까
모든 장점 얻을 수 있습니다.
>> 정확 하 게.

Russian: 
полностью управляемую базу данных
службы, как у нас
Автоматическое индексирование
готовое к использованию глобального распространения
все замечательные возможности
Вы также получаете.
>> Вы думаете
Аналогично, Cosmos
Лучший способ
Поместите данные Spark.
Подобно доступно множество
мест, вы можете
Размещение данных, поступающих
из Spark справа?
>> Да. Ну фактов
DB, Cosmos — просто полностью
управляемые и с
такие замечательные соглашений об уровне обслуживания
Это очень удобно
для хранения данных.
>> И использовать ее
Термин агрегатов.
Я не супер
знакомы
Например, функция сумм
представляет собой статистическую функцию.
>> Таким образом что фактически заимствовать
does — он распределяет
Это довольно out
функции в группе
Работник узлов
затем выполните все действия
на меньшие объемы
данные и его
объединенные вместе назад.
Именно так питания
из Spark заключается.
>> О ' кей. Таким образом он принимает
Учетная запись или суммы или мин.
или соответствия какой-либо,
и он говорит, это
для всех из них.
Смарт-Spark.
Выполняет все вычисления
mathy материалы.
И, конечно же,
объединить с другим
смарт-глобальной базы данных
что является Cosmos DB
получить лучшее из всех миров.
>> Точно.

Portuguese: 
um banco de dados totalmente gerenciado
serviço que temos,
a indexação automática,
distribuição global de uso imediato,
todos esses recursos excelentes
Você obtém também.
>> Você acha
Se Cosmos como
o melhor lugar para
coloca dados Spark.
Como há muitas
de casas que poderia
colocar dados que vem
de Spark, direita?
>> Sim. Bem, o fato
Esse banco de dados do Cosmos é apenas totalmente
gerenciado e com
Esses SLAs excelentes,
é um ótimo local
para manter os dados.
>> E você usá-lo
agregações de termo.
Eu não sou super
familiarizado com isso,
como a função soma
é uma espécie de agregação.
>> Então, o que realmente despertar
does é ele distribui
fora isso tipo de
várias funções
nós do trabalhador
e, em seguida, fazer todo o trabalho
em menores quantidades de
os dados e de TI
back agregado junto.
É aí que a energia
de Spark realmente se encontra.
>> Okey. Portanto, é necessário
conta ou soma ou Mín.
ou, qualquer que seja,
e ele diz, fazê-lo
todas elas.
Spark é inteligente.
Faz todos os cálculos,
as coisas mathy.
E, claro,
combinar com outra
banco de dados global inteligente
qual é o banco de dados do Cosmos
Você tem o melhor de todos os mundos.
>> Exatamente.

Spanish: 
una base de datos totalmente gestionado
servicio que tenemos,
la indización automática
distribución global llave en mano,
todas esas excelentes características
así obtendrá.
>> ¿Piensa
que Cosmos es similar a
el mejor lugar para
colocar datos de chispa.
Como hay muchos
de los lugares que podría
poner los datos a los que se incluye
¿de chispa, derecha?
>> Sí. Bueno, el hecho de
ese DB Cosmos es sólo totalmente
administrado y con
Estos SLA gran,
es un lugar realmente grande
para mantener los datos.
>> Y usar
agregaciones de término.
No estoy super
familiarizado con esto,
como la función suma
es un tipo de agregado.
>> Por lo tanto, ¿qué despertar realmente
hace es distribuye
fuera de este tipo de
funciones para un montón
de nodos de trabajador
y, a continuación, realice todo el trabajo
en cantidades más pequeñas de
los datos y de TI
servicios agregados juntos.
Ahí es donde la potencia
de chispa realmente reside.
>> Está bien. Por lo tanto, tarda
cuenta o suma o min
o coincidencia, cualquiera que sea,
y dice: hacerlo
de todos ellos.
Chispa es inteligente.
Realiza todas las operaciones aritméticas,
el material de mathy.
Y, a continuación, por supuesto,
combinar con otra
base de datos global inteligente
que es la base de datos Cosmos,
Obtenga lo mejor de todos los mundos.
>> Exactamente.

German: 
eine vollständig verwaltete Datenbank
Service wie
automatische Indizierung
schlüsselfertige globale Verteilerlisten
Diese großartige features
Sie erhalten auch.
>> Meinen Sie
wie sich Cosmos
am besten
Fügen Sie Spark-Daten.
So gibt es viel
Stellen Sie
Einfügen von Daten
von Spark rechts?
>> Ja. Auch die Tatsache
Diese Cosmos DB ist vollständig
verwaltet und
Solche großen SLAs
Es eignet sich wirklich
um Ihre Daten.
>> Und Verwendung
Begriff Aggregationen.
Ich bin nicht super
kennen,
wie die Summe-Funktion
ist eine Art des Aggregats.
>> Also, was tatsächlich Funken
wird verteilt wird
Diese Art von Out
Funktionen für eine Reihe
Arbeitskraft-Knoten
und dann die Arbeit
für kleinere Datenmengen
die Daten und dann die
Aggregierte wieder zusammen.
Sind die Stromversorgung
Spark liegt wirklich.
>> In Ordnung. So nimmt
Konto oder Summe oder min
oder, was,
und er sagt, es
für alle diese.
Spark ist Intelligent.
Ist die Mathematik,
mathy Zeug.
Und natürlich
mit einem anderen verbinden
Intelligente globale Datenbank
Cosmos DB ist,
Sie erhalten das beste von allem.
>> Genau.

French: 
une base de données entièrement géré
comme nous avons, de service
l’indexation automatique
clé en main distribution globale,
toutes ces fonctionnalités
vous obtenez ainsi.
>> Pensez-vous
que Cosmos ressemble à
le meilleur endroit pour
Placez les données de l’explosion.
Comme il existe des lots
des emplacements que vous pouvez
Placez les données fourni
à partir de l’allumage, droit ?
>> Oui. Ainsi, le fait
Cette base de données Cosmos est entièrement
géré et avec
Ces SLA idéal,
Il s’agit d’un très bon
Pour conserver vos données.
>> Et que vous utilisez
agrégations du terme.
Je ne suis pas super
vous connaissez bien
comme la fonction somme
est un type d’agrégat.
>> Ainsi qu’au service effectivement
est est il distribue
sortie de ce type de
fonctions d’un ensemble
des nœuds de travailleur
et puis faire tout le travail
de plus petites quantités de
les données, puis de
arrière regroupé ensemble.
C’est là la puissance
d’allumage repose.
>> OK. Par conséquent, il faut
compte, somme ou min
ou, quelle que soit,
et il indique, pour le faire
à tous ces niveaux.
Allumage est intelligent.
Effectuer des calculs,
les choses mathy.
Et, bien entendu,
combiner avec une autre
base de données global Smart
qui est la base de données Cosmos,
vous obtenez le meilleur des deux mondes.
>> Exactement.

Japanese: 
完全に管理されたデータベース
サービスがありそう、
自動インデックス作成では、
すぐに使用できるグローバルな配信、
それらすべての優れた機能
取得します。
>> だと思います
ような世界であります。
最適な場所
点火データを配置します。
量が多いような
配置の方法があります。
取得したデータを配置します。
火花が右ですか。
>> はい。という事実も、
その世界の DB は、完全にだけ
管理と
このような優れた Sla では、
本当に絶好の場所です。
データを維持します。
>> を使用して
用語集計します。
できないスーパー
精通しています。
sum 関数と同じように
集計の種類です。
>> など、どのような誘導実際には
分散は、
この種類のチェック アウト
一連の関数
ワーカー ノードの
すべての操作を行うと
少量の上
データとそのし
まとめて集約されたバックです。
ような場合は、電源
スパークの本当にあるのです。
>> 可能。かかるため、
アカウントまたは合計、最小値
または、どのような
ということは
これらのすべてです。
スパークは、スマートです。
すべての計算には
mathy のことです。
もちろん、
別の結合します。
スマート グローバル ・ データベース
世界の DB とは
あらゆる分野で最高峰の最大限に活用します。
>> 正確にします。

Polish: 
w pełni zarządzane bazy danych
usługi jak mamy,
automatyczne indeksowanie,
klucz dystrybucji globalnego,
wszystkie te funkcje wielkie
można również uzyskać.
>> Myślisz
że kosmos jest jak
najlepsze miejsce do
umieszczanie danych w iskrowym.
Istnieje tak wiele
miejsc może
umieścić dane, które pochodzą
w iskrowym, prawo?
>> Tak. Dobrze fakt
że DB kosmos jest po prostu pełni
zarządzane i z
takie wielkie SLA
jest to naprawdę wspaniałe miejsce
Aby zachować dane.
>> I że używasz
termin agregacji.
Nie jestem super
zna
Podobnie jak funkcja suma
jest to rodzaj agregatu.
>> Tak co Spark faktycznie
czy jest to rozprowadza
obecnie tego rodzaju
funkcje na kilka
Pracownik węzłów
a następnie wykonaj wszystkie prace
na mniejsze ilości
dane i jego
Wstecz zagregowane razem.
To miejsce, gdzie moc
Spark naprawdę leży.
>> OK. Tak Trwa
konto lub Suma, minimum
dopasowanie, bez względu na, lub
i mówi, to zrobić
we wszystkich tych.
Spark to inteligentne.
Nie wszystkie Matematyka
mathy materiałów.
A potem, oczywiście,
Łączenie z innym
inteligentne globalnej bazie danych
który jest DB kosmos
Masz najlepszy pod każdym względem.
>> Dokładnie.

Czech: 
plně spravované databáze
služby jako máme,
automatické indexování
kompletních globální distribuční
Tyto skvělé funkce
Můžete také získat.
>> Myslíte
Cosmos je jako
Nejlepší místo pro
umístění dat Spark.
Jako existuje mnoho
místa by
Vložit data, která je dodávána
ze zážehových, doprava?
>> Ano. Dobře fakt
Tento Cosmos DB je pouze plně
spravované a s
takové velké rozsahu
je to opravdu skvělé místo
Chcete-li zachovat data.
>> A použít je
termín agregace.
Nejsem super
znají
například funkce SUMA
je typ agregace.
>> To co skutečně podnítí
nemá se předává
Tento druh ven
spoustu funkcí
pracovní uzly
a poté proveďte veškeré práce
na menší objemy
data a klepněte na
agregované zpět dohromady.
Že je tam, kde pravomoc
Spark skutečně leží.
>> V pořádku. Ano trvá
účet nebo součet nebo min
nebo shoda, bez ohledu,
a říká, to provést
přes všechny tyto.
Spark je inteligentní.
Nemá matematiku
mathy položky.
A pak samozřejmě
kombinovat s jiným
inteligentní globální databáze
což je databáze Cosmos
dostanete nejlepší na světě.
>> Přesně.

Chinese: 
一个完全托管的数据库
我们有了，正如服务
自动索引，
交钥匙的全球分布
所有这些强大的功能
您也可以。
>> 您认为吗
宇宙就像是
到最佳位置
将触发数据。
像没有很多
还可以的地方
将附带的数据
从触发，权利？
>> 是。嗯，这一事实
该宇宙 DB 只完全是
管理和使用
这种好的 Sla
它是一个真的很好
要保留您的数据。
>> 并使用的
一词聚合。
我不能超
熟悉，
如 sum 函数
是一种聚合。
>> 因此，什么激励实际
does 是分布在它上面
出这种
函数对一组
辅助节点的
然后执行的所有工作
在较小金额的
数据，然后将它的
聚合的后放在一起。
就是在此处电源
触发的确实存在。
>> 好。因此，所需
客户或总和或最小值
或匹配，无论，
它说： 做它
在所有这些阶段。
触发是智能的。
所有算术运算
mathy 的资料。
然后，当然，
与另一个合并
智能的全局数据库
这是宇宙数据库
获取所有领域的最佳产品。
>> 完全一样。

English: 
a fully managed database
service like we have,
automatic indexing,
turnkey global distribution,
all those great features
you get as well.
>> Do you think
that Cosmos is like
the best place to
put Spark data.
Like there's lots
of places you could
put data that comes
from Spark, right?
>> Yeah. Well, the fact
that Cosmos DB is just fully
managed and with
such great SLAs,
it is a really great place
to keep your data.
>> And you use that
term aggregations.
I'm not super
familiar with that,
like the sum function
is a kind of aggregate.
>> So, what Spark actually
does is it distributes
out this kind of
functions to a bunch
of worker nodes
and then do all the work
on smaller amounts of
the data and then it's
aggregated back together.
That's where the power
of Spark really lies.
>> Okay. So, it takes
account or sum or min
or match, whatever,
and it says, do it
across all of these.
Spark is smart.
Does all the math,
the mathy stuff.
And then, of course,
combine with another
smart global database
which is the Cosmos DB,
you get the best of all worlds.
>> Exactly.

Chinese: 
完整的管理資料庫
我們已，像的服務
自動編製索引
周全的全域發佈
這些最棒的功能
您也可以。
>> 您認為嗎
宇宙就像
若要最佳的位置
放置電花術的資料。
這樣是數
您無法的數位
放置隨附的資料
從電花術，權限？
>> [是]。嗯，事實
只是完全是由該宇宙 DB
管理與
這種很棒的 Sla，
它是一個很棒的地方
若要保留您的資料。
>>，您可以使用，
詞彙彙總。
我不 super
熟悉，
如 sum 函數
是一種彙總。
>> 什麼因此，實際激起
沒有為它所分散
外出這種
有許多的函數
工作者節點的
然後執行 [所有工作
在較少量的
資料，然後它的
彙總上一步] 在一起。
就是這裡的電源
電花術的實際上是根據。
>> [確定]。因此，花
帳戶或加總或最小值
或符合的項目，不論，
上面寫著，這麼做，
所有這些項目的。
電花術是智慧型的。
所有計算，
mathy 的東西。
然後，當然，
結合與另一個
智慧的全域資料庫
何者是宇宙資料庫
您得到最好的所有的世界。
>> 完全相同。

Turkish: 
tam olarak yönetilen bir veritabanı
Bizim gibi hizmet
Otomatik dizin oluşturma
anahtar teslimi genel dağıtım
Bu harika özellikler
siz de alın.
>>, Düşünüyorsunuz
Cosmos gibi olduğunu
en iyisi
Spark verileri yerleştirin.
Gibi birçok var.
yerleri size verebilir.
gelen verileri yerleştirme
Spark sağ?
>> Evet. İyi, olgu
Bu Cosmos DB yalnızca tam değil
Yönetilen ile
Böyle harika SLA
gerçekten harika bir yerdir
verilerinizi korumak için.
>> Ve, kullanan
Terim toplamalardan.
Süper değilim
alışık,
TOPLA işlevi gibi
Toplama türüdür.
>> Bu nedenle, gerçekte ne almak
mu IT değil
Bu tür dışarı
bir dizi İşlevler
alt düğümleri
ve tüm iş yapın
daha küçük miktarlarda
veri ve sonra da 's
birlikte geri toplanmış.
Yeri olan güç
Spark gerçekten yatmaktadır.
>> Tamam. Bu nedenle alır
Hesap veya toplam veya min
veya eşleşme, ne olursa olsun,
ve onu, bunu diyor.
tüm bunların arasında.
Spark akıllıca olur.
Matematik yapar,
mathy her şeyi.
Ve sonra kurs,
başka bir resimle birleştirmek
Akıllı genel veritabanı
Cosmos DB olduğu,
dünyanın en İyileri alırsınız.
>> Tam olarak.

Italian: 
un database completamente gestito
servizio come sono,
indicizzazione automatica,
distribuzione globale chiavi in mano,
tali caratteristiche
è anche ottenere.
>> Pensi
che Cosmos è simile a
il modo migliore per
inserire i dati di scintilla.
Ad esempio vi è molta
di decimali è Impossibile
inserire i dati provenienti
da scintilla, destra?
>> Sì. Beh, il fatto
tale DB Cosmos è appena completamente
gestite e con
tali contratti di servizio eccezionali,
è una posizione particolarmente
Per mantenere i dati.
>> E si utilizza che
aggregazioni di termine.
Non mi super
familiarità con, che
come la funzione somma
è un tipo di aggregazione.
>> In questo caso, cosa offrire effettivamente
Does è distribuisce
out questo tipo di
funzioni per una serie
dei nodi di lavoro
e quindi eseguire tutte le operazioni
in quantità inferiori di
i dati e le relative
back aggregati insieme.
Che è la potenza
di scintilla risiede di fatto.
>> OK (Okay). In questo caso, impiegato
account o somma o min
corrispondenza, o
e verrà visualizzato il numero,
tra tutti i componenti.
Scintilla è intelligente.
Tutti i calcoli,
il materiale mathy.
Quindi, ovviamente,
combinare con un altro
database globale smart
Qual è la DB, Cosmos
ottenere il meglio del settore.
>> Esattamente.

Turkish: 
>> O serin.
>> Böylece, diyelim ki üzerinden atlamak
Bu Python Not
Bizim burada.
Python dizüstü bilgisayarlarda
hangi birçok kişinin,
Spark kullanan veri Bilim adamları
en aşinasınız.
Biz önce bunu gerçekten
bir gösteri atlamak,
Bu diyagramı bakalım
nasıl mimarisi bu
Bağlayıcı gerçekten üretilmiştir.
Bunu, bir kullanıcının yaptığı zaman
arasındaki bağlantı
Spark ve Cosmos,
gerçekte neler olduğunu
Seçenekler altında olan
Spark ana düğüm
bağlı olduğu
Cosmos DB ağ geçidi düğümü
Bölüm almak için
Cosmos bilgileri.
Bilgi çevrilmiştir.
Spark için yedeklemek ve ise
arasında dağıtılmış
alt düğümler
hangi sonra etkileşim kurabilirler
ne zaman gelir bir sorgu
hangi bilmek
Cosmos için bölümü
erişim ve getirebilirsiniz
veri geri Spark için
tür için alt düğümleri
biri kendi çalışmaları yapmak.
>> Ve bu
neredeyse şeffaftır?
>> Kullanıcı farkında değildir.
ne gerçekten 's
Burada olmuyor.
>> Serin.

Chinese: 
>> 的棒极了。
>> 因此，让我们跳过对
此 Python 笔记本
我们有的这里。
Python 笔记本电脑
什么很多人，
数据科学家使用触发，
是最熟悉的。
是的之前我们, 实际上
跳转到一个演示，
让我们看一下此示意图
体系结构如何这
实际上生成连接器。
这样，当用户
之间的连接
添姿加宇宙，
实际发生的情况
在汽车发动机罩下是
触发主节点
连接到
宇宙 DB 网关节点
若要获取该分区
来自宇宙的信息。
该信息被翻译
回触发，然后是
分布在
辅助节点
然后它可以进行交互
当查询来访，
他们知道这
对宇宙中的分区
访问，并可以使
触发时，用户数据
辅助节点，类型为
执行他们的工作。
>>，这是
很大程度上是透明的吗？
>> 用户并不知道
什么的实际
这里发生的情况。
>> 冷却。

Japanese: 
>> のクールです。
>> などにジャンプしてみましょう
この Python ノートブック
ここで私たちが持っています。
Python のノートブックは、します。
どのような多くの人、
火花を使用しているデータの科学者
最も一般的に使用されます。
私たちの前に実際には
デモにジャンプします。
この図を見てみましょう
方法のアーキテクチャこの
コネクタが実際にビルドします。
ユーザーと、
間の接続
スパークを生成し、世界では、
実際に起こっています。
内部では、
スパーク マスター ・ ノード
接続されています。
世界 DB ゲートウェイ ノード
パーティションを取得するには
世界からの情報です。
情報を変換します。
スパークをバックアップするため、
配分
ワーカー ノード
操作することができます。
クエリには、
知っています。
パーティションを世界で
アクセスし、取り込むことができます。
、スパークを生成するデータをバックアップします。
ワーカー ノードの種類に、
上にその作業を実行します。
>> とは、
ほとんど見えません。
>> ユーザーは認識されません。
実際にどのようなの
ここで説明しています。
>> を冷却します。

Russian: 
>> Всё круто.
>> Таким образом давайте перейти к
Эта записная книжка Python
здесь, у нас есть.
Портативные компьютеры Python
что много людей,
ученые данные, использующие Spark,
знакомые большинству.
Поэтому, прежде чем мы фактически
перейти в демонстрационный ролик
Давайте взглянем на это схема
Архитектура как это
разъем построены.
Таким образом, когда пользователь делает
связь между
Spark и Cosmos,
что происходит
за кулисами является то, что
главный узел Spark
подключен к
Узел Cosmos DB шлюза
Чтобы получить раздел
сведения из Cosmos.
Преобразовать эту информацию
к Spark и затем
Распределение между
узлы работника
который можно взаимодействовать
Когда появляется запрос
они знают, что
в Cosmos для раздела
доступ и может перевести
данные Spark,
узлы рабочих, вид
для их работы на нем.
>>, И это
во многом прозрачным?
>> Пользователя неизвестно
что на самом деле
Здесь происходит.
>> Охлаждения.

Korean: 
>>를 멋진.
>> 따라서 가정으로 이동
이 Python 노트북
여기에 우리가 가진입니다.
Python 노트북은
어떤 많은 사람들이,
스파크를 사용 하는 데이터 과학자
가장 널리 사용 되 는입니다.
그렇게 하기 전에 실제로
데모를로 이동 합니다.
이 다이어그램을 살펴보겠습니다
방법의 구조가
실제로 커넥터가 만들어집니다.
따라서 사용자가 수행 하는 경우
사이 연결
스파크와 Cosmos,
이루어지는
내부적인
스파크 마스터 노드
에 연결 되어
Cosmos DB 게이트웨이 노드
파티션을 가져오려면
Cosmos의 정보를 제공 합니다.
이 정보는 번역
스파크를 한 후
분산
작업자 노드
상호 작용할 수 있는
쿼리를 제공 하는 경우
알 수 있습니다.
Cosmos 파티션
액세스 하 여 가져올 수 있습니다
데이터를 다시 점화,
작업자 노드 종류
중에 자신의 작업을 수행 합니다.
>>이 고
대부분 투명?
>> 사용자가 알 수 없습니다.
무엇의 실제
잘못 된 것 일까요.
>> 세련 된 디자인.

Czech: 
>> To je zajímavé.
>> Tedy můžeme přejít přes
Tento poznámkový blok Python
Zde, které máme.
Python notebooky jsou
jaké velké množství uživatelů,
data vědci, kteří používají Spark,
znají nejlépe.
Ano, před jsme skutečně
Přejít na demo,
Podívejme se na tento diagram
Architektura, jak to
konektor je skutečně vytvořen.
Takže když uživatel provede
spojení mezi
Zapalovací a Cosmos,
Co se skutečně děje
pod pokličkou je
hlavní uzel Spark
je připojen k
Cosmos DB uzlu gateway
Chcete-li získat oddíl
informace z Cosmos.
Tyto informace je přeložen.
zpět na jiskry a bude
rozdělena mezi
pracovní uzly
které pak mohou spolupracovat
Pokud dotaz pochází
ví, které
oddíl v Cosmos na
přístup a mohou přinést
zpět na jiskry,
pracovní uzly, na druhu
o své práci na něm.
>> A je to
z velké části transparentní?
>> Uživatel není vědoma
Co je ve skutečnosti
Zde se děje.
>> Vychladnout.

Italian: 
>> Per un raffreddamento.
>> In questo caso, passare sopra a
Questo blocco appunti Python
qui abbiamo.
I notebook Python sono
Molte persone,
ricercatori di dati che utilizzano scintilla,
ha più dimestichezza con.
In tal caso, prima è effettivamente
passare una demo,
Diamo un'occhiata a questo diagramma di
l'architettura di come questo
connettore viene creato.
Pertanto, quando un utente
una connessione tra
Scintilla e Cosmos,
Ciò che accade effettivamente
dietro le quinte è che
un nodo principale di scintilla
è connesso a
Nodo gateway COSMOS DB
Per ottenere la partizione
informazioni da Cosmos.
Tale informazione viene convertita
a scintilla e viene quindi
distribuiti
i nodi del lavoratore
che quindi possono interagire
Quando una query viene,
sanno che
Cosmos per partizione
accesso e possono essere inseriti
in Scintilla, i dati
i nodi di lavoro, per tipo
di svolgere il proprio lavoro su di esso.
>> E il
trasparente?
>> L'utente non è in grado di riconoscere
di cosa 's effettivamente
Questo esempio.
>> Raffreddare.

French: 
>> De refroidir.
>> Alors, nous allons sauter par-dessus pour
ce bloc-notes Python
ici nous avons.
Les Python portables sont
ce que beaucoup de gens,
scientifiques de données qui utilisent l’allumage,
sont plus familiers.
C’est le cas, avant de nous en fait
Plongez dans une démonstration,
jetons un œil à ce diagramme de
l’architecture de la ce
connecteur est réellement généré.
Ainsi, lorsqu’un utilisateur
une connexion entre
Allumage commandé et Cosmos,
que se passe-t-il réellement
dans les coulisses est qui
un nœud maître d’allumage
est connecté à
Nœud de passerelle COSMOS DB
Pour obtenir la partition
informations de Cosmos.
Cette information est traduite
revenir à l’allumage et est ensuite
réparties
les nœuds de travailleur
qui peut alors interagir
Lorsqu’une requête arrive,
ils savent qui
partition de Cosmos à
accès et pouvez mettre
les données à allumage commandé,
les nœuds de travailleur, type
de travailler dessus.
>> Et est-ce
en grande partie transparente ?
>> L’utilisateur ne connaît pas
de ce fait 's
se produit ici.
>> Refroidir.

Portuguese: 
>> Que 's legal.
>> Assim, vamos saltar para
Este bloco de anotações de Python
aqui, que temos.
Notebooks de Python são
o que muitas pessoas,
cientistas de dados que usam o Spark,
estão mais familiarizados com.
Portanto, antes de realmente
saltar para uma demonstração
Vamos examinar este diagrama de
a arquitetura de como isso
conector é criado.
Portanto, quando um usuário faz
uma conexão entre
Spark e Cosmos,
o que realmente está acontecendo
nos bastidores é que
um nó mestre Spark
conectado à
Nó de gateway cosmos DB
Para obter a partição
informações de Cosmos.
Essa informação é traduzida
de volta ao Spark e é
distribuído entre
os nós de trabalhador
que pode interagir
Quando uma consulta chega,
eles sabem que
partição em Cosmos para
acessar e pode trazer
os dados de volta para Spark,
os nós de trabalhador, para o tipo
de trabalhar nele.
>> E é isto
amplamente transparente?
>> O usuário não está ciente
o que realmente 's
acontecendo aqui.
>> Resfriar.

English: 
>> That's cool.
>> So, let's jump over to
this Python Notebook
here that we have.
Python notebooks are
what a lot of people,
data scientists who use Spark,
are most familiar with.
So, before we actually
jump into a demo,
let's look at this diagram of
the architecture of how this
connector is actually built.
So, when a user makes
a connection between
Spark and Cosmos,
what's actually happening
under the hood is that
a Spark master node
is connected to
Cosmos DB gateway node
to get the partition
information from Cosmos.
That information is translated
back to Spark and is then
distributed among
the worker nodes
which can then interact
when a query comes in,
they know which
partition in Cosmos to
access and can bring
the data back to Spark,
the worker nodes, to kind
of do their work on it.
>> And is this
largely transparent?
>> The user is not aware
of what's actually
happening here.
>> Cool.

German: 
>> Das Abkühlen.
>> So, uns zu springen
Dieses Notizbuch Python
hier, das wir haben.
Werden Python-notebooks
wie viele Personen,
datenwissenschaftlern Spark verwenden,
sind am vertrautesten.
Ja, bevor wir tatsächlich
Wechseln Sie in einer demo
Betrachten Sie dieses Diagramm
die Architektur wie diese
Connector wird tatsächlich erstellt.
Wenn ein Benutzer
eine Verbindung zwischen
Spark und Cosmos
Was passiert
unter der Haube befindet
ein Spark-master-Knoten
ist verbunden
COSMOS DB gatewayknoten
zu partition
Informationen von Cosmos.
Diese Informationen werden übersetzt
Spark und ist dann
verteilt
Arbeitskraft-Knoten
die dann interagieren können
Wenn eine Anfrage eingeht,
Sie wissen, welche
Cosmos auf Partition
Zugriff auf und können
die Daten in Funken
Arbeitskraft-Knoten Art
der Arbeit auf.
>> Und
größtenteils transparent?
>> Der Benutzer ist nicht bekannt
Was ist eigentlich
Hier passiert.
>> Abkühlen lassen.

Polish: 
>> To jest cool.
>> Tak Niech przeskoczyć do
Ten notes Python
tutaj, że mamy.
Notebooki Python
co wiele osób,
przetwarzających dane i korzystający w iskrowym,
są najbardziej znane.
Tak, zanim faktycznie
skoczyć demonstrację,
Spójrzmy na ten schemat
Architektura jak to
Łącznik faktycznie jest zbudowana.
Tak więc, gdy użytkownik wprowadzi
połączenie między
Świece i kosmos,
co się dzieje
pod maską jest
węzeł główny Spark
jest połączony
Węzeł bramy kosmos DB
Aby uzyskać partycji
informacje z kosmos.
Te informacje są tłumaczone
z powrotem do Spark i następnie
rozłożona
węzły pracownika
który następnie interakcji
Gdy kwerenda jest w,
wiedzą, co
partycji w kosmos do
dostęp i może przynieść
dane z powrotem do Spark,
węzły pracownika, do rodzaju
z pracy na nim.
>> I to jest
w dużym stopniu przezroczyste?
>> Użytkownik nie są znane
co jest w rzeczywistości
Dzieje się tutaj.
>> Schłodzić.

Spanish: 
>> Eso de enfriar.
>> Por lo tanto, vamos a saltar a
Este bloc de notas de Python
Aquí tenemos.
Los portátiles de Python
lo que mucha gente,
científicos de datos que utilice chispa,
están más familiarizados con.
De ser así, antes de que realmente
saltar a una demostración
Echemos un vistazo a este diagrama de
la arquitectura de cómo esto
conector se genera.
Por tanto, cuando un usuario realiza
una conexión entre
Cosmos y chispa
lo que sucede realmente
bajo el capó es
un nodo maestro de chispa
está conectado a
Nodo de puerta de enlace de COSMOS DB
Para obtener la partición
información del Cosmos.
Esa información se traduce
de nuevo a chispa y es
distribuye entre
los nodos de trabajador
a continuación, que puede interactuar
Cuando una consulta se recibe,
saben que
partición en Cosmos para
acceso y puede traer
los datos se vuelven a chispa,
los nodos de trabajo, a la clase
de realizar su trabajo en ella.
>> Y es el siguiente
¿en gran medida transparente?
>> El usuario no es consciente
de lo que se de realidad
sucede aquí.
>> Enfriar.

Chinese: 
>> 的酷。
>> 因此，我們要跳過
Python 筆記本
涵蓋了這裡。
Python 筆記本是
何種許多人，
資料科學家們使用電花術，
是最熟悉的。
如此之前我們, 實際上
跳到應在一段示範，
讓我們看看這個圖表的
如何架構這
事實上建置連接器。
因此，當使用者
之間的連接
電花術和宇宙，
實際上發生什麼
底下是
電花術的主要節點
連線到
宇宙 DB 閘道節點
若要取得磁碟分割
從宇宙的資訊。
這項資訊會轉譯
回電花術，之後就
重新分配
工作者節點
這可以互動
當查詢進來，
他們知道哪些
以宇宙中的資料分割
存取，並帶來極佳
將資料傳回給電花術，
工作者節點，以種類
執行工作時，其工作。
>>，這是
大致通透？
>> 使用者並不知道
實際的什麼的
哪裡出錯了。
>> 很棒。

Chinese: 
>>，请这些第一个单元格，
我已预先内置它们。
我要跳过
这些因为
它们只是
指定 jar，
触发 jar，以及定义
接头应如何
实际上与宇宙。
和此下一单元格
创建航班，
所以我应该获得某些上下文
对此演示第一次。
这是三个月
在时间飞行
从性能数据
美国
部门
交通统计数据。
>> 因此，数十万条，
数百万的航班吗？
>> 有很多
以下航班。
我并不认为数以百万计
但数十万条。
因此，我们创建
了的触发数据帧
这实质上是
只是一个分布式的集合
飞行数据的
组织到命名列中。
它是几乎类似
事实上，一个关系表。
好，那么，第一个查询
实际上我们还
这里是
计算前 10
延迟的目标
来自西雅图。
因此，如果我们运行此这里。

Japanese: 
>> ためには、これらの最初のセル
既に事前固定にします。
ここでスキップするには
上にあるため
だけであります。
、jar を指定します。
スパーク jar を定義して
コネクタが必要があります。
世界に実際に問い合わせてください。
この次のセル
フライトを作成します。
いくつかのコンテキストを与える必要がありますか
最初には、このデモします。
これは、3 か月
時間のフライトで
パフォーマンス データ
アメリカ合衆国
部門
輸送の統計情報です。
>> など、数十万、
フライトの数百万ですか。
>> が、多数
フライトは、ここです。
何百万もないと思います
数十万です。
したがって、私たちを作成し、
ここで点火データ フレーム
本質的には
分散型のコレクションだけで
フライト データの
名前付きの列に分かれています。
Like のほとんどは
実際のリレーショナル テーブルです。
さて、それでは、最初のクエリ
私たちは実際には
ここでの移動には
トップ 10 を計算します。
遅延の宛先
シアトルからのものです。
ですから、これを実行してここで。

Spanish: 
>> Por lo tanto, estas celdas de la primera,
Yo ya previamente había preparado ellos.
Voy a omitir
por encima de ellos porque
son simplemente
especificación de los frascos
tarros de chispa y la definición de
¿cómo debe el conector
hablar en realidad a Cosmos.
Y esta celda siguiente
crea los vuelos,
lo que debo ofrecer algún contexto
en esta demostración primero.
Se trata de tres meses
de vuelo de tiempo
datos de rendimiento de
Estados Unidos
Departamento de
Estadísticas de transporte.
>> Así, cientos de miles de personas,
¿millones de vuelos?
>> Hay mucho
de vuelos aquí.
No creo que millones
pero cientos de miles.
Y, por tanto, creamos
una trama de datos de chispa
que es esencialmente
sólo una colección distribuida
los datos de vuelo que
se organizan en columnas con nombre.
Es prácticamente como
una tabla relacional, de hecho.
Bueno, por lo tanto, la primera consulta
Estamos realmente
Ir a hacer aquí es
calcular las 10 principales
destinos retrasados
procedentes de Seattle.
Por lo tanto, si volvemos a ejecutar esto aquí.

Russian: 
>> Таким образом, эти первые ячейки
Я уже предварительно помещенного их.
Я собираюсь пропустить
на них из-за
они не так просто
указания по
банке Spark, а также определение
как следует соединительной линии
рассуждать Cosmos.
И следующей ячейки
Создает рейсов,
Поэтому следует присвоить какой-либо контекст
сначала на этом demo.
Это три месяца
из на время полета
данные о производительности из
Соединенные Штаты
Отдел
Транспортной статистики.
>> Таким образом сотни тысяч,
миллионы рейсов?
>> Имеется много
для рейсов здесь.
Я не думаю миллионов
но сотни тысяч.
И так, что мы создаем
рамку данных Spark
который является по существу
просто распределенных коллекции
данные рейса на
организованы в именованных столбцов.
Это практически аналогично
таблицы фактов в реляционной.
Итак, таким образом, первый запрос
мы фактически
Здесь я
10 лучших расчета
Задержка назначения
полученные из Сиэтла.
Таким образом, при выполнении это здесь.

German: 
>> Also diese Zellen in der ersten,
Ich bereits gebacken bereits diese.
Ich werde überspringen
Sie da
Sie sind nur
Angabe der Gläser
die Gläser Spark und definieren
Wie soll der connector
Sprechen Sie tatsächlich mit Cosmos.
Und diese weiter
erstellt die Flüge,
So sollten Hintergrundinformationen Geben
in dieser demo zuerst.
Drei Monate
der Flug Zeit
Leistungsdaten
die Vereinigten Staaten
Abteilung
Transport-Statistiken.
>> Also mehrere hunderttausend
Millionen von Flügen?
>> Gibt es viel
der Flüge.
Ich glaube nicht Millionen
jedoch Hunderttausende.
Und wir erstellen
ein Spark-Datenrahmen
im Wesentlichen ist
nur eine verteilte Ansammlung
der Flugdaten, der
in benannten Spalten organisiert.
Es ist fast wie
eine relationale Tabelle tatsächlich.
Okay, also die erste Abfrage
tatsächlich
Hier ist
Berechnen des Top 10
Verzögerte Ziele
Ursprung von Seattle.
Wenn wir dies ausführen hier.

Korean: 
>> 지금이 첫 번째 셀
난 이미 미리 변환 되 게 합니다.
건너뛸 거 야
마우스로 하기 때문에
이들은 단지
jar를 지정합니다.
스파크 jar 및 정의
커넥터는 어떻게
실제로 Cosmos 문의 하십시오.
및 다음 셀이
비행기, 만듭니다.
따라서 상황을 제공 해야
이 데모 먼저.
이것은 3 개월
비행 시간에
성능 데이터를
미국
통신부
교통 통계입니다.
>> 따라서 수백 수천,
항공편의 수백만?
>>는 훨씬
여기 냅니다.
제가 백만 알고
하지만 수십만.
생성 하므로
여기 Spark 데이터 프레임
기본적으로
분산된 컬렉션
비행 데이터를
명명 된 열으로 구성 됩니다.
과 거의 유사
사실에서 관계형 테이블입니다.
확인을, 첫 번째 쿼리
실제로 우리
여기서 사용 하는
톱 10을 계산 합니다.
연기 대상
시애틀에서 발생 합니다.
따라서 실행이 여기 있습니다.

Turkish: 
>> Bunu, bu ilk hücreleri,
Ben zaten bunları önceden baked.
Atlamak için gidiyorum
bunları üzerinden çünkü
sadece oldukları
Kavanoz belirterek,
Spark Kavanoz ve tanımlama
nasıl Bağlayıcısı gerekir
gerçekten Cosmos için konuşun.
Ve bu bir sonraki hücre
uçuşlar oluşturur.
Bu nedenle bazı içerik vermelisiniz
Bu gösteri ilk.
Üç ay budur
biri üzerinde saat uçuş
performans verileri
Amerika Birleşik Devletleri
Departmanı
Ulaştırma istatistikleri.
>> Böylece, yüz binlerce
uçuşlar milyonlarca?
>> Yok çok
Burada uçuşlar.
Milyonlarca düşünme yok
ancak binlerce yüzlerce.
Ve bu nedenle, biz oluşturun
bir Spark veri çerçevesi
Aslında olduğu
Dağıtılmış bir koleksiyonu
Uçuş veri o
adlandırılmış sütunlar düzenlenir.
Neredeyse gibi
Aslında ilişkisel bir tablo.
Tamam, bu nedenle, ilk sorguyu
Aslında dileriz
Burada yapmak için devam edilir
en iyi 10 Hesapla
Gecikmiş hedefleri
İstanbul ' kaynaklanan.
Bunu, biz bunu çalıştırırsanız burada.

English: 
>> So, these first cells,
I already pre-baked them.
I'm going to skip
over them because
they are just
specifying the jars,
the Spark jars, and defining
how the connector should
actually talk to Cosmos.
And this next cell
creates the flights,
so I should give some context
on this demo first.
This is three months
of on time flight
performance data from
the United States
Department of
Transportation Statistics.
>> So, hundreds of thousands,
millions of flights?
>> There's a lot
of flights here.
I don't think millions
but hundreds of thousands.
And so, we create
a Spark data frame here
which is essentially
just a distributed collection
of the flight data that's
organized into named columns.
It's almost like
a relational table, in fact.
Okay , so, the first query
we're actually
going to do here is
calculate the top 10
delayed destinations
originating from Seattle.
So, if we run this here.

Portuguese: 
>> Isso, essas células primeira,
Eu já previamente bolinhos-los.
Vou ignorar
sobre eles porque
eles são apenas
especificando os jars
os jars Spark e definindo
como o conector deve
Na verdade, converse com Cosmos.
E esta próxima célula
cria os voos
Portanto, deve fornecer algum contexto
Nesta demonstração pela primeira vez.
Isso é de três meses
de em voo de tempo
dados de desempenho
os Estados Unidos
Departamento de
Estatísticas de transporte.
>> Assim, centenas de milhares,
milhões de voos?
>> Há muito
de voos aqui.
Não acredito que milhões
mas centenas de milhares.
E, portanto, criamos
um quadro de dados Spark aqui
que é essencialmente
apenas um conjunto distribuído
os dados de voo que
organizados em colunas nomeadas.
É quase como
uma tabela relacional, na verdade.
Okey, portanto, a primeira consulta
estamos realmente
Vou fazer aqui é
calcular os 10 principais
destinos atrasados
origem de Seattle.
Portanto, se executamos isso aqui.

French: 
>> Ce cas, ces cellules en premier,
J’ai déjà préalablement préparé les.
Je vais ignorer
dessus car
ils sont simplement
spécifier les fichiers JAR,
les fichiers JAR étincelle et définition
comment le connecteur doit
en fait, contactez Cosmos.
Et cette cellule suivante
crée des vols,
Par conséquent, dois-je donner un contexte
tout d’abord sur cette démonstration.
Il s’agit de trois mois
des vol de temps
données de performance
Les États-Unis
Département de
Statistiques de transport.
>> Donc, des centaines de milliers,
millions de vols ?
>> Il y a beaucoup
des vols ici.
Je ne pense pas que des millions
mais des centaines de milliers.
Et par conséquent, nous créons
une trame de données étincelle ici
qui est essentiellement
juste un ensemble distribué
les données de vol de
organisées en colonnes.
Il s’apparente quasiment à
une table relationnelle, en fait.
OK, donc, la première requête
Nous sommes
rencontrer ici
calculer le top 10
destinations différées
départ de Seattle.
Par conséquent, si nous exécutons ce ici.

Czech: 
>> Tak, tyto první buňky
Jsem již předem peče je.
Chcete-li přeskočit kliknu
nad nimi protože
jsou pouze
zadání sklenic po g,
Spark sklenic po g a definování
jak by měl konektoru
ve skutečnosti svého Cosmos.
A tato další buňka
Vytvoří letů,
tak měli některé souvislosti
nejprve na tato ukázka.
Jedná se o tři měsíce
o na čas letu
data o výkonu z
Spojené státy
Oddělení
Statistika dopravy.
>> Tedy stovky tisíc,
miliony lety?
>> Je velmi
Zde letů.
Neberu miliony
ale statisíce.
A tak můžeme vytvořit
Zde snímek dat Spark
což je v podstatě
právě distribuované kolekce
letových dat to je
uspořádány do pojmenované sloupce.
Je téměř obdobný
relační tabulky ve skutečnosti.
V pořádku, takže první dotaz
ve skutečnosti jsme
Přechod na to zde je
Výpočet prvních 10
dlouhodobé cíle
původem ze Seattlu.
Takže, pokud jsme ji spustit zde.

Italian: 
>> Questa operazione, queste celle prima,
Già pre-baked li.
Andrò a ignorare
su di essi in quanto
sono solo
specificando il JAR,
JAR di scintilla e la definizione
come il connettore deve
in realtà parlare Cosmos.
E la cella successiva
Crea i voli,
consigliabile dare un contesto
in questa demo prima.
Si tratta di tre mesi
di volo ora
dati di prestazioni da
gli Stati Uniti
Reparto di
Statistiche di trasporto.
>> In questo caso, centinaia di migliaia,
milioni di voli?
>> È molto
dei voli qui.
Non credo milioni
ma centinaia di migliaia.
E, pertanto, si crea
un frame di dati scintilla qui
che è essenzialmente
solo un insieme distribuito di
i dati di volo che
organizzati in colonne denominate.
È quasi come
una tabella relazionale, in effetti.
OK (Okay), pertanto, la prima query
Siamo effettivamente
andrò a fare qui
calcolare i primi 10
destinazioni ritardate
partenza da Seattle.
Pertanto, se si esegue questa operazione qui.

Chinese: 
>> 的話，這些第一個儲存格，
我已經預先燒它們。
我要跳過
停留因為
它們只是
指定的 （每瓶），
電花術 （每瓶)，並定義
連接器應該如何
實際洽詢宇宙。
與這個的下一個儲存格
建立飛行，
因此，我應該提供一些內容
這示範第一次。
這是三個月
時間飛行上
從效能資料
美國
部門
運輸統計資料。
>> 那麼數十萬名，
數以百萬計的飛行？
>> 有的比較
飛行這裡。
我不認為數以百萬計
但數百個。
因此，我們建立
一個的電花術資料圖文框
這基本上是
只是分散式組集合
飛行資料的
具名的資料行所組成。
它是幾乎 like
關聯式資料表，在 [事實。
好，因此，第一個查詢
實際上我們
移動至所做的動作是
計算前 10 項
延遲的目的地
源自西雅圖。
因此，如果我們執行此程序在這裡。

Polish: 
>> Tak, te pierwsze komórki
Mam już wstępnie prażone je.
Mam zamiar przejść
nad nimi ponieważ
są one po prostu
Określanie słoiki,
słoiki Spark i definiowanie
jak należy łącznika
rzeczywiście porozmawiać kosmos.
I to następnej komórki
Tworzy lotów,
więc powinny dać kontekstu
w tej sprawie demo po raz pierwszy.
Jest to trzy miesiące
w czasie lotu
dane dotyczące wydajności z
Stany Zjednoczone
Dział
Statystyki transportu.
>> Tak setki tysięcy,
miliony loty?
>> Jest dużo
w tym miejscu lotów.
Myślę, że miliony
ale setki tysięcy.
I tak, tworzymy
w tym miejscu ramki danych Spark
który jest zasadniczo
rozproszonym Kolekcja
dane lotu that's
zorganizowane w kolumny o nazwie.
Jest prawie jak
Tabela relacyjnych, w rzeczywistości.
W porządku, tak więc, pierwszą kwerendę
jesteśmy właściwie
wybiera się do zrobienia
obliczyć 10 pierwszych
opóźnione miejsc docelowych
pochodzący z Seattle.
Tak więc, jeśli mamy go uruchamiać w tym miejscu.

Portuguese: 
>> Isso seria
as casas para não entrar.
>> Sim. E se podemos
Examine o gráfico de barras
Você pode ver que o voos
a partir de são Francisco
Seattle são frequentemente
atrasada ou mais estão atrasadas.
E, em seguida, algo que
outra consulta que podemos
o que tem uma função que é
definitivamente não é interno no
Cosmos é que podemos calcular
os mediano atrasos por
cidades de destino
Partindo de Seattle.
E usa o percentil do Spark
função de aproximação
que, novamente,
Se você estiver interessado
em algoritmos, ou matemática
Acho que ele está fazendo algum tipo
do algoritmo semelhante
para HyperLogLog.
Portanto, ele está em uma estimativa
função mas de TI
ainda é muito precisas.
>> Por isso, é tão um
algoritmo sofisticado
em uma grande quantidade de dados.
>> Exatamente. E aqui,
podemos ver que a cidade
o voo de Seattle
para Cleveland realmente tem
o maior atraso médio
de 12 minutos.
>> Que 's não é tão ruim.
>> Não é terrível.
Outras coisas interessantes
que você pode fazer com

Spanish: 
>> Sería
los lugares no se vaya.
>> Sí. Y si se
Mire el gráfico de barras
puede ver que los vuelos
San Francisco de
Seattle suelen ser más
retrasan o se retrasan más.
Y, a continuación, algo que
otra consulta que podemos
que tiene una función que es
definitivamente no integrados en
COSMOS es que podemos calcular
los retrasos por medio
ciudades de destino
Saliendo de Seattle.
Y esto utiliza percentil de chispa
función de aproximación
que, de nuevo,
Si le interesa
en matemáticas o algoritmos,
Creo que está haciendo algún tipo
del algoritmo similar
a un HyperLogLog.
Por lo tanto, resulta en una estimación
función pero su
todavía es muy precisa.
>> Por lo tanto, lo que es un
sofisticado algoritmo
a través de una gran cantidad de datos.
>> Exactamente. Y aquí
vemos que la ciudad,
el vuelo de Seattle
Aquí tiene en realidad
el mayor retraso medio
de 12 minutos.
>> Esa es la mala suerte no.
>> No es terrible.
Otras cosas interesantes
que se puede hacer con

German: 
>> Wäre
die Orte nicht.
>> Ja. Und wenn wir
Betrachten Sie das Balkendiagramm,
Sie sehen, dass die Flüge
zu San Francisco
Seattle sind
die verspätet oder verzögert.
Und dann,
eine andere Abfrage können wir
eine Funktion führen Sie hat, die
nicht integrierter
Ist, dass wir berechnen
Mittlere Verzögerung von
Ziel Städte
ausgehend von Seattle.
Und dies Spark Quantil
Angleichung-Funktion
die erneut,
Wenn Sie interessiert
in mathematischen oder Algorithmen
Ich denke, es ist eine Art
der Algorithmus wie
auf HyperLogLog.
Daher ist es in eine Vorkalkulation
Funktion, aber es ist
noch sehr genau.
>> Ist es ganz ein
komplexen Algorithmus
in einer großen Datenmenge.
>> Genau. Und hier
Wir sehen, dass die Stadt
Flugs von Seattle
Cleveland hat
die größte mittlere Verzögerung
12 Minuten.
>> Die nicht schlecht.
>> Ist nicht sehr schlecht.
Andere interessante Dinge
möglich, dass Sie

Chinese: 
>> 这是
不去的地方。
>> 是。并且如果我们
查看条形图
您可以看到，航班
从旧金山到
大多数情况下是西雅图
延迟或最延迟。
和再某种东西，
我们可以另一个查询
有是一个函数的执行
肯定不是内置在
宇宙是我们可以计算
通过中间的延迟
目标的城市
离开西雅图。
并就使用触发的百分比
近似函数
再次，这
如果您感兴趣
在数学或算法，
我认为它做一些排序
类似的算法的
到 HyperLogLog。
因此，在估计中，
函数，但它的
仍要非常准确。
>> 因此，非常非常
复杂的算法
通过大量的数据。
>> 完全一样。和这里，
我们看到的城市，
航班从西雅图
克利夫兰到实际上有
中间最大延迟
为 12 分钟。
>> 的不算太坏。
>> 并不可怕。
有趣的事情
您可以处理

English: 
>> This would be
the places not to go.
>> Yes. And if we
look at the bar graph,
you can see that the flights
to San Francisco from
Seattle are most often
delayed or are most delayed.
And then something that
another query we can
do that has a function that is
definitely not built-in in
Cosmos is we can calculate
the median delays by
destination cities
departing from Seattle.
And this uses Spark's percentile
approximation function
which, again,
if you're interested
in math or algorithms,
I think it's doing some sort
of algorithm similar
to a HyperLogLog.
So, it's in an estimation
function but it's
still very accurate.
>> So, it's quite a
sophisticated algorithm
across a huge amount of data.
>> Exactly. And here,
we see that the city,
the flight from Seattle
to Cleveland actually has
the greatest median delay
of 12 minutes.
>> That's not too bad.
>> It is not terrible.
Other interesting things
that you can do with

Turkish: 
>> Bu olacaktır
değil gitmek için yerler.
>> Evet. Ve eğer biz
bak çubuk grafik,
Bu gördüğünüz uçuşlar
San Francisco için
Seattle olan en sık
Gecikmeli veya en gecikiyor.
Ve sonra bir şey,
bizim için başka bir sorgu
olan bir işlevi vardır yapıyor
Yerleşik kesinlikle değil
Cosmos hesaplamak değil.
Medyan gecikmeler tarafından
Hedef şehirler
İstanbul departing.
Ve bu Spark'ın yüzdebirlik kullanır
yaklaşık işlevi
hangi yeniden,
ilgilenen varsa
Matematik veya algoritmaları,
Bazı sıralama yapıyor bence
algoritma benzer
bir HyperLogLog için.
Bu nedenle, bir tahmininde olduğu
ancak kendi işlevi
hala çok doğru.
>> Bu nedenle oldukça olduğu bir
karmaşık bir algoritma
çok büyük miktarda veri.
>> Tam olarak. Ve burada,
Biz bakın Şehir
İstanbul'dan uçuş
Cleveland için gerçekte vardır
Medyan en büyük gecikme
12 dakikalık.
>> O çok kötü.
>> Bu korkunç değildir.
Diğer ilginç şeyler
ile yapabilirsiniz

Japanese: 
>> になります
移動しないように配置します。
>> [はい] です。場合に
棒グラフを見る
参照してくださいすることができます、フライト
サンフランシスコまで
シアトルは多くの場合、します。
延期または遅延がほとんどです。
何かを
別のクエリが可能
関数を持つ
確実に行われています
世界では計算することができます。
によって中央の遅延
先の都市
シアトルから出発します。
スパークの百分位を使用して
近似関数
もう一度、
興味があるなら
数値演算のアルゴリズムでは、
これにはいくつかの並べ替えだと思います
アルゴリズムと同様の
HyperLogLog。
見積では、
関数が
非常に正確です。
>>、これは非常に
高度なアルゴリズム
間でのデータの膨大な量です。
>> 正確にします。そしてここで
それが表示されて、市区町村
シアトルからフライト
クリーブランドに実際には
最大応答遅延
12 時間 (分) です。
>> の悪くないです。
>> は恐ろしいです。
その他の面白いこと
で行うことができます。

Czech: 
>> To bude
nechcete přejít na místech.
>> Ano. A pokud jsme
Podívejte se na pruhový graf
můžete vidět, že lety
na San Francisco z
Nejčastěji jsou Hradec Králové
zpoždění nebo většině zpoždění.
A pak něco,
Další dotaz, který můžeme
obsahující funkci, která je
zcela jistě ne zabudovaných v
Cosmos je, že jsme můžete vypočítat
podle střední doby prodlení
Cílová města
Odlet Praha.
A to pomocí percentilu na zapalovací
aproximace funkce
což opět
Pokud vás zajímají
Matematika nebo algoritmy,
Myslím, že dělá některé řazení
Podobně jako algoritmus
Chcete-li HyperLogLog.
Ano je odhad
Funkce, ale jeho
stále velmi přesné.
>>, Je tedy zcela
propracované algoritmus
přes obrovské množství dat.
>> Přesně. A zde,
vidíme, že město,
let z Prahy
Cleveland skutečně má
největší zpoždění střední
12 minut.
>> To je příliš špatné.
>> Není z trapných let.
Jiné zajímavé
lze provádět s

Russian: 
>> Бы
окружение не направляются.
>> Да. И если мы
Взгляните на гистограмму,
можно заметить, что рейсов
в Сан-Франциско из
Сиэтл, чаще всего
Задержка или наиболее задерживаются.
А затем,
другой запрос, мы можем
который имеет функцию, которая является
определенно не встроенные в
Cosmos — мы можем рассчитать
Медиана задержки
города назначения
пункт отправления Сиэтла.
И при этом используется процентиль Spark
Функции аппроксимации
что, опять же,
Если вы заинтересованы
в математических и алгоритмы,
Я думаю, что это некий
Подобно алгоритма
для HyperLogLog.
Таким образом он находится в функции оценки
функция, но его
по-прежнему очень точным.
>> Таким образом, это довольно
Усовершенствованный алгоритм
через большой объем данных.
>> Точно. И здесь,
мы видим, Город,
самолете из Сиэтла
есть в Кливленд
Наибольшее Средняя задержка
12 минут.
>> Всё не так плох.
>> Это не столь уж ужасно.
Другие интересные вещи
что можно делать с

French: 
>> Il s’agit de
les lieux pas.
>> Oui. Et si nous
Examinez le graphique à barres,
Vous pouvez voir que les vols
à San Francisco, à partir de
Seattle sont le plus souvent.
retard ou sont plus retardées.
Et puis quelque chose qui
une autre requête, que nous pouvez
ayant une fonction
absolument pas intégré dans
COSMOS est que nous pouvons calculer
les retards médian par
villes de destination
au départ de Seattle.
Et cela utilise centile de d’allumage
fonction de rapprochement
qui, une fois encore,
Si vous êtes intéressé
dans math ou algorithmes,
Je pense qu’il effectue un tri
d’algorithme similaire
pour un HyperLogLog.
Par conséquent, il est dans une estimation
fonction mais il
toujours très précis.
>>, Il est donc tout à fait un
algorithme sophistiqué
sur un grand nombre de données.
>> Exactement. Et là,
Nous pouvons remarquer que la ville,
le vol de Seattle
à Cleveland a
le plus grand délai médian
de 12 minutes.
>> De pas si mal.
>> N’est pas terrible.
Autres éléments intéressants
que vous pouvez faire avec

Polish: 
>> To byłoby
obiekty nie wydostały się.
>> Tak. A jeśli mamy
Spójrz na wykres słupkowy
można zobaczyć, że loty
do San Francisco z
Seattle są najczęściej
opóźnione lub najbardziej są opóźnione.
A następnie coś, który
innej kwerendy, możemy
który ma funkcję, która jest
na pewno nie jest wbudowany w
Kosmos jest, że możemy obliczyć
Mediana opóźnienia przez
miast docelowych
odstąpienia od Seattle.
A to wykorzystuje Spark. percentyl
Funkcja zbliżenia
co jeszcze raz,
Jeśli jesteś zainteresowany
matematyczne lub algorytmów,
Myślę, że robi jakiś
Algorytm podobne
do HyperLogLog.
Tak to w oszacowanie
Funkcja, ale to
nadal bardzo dokładne.
>> To dość
zaawansowany algorytm
na ogromną ilość danych.
>> Dokładnie. I tutaj,
widzimy, że miasta,
lot z Seattle
Cleveland faktycznie ma
największe opóźnienie mediana
12 minut.
>> To jest nie najgorzej.
>> Nie jest tak trudny.
Inne ciekawe rzeczy
można zrobić z

Chinese: 
>> 這或許是
去不的地點。
>> [是]。如果我們
查看在長條圖中，
您可以看出來的飛行
若要從舊金山
西雅圖程式大部分是
延遲，或是最會延遲。
然後使用項目，
另一個查詢，我們可以
已經是函式
肯定不是內建中
宇宙是我們可以計算
藉由中間的延遲
目的地城市
出發地西雅圖。
這會使用電花術的百分位數，
估計值的函式
其中，一次，
如果你有興趣
在數學或演算法，
我認為它正在進行某種形式
演算法類似的
到 HyperLogLog。
因此，處於估計
函式，但它的
仍然非常準確。
>>，我來說其實相當
複雜的演算法
透過大量的資料。
>> 完全相同。接下來，
我們看到的城市，
從西雅圖飛行
到克里夫蘭實際上有
最大的中間延遲
12 分鐘。
>> 的不太糟。
>> 不可怕。
其他有趣的事情
您可以對

Korean: 
>>이
이동할 수 없는 장소입니다.
>> 그래입니다. 경우에
막대 그래프를 보면
볼 수 있는 항공편
샌프란시스코에
시애틀은 대부분은
지연 되거나 가장 지연 됩니다.
와 다음 것입니다
다른 쿼리 수 있습니다.
이 함수를 포함 하는
심지어 내장에
Cosmos를 계산할 수 있습니다.
하 여 중간 지연
대상 도시
시애틀에서 달라진 다.
스파크의 백분위 수를 사용 하 여이
근사 함수
다시는
하 고 싶은 경우
수학, 알고리즘,
어떤 형태로 진행 중인 것 같습니다.
유사한 알고리즘의
하는 HyperLogLog.
예상에는
기능으로 보이지만
매우 정확 해야 합니다.
>> 아주는 따라서는
고급 알고리즘
막대 한 양의 데이터.
>> 정확 하 게. 여기 고
볼을 시,
시애틀에서 비행
클리블랜드에는
큰 중간 지연
12 분.
>>를 괜찮습니다.
>> 끔찍한 것은 아닙니다.
흥미로운 것
사용 하 여 수행할 수 있습니다

Italian: 
>> Questo sarebbe
i punti in cui non Vai.
>> Sì. E se è
osservare il grafico a barre,
è possibile osservare che i voli
a San Francisco da
Sono spesso di Seattle
ritardo o ritardati più.
E quindi qualcosa che
un'altra query, che è possibile
che dispone di una funzione
indubbiamente non incorporati in
COSMOS è che è possibile calcolare
i ritardi mediano da
città di destinazione
in partenza da Seattle.
E utilizza percentile della scintilla
funzione di approssimazione
che, ancora una volta,
Se siete interessati
in matematica o algoritmi,
Credo che accade qualche
dell'algoritmo simile
per un HyperLogLog.
In questo caso, si tratta di una stima
funzione ma è
ancora molto accurata.
>>, È piuttosto un
algoritmo sofisticato
attraverso un'enorme quantità di dati.
>> Esattamente. E qui,
Vediamo che la città,
il volo da Seattle
di Cleveland è effettivamente
il massimo ritardo mediano
di 12 minuti.
>> Che un non male.
>> Non è terribile.
Altre cose interessanti
che è possibile eseguire con

English: 
the connector or actually
do graph queries as well.
And so, what these cells
actually do is create
a graph frame which is composed
of Vertex and Edge data frames.
A Vertex data frame contains
a special column named ID,
which contains
the ID of the Vertex.
And the Edge data frames contain
a source and input column with
the source Vertex and
destination Vertex ID.
And so, we can actually figure
out the most important airport
in terms of like the number of
connections going
through that airport.
>> Oh, I see. So, we
walk the whole graph.
This is, again, a quite
sophisticated aggregate that
has a large amount of data.
>> So, this would take
like a lot of grouping
and it would take some time to
compose a SQL query
that could do this.
But here, we see with Spark,
we can just use

Italian: 
il connettore o effettivamente
grafico anche query.
E pertanto, quali di queste celle
in realtà non è creare
costituita da una cornice di grafico
Vertice e bordo frame di dati.
Contiene un frame di dati di vertice
una colonna speciale denominato ID,
che contiene
ID del vertice.
E contengono i frame di dati di bordo
una colonna di origine e di input con
l'origine del vertice e
destinazione ID di vertice.
E pertanto, in realtà riusciamo
all'aeroporto più importante
in termini di come il numero di
connessioni inserite
tramite tale aeroporto.
>> Oh, è visibile. In questo caso, abbiamo
scorrere l'intero grafico.
Si tratta, ancora una volta, una sufficiente
sofisticati che di aggregazione
ha una grande quantità di dati.
>> In questo caso, questa operazione richiederebbe
un gran numero di raggruppamento
e richiederebbe una certa
comporre una query SQL
che tale vulnerabilità.
Ma, ecco con accensione comandata,
possiamo utilizzare semplicemente

Turkish: 
Bağlayıcı veya gerçekte
sorguların grafik.
Ve bu nedenle, bu hangi hücreleri
gerçekten yapmak değil oluşturun
oluşan bir grafik çerçevesi
Köşe ve kenar veri çerçevesi.
Köşe veri çerçevesi içerir
Kimliği adlı özel bir sütun
içeren
Tepe noktası kimliği.
Ve kenar veri çerçevelerini içerir
bir kaynak ve giriş sütun
Köşe kaynak ve
Hedef köşe kimliği.
Ve biz gerçekten bunu hesaplayabilir
out en önemli havaalanı
şartlarında sayısı gibi
bağlantıları giderek
Bu havaalanı.
>> Oh, görüyorum. Bu nedenle, biz
tüm grafik yürüyüş.
Bu, yeniden, bir sessiz olur
karmaşık, toplama
büyük miktarda veri var.
>> Bu nedenle götürecek
gibi çok sayıda gruplandırma
ve bir süre için götürecek
bir SQL sorgusu oluşturma
bunu yapabilirsiniz.
Ama burada, biz Spark ile bakın
Biz yalnızca kullanabilirsiniz

Polish: 
Łącznik lub faktycznie
Wyświetl wykres również kwerendy.
I tak, jakie te komórki
faktycznie jest tworzenie
ramki wykresu, który składa się
Wierzchołków i krawędzi ramek danych.
Zawiera ramki danych wierzchołka
specjalna kolumna o nazwie ID,
który zawiera
Identyfikator wierzchołka.
I zawierać krawędzi ramek danych
kolumny źródłowe i dane wejściowe z
Źródło wierzchołek i
docelowy identyfikator wierzchołek.
I tak, faktycznie poznamy
z najważniejszych portu lotniczego
w warunkach jak liczba
przerywaj połączenia
za pośrednictwem tego portu lotniczego.
>> O widzę. Tak firma Microsoft
Przeprowadź cały wykres.
Jest to, ponownie, to dość
wyrafinowane agregacji, która
zawiera dużą ilość danych.
>> Tak by to potrwać
Podobnie jak wiele grupowania
a może upłynąć trochę czasu, aby
SQL kwerendy
Można to zrobić.
Ale tutaj widzimy z Spark,
Możemy po prostu użyć

Chinese: 
该连接器或实际
以及查询的图表。
因此，这些单元格
实际如何创建
它由一个图形框架
顶点和边的数据帧。
顶点数据帧包含
一个名为 ID 的特殊列
其中包含
顶点的 ID。
而且边缘的数据帧包含
具有源和输入列
顶点的源和
目标顶点 id。
因此，我们实际上可以判断
最重要的机场出
在类似的数量条款
将连接
通过该机场。
>> 哦，我看到了。因此，我们
审核整个图。
这是，再次，相当
复杂聚合，
有大量的数据。
>> 因此，这会花费
如大量的分组
并且会花一些时间
编写 SQL 查询
它可以这样做。
但这里，我们可以看到与触发，
我们可以只使用

Czech: 
spojnice nebo skutečně
dotazy také grafu.
A tak tyto buňky
ve skutečnosti provést je vytvořit
Graf snímek, který se skládá
Vrchol a hrany datových rámců.
Rámeček data vrcholů obsahuje
zvláštní sloupec s názvem ID,
který obsahuje
ID na vrchol.
A obsahovat okraj datových rámců
zdroj a vstupní sloupec s
Zdrojový vrchol a
cílové ID vrchol.
A tak jsme lze skutečně obrázku
mimo nejdůležitější letiště
v podmínkách jako číslo
probíhající připojení
přes toto letiště.
>> Ale vidím. Proto jsme
Ukázat celý graf.
To je, znovu, tichý
propracované agregovat,
má velké množství údajů.
>> Tak to bude trvat
stejně jako mnoho seskupení
a bude nějakou dobu trvat
vytváření SQL dotazů
který by mohl tuto akci provést.
Ale Zde vidíme s jiskrou,
můžete pouze použít

Japanese: 
コネクタまたは実際には
同様のクエリをグラフの操作を行います。
など、どのようなこれらのセル
実際に作成されます
グラフのフレームで構成されています
頂点とエッジのデータ フレームです。
頂点データ フレームが含まれています
ID という名前の特別な列
含まれています
頂点の ID です。
エッジのデータ フレームが含まれていると
ソースと入力列
ソース頂点と
転送先の頂点の id。
そのため、実際に考えて、
最も重要な空港を
数などの条件で
接続
を通じてその空港です。
>> ああ、私を参照してください。したがって、私たち
全体のグラフを説明します。
これは、もう一度、きわめて
高度な集計を
大量のデータがあります。
>> ため、これを要します
グループ化の多くのように
しばらく時間がかかると
SQL クエリを作成します。
これを実行できます。
スパークを持つはずだここでは、
だけを使用できます。

German: 
der Connector oder
Führen Sie Abfragen grafisch.
Und diese Zellen
Tatsächlich wird erstellt
ein Graph-Frame besteht
Eckpunkt und Rand Datenrahmen.
Ein Scheitelpunkt Daten enthält
eine spezielle Spalte mit dem Namen ID
enthält
die ID des Scheitelpunkts.
Rand Datenrahmen enthalten
eine Spalte Quelle und Eingabe
die Quelle Scheitelpunkt und
Ziel Vertex-ID.
Und so können wir tatsächlich Abbildung
die wichtigsten Flughafen
in Bezug auf die Anzahl der
Verbindung gehen
Dieser Flughafen.
>> Oh, sehe ich. Also, wir
das gesamte Diagramm zu durchlaufen.
Dies ist ein ganz
anspruchsvolle zusammenfassen, die
hat eine große Datenmenge.
>> So wäre dies
wie viele gruppieren
und es dauert einige Zeit
Erstellen einer SQL-Abfrage
Das könnte dazu.
Aber wir sehen mit Funken
Wir können nur

Portuguese: 
o conector ou realmente
gráfico de consultas também.
E, portanto, que essas células
realmente fazer é criar
um quadro de gráfico, que é composto
Vértice e borda de quadros de dados.
Contém um quadro de dados de vértice
uma coluna especial chamado ID,
que contém
a identificação do vértice.
E os quadros de dados Edge contêm
uma coluna de origem e de entrada com
a vértice de origem e
destino ID do vértice.
E então, na verdade, conseguimos
check-out no aeroporto mais importante
em termos de como o número de
indo de conexões
por meio desse aeroporto.
>> Ah, eu vejo. Portanto, podemos
percorrer todo o gráfico.
Isso é, novamente, uma grande
sofisticadas agregada que
tem uma grande quantidade de dados.
>> Assim, isso levaria
como muitas de agrupamento
e seria necessário algum tempo para
compor uma consulta SQL
que poderia fazer isso.
Mas aqui, podemos ver com Spark,
podemos usar apenas

Chinese: 
連接器或實際
不要圖形以及查詢。
因此，這些儲存格
實際進行建立
組成圖形框架
頂點和邊緣的資料框架。
頂點資料框架包含
名為 ID，將特殊的資料行
其包含了
頂點的識別碼。
而且邊緣的資料框架包含
具有來源與輸入資料行
來源頂點和
目的頂點識別碼。
因此，我們實際上沒有辦法和
出最重要的機場
在數目之類的條款
路的連線
透過該機場。
>> 喔，我看到。因此，我們
帶領整個圖形。
這是，同樣地很
複雜的彙總
有大量的資料。
>> 因此，這會花
需要很多的群組
要花一些時間，
撰寫 SQL 查詢
可以這麼做。
但是，我們知道與電花術，
我們可以使用

Spanish: 
el conector o realmente
gráfico de consultas.
Y por lo tanto, ¿qué estas celdas
hacer realmente es crear
un marco de gráfico que está compuesto por
Vértice y borde de tramas de datos.
Contiene una trama de datos de vértice
una columna especial denominado ID,
que contiene
el ID del vértice.
Y contengan las tramas de datos de borde
una columna de origen y de entrada con
el vértice de origen y
Id. de vértice de destino
Y por lo tanto, podemos encontrar realmente
salida del aeropuerto más importante
en términos de como el número de
conexiones ir
a través de dicho aeropuerto.
>> AH, veo. Por lo tanto, nos
recorrer el gráfico entero.
Esto es, una vez más, absolutamente
sofisticado de agregado que
tiene una gran cantidad de datos.
>> Por lo tanto, Esto tomaría
una gran cantidad de agrupación
y llevaría algún tiempo a
componer una consulta SQL
que podría hacerlo.
Pero aquí, vemos con chispa,
podemos utilizar

French: 
le connecteur ou réellement
du graphique ainsi que des requêtes.
Et donc, que ces cellules
fait faire est créer
une image graphique composée
Sommet et le bord de trames de données.
Une trame de données Vertex contient
une colonne spéciale nommée ID,
qui contient
l’ID du sommet.
Et les trames de données de bord contiennent
une colonne source et d’entrée
la source de Vertex et
ID de Vertex de destination
Et par conséquent, nous pouvons en fait figure
à l’aéroport plus important
en termes de tels que le nombre de
connexions sortantes
par le biais de cet aéroport.
>> Je vois. Par conséquent, nous
Parcourir le graphique entier.
Il s’agit, là encore, un silencieux
complexes d’agrégation qui
a une grande quantité de données.
>> Alors, cela prendrait
beaucoup de regroupement
et elle peut prendre un certain temps
composer une requête SQL
qui peut effectuer cette opération.
Mais ici, nous pouvons voir avec allumage commandé,
Nous pouvons simplement utiliser

Russian: 
соединитель или фактически
График также запросы.
И так, что эти ячейки
действительно сделать создать
граф кадре, который состоит
кадров данных вершин и границей.
Содержит кадров данных вершин
специальный столбец с именем ID,
который содержит
Идентификатор вершины.
И содержать кадров края данных
источник и входной столбец с
Источник вершин и
конечный код вершин.
И таким образом, мы фактически объяснить
о наиболее важных аэропорт
в отношении как число
писать подключений
до этого аэропорта.
>> Да я вижу. Таким образом мы
пройти весь граф.
Это, опять же, весьма
сложные статистические,
имеет большой объем данных.
>> Таким образом это заняло бы
как много группировки
и займет некоторое время
Создание запроса SQL
который может это сделать.
Но здесь мы видим на Spark,
Мы просто используем

Korean: 
커넥터 또는 실제로
실행 쿼리를 그래프로 표시 합니다.
따라서 이러한 셀 및
실제로 수행은 작성
그래프 프레임
정점과 가장자리 데이터 프레임의
꼭지점 데이터 프레임
ID 라는 특별 한 열
포함 하는
꼭지점의 ID입니다.
가장자리 데이터 프레임 포함
원본과 입력 열
정점 소스와
대상 꼭지점 id입니다.
실제로 그럼, 하 고
가장 중요 한 공항으로
수 등의 측면에서
나가는 연결
통해 해당 공항.
>> 아, 안녕. 따라서 우리
전체 그래프를 설명 합니다.
이것은, 다시, 상당히
복잡 한 집계 하는
많은 양의 데이터에 있습니다.
>>이 되 시기 바랍니다.
비슷하게 그룹화
약간의 시간이 걸리는 및
SQL 쿼리를 작성 합니다.
이 작업을 수행할 수 있는.
스파크를 통해 볼을 하지만
바로 사용할 수 있습니다.

French: 
la méthode de degré de graphique
et trouver rapidement
comme prévu, vous savez :
un lot sur les vols.
Atlanta a
le plus grand nombre de
connexions sortantes
suivie par le biais de
Dallas et Chicago.
>> Et il est rapide.
>> Qu’il est très rapide.
C’est en grande partie la puissance de
Moteur combiné avec Cosmos.
Mais ils fonctionnent très bien ensemble.
Une autre requête intéressante
que nous pouvons faire est voir si il
sont les vols directs
entre deux villes.
Par conséquent, je tonalité de San Jose
et de bufflonnes ici.
Ainsi, il est à l’aide des étincelles
Fonction de recherche de largeur tout d’abord,
et si nous définissons le max
longueur de chemin d’accès à l’un,
Cela signifie qu’il n’y a aucun arrêt
entre ces deux points.
Et cette requête
ne renvoie aucun résultat,
c'est-à-dire qu’il n’y a aucun chemin d’accès
d’une longueur comprise entre
Ces deux villes.
>> Donc, essayons de
ils augmentent
la longueur maximale pour les deux.
>> Alors, il voit si il
sont des vols entre
Seattle et Buffalo.
>> Avec un taquet.
>> Une d’arrêt à un emplacement. OK.
>> Et que celle-ci a
prendre un peu plus de temps.

Japanese: 
グラフの角度の方式
すぐに見つけられるが、
期待どおりにことがわかってください。
フライトの多くします。
アトランタには
最大数
接続
後にそこを通過
ダラスとシカゴ。
>>、そのため高速です。
>> は非常に高速です。
大部分の力が
スパークは、世界で結合します。
優位な連携動作します。
もう 1 つの興味深いクエリ
参照してください場合があります
ダイレクト フライトします。
2 つの都市です。
サンノゼをピッチに、
横浜市はここです。
火花を使用してこのように、
幅優先の検索機能では、
最大数を設定している場合、
パスの長さを 1 つに
停止がないことを意味します。
それらの間に 2 つのポイントです。
次のクエリ
結果を返さない
パスが含まれていないことを意味します。
長さのいずれか
これら 2 つの都市です。
>> などを試してみましょう
実際に増加します。
2 つの最大長です。
>> ため、これが表示される場合があります
間のフライトは、します。
シアトルとバッファロー。
>> を持つ 1 つの停止します。
>> ワン ・ ストップの場所にします。オーケー。
>> があり、この 1 つ
少し長く実行します。

German: 
Diagramm-Grad-Methode
und schnell
wissen Sie wie erwartet
viel über Flüge.
Atlanta hat
die größte Anzahl von
Verbindung gehen
Es folgt
Dallas und Chicago.
>> Und so schnell.
>> Ist sehr schnell.
Das ist weitgehend der macht
Spark kombiniert mit Cosmos.
Aber sehr zusammen.
Eine andere interessante Abfrage
nicht ist Siehe vorhanden
Alle Direktflüge
zwischen zwei Städten.
So, ich San Jose aufgeschlagen
und hier.
Daher ist dies Funken verwenden
Breite zuerst Suchfunktion
und wenn wir max
Pfadlänge zu
Das bedeutet, dass keine befindet
zwischen diesen beiden Punkten.
Und diese Abfrage
keine Ergebnisse zurückgibt,
gibt keine Pfade
Länge zwischen
Diese zwei Städte.
>> So zu versuchen.
tatsächlich erhöhen
die maximale Länge 2.
>> Dies ist so sehen, wenn es
Flüge zwischen
Köln und Hamburg.
>> Mit ein.
>> Eine Station an einem Speicherort. Okay.
>> Und diese
etwas länger gedauert.

Chinese: 
图度方法
并快速找到的
如预期的那样，您知道
很多有关航班。
亚特兰大有
最大数量的
将连接
通过跟它
达拉斯和芝加哥。
>>，它是如此之快。
>> 它是非常快的。
这就是很大程度上的电源
与宇宙结合触发。
但他们完美结合在一起。
另一个有趣的查询
如果我们可以做到已见那里
将任何直航班
间两个城市。
因此，我丢弃圣何塞
和这里的水牛。
因此，这使用火花
广度优先搜索函数
如果我们设定最大值
路径长度成
这意味着没有未停止
在这两个点。
和此查询
未返回任何结果，
没有路径的含义
长度之间
这些两个城市。
>> 因此，让我们尝试
实际上增加
对两个最大长度。
>> 这在因此，查看是否那里
是之间的航班
西雅图和水牛。
>> 的一站。
>> 到某个位置的一站。好。
>>，这款产品有
拍摄时间更长。

Korean: 
그래프도 메서드
신속 하 게 찾는
제대로 알으십시오
항공편에 대 한 많은입니다.
아 틀 란 타에
가장 많이
나가는 연결
다음 코드를
댈러스와 시카고입니다.
>> 및 속도가 빠르기 때문입니다.
>> 매우 빠릅니다.
그건 대부분의 힘
스파크는 Cosmos와 결합합니다.
하지만 이러한 훌륭한 함께 작동 합니다.
또 다른 흥미로운 쿼리
경우 참조는 우리가 할 수 있는
모든 직접 항공편은
사이 두 도시.
산호세 나 피치
하 고 여기에 물소.
따라서이 사용 하는 스파크
너비 우선 검색 기능
최대 설정 하는 경우
1 이면 경로 길이
멈추지 마가
사이이 두 지점입니다.
이 쿼리
결과 없음 반환합니다.
경로가 있다는 것을 의미 합니다.
사이의 길이가 1 인
이 두 도시.
>> 따라서을
실제로 증가
2 최대 길이입니다.
>> 등이 보고 하는 경우 존재
간의 항공편은
시애틀과 물소입니다.
>>와 원스톱.
>> 원스톱 위치입니다. 그래.
>> 였 고
좀 더 라인.

Polish: 
Metoda stopnia wykres
i szybko znaleźć
zgodnie z oczekiwaniami, należy znać
Partia o lotach.
Ma Atlanta
Największa ilość
przerywaj połączenia
Dzięki nim po
Dallas i Chicago.
>> I to tak szybko.
>> To bardzo szybko.
To jest w dużej mierze moc
Świece w połączeniu z kosmos.
Ale one doskonale ze sobą współpracują.
Inne interesujące zapytanie
Czy możemy zrobić jest czy
są wszystkie loty bezpośrednie
pomiędzy dwoma miastami.
Tak rozbiłem San Jose
i bawołów tutaj.
Tak więc to jest przy pomocy iskry
Funkcja wyszukiwania wszerz,
a Jeśli ustawimy max
długość ścieżki do jednego,
oznacza to, że istnieje bez zatrzymania
między tymi dwoma punktami.
I ta kwerenda
nie wygeneruje żadnych wyników
co oznacza, że nie istnieją żadne ścieżki
długości, jeden pomiędzy
tych dwóch miast.
>> Tak spróbujmy
rzeczywiście zwiększyć
Maksymalna długość do dwóch.
>> Tak, to Widząc jeśli tam
są lotów o długości od
Seattle i bawołów.
>> Z jednego zatrzymania.
>> Jeden przystanek do lokalizacji. W porządku.
>> I ten ma
wziąć nieco dłużej.

Russian: 
метод степени графа
и быстрого поиска
как и ожидалось, вы знаете
многое о рейсах.
Атланта имеет
наибольшее количество
писать подключений
через него следуют
Далласе, Чикаго.
>> И именно так быстро.
>> Это очень быстро.
Это во многом питания
Spark в сочетании с Cosmos.
Но они прекрасно работать вместе.
Другой интересный запрос
что мы можем сделать это см. Если существует
— это любой прямой рейсов
между двумя городами.
Итак я отмененные Сан-Хосе
и здесь Буффало.
Таким образом используется искр
Функция поиска первого охват
и если мы устанавливаем max
Длина пути
Это означает, что нет без остановки
между этими двумя точками.
И этот запрос
не возвращает результатов,
Это означает, что нет ни одного пути
длиной в один между
Эти два города.
>> Таким образом попробуем
увеличить
Максимальная длина для двух.
>> Таким образом, это будет видеть, если существует
являются перелетов между
Сиэтл и Буффало.
>> С одной остановки.
>> Один стоповый на место. Хорошо.
>> И есть
берется немного больше времени.

English: 
the graph degree method
and quickly find that,
as expected, you know
a lot about flights.
Atlanta has
the greatest number of
connections going
through it followed by
Dallas and Chicago.
>> And it's so fast.
>> It's very fast.
That's largely the power of
Spark combined with Cosmos.
But they work great together.
Another interesting query
that we can do is see if there
are any direct flights
between two cities.
So, I pitched San Jose
and Buffalo here.
So, this is using Sparks
Breadth-first search function,
and if we set the max
path length to one,
that means there is no stop
in between those two points.
And this query
returns no results,
meaning that there are no paths
of length one between
these two cities.
>> So, let's try to
actually increase
the max length to two.
>> So, this is seeing if there
are flights between
Seattle and Buffalo.
>> With one stop.
>> One stop to a location. Okay.
>> And this one has
taken a little longer.

Czech: 
Graf stupně metoda
a rychle najít
podle očekávání, je znát
Mnoho o lety.
Jihlava má
největší počet
probíhající připojení
až jej následuje
Dallas a Ostrava.
>> A je to rychlé.
>> Je velmi rychlý.
To je do značné míry napájení
Spark v kombinaci s Cosmos.
Ale jejich výborně spolupracují.
Další zajímavé dotaz
Viz, že můžeme udělat, je, pokud existují
jsou všechny přímé lety
mezi dvěma městy.
Takže I pitched San Jose
a zde Buffalo.
Ano to je pomocí jisker
Šířka první hledání funkce
a pokud jsme max
Délka cesty do jedné,
To znamená, že neexistuje žádné stop
mezi těmito dvěma body.
A tento dotaz
nebyly vráceny žádné výsledky
což znamená, že neexistují žádné cesty
o jednu délku
Tato dvě města.
>> Takže Zkusme na
ve skutečnosti zvýšit.
Maximální délka na dva.
>> Tak to je o tom, zda došlo
jsou mezi lety
Praha a Buffalo.
>> S jeden stop.
>> Jeden stop na místo. OK.
>> A zde platí
brát delší dobu.

Italian: 
il metodo del livello grafico
e trovare rapidamente
come previsto, si conosce
molto sui voli.
Dispone di Atlanta
il numero maggiore di
connessioni inserite
attraverso di esso seguito da
Milano e Roma.
>> Ed è così veloce.
>> È molto veloce.
Che è in gran parte la potenza di
Scintilla combinato con Cosmos.
Ma funzionano bene insieme.
Un'altra query interessante
che possiamo fare è vedere se vi
sono i voli diretti
tra due città.
In questo caso, pitch San Jose
e qui Buffalo.
Pertanto, questa classe utilizza scintille
Funzione di ricerca di ampiezza,
e se si imposta il valore max
lunghezza del percorso a uno,
Pertanto, che non vi è alcuna interruzione
tra questi due punti.
Questa query e
non restituisce alcun risultato,
il che significa che non sono presenti percorsi
di lunghezza uno tra
Queste due città.
>> In questo caso, provare a
in realtà aumentare
la lunghezza massima di due.
>> In questo caso, questo viene visualizzato se non esiste
sono voli tra
Milano e Torino.
>> Con un punto.
>> Uno stop in una posizione. OK (Okay).
>> E questo ha
richiesto un po' più tempo.

Spanish: 
el método de grado de gráfico
y encontrar rápidamente
como era de esperar, sabe
mucho sobre los vuelos.
Atlanta tiene
el mayor número de
conexiones ir
a través de él seguido de
Dallas y Chicago.
>> Y es tan rápida.
>> Es muy rápido.
Que es en gran medida la potencia de
Chispa combinado con Cosmos.
Pero funcionan muy bien juntos.
Otra consulta interesante
que podemos hacer es ver si existe
los vuelos directos
entre las dos ciudades.
Por lo tanto, lanzó San José
y Buffalo aquí.
Por lo tanto, esto usa chispas
Función de búsqueda de la primera
y si se establece el límite máximo de
longitud de la ruta de acceso en uno,
Eso significa que no hay ninguna parada
entre esos dos puntos.
Y esta consulta
no devuelve ningún resultado
lo que significa que no hay ninguna ruta de acceso
de longitud entre
Estas dos ciudades.
>> Por lo tanto, vamos a intentar
aumentar realmente
la longitud máxima para los dos.
>> Por lo tanto, esto es ver si existe
vuelos entre
Seattle y Buffalo.
>> Con un solo dispositivo.
>> Una parada en una ubicación. Bien.
>> Y éste tiene
toma un poco más.

Portuguese: 
o método do grau de gráfico
e localizar rapidamente
conforme esperado, você sabe
muito sobre voos.
Campinas tem
o maior número de
indo de conexões
através dele, seguido por
Dallas e Chicago.
>> E é tão rápido.
>> É muito rápida.
Isso é basicamente o poder do
Spark combinado com Cosmos.
Mas eles funcionam muito bem juntos.
Outra consulta interessante
que podemos fazer é ver se há
são quaisquer voos diretos
entre duas cidades.
Então, eu com densidade San Jose
e Buffalo aqui.
Portanto, ele está usando Faíscas
Função de pesquisa abrangência
e definimos o máx.
comprimento de caminho
Isso significa que não há nenhuma interrupção
entre esses dois pontos.
E esta consulta
não retorna nenhum resultado
o que significa que não há nenhum caminho
comprimento entre
Essas duas cidades.
>> Por isso, vamos tentar
Na verdade, aumentar
o comprimento máximo para dois.
>> Assim, isso é ver se há
são voos entre
Seattle e Buffalo.
>> Com uma parada.
>> Uma parada para um local. Okey.
>> E isso é
executada um pouco mais.

Chinese: 
圖表的程度方法
及快速尋找，
如預期般運作，您知道
許多關於飛行。
亞特蘭大有
最大數目
路的連線
透過它後面加上
達拉斯，芝加哥。
>> 而且很急。
>> 是非常快速。
這是主要的電源
電花術加宇宙中。
但是它們很好是一起運作。
另一個有趣的查詢
如果我們可以做為請參閱那里
是任何直接飛行
介於兩個城市。
因此，我音調聖荷西
而且它們都將布法羅這裡。
因此，這使用閃電火花
廣度優先搜尋的函式，
而且我們設定了最大值
路徑的長度，
這表示沒有任何停駐點
之間這兩個點。
與這個查詢
不傳回任何結果，
這表示沒有路徑
長度為一個之間
這些兩個城市。
>> 所以，讓我們試著
實際上會增加
最大長度為 2。
>> 因此，這看它那里
是飛行之間
西雅圖與它們都將布法羅。
>> 與一個停駐點。
>> 一個停駐點的位置。好。
>>，這項技術有
採取較長的時間。

Turkish: 
Grafik derece yöntemi
ve Hızlı Bul
beklendiği gibi bildiğiniz
uçuşlar hakkında çok.
Atlanta sahip
en yüksek sayıda
bağlantıları giderek
arkasından arkasını
Dallas ve Chicago.
>> Ve bu nedenle hızlı.
>> Çok hızlıdır.
İşte bu büyük ölçüde gücünü
Spark Cosmos ile birlikte.
Ancak, mükemmel birlikte çalışırlar.
Başka bir ilginç sorgu
ise bkz: biz yapabilirsiniz var.
herhangi bir doğrudan uçuşları olan
iki şehir arasında.
Bu nedenle, ben San Jose aralıkta
ve burada İstanbul.
Bu nedenle, bu Sparks kullanıyor
Bakışın ilk arama işlevi
ve max ayarlarız.
yol uzunluğu bir
durdurma olmadığı anlamına gelir
Bu iki nokta arasında.
Ve bu sorgu
hiçbir sonuç verir,
hiçbir yol olduğu anlamına gelir
uzunluğu arasında bir
Bu iki şehir.
>> Bu nedenle için deneyelim
gerçekten artırın
iki en fazla uzunluğu.
>> Bu nedenle, bu ise görme var.
uçuşlar arasında olan
İstanbul ve İstanbul.
>> Bir durak ile.
>> Bir yere bir Dur. Tamam.
>> Ve bunu
biraz daha uzun geçen.

Korean: 
>> 많은 않습니다.
>>는 훨씬입니다. 하 고
위쪽의 알 수 있습니다.
여기에 나와 있는 20.
모두 중단
보스턴 사이.
따라서,
비행의 두 다리
이유는
경로 길이 2입니다.
이 걸린 것을 알 수 있습니다.
할만 간단한 쿼리 합니다.
>>이 바보 같은 질문 일 수 있습니다.
려 고 시도 하는 경우
이러한 종류의 쿼리를 수행 하려면
Cosmos를 직접 사용 하 여
문제가 있는 것
내가 없기 때문에
사용 가능한 집계
가 보면?
>> 없어요
이 BFS 함수입니다.
이것은 SQL 구문
할 매우 어려울 수 있습니다.
하지만 아직 인식 하지 않은 경우
실제로 대 한
Gremlin 위한 API를
이기도 한 Apache 그래프
일종의 그래프 방법입니다
쿼리 및 문서입니다.
또한 뭔가
유사한 사용 중입니다.
스파크를 사용 하 여 단
훨씬 빠르게 수행 됩니다.
>> 등에 하 니
에 대 한 결정
Apache 스파크를 포함 합니다.
데이터의 Cosmos 생태계 내에서
데 필요한 무엇입니까
종류에 대 한 생각

Turkish: 
>> Bir ton vardır.
>> Vardır çok. Ve bunu,
üst görebiliriz
Burada gösterilen 20.
Hepsi de durdurma
Boston arasında.
Bu nedenle vardır
iki Bacak bir uçuş
İşte bu nedenle
yol uzunluğu iki olur.
Ve bunu geçen görebilirsiniz.
yapmak için yalnızca çok basit sorgu.
>> Bu dumb soru olabilir
ancak ben olmayı denemek için
Bu tür bir sorgu yapmak için
doğrudan Cosmos ile
sorun olması
çünkü sahip değilseniz
kullanılabilir toplamlar
bulunmasını istediğiniz?
>> Madem
Bu BFS işlev.
SQL sözdizimi, bu olur.
yapmak çok zor olabilir.
Ancak, zaten farkında değilseniz,
Aslında sahibiz
Gremlin için bir API,
Ayrıca Apache grafik ise,
tür grafik yolu
Sorgu ve belgeleri.
Ayrıca bir şey yapabilirsiniz
kullandığı benzer.
Ancak bence Spark kullanarak
çok daha hızlı olacaktır.
>> Bunu yaptığım zaman
bir karar hakkında
Apache Spark eklemek için
veri içinde benim Cosmos ekosistem
olması gerekiyor mu
tür düşünmek

Japanese: 
>> が数多くあります。
>> がたくさんあります。そしたら
上部を表示します。
ここで示されている 20。
すべてのを停止します。
間にボストン。
します。
フライトの 2 つの脚
理由です、
パスの長さは 2 です。
これが行なったことを確認できます。
のみ非常に単純なクエリ操作を行います。
>> このばかげた質問をする可能性があります。
しようとする場合ですが、
これらの種類のクエリを実行するには
世界を直接に
問題があること
ないため
使用可能な集計
するでしょうか。
>> はありません。
この BFS の関数です。
これは、SQL 構文で
非常に困難です。
対応していない場合は
実際にあります。
Gremlin の API を
また、Apache のグラフは、します。
方法でグラフの並べ替え
クエリおよびドキュメントです。
何かを行う可能性があります。
似ていますが使用しています。
スパークを使用すると思いますが、
非常に高速になります。
>> ためには、作成するとき
についての決定
Apache のスパークを含める
データの [世界のエコシステムで
必要があります。
種類について考える

French: 
>> Est une tonne.
>> Il y a beaucoup. Et c’est le cas,
Nous pouvons voir que du haut
20 qui sont illustrés ici.
Tous les arrêtent dans
Boston entre les deux.
Dans ce cas,
deux tronçons d’un vol,
C’est pourquoi le
longueur de chemin d’accès est égal à deux.
Et vous pouvez voir que la procédure a duré
requête uniquement très simple à faire.
>> Peut être une question de passif
mais si j’avais va essayer
Pour effectuer ces types de requêtes
avec Cosmos directement,
J’ai des problèmes
Étant donné que je n’ai pas
les agrégats disponibles
que je veux avoir ?
>> Nous n’avons pas
Cette fonction BFS.
Dans la syntaxe SQL, ce serait
être très difficile à effectuer.
Mais si vous n’êtes pas conscient,
Nous disposons en fait
une API de GREMLINE qui
est également un graphique d’Apache
tri de manière graphique des
la requête et les documents.
Vous pouvez également le faire quelque chose
similaire à l’aide de qui.
Mais je pense qu’à l’aide d’allumage
sera beaucoup plus rapide.
>> Ainsi, pour faire des
une décision à propos
Pour inclure l’allumage d’Apache
dans mon écosystème Cosmos des données,
Je dois être
réflexion sur les types

Chinese: 
>> 没有吨。
>> 有很多。同样，
我们可以看到，顶部
此处所示的 20。
他们都在中停止
其间的波士顿。
因此，有
两个赛程的飞行
这就是为什么
路径长度为两个。
您可以看到这需要付出
只有非常简单的查询进行。
>> 这可能是一个笨问题
但是，如果我们尝试
要做这些类型的查询
与直接宇宙
很难
因为我没有
可聚合
我想要了吗？
>> 我们没有
此 BFS 函数。
在 SQL 语法中，这可能
是很难做。
但是，如果你不已经意识到，
我们实际上确实有
Gremlin API 的
也是一个 Apache 图，
类型的关系图的方法
查询和文档。
您还可以做一些
类似的使用。
但我认为使用触发
将快得多。
>>，请做
有关的决策
若要包括 Apache 触发
在我宇宙的生态系统的数据，
需要进行
思考一下种类

Polish: 
>> Jest ton.
>> Istnieje wiele. I tak,
widać to z góry
20, które przedstawiono poniżej.
Zatrzymaj wszystkie one w
Boston pomiędzy nimi.
Tak istnieją
dwie nogi lotu,
Dlatego
długość ścieżki wynosi dwa.
I widać, że miało to
tylko bardzo prostych kwerend robić.
>> To może być niemych pytanie
ale jeśli chcę spróbować
Aby wykonać tego rodzaju kwerendy
z kosmos bezpośrednio,
czy mają problemy
ponieważ nie mam
agregaty dostępne
czy chcę mieć?
>> Nie mamy
Ta funkcja BFS.
W składni języka SQL to czy
być bardzo trudne do wykonania.
Ale jeśli nie masz już pamiętać,
faktycznie mamy
Interfejs API dla Gremlin co
jest również wykresu Apache
Sortuj sposób wykres
kwerendy i dokumentów.
Można też zrobić coś
Podobnie jak przy użyciu tego.
Ale myślę, że za pomocą Spark
będzie przebiegać znacznie szybciej.
>> Tak, podczas dokonywania
decyzja o
Aby dołączyć Apache Spark
w moim ekosystemu kosmos danych,
Czy muszę być
Myśląc o rodzajach

Portuguese: 
>> Há uma tonelada.
>> Há muito. E, portanto,
podemos ver que a parte superior
20 que são mostrados aqui.
Todos eles pararem em
Boston entre.
Assim, existem
dois trechos de um voo
é por isso que o
comprimento do caminho é dois.
E você pode ver que isso exigiu
somente consulta muito simple de fazer.
>> Pode ser uma pergunta "burro"
mas se eu fosse tentar
Para fazer esses tipos de consultas
com Cosmos diretamente,
Eu teria problemas
porque eu não tenho
os agregados disponíveis
Desejo ter?
>> Não temos
Essa função BFS.
Na sintaxe SQL, isso seria
pode ser muito difícil de fazer.
Mas se você não estiver ciente,
Na verdade, temos
uma API de Gremlin que
também é um gráfico de Apache
tipo de forma de gráfico de
consulta e documentos.
Você também pode fazer algo
usando semelhante.
Mas acho que usando Spark
será muito mais rápido.
>> Isso, quando eu faço
uma decisão sobre
para incluir o Apache Spark
no meu ecossistema de Cosmos de dados,
é necessário ser
pensar sobre os tipos

Italian: 
>> È una tonnellata.
>> Ci sono molte. E così
Noteremo che della parte superiore
20 descritte di seguito.
Cessano in
Boston intermedi.
In questo caso, sono disponibili
due tappe di un volo,
per tale motivo il
lunghezza del percorso è due.
Ed è possibile visualizzare che ha avuto
solo molto semplice query da eseguire.
>> Potrebbe trattarsi di una domanda stupidi
ma se avessimo deve provare
Per eseguire questi tipi di query
con Cosmos direttamente,
si hanno problemi
Poiché non è
le funzioni di aggregazione disponibili
che si desidera avere?
>> Non è
Questa funzione BFS.
Nella sintassi SQL, questo sarebbe
essere molto difficile.
Ma se non è ancora in grado di riconoscere,
Abbiamo già
un'API per Gremlin che
è anche un grafico di Apache,
tipo di metodo grafico per
documenti e query.
È inoltre possibile eseguire un'operazione
utilizzando tale simile.
Ma ritengo che usando scintilla
sarà molto più veloce.
>> Quando si
una decisione sulla
Per includere una scintilla di Apache
Il mio ecosistema Cosmos di dati,
è necessario essere
i tipi di pensare

Czech: 
>> Je tuny.
>> Jsou dávky. A tak,
vidíme, že horní
20, které jsou zde uvedeny.
Všechny stop
Boston v mezi.
Ano existují
dvě nohy letu,
To je důvod, proč
Délka cesty je dvě.
A uvidíte, že to trvalo
dotaz pouze velmi jednoduchý postup.
>> Může být vlečný otázku
ale pokud byly chystáte akci
Chcete-li provést tyto typy dotazů
s Cosmos přímo,
by mít potíže
vzhledem k tomu, že není k dispozici
k dispozici agregáty
že chcete mít?
>> Nemáme
Tato funkce BFS.
V syntaxi jazyka SQL to by
bylo velmi obtížné provést.
Ale pokud si nejste již vědomi,
skutečně máme
rozhraní API pro Gremlin které
je také graf Apache
z grafu způsob řazení
dotaz a dokumenty.
Také byste mohli dělat něco
Podobně, použití.
Ale já si myslím, že pomocí Spark
bude mnohem rychlejší.
>> Tak, po provedení
rozhodnutí o
Chcete-li zahrnout Apache Spark
v mé ekosystému Cosmos dat,
je třeba být
přemýšlení o možnostech

German: 
>> Gibt es eine Menge.
>> Gibt. Und so
Sehen wir, dass oben
20, die hier angezeigt werden.
Alle in anhalten
In Boston.
So gibt
zwei Abschnitte eines Fluges
deshalb die
Pfad ist zwei.
Sie können sehen, dass dies
nur sehr einfache Abfrage führen.
>> Dumm Frage möglicherweise
aber wenn ich werde versuchen
Diese Arten von Abfragen
mit Cosmos direkt
hätte ich Probleme
Da ich keine
die Aggregate verfügbar
haben möchte?
>> Haben nicht
Diese Funktion BFS.
SQL-Syntax würde
sehr schwierig sein.
Aber wenn Sie nicht bereits bekannt,
Wir haben
eine API für Gremlin,
ist auch ein Apache-Diagramm
Art und Weise des Diagramms
Abfrage und Dokumente.
Sie können auch Aktionen
ähnlich verwenden.
Doch mit Funken
werden schneller.
>> Also mache
Entscheidung
Apache Spark hinzufügen
in meiner Cosmos Ökosystem von Daten
muss sein
die Arten denken

English: 
>> There's a ton.
>> There are a lot. And so,
we can see that of the top
20 that are shown here.
They all stop in
Boston in between.
So, there are
two legs of a flight,
that's why the
path length is two.
And you can see that this took
only very simple query to do.
>> This might be a dumb question
but if I were going to try
to do these kinds of queries
with Cosmos directly,
would I have trouble
because I don't have
the aggregates available
that I want to have?
>> We don't have
this BFS function.
In SQL syntax, this would
be very difficult to do.
But if you're not already aware,
we actually do have
an API for Gremlin which
is also an Apache graph,
sort of graph way of
query and documents.
You could also do something
similar using that.
But I think using Spark
will be much faster.
>> So, when I make
a decision about
to include Apache Spark
in my Cosmos ecosystem of data,
do I need to be
thinking about the kinds

Spanish: 
>> Hay muchísimas.
>> Hay mucho. Y así,
podemos ver que el de la parte superior
20 que se muestran aquí.
Todos ellos se detiene en
Boston en entre.
Por lo tanto, hay
dos piernas de un vuelo,
Por eso el
longitud de la ruta de acceso es dos.
Y puede ver que es el resultado
sólo consulta muy simple que hacer.
>> Puede ser una pregunta tonta
pero si vamos a intentar
para realizar estos tipos de consultas
con Cosmos directamente,
¿Tengo problemas para
porque no hay
los agregados disponibles
¿desea tener?
>> No tenemos
Esta función BFS.
En la sintaxis SQL, esto sería
ser muy difícil de hacer.
Pero si no está ya consciente,
realmente tenemos
una API para Gremlin que
También es un gráfico de Apache
Ordenar de manera gráfica de
consulta y documentos.
También puede hacer algo
utilizando similar.
Pero creo que utilizando Spark
será mucho más rápido.
>> Por lo tanto, cuando se realizan
una decisión acerca de
para incluir la chispa de Apache
en mi ecosistema Cosmos de datos,
es necesario que
pensar en las clases

Chinese: 
>> 沒有噸。
>> 有很多。是的
我們可以看到上方的
如下所示的 20。
它們全部停止中
兩者之間的波士頓。
因此，有
腳走路的飛行，
這就是為什麼
路徑長度為兩個。
您可以看到相反
若要執行只有非常簡單查詢。
>> 這可能是一個無聲的問題
但如果我要再試
若要這類的查詢
與直接宇宙
我有的困擾嗎
因為不需要
使用彙總
我想要有？
>> 我們沒有
這個 BFS 函式。
這會在 SQL 語法中，
是很難做到。
但如果您不知道，
我們實際上有
Gremlin API 的
還有 Apache 圖表
圖形方法的一種
查詢及文件。
您也可以執行的項目
類似的使用。
但是我認為使用電花術
會快得多。
>> 操作，當我
決定
若要包含 Apache 電花術
在 [我的宇宙生態系統的資料，
需要被嗎
思考種類

Russian: 
>> Имеется множество.
>> Существует много. И в этом случае
Как видите, верхней
20, показанные здесь.
Все они остановить в
Бостон между ними.
Таким образом существует
две ноги полета
Вот почему
Длина пути составляет два.
И вы увидите, что ее создание потребовало
только очень простой запрос для выполнения.
>> Это может быть вопрос ввода-вывода
но если бы я собирался попробовать
для выполнения этих типов запросов
с Cosmos напрямую,
будет иметь неприятности
из-за отсутствия
Доступные статистические выражения
что нужно иметь?
>> У нас
Эта функция BFS.
В синтаксисе SQL будет
очень сложно сделать.
Но если вы уже не знать,
у нас есть
интерфейс API для Gremlin которого
также является граф Apache
Сортировка способ графа
запрос и документы.
Можно также сделать что-нибудь
Аналогично, использование.
Но я думаю, используя Spark
будет намного быстрее.
>> Таким образом, при внесении
решение о
Чтобы включить Apache Spark
в моей экосистемы Cosmos данных,
нужно ли быть
Думая о видах

English: 
of data that I store and
the shape of the data?
>> Yeah.
>> Like if I just had
a table the books,
I probably don't need this.
>> I think that's
very important.
And the cool goal of
a roadmap for Cosmos is
being able to have
multiple API's so users can,
depending on
their dataset, query
with different API's and
use the API that will give them
the best performance.
Makes most sense.
>> And it's one of
the cool things about
Cosmos is that it
supports those multi-way.
>> Yeah.
>> Okay, cool.
So, I can talk to this with
Jupyter. What else can I do?
>> So, this is the main way.
We also have support for Scala.
If you like
programming and Scala,
we also have
some tools for that.
I think Python is
the main language
that people who are using Spark
use so this is generally what
we direct people to use and
we have most support for it.
If you go to our Github,
it's github.com/azure,
I can show you in a moment,
/AzureCosmosDBSpark,

Spanish: 
de los datos que almacenan y
¿la forma de los datos?
>> Sí.
>> Como si tenía
una tabla de los libros
Probablemente no será necesario esto.
>> Creo que del
muy importante.
Y el objetivo de interesantes
es una guía básica para Cosmos
posibilidad de tener
de varias API por lo que los usuarios pueden,
en función de
su conjunto de datos, la consulta
con la API diferente y
utilizar la API que les dan
el mejor rendimiento.
Tiene más sentido.
>> Y es uno de los
los aspectos más interesantes
COSMOS es que
admite las varias vías.
>> Sí.
>> Bien, enfriar.
Por lo tanto, puedo hablar con
Jupyter. ¿Qué más puedo hacer?
>> Por lo tanto, este es el modo principal.
También tenemos soporte para Scala.
Si lo desea
programación y Scala,
También tenemos
Algunas herramientas para eso.
Creo que es Python
el idioma principal
que las personas que utilizan chispa
Utilice por lo general es lo que
se dirigen a utilizar usuarios y
Contamos con más apoyo para él.
Si vas a nuestro Github
github.com/azure de TI
¿Puedo mostrarle en un momento,
/ AzureCosmosDBSpark,

German: 
Speichern Sie Daten und
die Form der Daten?
>> Ja.
>> Wie hätte ich nur
eine Tabelle der Bücher
Ich brauchen nicht diese.
>> Ich denke, dass es
Sehr wichtig.
Und cool
Wegweiser für Cosmos ist
haben
Benutzer können ist mehrere API,
Je nach
Ihre Dataset, Abfrage
mit anderen APIs und
Verwenden Sie mit den API
die beste Leistung.
Sinnvoll.
>> Und der
die coolen Dinge
COSMOS ist
unterstützt die Multi.
>> Ja.
>> Gut, abkühlen lassen.
So kann ich diese mit sprechen
Jupyter. Was kann ich tun?
>>, Deshalb die Hauptelemente.
Wir bieten auch Unterstützung für Scala.
Wenn Sie möchten
Programmierung und,
Wir haben auch
Einige Tools für die.
Ist Python
Standardsprache
Diese Personen mit Funken
Verwenden Sie also in der Regel nach
Wir leiten Benutzer und
Wir haben die meisten Unterstützung.
Wenn Sie unsere Github aufrufen
die github.com/azure
Ich kann Ihnen gleich zeigen,
/ AzureCosmosDBSpark,

Polish: 
danych, które można przechowywać i
kształt danych?
>> Tak.
>> Jak tylko miał
Tabela książek,
Prawdopodobnie nie ma takiej potrzeby to.
>> Myślę, że 's
bardzo ważne.
I chłodnym cel
jest plan działania na rzecz kosmos
mogą mieć
wiele API's, więc użytkownicy mogą,
w zależności od
ich zestawu danych, kwerendy
z innego interfejsu API i
Użyj interfejsu API, która zapewni im
najlepszą wydajność.
Sprawia, że najbardziej odpowiednie.
>> I jest jednym z
cool rzeczy — informacje
Wszechświat jest to, że
obsługuje te wiele sposób.
>> Tak.
>> Dobra schłodzić.
Tak można rozmawiać z tej
Jupyter. Co jeszcze można zrobić?
>> Tak jest to główny sposób.
Mamy także obsługę Scala.
Jeśli chcesz
Programowanie i Scala,
Mamy także
Niektóre narzędzia do tego.
Myślę, że jest Python
główny język
że osoby, które korzystają z Spark
Użyj tak na ogół jest to co
kierujemy ludzi do korzystania i
Mamy większość obsługę.
Jeśli przejdziesz do naszych Github
to github.com/azure
Można pokazać w jednym momencie,
/ AzureCosmosDBSpark,

Italian: 
di memorizzare dati e
la forma dei dati?
>> Sì.
>> Come se avessi appena
una tabella libri,
Non probabilmente necessario.
>> Penso che del
molto importante.
L'obiettivo di interessanti e
è una Guida di orientamento per Cosmos
la possibilità di avere
più API's in modo che gli utenti possono,
in base
i dataset, query
con diverse API e
Utilizzare l'API in grado di offrire loro
le migliori prestazioni.
Più utile.
>> Ed è uno dei
caratteristiche più interessanti
COSMOS è che
supporta le modalità più.
>> Sì.
>> Bene, raffreddare.
In questo caso, posso parlo con
Jupyter. Cos'altro posso fare?
>> È il modo principale.
Avremo inoltre il supporto per Scala.
Se lo si desidera
programmazione e Scala,
è anche possibile
alcuni strumenti per tale.
Credo Python
la lingua principale
che agli utenti che utilizza scintilla
Utilizzare questa opzione in genere ciò che
Abbiamo diretto agli utenti di utilizzare e
sono disponibili per il supporto.
Se si passa alla nostra Github,
la github.com/azure,
Posso visualizzare è breve,
/ AzureCosmosDBSpark,

Turkish: 
Ben depolayan veri ve
Şekil veri?
>> Evet.
>> Yalnızca sahipse, ister
bir tablo, kitaplar
Büyük olasılıkla bu ihtiyacım yok.
>>, sanırım 's
çok önemli.
Ve serin amacı
Cosmos için bir yol haritası olduğunu
sahip çalışabilme
kullanıcılara birden çok API's,
bağlı olarak
kendi dataset, sorgu
farklı API'nin ile ve
bunları verecektir API kullanma
en iyi performansı.
Çoğu anlamlıdır.
>> Ve biri olan
harika şeyler hakkında
Cosmos emin olur.
çok bu şekilde destekler.
>> Evet.
>> Tamam, serin.
Bu nedenle, ben bu ile konuşabilirsiniz
Jupyter. Başka ne yapabilirim?
>> Bu nedenle, ana yol budur.
Scala için destek de sahibiz.
İsterseniz
programlama ve Scala,
biz de vardır
Bazı araçlar söz konusu.
Python olduğunu düşünüyorum
Ana dil
Spark kullanan kişilerin
Bu genellikle ne olacak şekilde kullanın
Biz kişilerin kullanması için yönlendirir ve
Çoğu desteği sunuyoruz.
Bizim için Github giderseniz,
kendi github.com/azure
Ben birazdan gösterebilir,
/ AzureCosmosDBSpark,

Japanese: 
データを格納するのと
データの形状でしょうか。
>> はい。
>> しなければならないような。
テーブルの書籍
必要はありませんこの。
>> での
とても重要です。
クールな目標
世界のロードマップは、します。
できること
API を複数のユーザーができる、
によってください。
データセット、クエリ
別の API を使用し、
それらを提供する API を使用します。
最高のパフォーマンス。
ほとんど理にかなっています。
>> のいずれかと
優れた点
世界というもの
これらの複数の方法をサポートしています。
>> はい。
>> さぁ、冷却します。
この話が、
Jupyter。他に何をすれば?
>>、これは、主な方法です。
あることをサポートします。
よければ
プログラミングとこと、
あります。
いくつかのツールのことです。
Python だと思います
主要言語
スパークを使用している担当者
使用するため、これは、一般的にどのような
使用する人に指示して、
ほとんどのサポートがあります。
Github に移動する場合
github.com/azure
、後で表示することができます
/AzureCosmosDBSpark、

Russian: 
данных, сохранять и
форму данных?
>> Да.
>>, Например если нужно было
Таблица книг
Возможно, не нужно это.
>> Я думаю, в
очень важно.
И интересные цели
Это план Cosmos
возможность иметь
несколько API, так что пользователи могут,
в зависимости от
их набор данных, запрос
другой интерфейс API и
Использование интерфейса API, что даст их
наилучшую производительность.
Большинство смысл.
>> И является одним из
интересные вещи о
Что он является Cosmos
поддерживает эти поддержкой нескольких процессоров.
>> Да.
>> Хорошо охлаждения.
Таким образом можно говорить на с
Jupyter. Что еще можно сделать?
>> Таким образом это является основным средством.
Имеется также поддержка Scala.
Если хотите
программирование и Scala,
у нас также есть
Некоторые средства.
Я думаю, что Python
основной язык
что пользователями Spark
использовать, обычно это то, что
Мы прямое использование людьми и
у нас есть большинство поддержку.
При переходе в нашем Github
его github.com/azure
Я могу демонстрировать чуть ниже,
/ AzureCosmosDBSpark,

French: 
de stocker les données et
la forme des données ?
>> Oui.
>> Comme si j’avais seulement
une table de la documentation,
Je n’avez pas besoin cette.
>> Je pense que de
très important.
Et le but de refroidir de
une feuille de route pour Cosmos est
la possibilité d’avoir
plusieurs API's de sorte que les utilisateurs,
en fonction de
leur groupe de données, d’une requête
avec l’API de différents et
utilisation de l’API qui leur donne
les meilleures performances.
Plus pratique.
>> Et il est un des
aspects les plus intéressants
COSMOS est qu’il
prend en charge ces multivoie.
>> Oui.
>> OK, refroidir.
Par conséquent, je peux m’adresser à ce avec
Jupyter. Que puis-je faire ?
>> Donc, il s’agit de la méthode principale.
Nous avons également la prise en charge de Scala.
Si vous le souhaitez
programmation et Scala,
Nous avons également
Certains outils de qui.
Je pense que les Python est
la langue principale
que les personnes utilisent ETINCELLE
Utilisez donc généralement ce que
Nous diriger les utilisateurs à utiliser et
Nous avons prise en charge pour celui-ci.
Si vous accédez à notre Github,
d’il est github.com/azure,
Je peux vous montrer dans un instant,
/ AzureCosmosDBSpark,

Chinese: 
我所存储的数据，
数据的形状？
>> 是。
>> 喜欢如果我只是有
表本的书籍，
我可能不需要这样。
>> 我认为的
非常重要。
和很棒的目标
宇宙的路线图是
能够有
多个 API 的用户却可以所以
具体情况取决于
他们的数据集查询
使用不同的 API，
使用将给他们的 API
最佳的性能。
最方便。
>>，它是一种
关于非常酷的项目
宇宙是：
支持这些多方式。
>> 是。
>> 好了，冷却。
因此，我可以谈到与此
Jupyter。我可以做些什么？
>> 因此，这是主要的方式。
我们也有了 Scala 的支持。
如果您喜欢
编程和 Scala，
我们还提供
对此一些工具。
我认为 Python 是
主要的语言
使用触发的人员
因此，这是通常所使用
我们让人们使用和
我们必须为它的大多数支持。
如果您转到我们 Github，
它的 github.com/azure，
我可以向您展示的那样，
/ AzureCosmosDBSpark，

Czech: 
z dat, která lze ukládat a
tvar dat?
>> Ano.
>> Jako kdybych právě
Tabulka knih,
Pravděpodobně není zapotřebí to.
>> Myslím že 's
velmi důležité.
A zajímavé cíle
návod pro Cosmos je
je možné mít
je více rozhraní API, která uživatelům umožňuje,
v závislosti na
jejich datové sady, dotaz
pomocí různých rozhraní API a
pomocí rozhraní API, které jim přinesou
nejlepší výkon.
Nejvýhodnější a nejpřehlednější.
>> A je jedním z
zajímavé věci o
Že je cosmos
podporuje tyto vícecestného.
>> Ano.
>> Dobrá ochladí.
Tak můžete hovořit s tohoto
Jupyter. Co dalšího můžete udělat?
>> Tak to je hlavní způsob.
Máme také podporu pro Scala.
Pokud se vám líbí
programování a Scala,
Máme také
Některé nástroje pro to.
Myslím, že je Python
hlavní jazyk
že lidé, kteří používají Spark
použít, je to obvykle co
jsme přímým uživatelům a
Máme podporu většiny.
Pokud přejdete na naši Github
jeho github.com/azure
Mohu ukázat za chvíli
/ AzureCosmosDBSpark,

Chinese: 
我所儲存的資料的
資料的形式？
>> [是]。
>> 類似如果只是
資料表、 生產書籍
我可能不需要如此。
>> 我認為的
非常重要。
和酷炫的目標
藍圖的宇宙是
能夠有
多個 API 的因此使用者可以]
而定
其資料集、 查詢
不同的 api 和
使用 API，讓它們
最佳的效能。
最具意義。
>>，它是之一
關於最有趣的事情
宇宙就在於它
支援這些多重的方式。
>> [是]。
>> 好了，很棒。
因此，我可以說明這與
Jupyter。我可以做什麼？
>> 因此，這是主要的方式。
我們也會有支援，Scala。
如果您喜歡
程式設計和 Scala，
我們也有
一些工具。
我認為 Python 是
主要的語言
該使用電花術的人
使用，而這通常是什麼
我們將引導其他人使用，
我們有大部分支援它。
如果您前往我們的 Github，
它的 github.com/azure，
我可以讓您在等一下，
/ AzureCosmosDBSpark，

Portuguese: 
de dados posso armazenar e
a forma dos dados?
>> Sim.
>> Como se eu tinha
uma tabela livros
Eu provavelmente não precisa disso.
>> Acho que do
muito importante.
E o objetivo legal
é um roteiro para Cosmos
poder ter
API de vários 's para que usuários possam,
Dependendo da
o conjunto de dados, a consulta
com diferente API e
Use a API que fornecerá a eles
o melhor desempenho.
Faz mais sentido.
>> E é um dos
coisas legais sobre o
Cosmos é que ele
oferece suporte a esses vários maneira.
>> Sim.
>> Okey, resfriar.
Portanto, posso falar este com
Jupyter. O que mais posso fazer?
>> Assim, essa é a maneira principal.
Também temos suporte para Scala.
Se você desejar
programação e Scala,
também temos
Algumas ferramentas para isso.
Acho que Python é
o idioma principal
que as pessoas que estão usando o Spark
Use para isso é geralmente o que
podemos direcionar os visitantes para usar e
Temos suporte para ele.
Se você ir para nosso Github
github.com/azure de TI
Posso apresentar daqui a pouco,
/ AzureCosmosDBSpark,

Korean: 
데이터를 저장 하 고
데이터의 모양?
>> 예.
>> 마음에 있고
테이블은 책,
내가 필요는 없을 것이.
>> 내가 생각 하는
매우 중요 합니다.
멋진 목표와
Cosmos에 대 한 설명이입니다.
있을 수
사용자가 수 있도록 여러 API의
에 따라
해당 데이터 집합, 쿼리
다른 API를 사용 하 여 및
제공 하는 API를 사용 하 여
최상의 성능을 얻으려면입니다.
가장 적합 합니다.
>> 한 중 하나입니다.
에 대 한 멋진 기능
Cosmos는
이러한 여러 방식으로 지원합니다.
>> 예.
>> 자, 세련 된 디자인.
이 게 이야기할 수
Jupyter입니다. 어떻게 해야 합니까?
>> 따라서는 기본 방법입니다.
Scala 지원을 했습니다.
당신이 좋아한다면
프로그래밍 하 고 Scala,
이 밖에도
일부 도구는입니다.
Python에는
기본 언어
스파크를 사용 하는 그 사람
이 일반적으로 무엇을 사용 하 여
우리가 직접 사용 하 고
우리는 그 대부분 지원 합니다.
우리의 Github 이동 하는 경우
github.com/azure
잠시 후에 보여 수 있습니다.
/ AzureCosmosDBSpark,

German: 
und wir haben eine Reihe
Performance-Tipps
Tools und
nur get hochgefahren,
eine Zahl von Proben
Python Notebooks
andere Arten von
Szenarien, in denen Sie wechseln können
über sich selbst und zu entladen.
>> ML möglich
Algorithmen mit Funken?
>> Ja, ich habe
nur soll
Ich glaube, wir haben wechseln
Durch diese ganzen Demo hier.
Sie können aber auch,
wie einer Datengruppe
haben Sie in Cosmos
Sie können es in zwei Teilen.
Schulung Funken
Legen Sie in einem Test.
Trainieren eines Modells
in der Trainingsdaten.
Vorhersagen können.
Also, was tatsächlich demo
ist wird geschätzt, ob
ein Flug werden oder nicht verzögert.
Und damit erstellen
die Pipeline ML.
In diesem Beispiel
Wir haben eine logistische
Regressionsmodell.
Und tatsächlich
vorbacken dies und
Dies ist eine Verwirrung matrix
Das zeigt die Ergebnisse.
>> Einer Matrix Verwirrung Neuigkeiten

Spanish: 
y tenemos un montón
sugerencias de rendimiento,
herramientas y cómo
simplemente obtener intensificado,
un número de muestras,
otros blocs de notas de Python
Sí se ordena de
escenarios que puede ir
a través de usted mismo y para descargar.
>> Puedo hacer ML
¿algoritmos con chispa?
>> Sí, era
en realidad sólo va a,
No creo que tenemos tiempo para ir
a través de este completa demostración aquí.
Pero también, puede
utilizar como un conjunto de datos
que haya en Cosmos,
se puede dividir en dos con
Formación de chispas
establecido en un conjunto de pruebas.
Puede entrenar un modelo
en los datos de entrenamiento.
Para hacer predicciones.
Por lo tanto, lo que realmente la demostración
hace es predice si
un vuelo se retrasará o no.
Y, por tanto, puede crear
la canalización de ML.
Y en este ejemplo,
ejecutamos una logística
modelo de regresión.
Y hacía
platos preparados previamente a esto y
se trata de una matriz de confusión
que muestra los resultados.
>> ¿Qué es una matriz de confusión?

Portuguese: 
e temos várias
dicas de desempenho
ferramentas e como
Basta obter aumentada,
um número de amostras,
outros Notebooks Python
outros tipos de sinais de
cenários que você pode ir
por meio de si mesmo e descarregar.
>> Posso fazer ML
algoritmos com Spark?
>> Sim, eu estava
Na verdade, apenas pretender,
Não acho que temos tempo para ir
Esta demonstração inteira aqui.
Mas você também pode
usando como um conjunto de dados
que você tenha no Cosmos,
ele pode ser dividido em dois com
Ramo de treinamento
definido em um conjunto de teste.
Você pode treinar um modelo
em seus dados de treinamento.
Você pode fazer previsões.
Portanto, o que isso realmente de demonstração
does é prevê se
um voo será atrasado ou não.
E, portanto, você pode criar
o pipeline de ML.
E, neste exemplo,
executamos uma logística
modelo de regressão.
E, na verdade, eu fiz
pré-tortas isso e
Esta é uma matriz de confusão
que mostra os resultados.
>> O que é uma matriz de confusão?

Russian: 
и у нас есть множество
Советы производительности
средства и способы
просто получить ramped вверх,
количество выборок,
другие портативные компьютеры Python
других Сортировка по
сценарии, которые можно перейти
через себя и выгрузить.
>> Можно сделать ML
алгоритмы с Spark?
>> Да, я был
Это требуется,
Я думаю, у нас есть время для перехода
посредством этой всей демонстрации здесь.
Но также можно
с помощью набора данных, как
наличие в Cosmos,
его можно разделить на два с
Усилить обучение
значение в наборе тестов.
Вы можете обучить модель
в обучающих данных.
Можно делать прогнозы.
Таким образом, что это действительно demo
does является прогнозирует ли
рейс будет отложено или нет.
Таким образом, можно создать
конвейер ML.
В данном примере
мы проводили логистики
модель регрессии.
И действительно выполняла
Это предварительное внедрение и
Это путаницы матрицы
которая показывает результаты.
>> Что такое матрица путаницы?

Chinese: 
我們有很多，
效能秘訣
工具，以及如何
只取得 ramped，
數字的範例，
其他 Python 筆記本
其他的排序的
您可以瀏覽的案例
透過自己，並且卸載。
>> 我如何毫升
電花術的演算法？
>> 是，我是
實際上只打算，
我不認為我們有時間到了
透過以下這個整個示範。
但您亦可，
使用像資料集
您必須在宇宙，
您可以將它分割在兩個使用中
激起訓練
設定測試集合中。
您也可以培訓模型
在您的培訓資料。
您可以進行預測。
因此，此示範實際
沒有是預測是否
與否，將會延遲飛行。
因此，您可以建立
您的毫升管線。
和在這個範例中，
執行後勤
迴歸模型中。
和實際上如
預先試吃這與
這是混淆矩陣
顯示結果。
>> 什麼是混淆矩陣？

French: 
et nous disposons d’un ensemble
d’optimiser les performances,
outils et comment
Il vous suffit d’obtenir accroissement
un nombre d’échantillons,
autres ordinateurs portables de Python
d’autres types de
scénarios que vous pouvez accéder
vous-même et à décharger.
>> Faire ML
algorithmes avec allumage ?
>> Oui, j’ai
allez en fait juste,
Je ne pense pas que nous avons le temps
Grâce à cette démo complet ici.
Mais vous pouvez aussi,
à l’aide de comme un ensemble de données
que vous avez dans Cosmos,
Vous pouvez le fractionner en deux avec
Service de formation
la valeur dans un ensemble de tests.
Vous pouvez exercer un modèle
dans les données de votre formation.
Vous pouvez effectuer des prévisions.
Ainsi, cela en fait de démonstration
est est prédit si
un vol sera retardé ou non.
Par conséquent, vous pouvez créer
votre pipeline ML.
Dans cet exemple,
Nous avons exécuté une logistique
modèle de régression.
Et je l’ai fait réellement
Ce préalable de gâteaux et
Il s’agit d’une matrice de confusion
qui affiche les résultats.
>> Qu’est une matrice de confusion ?

Czech: 
a máme spoustu
o výkonu tipy
nástroje a jak
Stačí získat ramped nahoru,
počet vzorků,
Ostatní notebooky Python
z ostatních seřadí aplikace
scénáře, které můžete přejít
přes sebe a uvolnění.
>> Můžete udělat ML
algoritmy se Spark?
>> Ano, byl jsem
ve skutečnosti právě Chystáte
Není pravděpodobné, že máme čas na přechod
až sem toto celé demo.
Ale můžete také
pomocí sady dat
Máte-li v Cosmos,
je možné rozdělit do dvou s
Získáte nové školení
Nastavte testovací sady.
Můžete školit modelu
v datech školení.
Můžete vytvořit předpovědi.
Tak, jaké to ve skutečnosti ukázka
nemá se předpovídá zda
let bude mít zpoždění nebo ne.
A tak lze vytvořit
vaše příležitosti ML.
A v tomto příkladu
jsme spustili logistiky
regresní model.
A skutečně nebyl
předem to cukrárna a
To je nedorozumění matice
které jsou zobrazeny výsledky.
>> Co je matice nedorozumění?

Turkish: 
ve bir yýðýn sahibiz.
Performans İpuçları
Araçlar ve nasıl yapılır
sadece yukarı ramped,
örnekleri sayısı
diğer Python dizüstü bilgisayarlar
bir diğeri sıralar
Siz gidebilirsiniz senaryoları
Kendinizi ve kaldırmak için.
>> ML olabilir miyim?
Spark algoritmalarıyla?
>> Evet, ben oldu
Aslında sadece giderek,
Biz gitmek için zamanınız düşünüyorsanız
Bu tüm gösteri burada.
Ancak aynı zamanda,
bir veri kümesi gibi kullanma
Cosmos içinde olması,
ile ikiye bölme
Eğitim almak
bir test kümesi ayarlayın.
Bir model eğitebilirsiniz.
Eğitim verilerde.
Öngörüler yapabilirsiniz.
Ne bu böyle, gerçekten gösteri
mu olduğunu tahmin eder mi
bir uçuş veya gecikecek.
Ve bu nedenle oluşturabilirsiniz
ML, boru hattı.
Ve bu örnekte,
Biz bir Lojistik tükendi
regresyon modeli.
Ve aslında vermedi
Bu önceden Fırından ve
Bu bir karışıklık matrisini verir
Bu sonuçları gösterir.
>> Bir karışıklık matris nedir?

Chinese: 
我们有一大堆
性能提示
工具和操作方法
刚刚获得斜向上，
大量的样本，
其他 Python 笔记本
其他种类的
您可以转的方案
通过自己并卸载。
>> 可以执行操作 ML
与触发算法？
>> 是的我是
实际上只进入
我并不认为我们有时间去
通过在此处此整个演示。
但也可以
与数据集一样使用
您有在宇宙，
可以将其拆分成两个用
激励培训
在测试设置中设置。
可以训练模型
在培训数据。
您可以进行预测。
因此，这是什么实际演示
does 是预测是否
航班将延迟，或不。
因此，您可以创建
ML 管道。
在此示例中，
我们运行物流
回归模型。
和我真正做了
预烘烤糕点这和
这是一个混淆矩阵
所显示的结果。
>> 的混淆矩阵是多少？

Polish: 
i mamy kilka
z porady dotyczące wydajności,
Narzędzia i porady
po prostu uzyskać podniesienie,
Liczba próbek,
Inne notebooki Python
innego rodzaju
scenariusze, które można przejść
przez siebie i zwolnić.
>> Można zrobić ML
algorytmy z Spark?
>> tak, było
właściwie tylko zamiar,
Nie myślę, że mamy czas, aby przejść
przez ten cały pokaz tutaj.
Ale można również,
za pomocą takich jak zestaw danych
czy masz w kosmos,
można je podzielić na dwie z
Spark szkolenia
Ustaw w zestaw testów.
Można przeszkolić modelu
w dane szkolenia.
Tworzenie prognoz.
Tak, jakie to demo faktycznie
czy jest przewiduje czy
lot będzie opóźniony lub nie.
I tak, można utworzyć
planowaną ML.
W tym przykładzie
prowadził logistyczne
model regresji.
I czy rzeczywiście
Piec to wstępnie i
jest to macierz pomyłek
który pokazuje wyniki.
>> Co jest macierz pomyłek?

Japanese: 
たくさんいます
パフォーマンスのヒント
ツールと方法
だけを得るに増やす、
サンプル数
他の Python のノートブック
その他の種類の
シナリオになることができます。
自分とアンロードします。
>> を行う ML
スパークを持つアルゴリズムですか。
>> でしたね
だけで実際にしようとして、
移動に時間があると思います
ここでは、全体のデモはこのします。
また、ことができますが、
データ セットと同じように使用します。
世界であること
2 つに分けることができます。
トレーニングをかき立てる
テストのセットに設定します。
モデルを学習させることができます。
トレーニング データです。
予測を行うことができます。
これで、これがどのようなデモを実際には
予測するかどうか
フライトが遅れるか。
作成できるようにと
ML パイプラインです。
この例では、
運用していました
回帰モデルです。
実際にやったと
事前にこれを組み込むと
これは、混乱のマトリックス
結果を表示するとします。
>> 混乱のマトリックスとは?

Italian: 
e abbiamo una serie
i suggerimenti per le prestazioni,
strumenti e come
è sufficiente ottenere scaglionato
un numero di campioni,
altri notebook di Python
di altri tipi di
scenari che è possibile passare
a se stessi e per scaricare.
>> Possibile ML?
algoritmi con scintilla?
>> Sì, è stato
in realtà si,
Non credo che abbiamo il tempo di passare
attraverso questa demo intera.
Ma è possibile, inoltre,
utilizzo di un set di dati
sono presenti Cosmos,
è possibile suddividerlo in due con
Offrire formazione
impostare un set di test.
È possibile formare un modello
dati di training.
È possibile effettuare previsioni.
Questa operazione, quale questa demo effettivamente
Does è in grado di anticipare se
un volo sarà ritardato o non.
In questo caso, è possibile creare
la pipeline di ML.
In questo esempio e
è stato eseguito un logistica
modello di regressione.
E ho fatto effettivamente
pre-dolci questo e
si tratta di una matrice di confusione
che mostra i risultati.
>> Cos'è una matrice di confusione?

Korean: 
그리고 여러
성능 팁
도구 및 방법
단지 얻을 단계적
다양 한 샘플을
다른 Python 노트북
다른 정렬 중
될 수 있는 시나리오
자신을 통해 및 언로드할 수 있습니다.
>> ML 할 수 있습니까
스파크와 알고리즘?
>>이 예,
실제로 야
네요 있다고 생각
통해이 전체 데모를 확인해 보십시오.
또한, 수
같은 데이터 집합을 사용 하 여
Cosmos에 있습니다
와 두 개로 나눌 수 있습니다.
교육을 떠 올리려면
테스트 집합에 설정 합니다.
모델을 양성 할 수 있습니다.
성향 습득 데이터입니다.
예측을 만들 수 있습니다.
어떤이 그렇게 실제로 데모
가 예측 여부
비행 지 지연 됩니다.
만들 수 있도록 하 고
ML 파이프라인입니다.
이 예제에서
물류를 실행 했습니다.
회귀 모델입니다.
실제로 필자와
이 빵을 미리 할인 및
이것은 혼동 행렬
하는 결과 보여줍니다.
>> 혼동 행렬 이란?

English: 
and we have a bunch
of performance tips,
tools, and how to
just get ramped up,
a number of samples,
other Python Notebooks
of other sorts of
scenarios that you can go
through yourself and to unload.
>> Can I do ML
algorithms with Spark?
>> Yeah, I was
actually just going to,
I don't think we have time to go
through this whole demo here.
But you can also,
using like a data set
that you have in Cosmos,
you can split it in two with
Spark training
set in a test set.
You can train a model
in your training data.
You can make predictions.
So, what this demo actually
does is predicts whether
a flight will be delayed or not.
And so, you can create
your ML pipeline.
And in this example,
we ran a logistic
regression model.
And I actually did
pre-bake this and
this is a confusion matrix
that shows the results.
>> What is a confusion matrix?

Chinese: 
>> 基本上，它會顯示類似
它分割的數字。
如果您正在測試，
評估是否
通道模型不是好事，
您可以看到哪些百分比
次數它是否猜到了
會延遲飛行，
如果飛行遭到延遲，，或
次數
確實預測的
飛行會延遲。
>> 頻率已延遲。
>> 完全相同。因此，如果我們加總
向上，則為 true 的負號和
在這裡，則為 true 的正數
這表示，當
演算法是正確的
我們可以看到，我們可以預測
超過 70%的精確度
是否飛行
已延遲，
不，這是不正確。
與此整個模型，
您可以訓練，並執行
在約五分鐘。
我們沒有時間。
>> 的驚人。
人員可以使用電花術嗎
連接器宇宙今天嗎？
>> 都可以了。如果
您前往我們的 Wiki，
上面寫著，所有在公用預覽中。
您可以下載工具，
您可以開始了，
在您自己的圖片，執行這些範例
項實驗中，並執行
您心想任何內容。

Chinese: 
>> 从根本上说，它将显示类似
数字它拆分。
如果您要测试的
评估是否
通道模型正确，
您可以看到什么百分比
次数是否猜到它
将延迟飞行，
如果延迟的航班，，或
它多少次
实际预测中，
将延迟飞行。
>> 多长的延迟。
>> 完全一样。因此，如果我们的总和
最真实的底片和
在这里，真阳性
这意味着，当
该算法是正确的
我们可以看到，我们可以推算出
超过 70%的准确性
是否飞行
延迟了，
这不是坏的。
和这整个模型
可以训练和运行
在大约五分钟。
我们没有时间了。
>> 的令人惊叹。
人们可以使用触发
接头的宇宙今天吗？
>> 可以他们。如果
请转到我们的 Wiki，
它说，所有在公共预览。
您可以下载这些工具，
您可以开始了，
在您自己计算机上运行这些示例
和实验，然后执行
无论您需要的地方。

Japanese: 
>> 基本的のようなことを示しています
数に分割します。
テストしている場合
評価するかどうか
通路モデルは、良いか、
どのような割合を表示できます。
何回かどうかを推測します。
フライトが遅れると、
フライトが遅れている場合、または
何度します。
実際に予測をします。
フライト遅れで開始します。
>> どのくらいの頻度、遅れました。
>> 正確にします。ですから、私たちの合計を計算
真のネガをアップし、
真の陽性例では、
つまり、ときに
アルゴリズムが正しい、
予測できることを確認します。
上の 70% の精度
フライトかどうか
遅延か、
不良ではありません。
および全体のモデルでは、
トレーニングして、実行することができます。
で約 5 分です。
時間をここではありません。
>> の驚くべきことです。
スパークを使用する人
コネクタに向かって宇宙の今日ですか。
>> できます。もし
Wiki に移動します。
すべてのパブリック プレビューにします。
ツールをダウンロードすることができます。
開始、
自分でこれらのサンプルを実行します。
実験、および操作を行います
心の中がどのような希望です。

Korean: 
>> 기본적으로, 같은 표시
수 분할.
테스트 하 고 있는 경우
평가 여부
여부는 통로 모델 양호합니다.
어떤 비율을 볼 수 있습니다.
시간 인지 추측 하기
비행 지연 될 것
비행 지연 되는 경우
횟수
실제로 예측 하는
비행 지연 됩니다.
>> 지연 되었습니다 얼마나 자주.
>> 정확 하 게. 따라서 우리가 합계
true 네거티브를 위로 하 고
여기서는 true 긍정
즉 때
알고리즘은 잘못 되었습니다.
볼을 예측할 수 있습니다.
70% 정확도 끝남
비행 여부를
지연 되었던
있는 사람이 야입니다.
이 전체 모델
훈련 하 고 실행할 수 있습니다.
약 5 분.
우리가 지금 시간이 필요는 없습니다.
>>를 놀라운.
사용자는 점화를 사용할 수 있습니까
용 커넥터 Cosmos 오늘?
>> 수 있습니다. If
우리의 위 키로가 서
식의 말은, 모두 공개 미리 보기에.
이 도구를 다운로드할 수 있습니다.
시작할 수 있습니다,
이러한 샘플을 직접 실행 합니다.
실험 및 수행
원하는 대로 요청할 되는 대로.

Portuguese: 
>> Basicamente, ele mostra como
o número é dividido para cima.
Se você estiver testando,
avaliar se
um modelo de corredor é boa ou não,
Você pode ver quais as porcentagens
de vezes ele imaginado se
um voo deve ser adiado,
ou se o voo está atrasado,
quantas vezes
prever que que
voo poderia ser atrasado.
>> A frequência foi atrasada.
>> Exatamente. Portanto, se podemos somar
até os verdadeiras negativos e
aqui, os verdadeiras positivos
ou seja, quando
o algoritmo está correto,
vemos que podemos prever com
precisão mais de 70 por cento
Se um voo
foi atrasada ou não,
que não é ruim.
E esse modelo inteiro,
Você pode treinar e executar
em cerca de cinco minutos.
Não temos tempo agora.
>> Que 's incrível.
As pessoas podem usar o Spark
Conector para Cosmos hoje?
>> Isso é possível. Se
Vá para nosso Wiki
ele diz, em visualização pública.
Você pode baixar as ferramentas
Você pode começar,
executar estas amostras por conta própria,
e experiência e o
seja qual for seu coração deseja.

Spanish: 
>> Básicamente, se muestra como
el número divide.
Si está probando,
evaluar si
un modelo de pasillo es buena o no,
puede ver qué los porcentajes
de veces que adivinar si
¿se retrasa un vuelo,
o si se retrasa el vuelo,
Cuántas veces
realmente predecir que
se retrasaría el vuelo.
>> ¿Con qué frecuencia se ha retrasado.
>> Exactamente. Por lo tanto, si sumamos
hasta los verdaderos negativos y
aquí, los verdaderos positivos
es decir, cuando
el algoritmo es correcto,
vemos que podemos predecir con
más de 70 por ciento de precisión
Si un vuelo
se ha retrasado o no,
que no es malo.
Y este modelo entero,
puede entrenar y ejecutar
en unos cinco minutos.
No tenemos tiempo ahora.
>> Esa es la increíble.
Personas sirve la chispa
¿Conector para Cosmos hoy?
>> Pueden hacerlo. If
Vaya a nuestro Wiki
se dice en versión preliminar pública.
Puede descargar las herramientas,
comenzar a trabajar,
ejecutar estos ejemplos en sus propios,
y experimento y no
todo lo que tu corazón desea.

Russian: 
>> По сути он показывает, как
число он разбивает.
Если вы тестируете
Оценка ли
модель проход хорош или нет,
видно, что проценты
раз он ли угадан
рейс может быть отложено,
или при задержке рейса
сколько раз
Фактически, прогнозирования,
Flight будет отложено.
>> Как часто задерживается.
>> Точно. Поэтому, если мы суммирования
значение true негативов вверх и
значение true, срабатываний здесь,
Это означает, что при
алгоритм был правильным,
мы видим, что можно предсказать с
более 70 процентов точности
является ли полета
задерживается или нет,
который не плохой.
И это все модели
время обучения и выполнения
примерно через пять минут.
У нас нет времени сейчас.
>> На удивительные.
Пользователей можно с помощью Spark
Разъем для подключения Cosmos сегодня?
>> Они могут. Если
Перейти к нашей Wiki
он говорит, все в ознакомительной версии.
Можно загрузить средства,
Начало работы
выполнение этих примеров самостоятельно,
и эксперимент и
все, что хочет ваше сердце.

Polish: 
>> W zasadzie pokazuje jak
Liczba dzieli.
Podczas testowania,
oceny czy
modelu korytarza jest dobry, lub nie,
można zobaczyć, jakie wartości procentowych
razy go odgadnąć czy
lot będzie opóźniony,
lub jeśli lot jest opóźniony,
ile razy
faktycznie przewidują, że który
lot będzie opóźniony.
>> Jak często zostało opóźnione.
>> Dokładnie. Tak więc, jeśli mamy zsumowania
Konfigurowanie negatywów true i
w tym miejscu true pozytywy
to znaczy, gdy
Algorytm była poprawna,
widzimy, że możemy przewidzieć z
ponad 70 procent dokładności
czy lot
zostało opóźnione lub nie,
co nie jest zły.
I to cały model
można przeszkolić i uruchomić
w ciągu około pięciu minut.
Nie mamy teraz czasu.
>> To jest niesamowite.
Osób, można użyć iskry
Łącznik dla kosmos dziś?
>> To możliwe. IF
Przejdź do naszej Wiki
mówi, wszystko w publicznej wersji zapoznawczej.
Można pobrać narzędzia,
Użytkownik może rozpocząć pracę,
Uruchom te przykłady samodzielnie,
i doświadczenia i nie
wszystko, co zapragnie.

English: 
>> Basically, it shows like
the number it splits up.
If you're testing,
evaluating whether
an aisle model is good or not,
you can see what the percentages
of times it guessed whether
a flight would be delayed,
or if the flight is delayed,
how many times it
actually predict that that
flight would be delayed.
>> How often it was delayed.
>> Exactly. So, if we sum
up the true negatives and
the true positives here,
meaning, when
the algorithm was correct,
we see that we can predict with
over 70 percent accuracy
whether a flight
was delayed or not,
which is not bad.
And this whole model,
you can train and run
in about five minutes.
We don't have time now.
>> That's amazing.
Can people use the Spark
Connector for Cosmos today?
>> They can. If
you go to our Wiki,
it says, all in public preview.
You can download the tools,
you can get started,
run these samples on your own,
and experiment, and do
whatever your heart desires.

German: 
>> Zeigt es wie
die Zahl teilt es.
Wenn Sie testen
Bewertung, ob
ein Gang Modell ist gut oder nicht
Sie können die Prozentwerte anzeigen.
wie oft es erraten, ob
ein Flug wird Verspätung,
oder wenn die Verspätung,
wie oft
tatsächlich Vorhersagen,
Flug wird verzögert.
>> Wie oft verzögerte.
>> Genau. Wenn wir zusammenfassen
true negative einrichten und
die wahre positiven hier
d. h., wenn
der Algorithmus war richtig,
Wir sehen, dass wir mit weniger
über 70 Prozent Präzision
ob ein Flug
wurde oder nicht verzögert,
Das ist nicht schlecht.
Und dieses gesamte
Schulen und ausführen
in ca. fünf Minuten.
Wir haben jetzt nicht.
>> Die erstaunliche.
Können Personen Funken
Connector für Cosmos heute?
>> Können. If
Sie gehen Wiki,
Es sagt alle public Preview-Version.
Sie können die Tools,
Sie können beginnen,
Diese Beispiele selbst ausführen
und experimentieren, und
Was das Herz begehrt.

Italian: 
>> In pratica, viene illustrato come
il numero viene divisa verso l'alto.
Se si sta testando,
valutare se
un modello di sezione è valido o meno,
è possibile vedere quali le percentuali
di volte in cui si è intuito che
un volo dovrebbe essere ritardato,
o se il volo viene ritardato,
quante volte è
in realtà prevedere che che
volo dovrebbe essere ritardata.
>> La frequenza in ritardo.
>> Esattamente. Pertanto, se è la somma
verso l'alto i segni di sottrazione true e
In questo caso, aspetti positivi true
ovvero, quando
l'algoritmo è stato corretto,
Vediamo che è possibile prevedere con
precisione di oltre il 70%
Se un volo
è stato ritardato o non,
che non è valida.
Questo modello intero e
è possibile impostare ed eseguire
in circa cinque minuti.
Non c'è tempo a questo punto.
>> Che un incredibile.
Gli utenti è possono utilizzare la scintilla
Connettore per Cosmos oggi?
>> Possibile. Se
si passa alla nostra Wiki,
verrà visualizzato il numero, in anteprima pubblica.
È possibile scaricare gli strumenti,
Per iniziare,
eseguire questi esempi autonomamente,
ed esperimento e non
qualunque sia il cuore desiderate.

French: 
>> En gros, il montre comme
le numéro qu’il fractionne.
Si vous testez,
évaluer si
un modèle d’allée est bon ou pas,
Vous pouvez voir que les pourcentages
de fois qu’il a deviné ou non
un vol devrait être retardé,
ou si le vol est retardé,
Combien de fois il
réellement prévoir que qui
vol doit être retardée.
>> La fréquence à laquelle il a été retardé.
>> Exactement. Par conséquent, si nous somme
vers le haut les négatifs trues et
ici, les positifs de true
Cela signifie que, lorsque
l’algorithme n’était pas correct,
Nous constatons que nous pouvons prévoir avec
précision de 70 pour cent plus
Si un vol
a été retardée ou non,
qui n’est pas défectueux.
Et ce modèle entier,
Vous pouvez former et exécuter
dans les cinq minutes environ.
Nous n’avons dès maintenant.
>> D’étonnantes.
Personnes permet une étincelle
Connecteur pour Cosmos aujourd'hui ?
>> Possible. If
vous accédez à notre Wiki,
Il indique, toutes dans la version d’évaluation.
Vous pouvez télécharger les outils,
Vous pouvez démarrer,
exécuter ces exemples sur votre propre,
expérience et des
tout ce que souhaite votre cœur.

Turkish: 
>> Temel olarak, gibi gösterir
sayı onu böler.
Sınamakta
Değerlendirme olup olmadığını
koridor modeli iyi olmadığına,
hangi yüzdeleri görebilirsiniz.
kaç kez bunu olup olmadığını tahmin
bir Uçuş geciktirileceği,
veya uçuş gecikirse,
kaç kez
Aslında, tahmin etmek,
Uçuş geciktirileceği.
>> Ne kadar sıklıkla Gecikmiş.
>> Tam olarak. Bunu, biz toplamak
Yukarı doğru Negatifleri ve
gerçek pozitif durumlar Burada,
başka bir deyişle, zaman
algoritma doğru,
Biz biz ile tahmin edebilir, bkz.
fazla yüzde 70'inin doğruluğu
bir uçuş olup olmadığını
veya gecikmiş,
hangi kötü değildir.
Ve tüm bu modeli,
Siz eğitmek ve çalıştırın
yaklaşık beş dakika içinde.
Biz şimdi zaman yoktur.
>> O harika.
İnsanlar Spark kullanabilir miyim
Bugün Cosmos için bağlayıcı?
>> Bunu yapabilir. Eğer
Bizim Wiki için Git
Bu, diyor ortak önizlemede.
Araçları karşıdan yükleyebilir,
Siz başlayabilirsiniz,
Bu örnekler, kendi çalıştırmak,
ve deney ve
ne olursa olsun, Kalp istediği.

Czech: 
>> V podstatě ukazuje jako
číslo rozdělí.
Je-li testování,
hodnocení zda
model uličky je dobrý nebo Ne,
uvidíte, jaký procentuální podíl
kolikrát je uhodnout, zda
by se zpožděním letu,
nebo při zpoždění letu,
jak často ji
skutečně předpovědět, který
by zpoždění letu.
>>, Jak často byla zpožděna.
>> Přesně. Takže, pokud můžeme sečíst
až PRAVDA negativy a
Zde platí pozitivní
což znamená, pokud
algoritmus byl správný,
vidíme, že jsme lze odhadnout pomocí
během 70 procent přesnost
zda letu
byla zpožděna či nikoli,
což není špatné.
A tento celý model
můžete naučit a spustit
asi za pět minut.
Nemáme čas.
>> To je úžasné.
Můžete použít lidí Spark
Dnes konektor pro Cosmos?
>> Mohou. Pokud
Přejít na naší Wiki
to říká vše ve veřejné předběžné verzi.
Můžete stáhnout nástroje,
můžete zahájit,
Tyto ukázky spustit sami,
a experimentu a proveďte
cokoliv, co chce vaše srdce.

Korean: 
>> 아주 멋진. 음, 너무 감사
속도 내게 하기 위한 많은입니다.
>> 예, 문제 없습니다.
>> 좋아. 배운 것 모두
점화 용 커넥터에 대 한
Azure Cosmos이 DB
Azure 금요일에서.

Chinese: 
>> 很酷。好的所以感谢您
多用于获取我尽快。
>> 是的没问题。
>> 所有权利。我学习了所有
有关用于触发连接器
这里的 azure 宇宙 DB
在 Azure 星期五。

Spanish: 
>> Muy interesante. Bueno, muchas gracias por lo que
demasiado para mí poner al día.
>> Sí, no hay problema.
>> Todos los derechos. Aprendí todos
acerca del conector de la bujía para
DB de Cosmos Azure aquí
en Azure el viernes.

English: 
>> Very cool. Well, thank you so
much for getting me up to speed.
>> Yes, no problem.
>> All right. I learned all
about the Spark Connector for
Azure Cosmos DB here
on Azure Friday.

Czech: 
>> Velmi zajímavé. Dobře Děkujeme, že jste tak
Podobně pro zrychlení mě.
>> Ano, žádný problém.
>> Veškerá práva. I všechny zkušenosti
o spojnice Spark pro
Zde Azure DB Cosmos
v pátek Azure.

Turkish: 
>> Çok güzel. İyi, çok teşekkür ederiz
çok benim hız almak için.
>> Evet, sorun yok.
>> Güzel. Tüm öğrenilen
Spark Connector for hakkında
Burada Azure Cosmos DB
Azure Cuma.

Japanese: 
>> 非常に便利です。ありがとうございます、
あまりに私を取得するためです。
>> はい、問題ありません。
>> 大丈夫です。すべての操作を学習
スパーク コネクタについて
Azure の世界の DB では、ここ
[Azure 金曜日。

German: 
>> Wirklich toll. Vielen Dank, so
für immer mir zu beschleunigen.
>> Ja, kein Problem.
>> Alle Rechte. Lernte ich all
über den Connector Spark für
Azure hier Cosmos DB
Azure Freitag.

Italian: 
>> Molto interessante. Bene, grazie in modo
per accelerare me le.
>> Sì, nessun problema.
>> Tutti i diritti. Appreso tutte
informazioni sul connettore di scintilla per
Azure DB di Cosmos qui
in Azure venerdì.

Chinese: 
>> 很酷吧。因此，感謝您
劇烈，以至於救我趕上腳步。
>> 是，不會造成問題。
>> 啦。學到所有
有關的電花術連接器
Azure 宇宙 DB 這裡
在 Azure 星期五。

Portuguese: 
>> Muito interessante. Bem, Obrigado por isso
para me conseguindo mais agilidade.
>> Sim, sem problemas.
>> Tudo bem. Eu aprendi tudo
sobre o conector do Spark para
Azure DB Cosmos aqui
no Azure sexta-feira.

Polish: 
>> Bardzo zimno. Dziękuję, więc
wiele dla uzyskania mnie do szybkości.
>> Tak, nie ma problemu.
>> Wszystkie prawa. Mam dziś wszystkie
Łącznik Spark dla — informacje
W tym miejscu Azure DB kosmos
w piątek Azure.

French: 
>> Très intéressante. Eh bien, nous vous remercions donc
beaucoup pour l’obtention de me opérationnel.
>> Oui, pas de problème.
>> Tous les droits. J’ai appris que tous les
sur le connecteur d’allumage pour
Azure ici Cosmos DB
sur Azure vendredi.

Russian: 
>> Очень здорово. Хорошо так что Благодарим вас
значительно для получения мне разобраться.
>> Да, нет проблем.
>> Все права. Я узнал все
о Spark разъем для
Здесь Azure Cosmos DB
в пятницу Azure.
