
Italian: 
 [MUSICA IN ESECUZIONE] 
 TIM DAVIS: Ciao a tutti. 
 Mi chiamo Tim Davis e sono un product manager in TensorFlow. 
 E oggi vi presento con TJ, un ingegnere di TensorFlow Lite 
 che parlerà tra un po '. 
 Sono super entusiasta di essere qui stasera 
 per parlare di tutti i miglioramenti che abbiamo 
 realizzato negli ultimi mesi per TensorFlow Lite. 
 Quindi, prima di tutto, cos'è TensorFlow Lite? 
 Si spera che molti di voi lo sappiano ormai, 
 ma ci piace ribadirlo e anche fornire 
 contesto per gli utenti che non conoscono TensorFlow Lite. 
 Quindi TensorFlow Lite è fuori framework pronto per la produzione 
 per la distribuzione di modelli ML su dispositivi mobili 
 e sistemi embedded. 
 TensorFlow Lite può essere distribuito su Android, iOS, 
 Linux e altre piattaforme utilizzate nell'edge computing. 
 Ora parliamo della necessità di TensorFlow Lite 
 e perché abbiamo creato una soluzione ML sul dispositivo 
 siamo nel bel mezzo di una grande richiesta 
 per fare ML al limite. 
 È guidato dalla necessità di esperienze utente 
 che richiedono bassa latenza che funzionano in situazioni 

English: 
[MUSIC PLAYING]
TIM DAVIS: Hi, everyone.
My name's Tim Davis and I'm a
product manager in TensorFlow.
And I'm presenting today with
TJ, a TensorFlow Lite engineer
who'll be speaking in a bit.
I'm super excited
to be here tonight
to talk about all the
improvements we've
made over the last few
months for TensorFlow Lite.
So, first of all, what
is TensorFlow Lite?
Hopefully many of
you know this by now,
but we love to re-emphasize
it and also provide
context for users who are
new to TensorFlow Lite.
So TensorFlow Lite is out
production ready framework
for deploying ML models
on mobile devices
and embedded systems.
TensorFlow Lite can be
deployed on Android, iOS,
Linux, and other platforms
used in edge computing.
Now, let's talk about the
need for TensorFlow Lite
and why we built an
on-device ML solution
we are in the midst
of a huge demand
for doing ML on the edge.
It's driven by the need
for user experiences
that require low latency
that work in situations

Italian: 
 con scarsa connettività di rete e consentire la privacy 
 preservando le caratteristiche. 
 Tutti questi sono i motivi per cui abbiamo costruito TF Lite nel 2017. 
 E guarda il nostro viaggio da allora. 
 In qualità di framework mobile ML leader nel mondo, 
 abbiamo apportato un sacco di miglioramenti su tutta la linea. 
 Recentemente abbiamo aumentato le operazioni che supportiamo, consegnate 
 numerosi miglioramenti delle prestazioni, 
 strumenti sviluppati che consentono di ottimizzare i modelli 
 con tecniche come la quantizzazione, aumentata 
 supporto linguistico per le nostre API e ci sarà 
 ne parleremo di più tra un po '. 
 E stiamo supportando più piattaforme come GPU e DSP. 
 Ora, probabilmente ti starai chiedendo quanti dispositivi abbiamo adesso. 
 Boom. 
 TensorFlow Lite è ora su oltre 4 miliardi di dispositivi 
 Intorno al mondo-- 
 in molte app diverse. 
 Molte delle più grandi app di Google lo utilizzano, 
 così come un gran numero di app di società esterne. 
 Questo è un esempio di alcune delle app 
 che utilizzano TensorFlow Lite, 
 Google Foto, GBoard, YouTube e l'Assistente, 
 insieme ad app di terze parti molto popolari come Uber, 

English: 
with poor network connectivity
and enable privacy
preserving features.
All of these are the reasons why
we built TF Lite back in 2017.
And just look at our
journey since then.
As the world's leading
ML mobile framework,
we have made a ton of
improvements across the board.
Recently we've increased the
ops we support, delivered
numerous performance
improvements,
developed tools which allow
you to optimize models
with techniques like
quantization, increased
language support for
our APIs and there'll
be more on that in a bit.
And we're supporting more
platforms like GPUs and DSPs.
Now, you're probably wondering
how many devices are we on now.
Boom.
TensorFlow Lite is now on
more than 4 billion devices
around the world--
across many different apps.
Many of Google's own
largest apps are using it,
as are a large number of
apps from external companies.
This is a sampling
of some of the apps
that use TensorFlow Lite--
Google Photos, GBoard,
YouTube, and the Assistant,
along with really popular
third-party apps like Uber,

Italian: 
 Escursione e molti altri. 
 Allora, cosa viene utilizzato per TensorFlow Lite? 
 Gli sviluppatori utilizzano TF Lite per i casi d'uso 
 intorno all'immagine, al testo e al parlato, ma noi 
 stanno vedendo molti casi d'uso nuovi ed emergenti intorno all'audio 
 e generazione di contenuti. 
 Per il resto del discorso, andiamo 
 per concentrarti su alcuni degli ultimi aggiornamenti e punti salienti. 
 Innanzitutto, parliamo di come stiamo aiutando gli sviluppatori a ottenere 
 avviato rapidamente e facilmente con TensorFlow Lite. 
 A TF World abbiamo annunciato la libreria di supporto TF Lite 
 e oggi annunciamo una serie di estensioni a questo. 
 Innanzitutto, stiamo aggiungendo più API come la nostra API immagine 
 e introducendo nuove API in linguaggio semplicistico, 
 il tutto consentendo agli sviluppatori di semplificare il loro sviluppo. 
 Stiamo anche aggiungendo l'integrazione di Android Studio, 
 che sarà disponibile nelle Canarie tra un paio di settimane. 
 Ciò consentirà un semplice trascinamento in Android Studio 
 e quindi genera automaticamente classi Java per TF Lite 
 modello con pochi clic. 
 Questo è alimentato dalla nostra nuova funzionalità CodeGen. 

English: 
Hike, and many more.
So what is TensorFlow Lite
being used for you might ask?
Developers are using
TF Lite for use cases
around image, text,
and speech, but we
are seeing a lot of new and
emerging use cases around audio
and content generation.
For the rest of the
talk, we're going
to focus on some of the
latest updates and highlights.
First up, let's talk about how
we're helping developers get
started quickly and easily
with TensorFlow Lite.
At TF World we announced
the TF Lite Support Library
and today we are announcing a
series of extensions to that.
First, we are adding more
APIs such as our image API
and introducing new
simplistic language APIs,
all enabling developers to
simplify their development.
We are also adding Android
Studio Integration,
which will be available in
Canary in a couple of weeks.
That will enable simple drag
and drop into Android Studio
and then automatically generate
Java classes for the TF Lite
model with just a few clicks.
This is powered by our
new CodeGen capability.

Italian: 
 CodeGen lo rende facile per gli sviluppatori di TensorFlow Lite 
 utilizzare un modello TF Lite gestendo i vari dettagli 
 intorno a input e output del modello 
 e ti fa risparmiare un sacco di tempo. 
 Ecco un piccolo esempio per mostrarti cosa intendo. 
 Con le aggiunte alla Libreria di supporto, 
 ora puoi caricare un modello e impostare un input su di esso 
 e quindi eseguire il modello, quindi ottenere facilmente 
 accesso alle classifiche risultanti. 
 CodeGen legge i metadati del modello 
 e genera automaticamente il wrapper Java 
 con l'API specifica del modello e lo snippet di codice per te. 
 Questo lo rende facile da consumare. 
 E sviluppa con i modelli TF Lite senza alcuna competenza in ML. 
 E questa è un'anteprima di come questo 
 cercherà in Android Studio. 
 Qui puoi vedere tutti i metadati del modello trascinati 
 e rilascia il modello TF Lite. 
 Questo sarà quindi le classi Java di CodeGen 
 solo i modelli di immagine per iniziare ma dopo 
 per molti diversi tipi di modelli TensorFlow Lite. 
 Quant'è fico? 
 Ci impegniamo quindi a rendere il ML mobile super, semplicissimo. 

English: 
CodeGen makes it easy for
TensorFlow Lite developers
to use a TF Lite model by
handling the various details
around inputs and
outputs of the model
and saves you a heap of time.
Here's a small example
to show you what I mean.
With the additions to
the Support Library,
you can now load a
model set an input on it
and then run the
model, then easily get
access to the resulting
classifications.
The CodeGen reads
the model metadata
and automatically
generates the Java wrapper
with the model-specific API
and code snippet for you.
This makes it easy to consume.
And develop with TF Lite models
without any ML expertise.
And this is a sneak
peek of how this
will look in Android Studio.
Here you can see all of the
model metadata from the drag
and drop TF Lite model.
This will then
CodeGen Java classes
just the image models
to begin but later
for many different types
of TensorFlow Lite models.
How cool is that?
We're then committed to making
mobile ML super, super easy.

Italian: 
 Dai un'occhiata nelle prossime due settimane su Android 
 Canale di Studio Canary. 
 Oltre a CodeGen, tutto questo 
 è reso possibile grazie ai nuovi metadati del modello esteso. 
 Gli autori del modello possono fornire una specifica dei metadati 
 durante la creazione e la conversione di modelli 
 rendendo più facile per gli utenti del modello 
 per capire come funziona. 
 E poi come usarlo in produzione. 
 Diamo un'occhiata a un esempio. 
 Il descrittore di metadati fornisce informazioni aggiuntive 
 su cosa fa il modello, il formato previsto 
 degli input del modello e il significato degli output del modello. 
 Tutto questo è codificato tramite un semplice prototipo 
 della nostra nuova versione ha strumenti per aiutare 
 generate i metadati giusti per il vostro modello. 
 Abbiamo reso il nostro repository di modelli pre-addestrato molto più ricco 
 e ha aggiunto molti altri modelli, tutto questo 
 è disponibile tramite TensorFlow Hub. 
 Abbiamo queste nuove versioni ottimizzate per i dispositivi mobili 
 di BERT, inclusi MobileBERT e ALBERT per la PNL su dispositivo 
 applicazioni oltre a EfficientNet Lite. 
 Ancora una volta, tutti questi sono ospitati nel nostro repository di modelli centrale 

English: 
Check out this in the next
couple of weeks on the Android
Studio Canary channel.
In addition to
CodeGen, all of this
is made possible through the
new extended model metadata.
Model authors can
provide a metadata spec
when creating and
converting models
making it easier for
users of the model
to understand how it works.
And then how to use
it in production.
Let's take a look at an example.
The metadata descriptor
provides additional information
about what the model
does, the expected format
of the model inputs, and the
meaning of the model outputs.
All of this is encoded
via a simple prototype
of our new release
has tools to help
you generate the right
metadata for your model.
We have made our pretrained
model repository much richer
and added many more
models, all of this
is available via TensorFlow Hub.
We've got this new
mobile-friendly flavors
of BERT, including MobileBERT
and ALBERT for on-device NLP
applications in addition
to EfficientNet Lite.
Again, all of these are hosted
on our central model repository

Italian: 
 TensorFlow Hub. 
 Quindi controlla TF Hub per tutti i dettagli. 
 Ora parliamo di transfer learning. 
 Avere un repository di modelli pronti per l'uso 
 è ottimo per iniziare e provarli, 
 ma gli sviluppatori desiderano regolarmente personalizzare questi modelli 
 con i propri dati. 
 Ecco perché stiamo rilasciando una serie di API che 
 semplifica la personalizzazione di questi modelli utilizzando l'apprendimento del trasferimento 
 e lo chiamiamo TF Lite Model Maker. 
 Sono solo quattro righe di codice. 
 Inizi specificando il tuo set di dati, 
 quindi scegli le specifiche del modello che desideri utilizzare, 
 e, boom, funziona e basta. 
 Puoi vedere alcune statistiche di come si comporta il modello 
 e infine esportalo in un modello TF Lite. 
 Abbiamo già la classificazione di testo e immagini 
 nuovi casi d'uso supportati come il rilevamento di oggetti 
 e QA saranno presto disponibili. 
 Ora abbiamo uno sviluppo entusiasmante 
 nella delega del grafico. 
 Esistono diversi modi per delegare il tuo modello in TF Lite 
 tramite GPU, DSP o tramite l'API NN in Android P e versioni successive. 

English: 
TensorFlow Hub.
So check out TF Hub
for all the details.
Now, let's talk about
transfer learning.
Having a repository
of ready to use models
is great for getting
started and trying them out,
but developers regularly want
to customize these models
with their own data.
That's why we're releasing
a set of APIs which
makes it easy to customize these
models using transfer learning
and we're calling this
TF Lite Model Maker.
It's just four lines of code.
You start by specifying
your data set,
then choose which model
spec you would like to use,
and, boom, it just works.
You can see some stats
of how the model performs
and lastly export it
to a TF Lite model.
We've got text and image
classification already
supported and new use
cases like object detection
and QA are coming soon.
Now, we've got an
exciting development
in graph delegation.
There are multiple ways to
delegate your model in TF Lite
through GPU, DSP, or through
the NN API in Android P and up.

English: 
Recently, we've added increased
GPU performance and DSP
delegation through Hexagon.
And we've increased the
number of supported ops
through the NN--
Android NN API.
But you already knew
all that, so what's new?
Well, we have a really
big announcement
that I'm incredibly
excited to share today.
I'm excited to announce the
great news that, as of today,
we are launching a Core ML
delegate for Apple devices
to accelerate floating point
models in the latest iPhones
and iPads using TensorFlow Lite.
The delegate will run
on iOS 11 and later.
But to get benefits over
using TF Lite directly,
you want to use this delegate
on devices with the Apple Neural
Engine.
The Neural Engine is
dedicated hardware
for accelerating machine
learning computations
on Apple's processors.
And it's available on
devices with the A12 SoC
or later, such as the iPhone
XS with iOS 12 or above.
With the Neural
Engine acceleration,
you can get between
4 to 14 times speedup
compared to CPU execution.

Italian: 
 Di recente, abbiamo aggiunto prestazioni GPU e DSP migliorate 
 delegazione tramite Hexagon. 
 E abbiamo aumentato il numero di operazioni supportate 
 attraverso la NN-- 
 API Android NN. 
 Ma lo sapevi già, quindi cosa c'è di nuovo? 
 Bene, abbiamo un annuncio davvero importante 
 che sono incredibilmente entusiasta di condividere oggi. 
 Sono entusiasta di annunciare la grande notizia che, a partire da oggi, 
 stiamo lanciando un delegato Core ML per i dispositivi Apple 
 per accelerare i modelli in virgola mobile negli ultimi iPhone 
 e iPad che utilizzano TensorFlow Lite. 
 Il delegato verrà eseguito su iOS 11 e versioni successive. 
 Ma per ottenere vantaggi dall'utilizzo diretto di TF Lite, 
 si desidera utilizzare questo delegato sui dispositivi con Apple Neural 
 Motore. 
 Il Neural Engine è un hardware dedicato 
 per accelerare i calcoli di apprendimento automatico 
 sui processori Apple. 
 Ed è disponibile sui dispositivi con SoC A12 
 o successivo, come l'iPhone XS con iOS 12 o successivo. 
 Con l'accelerazione del motore neurale, 
 puoi ottenere da 4 a 14 volte più velocità 
 rispetto all'esecuzione della CPU. 

English: 
So that's our
update on delegates.
We've heard from developers
about the need for more
and better tutorials
and examples,
so we're releasing several
full example apps which
show not only how
to use a model,
but the full end-to-end code
that a developer would need
to write to work with TF Lite.
They work on
multiple platforms--
Android, iOS, Raspberry
Pi, and even the Edge TPU.
Now, I'd like to
hand over to TJ,
who's going to run through
some more exciting improvements
to TF Lite and dive into the
engineering roadmap more.
TJ: Awesome.
Thanks, Tim.
Hi, everyone.
I'm TJ, and I'm an engineer
on the TensorFlow Lite team.
So let's talk about performance.
A key goal of TensorFlow Lite
is to make your models run
as fast as possible
on CPUs, GPUs, DSPs,
or other accelerators.
And we've made serious
investment on all these fronts.
Recently we've seen
significant CPU improvements,
added OpenCL support for
faster GPU acceleration,

Italian: 
 Quindi questo è il nostro aggiornamento sui delegati. 
 Abbiamo sentito dagli sviluppatori la necessità di altro 
 e migliori tutorial ed esempi, 
 quindi stiamo rilasciando diverse app di esempio complete che 
 mostra non solo come usare un modello, 
 ma il codice end-to-end completo di cui uno sviluppatore avrebbe bisogno 
 scrivere per lavorare con TF Lite. 
 Funzionano su più piattaforme: 
 Android, iOS, Raspberry Pi e persino Edge TPU. 
 Ora, vorrei passare la mano a TJ, 
 che sta per eseguire alcuni miglioramenti più entusiasmanti 
 a TF Lite e immergiti ulteriormente nella roadmap ingegneristica. 
 TJ: Fantastico. 
 Grazie, Tim. 
 Ciao a tutti. 
 Sono TJ e sono un ingegnere del team di TensorFlow Lite. 
 Quindi parliamo di prestazioni. 
 Uno degli obiettivi principali di TensorFlow Lite è far funzionare i tuoi modelli 
 il più velocemente possibile su CPU, GPU, DSP, 
 o altri acceleratori. 
 E abbiamo fatto seri investimenti su tutti questi fronti. 
 Recentemente abbiamo visto miglioramenti significativi della CPU, 
 aggiunto il supporto OpenCL per un'accelerazione GPU più veloce, 

English: 
and have full support
for all Android Q NNAPI
ops and features.
Our previously announced
Qualcomm DSP delegate
targeting low and
mid-end devices
will be available for
use in the coming weeks.
We've also made
some improvements
in our benchmarking tooling
to better assist model and app
developers in identifying
optimal deployment
configurations.
We've even got a few new
CPU performance improvements
since we last updated
you at TensorFlow World,
more on that in a bit.
To highlight these
improvements, let's take a look
at our performance
about a year ago
at Google I/O. For this example,
we're using MobileNet V1.
And compare that with
our performance today.
This is a huge
reduction in latency.
It can be expected across a wide
range of models and devices,
from low-end to high-end.
Just pull the latest version of
TensorFlow Lite into your app,
and you'll benefit
from these improvements
without any additional changes.
Digging a bit more
into these numbers,

Italian: 
 e hanno pieno supporto per tutti gli Android Q NNAPI 
 operazioni e caratteristiche. 
 Il nostro delegato Qualcomm DSP annunciato in precedenza 
 targeting per dispositivi di fascia bassa e media 
 sarà disponibile per l'uso nelle prossime settimane. 
 Abbiamo anche apportato alcuni miglioramenti 
 nei nostri strumenti di benchmarking per assistere meglio il modello e l'app 
 sviluppatori nell'identificare la distribuzione ottimale 
 configurazioni. 
 Abbiamo anche alcuni nuovi miglioramenti delle prestazioni della CPU 
 dall'ultima volta che ti abbiamo aggiornato su TensorFlow World, 
 ne riparleremo tra poco. 
 Per evidenziare questi miglioramenti, diamo un'occhiata 
 alla nostra esibizione circa un anno fa 
 presso Google I / O. Per questo esempio, utilizziamo MobileNet V1. 
 E confrontalo con le nostre prestazioni di oggi. 
 Questa è un'enorme riduzione della latenza. 
 Può essere previsto per un'ampia gamma di modelli e dispositivi, 
 da fascia bassa a fascia alta. 
 Basta inserire l'ultima versione di TensorFlow Lite nella tua app, 
 e trarrai vantaggio da questi miglioramenti 
 senza ulteriori modifiche. 
 Scavando un po 'di più in questi numeri, 

Italian: 
 l'esecuzione della CPU in virgola mobile è il percorso predefinito 
 fornendo un'ottima base di partenza. 
 L'abilitazione della quantizzazione ora è stata semplificata 
 con i nostri strumenti di quantizzazione post-formazione 
 fornisce un'inferenza quasi 3 volte più veloce. 
 L'abilitazione dell'esecuzione della GPU fornisce una velocità ancora più drammatica, 
 circa 7 volte più veloce del nostro CPA di base. 
 E per prestazioni massime assolute, 
 abbiamo il nucleo neurale di Pixel 4, 
 accessibile tramite il delegato NNAPI TensorFlow Lite. 
 Questo tipo di acceleratore specializzato 
 disponibile in un numero sempre maggiore di telefoni più recenti 
 sblocca funzionalità e casi d'uso in precedenza 
 invisibile sui dispositivi mobili. 
 E non ci siamo fermati qui. 
 Ecco una rapida anteprima di alcune CPU aggiuntive 
 ottimizzazioni in arrivo. 
 In TensorFlow Lite 2.3 stiamo aggiungendo ancora di più 
 miglioramenti delle prestazioni. 
 Il nostro toolkit per l'ottimizzazione del modello ha 
 ha permesso di produrre modelli quantizzati più piccoli per qualche tempo. 

English: 
floating point CPU execution
is the default path
providing a great baseline.
Enabling quantization
now made easier
with our post-training
quantization tooling
provides a nearly
3x faster inference.
Enabling GPU execution provides
an even more dramatic speed up,
about 7x faster than
our CPA baseline.
And for absolute
peak performance,
we have the Pixel
4's neural core,
accessible via the NNAPI
TensorFlow Lite delegate.
This kind of
specialized accelerator
available in more and
more of the latest phones
unlocks capabilities
and use cases previously
unseen on mobile devices.
And we haven't stopped there.
Here's a quick preview
of some additional CPU
optimizations coming soon.
In TensorFlow Lite 2.3
we're packing in even more
performance improvements.
Our model optimization
toolkit has
allowed you to produce smaller
quantized models for some time.

English: 
We've recently optimized the
performance of these models
for our dynamic range
quantization strategy.
So check out our model
optimization video
coming up later to learn
more about quantizing
your TensorFlow Lite models.
On the floating point side,
we have a new integration
with the XNNPack library,
available through the delegate
mechanism, but still
running on CPU.
If you're adventurous,
you can make
use of either of
these new features
by building from source,
but we're shipping them
in version 2.3 coming soon.
Last thing on the
performance side--
profiling.
TensorFlow Lite now
integrates with Perfetto,
the new standard
profiler in Android 10.
You can look at overall
TFLite inference
as well as op level events
on the CPU or GPO delegation.
Perfetto also supports
profiling of heap allocation
for tracking memory issues.
So that's performance.
OK now let's talk
model conversion.
Seamless and more
robust model conversion

Italian: 
 Di recente abbiamo ottimizzato le prestazioni di questi modelli 
 per la nostra strategia di quantizzazione della gamma dinamica. 
 Quindi guarda il nostro video sull'ottimizzazione del modello 
 in seguito per saperne di più sulla quantizzazione 
 i tuoi modelli TensorFlow Lite. 
 Sul lato in virgola mobile, abbiamo una nuova integrazione 
 con la libreria XNNPack, disponibile tramite il delegato 
 meccanismo, ma ancora in esecuzione sulla CPU. 
 Se sei avventuroso, puoi farlo 
 utilizzo di una di queste nuove funzionalità 
 compilando dalla fonte, ma li spediamo 
 nella versione 2.3 in arrivo. 
 L'ultima cosa dal punto di vista delle prestazioni 
 profilazione. 
 TensorFlow Lite ora si integra con Perfetto, 
 il nuovo profiler standard in Android 10. 
 Puoi guardare l'inferenza complessiva di TFLite 
 così come eventi a livello operativo sulla delegazione CPU o GPO. 
 Perfetto supporta anche la profilazione dell'allocazione di heap 
 per monitorare i problemi di memoria. 
 Quindi questa è la performance. 
 OK ora parliamo di conversione del modello. 
 Conversione del modello senza interruzioni e più robusta 

English: 
has been a major
focus for the team.
So here's an update on our
completely new TensorFlow
Lite conversion pipeline.
This new converter was
built from the ground up
to provide more intuitive error
messages when conversion fails,
support control flow
operations, and it's
why we're able to deploy
new NLP models like BERT,
or Deep Speech V2, or image
segmentation models like Mask
R-CNN and more.
The new converter is
now available in beta
and will be available
more generally
soon as the default option.
We want to make it easy
for any app developer
to use TensorFlow Lite.
To that end, we've released
a number of new first-class
language bindings including
Swift, Obj-C, C# for Unity,
and more.
Thanks to community
efforts, we've
seen the creation of additional
TensorFlow Lite language
bindings in Rust, Go, and Dart.
This is in addition to
our existing C+, Java,
and Python bindings.

Italian: 
 è stato un obiettivo importante per il team. 
 Quindi, ecco un aggiornamento sul nostro TensorFlow completamente nuovo 
 Pipeline di conversione Lite. 
 Questo nuovo convertitore è stato costruito da zero 
 per fornire messaggi di errore più intuitivi quando la conversione non riesce, 
 supportare le operazioni di controllo del flusso, e lo è 
 perché siamo in grado di implementare nuovi modelli di PNL come BERT, 
 o Deep Speech V2, o modelli di segmentazione delle immagini come Mask 
 R-CNN e altro ancora. 
 Il nuovo convertitore è ora disponibile in versione beta 
 e sarà disponibile più in generale 
 appena l'opzione predefinita. 
 Vogliamo renderlo facile per qualsiasi sviluppatore di app 
 per utilizzare TensorFlow Lite. 
 A tal fine, abbiamo rilasciato una serie di nuovi di prima classe 
 associazioni di lingue tra cui Swift, Obj-C, C # for Unity, 
 e altro ancora. 
 Grazie agli sforzi della comunità, abbiamo 
 visto la creazione di un linguaggio aggiuntivo di TensorFlow Lite 
 attacchi in Rust, Go e Dart. 
 Questo è in aggiunta ai nostri esistenti C +, Java, 
 e collegamenti Python. 

English: 
Our model optimization toolkit
remains the one-stop shop
for compressing and
optimizing your models.
And it's now easier
than ever to use
with post-training quantization.
So check out the optimization
talk coming up later
for more details.
Finally, I want to talk
a bit about our efforts
in enabling ML not just
for billions of phones,
but also for the hundreds of
billions of embedded devices
and microcontrollers used
in production globally.
TensorFlow Lite for
microcontrollers is that effort
and uses the same model format,
converter pipeline, and kernel
library as TensorFlow Lite.
So what are these
microcontrollers.
These are small, low power,
all-in-one computers that power
everyday devices all around
us like microwaves, smoke
detectors, toys, and sensors.
And with TensorFlow, it's
now possible to use them
for machine learning.
You might not realize that
embedded ML is already in use
in devices you use everyday.

Italian: 
 Il nostro kit di strumenti per l'ottimizzazione dei modelli rimane lo sportello unico 
 per comprimere e ottimizzare i tuoi modelli. 
 Ed è ora più facile che mai da usare 
 con la quantizzazione post-training. 
 Quindi controlla il discorso sull'ottimizzazione in arrivo più tardi 
 per ulteriori dettagli. 
 Infine, voglio parlare un po 'dei nostri sforzi 
 nell'abilitare il ML non solo per miliardi di telefoni, 
 ma anche per le centinaia di miliardi di dispositivi embedded 
 e microcontrollori utilizzati nella produzione a livello globale. 
 TensorFlow Lite per microcontrollori è questo sforzo 
 e utilizza lo stesso formato di modello, pipeline di conversione e kernel 
 libreria come TensorFlow Lite. 
 Allora cosa sono questi microcontrollori. 
 Questi sono piccoli computer all-in-one a basso consumo che alimentano 
 i dispositivi di tutti i giorni intorno a noi come microonde, fumo 
 rilevatori, giocattoli e sensori. 
 E con TensorFlow, ora è possibile utilizzarli 
 per l'apprendimento automatico. 
 Potresti non renderti conto che il ML incorporato è già in uso 
 nei dispositivi che usi tutti i giorni. 

English: 
For example, hot word
detection like OK Google
on many smartphones
typically runs
on a small DSP, which then
wakes up the rest of the phone.
You can now use TensorFlow Lite
to run models on these devices
with the same tooling
and frameworks.
We're partnering with a
number of industry leaders
in this area in particular
arm, an industry
leader in the embedded
market, has adopted
TensorFlow as the
official solution for AI
on arm microcontrollers.
And together we've
made optimizations
that significantly
improve performance
on embedded arm hardware.
Another recent update-- we've
partnered with Arduino and just
launched the official
Arduino TensorFlow library.
This makes it possible
to start doing
speech detection on Arduino
hardware in about five minutes.
You create your machine learning
models using TensorFlow Lite
and upload them to your
board using the Arduino IDE.
If you're curious
about trying this out,
this library is available
for download today.

Italian: 
 Ad esempio, rilevamento di parole calde come OK Google 
 su molti smartphone in genere viene eseguito 
 su un piccolo DSP, che poi riattiva il resto del telefono. 
 È ora possibile utilizzare TensorFlow Lite per eseguire modelli su questi dispositivi 
 con gli stessi strumenti e strutture. 
 Stiamo collaborando con numerosi leader del settore 
 in questo settore in particolare braccio, un'industria 
 leader nel mercato embedded, ha adottato 
 TensorFlow come soluzione ufficiale per l'IA 
 sui microcontrollori del braccio. 
 E insieme abbiamo fatto delle ottimizzazioni 
 che migliorano significativamente le prestazioni 
 sull'hardware del braccio incorporato. 
 Un altro aggiornamento recente: abbiamo collaborato con Arduino e solo 
 ha lanciato la libreria ufficiale di Arduino TensorFlow. 
 Ciò rende possibile iniziare a fare 
 rilevamento vocale su hardware Arduino in circa cinque minuti. 
 Puoi creare i tuoi modelli di machine learning utilizzando TensorFlow Lite 
 e caricali sulla tua scheda utilizzando l'IDE di Arduino. 
 Se sei curioso di provarlo, 
 questa libreria è disponibile per il download oggi. 

English: 
So that's a look at
where we are today.
Going forward, we're
continuing to expand
the set of supported
models, make
further improvements
to performance,
as well as some more
advanced features
like on-device training
and personalization.
So please check out our
roadmap on TensorFlow.org
and give us feedback.
We'd love to hear from you.
[MUSIC PLAYING]

Italian: 
 Quindi questo è uno sguardo a dove siamo oggi. 
 Andando avanti, continuiamo ad espanderci 
 il set di modelli supportati, make 
 ulteriori miglioramenti alle prestazioni, 
 così come alcune funzionalità più avanzate 
 come la formazione e la personalizzazione sul dispositivo. 
 Quindi per favore controlla la nostra roadmap su TensorFlow.org 
 e dacci un feedback. 
 Ci piacerebbe sentire la tua opinione. 
 [MUSICA IN ESECUZIONE] 
