
Italian: 
 Quindi in questo video vi darò una spiegazione chiara e semplice 
 su come funziona Deep SORT 
 e perché è così sorprendente rispetto ad altri modelli come 
 Tracktor ++ TrackRCNN e JDE 
 Ma per capire come funziona DeepSORT 
 prima dobbiamo tornare indietro, waaaaaay indietro 
 per comprendere i fondamenti del tracciamento degli oggetti 
 e le innovazioni chiave che dovevano avvenire lungo il percorso 
 affinchè DeepSORT emerga 
 Prima di iniziare, se sei interessato allo sviluppo di app per il tracciamento degli oggetti 
 quindi controlla il mio corso nel link in basso 
 dove ti mostro come puoi fondere il popolare YOLOv4 con DeepSORT 
 per applicazioni robuste e in tempo reale. 
 Va bene, quindi torna al monitoraggio degli oggetti 
 Ora immaginiamo che tu stia lavorando per Space X 
 e il signor Musk ti ha incaricato di assicurarlo al momento del lancio 
 la telecamera a terra è sempre puntata verso il falco 9 mentre penetra nell'atmosfera 

English: 
So in this video, Im going to give to you a clear and simple explanation
on how Deep SORT works
and why its so amazing compared to other models like
Tracktor++ TrackRCNN and JDE
But to understand how DeepSORT works
we first have to go back,
waaaaaay back
to understand the fundamentals of object tracking
and the key innovations that had to happen along the way
for DeepSORT to emerge
Before we get started, if you are interested
in developing object tracking apps
then checkout my course in the link down below
where I show you how you can fuse
the popular YOLOv4 with DeepSORT
for robust and real-time applications.
Okay so back to Object Tracking
Now lets imagine that you that you are working for Space X
 and Mr Musk has tasked you with ensuring that on launch
the ground camera is always pointing at the falcon 9
as it thrust into the atmosphere

English: 
As much as you are excited to be personally chosen by Elon to work on this task
you ask yourself
“How will I go about this?”
Well
given that you have a PTZ or
pan tilt zoom camera aimed at the rocket
you will need to implement a way to track the rocket
 and keep the  the rocket at the center of the image
So far so good…?
Just note that if you do not track it properly
your PTZ motion will stray off the target and you’ll end up with
a really disappointed Musk
And you cannot screw this up
because this is your first job
and you really want Elon Musk to be impressed
I mean who wouldn’t want to, right?
Soo, Question…
how will you track the rocket?
Well you might say
"well ritz, you did a whole tutorial series on object detection"
"why don’t we just track by detection"
"you know umm using something
like YOLOv4 or Detectron2?"
Hahaha.. Okay okay..
lets see what happens if we use this method.

Italian: 
 Per quanto sei entusiasta di essere stato scelto personalmente da Elon per lavorare a questo compito 
 ti chiedi 
 "Come lo farò?" 
 Bene 
 dato che si dispone di una telecamera PTZ o pan tilt zoom puntata sul razzo 
 dovrai implementare un modo per rintracciare il razzo 
 e mantieni il razzo al centro dell'immagine 
 Fin qui tutto bene…? 
 Tieni presente che se non lo segui correttamente 
 il tuo movimento PTZ si allontanerà dal bersaglio e ti ritroverai con 
 un Musk davvero deluso 
 E non puoi rovinare tutto 
 perché questo è il tuo primo lavoro e vuoi davvero che Elon Musk rimanga impressionato 
 Voglio dire, chi non vorrebbe, giusto? 
 Soo, Question ... 
 come seguirai il razzo? 
 Beh potresti dire 
 "beh ritz, hai fatto un'intera serie di tutorial sul rilevamento di oggetti" 
 "perché non ci limitiamo a monitorare tramite rilevamento" 
 "sai umm usando qualcosa come YOLOv4 o Detectron2?" 
 Hahaha .. Va bene va bene .. vediamo cosa succede se usiamo questo metodo. 

English: 
So the Falcon 9 launches on a day with a clear blue skies
you are armed with the state of the art detection models
for centralizing the camera on rocket
Everything going well~
until all of a sudden
a stray pigeon swoops in front of the camera
 occluding the rocket from your camera
and just like that the rocket is out of sight
…The boss is not happy
 Deep down inside you feel your heart sink
and your soul crushed by the disappointment
But you light up some greens
he chills out and after a smoke or two
he decides to give you another chance.
The high has also given you a chance
to reflect on why this did not work
you conclude that while detection works great for single frames
there needs to be a correlation of
tracked features between sequential images of the video.
Otherwise any sort of occlusion,
you will lose detection and Your target may slip out of the frame.
So you dig a little deeper in attempts
as to not disappoint Mr. Musk again

Italian: 
 Quindi il Falcon 9 viene lanciato in una giornata con un cielo azzurro e limpido 
 sei armato con i modelli di rilevamento all'avanguardia per centralizzare la telecamera su un razzo 
 Va tutto bene ~ 
 fino a quando tutto ad un tratto 
 un piccione randagio piomba davanti alla telecamera 
 occludendo il razzo dalla fotocamera e proprio così il razzo è fuori dalla vista 
 ... Il capo non è felice 
 Nel profondo senti il ​​tuo cuore affondare e la tua anima schiacciata dalla delusione 
 Ma accendi dei verdi 
 si rilassa e dopo una sigaretta o due 
 decide di darti un'altra possibilità. 
 Lo sballo ti ha anche dato la possibilità di riflettere sul motivo per cui questo non ha funzionato 
 si conclude che il rilevamento funziona alla grande per i singoli frame 
 ci deve essere una correlazione delle caratteristiche tracciate tra le immagini sequenziali del video. 
 In caso contrario, qualsiasi tipo di occlusione, perderai il rilevamento e il tuo bersaglio potrebbe scivolare fuori dall'inquadratura. 
 Quindi scavi un po 'più a fondo nei tentativi per non deludere di nuovo il signor Musk 

Italian: 
 torni al metodo tradizionale come lo spostamento medio e il flusso ottico 
 A partire dal cambiamento medio 
 scopri che funziona prendendo il nostro oggetto di interesse 
 che puoi visualizzare come un blob di pixel, 
 quindi non solo posizione, ma anche dimensione. 
 Quindi in questo caso il razzo Falcon 9 che stiamo rilevando è il nostro blob. 
 Quindi vai al fotogramma successivo 
 e cerchi all'interno di un'area di interesse più ampia 
 noto come quartiere, per lo stesso blob. 
 Ti consigliamo di trovare il miglior blob di pixel o funzionalità 
 nel frame successivo che rappresentano al meglio il nostro razzo massimizzando la funzione di similarità. 
 Questa strategia ha molto senso 
 Se il tuo cane scompare, non ti limiterai a guidare in campagna 
 ma inizia invece con la ricerca del tuo migliore amico nelle immediate vicinanze 
 A meno che tu non abbia un cane come Lassie. In tal caso, ti troverà. 
 L'altro strumento che guardi è il flusso ottico 
 che guarda il movimento delle caratteristiche a causa del movimento relativo attraverso i fotogrammi 
 tra la scena e la telecamera. 

English: 
you go back to traditional method
such as mean shift and optical flow
Starting with mean shift
you find out that it works by taking our object of interest
which you can visualize as a blob of pixels,
so not just location, but also size.
So in this case the falcon 9 rocket
that we are detecting is our blob.
Then you go to next frame
and you search within a larger region of interest
known as the neighborhood, for the same blob.
You’ll want to find the best blob of pixels or features
in the next frame that best represent our rocket
by maximizing the similarity function.
This strategy  makes a lot of sense
If your dog goes missing, you wont just drive to the countryside
but instead start with searching your
immediate neighborhood for your best friend
Unless course you have a dog like Lassie.
In that case, she’ll find you.
The other tool you look into is optical flow
which looks at the motion of features
due to the relative motion across frames
between the scene and camera.

English: 
So say for example you have your rocket in your image,
and it moves up in the image,
you will be able to estimate the motion vectors in frame 2 relative to frame 1.
Now if your object is moving at a certain velocity,
you will be able to use these motion vectors
to track and even predict the trajectory of the object in the next frame.
A popular Optical Flow model that you could use for this is
Lucas Kanaader..
Kanada? Kanade?
Cool so now you’v got another shot at impressing Mr. Musk
he was only a little annoyed...
thats right.. only a little annoyed
.. that you lost his rocket..
So to save Elon a buck or 2,
you decide to model this in simulation
and test the viability of Optical flow and Mean Shift
You find out some interesting things from this experiment.
After running your simulations
you discover that while the traditional methods
have good tracking performance,
they however are computational complex and prone to noise
in the case of optical flow

Italian: 
 Quindi supponiamo, ad esempio, di avere il tuo razzo nella tua immagine e si sposta in alto nell'immagine, 
 sarai in grado di stimare i vettori di movimento nel fotogramma 2 rispetto al fotogramma 1. 
 Ora, se il tuo oggetto si muove a una certa velocità, 
 sarai in grado di utilizzare questi vettori di movimento per tracciare e persino prevedere la traiettoria dell'oggetto nel fotogramma successivo. 
 Un popolare modello di flusso ottico che potresti usare per questo è 
 Lucas Kanaader .. Kanada? Kanade? 
 Fantastico, quindi ora hai un'altra possibilità per impressionare il signor Musk 
 era solo un po 'seccato ... 
 è vero .. solo un po 'seccato .. che hai perso il suo razzo .. 
 Quindi, per risparmiare un dollaro o due a Elon, decidi di modellarlo in simulazione 
 e testare la fattibilità del flusso ottico e dello spostamento medio 
 Scopri alcune cose interessanti da questo esperimento. 
 Dopo aver eseguito le tue simulazioni, scopri che mentre i metodi tradizionali 
 hanno buone prestazioni di tracciamento, tuttavia sono complessi di calcolo e soggetti a rumore 
 nel caso del flusso ottico 

English: 
And for mean shift, its unreliable if the object happens
to go beyond the neighborhood region of interest
So Move too fast,
loose the track.
And that’s not even considering any type of significant occlusion.
So as much as you want to show this off to Mr. Musk
you have a gut feeling telling you
that you can do better.. way better!!
You go to your shrine and meditate for a bit,
Spend some time crunching the numbers
and reasons why you were better off working somewhere else.
But You stumble across an amazing technic
used almost everywhere
known as the Kalman Filter.
Now I have a whole video on what the Kalman filter is
and how you can use it catch pokemon
But essentially its premise Is:
say you are tracking a ball rolling in 1 dimension
You can easily detect it within each frame.
That detection is your input signal
which you can rely on as long as there is a
clear line of sight to the ball, with very low noise.
Now during detection,
you decide to simulate cloudy conditions
using that fog machine
you used at the last office party.

Italian: 
 E per lo spostamento medio, è inaffidabile se l'oggetto supera la regione di interesse del vicinato 
 Quindi muoviti troppo velocemente, perdi la pista. 
 E questo non tiene nemmeno conto di alcun tipo di occlusione significativa. 
 Per quanto tu voglia mostrarlo al signor Musk 
 hai una sensazione viscerale a dirti che puoi fare di meglio .. molto meglio !! 
 Vai al tuo santuario e mediti un po ', 
 Passa un po 'di tempo a sgranocchiare i numeri e i motivi per cui stavi lavorando da qualche altra parte. 
 Ma ti imbatti in una tecnica straordinaria usata quasi ovunque 
 noto come filtro di Kalman. 
 Ora ho un intero video su cos'è il filtro di Kalman e su come puoi usarlo per catturare i pokemon 
 Ma essenzialmente la sua premessa è: diciamo che stai seguendo una palla che rotola in 1 dimensione 
 Puoi facilmente rilevarlo all'interno di ogni fotogramma. 
 Quella rilevazione è il tuo segnale di ingresso 
 su cui puoi fare affidamento fintanto che c'è una linea di vista chiara sulla palla, con un rumore molto basso. 
 Ora durante il rilevamento, decidi di simulare condizioni nuvolose 
 usando quella macchina del fumo che hai usato all'ultima festa in ufficio. 

English: 
You can still see the ball but now
your vision sensor has noise in it,
thus decreasing the confidence
of where the ball is
Now Lets make it a bit more complex
and throw in another scenario
where the ball travels
behind a box which occludes the ball.
How do you track something
that you can’t see?
Well this is where the Kalman comes in.
Assuming a constant velocity model
and gaussian distribution
 You can guestimate where
the ball is based on the model of it motion.
When the ball is able to be seen, you rely more on the 
sensor data and thus put more weight on it.
When it is partially occluded, You can place weight
or reliance on both motion and sensor measurement data
And if its fully occluded.
You will shift a lot of weight on motion data.
And the best part of the Kalman filter
is that it is recursively,
meaning where we take current readings,
to predict the current state,
then use the measurements
and update our predictions

Italian: 
 Puoi ancora vedere la palla ma ora il tuo sensore di visione ha del rumore, 
 diminuendo così la fiducia di dove si trova la palla 
 Ora rendiamolo un po 'più complesso e aggiungiamo un altro scenario 
 dove la palla viaggia dietro una scatola che la occlude. 
 Come rintracci qualcosa che non puoi vedere? 
 Bene, qui è dove entra in gioco Kalman. 
 Assumendo un modello a velocità costante e distribuzione gaussiana 
 Puoi stimare dove si basa la palla sul modello del suo movimento. 
 Quando la palla è in grado di essere vista, ti affidi maggiormente ai dati del sensore e quindi gli dai più peso. 
 Quando è parzialmente occluso, è possibile posizionare il peso o fare affidamento sui dati di misurazione del movimento e del sensore 
 E se è completamente occluso. Sposterai molto peso sui dati di movimento. 
 E la parte migliore del filtro di Kalman è che è ricorsivamente, 
 significato dove prendiamo le letture correnti, per prevedere lo stato corrente, 
 quindi utilizza le misurazioni e aggiorna le nostre previsioni 

English: 
Now ofcourse there is a lot more to
the Kalman filter to cover in just one video.
But by now you probably wondering,
"Ritz, the title of this video is
on DeepSORT.."
"what are you going on about Kalman filters
and traditional tracking algorithms from the good ol days?!"
"What going on here man!?"
Hold up, hold up, hold up
 we are getting there, just bare with me
The Kalman filter is a crucial components
in DeepSORT. Let’s Explore why.
The next launch is coming up
soon where multiple Projectiles may be need to be tracked
so you are required to find a way
for your camera to track your designated rocket.
The Kalman filter looks promising,
but your Kalman filter alone may not be enough.
Enter SORT
 Simple Online Realtime Tracking
You learn that SORT comprises of
4 core components which are:
1.Detection, 2.Estimation, 3.Association, 4.And Track Identity creation and destruction.
Hmmm, This is where is all starts come together
You start with detection

Italian: 
 Ovviamente c'è molto di più nel filtro di Kalman da coprire in un solo video. 
 Ma ormai probabilmente ti starai chiedendo, 
 "Ritz, il titolo di questo video è su DeepSORT .." 
 "cosa stai facendo dei filtri di Kalman e degli algoritmi di tracciamento tradizionali dei bei vecchi tempi ?!" 
 "Che succede qui amico !?" 
 Resisti, resisti, resisti 
 ci stiamo arrivando, solo nudo con me 
 Il filtro Kalman è un componente cruciale in DeepSORT. Esploriamo perché. 
 Il prossimo lancio arriverà presto in cui potrebbe essere necessario tracciare più proiettili 
 quindi ti viene richiesto di trovare un modo per la tua fotocamera per tracciare il tuo razzo designato. 
 Il filtro Kalman sembra promettente, ma il tuo filtro Kalman da solo potrebbe non essere sufficiente. 
 Inserisci SORT 
 Monitoraggio in tempo reale online semplice 
 Imparerai che SORT comprende 4 componenti principali che sono: 
 1.Detection, 2.Stimation, 3.Association, 4.And Track Creazione e distruzione dell'identità. 
 Hmmm, qui è dove tutto inizia si riunisce 
 Inizi con il rilevamento 

English: 
So as you’ve learn earlier
that detection by itself is not enough for tracking.
However the quality of detections
has a significant impact on tracking performance.
 Bewely et. al. use FRCNN(VGG16) back in 2016
now you can even you YOLOv4
in according implementation we use YOLOv4
which you can check out in the lnk down below
Estimation
So we got detections
now what the f*** do we do with them?
So now we need to propagate the detections
from the current frame to the next
using a linear constant velocity model.
Remember the homework you
did earlier on the Kalman filter?
yes that time was not wasted.
When a detection is associated to a target,
the detected bounding box
is used to update the target state
 where the velocity components are optimally solved
via the Kalman filter framework.
However if no detection is
associated tot the target,
its state is simply predicted without correct
using the Linear velocity model.

Italian: 
 Quindi, come hai imparato in precedenza, il rilevamento da solo non è sufficiente per il monitoraggio. 
 Tuttavia, la qualità dei rilevamenti ha un impatto significativo sulle prestazioni di rilevamento. 
 Bewely et. al. usa FRCNN (VGG16) nel 2016 ora puoi anche tu YOLOv4 
 in base all'implementazione usiamo YOLOv4 che puoi controllare in lnk in basso 
 Stima 
 Quindi ora abbiamo i rilevamenti, che cazzo ne facciamo? 
 Quindi ora dobbiamo propagare i rilevamenti dal frame corrente al successivo 
 utilizzando un modello lineare a velocità costante. 
 Ricordi i compiti che hai fatto in precedenza sul filtro di Kalman? 
 sì quel tempo non è stato sprecato. 
 Quando un rilevamento è associato a un target, 
 il riquadro di delimitazione rilevato viene utilizzato per aggiornare lo stato di destinazione 
 dove i componenti della velocità vengono risolti in modo ottimale tramite il framework del filtro di Kalman. 
 Tuttavia, se nessun rilevamento è associato al target, 
 il suo stato viene semplicemente previsto senza essere corretto utilizzando il modello di velocità lineare. 

Italian: 
 Target Association 
 Nell'assegnare rilevamenti a target esistenti, 
 la geometria del riquadro di delimitazione di ciascun bersaglio viene stimata prevedendo la sua nuova posizione nell'ultimo fotogramma. 
 La matrice dei costi di assegnazione viene quindi calcolata come 
 la distanza di intersezione su unione (IOU) tra ogni rilevamento 
 e tutti i riquadri di delimitazione previsti dagli obiettivi esistenti. 
 L'assegnazione viene risolta in modo ottimale utilizzando l'algoritmo ungherese. 
 Questo funziona particolarmente bene quando un bersaglio ne occlude un altro. 
 Nella tua faccia Swooping Pigeon !! 
 Traccia il ciclo di vita delle identità 
 Quando gli oggetti entrano ed escono dall'immagine, 
 le identità uniche devono essere create o distrutte di conseguenza 
 Per la creazione di tracker, consideriamo qualsiasi rilevamento con una sovrapposizione inferiore a IOUmin 
 per indicare l'esistenza di un oggetto non tracciato. 
 Il tracker viene inizializzato utilizzando la geometria del riquadro di delimitazione con la velocità impostata su zero 
 Poiché la velocità non è osservata a questo punto 

English: 
Target Association
In assigning detections to existing targets,
each target’s bounding box geometry
is estimated by predicting its new location in the latest frame.
The assignment cost matrix is then computed as
the intersection-over-union (IOU)
distance between each detection
and all predicted bounding boxes
from the existing targets.
The assignment is solved optimally
using the Hungarian algorithm.
This works particularly well
when one target occludes another.
In your face Swooping Pigeon!!
Track Identities life Cycle
When objects enter and leave the image,
unique identities need to be created
or destroyed accordingly
For creating trackers, we consider any detection
with an overlap less than IOUmin
to signify the existence
of an untracked object.
The tracker is initialized using the geometry
of the bounding box with the velocity set to zero
Since the velocity is
unobserved at this point

Italian: 
 la covarianza della componente di velocità viene inizializzata con valori elevati, riflettendo questa incertezza 
 Inoltre, il nuovo tracker subisce quindi un periodo di prova 
 dove l'obiettivo deve essere associato ai rilevamenti 
 accumulare prove sufficienti per prevenire il rilevamento di falsi positivi. 
 Le tracce vengono terminate se non vengono rilevate per i frame TLost 
 puoi specificare la quantità di frame per TLost 
 Se un oggetto riappare, il monitoraggio riprenderà implicitamente con una nuova identità. 
 Wow, sei assolutamente in fiamme ora 
 con tutta questa potenza di SORT che ti consuma, 
 ti accendi ancora di più, aumentando 
 livello di potenza oltre 9000 
 urlando finché non ti trasformi da SORT alla tua forma definitiva 
 DeepSORT 
 I Super Sayan sono orgogliosi 
 Ora se sei quasi arrivato 
 Quindi ora esplori i tuoi nuovi poteri trovati e impara cosa distingue SORT dal DeepSORT aggiornato 
 Così in SORT abbiamo imparato che usiamo una CNN per il rilevamento 

English: 
the covariance of the velocity component
is initialized with large values, reflecting this uncertainty
Additionally, the new tracker then
undergoes a probationary period
where the target needs
to be associated with detections
to accumulate enough evidence
in order to prevent tracking of false positives.
Tracks are terminated
if they are not detected for TLost frames
you can specify what the amount of frame for TLost
Should an object reappear,
tracking will implicitly resume under a new identity.
Wow, you are absolutely on fire now
with all this SORT power consuming you,
you power up even more, surging
power level over 9000
screaming until you transform
from SORT to your ultimate form
DeepSORT
Super Sayans be proud
Now if you’re almost there
So now you explore your new found powers
and learn what separates SORT from the upgraded DeepSORT
So in SORT we learnt that
we use a CNN for detection

English: 
 but what makes DeepSORT so different?
 If we analyze the full title of which is
Simple Online and Real time Tracking or SORT
 withwith a deep association metric.
"Hhmm okay Ritz.."
I really hope you are going to explain
what deep association metric is
We’ll discuss this in the next video..
hahahh..
just kidding
I cant leave you hanging like that.
Especially when we are so close to
completing the project for the falcon 9 launch.
Okay so Where is the
deep learning in all of this?
Well, we have an object detector
that provides us detections,
the almighty Kalman filter tracking it
and giving us missing tracks,
the Hungarian algorithm
associates detections to tracked objects.
You ask:
"o, is deep learning really required here?"
Well while SORT achieves an overall good performance
in terms of tracking precision and accuracy,
also despite the effectiveness
of Kalman filter

Italian: 
 ma cosa rende DeepSORT così diverso? 
 Se analizziamo il titolo completo di cui è 
 Semplice monitoraggio online e in tempo reale o ORDINA con una metrica di associazione profonda. 
 "Hhmm okay Ritz .." 
 Spero davvero che spiegherai cos'è la metrica di associazione profonda 
 Ne parleremo nel prossimo video .. 
 hahahh .. sto scherzando 
 Non posso lasciarti in sospeso così. 
 Soprattutto quando siamo così vicini al completamento del progetto per il lancio di Falcon 9. 
 Va bene, allora dov'è l'apprendimento profondo in tutto questo? 
 Bene, abbiamo un rilevatore di oggetti che ci fornisce rilevamenti, 
 l'onnipotente filtro di Kalman che lo traccia e ci fornisce le tracce mancanti, 
 l'algoritmo ungherese associa i rilevamenti agli oggetti tracciati. 
 Ti chiedi: "o, è davvero necessario il deep learning qui?" 
 Ebbene, mentre SORT raggiunge una buona prestazione complessiva in termini di precisione e accuratezza del tracciamento 
 anche nonostante l'efficacia del filtro Kalman 

English: 
it returns a relatively
high number of identity switches
and has a deficiency in tracking
through occlusions and different viewpoints
So, to improve this, the authors of DeepSORT introduced
another distance metric based on the “appearance” of the object.
The Appearance feature Vector
So a classifier is build based on our dataset
which is trained meticulously
until it achieves a reasonably good accuracy.
Then we take this network and 
strip the final classification layer
leaving behind a dense layer that produces
a single feature vector, waiting to be classified.
This feature vector is known
as the appearance descriptor.
Now how this works is that
after the appearance descriptor is obtained
the authors, use nearest neighbor queries
in the visual appearance
and this is to establish
the measurement-to-track association
"Measurement-to-track association" or MTA
is the process of determining the relation
between a measurement and an existing track

Italian: 
 restituisce un numero relativamente elevato di cambi di identità 
 e ha una carenza nel tracciamento attraverso occlusioni e diversi punti di vista 
 Quindi, per migliorare questo, gli autori di DeepSORT hanno introdotto un'altra metrica della distanza basata sull '"aspetto" dell'oggetto. 
 La funzione Aspetto Vector 
 Quindi un classificatore viene creato in base al nostro set di dati 
 che viene addestrato meticolosamente fino a raggiungere una precisione ragionevolmente buona. 
 Quindi prendiamo questa rete e spogliamo lo strato di classificazione finale 
 lasciando dietro di sé uno strato denso che produce un unico vettore di feature, in attesa di essere classificato. 
 Questo vettore di funzionalità è noto come descrittore dell'aspetto. 
 Ora come funziona è che dopo aver ottenuto il descrittore dell'aspetto 
 gli autori, utilizzano le query del vicino più vicino nell'aspetto visivo 
 e questo per stabilire l'associazione tra misurazione e traccia 
 "Associazione misurazione-traccia" o MTA 
 è il processo per determinare la relazione tra una misurazione e una traccia esistente 

English: 
So now we also use the
Mahalanobis distance as oppose to
the Euclidean distance for MTA.
So while tensions are mounting,
on the dawn of the launch day
You quickly run your simulation
and you find the Deep extension to the SORT algorithm
shows a reduced number
of identity switches by 45% achieved
an over competitive performance
at high frame rates.
Just like that you find yourself
standing alongside Elon
in the bunker moments before
the commencement of the launch
You clench your fists,
you feel the sweat on your brow
heart beating,
saying: "This is it..
this is the moment of truth”
Elon raises the same question
that you have on your mind
“So.. will it work?”
You stemmer a little.. but
you answer with a confident
“Im sure it will”
Elon looks forward as the countdown begins
3... 2... 1...
We have lift off!!

Italian: 
 Quindi ora usiamo anche la distanza di Mahalanobis invece di 
 la distanza euclidea per MTA. 
 Così, mentre le tensioni aumentano, all'alba del giorno del lancio 
 Esegui rapidamente la simulazione e trovi l'estensione Deep all'algoritmo SORT 
 mostra un numero ridotto di cambi di identità del 45% raggiunto 
 prestazioni eccessivamente competitive con frame rate elevati. 
 Proprio così ti ritrovi in ​​piedi accanto a Elon 
 nel bunker pochi istanti prima dell'inizio del varo 
 Stringi i pugni 
 senti il ​​sudore sulla fronte 
 battito del cuore, 
 dicendo: "Questo è .. questo è il momento della verità" 
 Elon solleva la stessa domanda che hai in mente 
 "Allora ... funzionerà?" 
 Hai arginato un po '... ma 
 rispondi con un fiducioso "Sono sicuro che lo farà" 
 Elon non vede l'ora che inizi il conto alla rovescia 
 3 ... 2 ... 1 ... Abbiamo il decollo !! 

English: 
You PTZ camera is set on the target on the target
as the rocket lifts up from the ground…
So far so good we have track.
However, the rocket is passing through some clouds
that partially occluding the target.
The camera is still targeting
the deepsort model is holding up quite well.
Actually very well,
as you notice as the swooping pigeon occluded the camera
on multiple occasions without hinderance to the tracker.
YES!!!
Mission Accomplished
Elon looks at you and extends
his hand outwards to shake yours and says:
“Well done, that was quite impressive.”
You can now relax and pop
some champagne with the team
Job well done!
That was quite an adventure
for which you have learnt about object tracking,
particularly on the DeepSORT model.
Just out of curiosity you search the net for
DeepSORT alternatives and you create a quick comparison
You find 3 which are:
1. Tracktor++ which is pretty accurate,

Italian: 
 La tua telecamera PTZ è posizionata sul bersaglio sul bersaglio mentre il razzo si solleva da terra ... 
 Finora tutto bene abbiamo traccia. 
 Tuttavia, il razzo sta attraversando alcune nuvole 
 che occlude parzialmente il bersaglio. 
 La telecamera sta ancora puntando 
 il modello deepsort sta reggendo abbastanza bene. 
 In realtà molto bene, 
 come si nota come il piccione in picchiata ha occluso la fotocamera in più occasioni senza ostacolare il tracker. 
 SÌ!!! Missione compiuta 
 Elon ti guarda e allunga la mano verso l'esterno per stringere la tua e dice: 
 "Ben fatto, è stato davvero impressionante." 
 Ora puoi rilassarti e stappare dello champagne con la squadra 
 Lavoro ben fatto! 
 È stata una vera avventura per la quale hai imparato a conoscere il tracciamento degli oggetti, 
 in particolare sul modello DeepSORT. 
 Solo per curiosità cerchi in rete alternative DeepSORT e crei un rapido confronto 
 Ne trovi 3 che sono: 
 1. Tracktor ++ che è abbastanza preciso, 

English: 
but one big drawback is that
it is not viable for real-time tracking.
Results show an average execution of 3 FPS.
If real-time execution is not a concern,
this is a great contender.
2. TrackR-CNN, which is nice
because it provides segmentation as a bonus.
But as with Tracktor++,
it is hard to utilize for real-time tracking
having an average execution of 1.6 FPS.
JDE displayed decent performance
of 12 FPS on average.
It is important to note that
the input size for the model is 1088x608
so accordingly, we should expect JDE to reach 
a lower FPS if the model is trained on Full HD
Nevertheless, it has great accuracy
and should be a good selection.
Deep SORT is the fastest of the bunch,
thanks to its simplicity. It produced 16 FPS on average
while maintaining good accuracy, definitely making it
a solid choice for multiple object detection and tracking.
If you guys enjoyed this video
please like, share and subscribe

Italian: 
 ma un grosso svantaggio è che non è praticabile per il monitoraggio in tempo reale. 
 I risultati mostrano un'esecuzione media di 3 FPS. 
 Se l'esecuzione in tempo reale non è un problema, questo è un ottimo contendente. 
 2. TrackR-CNN, che è bello perché fornisce la segmentazione come bonus. 
 Ma come con Tracktor ++, è difficile da utilizzare per il monitoraggio in tempo reale 
 avente un'esecuzione media di 1,6 FPS. 
 JDE ha mostrato prestazioni decenti di 12 FPS in media. 
 È importante notare che la dimensione di input per il modello è 1088x608 
 quindi, di conseguenza, dovremmo aspettarci che JDE raggiunga un FPS inferiore se il modello è addestrato su Full HD 
 Tuttavia, ha una grande precisione e dovrebbe essere una buona selezione. 
 Deep SORT è il più veloce del gruppo, grazie alla sua semplicità. Ha prodotto in media 16 FPS 
 pur mantenendo una buona precisione, rendendolo sicuramente una scelta solida per il rilevamento e il tracciamento di più oggetti. 
 Se vi è piaciuto questo video, per favore, condividetelo e iscrivetevi 

English: 
Comment on whether you would use
DeepSORT for your own object tracking applications
And if you want to learn how to implement
DeepSort with the Robust YOLOv4 model
then click the link below
to enroll in our yolov4 PRO Course.
Thank you for watching and we’ll see you in the next video.

Italian: 
 Commenta se utilizzeresti DeepSORT per le tue applicazioni di tracciamento degli oggetti 
 E se vuoi imparare come implementare DeepSort con il modello Robust YOLOv4 
 quindi fare clic sul collegamento sottostante per iscriversi al nostro corso yolov4 PRO. 
 Grazie per la visione e ci vediamo nel prossimo video. 
