
Vietnamese: 
Chào mọi người và chào mừng đến với một điều rất cần thiết
Cập nhật deep learning và Python với tensorflow như hướng dẫn nhanh này
đã được hơn hai năm kể từ khi tôi chỉ làm một video học sâu cơ bản trong Python và
Kể từ đó đã thay đổi rất nhiều. Bây giờ đơn giản hơn nhiều để tiếp cận cả 2 cái
Nhưng sau đó cũng chỉ để làm việc với các mô hình deep learning
Vì vậy, nếu bạn muốn có được nhiều chi tiết ghê rợn hơn ở cấp độ thấp hơn
Mã tensorflow bạn vẫn có thể xem video cũ hơn
Nhưng nếu bạn chỉ đang cố gắng bắt đầu với việc học sâu thì không còn cần thiết nữa bởi vì chúng tôi có những cấp độ cao hơn này
api như chaos đặttrên đỉnh của tensorflow và
Làm cho nó siêu siêu đơn giản. Vì vậy, bất cứ ai cũng có thể làm theo nếu bạn không biết gì về học tập sâu, điều đó hoàn toàn tốt
Chúng ta sẽ thực hiện nhanh chóng các mạng lưới thần kinh. Ngoài ra, bạn sẽ muốn Python
3.6 ít nhất là khi phát hành video này hy vọng sẽ rất sớm

English: 
What is going on everybody and welcome to a much-needed
Update to the deep learning and Python with tensorflow as well as now chaos tutorial
it's been a bit over two years since I did just a basic deep learning video in Python and
Since then a lot has changed. It's now much simpler to both like get into it
But then also just to work with deep learning models
So if you want to get into the more nitty gritty details in the lower-level
Tensorflow code you can still check out the older video
But if you're just trying to get started with deep learning that's not necessary anymore because we have these nice high-level
api's like chaos that sit on top of tensorflow and
Make it super super simple. So anybody can follow along if you don't know anything about deep learning that's totally fine
We're going to do a quick run-through of neural networks. Also, you're gonna want Python
3.6 at least as of the release of this video hopefully very very soon

Vietnamese: 
Tensorflow sẽ được hỗ trợ trên ba phiên bản bảy và phiên bản mới hơn của Python ngay bây giờ
không phải tôi nghĩ nó liên quan đến
không đồng bộ
Thay đổi, tôi không thực sự chắc chắn
Hãy tiếp cận với nó bắt đầu với một cái nhìn tổng quan về cách các mạng thần kinh chỉ hoạt động
Được rồi để bắt đầu
chúng ta cần có sự so sánh giữa việc xử lý các mạng lưới thần kinh như một hộp đen hoàn toàn mà chúng ta hoàn toàn không hiểu và
Hiểu từng chi tiết cho chúng. Vì vậy, tôi sẽ cho các bạn thấy những gì tôi nghĩ chỉ là thứ cần thiết để hiểu
Chuyện gì đang xảy ra vậy? Vì vậy, một mạng lưới thần kinh sẽ bao gồm những điều sau đây. Giống như mục tiêu của bất kỳ mô hình học máy nào?
Vâng, bạn đã có một số đầu vào
Vì vậy, hãy nói X 1 X 2 X 3 và bạn chỉ đang cố gắng lập bản đồ
đầu vào cho một số loại đầu ra
Hãy nói rằng đầu ra đang xác định xem một cái gì đó là một con chó hay một cái gì đó là một con mèo
Vì vậy, đầu ra sẽ là hai tế bào thần kinh trong trường hợp này. Vì vậy, nó chỉ bùng nổ hai tế bào thần kinh

English: 
Tensorflow will be supported on three seven and later versions of Python just happens to be the case right now
it isn't I think it's something to do with the
async
Changes, I'm not really sure anyways
Let's get into it starting with an overview of how neural networks just work
Alright to begin
we need to have some sort of balance between treating neural networks like a total black box that we just don't understand at all and
Understanding every single detail to them. So I'm gonna show you guys what I think is just the kind of bare essential to understanding
What's going on? So a neural network is going to consist of the following things. Like what's the goal of any machine learning model?
Well, you've got some input
So let's say X 1 X 2 X 3 and you're just trying to map those
inputs to some sort of output
Let's say that output is determining whether something is a dog or that something is a cat
So the output is going to be two neurons in this case. So it's just boom two neurons

English: 
Now what we want to do is is figure out how are we going to map to those things?
We could use a single hidden layer. Let's say we're going to do some neurons here and
That's our first
Hidden lair now
What's gonna happen is each of these X 1 X 2 and X 3 these are gonna map to that hidden lair
each of the
input data x' gets
Connected to each of the neurons in that first hidden layer. And each of those connections has its own
Unique weight now from here that first hidden layer could then map and connect to that output layer
the problem is if you did this the relationship between x1 and dog or cat and
All the other ones those relationships would only be linear relationships
so if we're looking to map and nonlinear relationships
Which is probably going to be the case in a complex question. You need to have two or more one

Vietnamese: 
Bây giờ những gì chúng ta muốn làm là tìm hiểu làm thế nào để lập bản đồ cho những thứ đó?
Chúng ta có thể sử dụng một lớp ẩn duy nhất. Hãy nói rằng chúng ta sẽ làm một nơ-ron đây và
Đó là cái đầu tiên của chúng ta
Hang ẩn bây giờ
Điều gì sẽ xảy ra là mỗi X 1 X 2 và X 3 này sẽ được ánh xạ tới hang ẩn đó
mỗi
dữ liệu đầu vào x 'được
Kết nối với nơ-ron trong lớp ẩn đầu tiên đó. Và mỗi kết nối đó có một kết nối riêng.
Trọng số duy nhất bây giờ từ đây lớp ẩn đầu tiên sau đó có thể ánh xạ và kết nối với lớp đầu ra
vấn đề là nếu bạn làm điều này thì mối quan hệ giữa x1 và chó hay mèo và
Tất cả những mối quan hệ khác chỉ là mối quan hệ tuyến tính
vì vậy nếu chúng ta tìm cách lập bản đồ và các mối quan hệ phi tuyến
Mà có lẽ sẽ là trường hợp trong một câu hỏi phức tạp. Bạn cần phải có hai hoặc nhiều hơn một

English: 
Hidden layer means you just have a neural network two or more hidden layers means you have a quote-unquote deep neural network
So we'll add one more layer and then we're gonna fully connect that one two
And then once that's fully connected again all unique weights, each of those blue lines has a unique weight associated with it
and then that gets mapped to
The output and again each blue line has a unique weight associated with it
so now what we're gonna do is talk about what's happening on an
individual
Neuron level. So again that neuron has certain inputs coming to it
It might be the input layer X values or it could be inputs coming from the other neurons
So we're gonna again we're gonna call the inputs x1 x2 and x3
But just keep in mind this could actually not be it might not be your input data
It might be data coming from another neuron
But regardless that data's gonna come in and we're just gonna get the sum of that data
So it's gonna come in and be summed all together

Vietnamese: 
Lớp ẩn có nghĩa là bạn chỉ có một mạng nơ-ron hai hoặc nhiều lớp ẩn nghĩa là bạn có một mạng nơ-ron sâu không trích dẫn
Vì vậy, chúng tôi sẽ thêm một lớp nữa và sau đó chúng tôi sẽ kết nối đầy đủ hai lớp đó
Và sau đó một khi được kết nối đầy đủ một lần nữa tất cả các trọng số duy nhất, mỗi dòng màu xanh đó có trọng số duy nhất liên quan đến nó
và sau đó được ánh xạ tới
Đầu ra và một lần nữa, mỗi dòng màu xanh có trọng số duy nhất liên quan đến nó
Vì vậy, bây giờ những gì chúng ta sẽ làm là nói về những gì đang xảy ra trên một
cá nhân
Mức độ thần kinh. Vì vậy, một lần nữa tế bào thần kinh có một số đầu vào nhất định đến với nó
Nó có thể là các giá trị lớp X đầu vào hoặc nó có thể là đầu vào đến từ các nơ-ron khác
Vì vậy, chúng ta sẽ một lần nữa, chúng tôi sẽ gọi đầu vào x1 x2 và x3
Nhưng hãy nhớ rằng điều này thực sự có thể không phải là dữ liệu đầu vào của bạn
Nó có thể là dữ liệu đến từ một nơ-ron khác
Nhưng bất kể dữ liệu nào sẽ đến và chúng ta sẽ có được tổng số dữ liệu đó
Vì vậy, nó sẽ đến và được tổng hợp lại với nhau

Vietnamese: 
Nhưng hãy nhớ rằng chúng ta cũng có các trọng số đó, mỗi đầu vào có một trọng số duy nhất giúp bạn biết được nhân lên
Trái lại dữ liệu đầu vào và sau đó chúng ta tổng hợp nó lại với nhau và đây là loại mạng lưới thần kinh nhân tạo phát huy tác dụng
chúng ta có một chức năng kích hoạt và chức năng kích hoạt này là để
Mô phỏng nơ-ron thực sự truyền hay không
Vì vậy, bạn có thể nghĩ về chức năng kích hoạt như trên biểu đồ, bạn biết không?
Bạn đã nhận được X và Y của mình và sau đó một hàm kích hoạt thực sự cơ bản sẽ giống như một bước hoặc hàm
Vì vậy, nếu x hơn một sự nổ giá trị nhất định, chúng ta bước lên và chúng ta có một giá trị. vì vậy giả sử
ở đây là con số không. Giá trị là một
Vì vậy, giả sử đây là trục x 1 2 3 của chúng ta
vì vậy, nếu X, bạn biết sau khi tất cả các đầu vào được nhân với trọng số của chúng cộng lại với nhau nếu giá trị đó là
hãy xem nào
lớn hơn 3
tốt, sau đó hàm kích hoạt này trả về 1 nhưng ngày nay chúng ta có xu hướng sử dụng nhiều hơn một
hàm kích hoạt dấu vì vậy nó sẽ không phải là 0 hoặc 1, nó sẽ là một loại giá trị giữa

English: 
But remember we also have those weights each of the inputs has a unique weight that gets put you know multiplied
Against the input data and then we sum it together finally and this is kind of where the artificial neural network comes into play
we have an activation function and this activation function is kind of meant to
Simulate a neuron actually firing or not
So you can think of the activation function like on a graph, you know?
You got your X and your Y and then a really basic activation function would be like a step or function
So if X is than a certain value boom we step up and we have a value. So let's say here
This is zero here. The value is one
So let's say this is our x-axis 1 2 3
so if X, you know after being all the inputs are multiplied by their weights sum together if that value is
let's say
greater than 3
well, then this activation function returns a 1 but today we tend to use more of a
sigmoid activation function so it's not going to be a 0 or 1 it's going to be some sort of value between

Vietnamese: 
0 và 1 vì vậy thay vào đó chúng ta thực sự có thể trở lại như một điểm bảy chín hoặc một cái gì đó tương tự
Vì vậy, quay trở lại mạng lưới thần kinh này ở đây mà chúng ta đã vẽ
giả sử ở đây trên lớp đầu ra cuối cùng này. Bạn đã có chó và mèo
tốt, lớp đầu ra này gần như chắc chắn chỉ có chức năng kích hoạt dấu và
Những gì sẽ nói là có thể con chó là một điểm bảy chín và con mèo là một điểm hai một
hai giá trị này sẽ tăng lên 1 hoàn hảo nhưng chúng ta sẽ đi với bất cứ điều gì
Giá trị lớn nhất là như vậy trong trường hợp này
Mạng lưới thần kinh là bạn có thể tự tin nói rằng 79 phần trăm đó là một con chó 21 phần trăm là một con mèo
Chúng ta sẽ nói rằng chúng ta sẽ lấy Arg max về cơ bản và chúng ta sẽ nói hmm. Chúng tôi nghĩ rằng đó là một con chó
Được rồi Bây giờ chúng ta đều là chuyên gia về các khái niệm của mạng lưới thần kinh. Hãy tiếp tục và xây dựng một. Bạn sẽ cần tensorflow
Vì vậy, thực hiện cài đặt pip - - upgrade tenorflow bạn nên có trên phiên bản tenorflow 1.1 trở lên. Vì thế

English: 
0 and a 1 so instead we might actually return like a point seven nine or something like that
So coming back to this neural network here that we've been drawing
Let's say here on this final output layer. You've got dog and cat
well, this output layer is almost certain to have just a sigmoid activation function and
What's gonna say is maybe dog is a point seven nine and cat is a point two one
these two values are gonna add up to a perfect 1.0 but we're gonna go with whatever the
Largest value is so in this case
The neural network is you could say 79 percent confident that it's a dog 21 percent confidence a cat
We're gonna say we're gonna take the Arg max basically and we're gonna say hmm. We think it's a dog
All right. Now that we're all experts on the concepts of neural networks. Let's go ahead and build one. You're gonna need tensorflow
So do a pip install - - upgrade tensorflow you should be on tensorflow version 1.1 or greater. So

Vietnamese: 
một điều bạn có thể làm là nhập tenorflow và sau đó
Thực tế chạm vào luồng như TF và sau đó phiên bản TF dot sẽ cung cấp cho bạn phiên bản hiện tại của bạn
vậy là của tôi
1,10
Bây giờ hãy tiếp tục và bắt đầu. Vì vậy, điều đầu tiên chúng ta sẽ làm là nhập một tập dữ liệu. Chúng ta sẽ sử dụng m
nacelle
của
Tập dữ liệu với máy học. Nó là một bộ dữ liệu bao gồm các ảnh kích thước 28 x 28
Vì vậy, nó giống như độ phân giải
hình ảnh viết tay
Chữ số từ 0 đến 9. Vì vậy, nó sẽ giống như 0 0 2 3 và cứ thế và đó là một loại hình ảnh độc đáo viết tay
vì vậy nó thực sự là một
Hình ảnh chúng ta có thể vẽ biểu đồ
đủ sớm để bạn có thể thấy nó thực sự là một hình ảnh và ý tưởng là cung cấp thông qua các giá trị pixel cho mạng nơ-ron và
Sau đó có đầu ra mạng nơ-ron
Con số thực sự nghĩ rằng nó là hình ảnh

English: 
one thing you can do is import tensorflow and then
Actually touch flow as TF and then TF dot version will give you your current version
so mine is
1.10
Now let's go ahead and get started. So the first thing we're going to do is import a data set. We're going to use em
nacelle
of
Data sets with machine learning. It is a dataset that consists of 28 by 28 sized images
So it's like the resolution
images of handwritten
Digits 0 through 9. So it'll be like a 0 1 2 3 and so on and it's a handwritten kind of unique image
so it's actually a
Picture we can graph it
soon enough so you can see it's actually an image and the idea is to feed through the pixel values to the neural network and
Then have the neural network output
Which number it actually thinks that image is

English: 
So that's our data set, and now what we want to do is
Unpack that data set to training and testing variables
So this is a far more complex
Operation when it's actually a data set that you're kind of bringing in or that you built or whatever
For the sake of this tutorial we want to use something real basic like M inist
so we're gonna unpack it to X train Y train and
then we're going to do X test Y test and
that's gonna equal m n--
Astana score data, so that's gonna unpack it into there now
Just to show you guys what this is
We're gonna use Matt plot Lib you can pip install or just look at it with me, but we're gonna import matplotlib
Pipe lot as a PLT. And what we're gonna do is peel TM show and we're gonna do X
train
And we'll do the zero width
So one thing we could do just just for the record

Vietnamese: 
Vì vậy, đó là dữ liệu của chúng ta, và bây giờ những gì chúng ta muốn làm là
Giải nén dữ liệu đó được thiết lập để đào tạo và kiểm tra các biến
Vì vậy, đây là một phức tạp hơn nhiều
Hoạt động khi đó thực sự là một tập dữ liệu mà bạn mang vào hoặc bạn đã xây dựng hoặc bất cứ điều gì
Vì mục đích của hướng dẫn này, chúng tôi muốn sử dụng một cái gì đó thực sự cơ bản như Mnist
vì vậy chúng tôi sẽ giải nén nó cho X train Y  train và
sau đó chúng ta sẽ làm cho X test Y test và
điều đó sẽ = mnist
Dữ liệu điểm Astana, vì vậy bây giờ sẽ giải nén nó vào đó
Chỉ để cho các bạn thấy đây là gì
Chúng tôi sẽ sử dụng Matplotlib bạn có thể cài đặt pip hoặc chỉ xem nó với tôi, nhưng chúng ta sẽ khai báo matplotlib
Ống rất nhiều như một PLT. Và những gì chúng ta sẽ làm là làm sáng tỏ TM và chúng ta sẽ làm X
train
Và chúng ta sẽ làm chiều rộng bằng không
Vì vậy, một điều chúng ta có thể làm chỉ là cho bản ghi

Vietnamese: 
tôi chỉ cần in ra để chúng ta có thể thấy những gì chúng ta đang nói gì ở đây. Vậy, đây sẽ chỉ là một mảng
Nhân tiện, đây sẽ là một mảng đa chiều, tất cả đều là một tenxơ
Vì vậy, đây là đây là tenor của bạn
đúng
Được rồi, đó là dữ liệu thực tế mà chúng ta sẽ cố gắng thông qua mạng lưới thần kinh và chỉ cho bạn thấy nếu chúng ta
Để thực sự vẽ đồ thị và sau đó thực hiện một chương trình chạm vào bề ngoài. Nó sẽ là số và bạn chỉ có thể bỏ đi màu sắc
Đó chắc chắn là màu đen và trắng. Đó là một màu duy nhất. Đó là một nhị phân
Vì vậy, một điều chúng ta có thể nói là bản đồ màu bằng P LTCM cho bản đồ màu
Nhị phân rất nhiều. Đó không phải là một hình ảnh màu
Vì vậy, dù sao trở lại mã thực tế của chúng tôi lên đây
Khi chúng ta có dữ liệu, một điều chúng ta muốn làm là bình thường hóa dữ liệu đó
Vì vậy, một lần nữa, nếu tôi in nó ra, bạn có thể thấy dữ liệu của nó dường như thay đổi từ 0 đến
Có vẻ như chúng ta có cao tới 253. Đó là dữ liệu 0 đến 255 4 pixel

English: 
Let me just print so we can you can see what we're talking about here. So this is just going to be an array
It'll be a multi-dimensional array which is all a tensor is by the way
So this is this is here's your tensor
right
Okay, so that's the the actual data that we're gonna attempt to pass through our neural network and just to show you if we were
To actually graph it and then do a peel t touch show. It's gonna be the number and you can just excuse the color
It's definitely black and white. It's a single color. It's a binary
So one thing we could say is the color map is equal to P LTCM for color map
Binary Reap lot it and there you go. It's a it's not a color image
So anyways back to our actual code up here
Once we have the data one thing we want to do is is normalize that data
so again, if I print it out, you can see it's data that seems to vary from 0 to
Looks like we have as high as 253. It's 0 to 255 4 pixel data

Vietnamese: 
Vì vậy, những gì chúng tôi muốn làm là mở rộng quy mô dữ liệu này hoặc bình thường hóa nó nhưng thực sự những gì chúng tôi đang làm trong quá trình chuẩn hóa này là nhân rộng nó
Vì vậy, chúng tôi sẽ định nghĩa lại  X train và X test nhưng đó sẽ là TF caras chám utils chấm
Bình thường hóa và chúng ta sẽ vượt qua X
Đào tạo và nó sẽ ở trục 1 và sau đó chúng ta sẽ sao chép
dán và chúng ta sẽ làm điều tương tự chính xác cho  X test và
Tất cả cái  này không chỉ chạy và sau đó chúng ta sẽ chạy lại và bạn có thể thấy 5 đã có  thay đổi nhỏ
có vẻ như tôi đã có sáng hơn một chút và
Sau đó chúng ta xuống đây và chúng ta có thể thấy các giá trị ở đây bây giờ
Thu nhỏ từ 0 đến 1 và điều đó giúp mạng dễ học hơn, chúng ta không phải làm điều này
Nhưng cuối cùng, điều này có lẽ sẽ không có thời gian
Nhưng nếu bạn muốn, bạn biết, bình luận những dòng đó và xem nó ảnh hưởng đến mạng như thế nào. Nó khá là quan trọng
Được. Vì vậy, điều tiếp theo chúng ta sẽ làm bây giờ là thực sự xây dựng mô hình

English: 
So what we want to do is scale this data or normalize it but really what we're doing in this normalization is scaling it
So we're going to just redefine X train and X testing but it's gonna be TF caras dot utils dot
Normalize and we're gonna pass X
Train and it'll be on axis 1 and then we're gonna copy
paste and we're gonna do the exact same thing for X test and
All this does let's just run that and then we'll run this again and you can see how the 5 has changed a little bit
looks like I got a little lighter and
Then we come down here and we can see the values here are now
Scaled between 0 and 1 and that just makes it easier for a network to learn we don't have to do this
But at the end of this only probably won't have time
But if you want on, you know, comment those lines out and see how it effects the network. It's it's pretty significant
Ok. So the next thing we're gonna do now is actually build the model

English: 
So the model itself is gonna start as TF karosta model's dot and then it's going to be the sequential type of model
There's two types of models
The sequential is your your most common one. It's a feed-forward like the image we drew
So we're gonna use this sequential model and then from here we can use this like model dot add syntax
so the first layer is gonna be the input layer and now right now our images are 28 by 28 in this like
Multi-dimensional array we don't want that
We want them to be just like flat if we were doing like a confident or something like that
We might not want it to be flat
but in this case
we definitely want to flatten it so we could use that we could use like numpy and reshape or
We can actually use one of the layers that's built into chaos, which is flattened. So
So we're gonna do ad and what we're gonna add is TF. Chaos layers dot flatten
so one of the reasons why you you want this to actually be a layer type is like when you have a
Convolutional neural network a lot of times at the end of the convolutional neural network. There'll be just like a densely connected

Vietnamese: 
Vì vậy, bản thân mô hình sẽ bắt đầu như là dấu chấm của mô hình TF karosta và sau đó nó sẽ là kiểu mô hình tuần tự
Có hai loại mô hình
Trình tự là thứ phổ biến nhất của bạn. Đó là một chuyển tiếp như hình ảnh chúng ta đã vẽ
Vì vậy, chúng ta sẽ sử dụng nối tiếp mô hình này và sau đó từ đây chúng ta có thể sử dụng cú pháp như mô hình chấm thêm mô hình này
Vì vậy, lớp đầu tiên sẽ là lớp đầu vào và bây giờ hình ảnh của chúng ta là 28 x 28 như thế này
Mảng đa chiều tôi không muốn điều đó
Chúng ta muốn chúng giống như đồng bằng  nếu chúng ta làm như một người tự tin hoặc đại loại như thế
Chúng ta có thể không muốn nó bằng phẳng
nhưng trong trường hợp này
tôi chắc chắn muốn làm phẳng nó để tôi có thể sử dụng mà tôi có thể sử dụng như numpy và định hình lại hoặc
Chúng ta thực sự có thể sử dụng một trong những lớp được tạo thành hỗn loạn, được làm phẳng. Vì thế
Vì vậy, chúng tôi sẽ làm quảng cáo và những gì chúng tôi sẽ thêm là TF. Các lớp hỗn loạn chấm phẳng
Vì vậy, một trong những lý do tại sao bạn muốn đây thực sự là một loại lớp giống như khi bạn có một
Mạng lưới thần kinh chuyển đổi rất nhiều lần vào cuối mạng lưới thần kinh tích chập. Sẽ giống như một kết nối dày đặc

Vietnamese: 
Lớp, và vì vậy bạn cần phải làm phẳng nó trước lớp đó. Vì vậy, nó được sử dụng nhiều hơn lớp đầu vào
Chúng ta chỉ sử dụng nó cho lớp đầu vào
Chỉ để làm cho cuộc sống của chúng ta dễ dàng hơn. Một khi chúng ta đã có được điều đó
Đó là lớp đầu vào của chúng ta. Hiện nay. Chúng tôi muốn làm lại các lớp ẩn
Chúng ta sẽ đi với tôi nghĩ chỉ là hai lớp ẩn. Đây không phải là một vấn đề phức tạp để giải quyết
Một lần nữa, chúng ta sẽ sử dụng mô hình thiết lập cú pháp thêm mô hình chấm và chúng ta sẽ thêm và trên thực tế
Tôi nghĩ những gì tôi sẽ làm là sao chép dán và sau đó thay vì một lớp phẳng nó là một lớp dày đặc trong lớp dày đặc
Chúng ta sẽ vượt qua một vài thông số ở đây. Cái đầu tiên sẽ là có bao nhiêu đơn vị trong lớp. Vì vậy, chúng ta sẽ sử dụng
128 đơn vị hoặc 128 nơ-ron trong lớp, sau đó chúng ta sẽ vượt qua chức năng kích hoạt
Điều này giống như chức năng. Giống như tôi đã nói như chức năng bước hoặc chức năng sigmoid
Điều gì sẽ khiến nơ-ron đó cháy hoặc loại lửa bất cứ thứ gì vì vậy chúng tôi sẽ sử dụng mộng TF

English: 
Layer, and so you need to flatten it before that layer. So it's it's it's used for more than then the input layer
We're just use it for the input layer
Just to make our lives easier. So once we've got that
That's our input layer. Now. We want to do our hidden layers again
We're going to go with I think just two hidden layers. This isn't a complex problem to solve
So again, we're going to use the model set up model dot add syntax and we're gonna add and in fact
I think what I'm gonna do is copy paste and then rather than a flattened layer it's a dense layer in the dense layer
We're gonna pass a couple parameters here. So the first one is gonna be how many units in the layer. So we're gonna use
128 units or 128 neurons in the layer, then we're gonna pass the activation function
This is like the function. Like I said like a stepper function or a sigmoid function
What is gonna make that neuron fire or sort of fire whatever so we're gonna use TF tenon

English: 
Lu for rectified linear, this is kind of the default go-to
Activation function just use it as your default and then later you can tweak it to see if you can get better results
But it's a pretty good one to always fall back on
So we're gonna add the second one just by copying and pasting
Again, I'm gonna add a final one and this is our output layer, which is still going to be a dense layer
It's not a hundred and twenty eight your output layer will always if it's in the case of classification
Anyways, it'll have your number of classifications in our case. That's ten and
the activation function we don't want it to be rel you because we actually this is like a
Probability distribution so we want to use softmax for a probability distribution. So
That is our entire model. We're done with defining, you know, the the architecture I guess of our model
Now what we need to define is some parameters for the training of the model
So here we're going to say model dot compile and in here
We're gonna pass some we're gonna pass the optimizer that we want to use

Vietnamese: 
Lu cho tuyến tính chỉnh lưu, đây là loại đi đến mặc định
Chức năng kích hoạt chỉ sử dụng nó làm mặc định của bạn và sau đó bạn có thể điều chỉnh nó để xem liệu bạn có thể có kết quả tốt hơn không
Nhưng đó là một điều khá tốt để luôn luôn quay trở lại
Vì vậy, chúng tôi sẽ thêm cái thứ hai chỉ bằng cách sao chép và dán
Một lần nữa, tôi sẽ thêm một lớp cuối cùng và đây là lớp đầu ra của chúng tôi, lớp vẫn sẽ là một lớp dày đặc
Nó không phải cứ luôn luôn là 128 lớp đầu ra  nếu trong trường hợp phân loại
Dù sao, nó sẽ có số lượng phân loại của bạn trong trường hợp của chúng tôi. Đó là mười và
chức năng kích hoạt chúng ta không muốn nó liên quan đến bạn bởi vì chúng ta thực sự giống như một
Phân phối xác suất vì vậy chúng tôi muốn sử dụng softmax để phân phối xác suất. Vì thế
Đó là toàn bộ mô hình của chúng ta. Chúng ta đã hoàn thành việc xác định, bạn biết đấy, kiến ​​trúc tôi đoán về mô hình của chúng tôi
Bây giờ những gì chúng ta cần xác định là một số tham số cho việc đào tạo mô hình
Vì vậy, ở đây chúng ta sẽ giả sử mô hình chấm compile và ở đây
Chúng ta sẽ qua một số chúng ta sẽ qua trình tối ưu hóa mà chúng ta muốn sử dụng

English: 
We're gonna pass the loss metric which loss you don't know we haven't really talked about it loss is the degree of error
Basically, it's it's it's it's what you got wrong. So a normal network doesn't actually attempt to optimize for accuracy
It doesn't try to maximize accuracy. It's always trying to minimize loss
So the way that you calculate loss can make a huge impact because it's it's what's the losses?
relationship to your
to your accuracy op timer
Optimizer
Okay, so the optimizer that we're going to use is going to be the Adam optimizer you could use something
this is basically it's just your it's your
It's the this is like the most complex part of the entire neural network
So if you're familiar with gradient descent, you could pass something like stochastic gradient descent
But the Adam optimizer kind of like the rectified linear is the you know
Just kind of the default go-to optimizer you can use others

Vietnamese: 
Chúng ta sẽ qua chỉ số mất mát mà bạn không biết rằng chúng ta chưa thực sự nói về sự mất mát đó là mức độ lỗi
Về cơ bản, đó là những gì bạn đã sai. Vì vậy, một mạng bình thường không thực sự cố gắng tối ưu hóa cho chính xác
Nó không cố gắng tối đa hóa độ chính xác. Nó luôn cố gắng giảm thiểu mất mát
Vì vậy, cách bạn tính toán mất mát có thể tạo ra một tác động lớn bởi vì đó là mất mát?
liên quan với bạn
để tối ưu chính xác của bạn
Trình tối ưu hóa
Được rồi, vì vậy trình tối ưu hóa mà chúng ta sẽ sử dụng sẽ là trình tối ưu hóa Adam mà bạn có thể sử dụng
về cơ bản nó chỉ là của bạn
Đây giống như là phần phức tạp nhất của toàn bộ mạng lưới thần kinh
Vì vậy, nếu bạn quen thuộc với độ dốc gốc, bạn có thể vượt qua thứ gì đó như độ dốc dốc ngẫu nhiên
Nhưng loại tối ưu hóa Adam giống như tuyến tính được chỉnh lưu là những gì bạn biết
Chỉ cần loại tối ưu hóa đi đến mặc định, bạn có thể sử dụng những người khác

English: 
There's lots of them not lots, but I don't know ten or so in Karis anyways, so anyways
There's other ones to go with Adam seems to be the one that you should start with for loss again
There's many ways to calculate loss
probably the most popular one is a
categorical
Cross and true P or some version of that and that in this case, we're gonna use sparse
You can also use binary like in the case of cats versus dogs. You probably use binary in that case
But you could you could just kind of blanket categorical cross entropy everything
Anyways, then finally what what are the metrics we want to track like as we go and we're going to just do accuracy
accuracy
Okay. So once we have all this we're actually ready to to train the model
So to Train it's just model that fit and then you're gonna pass your what do you want to fit?
so X train X test, I'm sorry y

Vietnamese: 
Có rất nhiều trong số họ không nhiều, nhưng dù sao tôi cũng không biết mười hoặc hơn thế nữa ở Karis
Có những người khác đi cùng với Adam dường như là thứ mà bạn nên bắt đầu lại vì mất mát
Có nhiều cách để tính toán tổn thất
có lẽ phổ biến nhất là một
phân loại
Chữ thập và chữ P thật hoặc một số phiên bản của nó và trong trường hợp này, chúng tôi sẽ sử dụng sparse
Bạn cũng có thể sử dụng nhị phân như trong trường hợp mèo so với chó. Bạn có thể sử dụng nhị phân trong trường hợp đó
Nhưng bạn có thể chỉ cần loại entropy  phân loại mọi thứ
Dù sao, cuối cùng thì số liệu chúng ta muốn theo dõi là gì khi chúng ta đã làm và chúng ta sẽ làm chính xác
chính xác
Okay. Vì vậy, một khi chúng ta có tất cả những điều này, chúng ta thực sự sẵn sàng cho mô hình đào tạo
Vì vậy, để đào tạo nó chỉ là mô hình phù hợp và sau đó bạn sẽ qua những gì bạn muốn?
Vì vậy, X train X test, tôi xin lỗi y

Vietnamese: 
Ok X train  và sau đó là ba bộ não cho nó, được thôi, chúng ta hãy tiếp tục và chạy nó và
Chúng ta nên bắt đầu để được đào tạo
Hy vọng nó không làm tôi thất vọng khi tôi đang ghi âm nhưng không sao có vẻ tốt
Hãy phóng to ra một chút
Vì vậy, nó có vẻ tốt hơn một chút và chúng ta có thể thấy thực sự độ chính xác của chúng ta luôn khá tốt
Mất mát của chúng ta vẫn đang giảm vì vậy độ chính xác của chúng ta vẫn sẽ được cải thiện và chắc chắn đó là
Tuyệt vời, ok, vì vậy chúng ta đã làm khá tốt. Chúng ta có một
Độ chính xác 97% chỉ sau ba kỷ nguyên khá tốt
Vì vậy, một khi chúng ta có điều này, chúng ta có thể
Đây là trong mẫu. Vì vậy, điều này có thể sẽ luôn luôn thực sự kích thích bạn
Nhưng điều thực sự quan trọng cần nhớ là mạng lưới thần kinh rất phù hợp với câu hỏi liệu chúng có quá phù hợp không?
Vì vậy, ý tưởng hoặc hy vọng là mô hình của bạn thực sự khái quát, đúng là nó đã học
Các mô hình và thuộc tính thực tế cho chân để tạo ra 8 10

English: 
Ok X train white rain and then epochs three total brain for it, okay, let's go ahead and run that and
We should start to get some training
Hopefully it doesn't crash me as I'm recording but okay looks good
Let's zoom out just slightly
So it looks a little better and we can see actually our accuracy is always already quite well
Our loss is also still dropping so our accuracy should still be improving and sure enough it is
Awesome, ok, so we did pretty good. We got a
97% accuracy after only three epochs which is pretty good
so once we have this we can
This was in sample. So this might this is always gonna really excite you
But what's really important to remember is neural networks are great at fitting the question is did they over fit?
So the idea or the hope is that your model actually generalized, right it learned
Patterns and in actual attributes to the toe to what makes an eight ten

Vietnamese: 
điều gì làm cho một thay vì ghi nhớ từng mẫu bạn đã vượt qua và bạn sẽ ngạc nhiên khi dễ dàng
Mô hình chỉ có thể ghi nhớ tất cả các mẫu mà bạn đã qua để làm tốt nhất
Vì vậy, điều tiếp theo chúng ta muốn luôn luôn làm là tính toán
mất cho phép  trong sự cho phép
Độ chính xác, và đó chỉ là mô hình chấm đánh giá đánh giá
X test
Y test và
sau đó chúng ta sẽ tiếp tục và chỉ in sự mất mát đó và độ chính xác của Val và
Chúng ta có thể thấy ở đây sự mất mát gần như là điểm 11 và độ chính xác là ở 96 điểm 5
vì vậy ít hơn một chút so với kết quả mà chúng tôi đã kết thúc và mức lỗ tương đối cao hơn một chút, nhưng
Bạn nên mong đợi điều đó
Bạn nên kỳ vọng độ chính xác ngoài mẫu của mình sẽ thấp hơn một chút và mất mát của bạn sẽ cao hơn một chút
Những gì bạn chắc chắn không muốn thấy là quá gần hoặc quá nhiều đồng bằng nếu có một Delta lớn

English: 
what makes a for rather than memorizing every single sample you passed and you'd be surprised how easily a
Model can just memorize all the samples that you passed to do very well
so the next thing we want to always do is calculate the
validation loss in the validation
Accuracy, and that is just model dot evaluate evaluate
X tests
Y test and
then we'll go ahead and just print that loss and Val accuracy and
We can see here the loss is almost point 11 and the accuracy is at ninety six point five
so a little less than the one that we ended on and the loss is quite a bit higher relatively, but
You should expect that
You should expect your out-of-sample accuracy to be slightly lower and your loss to be slightly higher
What you definitely don't want to see is either too close or it too much of a delta if there's a huge Delta

Vietnamese: 
Có thể bạn có thể đã quá sức và bạn muốn quay số lại một chút. Vì thế
Về cơ bản đó là tất cả mọi thứ
theo như những điều cơ bản của
Karos và tất cả những thứ đó
những điều khác mà tôi không bận tâm
Bao gồm ở đây giống như nếu bạn muốn lưu một mô hình và tải một mô hình
Đó chỉ là mô hình lưu điểm và chúng ta có thể lưu nó dưới dạng epoch num
người đọc
model và
Sau đó, nếu bạn muốn tải lại mô hình đó
Chúng ta sẽ lưu nó vì nó sẽ gọi mô hình gạch dưới mới sẽ bằng với TF. Keras models chấm load model
Và đây là tên mô hình chính xác
mẹ kiếp`
Vì vậy, đó là mô hình mới của chúng ta
Và cuối cùng, nếu chúng ta muốn đưa ra một dự đoán, chúng ta có thể nói dự đoán bằng với dấu chấm mô hình mới
Dict và ghi nhớ dự đoán luôn luôn có một danh sách. Điều này sẽ giúp bạn một vài lần cho chắc chắn
Nhưng dù sao, họ sẽ lấy một danh sách và chúng tôi sẽ thực hiện X gạch dưới
kiểm tra và

English: 
Chances are you probably already have over fit and you'd want to like kind of dial it back a little bit. So
That's basically everything
as far as the basics of
Karos and all that
the only other things that I wouldn't mind
Covering here is like if you want to save a model and load a model
It's just model dot save and we can save this as epoch num
reader
model and
Then if you want to reload that model
We'll save it as it will call the new underscore model that's going to be equal to TF. Caras models dot load model
And it's this exact model name
Whoops. There we go
So that's our new model
And then finally if we wanted to make a prediction we could say predictions equals new model dot
Dict and keep in mind predict always takes a list. This will get you a few times for sure
But anyways, they'll take a list and we'll do X underscore
test and

Vietnamese: 
Sau đó, nếu chúng ta chỉ in dự đoán, có lẽ nó sẽ không quá thân thiện
Nó hơi lộn xộn. Vì thế
Những gì đang xảy ra ở đây? Đây là tất cả một mảng nóng và nó là nó. Đây là những phân phối xác suất của chúng ta
Vậy chúng ta phải làm gì với những thứ này để tôi sẽ sử dụng numpy, bạn cũng có thể sử dụng TF để arc max, nhưng đó là một bản tóm tắt
Đó là một ten xơ và chúng ta phải kéo nó xuống. Chúng ta cần một phiên và tất cả những thứ đó
Chỉ đơn giản là import numpy như hướng dẫn này ở đây
import numpy as NP và sau đó print NP arg max hoặc max
Hãy dự đoán
Và hãy đoán chiều rộng bằng không. Okay
Giả sử là bảy
Vì vậy, dự đoán cho phép thử X bằng 0 như chỉ số 0 là bảy
Vì vậy, gee nếu chỉ có chúng tôi có một cách để vẽ nó. Được rồi, chúng tôi chắc chắn có thể làm điều này để chúng tôi có thể làm PLT
Tôi chắc chắn và chúng tôi sẽ làm X test
không với và
Sau đó chấm PLT chấm show. Oh

English: 
Then if we just print predictions, it's probably not gonna look too friendly
It's a little messy. So
What's going on here? These are all one hot arrays and it's it. These are our probability distributions
So what do we do with these so I'm gonna use numpy you can also use TF to arc max, but it's an abstract
It's a tensor and we have to pull it down. We need a session and all that
It's just easier to import numpy for at least for this tutorial here
import numpy as NP and then print for example NP arg max or max
Let's do predictions
And let's just do the zero width prediction. Okay
It says it's a seven
So the prediction for X test zero like the 0th index is it's a seven
So gee if only we had a way to draw it. Okay, we can definitely do this so we can do PLT
I'm sure and we're gonna do X test
zero with and
Then PLT dot show. Oh

Vietnamese: 
Nhìn kìa. Đó là bảy
Okay
Vì vậy, tôi nghĩ rằng về cơ bản đó là tất cả những điều tôi muốn cho các bạn thấy, chỉ là một cách nhanh chóng
bạn biết QuickStart với
Deep learning và Python và caris và tenorflow điều này chỉ làm trầy xước bề mặt. Có rất nhiều thứ để chúng tôi làm
Chắc chắn có kế hoạch để có ít nhất một video theo dõi
Bao gồm những thứ như tải và bên ngoài bộ dữ liệu và chắc chắn một số bảng ten xơ đọc mô hình hiểu những gì đang xảy ra
và điều gì đang xảy ra vì điều đó
Cuối cùng, bạn biết đấy, thật sự rất vui khi tôi thực hiện các hướng dẫn và vấn đề hoặc như đã được giải quyết và chúng ta biết câu trả lời
Nó rất thú vị. Nhưng trong thực tế rất nhiều lần bạn phải đào bới để tìm ra mô hình hoạt động với dữ liệu của bạn. Vì thế
Dù sao, đó chắc chắn là thứ chúng ta phải dấu hoặc ít nhất là bạn sẽ phải học bằng cách này hay cách khác
Dù sao, đó là tất cả cho bây giờ. Nếu bạn có câu hỏi ý kiến ​​quan tâm, bất cứ điều gì. Hãy để lại dưới đây

English: 
Look at that. It's a seven
Okay
So I think that's basically all the things I would want to show you guys as far as like just a quick in
you know QuickStart with
Deep learning and Python and caris and tensorflow this just barely scratches the surface. There's so many things for us to do I
Definitely plan to have at least one more follow-up video
Covering things like loading and outside datasets and definitely some tensor board reading the model understanding what's going on
and also what's going wrong because that's
Eventually, you know, it's really fun when we're doing tutorials and problems or like already solved and we know the answer
It's very exciting. But in reality a lot of times you have to dig to find the model that works with your data. So
Anyways, that that's definitely something we have to cover or at least that you're gonna have to learn somehow or other
Anyway, that is all for now. If you got questions comments concerns, whatever. Feel free to leave them below

English: 
Definitely check out red comm slash are slash machine learning the learned machine learning subreddit
You can come join our discord
If you've got questions, that's just discord dot G G slash cent decks will get you there. Also special. Thanks to my most recent
Channel members Daniel Jeffrey KB AB Ajit H nur Newcastle geek fubá 44 Jason and eight counts
Thank you guys so much for your support without you guys. I couldn't do stuff like this. So really, thank you
Anyways, that's it for now more to come at some point until next time

Vietnamese: 
Chắc chắn kiểm tra dấu gạch chéo màu đỏ là máy chém học máy subreddit đã học
Bạn có thể đến tham gia cùng chúng tôi
Nếu bạn có câu hỏi, đó chỉ là thắc mắc thì bạn sẽ đưa bạn đến đó. Cũng đặc biệt. Cảm ơn
 
Cảm ơn các bạn rất nhiều vì đã hỗ trợ mà không có các bạn. Tôi không thể làm những thứ như thế này. Vì vậy, thực sự cảm ơn bạn
Dù sao, đó là bây giờ sẽ đến nhiều hơn vào một thời điểm nào đó cho đến lần tiếp theo
