이번 주에는 신경망 구현을 배우겠습니다
기술적인 부분을 다루기 전에
이번주 영상에서 
다룰 내용을 먼저 살펴보겠습니다
이 영상을 다 이해하지 못하셔도 괜찮습니다
다음 영상들에서
더 기술적인 부분을 다룰 겁니다
지금은 신경망을 어떻게 구현하는지에 대한
개요를 살펴보겠습니다
지난주에는 로지스틱 회귀를 다뤘습니다
이 모델이 이 계산 그래프와 일치한다는 것도 봤죠
특성 x와 변수 w, b를 입력하면
z를 계산하는 겁니다
z는 ŷ라고도 썼던
a를 계산하는데 쓰입니다
마지막으로 손실 함수인 L을 계산할 수 있죠
신경망은 이렇게 생겼습니다
제가 전에 말한 것처럼 신경망은
시그모이드 유닛을 쌓아서 만들 수 있습니다
이 노드는 z를 계산하고 a를 계산하는
두 단계로 이루어졌습니다
이 노드는 z를 계산하고 a를 계산하는
두 단계로 이루어졌습니다
이 노드는 z를 계산하고 a를 계산하는
두 단계로 이루어졌습니다
신경망에서 이 노드들은 z와 a를 계산 하고
신경망에서 이 노드들은 z와 a를 계산 하고
신경망에서 이 노드들은 z와 a를 계산 하고
이 노드는 또 다른 z와 a를 계산합니다
이후에 사용할 표기법은 위와 같습니다
이후에 사용할 표기법은 위와 같습니다
특성인 x와 변수 W와 b를 입력하면
z^[1]을 계산합니다
새로운 표기법에서는
층이라고 불리는 일련의 노드 값을
위첨자 [1]를 사용해 표기하겠습니다
나중엔 위첨자 [2]를 사용해
이 노드와 관련된 값을 표기하겠습니다
나중엔 위첨자 [2]를 사용해
이 노드와 관련된 값을 칭하겠습니다
신경망의 또 다른 층이죠
대괄호 위첨자와 각 훈련 샘플을 뜻하는 
소괄호 위첨자를 헷갈리시면 안됩니다
대괄호 위첨자와 각 훈련 샘플을 뜻하는 
소괄호 위첨자를 헷갈리시면 안됩니다
대괄호 위첨자와 각 훈련 샘플을 뜻하는 
소괄호 위첨자를 헷갈리시면 안됩니다
x^(i)는 i번째 훈련 샘플을 뜻하지만
x^(i)는 i번째 훈련 샘플을 뜻하지만
위첨자 [1]과 [2]는 이 신경망의
1, 2번 레이어를 뜻합니다
로지스틱 회귀와 비슷하게 z^[1]을 계산한 뒤
σ(z^[1])인 a^[1]을 계산해줍니다
그 후에 다른 선형 식을 사용하여
z^[2]를 계산합니다
그 후에 다른 선형 식을 사용하여
z^[2]를 계산합니다
그 후에 다른 선형 식을 사용하여
z^[2]를 계산합니다
다음엔 ŷ라고도 쓸 수 있는
신경망의 최종 출력값인 a^[2]를 계산해줍니다
다음엔 ŷ라고도 쓸 수 있는
신경망의 최종 출력값인 a^[2]를 계산해줍니다
설명이 많았지만 여기서 배워야 할 직관은
로지스틱 회귀에선 z와 a를 계산했지만
신경망에서는 z와 a를
여러 번 계산해줍니다
마지막으로 손실을 계산하죠
로지스틱 회귀에서는 도함수 계산을 위해
역방향 계산을 했었습니다
로지스틱 회귀에서는 도함수 계산을 위해
역방향 계산을 했었습니다
로지스틱 회귀에서는 도함수 계산을 위해
역방향 계산을 했었습니다
da와 dz를 계산했죠
신경망에서도 마찬가지로
역방향 계산을 합니다
이런식으로 계산을 해주고
da^[2]와 dz^[2]를 계산합니다
da^[2]와 dz^[2]를 계산합니다
da^[2]와 dz^[2]를 계산합니다
그 값을 가지고 dW^[2]와 db^[2]를 계산하죠
그 값을 가지고 dW^[2]와 db^[2]를 계산하죠
그 값을 가지고 dW^[2]와 db^[2]를 계산하죠
오른쪽에서 왼쪽으로 가는
빨간 화살표로 표시되는 역방향 계산이 됩니다
오른쪽에서 왼쪽으로 가는
빨간 화살표로 표시되는 역방향 계산이 됩니다
신경망이 어떤 모습인지 간단히 살펴봤습니다
로지스틱 회귀를 두 번
반복해주는 것 뿐입니다
새로운 표기법과 세부사항이 많았지만
걱정하지 마세요
새로운 표기법과 세부사항이 많았지만
걱정하지 마세요
이어지는 강좌에서 더 자세히 다루겠습니다
다음 영상에서는
신경망 표현법에 대해 얘기하겠습니다
다음 영상에서는
신경망 표현법에 대해 얘기하겠습니다
