신경망 그림을 그려 보았습니다
이 영상에선 그 그림들이
무엇을 뜻하는지 다루겠습니다
다시 말해 신경망 그림을 그렸던 게
정확히 뭘 묘사하는 지에 대한 것이죠
먼저 은닉 층이 하나인 신경망에 집중하겠습니다
신경망의 그림입니다
그림 부위별로 이름을 붙여주죠
입력 특성 x_1, x_2, x_3가 세로로 쌓여있는 건
신경망의 입력 층이라고 불립니다
입력 특성 x_1, x_2, x_3가 세로로 쌓여있는 건
신경망의 입력 층이라고 불립니다
당연하게 이 층엔 신경망의 입력이 있습니다
신경망의 은닉 층이라고 불리는
또 다른 층이 있습니다
신경망의 은닉 층이라고 불리는
또 다른 층이 있습니다
조금 뒤에 은닉이 무슨 뜻인지 말하도록 하죠
여기 노드 하나로 이루어진 마지막 층은
출력층이라고 불립니다
여기 노드 하나로 이루어진 마지막 층은
출력층이라고 불립니다
예측 값인 ŷ의 계산을 책임지죠
지도 학습으로 훈련시키는 신경망에선
훈련 세트가
입력값 X와 출력값 Y로 이루어져 있습니다
은닉층의 실제 값은
훈련 세트에 기록되어 있지 않습니다
은닉층의 실제 값은
훈련 세트에 기록되어 있지 않습니다
훈련 세트에서 무슨 값인지 모른다는 거죠
입력값과 출력값은 알 수 있지만
은닉층의 값들은 알 수 없습니다
따라서 은닉층이라는 이름은
훈련 세트에서 볼 수 없다는 걸 의미합니다
다른 표기법도 봅시다
전에는 입력 특성을 나타내기 위해
벡터 X를 썼는데요
입력값의 다른 표기법은
a^[0]가 됩니다
입력값의 다른 표기법은
a^[0]가 됩니다
a는 활성값을 의미하고 신경망의 층들이
다음 층으로 전달해주는 값을 의미합니다
a는 활성값을 의미하고 신경망의 층들이
다음 층으로 전달해주는 값을 의미합니다
입력층은 X를 은닉층으로 전달해주죠
a^[0]은 입력층의 활성값이라고 부릅니다
다음 층인 은닉층은 활성값 a^[1]을
만듭니다
이 첫 번째 노드는 a_1^[1]을 만들고
두 번째 노드는 a_1^[1]을 만들죠
이 첫 번째 노드는 a_1^[1]을 만들고
두 번째 노드는 a_1^[1]을 만들죠
따라서 a^[1]는 4차원 벡터가 됩니다
파이썬에서는 이렇게 생긴
(1, 4) 행렬 혹은 열 벡터라고 할 수 있겠네요
4차원인 이유는 이 은닉층에
은닉 노드가 네 개 있기 때문입니다
4차원인 이유는 이 은닉층에
은닉 노드가 네 개 있기 때문입니다
출력층은 실숫값 a^[2]를 만들게 됩니다
ŷ는 a^[2]의 값을 가지게 되죠
로지스틱 회귀에서
ŷ가 a의 값을 가지는 것과 비슷합니다
로지스틱 회귀에선 출력층 하나만 있어서
대괄호 위첨자를 쓰지 않았지만
신경망에서는 위첨자를 사용해
어떤 층에서 만들어진 건지 표기해줄 겁니다
신경망 표기 관례에서 조금 이상한 점은
여기 보시는 이 신경망은
2층 신경망이라고 불린다는 겁니다
신경망의 층을 셀 때 입력층은 세지 않기 때문이죠
은닉층이 첫 번째 층이고
출력층이 두 번째 층입니다
표기 관례에선 입력층을
0번째 층이라고 하기 때문에
이 신경망엔 입력층, 은닉층, 출력층 이렇게
층이 세 개 있다고 할 수도 있죠
이 신경망엔 입력층, 은닉층, 출력층 이렇게
층이 세 개 있다고 할 수도 있죠
하지만 관례적으로 논문이나 이 수업에서는
이 신경망을 2층 신경망이라고 부릅니다
입력층을 세지 않기 때문입니다
나중에 알게 되겠지만 은닉층과 출력층은
연관된 매개변수가 있다는 것입니다
은닉층은 매개변수 w^[1]과 b^[1]에 관련되어있고
은닉층은 매개 변수 w^[1]과 b^[1]에 관련되어있고
은닉층은 매개 변수 w^[1]과 b^[1]에 관련되어있고
은닉층은 매개 변수 w^[1]과 b^[1]에 관련되어있고
첫 번째 층인 은닉층에 관련된 변수이기 때문에
위첨자 [1]을 붙였습니다
w는 (4, 3) 행렬이 되고
b는 (4, 1) 벡터가 됩니다
w는 (4, 3) 행렬이 되고
b는 (4, 1) 벡터가 됩니다
w는 (4, 3) 행렬이 되고
b는 (4, 1) 벡터가 됩니다
4는 이 층에 은닉 노드가 네 개가 있기 때문이고
3은 입력 특성이 세 개이기 때문입니다
4는 이 층에 은닉 노드 네 개가 있기 때문이고
3은 입력 특성이 세 개이기 때문입니다
나중에 행렬의 차원에 대해 다루면
더 잘 이해할 수 있을 겁니다
출력층도 비슷하게
w^[2]와 b^[2]에 관련되어있고
출력층도 비슷하게
w^[2]와 b^[2]에 관련되어있고
차원은 (1, 4)와 (1, 1)이 됩니다
(1, 4)는 은닉층에 은닉 노드 네 개가 있고
출력층에는 노드 한 개가 있기 때문이죠
나중에 이 행렬과 벡터의 차원을
더 자세히 다루겠습니다
은닉층이 하나인 2층 신경망이
어떻게 생겼는지 살펴봤습니다
다음 영상에선 이 신경망이
정확히 뭘 계산하는지 알아봅시다
다음 영상에선 이 신경망이
정확히 뭘 계산하는지 알아봅시다
입력 X를 받아 출력 ŷ를 계산하는 방법을 보죠
입력 X를 받아 출력 ŷ를 계산하는 방법을 보죠
