당신은 뛰어난 운전자인가요?
대답은, "아니오"
안녕하세요 여러분, Siraj입니다
좋던 싫던 자율 주행 차는 교통수단의 미래입니다
이번 영상에서는 놀랍도록 간단한
데모를 보여드릴 겁니다
자동차가 어떻게 사람을 흉내내는지
딥러닝을 사용한 시뮬레이션을 만들었습니다
Lyft나 웨이모 같은
주요 기술 기업들은
도요타나 GM과 같은
제조 기업 만큼이나
자율 주행 기술 개발에
수조 원을 투자하고 있습니다
자율 주행 차 시장이 언젠가
수천조 원의 가치가 있다고 믿으면서요
자율 주행 버스나 셔틀은 현재도
도시와 공항 내에 배치되어 있고
무인 트럭 역시 이미
장거리 맥주 운송에 사용 중입니다
머지 않아 자율 주행 비행 택시도
볼 수 있을 것 같습니다
이런 혁명적인 발전은
우리에게 아주 이롭습니다
자율 주행 차는
운송 비용을 크게 감소시켜줍니다
인건비가 줄기 때문이죠
또한 자율주행 공유 전기차들을 
사용하게 되면
현재 교통 수단의 10%만을 필요로 하고
이는 이산화탄소 배출량을 줄여줍니다
특히 소규모 화물차량들에서요
자율 주행 차량의 시대가 되면
우리는 도시를 자동차가 아닌
사람들을 위한
아름답고 창의적인 공간으로
재구성할 수 있습니다
가장 훌륭한 점은
모두에게 더 안전한 환경을
제공한다는 것입니다
미국 고속도로 교통 안전 관리국에 따르면
자동차 사고의 90% 이상이
인적 오류에 기인한다고 합니다
즉 자율 주행 차는
생명을 구할 잠재력이 있습니다
에어백, 안전 벨트, 주행 안정 장치
그 모든 것을 합친 것보다 말입니다
도로 안전을 위한
제일의 기술이라는 것이죠
불행히도 Uber의 자율 주행 자동차가
국제적으로 헤드라인을 장식했는데요
애리조나에서 보행자와
충돌하였기 때문입니다
Uber의 엔지니어들이
무엇이 문제인지 고민하게 됨과 동시에
법적 규제의 영역에 관한 질문도
시사하게 되었습니다
우리는 누가 이런 사고에 대해서
책임이 있는지 답할 수 있어야 합니다
어떻게 자율 주행 차가
사람 목숨을 저울질할 수 있을까요?
자율 세차는
어떻게 가능하게 할까요?
자율 주행은 물론
비싼 기술이지만
차량의 소프트웨어를 만드는
린 스타트업을 위한 영역이 분명히 있습니다
Level-5 는 소프트웨어를 만들고 데이터를
수집합니다
이것은 전세계를 대상으로 자율 주행 차를
만들기 위해서 필요한 것입니다
Nauto는 차량을 더 안전하게 만드는 데
목표를 두고 있습니다
인간 운전자의 행동 데이터를
수집해서 말입니다
그리고 여기에는 다수의 차량과 함께
블록체인 기술이 적용되어
심지어는 훨씬 자율적인 시스템도
만들 수 있습니다
포르쉐가 이를 접목하여
차량이 내리는 결정을
더 투명하게 만들려고
시도하고 있습니다
가능성에 대해서는
충분히 보았으니
이제 이게 어떻게 작동하는지
알아보도록 합시다
자율 주행 차의 파이프라인은
5개의 핵심 요소로 구성됩니다
컴퓨터 비전, 센서 통합, 지역화
경로 탐색, 그리고 제어의 순서입니다
컴퓨터 비전은 파이프라인의
첫 번째 단계입니다
카메라가 도로를
어떻게 보는가에 관한 것이죠
인간은 이 시야 문제를
핸들을 조종하는 것으로 해결합니다
두 눈과 뇌를 이용해서 말입니다
자율 주행 차는 카메라의 이미지로
차선을 찾고 다른 차량을 식별하죠
대부분이 2개의 카메라보다
많은 수를 사용합니다
예를 들어 테슬라는
8개의 카메라를 사용하여
360도의 시야각과
250미터의 시야 범위로
인간을 뛰어넘는
시각 능력을 가지게 되죠
카메라가 수행하는 일은
매우 많습니다
차선 식별과 도로 곡률 추정
장애물 탐지 및 분류
교통 신호 탐지 등이 있죠
그게 주요 업무의 일부입니다
보행자가 길을 건너는 상황을
상상해보죠
차량은 먼저 물체가 카메라 이미지의
어디에 있는지 찾아야 합니다
우리는 그것을
탐지라고 부릅니다
그러면 그게 무엇인지 결정해야겠죠
그걸 분류라고 부릅니다
딥러닝이 비디오와 이미지를 다루는
가장 정확한 접근법으로 등장했습니다
신경망에게 정지 신호를
학습시키기 위해
수천 개의 정지 신호 이미지를
넣어주었습니다
그러자 신호의 추상적인 형태를
점차 학습했습니다
모든 형태의 정지 신호를
분류하기 위해서 말이죠
이건 색상 추출과
낮은 단계 특징에 집중했던
고전적인 비전 접근방식보다
훨씬 효율적입니다
차량에 사용할 수 있는 센서에는
카메라 외에도 다양한 것들이 있습니다
스파이더맨이 방사선 거미에 물리는 것처럼 말이죠
*스파이더맨의 Spider Sense 말장난
센서 통합이란
다른 센서에서의 데이터를
카메라의 데이터와 통합하여
차량의 환경을 완벽하게
이해하는 것을 말합니다
다른 센서인 엑셀은 카메라만큼
거리나 속도를 측정하는 데 좋습니다
어떤 센서들은 날씨를 파악하는 데 
더 좋은 성능을 보이죠
우리의 센서 데이터를 통합함으로써
주변 환경을 더 잘 이해할 수 있습니다
각각의 센서는 그 종류마다
쓰임새가 다릅니다
레이더는 물체와의 거리나
물체의 속력을 계산하는 데 뛰어나죠
하지만 레이더의 식별 능력은
꽤 떨어질 수 있습니다
앞에 무엇인가가 있음을
알려주지만
정확히 무엇인지는
알려주지 않죠
그래서 라이다가 등장합니다
라이다는 펄스된 레이저 빔을 방출하여
3차원 점의 구름을 생성합니다
라이다는 레이더와 카메라의
중간 정도에 있다고 볼 수 있습니다
차량이 멀리 떨어진 물체를 
식별하고 또한 추적할 수 있게 하죠
반면 초음파 센서는
가까운 거리를 감지합니다
그래서 주차할 때와 같이 측면의 움직임을
감지하는 데 효과적입니다
그렇게 모든 센서의 데이터를 모아
필터라고 불리는 것을
사용합니다
필터에도 많은 종류가 있지만
가장 유명한 것은 칼만 필터입니다
칼만 필터는 확률과
측정 갱신 사이클에 의존하여
환경을 확률적으로 이해합니다
다른 차량이 움직이는 속도를
예측하는 것처럼 말이죠
칼만 필터는 시스템의 상태와
추측 불확실성의 분산을 추적합니다
추측은 상태 변환 모델을
사용하여 업데이트됩니다
은닉 마르코프 모델과 비슷하죠
다음으로 지역화는
현재 위치를 파악하고
주변 환경을 파악한 다음에
무엇을 해야 하는지 결정합니다
우리의 핸드폰은
GPS를 장착하고 있어서
이런 역할을 수행할 수 있죠
하지만 GPS는 2미터 정도의
오차범위를 가집니다
만약 차가 실제로는
그정도 거리만큼 떨어져 있다면
치명적인 사고로
이어질 수 있겠죠
따라서 2cm 오차범위 내로
지역화를 더 잘하기 위해서
더욱 정교한 알고리즘이 사용됩니다
차량이 보고 있는 점 데이터군과
지도상의 점 데이터군을 매칭해서
차량 주변의 특정 
랜드마크와의 거리를 측정합니다.
우체통, 기둥, '차일디쉬 감비노' 같은 것들 말이죠 
*유명 연예인 이름
다음 단계는 경로 탐색입니다
주변 환경과 거기서 자신의 위치를
파악한 다음 수행하는 단계입니다
자동차는 목적지를 향해
궤적을 그리게 됩니다
먼저 주변의 다른 차량이
어떻게 움직일지 예측하고
어떤 반응을 하여
운전할지 정합니다
마지막으로 안전하게 운전할 수 있도록
궤적을 설정합니다
파이프라인의 마지막 단계는
제어입니다
차량이 궤적을 가지고 있다면
그에 따라 핸들을 돌리고 엑셀이나
브레이크를 밟아야 합니다
우리가 자동차의 경로를 가지고 있다면
그대로 따라갈 수 있도록
제어해야겠죠
이는 때때로
매우 까다로운 작업입니다
높은 속력에서
급커브를 돌 때처럼요
카레이서들이 잘하는 일이기도 하지만
컴퓨터도 정말 잘하는 일입니다
제어 이론은
물체의 움직임을 제어하기 위해
어떻게 힘을 가해야 하는지에
관한 연구입니다
당장 이것에 대해
더 자세히 알아보지는 않을 것입니다
하지만 Brian Douglas의
제어 이론에 대한
훌륭한 영상이 있습니다
링크를 달아놓았습니다
참 많은 단계들이 있죠?
자 이제 뭔가를 만들어 봅시다
Udacity에는 꽤 유명한
자율 주행 관련 나노학위가 있습니다
프로젝트 중 하나인 behavioral cloning은
오픈소스화 되어 있습니다
차량을 운전하거나 훈련시키는 모두가
직접 사용할 수 있도록
커스텀 시뮬레이터를
만들었습니다
Keras를 사용한 신경망을 통해
인간의 핸들 사용을 흉내낼 수 있습니다
그러기 위해서 신경망은
전방 카메라의 프레임을 입력받고
각각의 상황마다
핸들의 방향을 예측합니다
입력된 카메라 이미지와
움직일 방향 사이의
간단한 매핑 관계를
학습하는 것이죠
방향키를 통해 운전하는
모든 데이터가 저장되고
그 데이터셋을 통해
쉽게 학습시킬 수 있습니다
합성곱 신경망은
이미지를 학습하여
이미지 데이터 집합의
추상적인 묘사를 확립합니다
합성곱 신경망에 대한
좋은 영상이 있으니
설명란의 링크를 참조하세요
학생들은 이 모델을 훈련시키는 데
어떤 시간적, 공간적 제약이 없고
어떤 GPU로도 가능하다고 보고했습니다
이 프로젝트를 수행하는 것은
꽤나 쉽습니다
한 번 살펴보시기를
강력하게 추천드립니다
이 비디오의 요점은
세 가지입니다
자율 주행 차는
교통수단의 미래입니다
이미 실제로 배치되어 있고
조만간 흔하게 볼 수 있을 겁니다
자율 주행 차는
컴퓨터 비전, 센서 통합, 지역화,
경로 탐색, 그리고 제어를 통해
주변 환경을 탐험합니다
또한 Udacity 시뮬레이터로
각자의 로컬 머신에서
자율 주행 차를
학습시켜볼 수 있습니다
모두 이해하셨나요?
그러셨으리라 믿습니다
구독 버튼을 눌러주세요
모든 코드는 무료로 배포됩니다
저는 이만 대중교통을 타러 가봐야겠네요
시청해주셔서 감사합니다
