2021년 11월 30일 화요일

많은 수의 IT, 자동차 기업들이 자율주행을 위해 많은 투자를 하고 장밋빛 미래를 제시하고 있다. 하지만 자율주행 기술 선두에 있는 테슬라가 레벨 2.5~3으로 평가받고 있으며, 많은 자율주행 기업들이 레벨 3 이상으로 넘어가는 데에서 많은 기술적, 제도적 어려움을 겪고 있다. 레벨 2까지는 도로의 기본적인 정보(차선, 차량 등)를 기반으로 제한적인 상황에서 단순한 주행을 하는 것이기 때문에, 비교적 변수가 적고 많은 자동차 회사들에서도 그 기술을 상용화하고 있다.

하지만 레벨 3부터는 기술 요구 수준이 차원이 달라진다. 몇몇 전문가들은 레벨 4 수준의 기술 구현은 시기상조라고 내다보고 있으며, 그 근거로 스마트 도로 시설 등의 인프라 구축에 천문학적 비용이 필요하다고 말한다1. 즉, 그들은 자율주행을 위한 AI 기술이 인간 운전자의 수준에 이르기는 어렵고, 인프라 구축을 통해 변수를 통제해야 한다고 보는 것이다(물론 기술적인 난이도 외에 정책, 사회적 영향, 책임 소지 및 보안 등의 문제도 있다).

SAE 자료. 단계별 자율주행 구분

최근 테슬라 AI 데이를 보면 그들의 생각은 조금 달라 보인다. 그들은 해결하기 어려운 변수들을 외부적인 방법으로 통제함으로써 부분적으로나마 빠르게 완전 자율주행을 상용화하는 방향보다는, 차의 지능 그 자체를 끌어올리는 방향에 초점을 맞추는 모습을 보여준다.

이번 글에서는 테슬라 AI 데이에서 발표된 프레젠테이션의 기술적인 내용들을 다룬다. 해당 프레젠테이션은 AI 전문가들을 채용하기 위해 기획된 세션으로 많은 기술적인 내용을 상당히 압축하여 포함하고 있으며, 각 세션 별로 어떻게 기술을 발전시켜나가고 있는지 그 과정과 비전을 보여주고 있다. 프레젠테이션의 큰 맥락은 다음 4가지로 볼 수 있는데, 각 세션 별로 현재 사용되는 주요 기술에 초점 맞추어 요약하고, 생략 혹은 압축된 내용을 부연 설명하되 Hardware에 대한 부분은 글에서 다루지 않는다.

  • Vision – 차량에 부착된 카메라를 통해 얻어진 정보를 효과적인 특징으로 표현하는 방법.
    • 비디오 기반 딥러닝 모델을 이용하여 영상을 벡터 공간으로 변환
  • Planning – vision 정보를 이용하여 안전하고 효율적으로 목적지에 도달하기 위한 주행 판단을 하는 방법.
    • 딥러닝 기반 강화학습을 이용한 효율적인 주행 시스템
  • Data – 실 세계에 있는 수많은 정보를 어떻게 레이블링하고, 획득하기 어려운 상황을 활용하는 방법
    • 테슬라 시스템에 맞는 효율적인 레이블링, 자동 레이블링과 시뮬레이터
  • Hardware – AI의 학습을 위한 막대한 컴퓨팅과 효율적인 추론을 위한 컴퓨팅은 어떻게 할 것인가
    • 자체 AI 칩 개발과 이를 이용한 압도적인 성능의 훈련 컴퓨터

Vision

자율주행을 위해서는 인지·판단·제어 기술이 필요한데, 컴퓨터 비전은 사람의 시각에 해당하는 기술로 자율주행에서 인지 부분을 중점적으로 담당한다. 만약 비전 기술이 올바르게 동작하지 않는다면 보행자를 인식하지 못하거나, 차량 및 장애물의 크기를 오인식하는 등의 문제가 발생할 수 있으며, 이는 큰 사고로 이어질 수 있기 때문에 매우 중요하다. 또한, 비전 정보를 올바르게 표현하더라도 이를 표현하는 특징을 너무 복잡하고 고차원으로 표현한다면, 이를 이용하여 제어해야하는 플래너(Planner)가 담당하는 문제가 복잡해진다. 따라서, 비전 모델은 실시간으로 들어오는 영상 정보를 올바르게 표현하면서도 효율적인 특징으로 만들어야한다. 많은 자율주행 기업들이 이를 위해 LiDAR를 포함한 높은 비용의 다양한 센서를 이용하고 있으나, 테슬라는 다수의 카메라로 처리하되 대용량의 데이터와 고도화된 비전 기술로 극복하고자 한다. 그런만큼 프레젠테이션의 가장 많은 분량을 차지하고 있다.

테슬라는 총 8대의 카메라를 차량의 전방위에 걸쳐 부착하였으며, 각 카메라로부터 들어오는 다수의 이미지를 3차원의 표현으로 이루어진 벡터 공간으로 표현하고자 하였다. 이를 위해서는 크게 3가지를 잘 수행해야한다. 1) 개별 이미지를 제대로 이해하기 위한 모델, 2) 여러 카메라에서 들어온 이미지의 특징을 하나의 통합적인 정보로 잘 조합하는 것, 3) 시간과 공간의 이동에 따른 정보를 활용하는 것이다.

이미지를 잘 이해하기 위한 HydraNets

자율주행에 필요한 시각적인 요소는 차선, 신호, 보행자 관련 등 다양한 task를 포함하고 있으며, 모든 task에 대해서 충분한 성능을 내도록 학습해야한다. 또한, 이를 위한 데이터의 규모가 방대(Tesla는 1.5 PB 이상의 데이터셋을 보유2)하기 때문에 효율적으로 학습하는 것도 매우 주요한 요소이다.

Tesla AI Day 자료(수정). 테슬라의 vision 모델 구조인 HydraNets

위 그림은 테슬라에서 자체적으로 구성한 HydraNets라는 모델이다. 이 모델은 최신 성능을 보이는 다수의 연구를 도입하여 구성되었다. 이름에서 엿볼 수 있듯이 머리가 여러 개(히드라)인듯 보이는 모습은 다수의 목적을 함께 학습하기 위한 형태(multi-task learning3)이다. 그림을 자세히 보면 Object detection, Traffic Lights, Lane Prediction과 같이 여러 목적을 수행하고 있으며, 이러한 방법은 각 목적에서 필요한 공통적인 부분으로부터 이미지를 이루는 근본적인 성분들을 모델이 잘 표현하고 이해하도록 돕고, 낮은 단계(그림에서 화살표 하단에 위치한)의 모듈을 공유함으로써 효율적이다. Andrej4(테슬라 AI 디렉터)는 특히 3가지의 장점을 꼽는다.

  1. 중심 모델을 공유(Feature Sharing)함으로써 추론 시간의 많은 부분을 차지하는 부분을 한 번만 수행(task는 3개)하면 되기 때문에 효율적이다.
  2. 모델의 머리 부분에서 task에 따라 모듈을 분리했기 때문에, 중심 모델은 고정시키고(학습하지 않음) 각 task를 위한 네트워크만 독립적으로(서로 영향을 미치지 않음) 추가적인 학습(fine-tuning)을 하는 것이 가능하다.
  3. 2에서 언급한 추가적인 학습을 위해서는 이미지로부터 각 task를 위한 모듈까지 모든 네트워크를 거쳐야하는데 1과 2의 특성으로 인해 중심 모델이 고정된 상태이다. 따라서 학습을 위해 필요한 특징을 고정된 중심 모델로부터 미리 추출하여 캐싱해놓고 쓸 수 있으며, 이는 학습 속도를 매우 향상시킨다.

위와 같은 장점은 모델 혹은 학습 방식이 무겁거나 학습 데이터의 규모가 클수록 효과가 두드러진다.

(좌) Tesla AI Day. Backbone 모델이 출력하는 다중 스케일의 특징. W(width) H(height) C(channel). (우) EfficientDet, Tan et al. 2019. BiFPN 동작 방식

모델에서 RegNet5이 큰 부분을 차지하고 있는데, 이는 효율적인 제약조건 내에서 성능이 좋은 모델 구조를 찾아내는 방법이다. 지속적으로 대규모의 데이터가 유입되는 테슬라에서 연구자의 감각(engineering sense)에 의존하여 모델 구조를 선택하는 것은 한계가 있고, 가능한 모든 모델 구조를 탐색하기에는 컴퓨팅이 부담스럽기 때문에 RegNet이 큰 도움이 될 수 있다. 또한, 일반적으로 정확도가 높은 모델은 상대적으로 속도가 느린데, RegNet은 이를 고려하여 다수의 모델 구조를 찾아주기 때문에 그 사이에서 trade-off가 용이하다. 이는 데이터가 추가, 변경되고 H/W의 성능이 향상되어도 그 상황에 맞는 최적의 모델을 유연하게 찾을 수 있다는 것을 의미한다.

BiFPN6은 뼈대가 되는 모델(backbone)의 상단에 추가하여 모델의 표현력을 높이도록(모델이 더 좋은 특징을 만들도록) 유도하는 방법이다. 여기서는 RegNet으로부터 출력된 여러 스케일(상위 레이어로 향할 수록 특징 맵의 크기는 작아진다)의 특징을 이용하여 더 잘 융합한 특징을 만들어내는 모듈을 추가한 것이다.

Multi-Camera를 이용한 모델과 Vector space 변환

위의 방법들을 통해 단일 이미지들에 대해서는 잘 수행하는 모델을 구성하였고, 이제 이를 이용하여 하나의 통합적인 정보이자 vector space로 표현하는 것이 필요하다. 이를 위해 해결해야하는 2가지의 문제가 발생한다. 1) 8개의 카메라 이미지로부터 얻은 특징들을 어떻게 vector space로 변환할 것인가이고, 2) 앞의 모델을 학습하는 과정은 데이터 레이블링(data labeling)을 통해 정답과 함께 출력 데이터가 주어졌지만, vector space는 정답도 데이터셋도 존재하지 않는다는 문제이다. 세션에서는 첫번째 문제에 대해서만 다루었고, 두번째 문제에 대해서는 추후에 다루겠다고 밝혔다.

Tesla AI day 자료(수정). 카메라 이미지들간의 관계를 고려하여 vector space를 추정하는 Transformer

첫번째 문제를 위해 테슬라는 vector space를 Bird’s eye view(BEV)7 표현하고자 했다. 위에서 아래를 내려보는 듯한 시점으로 통합된 공간을 표현하는 것이다. 위 그림을 보면 vector space의 특정 부분을 올바르게 표현하기 위해서는 다수의 카메라 이미지(특징)에서 각각 어느 부분을 참고해야하는지를 효과적으로 학습시켜야 한다. 딥러닝에서 어텐션 모듈(attention module)은 이러한 부분을 데이터로부터 자동으로 가중치를 이해하도록(입력의 어느 부분을 중점적으로 봐야하는지) 학습하는 기술이며, 테슬라는 이 어텐션을 고도화시킨 모델인 Transformer8를 이 용도를 위해 도입하였다. 또한, 카메라의 위치와 각도에 따라 이미지가 왜곡되기 때문에, 모델이 올바르게 이미지를 이해하도록 입력 디테일을 처리하는 과정을 삽입한다(Camera calibration & Rectify).

시공간을 이해하기 위한 비디오 모델

Tesla AI Day 자료(수정). 비디오를 위한 모델 구조

위 방법을 통해 이미지들로부터 vector space를 정교하게 표현할 수 있게 되었고, 카메라 하나로는 파악하기 어려운 큰 객체, 객체의 위치 등을 더 잘 인식하게 되었다. 하지만 이 모델만으로는 구조상 입력 이미지들의 순서(시간, 공간)에 대해 독립적으로 동작(과거 정보와 상관없이 그 순간의 정보만 이용)하는데, 차량 주행시에는 전후 상황(순간적인 시야 방해, 과거에 인식한 교통 정보 등)을 고려하여 판단해야하는 경우가 많다. 따라서, 특정한 시점의 multi-camera 이미지만으로는 충분하지 않기 때문에 과거 시점의 정보들이 추가로 필요하며, 모든 데이터를 이용하기에는 메모리와 속도 측면에서 한계가 있으므로 이를 조정하는 기술도 필요하다.

Tesla AI Day 자료. 차량의 이동에 따라 근처 맵이 선명해진다.

테슬라는 전자를 위해 과거 시점들의 정보를 고려할 수 있는 video module을 추가하고, 후자를 위해 그 정보를 효율적으로 관리할 수 있는 feature queue를 만들어서 사용한다. 먼저, feature queue를 사용하는 방법으로써, 시간 정보를 위해서는 27ms마다, 공간 정보를 위해 1m를 이동할 때마다 push하는 방법을 예로 들었다. 또한, feature queue의 입력으로는 앞에서 설명했던 multi-camera의 feature, 차량 운동 정보 등이 사용된다. 이렇게 queue에 있는 정보를 해석하는 video module로써는 비디오 압축분야에서 사용되는 Spatial RNN9을 도입한다. 이를 통해, 차량의 이동 및 시간에 따라 정보가 유입되며 차량 전방이 선명해지는 것을 볼 수 있다. 또한, 시간에 따라 전방에서 다가오는 차량들이 가려져도 일관되게 인식해내고, 비디오로부터 얻어낸 깊이 및 속력 값이 레이더로 측정한 값과 거의 일치하도록 추정되는 모습을 보여줬다.

Tesla AI Day 자료. 비디오 구조로부터 얻어낸 깊이와 속력 그래프. (초록) 레이더 (파랑) 비디오 모듈을 이용한 현재 모델 (주황) 단일 프레임을 이용하는 이전 모델

Planning

앞서 Vision 기술은 카메라를 통해 얻은 정보를 vector space로 변환했으며, 이제 이를 이용하여 주행을 제어하는 기술인 Planning이 필요하다. 고속도로 주행과 같은 기본적인 것은 잘 수행했으나, 시내 주행은 훨씬 더 복잡한 문제다. 단순한 주행 문제에 있어서는 기존의 경로 탐색 알고리즘 등으로 해결이 가능할 수 있으나, 복잡한 상황에서의 주행은 단번에 최적화된 경로를 구하기도 그 경우의 수를 모두 탐색하기도 어렵다. 따라서, 실시간으로 적용하기 위해 직접 탐색해보지 않아도 행동에 대한 결과를 예측할 수 있어야 하고, 이를 위해 학습 기반의 방법론이 필요하다.

Tesla AI Day. 딥러닝 기반 강화학습을 활용한 Planning

테슬라는 이를 위해 MuZero1011(딥마인드 알파고의 4번째 후속 연구)에서 사용된 방법을 도입할 수 있다고 말한다. 이 방법은 딥러닝 기반 강화학습(Deep reinforcement learning) 방법론에 대한 연구이다(발표에서 직접적으로 강화학습이라는 표현을 사용하지는 않았다). 강화학습은 정답이 없는 문제를 효과적으로 학습할 수 있다는 장점이 있어서 일찍이 타사(웨이모 등)에서 도입하고 있다. 주차 문제를 예로 생각해보면, 현재 위치부터 주차를 완료하기까지의 경로에서 매 순간의 제어에 대한 정답이 존재하기보다는 다양한 경우의 수가 있다는 것을 알 수 있다. 따라서, 주차라는 최종 목적을 달성하면 보상(reward)으로 +100을 주고, 주행 경로의 각 상태(state)에서 결정한 행동(action)에 대해 가중치를 부여하여 학습시키는 것이다. 이 때, 상태는 차량 위치와 교통 상황 등이 될 수도 있고 벡터 공간 그 자체가 될 수도 있다. 행동은 차량의 진행 방향과 가속 같은 것이 될 수 있다.

Tesla AI Day. 주차 문제 예시에 대한 기존 알고리즘(1,2번째)과 딥 강화학습(3번째)의 비교

위 그림은 위에서 언급한 방법이 얼마나 효율적인지 보여주는 예시이다. MCTS(Monte-Carlo Tree Search)12는 현재 상태에서 탐색 가능한 경우의 수를 샘플링을 통해 확장하고 찾아나가는 알고리즘을 말한다. Neural Network Policy & Value Function은 딥러닝 모델로 상태와 행동에 대한 기대치(어떤 행동을 하면 좋을지에 대한 정보)를 미리 추정한다는 것을 의미한다. 즉, 학습할 때는 다양한 경우의 수를 모두 경험해보며 딥러닝 모델이 기대치를 예측하게 하고, 주행 시에는 학습된 모델이 주는 기대치에 따라 최적의 행동을 위주로 결정하겠다는 것이다. 이러한 방법으로 학습하기 위해서는 정답이 없으므로 다양한 주행과 달성 여부(보상)가 필요하다. MuZero의 경우 풀고자 하는 문제가 바둑, 체스, 아타리 등의 게임의 형태였기 때문에 게임 환경 시뮬레이터를 이용하여 가능했다. 다행히 비전 모델이 이미지들을 벡터 공간으로 변환하는 덕분에, Planning은 마치 아타리 게임과 유사한 입력 형태를 받고 있다. 하지만 직접 차량을 움직여야하기 때문에 학습 데이터(상태, 행동을 포함한 trajectory)를 얻기 위한 물리적인 시간이 필요하고, 탐색을 위한 주행은 위험한 결과를 가져올수도 있다. 따라서, 이를 효율적이면서 안전하게 학습시키기 위해서는 현실 세계와 호환 가능한 시뮬레이터가 필요하다. 테슬라가 구체적으로 이 파트에서 시뮬레이터로 학습했는지는 언급되지 않았으나, 위 방법으로 학습 했을 경우에 기존의 탐색 방법에 비해 1000배 이상의 효율을 보여줬다. 하지만 바둑은 착수까지 꽤 많은 시간이 주어지고 현실 세계의 대국 상황을 완벽하게 시뮬레이터에 반영할 수 있으나, 자율주행은 그렇지 않기 때문에 단순히 MuZero를 도입하는 것만으로는 의문스러운 부분이 많다. 아직 연구 초기 단계이고 타사보다 늦게 강화학습을 시작해서인지 비전 파트에 비해 기술적인 내용이 적었으며 앞으로 좀 더 지켜볼 부분인 것 같다.

Data

데이터에 대한 부분은 크게 3가지 키워드로 볼 수 있다. 1) 테슬라 시스템에 적합한 효율적인 수동 레이블링 2) 3D 포인트 클라우드 등을 활용한 자동 레이블링 3) 시뮬레이터이다.

딥러닝 모델을 효과적으로 학습하여 성능을 끌어내기 위해서는 데이터의 품질과 규모가 매우 중요하다. 하지만 데이터 작업은 많은 인력을 동원하여 반복적으로 수행하기 때문에 직접적으로 진행하기 보다는 서드파티를 통해 하는 편이고, 테슬라도 마찬가지였다. 하지만 그렇게 얻은 데이터의 품질과 작업 속도가 충분하지 않자, 테슬라는 모든 작업을 직접하기 시작했다. 테슬라가 수집하고 있는 압도적인 규모의 데이터를 훈련에 사용하기 위해서는 매우 많은 수의 데이터 작업자가 필요하다. 또한, 수집된 새로운 데이터들에는 항상 복합적이고 예외적인 상황들이 발생하는데 높은 품질의 데이터 확보를 위해서는 엔지니어들의 가이드가 필요한 상황이 자주 발생한다. Andrej는 엔지니어들과 긴밀하게 작업하는 데이터 작업자가 1천명을 넘는다고 밝힘으로써 이에 대한 자신감을 내비치고 있다.

Tesla AI Day. (좌) 기존 방식의 이미지 레이블링. (우) 벡터공간을 이용한 레이블링

테슬라는 1천명의 작업자가 있음에도 더 높은 효율로 데이터를 작업하기 위한 방법을 생각해냈는데, 이미지에 직접 레이블링하는 것이 아니라 벡터 공간에서 레이블링하는 것이다. 이는 비전 모델이 8대의 카메라에 대한 이미지에서 객체를 검출하고 인식하더라도, 결국 벡터 공간으로 변환되는 구조를 활용한 것이다. 즉, 벡터 공간을 Vision의 출력과 Planning의 입력이라는 목적에 사용하기 위해 데이터셋을 효율적으로 수정한 것이다. 기존 방식의 이미지는 모든 프레임에 대해 새롭게 레이블링이 필요하지만, 벡터 공간에서는 이동에 따라 여러 프레임에서 레이블링을 유지하는 것이 가능하다. 하지만 비전 모델에서 첫번째에 해당했던 이미지에 대한 이해를 높이는 HydraNets를 학습하기 위해서는 여전히 기존 방식의 데이터도 충분히 필요한데, 테슬라는 이를 일정 수준이상 충족함으로써 데이터 확보의 다음 단계로 넘어갈 필요가 있다고 판단한 것으로 보인다.

위와 같은 레이블링 효율화에 더해 자동 레이블링을 하고 있으며, NeRF13라는 기술을 이용했다. NeRF는 일반 카메라로 촬영한 여러 장의 이미지를 이용하여 뷰를 합성하는 기술인데, 테슬라는 NeRF를 도입하여 LiDAR 없이 카메라 이미지로부터 3D 포인트 클라우드를 구축했다. 이를 이용하면 임의의 객체들을 작업하기에 유용한데, 차량과 보행자가 도로에서 가려지는 상황들을 극복할 수 있었다고 한다. 또한, 주행하면서 얻은 정보들을 통해 지도 같은 형태를 구축해나가고 있다.

Tesla AI Day. 시뮬레이터 영상의 한 화면. 아직 출고되지 않은 사이버트럭이 주행 중이다.

마지막으로, 테슬라는 시뮬레이터를 이용하여 다음 3가지 장점을 취한다. 1) 현실 세계에서 얻기 어려운 데이터(매우 드물지만 발생할 가능성은 존재하는 상황)를 인위적으로 만들 수 있다. 2) 레이블링이 어려운 상황(수십 명이 지나다니는 상황)에서도 시스템으로부터 모든 정보를 획득 가능하다. 3) 해결이 어려운 상황(Planning에서 주차 문제)을 위한 반복적인 시뮬레이션이 가능하다. 주요한 장점은 이와 같으나, 시뮬레이터는 무한한 잠재력을 갖고 있다. 기존에도 이런 시뮬레이터들은 있었고 게임을 이용해서 학습을 시도한 경우도 있었으나, 시뮬레이터의 품질이 현실 세계의 영상 데이터와는 차이가 있기 때문에 일반화하기가 어렵다. 테슬라는 이를 위해 렌더링 기술도 개발하여 적용함으로써 시뮬레이션 화면의 실사화를 통해 그 간극을 줄여주었다. 높은 품질의 시뮬레이터를 만들고 활용하는 것은 비용이 매우 큰 부분인데, 테슬라가 자율주행이라는 목표를 이루기 위해 전방위적으로 막대한 투자를 하는 것을 엿볼 수 있다.

결론

테슬라의 이러한 기술적 성과와 비전은 딥러닝 분야에서의 연구 발전 속도와 공격적인 공개 방식에 기반하고 있다. 그 예로, 글에서 언급된 NeRF는 UC 버클리, RegNet은 페이스북, BiFPN과 Transformer 등은 구글의 연구소에서 개발되었으며, 이러한 최신 기술들을 테슬라 제품(자율주행)의 적재적소에 적극적으로 도입하고 유기적으로 결합한다. 여기에 AI 칩을 자체 개발함으로써 일반화된 타사의 하드웨어(NVIDIA)에 의존하지 않고 최고의 품질을 달성하고자 하고 있다. 테슬라의 대단한 부분은 자율주행이라는 거대하고 복잡한 문제를 전략적으로 분해하고 마치 작은 하나의 팀처럼 부드럽게 연결하고 풀어나가고 있다는 것이다. 추가로, 테슬라가 확보한 데이터를 기반으로 기술을 확장해나가면 자율 주행에 국한될 필요가 없어지는데 프레젠테이션에서 로봇에 대한 비전을 밝힌 것도 그러한 연장선으로 보인다. 단순히 전기차와 자율주행 기업으로 머무는 것이 아니라 AI 기업으로서의 면모가 기대되는 부분이다.

정리하자면, AI데이는 AI 연구자들을 채용하기 위한 자리였으며 연구자들이 기업에 관심 갖는 부분은 크게 다음과 같다. 1) AI 기술로 가치있는 문제를 실현 가능하게 해결하는가, 2) AI 학습을 위한 경쟁력 있는 데이터와 시뮬레이터를 보유했는가, 3) 이를 뒷받침하는 컴퓨팅을 가졌는지이다. 이러한 측면에서 봤을 때 테슬라의 프레젠테이션은 연구자들에게 충분한 어필이 되었을 것이고, 실제로 채용 지원이 급격하게 증가하고 있다고 한다14. AI 데이를 통해 보여준 것들은 분명 확장 가능한 기술들이지만 아직은 안정화되지는 않은, 특정한 조건 내에서 실험된 연구 중인 결과들이며 해결해야할 과제는 산적해 있다. 하지만 능력있는 연구자들의 합류를 통해 테슬라는 더 빠르고 견고하게 그 기술력을 쌓아올릴 것으로 기대된다. 그리고 우리는 뛰어난 AI 기술 전략, 대규모의 데이터, 뒷받침하는 자본이 어떤 혁신을 가져올 수 있는지 테슬라를 통해 조금은 그려보는 재미가 있겠다.

  1. ‘자율주행’ 실현 어려운 5가지 이유
  2. Tesla AI chief explains why self-driving cars don’t need lidar
  3. Multi-task learning
  4. Andrej Karpathy
  5. Designing Network Design Spaces
  6. EfficientDet: Scalable and Efficient Object Detection
  7. Bird’s eye view
  8. Attention Is All You Need
  9. Optimized Spatial Recurrent Network for Intra Prediction in Video Coding
  10. Mastering Atari, Go, Chess and Shogi by Planning with a Learned Model
  11. MuZero: Mastering Go, chess, shogi and Atari without rules
  12. Monte Carlo tree search
  13. NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
  14. Tesla, Inc. 2021 Annual Meeting of Stockholders

    Related Posts

    디지털 휴먼과 게임 속 AI의 미래
    딥러닝의 개념

    Leave a Reply