(미생,유튜브)생각지도 못했던 테슬라의 큰 그림

정보/뉴스


인기게시물



(미생,유튜브)생각지도 못했던 테슬라의 큰 그림

이젠정말 14 3448
https://youtu.be/aAG077vD2_k
영상은 3부작인데, 마지막 세번째꺼만 보시면 될 듯 합니다.
레이더를 뺀 이유가, 로보택시 포기하고 ADAS를 oem방식으로 타사에 파는 게 목적이지 않을까라고 추정하는 내용입니다.(제목이 좀 어그로 느낌이긴한데요..)
14 Comments
bluehe… 2021.06.22 09:00  
영상은 보지 않았습니다만, FSD도 OEM방식으로 팔수 있다고 했었습니다. 로보택시 포기하고 고작 ADAS팔려고 하는 거면 당장 테슬라 주식 팔아야죠.
Modera… 2021.06.22 09:00  
솔직히 미생 이분.. 분석은 재밋는데 예측은 너무 틀리셔요 ㅋ
떡검섹검 2021.06.22 09:00  
Moderate님// 전 이분 왠지 사짜 느낌이 나서요... 처음에 몇번 보다가 맨날 주식 얘기하길래 바로 끊었습니다.
머신 2021.06.22 09:00  
@Moderate님 네. 미생님은 분석 매우 자주 틀리십니다. 그냥 배경지식이 없는 사람들은 참고정도 하거나 그보다 더 전문적인 지식을 가지신분은 안보셔도 될 정도입니다.
Modera… 2021.06.22 09:00  
@머신님 ㅋㅋ 자기분야 아니면 틀릴 수밖에 없죠 머. 걍 뛰어넘고 재미로만 보길 추천합니다. 저도 요샌 제 분야도 조금씩 데이타가 틀리네여 ㅠㅠ
돈많은백수 2021.06.22 09:00  
로보택시 포기하면 테슬라 현재 주가를 받쳐주는 BM의 상당부분이 박살나는거 아닌가요?
landsc… 2021.06.22 09:00  
저 분석이 맞는지는 모르겠지만, 저도 테슬라가 로보택시 포기하고 새로운 BM을 찾는건 아닐까, 하고 추측하고 있습니다. FSD Beta가 놀라운 모습을 보여주는것과 별게로, '이정도면 로보택시 가능할까?'라고 했을때는 아직 멀었다는 생각밖에 안들거든요. 그런데 ARK의 분석등을 봐도 테슬라 주가는 로보택시가 없으면 설명할 수 없는 주가라서, 로보택시를 포기하는건 아니더라도, 최소한 단기적으로 로보택시를 대체할 무언가를 찾을 필요는 있다고 봅니다. 그렇게 생각하고보니 일론의 코인 관련 트윗도 '혹시 테슬라 관련 나쁜 소식등에서 관심을 멀게 할 수 있도록 훼이크 주는거 아닌가?'하는 생각도 들더라구요. 일론이 괴짜는 맞지만, 동시에 머리가 좋은 사람이니까요. 물론 '걍 일론이니까' 그렇게 행동한다는 가능성에 더 끌리긴 합니다.
Atreyu 2021.06.22 09:00  
근데 FSD OEM으로 팔고 구독형으로 가면 좋은거 아니에요?
몸튼튼맘튼튼 2021.06.22 09:00  
FSD 와 ADAS 는 완전 급이 다른데요. 사람이 있나 없냐 차이인..
슈가레빗 2021.06.22 09:00  
테슬라 FSD는 잘 진행되고 있나봐요. 비전만 해서 구현하는게 심플하고 더 정확하다고 하네요. (출처: 오늘 CVPR 학회 워크숍, 안드레이 케파시) 기존 팬텀브레이크 문제나 다리 밑을 지날 때 감속이 일어나는 문제의 원인이 레이더 였다고 하네요
슈가레빗 2021.06.22 09:00  

슈가레빗 2021.06.22 09:00  
퍼온글 입니다. —————- #CVPR2021 #2일차 #1D1U ✅ Autonomous Driving Workshop 마지막에 테슬라의 AI Director인 "Andrej Karpathy"의 Keynote가 있길래 당연히 사전 녹화본이겠지 하고 큰 기대 없이 기다렸는데 라이브 등판!! (밤새 기다린 보람이 ㅠㅠ) ✅ 출근도 해야 하고, 너무 비몽사몽 하지만 테슬라 세션만큼은 지금 바로 정리해 놓고 싶어 기록함 (Monster????가 필요해...) ✅ (밑밥을 조금만 깔자면...) Andrej Karpathy 말이 너무 빨라 (x1.5 인줄...K-Style) 잘 못알아 들었거나 놓친 부분들은 발표 자료의 내용을 그대로 언급함. 나중에 팀원들이랑 복습할 예정 신동원Junho Choi장덕윤 ^_____^ ✅ 결론부터 요약하자면 오늘 세션은 테슬라의 "Autopilot FSD"가 어떻게 운영되고 있는지 MLOps 관점에서 궁금했던 점들을 꽤 많이 해소해주는 세션이었음. ✅ 먼저 Elon Musk의 트윗을 언급하며 테슬라가 3주 전부터 Radar가 없는 "Driving on Vision Alone" 차량을 배송하고 있다는 사실을 이야기하고, Vision only approach가 실제 주행 환경에서 LiDAR + HD Map을 사용하는 접근법에 비해 얼마나 Challenge한 일인지를 언급함. Elon Musk's Tweets, "When radar and vision disagree, which one do you believe? Vision has much more precision, so better to double down on vision than do sensor fusion" ✅ 테슬라의 FSD 시스템은 전방향으로 배치되어 있는 8대의 카메라를 사용하며, 각각의 카메라는 [1280*960*3] 해상도의 unit8 영상을 36Hz로 촬영함. ✅ Vision Only approach의 중요한 문제는 전방에 있는 물체에 대한 정확한 거리, 속도, 가속도를 추론하는 것이고, 이러한 문제를 풀기 위해서는 large, clean, diverse dataset과 large enough neural network의 학습이 필요함. To get any neural network signal to work need: 1. Large(millions of videos) 2. Clean(labeled data, here: depth, velocity, acceleration) 3. Diverse(a lot of edge cases, not just nominal "boring" scenarios) dataset. and train a large enough neural network on it. ✅ Massive dataset을 구축하기 위해서는 auto-labeling 기술이 필수적이며, offline에서의 장점을 활용해 video clip으로부터 매우 높은 정확도의 labels를 자동으로 생성하고 있음. Benefits of offline - Neural net predictions with offline networks & ensembles - Benefit of hindsight - expensive offline optimization/tracking - (optional: extra sensors) - (optional: human cleaning / verification) ✅ 주행 데이터로부터 의미 있는 다양한 시나리오를 추출하기 위해 특정 상황에 대한 221개의 triggers를 개발해서 운영함. Q&A 세션에서 Trigger 개발을 위한 full-time 전문 팀이 있으며 manual process를 통해 design하고 있다고 언급함. Triggers examples - rada vision mismatch - bounding box jitter - detection in the main camera but not narrow camera - stop and go traffic - ... ✅ Data Engine(MLOps)의 운영을 통해 딥러닝 모델을 업데이트 및 배포. 1) Seed dataset으로 학습한 모델을 배포 2) Shadow mode로 운영 3) 모델 성능이 떨어지거나, Trigger 상황이 발생하면 unit test 진행 4) unit test에서도 실패하면 training set에 해당 시나리오의 data를 포함시켜 재학습 5) 모델 배포(depolyment) 6) repeat !!!!! ???? Final Dataset (for the first release) - 7 rounds of shadow mode - 1 million 8-camera 36fps 10-second video of highly diverse scenarios - 6 billion object labels with accurate depth/velocity - 1.5 petabytes ✅ Neural net architecture의 경우 8대 카메라의 특징들을 fusion하는 하나의 backbone 모델(Resnet, Transformer, RNN, 3DConv 등 기법 언급)이 있고, task에 따라 head들을 분리해서 branch 구조로 사용. 이러한 구조는 paramter sharing의 효율성뿐만 아니라, 문제가 있는 head만 fine-tuing하는 방식으로 signal/model간의 decoupling이 가능해 학습 및 운영에서도 장점이 있음. ✅ In-house supercomputer 사용. Our latest cluster (1 of 3): - 720 nodes of 8x A100 80GB (5760 GPUs total) - 1.8 EFLOPs (702 nodes * 312 TFLOPS-FP16-A100 * 8 GPU/nodes) - 10 PB of "hot tier" NVME [email protected] TBps - 640 Tbps of total switching capacity ✅ FSD 모델 배포를 위한 전용 FSD Computer 사용. FSD computer (2 chis) - 1 FSD chip spec.: - 12 [email protected] GHz - GPU (600 GFLOPS) - 2X NPU (36.86 TOPS/NPU) - 36W ✅ 새롭게 학습된 모델의 배포(deployment) 전 검증을 위해 다양한 단계를 거침. Release and Validation - Clip unit test: 6,000 hand-picked challenging clips, 70 categories of scenarios, and run every day and on each commit - Simulation: 10,000 simulation scenarios - Track Testing: Sweep of speeds, vehicle types, scenarios - QA drives: Equivalent of 10 years of driving - Shadow modes: 7 shadow modes, 1,000 years of driving - Release: 15M miles, 1.7M on Autopilot(0 crashes) ✅ 발표 내용을 들으면 거의 모든 상황에서 Vision만을 이용해 문제를 푸는 것이 가능할 것 같음. 그러면 이런 Data Engine과 ML pipeline을 만드는 게 누구나 가능한지 물으면…???????? Super Hard!! Vision에서 이 정도의 고도화된 정보를 추론하기 위한 모델을 만들고 운영하는 것 자체가 엄청난 기술력과 비용, 인프라를 필요로 하기 때문. 그리고 당연히 vehicle platform, sensor, application에 따라 파이프라인 자체도 조금씩 변경해서 운영할 수 밖에 없음. ✅ 솔직한 심정: Karpathy와 테슬라는 super 똑똑해서 딥러닝을 이용해 vision 안에 숨겨져 있는 엄청난 정보들을 99% 활용해서 vision만 가지고도 자율 주행이 가능하지만, (나 같은 평범이를 포함해) 대부분은 그냥 라이다에서 "1m는 1m야!" 라고 명확하게 측정해 주면, "좋아! 장애물이다, 피해가자!" 하는 방식으로 접근하는 게 답일듯. (잠 못자서 비관적인 거 아님) ✅ 오후에 일정이 없으면 그냥 쓰러질텐데...이제 씻고 출근해야지! ????
OutLie… 2021.06.22 09:00  
저 사람 유투브 몇개 봤는데 자동차회사 현직이라고 하던데... 어디 업체인지는 모르겠지만... 암튼 저사람이 테슬라에 대해 하는말은 그냥 거르시면 됩니다. 제대로 알지도 못하고 그냥 뇌피셜로 소설쓰는 사람이에요.
phones 2021.06.22 09:00  
애플에서 저전력 슈퍼 M5 만들어서 정밀지도 + 라이다+ 5G + v2x 조합으로 가면 가장 깔끔할것 같습니다. 비전만으론 폭우나 폭설에 무방비입니다.

제목