StradVision: Vision AI for All
멀티 카메라 적용 넘어 센서 퓨전 개발 정조준
저가 칩셋서도 AI 기반 탁월한 객체 인식 제공
2024년 05월호 지면기사  / 윤범진 기자_bjyun@autoelectronics.co.kr

 
       StradVision Junhwan Kim        스트라드비젼 김준환 대표

스트라드비젼의 SVNet은 최소한의 연산과 전력 소비만으로 딥러닝 기반 객체 인식 기능을 구현하는 ADAS 및 자율주행용 초경량, 고효율 솔루션으로 이미 182만 대의 차량에 탑재돼 있다. 2027년까지 1,000만 대 탑재를 목표로 한다. 스트라드비젼 서울오피스에서 김준환 대표를 만나 글로벌 자동차 시장을 종횡무진 질주하는 그들의 자신감과 비전을 물었다.

글|윤범진 기자_bjyun@autoelectronics.co.kr

StradVision       
스트라드비젼은 인텔 출신의 AI 기반 컴퓨터 비전, 이미지 프로세싱 분야 전문가들이 설립한 스타트업이다. 주요 고객사와 파트너사는 자동차 부품 제조사에서 차량용 SoC를 개발하는 반도체 제조사까지 다양하게 분포하고 있다. 국내에서는 현대모비스, LG전자가 주요 투자자이자 고객사다. 해외에서는 세계 최초로 양산 프로젝트를 진행한 중국 장안자동차를 비롯해 르네사스, 텍사스인스트루먼트(TI), 엔비디아, 소시오넥스트 등 글로벌 SoC 제조사와 프로젝트를 진행하고 있다. 앱티브와 스트라드비젼은 ADAS 및 자율주행 인식 기술 고도화 분야에서 전략적인 협력을 이어가고 있다. 독일 ZF는 2022년 3월 자율주행 인식 소프트웨어 부문 포트폴리오 확장을 위해 스트라드비젼의 지분을 인수한 바 있다.











스트라드비젼 창업 당시, 진입이 쉽지 않은 자동차 시장을 주목한 배경이 있을까요? 
KIM    
스트라드비젼은 사업 초기 AI 기반의 객체 인식기술을 작은 임베디드 플랫폼에서 효율적으로 구현하는 기술로 구글 글라스와 같은 소형 웨어러블 기기에 탑재 가능한 객체 인식 소프트웨어 개발을 목표로 했습니다. 그러나 웨어러블 디바이스가 예상만큼 보급되지 않음에 따라, 객체 인식기술을 적용할 새로운 분야를 탐색해야만 했습니다. 그러던 중 글로벌 자동차 제조사, 정부 등이 차량용 ADAS와 자율주행 부문에 관심이 높다는 것을 확인하고 사업 방향을 전환했습니다. 당시만 해도 일반적인 차량용 저가 반도체에 딥러닝 기반 인식 소프트웨어를 집어넣는 기업이 없었기에, 최초라는 자부심과 함께 다른 기업은 할 수 없다는 확신이 있었습니다. 고객사에서도 스트라드비젼의 기술과 다양한 프로젝트 경험을 높게 평가했고, 프로젝트 수주는 물론 전략적 투자까지 받을 수 있었습니다. 



딥러닝 기반 객체 인식기술로 승부
최소 연산과 전력 소비로 강력한 성능
 

현실적인 장벽을 어떻게 돌파하고 있나요?     
KIM  
 안전과 직결된 자동차 산업은 타 업계보다 보수적이라고 할 수 있습니다. OEM과 티어 1 고객은 신차 개발 주기에 맞춰 티어 2 업체와 협업해야 하는데, 이때 기업의 존속 여부, 즉 지속가능성 여부를 중요하게 고려합니다. 기술의 신뢰성은 물론 기업의 신뢰성, 투명성도 협업 관계에 있어서 중요하기 때문입니다.

이런 이유로 스트라드비젼은 2024년 하반기를 목표로 기업공개(IPO)를 추진 중입니다. 4분기경 기술특례 상장을 추진할 계획입니다. 작년 말 한국거래소가 지정한 기술평가 전문기관으로부터 모의 기술성에 대한 평가로 A등급을 받았고 본 기술평가를 준비하고 있습니다. 상장 예비 심사(4~5월) 서약서는 제출 완료했습니다. IPO가 현실화된 이후, 글로벌 고객은 스트라드비젼에 대한 지속가능성을 기대할 수 있게 될 것입니다.
 

스트라드비젼은 소프트웨어만을 공급합니다. 경쟁사와 비교해 어떤 점에서 경쟁우위가 있다고 보시나요? 
KIM  
 일반적으로 자동차에 탑재되는 객체 인식용 칩은 컴퓨터나 스마트폰의 프로세서와 비교해 연산 능력이 수십 혹은 수백 분의 일 수준에 불과합니다. 그럼에도 기존 경쟁 솔루션의 경우 ADAS와 자율주행 기능 구현을 위해 고가의 칩셋을 필요로 합니다. 반면, SVNet은 저가의 칩셋에서도 AI 기반의 탁월한 객체 인식 기능을 제공합니다. 

SVNet은 경쟁사와 달리 딥러닝에서 처리하기에 적은 연산 능력을 사용함에도 인식 정확도가 매우 우수하며, 자동차 인식 성능 기준으로 99%에 육박해 경쟁사 대비 가장 높은 수준을 자랑합니다. 이뿐만 아니라 30개 이상의 다양한 SoC 플랫폼에 탑재 가능하며 제품별로 다양한 기능을 제공합니다. 고객사별 요청에 따른 커스터마이즈도 가능해 고객이 원하는 카메라, 칩셋에 완벽하게 호환 가능한 유연성이 장점입니다.


이 딥러닝 기반 비전 인식 기술을 통해 카메라 센서의 역할 확대를 넘어 라이다의 역할까지 대체할 수 있을까요?  
KIM  
 네, 2016년부터는 딥러닝 기반으로 전환해 정확성을 높여왔는데요. 특히 악천후 같은 조건에서 머신러닝 방식은 정확도가 75%에 불과하지만, 딥러닝을 통해서는 90%까지 끌어올릴 수 있습니다. 스트라드비젼은 비용면에서 경제적이고 실용적인 대안을 제시하기 위해서 3D Perception Network 개발 단계에서만 라이다 센서를 활용하고, 카메라 역할을 확장하는 차별화된 전략을 적용했습니다. 이런 접근방식을 통해 비전 영역에서 카메라 역할을 재정의하고, 카메라 장착으로만 라이다 기능을 대신해 자율주행 시스템에서 비전 역할을 넓혔습니다.

다만, 여전히 라이다와 레이다가 객체의 위치 정확도와 속도 예측에 장점이 있는 건 맞습니다. 자율주행 레벨이 고도화될수록 단순 카메라 센서만이 아닌 라이다와 레이다 센서의 조합을 적절하게 사용하는 것이 안전성을 높일 수 있습니다. 예를 들어, 저가 차량은 센서에 드는 비용을 줄여야 하므로 악천후 상황 등 카메라가 동작하지 않을 시 알람을 설정함으로써 경쟁력을 가져갈 수 있습니다. 다만, 고가 차량의 경우 비용을 들여 센서를 달더라도 이를 대체할 무언가가 자동으로 해 주길 기대할 것입니다. 즉, 카메라가 작동하지 않을 시 최소한의 기능을 제공할 수 있도록 해야 하는 것이죠. 이처럼 차량의 종류와 방식에 따라 카메라 외에 라이다 또는 레이다를 추가 선택해 적용할 수 있습니다. 


 


SVNet  
스트라드비젼의 ‘SVNet’은 차량에 탑재된 카메라로 들어오는 영상을 AI 기술로 분석해 주변의 다른 차량이나 보행자, 차선, 신호등 같은 것들을 인식하는 소프트웨어다. SVNet은 최소한의 연산과 전력 소비만으로 딥러닝 기반 객체 인식 기능을 구현하는 초경량, 고효율 솔루션이다. 연산에 필요한 메모리 사용을 획기적으로 줄여, 낮은 저가의 칩에서도 ADAS 및 자율주행 기능에 필요한 AI 기술 기반의 뛰어난 객체 인식 능력을 발휘한다. SVNet 알고리즘은 안정적인 네트워크를 통해 극한의 기상 조건은 물론 작은 물체, 가려진 물체를 감지해야 하는 상황에서도 강력한 성능을 발휘한다. SVNet은 고객이 원하는 카메라, 칩셋에 완벽하게 호환 가능한 유연성도 강점이다. 30개 이상의 시스템온칩(SoC) 플랫폼에 탑재 가능하며, 제품별 다양한 기능을 제공한다. 고객의 요청에 따른 커스터마이즈도 가능하다. 스트라드비젼은 2019년 중국 장안자동차와 차량용 객체 인식 소프트웨어 첫 양산에 성공했으며, 현재까지 전 세계 자동차 제조사, 50개 이상 차종에 SVNet 공급 계약을 체결했다. 




최근 ‘SVNet’을 탑재한 차량의 연간 상업 생산량이 100만 대를 돌파했는데, 올해 누적 생산량 전망과 그 원동력은 무엇인가요? 
KIM  
 네, 스트라드비젼은 2023년 기준 연간 상업 생산량 100만 대를 돌파했습니다. 3D Perception Network로 SVNet 기술이 한 단계 업그레이드됨에 따라 연간 상업 생산량을 계획한 대로 100만 대 이상 넘길 수 있었습니다. 특히, 지난해 9월 독일 OEM과의 협력을 통해 새롭게 추가된 8개 모델 라인업이 이 마일스톤 달성에 중요한 역할을 했습니다. 2022년과 비교해 약 189%의 성장률을 기록했습니다.

고객의 지속적이 지원이 있었기에 가능했던 일이고, 현재(2024년 3월) 기준 2019년 상업 생산 시작 이후 총 182만 대의 차량이 SVNet을 탑재하고 도로를 달리고 있습니다. 올해 누적 생산량 전망에 대해선 조심스러운 시기라 말하기 어렵습니다만, 2027년 1,000만 대 탑재를 목표로 올해 많은 수주를 위해 노력하고 있습니다.






차세대 접근방식으로 카메라 역할 확대
멀티 카메라와 센서 퓨전 개발도 고려
 


제품 경쟁력의 원천이라고 할 수 있는 ‘3D Perception Network’는 어떤 점에서 독특한가요? 
KIM  
 3D Perception Network는 ADAS/AD 시스템에 대한 차세대 접근방식으로 카메라의 역할을 확대합니다. 자율주행 감지-인식-계획-행동의 4단계 중 인식 단계에서 2D에서 3D로의 변환을 포함, 포괄적인 솔루션을 제공합니다. 즉, 기존 딥러닝 기반 기술에 3D 공간 계산까지 확대 적용한 것이죠. 이렇듯 3D Perception Network의 향상된 딥러닝과 줄어든 후처리 과정으로 확장성을 대폭 높였습니다. 또한, 후처리 과정의 코드 복잡성을 50%까지 줄여 통합 및 유지 관리 프로세스를 간소화했습니다. 

3D Perception Network는 위치, 방향, 거리, 움직이는 물체의 속도, 정지된 물체, 차선, 도로 가장자리는 물론 교통표지판과 조명 등 운전에 필요한 모든 필수 요소를 훨씬 더 정확하게 표현합니다. 기존 딥러닝 모델은 ICS(Image Coordinate System)과 VCS(Vehicle Coordinate System) 간의 복잡한 변환 프로세스로 인해 성능을 유지하고 향상하기 위해 상당한 노력이 필요합니다. 소프트웨어 정의 차량(SDV)에서는 복잡한 소프트웨어 통합 문제와 여러 소프트웨어 스택 간의 Arm 리소스 할당에 대한 지속적인 경쟁이 존재합니다. 이뿐만 아니라, Arm과 NPU(Neural Processing Unit) 기술 간 진화적 격차가 존재합니다. 

3D Perception Network는 개발 단계에서만 라이다 센서를 활용해, 최종 차량 내 라이다 시스템의 필요성을 없애 OEM 고객사에 경제적이고 실용적인 대안을 제시했습니다. 차량에 ADAS/AD 기술을 구현하는 데 드는 전체 비용을 절감할 수 있도록 한 것입니다.


자율주행차 센싱 기술은 각각 고유한 장단점이 있으며, 악천후는 모든 센싱 프로세스에 치명적일 수 있습니다. 현재 스트라드비젼의 SVNet의 정확도와 앞으로 어떤 발전을 기대할 수 있을까요?      
KIM    
라이다와 레이다는 객체의 위치 정확도와 속도 예측에 카메라와는 다른 장점이 있습니다. 그 이유로 악천후 상황 시 각 차량의 종류와 방식에 맞게 카메라를 대체하는 센서를 넣는다든지 또는 카메라만으로 기능을 대체할 수 있도록 해야 합니다. 현재 3D Perception Network의 안정성은 라이다 시스템과 비교해 98% 수준까지 도달했다고 말할 수 있습니다. 측정 가능한 거리는 250 m입니다. 이를 바탕으로 2024년 말이나 2025년 초쯤 소비자 차량 생산을 앞두고 있습니다. 이처럼 스트라드비젼은 3D Perception Network를 현재 싱글 카메라에서 멀티 카메라까지 적용함은 물론, 내년에는 센서 퓨전 개발도 고려하고 있습니다. 


애플이 10년간 공들여 온 자율주행 전기차 ‘애플카’를 포기했습니다. 레벨 3 상용화도 연기되는 상황입니다. 이에 대해 어떤 견해를 가지고 있나요?  
KIM    
도로상의 모든 차가 자율주행으로 움직이는 시대는 아직 멀었다고 봅니다. 많은 자율주행 기업, 자동차 제조사가 제한된 속도에서 손을 뗄 수 있는 L3 기술을 선보이고 있으나 대부분 현 상황에서 큰 볼륨은 기대하지 않습니다. 자율주행은 기술의 발전 속도만으로 설명할 수 없는 문제인데요, 정책적으로 자율주행차나 자율주행이 보장되는 환경이 도입되면 시간이 앞당겨질 수도 있습니다. 웨이모나 크루즈가 그 사례입니다. 이들의 경우 훨씬 더 높은 수준의 기술이 요구되기는 하지만 일정 구간 내(자율주행이 보장되는 환경)에서 가능한 것이며, 택시라는 영업용 목적이기에 이윤을 창출하는 데 있어 일반 소비자 차량보다는 유리하기에 가능한 것입니다. 이런 여러 이유로 많은 업체가 당장 그쪽으로 진입하진 못하고 있습니다. 국가별, 도시별, 상황별 다를 뿐만 아니라, 얼마만큼의 진보된 기술을 보유하고 있는 회사가 그 시장에 진입 여력이 있는가에 따라 달라질 것입니다. 하지만, 여전히 자율주행 기술의 발전이 멈춘 것이 아니라 더욱 고도화되고, 더 많은 사람이 자율주행 기술을 이용할 수 있는 생활 속의 기술로 자리 잡을 것이라고 봅니다. 


시리즈 D 투자 유치까지 성공하며 1,938억 500만 원을 확보한 것으로 알고 있습니다. 앱티브(Aptiv)는 시리즈 C와 D에 모두 참여했습니다. 유치한 자금은 어떻게 운용되고 있나요?
KIM    
시리즈 D 투자 유치는 현재 진행 중(부분 완료)입니다. 자율주행의 글로벌 강자인 앱티브는 시리즈 D에 참여해 420억 원(3,300만 달러)을 투자했습니다. 시리즈 C 라운드에서는 500억 원을 투자했습니다. 이로써 앱티브-스트라드비젼의 신뢰 관계가 더욱 공고화됐으며, 앱티브는 스트라드비젼 SVNet의 ‘flexibility’에 주목해 활발하게 협업을 이어나가고 있습니다. 
투자 라운드를 통해 유치한 자금은 개발자 및 인재영입(60%), 데이터비용(10%), 그리고 해외 시장 확대를 위해 운용됐습니다. 








최근 모셔널과 테슬라 출신의 필립 비달(Philip Vidal)을 최고사업책임자(CBO)로 영입했습니다. 어떤 역할을 기대하나요? 
KIM    
네, 필립이 자율주행 분야에서 쌓아온 사업 개발 능력을 바탕으로 스트라드비젼의 글로벌 사업 확장을 위해 비즈니스 전략을 수립 및 실행하기를 기대합니다. 특히 고객별 맞춤형 관리를 통해 전략적 이니셔티브 추진 등 최첨단 기술로 글로벌 자동차 산업의 미래를 위한 새로운 표준을 설정할 수 있기를 바랍니다.



비전 AI를 다양한 일상생활에 적용
항공, 물류, 모빌리티 등으로 확장
  

자동차 영역을 넘어서, 타 영역으로의 진출 계획도 있나요? 
KIM    
물론 미래에는 오토모티브에 국한하지 않고 사람의 더 나은 삶을 위해 다른 영역으로 자연스럽게 확장할 계획입니다. 스트라드비젼의 핵심 기술 비전 AI는 자동차뿐만 아니라 다양한 일상생활에 적용되어 효율성과 생산성을 극대화할 것입니다. 궁극적으로 항공, 물류, 모빌리티 등 관련 산업으로 포트폴리오를 확장해 글로벌 비전 AI 소프트웨어를 선도할 것입니다. 

하지만 당장은 오토모티브에서 L2+ 정도에 대응되는 세팅 기술이 저희가 가장 주력하는 부분입니다. 물론 SVNet도 L4 이상의 자율주행 프로젝트에 대응할 수 있지만, 현재 완성차에 저희가 공급하는 SW 수준은 대부분 L2 ~ L3에 해당합니다.


클라우드가 대세인데, SVNet을 클라우드 기반으로 제공할 계획이 있나요? 
KIM  
 SDV 또는 C2X의 관점에서 대부분 자동차는 어느 정도 수준에서 서버와의 통신이 이뤄지고 있습니다. 하지만 자율주행의 관점에서는 실시간으로 판단해야 하므로 서버와의 통신에만 의존하게 둘 수 없습니다. 서버와의 커넥션이 없는 지형에서의 문제나 통신 지연으로 인해 생기는 대기시간도 고려해야 하기 때문입니다.

이런 실시간 판단 영역만 벗어난다면, 주행 중 수집되는 정보를 통해 실시간 지도 업데이트나, 모델 성능 향상을 위한 데이터 수집 등을 위한 서버와의 통신은 필수적인 부분입니다. 스트라드비젼 또한 이를 대비해 다양한 클라우드 업체와 협의 포인트를 만들어나가고 있습니다.


10년 후(20주년) 스트라드비젼은 어떤 회사가 되어 있을까요?
KIM    
스트라드비젼은 2027년까지 글로벌 연간 신차 생산량의 10%인 1,000만 대, 2032년까지 50%(약 5,000만 대)에 SVNet 도입을 목표로 하고 있습니다. 이렇게 오토모티브 소프트웨어 시장 내 점유율을 늘려 키 플레이어로 자리 잡을 것입니다. 이후에는 비전 AI를 다양한 일상생활에 적용해 효율성과 생산성을 극대화할 것입니다. 스트라드비젼은 자동차뿐만 아니라 항공, 물류, 모빌리티 등 관련 산업으로 포트폴리오를 확장해 글로벌 비전 AI 소프트웨어를 선도할 것입니다.



AEM_Automotive Electronics Magazine


<저작권자(c)스마트앤컴퍼니. 무단전재-재배포금지>


  • 100자평 쓰기
  • 로그인



TOP