How DeepFusion AI Reframes Autonomous Driving with 4D Imaging Radar
INTERVIEW
유 승 훈 CEO
SungHun Yu, DeepFusion AI
자율주행이 실제 운영 단계로 들어가는 순간 질문은 바뀐다. 더 잘 보느냐가 아니라 보이지 않는 순간에도 멈추지 않을 수 있느냐로. 기상과 환경이 흔들리고, 센서의 한계가 보이는 조건에서 시스템은 어디까지 버틸 수 있을까. 이 질문은 아직 기술의 성능 경쟁으로 충분히 답이 나오지 않은 상황에서 오히려 해상과 방산처럼 실패가 허용되지 않는 영역에서 먼저 제기돼 왔다. 그리고 지금, 자율주행과 로보택시의 운영 문제로 되돌아오고 있다. DeepFusion AI는 이 지점에서 출발한다. 이들이 4D 이미징 레이다와 전파계 딥러닝을 이야기하는 이유는 ‘더 잘 보기 위해서’가 아니라, 운영이 무너지기 시작하는 경계에서 무엇이 기준이 될 수 있는지를 묻기 위해서다.
글 | 한상민 기자 _ han@autoelectronics.co.kr
IN ENGLISH
짙은 안개는 누구에게나 공평하다. 카메라에도, 라이다에도, 사람의 눈에도.
그러나 지금 자율주행이 마주한 문제는 “보이느냐, 안 보이느냐”를 넘어선다. 더 근본적인 질문은 보이지 않는 순간에도 시스템은 멈추지 않아야 한다는 것이다.
“폭우가 오면 운영하지 않으면 된다”는 판단이 통하던 때는 저물고 있다. 예를 들어, 로보택시는 도시 인프라가 될 것이고 무인 시스템은 이미 인간의 개입 없이 출동한다. 이제 문제는 성능뿐만 아니라 운영의 지속성, 그리고 그 운영을 무엇으로 지탱할 것인가다.
해상과 방산에서는 오래전부터 답이 명확했다. 안개와 비, 야지와 먼지 속에서도 작동해야 하는 시스템에서 보이지 않는 것을 보는 감각은 레이다였다. 반면, 로보택시와 자율주행은 다른 길을 걸어왔다. 라이다의 정밀도, 카메라의 풍부한 정보, 그리고 최근의 ‘카메라 온리’라는 과감한 선택까지. 하지만 운영이 실제로 시작되는 순간 질문은 다시 바뀔 수 있다. 허점 있는 센서에 의존하는 구조는 과연 어디까지 버틸 수 있는가. 이것은 기술과 운영 모든 측면에서의 리던던시가 선택이 아니라 조건이 되는 시점이다.
DeepFusion AI(DFAI)가 4D 이미징 레이다와 함께 주목받은 게 바로 이 지점이다.
DFAI는 해상과 방산에서 먼저 검증된 전파계 인지의 언어를 자율주행과 로보택시의 운영 문제로 끌어온다. ‘센서 퓨전’이 아니라, 인지 자체를 어떻게 정의하고 표준화할 것인가라는 질문으로.
이 접근은 기술적으로 낯설지만 운영의 관점에서는 정직하다. 유승훈 CEO는 이 이야기를 기술로 포장하지 않은, 기술 시연이 아니라 구조화된 브리핑을 통해 ‘무엇이 가능한가’가 아니라 ‘무엇을 감당할 수 있는가’를 이야기를 했다. 왜 4D 이미징 레이다인지, 왜 ‘센서 퓨전’이 아니라 ‘인지의 표준화’인지, 그리고 왜 그들이 CES 2026에서 ‘최고혁신상’을 수상했는지를 말했다. DFAI의 이야기는 기술의 최전선이 아니라, 운영이 무너지기 시작하는 경계(boundary)에서 출발하고 있었다.
센서 퓨전이 아니라,
인지 자체를 표준화하는 것
DFAI의 기술적 출발점은 RAPA-R(Real-time Attention-based Pillar Architecture for Radar)이라 불리는 전파계 딥러닝 엔진이다.
레이다에서 얻은 전파 데이터를 그대로 ‘인식’의 입력으로 삼아 객체 탐지와 분류를 수행하는 구조다. 레이다 데이터 자체를 딥러닝이 다룰 수 있는 인지 언어로 만드는 것, 다시 말해 레이다를 보조 센서가 아니라 독립적인 인지 주체로 만든다.
그래서 ‘퍼셉티브 센서 스탠다드(Perceptive Sensor Standard)’란, 레이다·카메라·라이다의 결과를 나중에 섞는 센서 퓨전이 아니라, 세상을 인식하는 기준 자체를 하나의 공통 언어로 정의하는 접근이다. 센서는 그 기준을 채우는 수단일 뿐이며 인지의 판단 구조는 바뀌지 않는다. RAPA-R은 DFAI가 말하는 인지의 표준화 ‘퍼셉티브 센서 스탠다드’의 기술적 토대이면서 4D 이미징 레이다, 근거리 통합인지, 멀티 레이다 전방위 딥러닝, 레이다 기반 SLAM 논의의 출발점이다.
“이것은 일반적인 센서 퓨전이 아닙니다. 딥러닝 관점에서 인지 자체를 새롭게 표준화하는 접근입니다. 이 표준화란 E2E에 ‘무엇을 더 붙이느냐’의 문제가 아니라, 레이다 센서를 중심으로 인지를 어떻게 정의할 것인가에 가깝습니다.” 유 CEO가 말했다.
카메라와 라이다는 이미 딥러닝 파이프라인과 함께 산업적으로 굳어지고 있지만, 전파계 센서인 레이다는 그 경로를 이제 밟고 있다. 이유는 그동안 정형화된 데이터 셋이 없었기 때문이다. 레이다는 제조사마다 하드웨어 특성이 다르고, 안테나 구성과 포인트클라우드 형태가 제각각이었다. 레이다는 분명 오랫동안 물리적으로 중요한 센서였지만 딥러닝 언어로는 충분히 정리되지 못했다.
DFAI가 바로 이 공백을 4D 레이다의 성숙과 ‘인식의 표준화’란 방식으로 메우려는 것이고, 그 핵심 방법이 ‘가상 레이다’와 ‘프리트레이닝’이다. DFAI가 말하는 가상 레이다란 실제 전파 센서를 디지털 환경에서 모델링해 레이다가 만들어낼 신호를 가상 데이터로 생성하는 방식이다. 이 데이터를 통해 딥러닝 모델을 먼저 학습(pre-training)함으로써 실제 하드웨어가 바뀌어도 짧은 파인튜닝만으로 동일한 인지 구조를 이식할 수 있다.
“DFAI는 RAPA-RC(레이다+카메라 Early Fusion)와 RAPA-RL(레이다+라이다 Early Fusion)으로 확장해 다양한 애플리케이션에서 인지 기술의 고도화를 추진하고 있습니다. 이 융합 모델들은 동일한 ‘퍼셉티브 센서 스탠다드’를 기반으로 설계돼, 센서 구성이 달라져도 판단 구조는 변하지 않습니다. DFAI는 이런 기술을 더욱 고도화해 2027년 1월 CES 일정에 맞춰 새로운 기능과 응용 사례를 소개하기 위해 준비하고 있습니다(12월 인터뷰 시점).”
4D 레이다,
라이다 ‘4년차’와 비교되다
유 CEO는 라이다 산업을 오랫동안 지켜봐 왔다.
초기 라이다 센서는 자체 성능이 부족해 딥러닝을 걸기 어려웠지만 성능이 올라오자 데이터와 알고리즘이 뒤따르며 산업 전체가 한 단계 도약했다. 그는 지금의 4D 이미징 레이다를 그 시절의 라이다에 겹쳐 놓는다.
“4D 이미징 레이다는 라이다가 대략 4년 차에 들어갔을 때와 비슷한 위치에 있습니다. 예를 들어, 지금 국내의 비트센싱(bitsensing)과 독일의 보쉬가 내놓는 4D 이미징 레이다를 보면 성능이 꽤 좋습니다. 이런 흐름 자체가 고무적입니다.”
‘성능’은 단순한 감상이 아니다. 정확도와 포인트클라우드 밀도, 그리고 그것이 딥러닝에 투입될 수 있는가에 대한 것이다. DFAI는 포인트클라우드를 ‘초당 포인트 수’가 아니라 ‘센서 사이클’ 기준으로 본다. 보통 40~50ms 사이클을 기준으로 보면 4D 이미징 레이다 한 대에서 한 사이클당 약 2,000포인트 수준이 나온다. 회전식 라이다와 비교하면 절대량은 적지만, 레이다의 폼팩터와 배치 자유도를 고려하면 무시할 수 없는 수치다.
“물론 더 촘촘해져야 한다고 봅니다. 한 사이클당 1만 포인트쯤 가면 디테일이 훨씬 살아날 겁니다. 그러나 중요한 것은 숫자 자체가 아닙니다.”
DFAI가 보는 핵심은 ‘딥러닝을 걸 수 있는 임계점이 보이기 시작했다’는 감각이다. 포인트 수와 정확도가 일정 수준을 넘어서면 레이다는 더 이상 보조 센서가 아니라, 딥러닝의 직접적인 대상이 된다. 유 CEO는 지금의 4D 이미징 레이다가 바로 그 문턱에 도달했다고 본다.
Multi-radar 기반 세계 유일 상용화 수준 Radar SLAM 기술
정밀도보다 운영성
“전파는 속도 값을 직접 얻을 수 있잖아요. 그래서 복잡한 추론 연산 없이도 충분합니다.”
라이다가 제공하는 정밀한 거리 정보는 매혹적이다. 수 밀리미터 단위까지 공간을 재현하는 능력은 기술적으로 분명한 강점이다. 그러나 그 정밀함을 현장에서 유지하는 일은 전혀 다른 문제다. 컴퓨팅 파워의 부담은 물론, 회전식 라이다의 경우 장시간 운행 중에 발생하는 미세 진동만으로도 축 정렬이 틀어질 수 있고, 이는 점진적인 인식 오차로 이어진다. 이 과정은 눈에 보이지 않게 진행되기 때문에 실제 운영에서는 정기적인 캘리브레이션과 전문 인력이 필수로 뒤따른다.
비·눈·안개·먼지 같은 환경 요인도 부담이다. 광학계 센서인 라이다는 투명도를 유지하기 위한 세척과 보호 구조가 필요하고, 해상이나 야지 환경에서는 염분과 흙먼지가 수명을 단축시킨다. 결국 라이다의 정밀함은 센서 자체보다, 운영 인프라와 절차의 무게를 함께 끌고 다닌다. 유 CEO는 이 지점을 두고 “정밀도가 항상 운영 효율로 이어지지는 않는다”고 말한다.
반면, 레이다는 카메라나 라이다처럼 형상을 제공하지 못하고 시야각에도 제약이 있다. 하지만 4D 이미징 레이다와 ‘중첩(오버랩)’이라는 방식은 이 한계를 다르게 풀어낸다. 전면과 코너에 여러 개의 레이다가 배치되면 근거리에서 포인트가 겹치며 인식 밀도가 자연스럽게 올라간다.
이것이 DFAI가 말하는 ‘근거리 통합인지’다. 사고와 충돌이 실제로 발생하는 근거리 영역을 여러 센서의 결과를 나중에 합치는 방식이 아니라, 하나의 인지 공간으로 통합해 해석하는 접근이다. 레이다가 중심이고, 광학계는 필요에 따라 이를 보완한다.
이렇게 되면 그동안 차량에 널리 적용돼 온 전방 카메라 1개와 다수의 레이다가 차량 주변을 커버하는 기본 배치를 그대로 유지하면서 인식 구조만 업그레이드할 수 있다. 4D 이미징 레이다는 센서를 하나 더 붙이는 방식이 아니라, 기존 레이다를 대체하며 인식의 안정성과 범위를 끌어올리는 접근이다. 논점은 단순한 성능 비교가 아니라, 어떤 조건에서도 인지가 무너지지 않도록 기준을 어디에 두느냐에 있다.
“이건 센서를 고급화하는 이야기가 아닙니다. 360도 서라운드 인지의 리던던시, 그리고 근거리까지 아우르는 통합 인지에 대한 이야기입니다.”
유 CEO가 말했다.
안개 속에서도
멈추지 않아야 하는 시스템
유 CEO의 이야기는 어느 순간 자연스럽게 “어디서 쓰이느냐”의 문제로 옮겨갔다. 그는 로보택시를 언급하면서도, 이 시장에서 아직 ‘절박한 니즈’가 완전히 드러난 건 아니라며 조건이 훨씬 가혹한 장면을 먼저 꺼냈다.
“무인 수상정은 안개가 끼어도 출동하고, 태풍이 불어도 출동합니다.”
안개가 짙어지면 카메라는 급격히 무력해지고 라이다 역시 성능을 보장하기 어렵다. 해상에서는 전통적으로 X-band 레이다가 쓰여 왔지만, 그 역시 완전한 해답은 아니다. 약 500m 이내의 근거리로 들어오면 전파 특성상 음영 구간이 생기고, 문제는 바로 그 구간이 실제로 충돌이나 교전이 발생하는 가장 중요 범위다. DFAI의 접근은 이 공백을 4D 이미징 레이다로 메우는 것이다.
선박 주변을 레이다로 둘러 근거리에서 3차원 정보를 확보하고 이를 딥러닝으로 해석해 객체를 찾고 분류까지 이어간다. 소형 선박, 어선, 화물선뿐 아니라 부표와 파도 같은 해상 특유의 요소까지 인식 대상에 포함된다. 이때 광학계와 전파계의 융합은 성능 향상의 문제가 아니라, 시스템이 살아남을 수 있느냐의 문제로 바뀐다. 유 CEO는 이를 ‘생존성(survivability)’이란 말로 정리했고, 이 흐름은 무인 전투 차량으로 이어졌다.
“야지에 나가서 1분 정도 흙먼지를 뒤집어쓰면 라이다는 바로 안 보입니다. 전장에서 회전식 라이다를 닦아가며 쓴다는 건 상상하기 어렵죠.”
전장에서는 비, 눈, 안개보다도 흙먼지와 진동, 충격이 센서를 먼저 무력화시킨다. 방산 영역에서 라이다의 운영 수명이 짧은 것도 이 때문이다. 정밀한 센서일수록 유지 조건은 까다로워지고 그 부담은 고스란히 운영 리스크로 돌아온다. 그래서 이 영역에서 전파계 인지의 비중이 높아질 수밖에 없다.
레이다를 ‘기준점’으로 삼는 이유
이런 조건에서 DFAI의 핵심 데모가 왜 ‘4D 이미징 레이다만으로 360도를 실시간 딥러닝으로 인지하는 구조’로 구현됐는지도 자연스럽게 이해된다. 즉, 데모는 기술 과시가 아니라, 가장 거친 환경에서도 인지가 무너지지 않도록 설계된 결과다.
“사람들이 이거 ‘카메라 딥러닝 아니냐’고 오해를 많이 합니다. 그런데 우리는 레이다 데이터만으로 합니다.”
유 CEO가 강조하는 ‘레이다 단독 인지’는 카메라나 라이다를 배제하겠다는 선언이 아니다. 오히려 그 반대다. 어떤 조건에서도 흔들리지 않는 인지의 기준점을 먼저 세우겠다는 선택에 가깝다. 그는 얼리퓨전에 대해서도 의외로 솔직했다.
“얼리퓨전은 굉장히 어렵습니다. 레이다도 좋아야 하고, 카메라도 좋아야 합니다. 함부로 했다가 망하는 사례가 훨씬 많아요.”
DFAI의 선택은 모든 센서를 한꺼번에 묶는 것이 아니라, 레이다 중심의 인지 구조를 먼저 완성한 뒤, 실제 운용 환경에서 필요가 확인되는 경우에만 다른 센서를 보완적으로 결합하는 방식이다. 해상처럼 카메라로 형상은 인식되지만 절대 거리 추정의 신뢰도가 낮은 환경에서는 레이다가 커버하는 구간에서 거리·깊이 정보를 제공해야 실전 인지가 성립한다. 반대로 안개·먼지·비처럼 광학계의 신뢰도가 급격히 떨어지는 조건에서는 레이다 단독 인지가 시스템의 기준점으로 작동한다.
여기서 경쟁 구도는 분명해진다. 경쟁사들이 “어떻게 더 잘 볼까”를 묻는다면, DFAI는 “무엇을 기준으로 끝까지 볼 수 있을까”를 묻는다. 이 차이는 센서의 성능이나 조합 문제가 아니라, 운영을 어떻게 설계하느냐에 대한 기준의 차이다. DFAI의 ‘근거리 통합인지’ 개념은 가장 거친 환경에서 먼저 요구된 결과다. 그래서 현재 활발히 전개되고 있는 글로벌 OEM, 티어 1과의 논의 이전에 DFAI의 첫 레퍼런스가 해상과 방산에서 나온 것이다. 가장 멈출 수 없는 시스템, 가장 실패가 허용되지 않는 환경에서 먼저 검증한 것이다.
현실 주행 환경의 불확실성을 다루는 DFAI, 그 기술적 방향성과 실행법에 대해 이규진 상무와 개발자들이 소개했다.
경계에서 나온 ‘최고혁신상’
“만약 안개가 심하게 낀 영종대교를 로보택시가 건너려 한다면 어떨까요? 사람들은 아직 그 지점까지 깊이 생각하지 않습니다. 저희는 그런 상황을 전제로 둡니다.”
기술의 우열이 아니라, 운영이 시작된 순간, 그리고 멈출 수 없게 된 순간에 무엇이 시스템을 지탱할 수 있느냐. DFAI가 말하는 ‘경계’가 바로 이 지점이다.
그리고 이 대화는 유 CEO에게 이런 질문을 하게 만든다.
“이러면 목표가 라이다를 대체하는 거네요?”
유 CEO는 이 질문에 이렇게 선을 긋는다.
“대체라기보다는 역할의 재정의에 가깝습니다. 라이다는 여전히 높은 정밀도가 필요한 영역에서 중요한 센서입니다. 다만 실제 운영 환경에서는 항상 밀리미터 단위의 정밀도만이 정답은 아닙니다.”
자율주행이 요구하는 허용오차는 언제나 밀리미터 단위의 정밀도가 아닐 수 있다. 실제 운영에서는 10cm 수준의 안정성과 지속가능성이 더 중요해지는 장면도 많다. 중첩과 검증을 거치며, 역할이 서서히 이동하는 과정이다.
DFAI의 이야기를 따라가면, 4D 이미징 레이다는 ‘대안 센서’가 아니라 ‘현실의 요구’로 보이기 시작한다. 안개 속으로 출동하는 무인 수상정, 먼지 속에서 살아남아야 하는 무인 전투 차량, 그리고 도시 단위 운영과 비용 구조를 전제로 하는 로보택시. 또, 이 문제는 완전 자율주행만의 이야기가 아니라, 이미 도로 위를 달리고 있는 레벨 2 ADAS에서도 센서 리던던시와 운영 안정성이란 같은 질문 앞에 서게 된다.
운영을 어떻게 설계할 것인가. 안개는 언젠가 걷힌다. 하지만 운영은 걷히지 않는다. 그 운영을 무엇으로 버틸 것인가. 이 질문이 단지 한 스타트업의 문제의식에 그치지 않았다는 점을 CES 2026의 평가가 보여준다.
DFAI는 4D 이미징 레이다와 전파계 딥러닝을 기반으로 한 인지 구조로 CES 인공지능 분야 최고혁신상을 수상했다. DFAI가 이런 질문과 함께 4D 이미징 레이다를 다시 수면 위로 올리고 있다.
AEM(오토모티브일렉트로닉스매거진)
<저작권자 © AEM. 무단전재 및 재배포 금지>