자율주행에 있어서 핵심은 객체 인식이다. 차량이 직접 장애물을 판단해 내는 기술이 여간 까다로운 게 아니다. 사람도 사각지대가 존재하는데 기계야 말할 것도 없다. 자율주행차에서 사람의 시신경이 돼주는 레이다와 라이다는 정확도가 높지만 무겁고 비싼 게 최대 약점이다. 스트라드비젼이 올해 전제제품박람회(이하 CES)에서 내놓은 ‘3D 퍼셉션’은 카메라만으로 이 같은 단점을 보안한 획기적인 기술로 꼽힌다.
11일(현지시간) 미국 라스베이거스 웨스트게이트호텔 스트라드비젼 프라이빗 부스에서 만난 김준환 대표는 ”자율주행 시스템은 감지, 인식, 계획, 행동이라는 4단계의 과정을 거치는데 3D 퍼셉션은 이 중 인식 단계에서 데이터를 2D에서 3D로 변환하는 솔루션을 제공한다“며 “이를 통해 카메라로 물체와의 거리 측정이 가능해져 인식 정확도를 높이고 비용도 대폭 절감할 수 있게 됐다”고 강조했다. 실제로 라이다 장치가 몇만달러 수준이었다면 불과 10달러 안팎인 카메라로 최적의 효과를 보는 셈이다.
스트라드비젼은 ADAS(첨단운전자보조시스템)용 객체 인식 솔루션인 ‘SVNet’를 지난 2019년부터 상용화해 큰 성과를 거뒀다. 이 기술은 차량에 탑재된 카메라를 통해 들어온 영상을 AI로 분석해 주변의 사람이나 차선, 신호등, 표지판 등을 구별할 수 있도록 하는 소프트웨어다. 현재 전 세계 완성차 고객사 13개 업체가 SVNet을 채택하고 있다. 지난 한해에만 SVNet 장착된 차량이 100만대가 추가될 정도로 인기가 높다.
올해부터는 앞서 소개한 3D 딥러닝 기술이 들어간 SVNet로 시장 공급에 나선다. 3D 인식 네트워크를 적용한 SVNet은 영상을 기존 2D에서 3D로 변환할 수 있게 만든다. 현재 측정 가능한 최대 거리는 250m다. 라이다에 맞먹는 수준이다. 또한 향상된 딥 러닝 기능과 줄어든 후처리 과정으로 차량용 시스템반도체에 부과되는 리소스를 줄였다. 자체 정확도 실험 평가 결과는 95%에 달한다. 김 대표는 “3D 인식 네트워크의 향상된 딥러닝과 줄어든 후처리 과정으로 확장성을 대폭 높였다”며 “후처리 과정의 코드 복잡성도 50%까지 줄여 유지 관리 프로세스를 간소화했다”고 말했다.
특히 이 기술은 소프트웨어 중심의 자동차(SDV) 전환에도 도움을 준다. SVNet에 새 기술을 적용하면서 암(ARM)코어 기반 CPU 사용량도 기존 20% 수준에서 7%까지 떨어진다. 암코어를 소량만 사용하다보니 완성차업체가 SDV를 위한 필요한 앱을 추가할 수 있는 장점이 있다.
김 대표는 “SVNet 보급률은 2027년 350만대 수준에서 2032년에는 4500만대까지 확장이 예상되고 있다”며 “올해에는 유럽 및 일본 시장 내 자동차 OEM사와의 여러 생산 프로젝트를 진행하기 위한 전략적 협업을 강화할 예정”이라고 말했다.
최근 한국거래소가 지정한 기술평가 전문기관으로부터 모의 기술성에 대한 평가로 A등급을 받은 스트라드비젼은 올 하반기에는 기업공개도 추진할 계획이다. 시리즈 C 투자 유치까지 성공해 누적 투자 금액 규모는 약 1500억 원에 달하며 기술특례 상장 전망을 밝히고 있다.
라스베이거스=
정진수 동아닷컴 기자 brjeans@donga.com
댓글0