스마트폰 카메라 vs 자율주행용 카메라 기술 비교 분석
스마트폰 카메라 분야 주요 업체 기술 비교
스마트폰 카메라 시장은 소니(Sony), 삼성전자 System LSI(이미지센서 사업부), 옴니비전(OmniVision) 등의 기업이 주도하고 있습니다. 이들은 고성능 CMOS 이미지센서(CIS)를 개발하여 스마트폰 제조사에 공급하고 있으며, 소형 폼팩터 안에서 높은 해상도와 뛰어난 화질을 달성하기 위한 첨단 기술을 보유하고 있습니다. 아래에서는 각 업체별로 핵심 기술과 센서 성능, 최신 동향, 대표 적용 제품, 기술 장점 활용 사례, 미래 로드맵을 정리합니다.
Sony (소니)
- 핵심 기술 및 센서 성능: 소니는 세계 1위의 이미지센서 업체로, Exmor RS 적층형 CMOS 센서로 유명합니다. 최신 센서는 2층 트랜지스터 픽셀 구조와 같은 혁신을 도입하여, 픽셀의 포토다이오드와 트랜지스터를 분리 적층함으로써 포화 신호량을 약 2배 높여 기존 대비 다이내믹 레인지를 크게 확대하고 노이즈를 감소시켰습니다 . 이는 픽셀 사이즈가 작아져도 저조도 성능과 HDR을 향상시키는 핵심 기술입니다. 소니는 1인치에 가까운 대형 센서(IMX989 등 50MP급)부터 0.8μm 이하 픽셀의 고해상도 센서까지 다양한 제품을 제공하며, ToF(비행시간 방식) 3D 센서도 공급합니다.
- 최근 기술 동향 및 혁신 사례: 2021년 세계 최초로 발표한 2층 트랜지스터 픽셀 기술은 소형 픽셀에서의 화질 저하 문제를 극복한 혁신 사례입니다 . 또한 소니는 듀얼 게인 HDR, 전(全)화소 위상차 AF 등 센서 내 고속 처리 기능을 발전시켜 왔습니다. 2022년에는 업계 최초 1인치 스마트폰 센서(IMX989)를 출시하여 대형 센서 채용 트렌드를 주도했고 , 머신러닝을 이용한 이미지 신호처리(예: AI 노이즈 제거)를 센서와 프로세서에 접목하는 연구도 진행 중입니다. 소니 센서는 아이폰을 비롯한 주요 플래그십 스마트폰에 채택되어 왔으며, 특히 애플과 10년 넘게 파트너십을 유지하며 아이폰 카메라 성능 향상을 견인했습니다 .
- 대표 플랫폼/적용 제품: 애플 아이폰 시리즈가 대표적으로 소니 센서를 사용하며, 삼성전자와 중국 제조사의 일부 고급형 기기에도 소니 센서(IMX 시리즈)가 탑재됩니다. 시장 조사에 따르면 2021년 기준 소니는 전세계 CIS 시장의 44%를 차지하며 애플 등 주요 고객을 확보하고 있고, 2위인 삼성(18.5%)을 큰 격차로 앞서고 있습니다 . 소니의 1/1.3~1/1.7인치 50MP 센서는 Xiaomi, Oppo 등의 플래그십 스마트폰 메인 카메라에 흔히 채용되고, 소니의 iToF Depth 센서는 AR 기능을 위한 깊이측정에 활용되기도 합니다.
- 기술 장점 활용 사례: 소니 센서는 우수한 저조도 성능과 높은 HDR로 정평이 나 있습니다. 예를 들어 듀얼 컨버전 게인 및 적층 구조로 감도를 높여 밤하늘의 별이나 인물의 피부톤도 낮은 노이즈로 담아낼 수 있으며 , 이는 스마트폰의 야간 모드 촬영에서 경쟁사 대비 깨끗한 이미지를 얻는 데 기여합니다. 또한 전 픽셀 위상차 AF 기술로 빠르고 정확한 초점을 제공하여, 움직이는 피사체도 선명하게 포착합니다. 이러한 센서상의 장점들은 각 스마트폰 제조사의 이미지 프로세싱과 결합되어 실제 사용자에게 어두운 곳에서도 밝고 선명한 사진, 역광에서도 디테일이 살아있는 HDR 사진 등을 제공하는 기반이 되고 있습니다.
- 미래 기술 로드맵 및 장래성: 소니는 향후 픽셀 구조 혁신을 지속하고, AI 처리 엔진을 센서에 내장하는 등 차세대 기술을 선도할 것으로 보입니다. 차세대 스마트폰 센서로 100MP 이상급 해상도나 듀얼층 픽셀 기술의 상용화가 거론되며, 센서 내 메모리 및 프로세서 통합으로 촬영과 동시에 AI 장면인식/보정이 가능한 지능형 센서를 개발할 가능성이 있습니다. 소니는 이미 이미지센서에 AI 프로세서를 넣은 시도를 한 바 있어(예: 보안용 IMX500), 이러한 기술이 모바일에도 접목될 전망입니다. 또한 자율주행 자동차용 이미지센서 시장에도 진출하여, 차량용 고신뢰성 HDR 센서 제품군을 강화하고 있어 타 분야로의 확장성도 높습니다.
Samsung System LSI (삼성전자 시스템 LSI)
- 핵심 기술 및 센서 성능: 삼성전자는 ISOCELL 브랜드로 스마트폰 이미지센서를 공급하며, 초고화소 기술에서 두각을 나타냅니다. 2019년 업계 최초 1억800만 화소(108MP) 센서를 내놓은 데 이어 2021년 세계 최초 2억 화소(200MP) 센서인 ISOCELL HP1을 발표했고, 최근 개량형 2억 화소 센서(HP3 등)를 연이어 출시했습니다 . 0.56μm까지 픽셀 피치를 미세화한 ISOCELL HP3 센서는 2억개의 픽셀을 1/1.4” 옵티컬 포맷에 담고 있으며, 4x4 픽셀 비닝(Tetra²pixel) 기술로 최대 16개의 픽셀을 하나처럼 묶어 저조도에서는 2.24μm 거대픽셀(12.5MP)로 동작시킬 수 있습니다 . 또한 스마트 ISO Pro(이중/삼중 감도 병합)와 Staggered HDR(3중 노출 HDR)을 지원하여 14비트 컬러, 최대 4조개 색상의 풍부한 표현력을 제공합니다 . 삼성 센서는 AI를 활용한 경계간 잡음 제거(DTI 개선), 위상차 AF를 위한 Super QPD 등 다양한 기술적 강점을 지니며, ToF 기반의 깊이센서(ISOCELL Vizion 시리즈)와 자동차용 글로벌셔터 센서도 제품 포트폴리오에 포함하고 있습니다.
- 최근 기술 동향 및 혁신 사례: 삼성은 초고화소 센서의 영상 품질 향상을 위한 솔루션을 지속 선보이고 있습니다. 예를 들어 2억 화소 센서에서 Dual Vertical Transfer Gate (Dual-VTG) 기술과 테트라²픽셀 구조를 도입하여 작은 픽셀에서도 충분한 풀웰(capacity)을 확보하고 감도를 높였습니다 . 2023년에는 ISOCELL Zoom Anyplace 기능과 엔드투엔드 AI 리모자이크 기술을 공개하여, 2억 화소 센서로 촬영 중 피사체를 자동 추적하면서 디지털 줌을 해도 FHD 해상도를 유지하는 등 창의적인 영상 촬영을 가능케 했습니다 . 또한 스마트폰 동영상에서 8K 30fps 촬영과 4K 120fps HDR을 구현하는 등 고화질 영상 분야에서도 혁신을 보이고 있습니다 . ISOCELL 센서는 샤오미, 모토로라 등에서 세계 최초 108MP, 200MP폰을 출시하는 데 사용되었고, 삼성전자 자체 갤럭시 S 시리즈 울트라 모델에도 1억+ 화소 센서를 탑재하여 디지털 줌 성능 향상과 세부 디테일 표현을 선보였습니다.
- 대표 플랫폼/적용 제품: 삼성 갤럭시 스마트폰 전 라인업에 폭넓게 쓰이며, 특히 갤럭시 S울트라 모델은 삼성의 최고급 센서를 채택해 왔습니다 (예: 갤럭시 S23 울트라의 2억 화소 HP2 센서). 삼성 센서는 샤오미, 비보(Vivo), 모토로라 등의 제조사에도 공급되어, 1억+ 화소 카메라폰 트렌드를 확산시켰습니다. 모토로라는 2022년 Edge 30 Ultra에 삼성 HP1 200MP 센서를 세계 최초로 탑재했고, 샤오미 12T 프로도 200MP 센서를 채용했습니다. 중급기에도 5천만, 6천만 화소 ISOCELL 센서(GN, GW, GM 시리즈 등)가 널리 쓰여 시장 점유율을 확대하고 있습니다. 삼성은 자동차용 이미지센서(ISOCELL Auto) 분야도 개척하여 800만 화소급 차량용 카메라 센서를 선보였고, 향후 스마트폰에서 쌓은 기술을 차량용에서도 활용하고 있습니다 .
- 기술 장점 활용 사례: 삼성 ISOCELL 센서는 초고해상도를 활용한 손실없는 줌 및 크롭이 장점입니다. 예를 들어 2억 화소 센서는 중앙 1/4 영역을 크롭하여도 5천만 화소 이미지로 기록할 수 있어 망원렌즈 없이도 고화질 줌 촬영이 가능합니다. 실제로 삼성은 2억 센서의 4배 무손실 줌 기능을 강조하여, 4배 디지털줌 시에도 1,200만 화소의 선명한 사진을 얻을 수 있다고 밝혔습니다 . 또한 테트라²픽셀 비닝으로 저조도 촬영 품질을 극대화하여, 어두운 환경에서 2.24μm 상당의 픽셀로 촬영함으로써 노이즈를 줄이고 밝기를 높였습니다 . 스마트 ISO 프로 기술은 하나의 노출로도 고감도·저감도 이중 신호를 결합해 14-bit HDR 이미지를 생성하여, 움직이는 피사체가 있어도 HDR 효과를 얻도록 합니다 . 이러한 기술들은 사용자가 어두운 밤이나 역광 환경에서도 디테일이 풍부한 사진/영상을 얻도록 도우며, 삼성폰의 ‘나이토그래피(야간 촬영)’ 성능 향상에 핵심 역할을 하고 있습니다.
- 미래 기술 로드맵 및 장래성: 삼성은 초고화소 그 이상을 내다보는 공격적인 로드맵을 갖고 있습니다. 2021년 삼성전자는 2025년경 인간 눈의 해상도를 뛰어넘는 576MP 센서를 목표로 개발 중임을 밝힌 바 있습니다 . 이 초거대 화소 센서는 모바일뿐 아니라 자율주행차 등 새로운 응용을 염두에 둔 것으로, 모바일에서는 현실적으로 2억 화소대 센서의 완성도를 높이고 화질 최적화에 주력할 전망입니다. 픽셀 크기를 더욱 축소(0.5μm 미만)하면서 **QD(퀀텀닷)**나 새로운 컬러 필터 배열로 감도를 보완하는 연구, 그리고 센서용 AI ISP 내장 등이 미래 과제로 거론됩니다. 또한 차량용 카메라 시장에서도 글로벌셔터 센서, LED 플리커 저감 기술 등을 앞세워 존재감을 키울 것으로 보입니다. 삼성의 높은 반도체 공정 경쟁력(최신 17nm 공정 등)은 향후 센서에 더 많은 트랜지스터와 기능을 집적하는 데 강점으로 작용하여, 모바일/자동차 경계를 허무는 혁신을 이어갈 것입니다.
OmniVision (옴니비전)
- 핵심 기술 및 센서 성능: 옴니비전은 미국에서 설립되었지만 현재 중국 자본계열에 속한 이미지센서 기업으로, 스마트폰용 CIS 시장에서 소니·삼성 다음의 주요 공급업체입니다. 옴니비전은 고해상도와 초소형 픽셀 기술로 경쟁하고 있으며, 2022년 CES에서 세계 최소 픽셀(0.61μm) 기반의 2억 화소 모바일 센서 OVB0B를 발표하였습니다 . 이 센서는 1/1.4” 크기에 200MP를 담고 16셀 컬러 필터 배열(16-cell CFA)을 적용해 4x4 비닝 시 2.44μm 등가 픽셀 크기(12.5MP 출력)를 달성합니다 . 또한 업계 최초로 200MP 전 화소 쿼드위상검출(QPD) AF를 구현하여 센서 전체에서 빠른 자동초점을 가능케 했습니다 . PureCel® Plus-S 적층 기술, DCG(이중 변환이득) HDR 등도 적용되어 고감도와 HDR 성능을 향상시켰으며, 옴니비전의 센서는 NIR+RGB 겸용 센서(Nyxel 기술), 전면 카메라용 언더디스플레이 센서, 자동차용 LED 플리커 억제 센서 등 다양한 파생 분야도 커버합니다.
- 최근 기술 동향 및 혁신 사례: 옴니비전은 소니·삼성과의 기술 격차를 줄이기 위해 초소형 픽셀 공정 혁신에 집중하고 있습니다. 2021~2022년에 0.61μm→0.56μm로 픽셀 크기를 더욱 줄인 200MP 센서(OVB0A)를 상용화하여 세계 최소 픽셀 기록을 경신했고 , 16셀 비닝을 통해 4K 동영상 촬영 시에도 16배의 감도를 제공하는 기술력을 선보였습니다 . 또한 옴니비전은 이미지센서 내 HDR 처리를 적극 도입하여, 3노출 Staggered HDR로 12.5MP @ 30fps HDR 출력을 지원하는 등 실시간 HDR 성능을 개선했습니다 . 혁신 사례로는 세계 최초 언더디스플레이 카메라용 상용 센서 공급(예: ZTE Axon 20 프론트 카메라) 등이 있으며, 최근에는 1/1.3인치 50MP 센서(OV50X 등)에서 업계 최고 수준의 다이내믹 레인지를 구현했다는 발표도 있었습니다. 이처럼 옴니비전은 화소 미세화와 새로운 응용(예: AR/VR, 차량 등) 센서 개발 양면에서 활발한 기술 개발을 보이고 있습니다.
- 대표 플랫폼/적용 제품: 옴니비전 센서는 중국 스마트폰 제조사들에 많이 채택됩니다. 화웨이, 오포(Oppo), 비보, 샤오미 등의 기기에서 메인 카메라보다는 초광각, 접사, 전면카메라 등 서브 카메라에 옴니비전 센서를 사용하는 사례가 많습니다. 예를 들어 비보 X 시리즈의 초광각 카메라에 OV48B 48MP 센서를 사용하거나, 일부 샤오미 중급형에 64MP OV64B 센서를 탑재하는 식입니다. 한편 과거 애플 아이폰 초기 모델들에도 옴니비전 센서가 쓰인 바 있으며, 최근에도 태블릿이나 보급형 기기의 전면카메라에採用되는 경우가 있습니다. 옴니비전은 자동차 카메라 시장에서도 두각을 나타내고 있는데(ADAS용 800만 화소 LFM 센서 등), 모바일과 자동차 모두 아우르는 라인업을 갖춰 다양한 플랫폼에 진출하고 있습니다.
- 기술 장점 활용 사례: 옴니비전 센서는 픽셀 밀도 대비 우수한 저조도 성능과 적은 전력 소모를 장점으로 합니다. 16셀 비닝 기술은 매우 어두운 환경에서 감도를 극대화하여 기존 대비 16배 밝게 영상을 얻을 수 있게 해주며 , 이를 통해 야간 비디오 촬영 시에도 노이즈를 억제하고 밝은 영상을 제공합니다. 또한 100% QPD 위상차 검출은 센서 전체 영역에서 초점을 잡기 때문에 화면 구석의 피사체도 신속하게 AF가 맞으며, 이는 움직이는 대상을 동영상으로 촬영할 때 초점 헌팅을 줄여주는 이점으로 연결됩니다. 옴니비전이 강점을 가진 근적외선 감도(NIR) 기술(Nyxel)은 스마트폰의 얼굴인식(IR 조명)이나 AR 어플리케이션에서 IR조명을 활용한 저조도 깊이인식 품질을 높여주며, HDR 기술은 낮과 밤 조도차가 큰 장면에서도 영상이 날아가지 않도록 합니다. 이러한 기술적 장점들은 주로 중저가 스마트폰에서 센서 성능으로 차별화를 이루는 데 활용되어, 가격 대비 뛰어난 카메라 성능을 구현하는데 기여합니다.
- 미래 기술 개발 로드맵 및 장래성: 옴니비전은 고화소·고감도 동시 달성을 위한 기술 개발을 지속할 것으로 전망됩니다. 업계에서는 옴니비전이 0.5μm대 이하 픽셀 구현과, 퀀텀닷 필터나 듀얼 픽셀 PDAF 등 신기술 도입을 추진할 것으로 보고 있습니다. 또한 중국 자본의 지원으로 공격적인 투자를 통해 생산 능력을 키우고 있으며, 차량용 이미지센서 분야에서 소니・온세미(Onsemi) 등과 경쟁하기 위해 LED 플리커 억제, 120dB 이상의 초광역 다이내믹레인지 기술을 선도하고자 합니다. 모바일에서는 향후 AR/VR용 센서, 디스플레이 내장형 카메라 등 특수용도 시장을 개척하여 차별화를 모색할 것이며, 대형 고객사 확보를 통해 시장 입지를 강화하는 것이 과제로 보입니다. 전반적으로 옴니비전은 가격 경쟁력과 맞춤형 제품 개발을 무기로 스마트폰 카메라 시장에서 꾸준히 영향력을 유지하면서, 점차 성장하는 자율주행 등 새로운 영상센서 시장에서의 장래성도 높게 평가받고 있습니다.
스마트폰 카메라 업체 비교표
스마트폰 카메라를 주도하는 주요 이미지센서 업체들의 기술 특성과 현황을 아래 표에 요약합니다.
업체 (국적)센서 기술 및 성능 특징대표 적용 기기 및 플랫폼혁신 사례 및 동향미래 전망 및 계획
소니 (일본) |
Exmor RS 적층 CMOS 센서, 2층 트랜지스터 픽셀로 소형 픽셀 HDR 향상 . 대형 1인치 50MP 센서 및 iToF 3D 센서 보유. |
애플 아이폰 (주력 카메라 센서 공급), 삼성/구글 플래그십 일부 모델. |
세계 최초 2층 픽셀 구조 개발 (’21)로 포화신호 2배↑ . 1인치 모바일 센서 상용화(Xiaomi 12S Ultra 등) . |
AI ISP 내장 지능형 센서 연구. 자동차용 HDR센서로 사업확장. 해상도 100MP+ 센서 준비 추정. |
삼성 (한국) |
ISOCELL BSI 센서, 초고해상도 108MP/200MP (0.56μm 픽셀) 센서 . 테트라²픽셀 16합픽셀로 저조도 2.24μm 등가 구현 . Smart-ISO Pro 및 Staggered HDR로 14-bit 색재현 . |
삼성 갤럭시 스마트폰 전반 (특히 S울트라 시리즈), Xiaomi/모토로라 1억·2억화소폰. |
업계 최초 108MP(’19), 200MP(’21) 센서 출시 . Dual-VTG 등으로 초소형 픽셀 감도 개선. 200MP 센서에 Zoom Anyplace 등 AI 기능 추가 . |
320MP~576MP 센서 로드맵 . 자동차용 글로벌셔터/자율주행 센서 개발. 픽셀미세화 지속 및 AI 기반 화질개선. |
옴니비전 (미국/중국) |
PureCel적층 센서, 200MP (0.56μm) 세계 최소픽셀 센서 개발 . 16-cell 비닝으로 2.44μm픽셀 등가 저조도 성능 . 100% QPD 위상검출 AF. |
중국 스마트폰 (비보, 오포, 샤오미 등)의 서브카메라, 중급기 메인. 일부 아이폰/아이패드 전면카메라. |
CES 2022에서 첫 200MP 0.61μm 센서 공개 . 언더디스플레이 카메라용 센서 공급. Nyxel 기술로 NIR+RGB 겸용센서 출시. |
픽셀 크기 추가 축소 연구, 억픽셀 센서 양산. 자동차용 8MP 센서 등으로 분야 확장. 고HDR(120dB+) 기술 개발 주력. |
자율주행용 카메라/센서 분야 주요 업체 기술 비교
자율주행 차량에서는 주변 환경을 인식하기 위해 카메라, 라이다(LiDAR), 레이다 등의 다양한 센서가 활용됩니다. 이 중 비전 카메라와 그 처리칩 분야의 대표 기업으로 모빌아이(Mobileye), 암바렐라(Ambarella), 엔비디아(Nvidia), 앱티브(Aptiv) 등을 꼽을 수 있고, 라이다 센서 분야에서는 **벨로다인(Velodyne)**과 루미나르(Luminar) 등이 핵심 플레이어입니다. 이들 기업은 자율주행용 센서의 높은 신뢰성, 실시간 인식 성능을 달성하기 위한 특화 기술을 갖고 있으며, 카메라 분야와 라이다 분야로 나누어 기술개발을 선도하고 있습니다. 아래에서는 각 업체별 핵심 기술/제품, 최신 동향, 적용 사례, 기술적 장점, 미래 로드맵을 살펴봅니다.
Mobileye (모빌아이)
- 핵심 기술 및 센서 성능: 모빌아이는 이스라엘에서 창업한 ADAS/자율주행용 비전칩 기업으로, EyeQ 시리즈 SoC(System on Chip)를 통해 카메라 기반 인지 연산을 담당합니다. EyeQ 칩은 저전력으로 다수의 카메라 영상을 처리하도록 특화된 ASIC으로, 차량 전방카메라 하나만으로 차선인식, 차량/보행자 감지, 교통표지 판독 등을 실현해왔습니다. 최신 세대인 EyeQ6(2023~)은 이전 세대 대비 4.5배 이상의 연산 성능을 제공하면서도 TSMC 7nm 공정으로 전력 효율을 높였고, 8메가픽셀 카메라와 120° 광시야각 센서를 직접 지원하여 더 넓은 범위와 먼 거리의 객체 인지가 가능합니다 . EyeQ6L(라이트) 버전은 레벨2 ADAS용, EyeQ6H(하이) 버전은 자율주행 레벨4까지 고려한 고성능 버전으로, 여러 대의 카메라 입력과 레이더/라이다 데이터까지 통합 처리할 수 있도록 설계되었습니다.
- 최근 기술 동향 및 혁신 사례: 모빌아이는 **다중 카메라 기반 주변 인식(써라운드 뷰 ADAS)**으로 기술을 확장하고 있습니다. 과거 단일 전방카메라 위주의 EyeQ4에서, 최신 EyeQ5/6 세대는 차량 주위 360°를 커버하는 최대 8대 이상의 카메라를 동시에 처리하여 객체를 인식하고 자차 위치 추정까지 고정밀로 수행합니다. 특히 True Redundancy라는 개념을 도입하여, 카메라만으로 구성된 인식 시스템과 레이더/라이다 기반 인식 시스템을 병렬 운용하고 각각 독립적으로 완전한 환경 인식을 한 뒤 최종 결합함으로써 안전성을 높이는 아키텍처를 발표하였습니다. 이러한 접근은 2021년 독일 BMW 등과 협력 발표된 바 있고, 중국 지크(Zeekr) 브랜드와 협력하여 EyeQ5 칩 6개로 카메라+라이다 융합 레벨4 시스템을 2024년 양산 목표로 개발 중입니다 . 또한 모빌아이는 **REM(Road Experience Management)**이라는 클라우드 지도 구축 기술을 통해, 차량 군집의 카메라로 수집한 도로 정보를 자동으로 HD맵으로 업로드/업데이트하는 혁신을 보여주고 있습니다. 2022년에는 인텔로부터 독립 상장하면서 대규모 투자를 유치하였고, 미국 뉴욕과 이스라엘에서 자율주행 로보택시 파일럿 서비스를 개시하여 (카메라와 라이다 결합한 자율주행 시스템) 기술력을 입증하고 있습니다.
- 대표 플랫폼/적용 사례: 모빌아이의 EyeQ 칩은 전세계 50여 개 자동차 제조사의 ADAS에 채택되어 4,600만 개 이상 누적 출하가 예정될 만큼 (주로 레벨2) 시장 점유율이 높습니다 . 독일 **아우디(Audi)**는 2018년 A8에 모빌아이 기술로 Level 3 부분자율주행을 구현한 바 있고, BMW, 폭스바겐 그룹(VW), 혼다 등도 모빌아이 칩 기반의 차선유지보조, 자동긴급제동 등을 널리 적용하고 있습니다. (테슬라도 한때 EyeQ3를 사용했으나 2016년 이후 자체 시스템으로 전환). 닛산/인피니티의 ProPILOT, GM의 일부 모델, 현대/기아의 구형 ADAS 등 다양한 차종에 모빌아이 솔루션이 들어갔습니다. 최근에는 중국 지리자동차의 지크(Zeekr) 브랜드가 모빌아이와 전략적 협업을 맺고, 소비자용 L4 자율주행차 개발을 추진 중입니다 . 모빌아이는 또한 자사 기술을 통합한 모빌아이 드라이브 키트를 개발하여 자율주행 셔틀 등에 공급하고 있으며, 이스라엘과 독일 뮌헨에서 로보택시 서비스를 시범 운영하면서 플랫폼 비즈니스도 모색하고 있습니다.
- 기술 장점 활용 분석: 모빌아이의 주된 강점은 카메라 1개로 최대한 많은 상황을 인식하는 고도화된 컴퓨터비전 알고리즘입니다. 이를 통해 레이더나 라이다가 없던 초기 ADAS에서도 차선이탈경보, 보행자 충돌경고 등이 가능해져 저비용으로도 안전 기능 보급에 기여했습니다. 예를 들어 EyeQ 기반 시스템은 교통표지판의 글자까지 읽어 특정 시간대에만 유효한 제한속도 표지 등도 인식해낼 수 있고 , 일반 카메라 영상에서 도로의 드문드문한 페인트 마커나 차간거리 등을 인간처럼 해석하여 지도 없이도 주행 가능 경로를 파악합니다. 이러한 디코딩 능력은 딥러닝 도입 이후 더욱 향상되어, Mobileye SuperVision 시스템의 경우 운전자의 야간 시인성 이하의 물체도 AI가 탐지해낼 정도입니다. 또한 모빌아이는 초광각 8MP 카메라를 통해 차량 근처의 작은 물체까지 놓치지 않고 파악하고, 센서퓨전이 아닌 센서 별도중복 아키텍처로 안전도를 극대화하여 추후 자율주행 안전성 입증에 활용하려 합니다. 요약하면, 모빌아이 기술의 장점은 카메라 하나하나의 인식 정확도를 인간 수준 이상으로 끌어올려 비용 효율적으로 자율주행을 구현하는 데 있으며, 이는 많은 양산차에 채택됨으로써 실제 사고 감소와 운전자 편의 향상에 기여하고 있습니다.
- 미래 로드맵 및 장래성: 모빌아이는 소비자용 완전자율주행(레벨4) 실현을 장기 로드맵으로 두고 있습니다. 2025년경을 목표로 EyeQ6H 등을 탑재한 Chauffeur 시스템을 개발 중이며, 이는 카메라 + 라이다/레이다를 모두 활용해 운전자의 개입 없이도 고속도로 뿐 아니라 도심까지 주행 가능한 플랫폼입니다. 한편으로는 현재의 ADAS와 자율주행 중간 단계인 레벨3 고속도로 자율주행을 여러 완성차 업체와 추진하고 있어, 2023년 말~2024년부터는 모빌아이 솔루션으로 Hands-off 주행이 가능한 차량이 출시될 전망입니다. 기술적으로는 뉴럴넷 기반 End-to-End 인지/판단을 EyeQ에 최적화하고, 정밀지도를 차량군으로 업데이트하는 REM을 글로벌 표준으로 확산시키는 한편, 비용 절감을 위해 2025년 이후 **자체 LiDAR 개발(FMCW LiDAR)**도 계획하고 있습니다. 업계에서는 모빌아이가 축적한 수억 km 주행 데이터와 광범위한 OEM 네트워크를 바탕으로, 향후에도 자율주행 핵심 플레이어로서 높은 장래성을 유지할 것으로 평가하고 있습니다 .
Ambarella (암바렐라)
- 핵심 기술 및 센서 성능: 암바렐라는 원래 액션캠(GoPro)용 영상처리 SoC로 유명한 미국의 팹리스 회사지만, 현재는 엣지 AI 비전처리 SoC 전문업체로 변모하여 자동차용 칩 시장에 집중하고 있습니다. 암바렐라의 대표 제품군은 CV (Computer Vision) 시리즈 SoC, 특히 최신 CV3-AD 시리즈는 자율주행용 AI 도메인 컨트롤러 칩으로서 최대 수십 TOPS의 딥러닝 연산능력과 멀티센서 처리 기능을 갖춥니다 . 예를 들어 CV3-AD685 칩은 차내 10여대 카메라로부터 들어오는 4K 영상 11개를 초당 30프레임씩 동시에 처리하면서 3D 인식/세그멘테이션을 수행할 수 있고, 전방 카메라의 경우 200m 이상 거리 객체까지 인식하는 Transformer 기반 신경망을 실시간 구동할 수 있습니다 . 암바렐라 칩의 특징은 뛰어난 전력당 AI 성능으로, 경쟁 GPU대비 낮은 전력으로 추론을 수행하며 열발생을 줄인다는 점입니다 . 또한 과거 영상압축/이미지처리에서 쌓은 강점으로 멀티 센서퓨전 (카메라 + 레이다 신호 등) 및 영상 신호처리(ISP) 능력이 우수해, 악천후나 야간 상황에서도 안정적인 인식 성능을 내는 것이 장점입니다. CV3 시리즈 칩들은 차량 탑재를 위해 ASIL-B/D 기능 안전과 차량용 온도범위 등을 충족하도록 설계되었습니다.
- 최근 기술 동향 및 혁신 사례: 암바렐라는 자동차 업계와 적극적 파트너십을 맺어 풀스택 자율주행 솔루션을 개발 중입니다. 2023년 CES에서는 자동차 부품사 **콘티넨탈(Continental)**과 전략 제휴를 맺고, 암바렐라의 CV3-AD 칩셋을 기반으로 한 L2+ ~ L4 자율주행 플랫폼을 공동 개발하여 2025~2026년 양산차에 공급하겠다고 발표했습니다 . 이를 통해 암바렐라 칩 + 소프트웨어 스택이 통합된 턴키 솔루션이 가능해져, 차량 제조사가 쉽게 자율주행기능을 채택하도록 하는 전략입니다. 또 하나의 혁신은 2021년 Oculli라는 레이다 소프트웨어 스타트업을 인수한 것으로, 이를 통해 AI 기반 소프트웨어 정의 레이더 기술을 확보, 자사의 칩으로 카메라+레이더 데이터를 함께 처리하여 악천후 보조인식을 강화할 수 있게 되었습니다. 암바렐라의 최근 칩은 12MP@60fps 어안카메라 6대 이상 데이터를 처리해 주차 보조나 서라운드뷰 합성을 할 수 있고, DSM(운전자 모니터링) 등 실내 카메라도 병행 처리하는 등 차량 내/외의 모든 영상처리를 하나의 SoC로 수행하는 방향으로 발전하고 있습니다. 또한 중국 자율주행 트럭 기업 Plus와 협업해 Transformer 기반 주행인식 모델(PlusVision)을 CV3 칩에 최적화해 선보였고 , CV3-AD655 한 개로 11개 카메라 동시처리 데모를 성공시키는 등 AI 성능을 입증했습니다. 이처럼 암바렐라는 고성능을 유지하면서 전력 소모를 억제하는 기술 혁신으로 차별화를 꾀하고 있습니다.
- 대표 플랫폼/적용 사례: 암바렐라의 자동차용 칩은 주요 Tier-1과 자율주행 스타트업들의 플랫폼에 채택되고 있습니다. 예를 들어 모빌아이와 경쟁하는 중국 Horizon Robotics사의 카메라 모듈 등에 암바렐라 칩이 사용되어 왔고, 다솔다이(Momenta) 같은 자율주행 개발사는 암바렐라 SoC를 활용하여 자체 ADAS솔루션을 개발하기도 했습니다. 암바렐라는 아직 엔비디아나 모빌아이 대비 OEM 지명도가 높지 않지만, 2024~2025년에 콘티넨탈을 통해 양산차 ADAS 시장에 본격 진입할 것으로 예상됩니다. 특히 콘티넨탈의 ADAS 센서팩 (카메라+레이더 융합)의 차세대 버전에 CV3-AD가 핵심 프로세서로 탑재될 예정이며 , 혼다나 포드 등의 차기 ADAS 납품용으로 검토된다는 소식도 업계에 있습니다. 또한 애프티브(Aptiv), ZF 등 다른 글로벌 부품사들도 암바렐라의 AI칩을 채택 검토 중이며, 중국 **상해자동차(SAIC)**의 일부 모델에 암바렐라 기반 L2시스템이 채용되었습니다. 과거 암바렐라 칩은 테슬라의 초기 차량용 카메라 DVR 등에 쓰인 적도 있어, 차량 내 카메라 관련 수요에도 꾸준히 공급되고 있습니다.
- 기술 장점 활용 분석: 암바렐라 솔루션의 강점은 효율적인 딥러닝 연산으로 다수 카메라를 커버하는 점입니다. 예를 들어 CV3 칩 하나로 전방, 측방, 후방 등 최대 14대 카메라를 동시 처리할 수 있어, 과거에는 카메라별 칩이 필요했던 것을 중앙집중 처리로 바꾸어 시스템 구성을 단순화합니다 . 이는 곧 원가절감과 공간 절약으로 이어지고, 전기차에서는 배터리 효율 증가 효과도 있습니다 . 또한 암바렐라의 ISP 기술은 어두운 밤이나 역광 상태에서도 영상의 콘트라스트를 최적화하고, LED 플리커 억제를 통해 교통신호 인식률을 높입니다. 저전력 설계는 발열과 냉각 요구를 줄여 차량 디자인의 자유도를 높여주고 (전방 카메라 ECU를 작은 하우징에 넣을 수 있음), 이는 앱티브 등이 강조하는 분산형 카메라 구조에도 기여합니다 . 또 하나의 활용은 Transformer 등 최신 AI 알고리즘을 차량에 실시간 적용할 수 있다는 점인데, 암바렐라 칩으로 Plus사가 구현한 모델은 200m 전방까지 객체를 인지해 고속주행 안전성을 높였습니다 . 이러한 기술적 강점을 통해 암바렐라 칩을 사용한 시스템은 고해상도 카메라로 더 멀리, 더 정확히 보면서도 차량 전력부담을 최소화하는 방향으로 실제 차량에 적용되고 있습니다.
- 미래 로드맵 및 장래성: 암바렐라는 2025년 이후 Level 3+ 자율주행의 핵심 칩 공급자를 목표로 하고 있습니다. 로드맵상 CV3 다음 세대 SoC도 개발 중이며, 파트너인 콘티넨탈과 함께 2027년 양산을 목표로 풀스택 L4 솔루션을 출시할 계획을 밝혔습니다 . 또한 자율주행 트럭, 로보택시 회사들과의 협업을 통해 실제 주행 데이터와 피드백을 축적하여 칩 성능을 계속 최적화할 것입니다. 기술적으로는 하나의 SoC에 카메라+레이더+초음파 등 모든 센서 융합을 지원하고, OTA 업데이트로 추후 기능 향상이 가능한 소프트웨어 정의 플랫폼을 지향합니다. 최근 동향을 보면, 암바렐라는 자율주행 외에도 스마트 시티용 카메라, 로봇 등 엣지 AI 응용을 확장하고 있는데, 이는 자동차 사업과도 시너지를 내어 더욱 강력한 비전 AI 기술을 확보하는데 도움이 될 것입니다. 전반적으로 암바렐라는 특화된 영역에서 시작했지만 기술력을 인정받아 자율주행 생태계의 중요한 칩 공급자로 성장 중이며, 향후 수년간 Tier-1과의 협력을 통해 시장 입지를 크게 넓힐 것으로 기대됩니다.
Nvidia (엔비디아)
- 핵심 기술 및 센서 성능: 엔비디아는 GPU로 유명한 미국 기업이지만, 자동차 자율주행 컴퓨팅 플랫폼인 NVIDIA DRIVE 시리즈로도 업계를 선도하고 있습니다. 엔비디아의 차량용 SoC는 Xavier(30 TOPS) → Orin(254 TOPS) → 차세대 Thor(2000 TOPS 이상 예정)으로 발전해왔습니다 . 현재 주력인 Drive Orin(2022~)은 170억 트랜지스터로 구성된 SoC로 초당 254조 번의 연산이 가능하며 , 이는 카메라, 라이다, 레이다 등 수십개의 센서 데이터를 동시에 처리하면서 자율주행 AI 알고리즘을 실행하기에 충분한 성능입니다. Drive Orin은 12개의 ARM CPU코어, 2048개의 CUDA코어, 64개의 텐서코어 등을 내장하여 병렬처리에 최적화되어 있고, 하나의 Orin으로 Level 4 자율주행차도 구동할 수 있을 만큼 스케일러블합니다 . 곧 출시될 Drive Thor(2025 예정)는 차세대 Blackwell GPU 아키텍처 기반으로 추정되며, 최대 20002500 TOPS(2.5 PetaOPS)에 달하는 성능으로 Orin 대비 약 8배 이상 향상될 전망입니다 . 이는 단순 주행 연산 뿐 아니라 차내 인포테인먼트, 증강현실, 차량통신, 심지어 생성형 AI 기능까지 한꺼번에 통합 처리하려는 목표로 설계되고 있습니다 . 엔비디아 센서 처리 측면에서는 초당 수 기가바이트의 카메라 영상 스트림을 메모리 대역폭 200GB/s 이상으로 처리하고, 전방 8MP 카메라 68대, 주위 4MP 어안카메라 4대, 라이다 점군, 레이다 신호 등을 동시에 3D 융합하여 인식하는 능력을 갖추고 있습니다. 또한 DriveWorks SDK를 통해 카메라 왜곡보정, 객체 검출, 맵핑 등의 모듈화된 소프트웨어도 함께 제공하여 개발 편의를 높입니다.
- 최근 기술 동향 및 혁신 사례: 엔비디아는 자동차 업계의 중앙집중식 컴퓨팅 트렌드를 이끌고 있습니다. 과거 분산 ECU 체계에서 벗어나, 차량 내 모든 기능을 하나의 초고성능 컴퓨터(ADCU)로 처리하는 방향으로 OEM들을 설득하고 있으며, Drive Orin/Thor 플랫폼이 이를 가능케 합니다. 2023년 GTC 행사에서 엔비디아는 Drive Thor 채택 발표를 하며, BYD, 극초자동차(Hyper) 등 주요 전기차 기업들이 2025년 이후 나올 신차에 Thor를 탑재할 것을 공개했습니다 . 또한 엔비디아는 Sim(시뮬레이션) 및 **메타버스 기술(Omniverse)**를 접목, 가상 환경에서 자율주행 AI를 훈련·검증하는 솔루션도 제공하여 개발사들이 실제 주행거리 수억 km에 해당하는 테스트를 가상으로 수행할 수 있게 했습니다. 혁신 사례로, 엔비디아 Orin은 **웨이모(Waymo)**의 차세대 플랫폼, **크루즈(Cruise)**의 Origin 자율주행차 등에 채택되어 실도로 테스트 중이고, 메르세데스-벤츠는 엔비디아와 협업하여 2024년부터 엔비디아 기반 L3 자율주행 옵션을 제공하기로 했습니다. 또한 엔비디아는 2022년 자사 개발자 행사에서 Drive Map이라는 클라우드 HD맵 서비스를 공개, 모빌아이 REM과 유사하게 전세계 도로망의 클라우드 지도를 구축하는 프로젝트도 시작했습니다. AI 소프트웨어 측면에서는 Vision Transformer, 주의(attention) 메커니즘 등 최신 딥러닝 기법을 자율주행 인식에 도입하고 있고, 2023년에는 차량 내 대화형 AI (Drive Concierge) 데모를 통해 대형 언어모델(LLM)을 차내 음성비서로 활용하는 등 차별화된 활용도 선보였습니다.
- 대표 플랫폼/적용 사례: 테슬라를 제외한 다수의 자율주행 개발 기업들이 엔비디아 Drive를 채택하고 있습니다. 예를 들어 중국의 바이두 Apollo, **샤오펑 자동차(Xpeng)**의 Xpilot, 니오(NIO) ET7의 NAD, 폴스타(Polestar) 3의 자율주행 옵션 등에 Drive Orin이 탑재되었습니다. 볼보 역시 2024 EX90 모델에 엔비디아 Orin 기반 컴퓨팅을 사용하며, ZF ProAI 시스템 등에도 엔비디아 칩이 핵심입니다 . 특히 중국 전기차 업체들(샤오펑, 니오, 리오토 등)이 엔비디아와 긴밀히 협업하여 레벨3/4 기능 개발 경쟁을 하고 있으며, 엔비디아는 2024년부터 **폭스콘(Foxconn)**과도 제휴하여 더 많은 완성차에 공급할 계획입니다. Tier-1 중 보쉬(Bosch), 델파이(Aptiv) 등도 일찍이 엔비디아와 파트너십을 맺고 있었고, 트럭 자율주행의 **투심플(TuSimple)**도 Orin을 활용했습니다 . 2025년에 양산될 메르세데스 벤츠의 신형 플랫폼은 Drive Thor를 중심으로 차량 전자 아키텍처를 재편할 예정이며, BYD는 엔비디아와 클라우드/차량 모두 협업 중입니다 . 종합적으로, 엔비디아 플랫폼은 프리미엄 전기차와 자율주행차에 다수 채택되어 업계 표준에 가까운 위치를 차지하고 있습니다.
- 기술 장점 활용 분석: 엔비디아 솔루션의 장점은 단연 압도적인 연산 성능입니다. 복잡한 딥러닝 기반 인식·판단·제어 알고리즘을 병렬로 돌리면서도 여유 성능을 남겨 추가 기능을 구현할 수 있어, 다양한 기능을 하나의 컴퓨팅 박스에서 통합할 수 있습니다 . 예를 들어 Drive Orin은 동시에 8대 카메라의 객체인식, 1개의 라이다 SLAM, 경로계획 및 운전자 모니터링까지 모두 실행 가능하여, 과거 여러 ECU로 분산되던 작업을 하나로 합쳤습니다. 이는 곧 차량의 경량화 및 효율화로 이어지고, 센서 간 데이터 동기화도 쉬워져 정밀한 센서융합이 가능합니다. 두 번째 강점은 소프트웨어 및 에코시스템인데, 엔비디아는 자율주행 소프트웨어 개발에 필요한 툴킷(DriveWorks), 시뮬레이터(Drive Sim), pretrained 모델 등을 제공하여 개발사들이 손쉽게 활용하도록 합니다. 또한 OTA 업데이트와 안전 파티셔닝(가상화) 기술로 하나의 컴퓨터에서 안전기능과 인포테인먼트 기능을 분리 운영해 기능안전 ASIL-D 요구를 충족하는 융합 아키텍처를 실현했습니다. 세 번째로, 엔비디아 GPU기술을 살려 차량에서 고화질 그래픽/AR 구현이 가능하며, 이를 통해 증강현실 내비게이션이나 3D UI를 매끄럽게 구동할 수 있습니다. 실제로 엔비디아는 Thor로 운전자 지원화면에 AR내비, 뒷좌석에 게임 스트리밍 등을 동시에 구동하는 시연을 했습니다. 요약하면, 엔비디아 플랫폼은 자율주행의 두뇌 역할을 하며, 탁월한 연산능력으로 안전한 주행뿐만 아니라 차량의 디지털 경험 전반을 향상시키는 데 활용되고 있습니다.
- 미래 기술 개발 로드맵 및 장래성: 엔비디아의 자동차 로드맵은 계속적인 성능 지향입니다. 2025년 Drive Thor 출시를 시작으로, 2030년까지 성능을 기하급수적으로 높여 완전 자율주행과 차량내 AI서비스를 모두 감당하는 목표를 세우고 있습니다. 특히 Thor는 Generative AI 시대를 겨냥하여 차량이 운전자와 자연어로 소통하거나, 스스로 프로그래밍 개선을 할 수 있을 정도의 여유 성능을 확보할 계획입니다 . 또한 엔비디아는 차량 클라우드 통합에 공을 들여, 향후 차량 수백만대가 생성하는 데이터를 클라우드 AI로 학습시키고 다시 차량으로 피드백하는 플랫폼 기업으로 진화하려 합니다. 이미 엔비디아 Drive 플랫폼의 누적 수주액이 2022년 기준 110억 달러를 넘겼다고 발표하는 등 (다수 OEM의 향후 채택을 확보), 상당한 상업적 성공도 거두고 있습니다. 다만 높은 성능에 따른 높은 비용/전력 소비는 중급차량에는 부담이므로, 향후 엔트리급 Orin Lite와 같은 제품도 검토될 것입니다. 엔비디아는 현재 기술/시장 리더십을 바탕으로, 자동차 산업의 소프트웨어 정의 차량(SDV) 시대에 핵심적인 역할을 할 것으로 기대됩니다. 운송 수단이 발전하여 완전 자율주행 로보택시, 자율트럭, 스마트 시티 인프라 등으로 영역이 넓어질수록, 엔비디아의 고성능 플랫폼 수요도 계속 증가할 전망입니다.
Aptiv (앱티브)
- 핵심 기술 및 센서 성능: 앱티브는 과거 델파이(Delphi)에서 분사된 글로벌 부품사로, 첨단 ADAS 시스템 통합에 강점을 가지고 있습니다. 자체적으로 차량용 카메라, 레이다, 라이다 센서를 개발하기보다는, 다른 업체의 하드웨어를 통합하고 자사 소프트웨어 스택을 얹어 완성차에 공급하는 비즈니스 모델입니다. 앱티브의 Gen 6 ADAS 플랫폼은 최신 버전의 통합 솔루션으로, 카메라, 레이다, 라이다 센서와 중앙컴퓨터, 소프트웨어를 아우르며 Level 2+ (핸즈프리 고속주행)까지 확장 가능하도록 설계되었습니다 . 앱티브는 특히 전방 카메라 기술에서 오랜 경험이 있는데, 예컨대 과거 GM 등의 1세대 전방충돌경고 카메라 모듈을 공급했고, 지금도 8MP 광각(120°) 카메라를 포함한 “센서 퓨전” 모듈을 여러 OEM에 납품합니다. Gen6 플랫폼에서는 AI 머신러닝 기반 경로예측과 도심 주행보조 (Hands-off Urban Assist) 기능까지 지원하며, 이는 더 복잡한 환경에서 차량을 자동 제어하기 위한 소프트웨어 업그레이드라 할 수 있습니다 . 센서 성능 측면에서 앱티브는 자체 레이다를 보유하지 않고 주로 벤더와 협력하지만, 단일 모듈에 카메라+초단거리 레이다를 결합한 혁신적인 Ice Cube 센서를 개발했습니다. 이 센서는 손가락 한마디 크기의 작은 큐브 안에 광각 카메라와 근거리 레이다를 포함해, 주차 시 장애물 거리 측정과 서라운드뷰 카메라 기능을 동시에 수행합니다 . 초음파 센서를 대체하면서도 외관상 일반 카메라와 다르지 않아 차량 디자인 측면에서도 이점이 있으며, 2027년 양산 목표로 개발 중입니다 . 또한 앱티브는 차량 전장 기술인 위성 아키텍처를 주창하여, 센서부와 처리부를 분리 배치함으로써 고해상도 카메라의 발열 문제를 해결하는 등 차량 전기구조 혁신도 시도하고 있습니다 .
- 최근 기술 동향 및 혁신 사례: 앱티브는 소프트웨어Defined 차량(SDV) 흐름에 맞춰, 2022년 임베디드 SW기업 **윈드리버(Wind River)**를 인수하고 자사 ADAS 소프트웨어 역량을 강화했습니다 . 이를 통해 자동차 OTA 업데이트, 클라우드 연동 등에 필요한 OS 기술을 확보하여 향후 차량 기능 업그레이드에 대비하고 있습니다. 또한 현대자동차와 합작으로 설립한 자율주행 JV **모셔널(Motional)**을 통해 무인 로보택시 기술 개발에도 참여하고 있습니다. 모셔널은 미국에서 아이오닉5 차량 기반의 로보택시 테스트를 진행 중이며, 여기에는 앱티브의 통합센서 시스템과 하드웨어 설계 노하우가 활용되었습니다. 최근 앱티브의 혁신으로 주목받은 것은 앞서 언급한 Ice Cube 센서로, 2025 CES에서 프로토타입을 공개하며 자동차 디자이너들로부터 호응을 얻었습니다 . 이 센서는 주차센서의 미관 문제를 해결하면서 기능 향상을 가져오는 아이디어 상품으로 평가됩니다. 한편 앱티브는 듀얼 파워레일 아키텍처 등 차량 전원/신호 분야 혁신과 Zone Controller 개념 (차량을 몇 개 존으로 나눠 각 존별 제어기를 두는 구조)에도 적극적입니다. 이는 ADAS 센서/컴퓨터를 차량 전장과 효율적으로 통합하기 위한 노력으로, 완성차 업체들과 공동 개발하고 있습니다. 요약하면, 앱티브는 ADAS 하드웨어+소프트웨어의 시스템 통합과 차량 전장 혁신 양면에서 활동하며, 자체 센서보다는 센서 조합과 아키텍처에서 창의적 혁신을 이루고 있습니다.
- 대표 플랫폼/적용 사례: 앱티브는 글로벌 완성차 업체 다수와 거래하며, GM 슈퍼크루즈, 포드 코파일럿360 등의 ADAS에 일부 모듈을 공급한 이력이 있습니다. (참고로 GM SuperCruise 초기 시스템에는 델파이/앱티브가 레이다와 카메라 부품을 공급). 현대/기아의 ADAS에도 앱티브의 전방카메라(유럽 NCAP용) 모듈이 들어간 사례가 있고, 폭스바겐 그룹, 스텔란티스 등도 앱티브의 센서/ECU를 활용합니다. 앱티브의 전방 카메라 모듈은 2020년대 초반 기준 약 20여 OEM에 채택되어 업계 점유율 1위를 다툴 정도로 보편화되어 있습니다. 또한 앱티브는 라이다 업체 쾅텔라(Quanergy) 등과 협업해 저가형 라이다를 FCA(현 스텔란티스)에 공급하기도 했고, 2019년부터 Lyft와 함께 라스베가스 로보택시 서비스를 운영하여 일반인 승객을 태우는 등 자율주행 서비스 플랫폼 운영 경험도 있습니다. Motional 합작을 통해 Lyft, Uber와 파트너십을 맺고 있어 향후 앱티브 기술이 적용된 로보택시 차량이 상용화될 것으로 기대됩니다. 이처럼 앱티브는 전통 OEM의 ADAS부터 신규 모빌리티 서비스 차량까지 폭넓게 참여하고 있는 것이 특징입니다.
- 기술 장점 활용 분석: 앱티브의 장점은 시스템 최적화와 비용 효율화입니다. 자체 센서를 만들지 않지만 다양한 센서를 조합해 고객 요구에 맞는 솔루션을 구성하는 능력이 뛰어나, 완성차 입장에서는 원스톱으로 ADAS를 구현할 수 있습니다. 예를 들어 앱티브가 공급한 전방 카메라 + 레이다 퓨전 시스템은 날씨나 밝기와 무관하게 차량, 보행자 검출을 안정적으로 수행하며, 단일 센서 대비 오경보를 줄여 실제 급정지 횟수를 감소시키는 장점을 보여주었습니다 . 또한 앱티브의 위성 구조 개념은 고해상도 8MP 카메라에서 발생하는 열을 분산시키고 부품 배치를 자유롭게 하여, 차량 디자인 제약을 줄이고 동시에 성능을 유지하는 효과가 있습니다 . 앱티브는 다양한 차량 전장 분야 경험 덕분에, ADAS 센서들을 차량의 다른 시스템과 원활히 통합하는데 능하며, 전원 관리, 네트워크 처리 등을 최적화해 신뢰성과 경제성을 모두 잡습니다. 예를 들어 Ice Cube 센서는 카메라 영상의 객체인식과 레이다의 거리계산을 한 기기로 수행하여, 주차 보조시 카메라로는 보이지 않는 저복사율 물체(검은 기둥 등)를 레이다로 감지하고, 동시에 카메라 영상으로 식별함으로써 안전하고 편리한 주차를 가능케 합니다 . 또한 4개의 Ice Cube로 360도 커버 가능하므로 기존 12~16개의 초음파+4카메라 체계를 대체하여 부품수를 절반 이하로 줄이는 효과가 있습니다. 이처럼 앱티브는 기술의 접목과 최적화를 통해 차량 제조사들이 ADAS/자율주행 기능을 더 쉽게, 더 저렴하게 구현하도록 돕는 장점을 실제 프로젝트들에서 발휘하고 있습니다.
- 미래 기술 개발 로드맵 및 장래성: 앱티브는 Level 3 도시자율주행과 차량 시스템 통합을 향후 성장 동력으로 삼고 있습니다. Gen6 ADAS 플랫폼의 발전형으로 교통량 많고 복잡한 도심에서도 차량 스스로 비상대응하며 주행하는 Hands-off Urban 시스템을 2028년 이내 양산화하는 것이 목표입니다 . 이를 위해 센서 구성을 유연하게 조합(예: 필요시 라이다 추가)하고, 정밀지도 없이도 학습 데이터를 통해 주행하는 ML 기반 정책을 강화하고 있습니다. 또한 전기/전자 아키텍처 측면에서는 Domain/Zone 컨트롤러를 넘어 모든 차량 기능을 중앙 통합하는 수퍼컴퓨터식 아키텍처로의 이행을 지원할 계획입니다. 앱티브는 인포테인먼트, 차체제어 등 다른 영역 사업부도 보유하고 있어, 윈드리버 인수와 함께 차량 전체 소프트웨어 플랫폼 공급자로 변모할 가능성도 있습니다. 한편 모셔널을 통해 축적된 로보택시 경험은 향후 로보택시 상용화 시 직접 운영 또는 기술 공급 기회로 이어질 수 있어 장래성이 큽니다. 요약하면, 자체 센서 제조사 대비 다소 간접적인 포지션이지만 앱티브는 자동차 업계의 신뢰 파트너로서 폭넓은 영향력을 가지고 있으며, 점차 소프트웨어와 통합역량을 바탕으로 자율주행 시대에도 중요한 역할을 이어갈 것으로 전망됩니다.
Velodyne (벨로다인)
- 핵심 기술 및 센서 성능: 벨로다인은 미국 기업으로 라이다(LiDAR) 센서를 상용화한 선구자입니다. 2005년 DARPA 자율주행 대회에서 64라인 스캐닝 라이다를 선보인 이후, 자율주행차의 “회전형 원통 라이다”의 대명사가 되었습니다. 벨로다인의 대표 제품은 실시간 3D 라이다 센서들로, 과거 HDL-64E (64개 레이저 채널, 360도 회전) 모델은 120m 이상 거리의 수십만 포인트 점군(point cloud)을 생성하여 구글/우버 등의 자율주행 시험차량에 널리 쓰였습니다. 최신 플래그십 중 하나인 Alpha Prime (VLS-128) 센서는 128개 채널로 수직 해상도가 높아져 0.1°까지 각분해능을 갖고, 10% 반사율 물체를 220m 이상, 5% 저반사 물체도 150m까지 탐지할 수 있습니다 . FOV는 수평 360°, 수직 40°이며, typical 정확도 ±3cm 수준의 정밀한 거리를 제공합니다 . 또한 멀티 리턴 기능으로 하나의 레이저 펄스에 대해 최대 3개의 반사점을 기록해 투과/반사체 뒤 물체도 일부 인지합니다. 벨로다인 라이다는 905 nm 파장 레이저를 사용하며, 자체 회전하는 프리즘/거울 메커니즘으로 주변을 스캔합니다. 최근에는 기계식 회전장치 없이 고정식으로 작동하는 Velarray 시리즈(좁은 FOV, 장거리 전방용)와 소형 Puck 시리즈(1632채널의 소형 라이다)도 출시하여 제품군을 다각화했습니다. 센서 간 간섭 억제 기술과 초미세 광각에서도 균일한 점밀도 등은 벨로다인의 강점으로 꼽히며, 차량 환경의 진동/온도(-10+60°C)에서도 안정적으로 작동하도록 설계되었습니다.
- 최근 기술 동향 및 혁신 사례: 라이다 업계는 2020년대 들어 소형화/원가절감과 디지털화가 화두인데, 벨로다인은 이러한 흐름에 맞춰 **오우스터(Ouster)**와 2023년에 합병을 단행했습니다 . 오우스터는 디지털 라이다 기술로 유명한 신생 업체로, 적은 부품수와 반도체 공정을 활용한 라이다를 개발해왔습니다. 양사 합병으로 800여 고객을 가진 라이다 강자가 탄생했고, 제품 포트폴리오도 벨로다인의 회전형과 오우스터의 디지털 방식을 모두 아우르게 되었습니다 . 이는 라이다 업계 재편의 중요한 혁신 사례로, 향후 더 저렴하면서도 성능 좋은 라이다를 개발하기 위한 체질 개선으로 평가받습니다 . 기술적으로, 벨로다인은 합병 전부터 Velabit이라는 저가 solid-state 라이다(수십 미터 범위, 단가 $100 이하 목표)를 발표하며 ADAS 시장 진입을 노렸고, LAZR 엔진 등 라이다의 레이저/수신 모듈을 소형화된 형태로 공급하는 방식을 시도했습니다. 또한 라이다 소프트웨어 기술(객체 추적, 슬램 등) 개발에도 착수하여 Vella 소프트웨어를 제공하기 시작했습니다. 2020년대 초중반 벨로다인의 가장 큰 움직임 중 하나는, 기존 기계식 라이다의 단점을 보완한 혼합형 솔루션 출시입니다. 예컨대 Velarray H800은 200m 거리와 120°시야를 가지면서 차량 그릴 등에 고정형으로 내장할 수 있게 했고, Alpha Prime도 개선을 거쳐 더 작고 견고한 VLS-128으로 발전했습니다. 이처럼 벨로다인은 전통 강자에서 벗어나 기술/사업 전략을 전환하는 혁신을 진행 중입니다.
- 대표 플랫폼/적용 사례: 벨로다인의 라이다는 수많은 자율주행 개발 차량에 사용되었습니다. 구글 웨이모의 1세대 자율차량, GM 크루즈, 우버 ATG 차량 등이 모두 초기에는 벨로다인 HDL-64E, 32E 등을 탑재했습니다. 또한 포드, 바이두 등도 한때 대량 구매 계약을 맺었으며, 우리나라의 현대차 자율주행 시험차(자동차기술연구소)에도 부착된 바 있습니다. 다만 고가의 벨로다인 센서는 양산차에는 채택되지 못했고, 혼다 레전드 Level3 차량에 소형 벨로다인(펙) 센서를 채택할 것이란 루머도 있었으나 최종적으로는 다른 회사 제품으로 알려졌습니다. 한편, 비자동차 분야에서 드론 맵핑, 산업 로봇 등에는 벨로다인 센서가 꾸준히 쓰였고, 보스턴다이나믹스의 Spot 로봇에도 벨로다인 Puck이 장착됩니다. 2023년 합병 후 신생 오우스터 벨로다인 회사는 키네스트X(Kinect-X) 같은 교통 인프라용 라이다와, 오우스터 OS 시리즈 (특허받은 발진기-수신기 칩 기반 라이다)를 주력으로 하며 기존 벨로다인 브랜드 제품은 점차 통합될 예정입니다. 산업 전반적으로, 과거 R&D 차량들에 “모터 달린 벨로다인”이 꼭 보이던 시대는 저물고 있지만, 여전히 Motional, 아마존 줴욱스(Zoox) 등의 로보택시에는 다중 벨로다인 라이다 구성이 발견됩니다. 이런 사례들은 벨로다인 기술 신뢰성이 높다는 반증이며, 현재도 수백 개 기업/기관이 벨로다인(오우스터) 라이다를 활용 중입니다 .
- 기술 장점 활용 분석: 벨로다인 라이다의 가장 큰 장점은 풍부한 점군 데이터로 주변을 정밀하게 인식한다는 점입니다. 360도 전방위 스캔으로 차량 주위 모든 물체의 정확한 거리와 형상을 파악할 수 있기 때문에, 고정밀 지도 작성, SLAM, 장애물 회피 등에 필수적입니다. 예를 들어 128채널 라이다의 경우 수백만 개의 포인트로 도로의 차선 페인트 두께까지 인지할 수 있어, Vision 센서가 놓칠 수 있는 정보를 제공합니다. 또한 카메라에 의존할 경우 어려운 절대 거리 측정을 라이다는 직접 해결해주므로, 객체까지 거리, 상대속도 계산 등에 강점이 있습니다. 특히 벨로다인의 고성능 라이다는 고속주행 상황에서도 먼 거리의 위험을 조기에 감지하여, 카메라/레이다로는 불확실한 상황에서도 자율주행차가 미리 속도를 줄이거나 차선을 변경하는 등 안전마진을 확보하도록 해줍니다. 다채널 라이다는 또한 넓은 수직시야 덕분에 근거리의 포트홀(도로함몰)이나 높이있는 표지판 등도 인식할 수 있고, 멀티리턴으로 나뭇잎 너머 보행자도 포착할 수 있습니다. 이러한 장점들은 초기 자율주행 연구개발을 가능케 한 핵심 요소였습니다. 다만 기존 벨로다인 센서는 부피와 비용이 커 상용화 장벽이었는데, 최근 작은 Puck이나 Velarray를 통해 이러한 단점이 완화되고 있습니다. 실제로 벨로다인 Puck은 크기가 줄면서 이동 로봇, 농기계 등 새로운 분야에 활용되었고, Velarray는 트럭의 충돌방지 보조 등에 쓰여 카메라/레이다로 해결 안 되는 검은 물체 감지 등에서 효과를 보였습니다. 합병 이후에는 오우스터의 디지털 라이다 기술로 부품수를 줄여 신뢰성을 높이고, 간섭 방지 알고리즘으로 다수 차량에 라이다가 있어도 혼신 없이 동작케 하는 장점이 더해졌습니다 . 종합적으로, 벨로다인(오우스터)의 기술은 정밀 3D 인식의 필수요소로서, 자율주행뿐 아니라 스마트시티, 산업자동화 등에서 광범위한 활용이 이루어지고 있습니다.
- 미래 기술 개발 로드맵 및 장래성: 라이다 분야는 현재 코스트 게임이 진행 중이며, 벨로다인-오우스터 합병 회사는 이를 통해 연간 7500만 달러 이상 비용 절감을 달성하고 재무 건전성 확보를 우선과제로 삼고 있습니다 . 기술 로드맵 측면에서는 디지털화, CMOS화가 키워드인데, 더 이상 복잡한 기계회전 대신 반도체 소자 기반의 스캐닝으로 전환하여 가격 $500 이하의 자동차용 라이다를 내놓는 것이 목표입니다. 또한 FMCW (주파수변조 연속파) LiDAR 등 밸류체인 확보를 위해 개발 투자를 할 가능성도 있습니다. 현재 합병회사의 제품 계획에 따르면, 2024~2025년경 단일칩 LiDAR SoC를 활용한 차량 범용 라이다를 출시하고, 2030년대 초에는 기존 카메라처럼 표준화된 차량 센서로 라이다를 자리매김시키려 하고 있습니다. 장래성 측면에서, 2020년대 중반부터 메르세데스, 볼보 등 고급차에 라이다가 옵션으로 들어가기 시작했는데, 이때는 루미나르나 혁신 스타트업들이 먼저 공급을 했으나, 벨로다인-오우스터도 완성차 OEM과 파트너십을 맺고 ADAS용 라이다 공급을 노리고 있습니다. 산업 및 로봇 시장에서는 이미 경쟁력이 높아, 합병으로 강화된 제품군으로 물류로봇, 정밀지도, 보안용 라이다 등에서 매출을 확대할 전망입니다. 한편, 애플 등 기술기업의 AR/VR 기기에 라이다 기술이 적용되는 트렌드도 있어, 소형 라이다 모듈의 소비자 기기 적용 가능성도 배제할 수 없습니다. 결론적으로, 벨로다인(오우스터)은 한때 과열된 라이다 업계에서 합종연횡을 통해 살아남은 강자로, 기술과 규모를 동시에 갖춘 만큼 향후 차량용 라이다 보급이 본격화되면 다시금 성장 국면을 맞이할 것으로 기대됩니다.
Luminar (루미나르)
- 핵심 기술 및 센서 성능: 루미나르는 2012년 설립된 미국의 라이다 기업으로, 장거리 고해상도 라이다 기술에 집중하고 있습니다. 이 회사의 핵심은 1550 nm 파장의 레이저를 활용하는 라이다로, 기존 905 nm 대비 인체 안전 한도를 높여 더 강한 레이저 출력을 사용할 수 있고 그 결과 장거리 감지가 가능합니다. 대표 제품인 Iris 라이다는 120°×30° 시야각에 포인트 분해능 300포인트/°² 이상의 해상도를 갖추며, 10% 반사율 물체를 200m 거리에서 90% 이상의 탐지 확률로 감지할 수 있습니다 . 최대 감지거리는 조건에 따라 500m까지 확장 가능하며, 작은 물체(전선 등)도 100m 이상에서 식별 가능할 정도의 정밀도를 지닙니다 . 루미나르 라이다는 fiber laser 및 InGaAs APD 등의 부품을 사용하며, 고정형 미러(혹은 MEMS 미러)로 스캔하는 혼합 솔리드스테이트 방식으로 제작됩니다. 또한 반사강도(Intensity) 영상을 함께 출력하여, 획득한 점군에 마치 흑백카메라 같은 질감을 부여해 객체 분류를 용이하게 합니다 . 루미나르 센서는 차량 탑재를 위해 -40~85°C의 혹독한 온도 조건과 충격/진동 환경을 견디도록 설계되었으며 , 2022년부터 양산 라인을 구축하여 자동차 OEM에 공급하고 있습니다.
- 최근 기술 동향 및 혁신 사례: 루미나르는 라이다 스타트업 중 최초로 자동차 양산 계약을 성사시키며 큰 주목을 받았습니다. 2020년 볼보가 차세대 전기 SUV (EX90)에 루미나르 라이다를 기본 탑재한다고 발표했으며 , 2023년 출시된 EX90에는 실제로 루미나르 Iris가 차량 지붕에 장착되었습니다. 또한 메르세데스-벤츠와도 2022년 소수지분 투자를 받으며 협력 발표를 하여, 향후 벤츠 일부 모델에 옵션으로 제공될 예정입니다. 이러한 성과는 라이다의 차량 양산 적용이라는 업계 최초 사례로 혁신적입니다. 기술적으로, 루미나르는 Perception Software에도 투자하여 2022년 Sentinel이라는 종합 자율주행 솔루션(라이다+카메라 인식 소프트웨어 패키지)을 발표하고 볼보의 Zenseact와 협업하는 등, 하드웨어 공급을 넘어 소프트웨어 구독 모델을 추진 중입니다 . 또한 라이다 원가 절감을 위해 자체 ASIC 개발과 광학 부품 내재화를 추진하여, 2025년쯤에는 $500 이하 가격 달성이 목표입니다 . 혁신 사례로 2021년 야간 주행 데모에서 테슬라의 카메라 기반 Autopilot과 루미나르 라이다 시스템을 비교하여, 루미나르가 어두운 거리에서 월등히 먼 보행자를 감지하는 영상을 공개하며 화제가 되기도 했습니다 . 2020년대 중반 현재, 루미나르는 **스펙터 (Spectrum)**라는 차세대 라이다 개발도 진행하며, FMCW 방식 등 신기술 연구에도 참여하고 있습니다. 또한 항공 분야로도 진출하여 에어버스와 협력, 헬리콥터의 장애물 회피용 라이다를 시험 중입니다 . 전반적으로, 짧은 역사에도 불구하고 *“젊은 CEO”*와 함께 빠른 기술 혁신과 사업 성과를 내고 있는 점이 루미나르의 두드러진 동향입니다.
- 대표 플랫폼/적용 사례: 볼보 EX90과 그 플랫폼 공유 차량들(폴스타 3 등)이 루미나르 라이다의 최초 양산 적용 사례입니다. 이어서 닛산이 2025년부터 출시할 차세대 모델들에 루미나르 라이다를 채택한다고 밝혔고, 폴스타와 미국 전기차 스타트업 **리비안(Rivian)**도 루미나르와 협업 소식이 있었습니다. 독일 다임러 트럭도 2020년에 루미나르에 전략투자하여, Freightliner 자율주행 트럭에 적용 검토 중입니다 . 소프트웨어 측면에서는 모빌아이가 2020년 루미나르와 계약하여 로보택시용 라이다 공급을 받기로 했고 , 실제 모빌아이의 시험차량이 루미나르 4대를 장착하고 도로주행을 하고 있습니다. 이처럼 모빌아이 협력은 루미나르 입장에서 중요한 플랫폼 적용으로, 완성차 외 로보택시 시장 진출 포석이 됩니다. 비자동차로는, **토요타 연구소(TRI)**의 실내 로봇 등에 루미나르 라이다가 쓰이고, 비야디(BYD) 등 중국 업체들과도 파트너십을 맺었습니다. 단, 아직 양산차량 납품은 볼보 한 사례뿐이라 향후 실적이 주목되는 상황입니다. 한편 2023년 루미나르는 일본 혼다와도 연구 협력을 시작하여, 혼다의 2030년대 자율주행 플랫폼에 참여할 수 있다는 전망이 나오고 있습니다.
- 기술 장점 활용 분석: 루미나르 라이다의 장점은 한마디로 **“먼 거리도 확실하게 보는 눈”**입니다. 기존 라이다들이 100m 내외 탐지에 그쳤다면, 루미나르는 고출력 1550nm 레이저로 고속도로 주행 속도에 필요한 250m+ 탐지거리를 확보했습니다 . 이는 시속 120km 주행시 돌발상황 대응 거리를 충분히 벌어주는 수준으로, 자율주행차가 사람보다 먼저 위험을 인지해 대응할 수 있게 해줍니다. 또한 해상도가 높아 차량의 타이어 돌출 여부나 보행자의 팔다리까지 점군 형태로 식별 가능하여, AI가 객체 종류와 동작을 파악하는 데 유리합니다. 루미나르는 반사강도 영상 제공으로 라이다 점군에 텍스처 정보를 부여하여 카메라처럼 물체 식별을 지원하는데 , 이는 라이다의 단점인 식별력 부족을 보완하는 장치입니다. 실제 볼보 EX90의 경우 루미나르 라이다를 통해 약 250m 앞의 타이어 크기 물체도 탐지 가능하고, 어두운 밤 도로에서도 검은 옷의 보행자를 200m 이상 거리에서 포착할 수 있어 기존 카메라/레이다 한계를 극복한 안전성을 강조합니다. 이러한 장점은 고속도로에서 어두운 물체(예: 떨어진 타이어 잔해)로 인한 사고 예방, 도심에서 보이지 않는 모퉁이 뒤 물체 감지 등으로 활용될 수 있습니다. 또 루미나르의 전략은 단순 센서 제공이 아니라 통합 솔루션(센서+인식 SW) 제공이어서, OEM들이 라이다 데이터 처리나 인식 알고리즘을 직접 개발할 필요 없이 곧바로 적용할 수 있게 했습니다 . 이는 기술 채택 허들을 낮춰주는 장점으로 작용해, 볼보 등이 빠르게 결정할 수 있었습니다. 마지막으로, 루미나르는 가격 측면에서도 수만 대 양산시 $500 수준을 자신하고 있어 , 고성능 대비 가격 경쟁력을 확보할 경우 대중차에도 채용될 잠재력을 가지고 있습니다.
- 미래 기술 개발 로드맵 및 장래성: 루미나르는 향후 라이다의 대중화를 견인할 계획입니다. 2020년 SPAC 상장으로 확보한 자금으로 생산 시설을 확충하고 비용 절감을 추진 중이며, 2024~25년부터 계약된 OEM향 매출이 본격 발생할 것으로 예상됩니다. 기술적으로는 현행 Iris 라이다를 소형화/개량한 차기 버전을 개발하면서, 궁극적으로 FMCW 라이다 등으로의 전환도 연구할 것으로 보입니다. FMCW 방식은 물체의 속도까지 직접 측정 가능하나 구현이 복잡한데, 루미나르가 이 분야 특허를 일부 보유하고 있어 장기적으로 도전할 수 있습니다. 또한 라이다 칩(광학 phased array 등) 관련 스타트업과 협력/인수 가능성도 있습니다. 한편 루미나르는 자율주행 소프트웨어 플랫폼 회사로 스스로를 포지셔닝하고 있어, 향후 라이다 데이터 기반의 고정밀 지도 업데이트 서비스나, 자율주행 알고리즘 라이선스 등 새로운 수익 모델을 만들 가능성도 있습니다. 예를 들어, 일정 구독료를 내면 차량의 라이다 데이터로 전방 위험을 실시간 업데이트 받아 경고해주는 서비스 등입니다. 업계에서는 2020년대 후반 L3/L4 차량 증가와 함께 루미나르의 매출이 급성장할 것으로 전망하고 있으며, 이미 확보한 12개 이상의 OEM 파이프라인 이 이를 뒷받침합니다. 다만 경쟁사들도 존재하므로, 루미나르는 기술 리더십 유지와 원가 혁신의 이중과제를 안고 있습니다. 현재까지의 행보로 보면, 루미나르는 젊은 기업답게 민첩하게 움직이며 자율주행 센서 분야의 유니콘으로 자리매김했고, 그 장래성은 매우 밝다고 평가됩니다.
자율주행용 카메라/센서 업체 비교표
자율주행차 센서 분야 주요 기업들의 기술 초점과 특징을 정리한 비교표는 다음과 같습니다.
업체 (분야)주력 기술/제품대표 적용 사례기술적 특징 및 장점미래 로드맵/전망
모빌아이 (ADAS 비전 SoC) |
EyeQ 시리즈 비전처리 칩카메라 기반 인지 SW (물체/차선/지도) |
다수 양산차의 ADAS (VW, 혼다 등)Mobileye SuperVision (니오 등 전기차)지크르 L4 프로토타입 (EyeQ5 x6) |
전방카메라 1대로 객체·도로 완전인식 가능 8MP 광각 카메라 지원, 텍스트 인식 등 고급 기능 저전력 ASIC으로 수천만대 차량 적용 |
EyeQ6(L/H)으로 성능 4.5배↑ 7nm 양산 독립 카메라+라이다 이중 인식 (True Redundancy) 추구REM 클라우드맵으로 자율주행 데이터축적 및 L4(Chauffeur) 도전 |
암바렐라 (엣지 AI SoC) |
CVflow AI SoC (CV2, CV3-AD 등)영상처리+AI 추론 통합 칩 |
콘티넨탈과 L2+/L4 공동개발 (2025~)Plus 트럭 자율주행 센서스위트전방카메라/서라운드뷰 모듈 (다수 OEM) |
11대 카메라 30fps 동시 처리, 200m 인식 가능 업계 최고 AI 연산/W 저전력 SoC 영상 ISP+레이다 처리 결합 (Oculii 인수) |
CV3-AD 시리즈로 L2++ 지원 콘티넨탈 등 통해 양산차 진입 계획 후속 SoC 개발 중, 2027년 L4 칩 목표 |
엔비디아 (자율주행 컴퓨팅) |
DRIVE AGX SoC/컴퓨터(Xavier > Orin 254TOPS > Thor ~2000TOPS) |
NIO ET7/ES7 (Orin x4), Xpeng G9 (Orin)볼보 EX90 (Orin), 메르세데스 MB.OS (Thor 예정)바이두 Apollo, 로보택시 (Zoox 등) |
멀티센서(8+ 카메라, 라이다 등) 동시 처리 가능254TOPS Orin = L4 자율주행 구현 성능 Thor (’25) Blackwell 기반, 통합 컴퓨팅 (자율+인포테인먼트) |
Orin 2022 양산 (각지採用)Thor 2025 예정 (2000+TOPS) Generative AI 차량 적용 추진 소프트웨어 에코시스템 (시뮬레이션, HD맵 등) 확장 |
앱티브 (ADAS 시스템 통합) |
통합 ADAS 플랫폼 (센서+ECU+SW)전방 8MP 카메라 모듈, 단거리 레이다 등 |
GM/Ford 등 전방 ADAS 모듈 공급Motional 로보택시(현대 아이오닉5 기반)Ford BlueCruise 등에 레이다 일부공급 |
카메라+레이더 센서융합으로 인식 향상 카메라 모듈/ECU 분리 위성구조로 발열 해결 “Ice Cube” 카메라+레이다 일체형 센서로 초음파 대체 |
Gen6 ADAS: L2+ Hands-free 구현 2025~27년 Ice Cube 센서 양산 SW 역량 강화 (WindRiver 인수) – SDV 대비Level3 도시주행 지원 기술 개발 중 |
벨로다인 (LiDAR) |
회전식 다중빔 LiDAR 센서(VLS-128, HDL-64/32, Puck 등) |
웨이모/크루즈 등 자율주행차 프로토타입 다수우버 ATG 시험차량, 드론/지도제작 등(양산차 적용 사례는 없음) |
128채널 0.1°해상도, 10% 반사체 220m 탐지 360°×40° FoV, 멀티리턴으로 투과 능력디지털 라이다 합병(Ouster)로 비용↓ 신뢰성↑ |
2023년 Ouster와 합병, 제품 통합중 Solid-state 소형 라이다 개발 (Velarray 등)원가절감 목표: 차량용 $500 이하 라이다 지향ADAS/로봇 등 신시장 공략, LiDAR 소프트웨어 제공 |
루미나르 (LiDAR) |
장거리 고해상도 LiDAR (Iris)1550nm, 120° FOV, Perception SW |
볼보 EX90 (2023, 라이다 기본장착) 모빌아이 로보택시 키트 (협업) 닛산(’25~), 메르세데스(옵션 예정) 등 |
10% 반사체 200m @90% detect 카메라급 300점/deg² 해상도, 1550nm 레이저 반사강도 영상 출력으로 객체식별 보조 |
2022 볼보에 첫 양산 적용, 다수 OEM 수주 진행 SW 스택 (Sentinel)으로 수익다각화라이다 원가 계속 절감 – 대량생산/ASIC화 추진 차세대 FMCW 등 연구 |
스마트폰 카메라 vs 자율주행 카메라 기술 비교
스마트폰 카메라 기술과 자율주행차용 카메라/센서 기술은 각기 최적화된 방향과 환경이 다르지만, 기본적으로 이미지센서와 광학, 신호처리라는 공통의 뿌리를 갖고 있습니다. 아래에서는 두 분야 기술의 차이점과 유사점을 주요 요소별로 비교하고, 서로의 강점을 어떻게 활용할 수 있는지에 대한 통찰을 제시합니다.
기술 요구 사항 및 환경 비교
- 해상도 및 픽셀 크기: 스마트폰 카메라는 화소 경쟁이 치열하여 1억2억 화소까지 탑재되고, 개별 픽셀도 0.6μm 수준으로 매우 미세합니다 . 이는 주로 이미지 세부 디테일과 디지털 줌 품질을 높이기 위한 것입니다. 반면 자율주행용 카메라는 해상도 18MP 정도로 상대적으로 낮지만 시야확보와 신뢰도가 중요합니다 . 차량 카메라는 **픽셀 크기(3~5μm 이상)**를 크게 해 감도를 높이고 LED 신호등 같은 발광체 깜빡임(flicker) 억제, 글로벌 셔터 등 특성을 중시합니다. 즉, 스마트폰은 더 많은 픽셀, 차량 카메라는 더 큰 픽셀 위주로 발전해 왔습니다.
- 다이내믹 레인지 및 감도: 스마트폰 카메라는 제한된 센서 크기에도 불구하고 HDR 촬영과 야간모드로 인간 시각에 버금가는 결과를 내기 위해 다중노출 합성이나 듀얼 ISO 기술을 활용합니다 . 최신 모바일 센서는 12~14bit ADC와 스태거드 HDR로 약 100dB 이상의 다이내믹 레인지를 달성합니다 . 자율주행 카메라는 한 프레임 안에서 어둠과 밝음 모두 잡아내야 하므로 120dB 이상 초광범위 DR이 요구되며, LED 신호등 인식을 위해 높은 전자셔터 속도와 글로벌셔터를 사용하는 경우도 있습니다. 또한 차량용 센서는 -40°C의 밤하늘에서 직사광선 아래까지 극한 조도 변화를 견디며, 항상 50ms 이내 실시간 처리되어야 하므로, 스마트폰처럼 여러 장을 합성할 시간이 없습니다. 따라서 센서 하드웨어 자체의 DR 향상(듀얼게인, LFM 기술 등)에 집중합니다.
- 거리/깊이 인식: 스마트폰은 듀얼/트리플 카메라로 스테레오 깊이 추정을 하거나, 짧은 거리(수 m)의 ToF 센서로 인물 보케나 AR에 활용합니다. 예를 들어 일부 스마트폰은 뒷면에 IR ToF Depth 카메라를 탑재해 피사체 거리측정을 돕습니다. 자율주행에서는 수십~수백 m 거리 측정이 필요하여 **라이다(LiDAR)**를 추가로 장착하는데, 루미나르, 벨로다인 같은 라이다가 그 역할을 합니다. 카메라 기반의 스테레오 비전도 차량에 쓰이지만, 빛 변화나 패턴없는 도로에서는 부정확하므로, 라이다/레이다의 보조를 받습니다. 즉, 스마트폰은 3D 인식에 부차적인 반면, 자율주행은 3D 인식이 코어이며 이를 위해 전용 센서(라이다 등)를 쓴다는 차이가 있습니다.
- AI 처리 및 알고리즘: 스마트폰 카메라는 컴퓨테이셔널 포토그래피에 AI를 활용하여, 장면별 최적 화질(예: 밤하늘별은 노이즈억제, 음식사진은 색감증강 등)을 얻고, 인물에서 머리카락 마스크 분리같은 작업을 실시간 합니다 . 반면 자율주행 카메라는 객체 인식/분류, 거리측정, 주행결정 등에 AI를 사용합니다. 둘 다 딥러닝을 쓰지만, 스마트폰은 미적 품질 개선이 목적이고, 자동차는 안전한 주행 판단이 목적입니다. 예를 들어 스마트폰 ISP의 AI노이즈억제는 사용자가 인식 못할 디테일 손실을 감수하지만, 자율주행 인식 AI는 보행자와 그림자를 혼동하면 안 되는 정확도가 생명입니다. 또한 차량 AI는 360도 다수 카메라+센서 퓨전이 필요하고, 수 ms 단위로 결과를 내야 하며, 오탐/미탐 시 생명이 걸립니다. 따라서 정밀도와 실시간성에서 차량용 요구치가 훨씬 높습니다.
- 환경적 견고성: 스마트폰 카메라는 주로 휴대기기 내부에서 동작하므로 040°C 정도, 실내/실외에서 한계적인 상황(폭염, 한겨울)에 오래 노출되는 경우가 드뭅니다. 그러나 차량용 카메라는 엔진룸 열기, 한여름 직사광, 겨울 혹한 등 **-4085°C 이상의 온도 범위**에서도 장시간 버티고, 진동, 물, 먼지에도 견디는 패키징이 필수입니다 . 또한 렌즈에 이물질이 끼는 것을 대비해 세척(워셔액 분사)이나 발열 히터 등도 고려됩니다. 이러한 내구성 요건은 스마트폰 카메라보다 훨씬 엄격하며, 따라서 차량용 센서는 생산시 AEC-Q 등 자동차 등급 인증을 받아야 합니다. 요컨대, 스마트폰 카메라 모듈은 미니어쳐화와 성능에 집중, 차량 카메라는 견고성과 안정성에 더 무게중심이 있습니다.
기술 유사점 및 교류 가능성
- CMOS 센서 기술 공통점: 두 분야 모두 CMOS BSI 이미지센서 기술을 사용하며, 픽셀 구조나 공정 혁신은 공유됩니다. 예컨대 적층형 센서(스택 CIS), 듀얼 컨버전 게인, BSI 공정 등은 스마트폰에서 먼저 상용화되고, 이후 차량용 센서에도 파급되었습니다. 최근 소니의 2층 트랜지스터 픽셀같은 혁신도 앞으로 자동차 HDR 센서에 응용될 수 있습니다. 반대로, 자동차용에서 개발된 LED 플리커 억제 기술이나 글로벌 셔터 픽셀은 향후 스마트폰의 특수응용(초고속 촬영 등)에 쓰일 수 있습니다. 즉 센서 물리/공정 기술은 양쪽에 시너지가 있습니다.
- 다중카메라 구성: 오늘날 고급 스마트폰은 후면 34개의 카메라(초광각, 광각, 망원 등)가 있고, 자율주행 자동차도 전방/측방/후방 등 수수십개의 카메라를 가집니다. 이 멀티 카메라 시스템을 운영하고 보정(calibration)하는 노하우에도 유사점이 있습니다. 예를 들어 스티치된 파노라마 이미지 생성, 스테레오 간 정합, 색감 일치 등이 그러하며, 스마트폰의 멀티카메라 경험은 차량의 어안 서라운드뷰 구현 등에 참고되었습니다. 또한 카메라+IR센서 조합도 스마트폰(컬러+IR for face ID)과 차량(DMS: IR 카메라로 운전자 모니터)에 각각 사용되고 있습니다.
- AI 및 딥러닝 활용: 비록 목적은 다르나, 신경망 기반 영상 처리를 사용한다는 점은 같습니다. 예를 들어 세그멘테이션 기술은 스마트폰에서도 인물과 배경 분리를 위해 쓰이고, 자율주행에서도 도로/차선/보행자 영역 분리에 쓰입니다. 또 강화학습이 스마트폰 카메라 튜닝(사용자 선호 학습)에 연구되는 한편, 자율주행 주행전략 학습에도 활용됩니다. 이렇게 AI 알고리즘 측면에서는 연구 커뮤니티가 부분적으로 교류하고, 발전이 서로에게 도움이 됩니다.
- 광학 및 부품: 스마트폰 카메라 모듈의 렌즈 소형화, OIS(손떨림보정) 기술 등은 차량용 카메라 모듈(예: 차량 OIS로 흔들림 억제)에도 적용 가능합니다. 반대로 차량용의 고신뢰 커넥터, 차폐 케이블(GMSL) 기술은 스마트폰의 고속 인터페이스나 발열 억제 설계에 아이디어를 줄 수 있습니다. 또한 ToF 센서 분야에서, 벨로다인 등 라이다 기술의 축적은 스마트폰의 LiDAR 스캐너(예: 아이폰의 구조광/ToF) 개발에도 영향을 주었습니다.
상호 활용 및 융합에 대한 통찰
스마트폰 카메라와 자율주행 카메라는 최적화 방향은 다르지만, 서로의 강점을 활용해 시너지를 낼 여지가 많습니다. 몇 가지 통찰을 정리하면 다음과 같습니다:
- 모바일 기술의 자동차 적용: 스마트폰에서 검증된 고해상도 소형 센서와 대량생산으로 낮춘 단가는 차량용에도 매력적입니다. 예를 들어 8MP 급 모바일 센서들을 자동차 주변카메라에 적용하면, 현재 1~2MP 수준인 차량 카메라 해상도를 크게 올릴 수 있습니다 . 실제로 테슬라는 모바일용 Sony IMX 대형센서를 전방카메라에 채택하기도 했습니다. 또한 스마트폰의 이미지 신호처리 ISP (노이즈억제, HDR합성 등)를 차량 카메라 영상에 응용하면, 안개나 어둑한 상황에서 인식률을 높일 수 있습니다. 적응형 HDR 알고리즘이나 저조도 다중프레임 합성은 차선인식 향상 등에 도움 될 수 있습니다. 요컨대, 모바일의 높은 성능/저비용 센서와 이미지처리 기법은 자동차 센서 업그레이드에 기여할 것입니다.
- 자동차 기술의 모바일 적용: 반대로, 차량용 센서의 안전성·신뢰성 설계는 모바일에도 유용합니다. 예를 들어 중요한 순간을 촬영하는 스마트폰 카메라에 듀얼 센서 이중화를 적용하면, 하나가 실패해도 다른 하나가 기록을 이어 받아 중요한 장면을 놓치지 않을 수 있습니다 (현재 일부 폰에서 열화상+일반카메라 동시 촬영같은 응용이 나오듯, 향후 이벤트 촬영에 이중화 가능). 또한 라이다 기술은 모바일 AR에서 실내 맵핑이나 3D 스캔을 더 정확하게 할 수 있게 해줄 수 있습니다. 이미 아이폰에 소형 라이다가 들어갔지만, 향후 자동차용 라이다의 소형화로 더 정밀하고 장거리(수십 m) 스캔이 스마트 기기에 가능해질 수 있습니다. 차량용 광학 설계 (왜곡 최소화 초광각 등)도 360도 카메라폰 개발에 참고될 수 있습니다.
- 크로스 도메인 혁신: 궁극적으로, IoT와 차량이 연결되고 엣지 AI가 발전함에 따라, 스마트폰과 자동차의 카메라가 협업하는 시나리오도 등장할 수 있습니다. 예를 들어 도로 인프라 카메라나 지나가는 차량 카메라가 찍은 정보를 인근 차량이나 보행자의 스마트폰과 공유하여 사각지대 경고나 교차로 알림을 주는 방식입니다. 이때 모바일과 차량 카메라 간 포맷/프로토콜 표준화와 AI 인식 결과의 교환이 이루어져야 하는데, 현재 V2X 통신 등으로 그 기초가 마련되고 있습니다. 또한 스마트폰 업체와 자동차 업체가 협력하여, 모바일 처리칩을 차량에 적용하거나 (예: 퀄컴 스냅드래곤 Ride 플랫폼이 차량용으로 제공됨) 차량 센서 데이터를 모바일 앱으로 분석하는 (예: Teslacam 비디오를 휴대폰에서 요약 분석) 등의 융합도 진행 중입니다.
- 사용자 경험과 안전의 융합: 스마트폰 카메라는 주로 사용자 경험(UX) 향상을 위한 것이고, 자율주행 카메라는 안전(Safety) 향상을 위한 것입니다. 앞으로의 차량은 승객에게 엔터테인먼트와 안전 둘 다 요구되므로, 이 둘의 융합이 중요해집니다. 예컨대 차내 승객이 스마트폰으로 찍은 사진을 차량의 AI가 분석해 최적의 여행 루트를 제안하거나, 차량 외부 카메라 영상이 모바일로 전송돼 AR 필터로 꾸며지는 식의 새로운 UX가 가능할 것입니다. 또한 사고 시 차량 카메라 기록을 스마트폰과 연계해 증거로 자동 저장하거나 보험 청구에 활용하는 등, 서로 다른 목적인 카메라 시스템이 연결되어 더 높은 가치를 창출할 수 있습니다.
결론
스마트폰 카메라와 자율주행용 카메라(및 센서) 기술은 각자의 환경과 목적에 특화되어 발전해왔지만, 기본적인 센서 기술과 영상처리 지식이 교류되며 상호 발전을 거듭해왔습니다. 스마트폰 카메라 분야의 혁신적 센서 설계, 초소형 고집적 기술, AI 기반 화질 개선 등은 자동차 분야에 스며들어 ADAS 센서의 성능을 높이고 비용을 낮추는 데 기여하고 있습니다. 동시에 자율주행 분야에서 요구되는 극한의 신뢰성, 3D 인식 능력, 실시간 처리 기술은 다시 모바일/IoT 기기의 새로운 가능성을 열어주고 있습니다.
각 대표 기업들을 비교해보면, 소니/삼성/옴니비전 등의 스마트폰 센서 기업들은 픽셀 기술 경쟁과 AI 포토그래피로 인간의 시각 경험을 풍부하게 하는 데 집중하고 있고, 모빌아이/엔비디아/루미나르 등의 자율주행 기술 기업들은 멀티센서 융합과 초고속 컴퓨팅으로 인간을 대신해 안전한 운전을 구현하는 데 주력하고 있음을 알 수 있습니다. 두 분야 모두에서 센서와 AI의 결합이 핵심 트렌드로 떠오르고 있으며, 미래 로드맵 역시 고성능화와 통합화라는 방향성에서 일맥상통합니다.
향후 자동차는 바퀴 달린 스마트 디바이스로 변모하고, 스마트폰은 더욱 강력한 센서 허브가 될 것으로 예상되므로, 카메라 기술의 융합과 응용은 가속화될 것입니다. 예를 들어 자동차용 카메라의 초광역 HDR, 라이다 기반 3D 인식이 일반 소비자 기기의 AR에 활용되고, 스마트폰의 초고해상도 센서와 AI ISP가 자동차의 모니터링 카메라에 적용되어 야간 식별력을 높이는 식입니다. 또한 양쪽 분야 기업 간의 협업 (모바일 칩 기업의 자동차 진출 등)이 늘어나 경계가 허물어지고 있습니다.
결론적으로, 스마트폰 카메라와 자율주행용 카메라/센서는 서로 다른 요구사항을 충족하기 위해 특화 발전했으나, 궁극적으로 **“사물을 보고 인식한다”**는 공통된 목표를 가지고 있습니다. 각 분야에서 쌓아온 기술적 장점들은 이제 서로에게 배워가며 크로스오버 혁신을 일으키고 있습니다. 이러한 흐름 속에서, 인간의 눈을 대신하는 인공지능 시스템이 모바일 기기와 자동차 모두에서 점차 완성도를 높여갈 것이며, 두 분야 기술의 경계는 갈수록 옅어져갈 것입니다. 앞으로도 카메라 기술의 발전은 우리의 일상 경험 향상과 이동 안전 혁신을 동시에 이끌어가는 핵심 동력이 될 것으로 기대됩니다.
댓글 영역