构建基于混合渲染的自动驾驶置信度闭环
构建基于混合渲染的自动驾驶置信度闭环
- 崔嘉亮 | 仿真测试技术主管,康谋科技
当 90% 的自动驾驶仿真里程却无法覆盖 90% 的真实事故场景,我们不得不思考:仿真测试的核心痛点是否在于 “看似逼真却不可信”?视觉上的 “以假乱真” 难以掩盖传感器光谱偏移、物理特性缺失、几何定位漂移等领域差距,导致仿真数据无法为算法迭代和量产验证提供可靠支撑。
本场演讲将聚焦这一核心矛盾,先分析仿真测试的核心矛盾——仿真与真实世界之间的 “领域差距”,再详解混合渲染的核心解决方案,通过静态场景精准重建、动态场景灵活交互、多传感器仿真融合,实现像素级几何精度、感知阈值内色彩匹配与点云分布特征还原。最后,通过实际案例与展望,呈现方案的核心价值,帮助客户获得稳定、精准、可复用的仿真数据,让仿真测试真正成为自动驾驶算法迭代、量产验证的可靠支撑,加速技术落地进程。
(点击视频观看高清版本)
精选Q&A
康谋的3DGS地图是否支持相机的多机位观测?
支持。3DGS 是一种显式的 3D 表达,它不是 2D 贴图。所以在理论上,你可以在这个场景里摆放任意数量、任意位置的虚拟相机都能获得正确的透视关系和遮挡关系。
但是3DGS 的渲染质量高度依赖于采集时的观测轨迹。如果仿真相机在采集轨迹的 ±2 到 3 米 范围内移动(模拟换道、轻微的路径规划偏差),我们的 NeRF2GS 可以保证模型是完整的,但是把相机拉到 50 米高空去做上帝视角,或者移动到采集车从未看见过的墙角后方,只会看到伪影和变形。
生成的3DGS地图能否配置不同的天气光照?
原生的 3DGS 做不到物理级的太阳光角变换,因为把光照信息固定在了高斯球谐函数里,在做到ISP解耦后可以通过调整虚拟传感器的 ISO 和曝光策略来模拟光线变化,对于添加的Mesh动态元素来说,当改变环境光方向时,渲染引擎会计算 Mesh 车辆的 Shadow Map,并将其强行投影到 3DGS 的路面上。这实现了局部动态光照,26年上半年康谋将会发布GS场景的色彩分级和光线的重计算功能。
传感器模型偏差有哪些具体表现?
几何失真:重建路面与 HD Map 不对齐导致定位算法漂移 ,导致规划决策错误(如压线行驶)。
纹理/光照失真:错误的阴影或高光,导致感知算法产生 False Positives(幽灵刹车)或 False Negatives(漏检障碍物)。
置信度是否可以量化?
列举一些常见的量化指标:
环境/传感器:计算 几何 RMSE(重投影误差)、色彩 ΔE、 点云KL 散度。动力学:对比实车与仿真的横摆角速度 (Yaw Rate) 和 侧向加速度 曲线。记录实车的控制输入(方向盘、油门、刹车)和状态输出。在仿真中输入同样的控制指令。调整仿真参数(轮胎刚度、悬挂阻尼),最小化仿真与实车的输出误差,直到置信度达标(如误差 < 5%)。