
来自加州大学河滨分校,密歇根大学,威斯康星大学麦迪逊分校和德克萨斯大学的团队发表了第一个统一的统一基准框架,用于自主驾驶语义占领的施工网格或现实世界的活动(Nuscenes,Waymo)(Nuscenes,Waymo)和模拟环境,并介绍了Voxel级的前堆运动,并为VOXEL级的前堆运动提供了综合的次数,并将推理。 Timing.S资源支持各种任务,例如占位预测,长期预测,动态监控等,并专注于开发标准的感知研究平台,以在新的多模式阶段促进自主神经驾驶和更强的整体能力。纸张标题:UnioCC:自主驾驶纸链接预测预测和预言的统一基准:https://arxiv.org/abs/2503.24381 Project homepage:https://unicc.github.io/代码:18TSKLDPPW1IWVFTB6DTSNLHVUD5-8PW?usp =共享Baidu网络磁盘:https://pan.baidu.com/s/17pk2ni8bwwwu4t2frmvroea?pwdrmvroea?驾驶员的感知是针对传感器数据(预测)和预测)3D格栅工作的。但是,当前的研究面临许多挑战:伪标签缺陷:主要数据集(例如Nuscenes,Waymo)缺乏真正的占位符注释,并且只能依靠LIDAR启发主义产生的伪标签。这些伪标签通常仅覆盖可见的表面,并且无法显示真实物体的完整形状,从而在训练有素的模型中导致不良结果,并且没有使用传统IOU等指标检测到问题。图3显示了缺失的OCC3D伪标签形状与模型预测的比较。数据拆分:现有方法通常仅限于单个数据源,调整,采样在不同的数据集中,速率,格式和注释不均匀,需要单独调整培训和评估。直到今天,必须立即进行一种格式和工具链,以在整个数据集中进行训练和测试并一般提高能力。当前的三维占位持有人标签通常不包含对象运动信息,并且该模型可能不会使用运动的运动来预测。与对象级别的先前职业流不同,UnioCC在第一次数据(例如,下图)上提供了运动数据的体素级三维注释,该注释可以获取翻译和旋转信息信息,从而增强动态场景的建模。协调的驾驶:尽管多车合作感是一个切削方向,但缺乏多辆车伙伴关系预测的ofdata集。 ang uniocc ay nagpalawak ng mga senaryo ng多车巴打sa opencood,na naging unang unang bukas aMark Na Suportahan Ang Pagtataya ng maraming-kotse na nagtuturo ng多车。 UnioCC的四个主要更改在多源数据处理中统一:UnioCC结合了来自真实场景(Nuscenes,Waymo)和模拟场景(Carla,Opencood)的数据,合并格式,并提供标准数据预处理预处理和数据载体数据。这是将许多占位符数据源组合在同一轮廓中的第一项工作,使研究人员可以训练和复习“开箱即用”(表1)。体素级运动流:UnioCC标签是向前的,并且为每个三维体素的向量的三维速度反向,对物体的翻译和蛋白质的全面记录。该体素级别流的注释是在占位预测领域提出的第一个变化,这有助于模型更好地获得场景中的动态变化(图2)。分析指标:荒谬的荒谬检验的建议指标,以避免仅依赖R的伪标记。eview。通过研究方法,例如真实对象大小分布的高斯混合模型(GMM),UnioCC可以在没有完美标签的情况下评估公义的量。在时间的大小上,UnioCC提供的工具可以拾取并与顺序框架相同对象和背景的体素对齐,从而实现了时间耗尽的测试(图4)。支持合作预测功能:通过专用Opencood框架,UnioCC涵盖了多转运的场景,该场景使研究人员能够探索融合传感器融合的多订阅。实验验证介绍了运动流量信息:在UnioCC在OCCWorld和其他3D占位持有人预言模型上提供的体素移动流量流量之后,性能的性能显着提高。从表3中可以看出,在向Nuscenes和Waymo添加流信息后,MIOU指标在所有类别中都得到了改善。多源联合培训:使用多源DA培训TA可以增强跨域泛化能力。表4显示,在多域数据(如Nuscenes和Carla)中,OCCWorld联合训练,每个测试组中的MIOU都比训练资源训练更好。有关详细信息,请参见表4中训练源的各种组合的性能。与此同时,由于从Carla获得的被征服的栅格的形状接近完美,并且对伪标签没有完全的问题,因此增加了Carla数据的练习以改善生成对象的真实性(图5)。现有工作预言模型的质量的发明:在表5中,具有-Set的人使用UnioCC来衡量CAM4DOCC和CVTOC生成的质量,并使用UnioCC来对不完整的预测进行分类,例如图3(问题群集)。协同预测效应:在模拟的多车情景中已证明了协同优势。以CoHFF模型为例,在测试OpenCood的多车数据时,IOU汽车类别达到87.22%的INBY共享多车信息,这证实了感知的合作潜力扩大视野并减少融合。 UnioCC框架以统一的方式设计,可以支持与占位持有人相关的各种占位座,包括:单帧占位符:当前摄像机/封面数据(例如CVTOCC)的当前时刻估算3D占位符;多框架占位符预测:将来根据历史信息(例如Okworld)预测三维占位符;多车程协作预测:在多个车辆的检测信息和范围改进(例如COHFF)的检测信息下完成占位符预测;动态分割和监视:使用段中的体素级流量信息并监视动态目标。还包括在UnioCC Voxel工具和跟踪工具中,使研究人员可以直接识别目标并链接到占位符空间中的框架。总结Ary and Outlook Uniocc是第一个用于自动驾驶占用预测预测的统一基准,它将从真正统一的评估系统中依赖伪标签的阶段来促进该行业。它提供跨域数据格式,完整的流注释,细分监视工具和荒谬的评估指标,从而大大简化了与工作的开发和比较。将来,随着多模式和大型自动驾驶模型的增加,Uniocc是一个占位库 - 图像数据为培训和评估多模式/语言模型的基础奠定了基础。我们期待基于更具创新算法的Uniocc的出现,以加速语义预言技术的发展。