想象一下,机器的“眼睛”不仅能像人眼一样广阔扫视,还能瞬间锁定关键目标,进行精细“凝视”……或许,这将不再是科幻情景。北京大学王兴军教授—舒浩文研究员团队、香港城市大学王骋教授团队及上海交通大学周林杰教授团队成功研制出一种受人类视觉机制启发的集成仿生激光雷达,首次在调频连续波这种“相干探测”的激光雷达上,实现了具有自适应“凝视”能力的芯片级4D成像,为实现更智能、更高效、更灵活的下一代机器视觉打开新大门。这项成果日前于国际学术期刊《自然·通讯》在线发表。
“随着自动驾驶、具身智能与低空智能系统等的迅猛发展,机器视觉亟需从‘能看见’升级到‘看得清、看得快、看得全’。激光雷达作为核心传感器,其性能提升却陷入困境。传统技术路径依赖在空间维度上‘堆叠’更多探测通道以提升角分辨率,这导致系统复杂度、功耗和成本呈指数级增长,逼近工程极限。”王兴军告诉记者。
对此,研究团队将目光投向了自然界最精妙的视觉系统——人眼。人眼并非在全视野都保持最高分辨率,而是通过“外围视野+凝视焦点”的高效协作机制,在有限能耗下实现了卓越的视觉感知。受此启发,团队思考:能否利用相干激光雷达技术的高灵敏度优势,让系统也具备类似的“凝视”能力,将宝贵的探测资源动态、集中地投入到最关键的区域?
基于这一思路,研究团队创造性提出“微并行”激光雷达新架构,并成功研制出原型系统。该架构的核心创新在于,以前想看得更清,往往只能靠“增加通道数”来提升性能;团队本次用波长/频率的灵活调度来“分配注意力”,让调频连续波激光雷达把“精力”用在最重要的地方。实验结果表明,该系统在局部感兴趣区域内实现了高达0.012°的角分辨率(相当于在百米距离可分辨硬币直径尺度的细节),并兼顾了大视场覆盖与高精细成像需求。
“更重要的是,得益于相干探测的高动态灵敏度,该研究首次演示了基于集成光梳的实时并行4D成像系统。”王兴军说,这意味着,系统不仅能获取高精度的三维几何信息,还能利用多普勒效应直接解析目标的瞬时速度信息,真正实现了时空四维数据的同步采集。这种对速度的直接感知能力,是传统激光雷达难以企及的。
研究团队进一步展示了该激光雷达与可见光相机协同工作的能力。通过多模态融合,可为激光雷达点云“上色”,补足其难以获取的颜色等外观信息,从而生成更丰富、更明确的四维场景,极大提升机器对复杂环境的理解与解释能力。
王兴军表示,该集成仿生架构具备优异的可扩展性和芯片级集成潜力,为研制小型化、低功耗、高性能感知模块提供了全新的系统级解决方案。它不仅为下一代智驾、智能机器人等前沿领域提供了更强大的“视觉”支撑,也为未来空天地一体化感知网络的建设奠定了重要的技术基础。
来源:光明日报全媒体记者晋浩天
责编:邢妍妍
编辑:张雪瑜 吴亚琦
【未经授权,严禁转载!联系电话028-86968276】
