首页 > 创新亦庄 > 深化改革先行区 > 产业发展

解决核心难题 具身智能有望短期内规模化落地

  本报讯(融媒体中心 李啸)2025世界机器人大会期间,由北京人形机器人创新中心(国地共建具身智能机器人创新中心)(以下简称“北京人形”)主办的“具身智能技术与应用论坛”8月9日在北京亦庄举办。北京人形围绕人形机器人从“最能跑”到“最好用”全面进化的目标,正式发布“具身世界模型体系”“千台机器人真实场景数据采集计划”等四项具身智能核心成果,并与多家产业链核心企业、科研机构建立合作伙伴关系,搭建具身智能技术向实际场景转化的桥梁。

  “最好用”的人形机器人,不仅要具备稳定可靠的行动能力,更要在真实场景中实现感知、决策、控制与迭代优化的全链路协同。实现这一目标的前提是同时突破认知理解、通用适配、执行控制与数据供给等核心环节。从北京人形现场发布的成果来看,“具身世界模型体系”打通认知与预判能力,“跨本体VLA模型”实现跨本体、多场景、多技能的通用性,“人形机器人全身控制自主导航系统”解决移动与操作协同的执行瓶颈,“千台机器人真实场景数据采集计划”为持续进化提供规模化数据“燃料”,共同构成了从“最能跑”到“最好用”的技术闭环,加速具身智能从技术突破迈向产业实用。

  具体来说,作为“最好用”机器人认知与预判能力的基础,北京人形率先推出“具身世界模型体系”,包含具备物理时空理解与推理能力的72B具身多模态大模型以及实现神经网络驱动世界模拟器的具身智能世界基座模型,为机器人理解现实与预测变化提供核心大脑。要让机器人在多本体与多场景中灵活适配,“跨本体VLA模型”成为通用性和扩展性的关键支撑,北京人形发布的跨本体VLA模型XR-1,能够让同一模型实现跨本体运行、多场景适配、多技能调用。以XR-1为基础,“慧思开物”能够快速构建面向各类场景任务的通用技能库,实现多本体、多场景、多任务的能力,显著减少具身智能应用开发的成本与用时。

  在执行控制环节,北京人形以“人形机器人全身控制自主导航系统”突破移动与操作协同的瓶颈,让机器人既能走稳,更能干活。该通用移动控制系统聚焦机器人在实际工作中的核心能力,由“自主导航系统”和“全身控制系统”组成。自主导航系统具备点对点导航、动态障碍感知和自主避障能力,并搭载OCC环视感知模块,实现对环境的实时占用与语义感知,拓展了自主与语义导航的应用空间。全身控制系统支持机器人在移动和站立状态下灵活进行上身动作控制,涵盖预设动作、遥操作与自主操作开发,通过稳定的质心控制与精准的末端控制,保障操作任务的稳定高效执行。两大系统协同解决机器人在移动与操作中的关键技术难题,赋能开发者实现自主任务规划与执行,助力人形机器人迈向真正的生产应用。

  为让核心能力持续进化,北京人形推出“千台机器人真实场景数据采集计划”,构建全链路的数据驱动引擎。这是业内首个千台级规模的真实场景数据采集计划,通过搭建远程遥操作中心,让千台机器人走出实验室,深入工厂车间、物流仓储、酒店商超等真实工业场景,在执行实际作业任务的同时,持续采集多模态交互数据。与实验室场景不同,真实场景的环境变化、人为扰动、突发状况等因素,为具身智能模型提供了更加丰富、真实的训练素材。这种“边作业、边采集”的创新模式,不仅解决了具身智能发展面临的高质量数据稀缺难题,更构建起规模化数据飞轮,加速模型迭代优化,推动整个行业向“数据富集”跨越,为具身智能产业化落地奠定坚实的数据基础。

  与此同时,北京人形进一步推动上下游协同生态的建设。合作签约环节,北京人形与中国电力科学院、百度智能云、特天集团、领益智造等核心机构和企业代表达成战略合作,各方将围绕协同创新与行业应用,推进具身智能技术在实际场景中的深度落地,共同打造开放共赢的产业生态。北京人形联合京沣科技设计仿真训练平台也正式发布,针对当前行业普遍面临的仿真数据标准缺失问题,提供覆盖多场景、高精度、高复现能力的专业训练环境,进一步完善具身智能“训练—部署—验证”的系统能力,赋能开发者与企业快速实现真实落地。

  本次论坛集中展示了具身智能技术从实验室走向产业化的关键突破,吸引全国近三百名具身智能领域专家学者与企业代表参与。北京人形有关负责人表示:“此次发布的四大创新成果,正在系统性解决机器人实际应用中的感知、决策和执行核心难题。随着核心技术的持续突破和应用场景的不断拓展,具身智能有望在未来短期内实现规模化落地,为制造业升级和智能经济发展提供重要支撑,产学研用各界的深度协同,将共同推动具身智能科技创新和产业创新融合发展。”

相关新闻