分布式边缘智能处理的快速发展为探测器自主决策奠定了重要基础。然而,现有方法面向真实复杂环境的长序列任务泛化能力不足,并且模型庞杂难以工程化部署在资源受限的边端侧。在深空探测等非结构化场景下,如何让资源受限的探测器具备自主可靠决策与持续执行的能力,一直是全球学术界和工程领域关注的重要课题。
在国家自然科学基金项目(批准号:62322117,U24B20136)资助下,西安电子科技大学图像传输与处理团队谢卫莹教授和李云松教授等研究人员在分布式边缘智能处理及具身智能方向取得重要进展,研究成果以“Towards Long-Horizon Vision-Language-Action System: Reasoning, Acting and Memory”,“Allowing Oscillation Quantization: Overcoming Solution Space Limitation in Low Bit-Width Quantization”为题,近日被计算机视觉会议《International Conference on Computer Vision 2025》录用。针对探测器在非结构化场景下难以执行长序列任务的挑战,谢卫莹教授等提出了基于“大脑-小脑-反馈”机理驱动的具身智能自主决策系统“MindExplore”,构建了专家级多模态具身智能数据集“SandThink-21k”和“SandGo-1k”,支持巡视、避障、抓取等多种高动态复杂任务,有效弥补了该领域非结构化实景数据的不足,突破了具身智能在非结构化场景中移动操作的局限性。同时,创新性提出量化感知训练方法,主动利用振荡行为增强训练过程中的探索能力,通过权重振荡扩展可达解空间,实现模型轻量化学习,可为月球与火星探测、应急救援和极端环境操作等复杂任务提供可靠的技术范式。

在空天地一体化综合业务网全国重点实验室支持下,西安电子科技大学图像传输与处理团队面向深空及对地观测等国家重大需求,长期从事深空及对地图像传输与处理相关研究,在Proceedings of the IEEE、CVPR、NeurIPS等高水平期刊及顶级会议上发表科研论文100余篇,核心技术已成功应用于我国探月、探火,以及“高分十一号”等国家重大任务。
详细网站:
[1] https://xdu-imagelab.github.io/MindExplore/
[2] https://xdu-imagelab.github.io/AOQ/