当前位置:首页 > 财经频道 > 正文内容

西井科技携手同济大学 三篇AI研究成果入选顶会ICLR 2026

聚亿千财2026-02-13财经频道3240

近日,国际顶级人工智能会议ICLR 2026(International Conference on Learning Representations,国际表征学习大会)公布论文接收结果。西井科技携手同济大学长聘教授、上海创智学院全时导师陈广,共有3篇人工智能研究成果被大会正式录用。作为全球人工智能领域最具影响力的学术会议之一,ICLR 致力于推动深度学习与表征学习的前沿突破。此次三篇论文同时入选,不仅彰显西井科技在基础研究方面的深厚积累,也标志着公司与同济大学在人工智能“产学研”深度融合上再获重要成果。

此次入选的三篇论文分别聚焦于大场景三维重建、多智能体协同视觉导航、开放环境下的点云语义分割三大前沿方向。这些成果紧密围绕大规模环境建模、多智能体协同规划与开放场景感知等核心挑战,不仅推动了学术前沿,也为西井科技下一代自动驾驶系统在港口、机场、工厂、园区等典型复杂真实环境中的落地提供了重要支撑。

论文一:面向大规模场景重建的信号结构感知高斯泼溅技术

Signal Structure-Aware Gaussian Splatting for Large-Scale Scene Reconstruction

ce1df75c-07f2-11f1-90a1-92fbcf53809c.png

高斯泼溅(Gaussian Splatting)在新视角合成任务中展现了显著潜力。与小规模场景相比,大规模场景不可避免地包含观测稀疏区域,其初始点云往往极度稀疏。在这种情况下,若直接利用高频图像对由低频稀疏点初始化的高斯基元进行监督,容易引发失控的密化过程并生成大量冗余基元,从而同时损害训练效率与重建质量。

我们从信号恢复的角度重新审视三维重建的过程,场景的训练调度可总结为如下方式:一是通过控制高斯密化过程来调节目标信号频率,二是通过调整图像分辨率来调节采样频率。然而,现有调度方法大多采用硬编码规则,难以感知并自适应场景频率的收敛行为。为此,我们从信号结构恢复的视角重新审视场景重建问题,提出了一种新的调度器 SIG(Synchronizing Image supervision with Gaussian frequencies),用于实现图像监督与高斯频率的动态同步。具体而言,我们推导了三维表示的平均采样频率与带宽,并据此根据场景频率的收敛状态自适应地调节训练图像分辨率与高斯密化进程。

此外,我们引入了球约束高斯(Sphere-Constrained Gaussians),利用初始化点云的空间先验对高斯优化过程进行有效约束。该框架实现了频率一致、具备几何感知且无漂浮伪影的训练过程,在大规模场景中在效率与渲染质量两方面均以显著优势达到了当前最先进水平。

论文二:协作长视程视觉语言导航基准CoNavBench

CoNavBench: Collaborative Long-Horizon Vision-Language Navigation Benchmark

视觉语言导航(VLN)目前主要集中于以单智能体为中心的方法,通过逐步执行人类指令来完成任务。然而,在需求密集或存在并行工作流的真实环境中,协作式 VLN 展现了显著优势,能通过并行处理和角色分工缩短完工时间并增强系统鲁棒性。与此同时,协作式 VLN 也引入了单智能体模型所忽视的新挑战,如拥堵、交接错误以及汇合时机把控。

鉴于现有数据集和评估协议仍以单智能体为中心,忽略了协作辅助的机会与机器人间的干扰,我们提出了协作式长航程 VLN 基准(CoNavBench)。该基准包含 4048 个具有图级标注的单体与协作任务序列,并定义了一套控制交接风格与汇合模式的协作分类法。为了实现大规模的数据生成与评估,我们构建了自动化图结构生成平台 NavCraft,采用两阶段分层架构来规划任务、分配子目标并验证交接点。智能体在基于 Habitat-Sim 的场景图闭环中运行,支持可达性检测、耗时预估等,并能通过效率工具库进行调度迭代。作为参考,我们基于 Qwen2.5-VL-3B 微调协作基线模型。实验证明,在 CoNavBench 上训练的协作策略在任务效率和可靠性上均优于单机器人,提升单机器人在 step-level 任务成功率约 18.11% 。

论文三:用于点云开集测试时自适应的几何引导分布外建模方法GOOD

GOOD: Geometry-guided Out-of-Distribution Modeling for Open-set Test-time Adaptation in Point Cloud Semantic Segmentation

ced9a830-07f2-11f1-90a1-92fbcf53809c.png

开集测试时自适应(OSTTA)目前主要集中于 2D 图像领域,旨在解决在线模型优化与开放场景识别的挑战。然而,在 3D 点云语义分割的真实环境中,点云数据的无序性与已知(ID)及未知(OOD)样本间的极度失衡带来了显著困难,导致现有方法难以捕捉几何先验且易误判稀疏的 OOD 实例 。

鉴于现有技术在处理 OOD 样本稀疏甚至缺失时的局限性,我们提出了几何引导的离群分布建模(GOOD)框架。该框架利用几何聚类将点云转化为超点以缓解数值差异,并定义了一套结合纯度与熵的置信度指标配合高斯混合模型进行初步筛选。为了增强判别鲁棒性,我们构建了超点 ID 原型策略与时间伪标签分支,通过原型细化与时序一致性约束来生成可靠的监督信号。实验证明,GOOD 在四个基准数据集上的表现均优于现有方法,特别是在 Synth4D 到 SemanticKITTI 任务中,其 AUROC 和 FPR95 分别提升了 8.99% 与 7.91% 。

作为深耕AI和智慧物流领域的科创企业,西井科技积累了丰富的多场景产业应用经验;而同济大学作为国内智能交通领域的顶尖高校,在人才培养、基础研究方面拥有得天独厚的优势,能够为产业创新提供源源不断的技术支撑与人才供给。未来,西井科技将继续与同济大学等高校持续深化合作,进一步推动更多前沿技术从实验室走向产业一线,赋能海港、空港、工厂、园区等场景的智能化升级,激活新质生产力,共绘高质量发展新蓝图!