大会介绍


从前馈神经网络(Feedforward Neural Network)中沉重全连接到卷积神经网络(Convolution Neural Network)的视觉局部感知,再到长短时记忆模型(Long Short-Term Memory)的时序记忆门控,人工智能的每一次范式突破,核心都是对“连接”的重构。

2017年出现的神经网络架构Transformer,则将这一哲学逻辑推向了新的高度:自注意力机制本质上是数据驱动下Token之间的动态连接,让序列中的每个Token寻找全局关联的“左邻右舍”。然而,真正的变革在更深层次悄然展开。随着模型突破千亿,传统连接模式成为性能瓶颈。在残差连接和超级链接(Hyper-Connections)的启发下,DeepSeek团队提出的Manifold-Constrained Hyper-Connections新方法揭示了下一代神经网络架构的关键方向:不再局限于更多神经网络层的简单堆叠,而是在Transformer模型架构中通过残差连接铺设一条贯穿模型的“信息高速公路”,实现信息自由流动与智能路径选择。更进一步,通过流形约束提升连接的质量与效率,形成结构化的“智能立交”系统。

神经网络连接方式的每一次演进——从固定到动态,从稀疏到稠密、再到智能筛选——都对应着模型理解世界能力的跃迁。这些技术迭代背后,不变的是对非线性映射本质的追求,而变化的是编织智能网络的实现路径。如果说先前模型性能提升主要依靠规模扩张:更大、更深、更多参数;那么如今模型变强的重点正转向更合理结构约束下实现高效智能互联。

为深入解读DeepSeek这一创新方法的原理与应用, 由中国图象图形学学会主办,中国图象图形学学会学术会议与交流工作委员会、浙江大学人工智能教育教学研究中心承办,国家教材建设重点研究基地(高等学校人工智能教材研究)、CCF YOCSEF杭州协办,联合推出“前沿峰荟”线上专题论坛,1月8日(周四)19:00正式开播!第一期将以“连接即进化”推动架构革命:DeepSeek揭秘下一代AI“捷径”为主题,邀请领域专家学者进行分享交流,敬请关注!


报名购票

主办方