岩芯数智发布离线端侧部署的非Attention机制大型模型
作者:LR •更新时间:2025-08-08 15:56:24•阅读 0
1月24日,上海岩芯数智人工智能科技有限公司对外推出了一个非Attention机制的通用自然语言大模型——Yan模型。岩芯数智发布会上称,Yan模型使用了全新自研的“Yan架构”代替Tran**ormer架构,相较于Tran**ormer,Yan架构的记忆能力提升3倍、速度提升7倍的同时,实现推理吞吐量的5倍提升。
岩芯数智CEO刘凡平认为,以大规模著称的Tran**ormer,在实际应用中的高算力和高成本,让不少中小型企业望而却步。其内部架构的复杂性,让决策过程难以解释;长序列处理困难和无法控制的幻觉问题也限制了大模型在某些关键领域和特殊场景的广泛应用。随着云计算和边缘计算的普及,行业对于**能、低能耗AI大模型的需求正不断增长。
“在全球范围内,一直以来都有不少**的研究者试图从根本上解决对 Tran**ormer架构的过度依赖,寻求更优的办法替代 Tran**ormer。就连Tran**ormer 的论文作者之一Llion Jones也在探索‘Tran**ormer 之后的可能’,试图用一种基于进化原理的自然启发智能方法,从不同角度创造对AI框架的再定义。”
在发布会上,岩芯数智称,在同等资源条件下,Yan架构的模型,训练效率和推理吞吐量分别是Tran**ormer架构的7倍及5倍,并使记忆能力得到3倍提升。Yan架构的设计,使得Yan模型在推理时的空间复杂度为常量,因此针对Tran**ormer面临的长序列难题,Yan模型同样表现优异。对比数据表明,在单张4090 24G显卡上,当模型输出token的长度超出2600时,Tran**ormer的模型会出现显存不足,而Yan模型的显存使用始终稳定在14G左右,理论上能够实现**长度的推理。
刘凡平表示,Yan模型100%支持私有化部署应用,能够不经裁剪和压缩即可在主流消费级CPU等端侧设备上无损运行,达到其他模型在GPU上的运行效果。发布会上,Yan展示了其离线后在笔记本上运行的实时片段,刘凡平称之后离线端侧部署将成为岩芯智能的重要商业化方向。

“在全球范围内,一直以来都有不少**的研究者试图从根本上解决对 Tran**ormer架构的过度依赖,寻求更优的办法替代 Tran**ormer。就连Tran**ormer 的论文作者之一Llion Jones也在探索‘Tran**ormer 之后的可能’,试图用一种基于进化原理的自然启发智能方法,从不同角度创造对AI框架的再定义。”
在发布会上,岩芯数智称,在同等资源条件下,Yan架构的模型,训练效率和推理吞吐量分别是Tran**ormer架构的7倍及5倍,并使记忆能力得到3倍提升。Yan架构的设计,使得Yan模型在推理时的空间复杂度为常量,因此针对Tran**ormer面临的长序列难题,Yan模型同样表现优异。对比数据表明,在单张4090 24G显卡上,当模型输出token的长度超出2600时,Tran**ormer的模型会出现显存不足,而Yan模型的显存使用始终稳定在14G左右,理论上能够实现**长度的推理。
刘凡平表示,Yan模型100%支持私有化部署应用,能够不经裁剪和压缩即可在主流消费级CPU等端侧设备上无损运行,达到其他模型在GPU上的运行效果。发布会上,Yan展示了其离线后在笔记本上运行的实时片段,刘凡平称之后离线端侧部署将成为岩芯智能的重要商业化方向。