![]()
这项由Meta公司FAIR实验室的白尚民(Sangmin Bae)博士领导的国际研究团队发表于2025年10月的最新研究,探索了一种全新的语言模型架构设计思路。有兴趣深入了解的读者可以通过arXiv:2510.04800查询完整论文。这项研究就像是在AI世界里开了一家"建筑公司",专门研究如何把两种不同风格的"建筑材料"——Transformer和Mamba——巧妙地组合在一起,建造出既坚固又美观的AI"大楼"。
说起来,现在的大语言模型就像是两个性格迥异的工程师。一个叫Transformer,它非常细心,能够同时关注到文章中的每一个词汇,就像一个全能的图书管理员,能瞬间找到任何一本书和另一本书之间的关联。但这位"管理员"有个小毛病,就是越是要处理长文章,越是累得气喘吁吁,处理速度也会急剧下降。另一个叫Mamba,它更像是一个马拉松运动员,擅长快速处理超长文本,而且越跑越有劲。不过它也有自己的局限性,就是在处理一些需要精确记忆的任务时,表现不如Transformer那么出色。
Meta的研究团队就在想,既然两种模型各有所长,为什么不能把它们组合起来呢?就像是让细心的图书管理员和擅长长跑的运动员组成一个团队,取