![]()
试想你的大脑每天都在接收新信息,但记忆空间却越来越满,最终不得不忘记一些旧知识才能记住新内容。这正是当前大语言模型面临的困境。来自希腊塞萨洛尼基大学的研究团队最近在第41届ACM应用计算会议(SAC '26)上发表了一项突破性研究,编号为979-8-4007-2294-3,提出了一种名为MBC(Memory Bank Compression)的创新方法,就像给AI的大脑装上了一个可以无限压缩的超级U盘。
当下的AI大模型就像一个博学的学者,经过大量训练后拥有了丰富的知识储备。但问题在于,一旦训练完成,这些模型就变成了"僵化的百科全书",无法轻易更新其知识内容。当新信息出现时,要么需要重新训练整个模型(这就像让学者把所有知识都重新学一遍),要么使用检索增强技术从外部数据库调取信息(这就像让学者每次回答问题都要查阅图书馆)。
然而,这些传统方法都存在明显缺陷。重新训练耗费巨大的计算资源,成本高昂,而且容易出现"灾难性遗忘"现象,也就是在学习新知识的过程中忘记了之前的内容。检索增强技术虽然能提供最新信息,但依赖复杂的搜索机制,增加了响应延迟,而且检索质量直接影响回答效果。
阅读全文