![]()
对话:王兆洋,黄小艺
整理:黄小艺
Memories.ai试图为未来的AI设备装上“视觉记忆”。
这家由前Meta Reality Labs研究员Shawn Shen和Ben Zhou创立的公司,11月6日发布了其第二代模型——大型视觉记忆模型(Large Visual Memory Model)2.0,并同步宣布与高通达成战略合作。
LVMM 2.0 通过将原始视频转换为设备上的结构化内存,对视频进行编码、压缩并构建支持亚秒级搜索的索引,让用户可以用自然语言提出问题,跳转到确切的时刻。
与高通的合作也意味着,Memories.ai可以为搭载高通芯片的AI硬件,例如AI眼镜等可穿戴设备,提供一个本地化的视觉记忆解决方案,让你的设备能记住你看到过的东西,并随时帮你找出来。
在合作官宣后,我们也和Shawn聊了聊,他们不参与最拥挤、最烧钱的“通用智能”战场,不负责让AI“思考”或“理解”记忆的含义,核心只做两件事: