大众对于 LLM 最经典的误解可能就是下面两个:
第一,是认为模型会越用越聪明。[允悲]
而事实是,神经网络一旦训练完成,做推理部署。主网络就不会再动了。。。[允悲]实时学习的确是个梦想,但是目前随时重塑超大规模神经网络还不现实。
第二,是觉得模型有记忆。[黑线]
实际上模型是无状态的。[黑线] 你以为的记忆,只不过是在你的问题之外,模型自己补充了一大堆输入数据。
所以未来的模型,很可能是
一个可以实时学习的小规模神经网络,
加一个无状态的超大规模神经网络,
再加一个类似于记忆体的方案。
当微调变成实时的,同时也有记忆解决方了,那么这时候的模型,就更像 her 了。
可惜的是即使是实时学习的小模型,目前也没有几个靠谱的。而记忆问题,已经有了不少项目在想办法。
下面 5 个就是以为模型提供长期记忆为目标的项目:
xxxxxxxxxxxxxxx
1. **Graphiti**
Graphiti 通过构建时序知识图,为 AI 代理提供可动态演化的记忆能力,能够在不断变化的环境中捕捉实体关系和上下文[^11]()。该框架适用于长期记忆管理、复杂关系建模等场景。
2. **Letta**
Letta 是一个开源的白盒化框架,可用于搭建带有持久化记忆和高级推理能力的状态化 AI 代理[^38]()。它提供可视化接口,能够实时观测和调试代理的内部状态并进行迭代开发。
3. **Mem0**
Mem0(读作 “mem-zero”)是一个记忆层解决方案,将 LLM 与向量存储结合,为 AI 应用和代理提供持续学习与自适应的交互体验[^21]()。它可以在后端持久化对话与上下文,进行个性化信息检索和高效管理。
4. **Memary**
Memary 专注于为 AI 代理构建类似人类记忆的能力,可自动追踪用户偏好、实体知识和对话历史,并通过知识图实现动态更新[^29]()。旨在让 AI 代理在长期对话中能保持上下文一致与记忆丰富度。
5. **Cognee**
Cognee 提供可扩展的语义数据层和知识图支持,帮助 AI 应用和代理进行场景化的记忆构建与检索[^1]()。它通过可组合的 ECL(Extract、Cognify、Load)管线,实现多源数据的载入、处理和关系挖掘,减少幻觉和重复开发成本。
1. Graphiti:
2. Letta:
3. Mem0:
4. Memary:
5. Cognee: