大众对于LLM最经典的误解可能就是下面两个:第一,是认为模型会越用越聪明。[

怒喵李楠 2025-03-24 11:29:10

大众对于 LLM 最经典的误解可能就是下面两个:

第一,是认为模型会越用越聪明。[允悲]

而事实是,神经网络一旦训练完成,做推理部署。主网络就不会再动了。。。[允悲]实时学习的确是个梦想,但是目前随时重塑超大规模神经网络还不现实。

第二,是觉得模型有记忆。[黑线]

实际上模型是无状态的。[黑线] 你以为的记忆,只不过是在你的问题之外,模型自己补充了一大堆输入数据。

所以未来的模型,很可能是

一个可以实时学习的小规模神经网络,

加一个无状态的超大规模神经网络,

再加一个类似于记忆体的方案。

当微调变成实时的,同时也有记忆解决方了,那么这时候的模型,就更像 her 了。

可惜的是即使是实时学习的小模型,目前也没有几个靠谱的。而记忆问题,已经有了不少项目在想办法。

下面 5 个就是以为模型提供长期记忆为目标的项目:

xxxxxxxxxxxxxxx

1. **Graphiti**

Graphiti 通过构建时序知识图,为 AI 代理提供可动态演化的记忆能力,能够在不断变化的环境中捕捉实体关系和上下文[^11]()。该框架适用于长期记忆管理、复杂关系建模等场景。

2. **Letta**

Letta 是一个开源的白盒化框架,可用于搭建带有持久化记忆和高级推理能力的状态化 AI 代理[^38]()。它提供可视化接口,能够实时观测和调试代理的内部状态并进行迭代开发。

3. **Mem0**

Mem0(读作 “mem-zero”)是一个记忆层解决方案,将 LLM 与向量存储结合,为 AI 应用和代理提供持续学习与自适应的交互体验[^21]()。它可以在后端持久化对话与上下文,进行个性化信息检索和高效管理。

4. **Memary**

Memary 专注于为 AI 代理构建类似人类记忆的能力,可自动追踪用户偏好、实体知识和对话历史,并通过知识图实现动态更新[^29]()。旨在让 AI 代理在长期对话中能保持上下文一致与记忆丰富度。

5. **Cognee**

Cognee 提供可扩展的语义数据层和知识图支持,帮助 AI 应用和代理进行场景化的记忆构建与检索[^1]()。它通过可组合的 ECL(Extract、Cognify、Load)管线,实现多源数据的载入、处理和关系挖掘,减少幻觉和重复开发成本。

1. Graphiti:

2. Letta:

3. Mem0:

4. Memary:

5. Cognee:

0 阅读:3
怒喵李楠

怒喵李楠

感谢大家的关注