项目介绍
Supermemory 是一个专为 人工智能 设计的记忆与上下文引擎,核心目标是解决 AI 在连续对话中容易“失忆”的痛点。它能够自动从对话历史中学习、提取关键事实、构建动态的用户档案,并智能处理知识更新、矛盾信息以及自动遗忘过期内容,确保在需要时提供准确、相关的上下文。该项目集成了完整的 RAG(检索增强生成)流程、多种数据连接器以及文件处理能力,旨在打造一站式的上下文管理堆栈。
在 LongMemEval、LoCoMo 和 ConvoMem 这三大权威的 AI 记忆基准测试中,Supermemory 均取得了排名第一的成绩。它支持多模态内容提取(包括 PDF、图像、视频和代码),并提供了多种客户端,兼顾了终端用户与开发者的不同需求。

项目状态:活跃开发中。
核心功能
- 记忆引擎:自动从对话中提取事实,并处理知识更新、矛盾冲突以及自动遗忘过期信息。
- 用户档案:自动维护用户的静态事实(如偏好)与动态活动记录,可在约 50ms 内获取完整的用户画像。
- 混合搜索:融合了 RAG 与记忆查询,能够同时从知识库文档和个性化上下文中获取相关信息。
- 多平台连接器:支持 Google Drive、Gmail、Notion 等平台,可实时同步数据并自动处理为可搜索的内容。
- 多模态提取器:对 PDF、图像(通过 OCR)、视频(通过转录)和代码(通过 AST 感知分块)进行处理,实现“上传即搜索”。
快速上手与评价
安装
安装过程非常简单,可以通过 npm 或 pip 进行:
npm install supermemory
# 或者
pip install supermemory
快速使用示例
以下是一个使用 TypeScript 的简单示例,展示如何存储对话和获取用户档案:
import Supermemory from "supermemory";
const client = new Supermemory();
// 存储一段对话内容
await client.add({
content: "User loves TypeScript and prefers functional patterns",
containerTag: "user_123",
});
// 获取用户档案及相关记忆
const { profile, searchResults } = await client.profile({
containerTag: "user_123",
q: "What programming style does the user prefer?",
});
Supermemory 直击了当前 AI 应用的一个核心痛点——对话间的记忆缺失问题,使得 AI 能够持续学习用户的偏好和项目上下文。它的优势非常明显:在三大权威基准测试中排名第一,技术实力有目共睹;提供了简洁的 API,开发者无需自行配置向量数据库、嵌入管道或分块策略,大大降低了集成门槛;同时支持多语言(TypeScript、Python)和与主流 AI 框架(如 Vercel AI SDK、LangChain)集成,适用场景广泛。
无论是终端用户希望提升 AI 助手的体验,还是开发者想要为产品添加持久的记忆功能,Supermemory 都是一个非常理想的选择。其在 GitHub 上获得 19.1k 星标和 1.8k 分叉,也充分印证了社区的广泛认可。
项目信息
对这类解决前沿技术难题的开源项目感兴趣?欢迎来 云栈社区 与其他开发者一起交流探讨。
|