Zillizがmemsearchをオープンソース化:AIエージェント向け永続的・可読・バージョン管理可能な長期記憶

Zillizがmemsearchをオープンソース化。AIエージェントにプレーンテキストとして保存される永続的・人間可読なメモリを提供する軽量ライブラリ。OpenClawの記憶サブシステムから抽出・再構築。

ベクトルデータベース企業Zillizは2026年3月14日、AIエージェント(Agent)向けに永続的で人間可読かつバージョン管理対応の長期記憶システムを提供する革新的ツール「memsearch」を正式にオープンソース化した。同プロジェクトはGitHubでの公開後48時間以内に3,000以上のスターを獲得し、AIエージェントインフラ分野で注目のオープンソースプロジェクトとなった。

HPCwireがいち早くこのリリースについて詳細な報道を行った。memsearchの核心的な設計理念は、現在のAIエージェントが直面する重要な課題——記憶の永続性と管理可能性——を解決することにある。現在、ほとんどのAIエージェントシステムはコンテキストウィンドウに依存して会話の記憶を維持しているが、コンテキストがオーバーフローすると初期の情報は失われてしまう。RAG(検索拡張生成)技術はこの問題を部分的に緩和できるが、従来のベクトルデータベースに格納された埋め込みベクトルは人間にとって読めず、解釈もできないため、デバッグや監査が極めて困難である。

memsearchは独自の「二層メモリ」アーキテクチャを採用している。下層はMilvusベースの高性能ベクトルインデックスで、セマンティック検索に使用される。上層は構造化されたMarkdownファイルシステムで、すべてのメモリエントリは同時に人間可読なテキスト形式で保存される。GitHubの技術ドキュメントにはこの設計が詳細に記述されている:各メモリエントリには原文テキスト、セマンティック埋め込み、タイムスタンプ、ソース参照、信頼度スコア、関連グラフが含まれる。ユーザーはテキストエディタで直接エージェントの記憶内容を閲覧・編集でき、Gitによるバージョン管理やコラボレーションも可能である。

VentureBeatの技術レビューは、memsearchの最も革新的な機能は「メモリ蒸留」(Memory Distillation)であると評価している。システムは蓄積された記憶を定期的に要約・統合し、大量の断片化された会話記憶を構造化された知識エントリに精製する。例えば、エージェントが複数の会話を通じてユーザーの好みや習慣を把握した場合、メモリ蒸留はこれらの散在する情報を自動的に一貫したユーザープロファイルにまとめる。このプロセスは人間の脳における記憶固定化メカニズムに類似している——短期記憶が睡眠中に長期記憶へと統合されるのと同じである。

The New Stackの技術分析記事は、memsearchのバージョン管理機能を深く掘り下げている。すべての記憶がテキストファイルとして保存されるため、標準的なGitワークフローを完全に適用できる:ブランチ、マージ、ロールバック、差分比較などの操作がすべてエージェントの記憶管理に使用可能である。記事は、これがエンタープライズレベルのAIエージェント展開において特に重要であると指摘している——管理者は特定期間にエージェントが学習した内容を確認し、問題発生時に以前の記憶状態にロールバックし、さらには異なる環境間で記憶をコピー・同期することもできる。

Zilliz創業者兼CEOのCharles Xie(星爵)は、GitHubディスカッションのAMA(Ask Me Anything)でmemsearch開発の動機を説明した。「AIエージェントを展開する際に記憶管理の課題に直面する企業がますます増えています。エージェントは顧客とのすべてのインタラクション履歴を記憶する必要がありますが、同時に古くなった情報を忘れる必要もあります。記憶はコンプライアンスのために監査され、追跡可能性のためにバージョン管理される必要があります。既存のツールではこれらの要件を十分に満たすことができません。」

OpenClaw Blogの統合チュートリアルでは、memsearchをOpenClawエージェントフレームワークと統合し、セッション間の永続的な記憶を実現する方法が紹介されている。チュートリアルでは、カスタマーサービスエージェントが数週間のインタラクションを通じて各顧客への深い理解を段階的に構築し、管理者がシンプルなGitコマンドでこれらの記憶を確認・管理できる様子が実演されている。

業界への影響という観点から、memsearchのオープンソース化はAIエージェントの「ステートレスなツール」から「記憶を持つパートナー」への変革を加速させる可能性がある。Gartnerの最新レポートは、2028年までにエンタープライズAIアシスタントの60%がセッション間の永続的な記憶機能を備えると予測しており、memsearchのようなインフラツールがこのビジョンを実現する重要なコンポーネントになるとしている。

アーキテクチャ設計の詳細を見ると、memsearchは検索精度とパフォーマンスのバランスを取るために階層化インデックス戦略を採用している。最下層はSQLite FTS5ベースの全文検索エンジンで、ミリ秒レベルのキーワード検索能力を提供する。中間層はsentence-transformersベースの軽量埋め込みモデル(デフォルトはall-MiniLM-L6-v2、わずか22MB)で、セマンティック類似度検索に使用される。最上層は適応型融合ランカーで、クエリタイプに応じてキーワードマッチングとセマンティックマッチングの重みを動的に調整する。このハイブリッド検索戦略により、memsearchはPineconeのRecall@10スコアの92%を達成しながら、完全にローカルで動作し、ネットワークリクエストはゼロである。

実際のアプリケーションシナリオにおいて、memsearchはすでにその価値を示している。OpenClawの開発者は、memsearch使用後にエージェントのセッション間一貫性が35%向上したと報告している——例えば、月曜日にユーザーが言及した設定の好みを、エージェントが水曜日の会話で正確に思い出して適用できるようになった。LangChainコミュニティの貢献者はさらに極端な事例を共有した:memsearchを使用するカスタマーサービスエージェントが10万件以上の顧客インタラクション記憶を保存し、繰り返しの問い合わせ対応の効率が60%向上したという。

競争環境について、memsearchのオープンソース戦略は既存のベクトルデータベース市場に直接的な衝撃を与えている。Pineconeは最新のプロダクトアップデートで急遽「Agent Memory」機能を追加し、Weaviateも専用の「Agentモジュール」をリリースした。しかし、VentureBeatの分析は、これらのクラウドベースソリューションは運用の複雑さとコストにおいてmemsearchのローカルソリューションをはるかに上回っていると指摘している。Zilliz CTOのXiaofan Luan(栾小凡)は次のように述べた。「我々は別のベクトルデータベースを作っているのではなく、AI記憶の基本的なパラダイムを再定義しているのです。エージェントの記憶は永続的で、可読で、バージョン管理可能で、インフラコストがゼロであるべきです——Markdownファイルのようにシンプルに。」