ClawFeed:AI 驱动的多源新闻聚合工具,告别信息焦虑

每天花大量时间刷 Twitter 和 RSS,生怕错过热点,结果却总被无效信息淹没,越刷越焦虑。ClawFeed 正是为解决这个痛点而生——用 AI 自动从 Twitter、RSS、HackerNews、Reddit、GitHub Trending 等多种信息源中筛选内容,生成结构化摘要。

支持 4 小时快报、每日精选、每周回顾、每月总结四种频率,用户按需订阅。核心的 Source Packs 机制允许用户将精心策划的信息源打包分享给社区,看到感兴趣的内容还能触发 AI 深度分析(Mark & Deep Dive),不只是摘要而是真正的深度解读。每个用户的摘要自动生成 RSS/JSON Feed,实现「人工策展 + AI 加工」的信息再分发。

技术栈简洁实用:Node.js 后端 + SQLite 零配置存储 + SPA 前端,支持中英文界面和深色模式。可通过 ClawHub 一键安装,也可作为 OpenClaw 或 Zylos 技能运行,或独立部署。Google OAuth 支持多用户各自管理信息源和收藏。

项目背景

每天花大量时间刷 Twitter 和 RSS,生怕错过热点,结果却总被无效信息淹没,越刷越焦虑。ClawFeed 的核心理念就是「Stop scrolling. Start knowing.」——用 AI 从海量信息源中筛选出真正值得关注的内容,让你不再被信息洪流淹没。

核心功能

多频率摘要生成

支持 4 种时间粒度的自动摘要:4 小时快报、每日精选、每周回顾、每月总结。每种频率独立生成,按需订阅。

丰富的信息源

  • **Twitter/X**:关注特定用户(如 @karpathy)或 Twitter 列表
  • **RSS/Atom**:任意 RSS 源
  • **HackerNews**:HN 首页热门
  • **Reddit**:指定 subreddit(如 /r/MachineLearning)
  • **GitHub Trending**:按编程语言筛选趋势项目
  • **网站抓取**:任意网页
  • **自定义 API**:JSON 端点
  • **Digest Feed**:订阅其他 ClawFeed 用户的摘要,实现信息的二次策展

Source Packs(信息源包)

用户可以将精心策划的一组信息源打包成 Pack,发布到社区供他人一键安装。类似 npm 包的概念应用到信息策展——关注 AI 前沿?直接安装某个大佬的 AI Source Pack。

Mark & Deep Dive

在浏览摘要时,可以标记感兴趣的条目。标记后系统触发 AI 深度分析,生成比摘要更详细的解读报告——不只是概述,而是真正的深度解读。

Feed 输出

每个用户的摘要自动生成三种订阅格式:

  • HTML 页面(`/feed/:slug`)
  • JSON Feed(`/feed/:slug.json`)
  • RSS(`/feed/:slug.rss`)

你的 AI 策展结果可以被其他人订阅,实现信息的链式传播。

智能筛选

通过 `templates/curation-rules.md` 配置内容筛选规则,`templates/digest-prompt.md` 自定义 AI 输出格式,精确控制信息的筛选粒度。

技术架构

  • **后端**:Node.js,默认端口 8767
  • **数据库**:SQLite(零配置,便携,无需额外安装)
  • **认证**:Google OAuth 2.0(多用户支持,无 OAuth 则为只读模式)
  • **前端**:SPA 单页应用,中英文 UI,Dark/Light 主题切换,localStorage 持久化
  • **API**:完整 RESTful API——摘要 CRUD、用户认证、收藏管理、信息源管理、Source Packs、Feed 输出、变更日志和 Roadmap

部署方式

ClawHub 一键安装

clawhub install clawfeed

作为 OpenClaw Skill

cd ~/.openclaw/skills/ && git clone https://github.com/kevinho/clawfeed.git

OpenClaw 自动检测 SKILL.md 并加载,agent 可通过 cron 生成摘要、serve 仪表盘、处理收藏命令。

作为 Zylos Skill

cd ~/.zylos/skills/ && git clone https://github.com/kevinho/clawfeed.git

独立部署

git clone → npm install → cp .env.example .env → npm start

可配合 Caddy 反向代理,支持路径前缀部署(如 `/digest/`)。

环境变量

| 变量 | 必需 | 说明 |

|------|------|------|

| GOOGLE_CLIENT_ID | 否* | Google OAuth 客户端 ID |

| GOOGLE_CLIENT_SECRET | 否* | Google OAuth 客户端密钥 |

| SESSION_SECRET | 否* | 会话加密密钥 |

| API_KEY | 否 | 摘要创建 API 密钥 |

| DIGEST_PORT | 否 | 服务端口(默认 8767) |

| ALLOWED_ORIGINS | 否 | CORS 允许来源 |

*认证功能需要,无 OAuth 则以只读模式运行。

适用场景

  • **个人信息聚合**:替代手动刷 Twitter/HN/Reddit 的焦虑循环
  • **团队知识共享**:通过 Source Packs 和 Feed 输出
  • **AI Agent 集成**:作为 OpenClaw/Zylos skill 自动化运行
  • **信息再分发**:策展后的内容通过 Feed 被更多人订阅

协议:MIT | 作者:Kevin He | Live Demo:https://clawfeed.kevinhe.io