ClawFeed:AI 驱动的多源新闻聚合工具,告别信息焦虑
每天花大量时间刷 Twitter 和 RSS,生怕错过热点,结果却总被无效信息淹没,越刷越焦虑。ClawFeed 正是为解决这个痛点而生——用 AI 自动从 Twitter、RSS、HackerNews、Reddit、GitHub Trending 等多种信息源中筛选内容,生成结构化摘要。
支持 4 小时快报、每日精选、每周回顾、每月总结四种频率,用户按需订阅。核心的 Source Packs 机制允许用户将精心策划的信息源打包分享给社区,看到感兴趣的内容还能触发 AI 深度分析(Mark & Deep Dive),不只是摘要而是真正的深度解读。每个用户的摘要自动生成 RSS/JSON Feed,实现「人工策展 + AI 加工」的信息再分发。
技术栈简洁实用:Node.js 后端 + SQLite 零配置存储 + SPA 前端,支持中英文界面和深色模式。可通过 ClawHub 一键安装,也可作为 OpenClaw 或 Zylos 技能运行,或独立部署。Google OAuth 支持多用户各自管理信息源和收藏。
项目背景
每天花大量时间刷 Twitter 和 RSS,生怕错过热点,结果却总被无效信息淹没,越刷越焦虑。ClawFeed 的核心理念就是「Stop scrolling. Start knowing.」——用 AI 从海量信息源中筛选出真正值得关注的内容,让你不再被信息洪流淹没。
核心功能
多频率摘要生成
支持 4 种时间粒度的自动摘要:4 小时快报、每日精选、每周回顾、每月总结。每种频率独立生成,按需订阅。
丰富的信息源
- **Twitter/X**:关注特定用户(如 @karpathy)或 Twitter 列表
- **RSS/Atom**:任意 RSS 源
- **HackerNews**:HN 首页热门
- **Reddit**:指定 subreddit(如 /r/MachineLearning)
- **GitHub Trending**:按编程语言筛选趋势项目
- **网站抓取**:任意网页
- **自定义 API**:JSON 端点
- **Digest Feed**:订阅其他 ClawFeed 用户的摘要,实现信息的二次策展
Source Packs(信息源包)
用户可以将精心策划的一组信息源打包成 Pack,发布到社区供他人一键安装。类似 npm 包的概念应用到信息策展——关注 AI 前沿?直接安装某个大佬的 AI Source Pack。
Mark & Deep Dive
在浏览摘要时,可以标记感兴趣的条目。标记后系统触发 AI 深度分析,生成比摘要更详细的解读报告——不只是概述,而是真正的深度解读。
Feed 输出
每个用户的摘要自动生成三种订阅格式:
- HTML 页面(`/feed/:slug`)
- JSON Feed(`/feed/:slug.json`)
- RSS(`/feed/:slug.rss`)
你的 AI 策展结果可以被其他人订阅,实现信息的链式传播。
智能筛选
通过 `templates/curation-rules.md` 配置内容筛选规则,`templates/digest-prompt.md` 自定义 AI 输出格式,精确控制信息的筛选粒度。
技术架构
- **后端**:Node.js,默认端口 8767
- **数据库**:SQLite(零配置,便携,无需额外安装)
- **认证**:Google OAuth 2.0(多用户支持,无 OAuth 则为只读模式)
- **前端**:SPA 单页应用,中英文 UI,Dark/Light 主题切换,localStorage 持久化
- **API**:完整 RESTful API——摘要 CRUD、用户认证、收藏管理、信息源管理、Source Packs、Feed 输出、变更日志和 Roadmap
部署方式
ClawHub 一键安装
clawhub install clawfeed
作为 OpenClaw Skill
cd ~/.openclaw/skills/ && git clone https://github.com/kevinho/clawfeed.git
OpenClaw 自动检测 SKILL.md 并加载,agent 可通过 cron 生成摘要、serve 仪表盘、处理收藏命令。
作为 Zylos Skill
cd ~/.zylos/skills/ && git clone https://github.com/kevinho/clawfeed.git
独立部署
git clone → npm install → cp .env.example .env → npm start
可配合 Caddy 反向代理,支持路径前缀部署(如 `/digest/`)。
环境变量
| 变量 | 必需 | 说明 |
|------|------|------|
| GOOGLE_CLIENT_ID | 否* | Google OAuth 客户端 ID |
| GOOGLE_CLIENT_SECRET | 否* | Google OAuth 客户端密钥 |
| SESSION_SECRET | 否* | 会话加密密钥 |
| API_KEY | 否 | 摘要创建 API 密钥 |
| DIGEST_PORT | 否 | 服务端口(默认 8767) |
| ALLOWED_ORIGINS | 否 | CORS 允许来源 |
*认证功能需要,无 OAuth 则以只读模式运行。
适用场景
- **个人信息聚合**:替代手动刷 Twitter/HN/Reddit 的焦虑循环
- **团队知识共享**:通过 Source Packs 和 Feed 输出
- **AI Agent 集成**:作为 OpenClaw/Zylos skill 自动化运行
- **信息再分发**:策展后的内容通过 Feed 被更多人订阅
协议:MIT | 作者:Kevin He | Live Demo:https://clawfeed.kevinhe.io