Markdown转谷歌文档
将Markdown文
qmd 是一款面向 Markdown 笔记与文档的本地混合搜索引擎。通过一次性建立索引,实现后续快速检索,支持关键词匹配(BM25)与语义相似度两种搜索模式。
安装指令
bun install -g https://github.com/tobi/qmd
前置条件
brew install oven-sh/bun/bun)brew install sqlite$HOME/.bun/bin初始化配置
qmd collection add /path/to/notes --name notes --mask "**/*.md"
qmd context add qmd://notes "描述该集合"
qmd embed # 启用向量与混合搜索
常用命令
qmd search "查询词" # 默认快速关键词搜索
qmd vsearch "查询词" # 语义搜索(较慢,冷启动可能加载本地模型)
qmd query "查询词" # 混合搜索+LLM重排序(最慢,易超时)
qmd get "path/to/file.md" # 获取完整文档
qmd update && qmd embed # 更新索引与嵌入
性能建议
优先使用 qmd search(通常瞬时返回);qmd vsearch 因需加载本地 GGUF 模型(如 Qwen3-1.7B),冷启动可能耗时约1分钟;qmd query 在此基础上增加 LLM 重排序,交互体验较差。如需频繁语义搜索,建议保持进程常驻而非每次冷启动。
见下方输入与输出表格。
| 项目 | 内容 |
|---|---|
| 输入 | 搜索关键词;可选参数:集合名称(-c)、结果数量(-n)、分数阈值(–min-score)、输出格式(–json/–files/–full) |
| 输出 | 匹配文档路径、相关性分数、文档片段或完整内容、文档ID |
| 适用人群 | 本地 Markdown 笔记用户、知识库维护者、注重数据隐私的离线工作者 |
| 不包含 | 非 Markdown 格式原生解析、云端服务、GUI 界面、代码符号级检索 |
vsearch 与 query 模式在冷启动时响应缓慢,不适合实时交互场景qmd update原始链接:https://github.com/openclaw/skills/tree/main/skills/levineam/qmd-external/SKILL.md
来源类型:GitHub 仓库