文颜(Wenyan) 是一款多平台 Markdown 排版与发布工具,支持将 Markdown 一键转换并发布至:
- 微信公众号
- 知乎
- 今日头条
- 以及其它内容平台(持续扩展中)
文颜的目标是:让写作者专注内容,而不是排版和平台适配。
本仓库是 文颜的 CLI 版本,适合以下场景:
- 命令行使用
- CI / CD 自动化发布
- 脚本或工具链集成
- 与 AI / MCP 系统联动自动发文
文颜目前提供多种形态,覆盖不同使用场景:
- macOS App Store 版 - MAC 桌面应用
- 跨平台桌面版 - Windows/Linux
- 👉 CLI 版本 - 本项目
- MCP 版本 - AI 自动发文
- 核心库 - 嵌入 Node / Web 项目
- 使用内置主题对 Markdown 内容排版
- 自动处理并上传图片(本地 / 网络)
- 支持数学公式(MathJax)
- 一键发布文章到微信公众号草稿箱
- 支持 CI / 自动化流程调用
👉 内置主题预览
文颜内置并适配了多个优秀的 Typora 主题,在此感谢原作者:
npm install -g @wenyan-md/cli安装完成后即可使用:
wenyan --help如果你不想在本地安装 Node.js,也可以直接使用 Docker。
拉取镜像
docker pull caol64/wenyan-cli查看帮助
docker run --rm caol64/wenyan-cli发布文章示例
docker run --rm \
--env-file .env.test \
-e HOST_FILE_PATH=$(pwd) \
-v $(pwd):/mnt/host-downloads \
caol64/wenyan-cli \
publish -f ./test/publish.md -t phycat说明:
- 使用
-e传入环境变量- 使用
-v挂载本地 Markdown 文件- 容器启动即执行
wenyan命令
CLI 主命令:
wenyan <command> [options]目前最常用的子命令是 publish。
部分功能(如发布微信公众号)需要配置以下环境变量:
WECHAT_APP_IDWECHAT_APP_SECRET
临时使用:
WECHAT_APP_ID=xxx WECHAT_APP_SECRET=yyy wenyan publish "your markdown"永久配置(推荐):
export WECHAT_APP_ID=xxx
export WECHAT_APP_SECRET=yyy临时使用:
$env:WECHAT_APP_ID="xxx"
$env:WECHAT_APP_SECRET="yyy"
wenyan publish example.md永久设置(在环境变量里添加):
控制面板 → 系统和安全 → 系统 → 高级系统设置 → 环境变量 → 添加 WECHAT_APP_ID 和 WECHAT_APP_SECRET。
publish
将 Markdown 转换为适配微信公众号的富文本 HTML,并上传到草稿箱。
-
<input-content>Markdown 内容,可以:
- 直接作为参数传入
- 通过 stdin 管道输入
-t:主题(默认default)- default / orangeheart / rainbow / lapis / pie / maize / purple / phycat
-h:代码高亮主题(默认solarized-light)- atom-one-dark / atom-one-light / dracula / github-dark / github / monokai / solarized-dark / solarized-light / xcode
--no-mac-style:关闭代码块 Mac 风格--no-footnote:关闭链接转脚注-f:指定本地 Markdown 文件路径
直接传入内容:
wenyan publish "# Hello, Wenyan" -t lapis -h solarized-light从管道读取:
cat example.md | wenyan publish -t lapis -h solarized-light --no-mac-style从文件读取:
wenyan publish -f "./example.md" -t lapis -h solarized-light --no-mac-style为了正确上传文章,每篇 Markdown 顶部需要包含 frontmatter:
---
title: 在本地跑一个大语言模型(2) - 给模型提供外部知识库
cover: /Users/xxx/image.jpg
---字段说明:
title文章标题(必填)cover文章封面- 本地路径或网络图片
- 如果正文中已有图片,可省略
支持以下图片来源:
- 本地路径(如:
/Users/xxx/image.jpg) - 网络路径(如:
https://example.com/image.jpg)
⚠️ 重要请确保运行文颜的机器 IP 已加入微信公众号后台的 IP 白名单,否则上传接口将调用失败。
配置说明文档:https://yuzhi.tech/docs/wenyan/upload
---
title: 在本地跑一个大语言模型(2) - 给模型提供外部知识库
cover: /Users/lei/Downloads/result_image.jpg
---
在[上一篇文章](https://babyno.top/posts/2024/02/running-a-large-language-model-locally/)中,我们展示了如何在本地运行大型语言模型。本篇将介绍如何让模型从外部知识库中检索定制数据,提升答题准确率,让它看起来更“智能”。
## 准备模型
访问 `Ollama` 的模型页面,搜索 `qwen`,我们使用支持中文语义的“[通义千问](https://ollama.com/library/qwen:7b)”模型进行实验。
如果你觉得文颜对你有帮助,可以给我家猫咪买点罐头 ❤️
Apache License Version 2.0