作为一名长期折腾 AI Agent 的极客,我一直把 OpenClaw 当作核心工具。但实话说,随着功能不断膨胀,它的部署复杂度、内存占用以及时常出现的依赖报错,开始让“丝滑”变得遥不可及。今天,我决定返璞归真——仅通过 Gemini CLI 配合一段 80 行的 Python Bridge,在 Telegram 上重构了我的 Mac 远程助理。结果?响应快了一倍,内存占用几乎可以忽略不计。
深度对比:为什么它比 OpenClaw 更香?
很多朋友问:既然有现成的 Agent 框架,为什么要手动撸?看看这张对比表你就明白了:
| 维度 | OpenClaw 方案 | 本方案 (Gemini CLI + TG) |
|---|---|---|
| 安装成本 | 需安装 Node.js、配置环境变量、安装几十个依赖包 | pip install g-cli + 一个 Python 脚本 |
| 内存占用 | 约 500MB - 1.2GB (运行时) | 不到 50MB |
| 响应延迟 | 经过框架多重转发,通常 3-5s | 原生 CLI 直接交互,1-2s 感官级回复 |
| 自主权限 | 需手动授权各种 Tool 权限 | 原生执行 shell,配合 --yolo 模式暴力全能 |
核心魔法:三步实现秒级部署
这个方案的核心在于利用 Gemini CLI 的多模态能力。它不仅仅能聊天,更能理解并执行本地命令。以下是部署流程:
1. 环境极简初始化
首先确保你的 Mac 已经安装了 Python。我们只需要两个东西:
# 安装 Gemini CLI
pip install gemini-python-cli
# 安装 Telegram Bot 库
pip install python-telegram-bot
2. 获取 API 密钥与 Bot Token
去 Google AI Studio 拿一个 API Key,去 @BotFather 那里领一个 Token。这是你唯一需要进行的外部交互。
3. 运行 Python Bridge 脚本
我们将 Gemini 的 stdin/stdout 映射到 Telegram 的消息流中。最关键的代码在于如何处理意图:当你在 TG 下达指令时,脚本会自动调用 gemini --yolo "指令" 并返回结果。
💡 提示
安全性建议: 为了防止非法攻击,我在脚本中强制绑定了我的 CHAT_ID。所有的指令只有我本人的账号发出的才会执行。
实战演示:如果你有一台 Mac mini M4
作为全天候在线的静音小钢炮,Mac mini M4 简直是这项方案的最佳载体:
- 远程文件调度:“帮我把桌面上的昨天那个 PPT 压缩发给我。”(Gemini 会自动通过 shell 查找、压缩并返回文件)。
- 系统状态巡检:“现在 M4 的温度多少?有没有耗电大户?”(自动调用
pmset或top命令摘要)。 - 自动化部署:“帮我把这个 Git 项目拉取下来并配置 Docker 环境。”
# Telegram 操作示例:
/mac 检查系统活跃状态并清理缓存
结语:回归简单即是美
在 AI 繁花乱舞的时代,我们往往沉迷于寻找“大而全”的框架,却忘了效率的本质是减少中间层。如果你也被 OpenClaw 的各种报错折腾得心累,不妨试试这个轻量化方案。它是目前让 AI 真正接管 Mac OS 最优雅、最直接的方式。
加载评论中...