返回
🤖

别再折腾 OpenClaw 了!Gemini CLI 直连 Telegram:更轻量、更丝滑的 Mac 远程 AI 操控方案

作为一名长期折腾 AI Agent 的极客,我一直把 OpenClaw 当作核心工具。但实话说,随着功能不断膨胀,它的部署复杂度、内存占用以及时常出现的依赖报错,开始让“丝滑”变得遥不可及。今天,我决定返璞归真——仅通过 Gemini CLI 配合一段 80 行的 Python Bridge,在 Telegram 上重构了我的 Mac 远程助理。结果?响应快了一倍,内存占用几乎可以忽略不计。

深度对比:为什么它比 OpenClaw 更香?

很多朋友问:既然有现成的 Agent 框架,为什么要手动撸?看看这张对比表你就明白了:

维度 OpenClaw 方案 本方案 (Gemini CLI + TG)
安装成本 需安装 Node.js、配置环境变量、安装几十个依赖包 pip install g-cli + 一个 Python 脚本
内存占用 约 500MB - 1.2GB (运行时) 不到 50MB
响应延迟 经过框架多重转发,通常 3-5s 原生 CLI 直接交互,1-2s 感官级回复
自主权限 需手动授权各种 Tool 权限 原生执行 shell,配合 --yolo 模式暴力全能

核心魔法:三步实现秒级部署

这个方案的核心在于利用 Gemini CLI 的多模态能力。它不仅仅能聊天,更能理解并执行本地命令。以下是部署流程:

1. 环境极简初始化

首先确保你的 Mac 已经安装了 Python。我们只需要两个东西:

# 安装 Gemini CLI
pip install gemini-python-cli
# 安装 Telegram Bot 库
pip install python-telegram-bot

2. 获取 API 密钥与 Bot Token

去 Google AI Studio 拿一个 API Key,去 @BotFather 那里领一个 Token。这是你唯一需要进行的外部交互。

3. 运行 Python Bridge 脚本

我们将 Gemini 的 stdin/stdout 映射到 Telegram 的消息流中。最关键的代码在于如何处理意图:当你在 TG 下达指令时,脚本会自动调用 gemini --yolo "指令" 并返回结果。

💡 提示

安全性建议: 为了防止非法攻击,我在脚本中强制绑定了我的 CHAT_ID。所有的指令只有我本人的账号发出的才会执行。

实战演示:如果你有一台 Mac mini M4

作为全天候在线的静音小钢炮,Mac mini M4 简直是这项方案的最佳载体:

# Telegram 操作示例:
/mac 检查系统活跃状态并清理缓存

结语:回归简单即是美

在 AI 繁花乱舞的时代,我们往往沉迷于寻找“大而全”的框架,却忘了效率的本质是减少中间层。如果你也被 OpenClaw 的各种报错折腾得心累,不妨试试这个轻量化方案。它是目前让 AI 真正接管 Mac OS 最优雅、最直接的方式。

💬 评论区 (0)

0/500

加载评论中...

© 2026 小宝科技站 All Rights Reserved