2026 完整指南

如何正確設定
Hermes Agent

Nous Research 開源、會自我進化的 AI Agent。會記憶、會沉澱技能、會慢慢懂你。

macOS 原生Linux / WSL2Windows betaWeb UI 可選支援本機 LLMMIT 開源

一份完整指南 · 五大核心模組 · 30 分鐘上手

01它是什麼

Hermes Agent 是 Nous Research 2026 年 2 月開源、跟 OpenClaw 同類的 AI Agent。截至 4 月 GitHub Star 突破 32,000,跟 OpenClaw 走的是不同路線:

OpenClaw偏執行與編排,廣度整合,5,700+ 社群技能(人工撰寫),TypeScript 寫的
Hermes Agent偏記憶與成長,深度進化,40+ 內建技能 + Agent 自動生成,Python 寫的

核心三件事:跨會話持久化記憶從任務沉澱技能(Skill 卡)使用者建模。 它若偵測到你裝過 OpenClaw,會主動問要不要把資料遷移過來。

2026 重點動態
v0.7.0「韌性版本」(4/3)帶來可插拔記憶體、憑證池輪換、Camofox 反偵測瀏覽器。MiniMax M2.7 已戰略整合。零遙測,資料不離開你的機器。

02它怎麼進化

「自進化」很容易被誤解。它不是修改模型權重,而是把成功路徑自動蒸餾為技能文件、寫入全文索引、並由 LLM 定期摘要偏好——「越用越懂你」是這樣來的。

學習閉環的五個步驟

1
OBSERVE · 觀察
完成一個複雜的多步驟任務
2
EXTRACT · 提取
識別可重用的解決模式
3
SKILL CREATION · 建立技能
寫入新的 Markdown 技能文件(這就是 SKILL.md)
4
REFINEMENT · 精煉
技能在後續使用中自動改進、調整
5
NUDGE · 推送
Agent 定期審查、提醒、更新知識庫

三層記憶系統

跨 Session 記憶FTS5 全文搜尋引擎建立可搜尋的對話資料庫,加上 LLM 摘要索引,精準召回相關歷史
技能文件 Skill Documents完成複雜任務後自動提煉為 Markdown 技能檔,下次直接調用
使用者建模 User Modeling透過 Honcho 辯證式建模,持續深化對你工作風格、偏好的理解

03Session 隔離:一個大腦,多條對話線

Hermes 最容易讓新手誤解的架構就是「跨平台到底共用什麼」。這在你開始綁飛書、Telegram、Slack 之後特別重要——客戶問「在 LINE 講過的事 web 上會記得嗎」就是這一題

白話比喻

把 Hermes 想成一個會多種技能的助理本人。在 WSL 終端機跟他講話像「面對面」,在 Telegram 跟他講像「LINE 傳訊息」。人是同一個,腦袋裡會的東西(知識/技能/工具/API Key)是同一套, 但每段對話內容他不會混在一起記

到底共用什麼

Agent 本體(模型、人格)✅ 共用
API Key、設定、模型選擇✅ 共用
MCP 工具 / Skill 技能✅ 共用
檔案系統存取✅ 共用(同一台機器)
跨 Session 全文索引(FTS5)⚠️ 寫入共用,讀取要主動搜
使用者建模(Honcho)⚠️ 共用一份偏好檔,累積較慢
對話歷史 / 即時記憶❌ 每個 session 獨立
臨時偏好(「請說中文」)❌ 不互通,要重講
細節:FTS5 跟 Honcho 是「半共用」
跨 Session 記憶(FTS5)全平台共寫,意思是 Telegram 講過的話會被索引。但 Agent 不會每次自動載入所有歷史,而是需要時去搜。 Honcho 也是慢慢累積。對「即時的這輪對話」來說,跨平台等同不共享;長期下來知識會慢慢匯流。

動手驗證

實驗 A · 證明工具/檔案共用 ✅

在 Telegram 傳:

幫我看一下 /home/<你的用戶名>/hermes-webui 這個目錄裡有什麼檔案

能讀到 → 底層工具與檔案系統完全共用

實驗 B · 證明對話記憶不共用 ❌

在 WSL 跑 hermes,跟它說「我叫 Vincent,請記住」。再跳到 Telegram 問「我叫什麼名字?」會說不知道。

跨平台「人格一致 / 記憶獨立」是 feature
員工在 Slack 問業務、在 Email 處理客訴,對話不混淆是合規與隱私的基本要求。 要跨平台連續對話,靠:(1) FTS5 主動搜尋 (2) 沉澱為 SKILL.md (3) Honcho 累積——三條都是「長期記憶」。