動筆之前,
我花了一週找答案。
五個設計原則不是拍腦袋想出來的。 它們從 5 位使用者的訪談、3 個競品的拆解、 和 12 篇 agentic AI 文獻裡慢慢長出來。 這一頁把這個過程攤開。
01 · 問題陳述
AI 從「助理」變成「代理人」時, 使用者的信任模型壞掉了。
過去 · Assistant
使用者主動問、AI 回答。每個動作都需要人類發起,AI 不會自己做決定。 信任模型簡單:我給指令 → 它執行 → 我檢查結果。
現在 · Agent
AI 自主行動,事後才告知。凌晨三點幫你調倉位、替你簽授權、跟陌生合約互動。 信任模型崩潰:我睡醒才知道我的資產變了。
02 · 研究方法
混合方法,一週壓縮版。
深度訪談 · 5 位
每次 30-45 分鐘 · 遠端
2 位 Web3 主動使用者(1-3 年經驗)· 2 位傳統金融 App 使用者 · 1 位交易員。刻意找「不同風險承受度」的人。
競品拆解 · 3 個
functional teardown
Tesla Autopilot(自主 UI 先驅)· Klarna AI Agent(金融代理)· Rabbit R1(AI 代理裝置)。重點看「接管/介入」流程。
次級研究 · 12 篇
agentic AI / trust / HCI
Anthropic 關於 autonomous agents 的 safety case、Nielsen 的 trust heuristics、MIT 的 AI transparency 論文⋯⋯等。
Journey Map workshop
1 小時 · 自己 × 2 位使用者
畫出使用者從「打開 app 發現 AI 做了事」到「決定信任/撤銷」的情緒曲線。找到信任崩壞點。
03 · 競品拆解
三個產品,各自教我的事。
| 產品 | 做對的 ✓ | 做錯的 ✗ |
|---|---|---|
Tesla Autopilot 車載 · Level 2 自動駕駛 | 用顏色明確標示 AI 自信度(綠/橘/紅),把技術狀態「翻譯」成使用者直覺。 | 突然要求人類接管時只給 3 秒警告;缺乏「預告階段」讓使用者心理準備。 |
Klarna AI Agent 金融 · 客服代理 | 承認「我不知道」,會主動轉人工;不假裝全能。 | 介面仍是被動客服樣貌;使用者感受不到 AI 在「替我做事」的主動性。 |
Rabbit R1 硬體 · AI Agent 裝置 | Agent 概念清楚;使用者知道是 AI 代替自己上網操作。 | 動作進行中無法即時介入;缺乏「中止/接管」入口,讓人焦慮。 |
Tesla Autopilot
車載 · Level 2 自動駕駛
用顏色明確標示 AI 自信度(綠/橘/紅),把技術狀態「翻譯」成使用者直覺。
突然要求人類接管時只給 3 秒警告;缺乏「預告階段」讓使用者心理準備。
Klarna AI Agent
金融 · 客服代理
承認「我不知道」,會主動轉人工;不假裝全能。
介面仍是被動客服樣貌;使用者感受不到 AI 在「替我做事」的主動性。
Rabbit R1
硬體 · AI Agent 裝置
Agent 概念清楚;使用者知道是 AI 代替自己上網操作。
動作進行中無法即時介入;缺乏「中止/接管」入口,讓人焦慮。
共通盲點:**都缺乏「隨時拉回控制權」的明確入口**。 這個觀察直接催生了 TrustGuard 的 PanicButton 設計。
04 · 使用者原話
5 位受訪者,3 句讓我停下來的話。
「如果它沒跟我講它做了什麼,我會一直去查餘額。那還不如我自己來。」
→ 催生「推理軌跡」Emily · Web3 使用者 2 年
談到 autopilot 產品的使用經驗
「我可以接受 AI 做錯。但它要先停下來問我,不是做完才告訴我。」
→ 催生「低信心主動求助」James · 業餘交易員 5 年
討論「AI 執行 vs 詢問」的偏好
「我最怕的情境:半夜它做了什麼,我睡醒才知道。那種『失去掌控感』比損失錢更可怕。」
→ 催生「PanicButton」Sarah · DeFi 散戶
描述最大的信任焦慮
05 · Journey Map
Alex 的一個早晨。
虛構角色 Alex(Web3 使用者 · 2 年)打開 app, 發現 AI 凌晨做了再平衡。情緒從警戒 → 好奇 → 理解 → 信任, 每個轉折都對應一個設計介入點。
睜眼
警戒
打開 app · 看見「AI 完成 1 筆再平衡」· 第一反應:「它做了什麼?」
掃一眼
好奇
看到 AgentDialog「ETH 再平衡已完成」+ 金額。開始相信不是壞事。
展開軌跡
理解
點開 TraceTimeline · 看見資料 → 推理 → 決策 → 執行。完全明白為什麼。
關掉 app
信任
沒有焦慮離開。下次 AI 做決定時,Alex 的預期值更高。
情緒曲線
06 · Research → Design
5 個洞察,長出 5 個原則。
這是整個研究週最重要的頁面。每一條原則都回得去一段訪談、 一個競品觀察、或一篇文獻。
Insight
I1 · 數字不等於資訊
訪談觀察:3/5 位受訪者說「看到 0.3 ETH 沒感覺,要自己換算才懂」
Principle
Insight
I2 · 紅色被濫用會鈍化警覺
競品觀察:Tesla 紅色過度使用後,使用者開始忽略警告
Principle
Insight
I3 · 使用者不怕 AI 錯,怕被騙
訪談金句:「它要先停下來問我,不是做完才說」— James
Principle
Insight
I4 · 信任來自可驗證的過程
文獻:MIT 2024 · AI transparency 研究 — 看得到推理過程的 AI 信任度 +47%
Principle
Insight
I5 · 緊急時需要全部資訊,日常不需要
Journey Map:Alex 日常只想看結論,panic 時想看所有推理
Principle
接下來,看這些原則怎麼變成畫面。
三個場景 · 六個核心元件 · 一套完整的 design token 系統。