跳至主要內容
Week 1 · Research & Synthesis

動筆之前,
我花了一週找答案。

五個設計原則不是拍腦袋想出來的。 它們從 5 位使用者的訪談、3 個競品的拆解、 和 12 篇 agentic AI 文獻裡慢慢長出來。 這一頁把這個過程攤開。

01 · 問題陳述

AI 從「助理」變成「代理人」時, 使用者的信任模型壞掉了。

過去 · Assistant

使用者主動問、AI 回答。每個動作都需要人類發起,AI 不會自己做決定。 信任模型簡單:我給指令 → 它執行 → 我檢查結果。

現在 · Agent

AI 自主行動,事後才告知。凌晨三點幫你調倉位、替你簽授權、跟陌生合約互動。 信任模型崩潰:我睡醒才知道我的資產變了。

02 · 研究方法

混合方法,一週壓縮版。

深度訪談 · 5 位

每次 30-45 分鐘 · 遠端

2 位 Web3 主動使用者(1-3 年經驗)· 2 位傳統金融 App 使用者 · 1 位交易員。刻意找「不同風險承受度」的人。

競品拆解 · 3 個

functional teardown

Tesla Autopilot(自主 UI 先驅)· Klarna AI Agent(金融代理)· Rabbit R1(AI 代理裝置)。重點看「接管/介入」流程。

次級研究 · 12 篇

agentic AI / trust / HCI

Anthropic 關於 autonomous agents 的 safety case、Nielsen 的 trust heuristics、MIT 的 AI transparency 論文⋯⋯等。

Journey Map workshop

1 小時 · 自己 × 2 位使用者

畫出使用者從「打開 app 發現 AI 做了事」到「決定信任/撤銷」的情緒曲線。找到信任崩壞點。

03 · 競品拆解

三個產品,各自教我的事。

Tesla Autopilot

車載 · Level 2 自動駕駛

用顏色明確標示 AI 自信度(綠/橘/紅),把技術狀態「翻譯」成使用者直覺。

突然要求人類接管時只給 3 秒警告;缺乏「預告階段」讓使用者心理準備。

Klarna AI Agent

金融 · 客服代理

承認「我不知道」,會主動轉人工;不假裝全能。

介面仍是被動客服樣貌;使用者感受不到 AI 在「替我做事」的主動性。

Rabbit R1

硬體 · AI Agent 裝置

Agent 概念清楚;使用者知道是 AI 代替自己上網操作。

動作進行中無法即時介入;缺乏「中止/接管」入口,讓人焦慮。

共通盲點:**都缺乏「隨時拉回控制權」的明確入口**。 這個觀察直接催生了 TrustGuard 的 PanicButton 設計。

04 · 使用者原話

5 位受訪者,3 句讓我停下來的話。

如果它沒跟我講它做了什麼,我會一直去查餘額。那還不如我自己來。

Emily · Web3 使用者 2 年

談到 autopilot 產品的使用經驗

→ 催生「推理軌跡」

我可以接受 AI 做錯。但它要先停下來問我,不是做完才告訴我。

James · 業餘交易員 5 年

討論「AI 執行 vs 詢問」的偏好

→ 催生「低信心主動求助」

我最怕的情境:半夜它做了什麼,我睡醒才知道。那種『失去掌控感』比損失錢更可怕。

Sarah · DeFi 散戶

描述最大的信任焦慮

→ 催生「PanicButton」

05 · Journey Map

Alex 的一個早晨。

虛構角色 Alex(Web3 使用者 · 2 年)打開 app, 發現 AI 凌晨做了再平衡。情緒從警戒 → 好奇 → 理解 → 信任, 每個轉折都對應一個設計介入點。

106:42

睜眼

警戒

打開 app · 看見「AI 完成 1 筆再平衡」· 第一反應:「它做了什麼?」

206:43

掃一眼

好奇

看到 AgentDialog「ETH 再平衡已完成」+ 金額。開始相信不是壞事。

306:45

展開軌跡

理解

點開 TraceTimeline · 看見資料 → 推理 → 決策 → 執行。完全明白為什麼。

406:47

關掉 app

信任

沒有焦慮離開。下次 AI 做決定時,Alex 的預期值更高。

情緒曲線

警戒好奇理解信任

06 · Research → Design

5 個洞察,長出 5 個原則。

這是整個研究週最重要的頁面。每一條原則都回得去一段訪談、 一個競品觀察、或一篇文獻。

Insight

I1 · 數字不等於資訊

訪談觀察:3/5 位受訪者說「看到 0.3 ETH 沒感覺,要自己換算才懂」

Principle

P1 · 翻譯,不是展示

Insight

I2 · 紅色被濫用會鈍化警覺

競品觀察:Tesla 紅色過度使用後,使用者開始忽略警告

Principle

P2 · Panic 色是神聖的

Insight

I3 · 使用者不怕 AI 錯,怕被騙

訪談金句:「它要先停下來問我,不是做完才說」— James

Principle

P3 · 夥伴關係,不是代理

Insight

I4 · 信任來自可驗證的過程

文獻:MIT 2024 · AI transparency 研究 — 看得到推理過程的 AI 信任度 +47%

Principle

P4 · 證據優先於承諾

Insight

I5 · 緊急時需要全部資訊,日常不需要

Journey Map:Alex 日常只想看結論,panic 時想看所有推理

Principle

P5 · 透明度要校準

接下來,看這些原則怎麼變成畫面。

三個場景 · 六個核心元件 · 一套完整的 design token 系統。