同樣的情境,
兩種 UX 決定
當 AI 代理人要做出影響資產的動作時,傳統錢包給使用者的是 一顆 Approve 按鈕。 TrustGuard 把同一個決策點展開成 翻譯、證據、與對話。
授權請求:從 hex 字串到人話
對應原則 01 翻譯,不是展示 · 04 證據優先於承諾
Spender
0x3fa19cbbea7738f6db9f3a37b8dae5a6e7b43c0b2
Function
approve
Amount
115792089237316195423570985008687907853269984665640564039457584007913129639935
Gas fee
0.0042 ETH (~$12.40)
unknown-yield-vault 要求操作你的 USDC
合約位址 0x3fa1…b2
Why · 01
把 approve(spender, amount) 的兩個參數翻譯成人話:「誰」「額度多大」「有多危險」。
Why · 02
uint256 max 的那串 78 位數字對一般使用者沒有意義 — 把它翻譯成「不限額度」並標為紅字。
Why · 03
不只顯示風險等級,還展開「為什麼這個合約有風險」的證據鏈(部署時間、rug 報告、信心值)。
交易完成:從單一綠勾到推理軌跡
對應原則 04 證據優先於承諾
Transaction submitted
0x7f2c…9a3e
ETH 再平衡已完成
TRACE- 資料03:38
偵測到 ETH 週漲幅 +12.4%
- 推理03:40
超過你設定的「保守策略」閾值 10%
- 決策03:41
賣出 0.3 ETH,換為 USDC
- 動作03:42
已執行 · 組合現為 63/26/11
Why · 01
「Transaction submitted ✓」只告訴你動作完成,沒有告訴你「為什麼這樣做」。
Why · 02
把 AI 的一次決策拆成四個節點:看到什麼資料 → 推理什麼 → 決定什麼 → 做了什麼。
Why · 03
每個節點都可點開看原始證據。信任不是一句「請相信我」,而是可稽核的軌跡。
AI 不確定時:從假裝自信到主動求助
對應原則 03 夥伴關係,不是代理
使用者視角
AI 說做就做了,我不知道它心虛。
我不太確定下一步 — 你怎麼想?
TrustGuard Agent · 停在原地等你
市場波動超出我 7 天內看過的範圍,我不敢擅自決定。
兩個選項
Why · 01
傳統 AI 產品即使信心低也會執行,使用者事後才發現出了問題。
Why · 02
TrustGuard 把信心度設為一等公民。信心 < 60% 時 AI 停下來,用人話描述「我不太確定什麼」。
Why · 03
不是「Do you approve?」這種空白題,而是「這是 A 方案 vs B 方案的取捨」— 把決策的框架也還給使用者。