
面對(duì)產(chǎn)品中的 AI 能力,用戶的過分信任和不信任都不是好事。如何通過設(shè)計(jì)讓用戶建立起合適程度的信任?本文列舉了一些具體方法和實(shí)例。
更多方法:
本文節(jié)選自 Medium 上的《Building and calibrating trust in AI》,原作者 Dr. Janna Lipenkova。

信任連續(xù)體:不信任是有害的,但過度信任是危險(xiǎn)的。你需要將用戶引導(dǎo)到“校準(zhǔn)”過的信任平衡點(diǎn)。
信任維系著人與人、人與企業(yè)以及人與產(chǎn)品之間的關(guān)系。如果一個(gè)朋友失蹤了一年、一輛車半數(shù)時(shí)間都無法啟動(dòng)、一名隊(duì)友總是偷懶,信任就會(huì)逐漸消退,我們開始尋找替代品。
實(shí)現(xiàn)對(duì) AI 的信任并不簡單。AI 本質(zhì)上就是概率性、不確定、會(huì)犯錯(cuò)的。產(chǎn)品需要努力贏得用戶信任,而一旦贏得又需要將其回調(diào),因?yàn)檫^度信任也是危險(xiǎn)的。用戶應(yīng)該成為負(fù)責(zé)任的協(xié)作者,通過質(zhì)疑、調(diào)整和自主決定系統(tǒng)的使用方式,來校準(zhǔn)他們對(duì) AI 的信任。
那么,如何建立用戶對(duì) AI 的適當(dāng)信任呢?AI 團(tuán)隊(duì)經(jīng)常將信任被簡化為模型準(zhǔn)確性,將信任看作一個(gè)技術(shù)問題,需要工程師或數(shù)據(jù)科學(xué)家來“修復(fù)”。
但這只是一方面。其實(shí)信任還通過用戶對(duì)產(chǎn)品的理解和體驗(yàn)來建立。本文重點(diǎn)關(guān)注如何通過用戶體驗(yàn)建立和校準(zhǔn)信任,介紹了諸多設(shè)計(jì)模式,來減輕 AI 所犯錯(cuò)誤帶來的不確定性和風(fēng)險(xiǎn)。
用戶與產(chǎn)品交互時(shí),會(huì)建立心智模型。如果這些模型與現(xiàn)實(shí)不符,信任就會(huì)破裂。一個(gè)依賴 ChatGPT 的 AI 應(yīng)用,與使用了深度定制 LLM(大語言模型)的應(yīng)用,盡管表面上的交互差不多,其行為和輸出的結(jié)果卻不同,而用戶看不到其中的過程。
為了避免期望不匹配,你需要打開系統(tǒng)的黑箱,向用戶解釋工作原理。以下是一些增加 AI 透明性設(shè)計(jì)模式:
① 上下文解釋(In-context explanations):在顯示輸出結(jié)果的地方,當(dāng)即解釋這是如何生成的。例如,可以分解并展示信息源。在圖形界面中,可以用 tooltip 等交互元素;在對(duì)話界面中,可以在對(duì)話流中直接提供解釋。
② 思維鏈(Chains-of-thought):讓用戶可以追蹤 AI 是如何得出結(jié)論的。在以下案例中,點(diǎn)擊一個(gè) AI 給出的建議,會(huì)展示其信息源和整理過程,包括搜集到文檔、事件和不同信源的權(quán)重。

展示 AI 得出結(jié)論的“思考過程”
③ 引用(Citations):將輸出鏈接到源數(shù)據(jù),無論是文檔、報(bào)告還是 API,這樣用戶就可以自行驗(yàn)證 AI 的輸出。

顯示原始來源,允許用戶自行檢查數(shù)據(jù)
④ 持續(xù)的告知和引導(dǎo)(Everboarding and guidance):當(dāng)系統(tǒng)發(fā)展變化時(shí),充分告知用戶。提供輕量的 tooltips 或頁面內(nèi)指引,以解釋有什么變了、會(huì)如何產(chǎn)生影響。
⑤ 強(qiáng)調(diào)驗(yàn)證的解釋(Verification-focused explanations) :不僅解釋輸出是如何形成的,還需幫助用戶評(píng)估其可靠性。強(qiáng)調(diào)驗(yàn)證的方式包括自我批判(如“此信號(hào)可能因某某因素而被夸大”),或提供其他角度的回答,來引導(dǎo)用戶自主做出判斷。
在設(shè)計(jì) AI 體驗(yàn)中的透明度時(shí),要特別注意傳達(dá) AI 的不確定性。這將幫助用戶校準(zhǔn)他們的信任并發(fā)現(xiàn)錯(cuò)誤。以下是一些技巧:
① 置信度分?jǐn)?shù)(Confidence scores):使用簡單、可見的指標(biāo),如百分比或低/中/高等級(jí),來標(biāo)示結(jié)果的置信度。

置信度分?jǐn)?shù)可以突出顯示需要進(jìn)一步驗(yàn)證的結(jié)果
② 對(duì)于文本內(nèi)容,可以在視覺上高亮不確定的部分。

高亮整段文本中不確定的部分,其他部分不受影響。
③ 警告和免責(zé)聲明(Caveats and disclaimers):可用于突出顯示輸出或數(shù)據(jù)集的已知限制。如果數(shù)據(jù)覆蓋范圍稀疏,或信號(hào)沖突,請(qǐng)盡早明確說明,這樣用戶就不會(huì)基于錯(cuò)誤的假設(shè)做出決策。

主動(dòng)傳達(dá)系統(tǒng)的局限性
④ 表達(dá)不可確定的內(nèi)容時(shí),使用謹(jǐn)慎存疑的語氣,如“這可能意味著…”,“數(shù)據(jù)尚無定論…”,“建議進(jìn)一步驗(yàn)證”等。
AI 的回答是會(huì)不斷發(fā)展的,用戶給出反饋、疑問和投訴后,它們將迅速進(jìn)化。
如果用戶不能根據(jù)額外的信息采取行動(dòng),上述的透明度就沒有多大價(jià)值。為了讓用戶能和 AI 協(xié)作,需要讓用戶產(chǎn)生控制權(quán)和責(zé)任感。以下設(shè)計(jì)模式可以用在用戶使用 AI 之前、期間和之后:
① 任務(wù)前設(shè)置(Pre-task setup):允許用戶在啟動(dòng)分析之前配置AI任務(wù)的范圍,如數(shù)據(jù)源、時(shí)間范圍、實(shí)體過濾器。這能提高結(jié)果的相關(guān)性,避免過于籠統(tǒng)。
② 可調(diào)節(jié)的信號(hào)權(quán)重(Adjustable signal weighting):讓用戶決定不同來源或標(biāo)準(zhǔn)的權(quán)重。比如,在趨勢(shì)監(jiān)測(cè)中,一個(gè)用戶可能優(yōu)先考慮風(fēng)險(xiǎn)投資活動(dòng);另一個(gè)用戶可能優(yōu)先考慮學(xué)術(shù)引用。并解釋不同信號(hào)會(huì)對(duì)結(jié)果造成怎樣的影響。

允許用戶決定對(duì)數(shù)據(jù)源施加的權(quán)重
③ 就地編輯和操作(Inline editing and actions):讓輸出結(jié)果能被編輯或替換。允許用戶調(diào)整表述或設(shè)置來優(yōu)化結(jié)果,而無需重新運(yùn)行整個(gè)任務(wù)。

支持高級(jí)用戶基于 AI 生成的結(jié)果進(jìn)行更改
④ 終止生成(Abort generation):允許用戶在剛剛發(fā)現(xiàn)錯(cuò)誤時(shí)就停止生成結(jié)果。我們?cè)?ChatGPT 等工具中已經(jīng)體驗(yàn)過,當(dāng)你在 AI 一開始不太對(duì)時(shí)就停止它,將節(jié)省不少時(shí)間。
⑤ 批判性的提示(Intentional friction):通過批判性地對(duì)用戶發(fā)問,讓用戶思考,如對(duì):“你認(rèn)為這個(gè)結(jié)果基于什么假設(shè)?”或“你認(rèn)為這結(jié)果是噪音導(dǎo)致的嗎?”這些被稱為CFF(cognitive forcing functions)。它有助于校準(zhǔn)用戶過度信任造成的依賴,尤其是在用戶對(duì) AI 建立信任的早期。
即使工程師將 AI 性能優(yōu)化到極致,用戶仍會(huì)體驗(yàn)到錯(cuò)誤。你需要將用戶轉(zhuǎn)變?yōu)閰f(xié)作者,幫助產(chǎn)品捕捉問題并轉(zhuǎn)化為學(xué)習(xí)的機(jī)會(huì)。以下是一些方法:
- 開門見山地強(qiáng)調(diào)錯(cuò)誤可能發(fā)生:讓用戶剛開始使用產(chǎn)品時(shí),對(duì)模型建立切合實(shí)際的預(yù)期。與其假裝完美,不如坦誠告知“大約十分之一的結(jié)果可能需要審查”。
- 支持就地反饋(Inline feedback):讓用戶能直接在問題發(fā)生的地方標(biāo)記問題,比如錯(cuò)誤的分類、誤報(bào)、過時(shí)的數(shù)據(jù)。
- 即時(shí)確認(rèn)和修復(fù)錯(cuò)誤:用戶提交反饋后,系統(tǒng)應(yīng)給出可見的響應(yīng)并提供修復(fù)后的結(jié)果。“感謝您的標(biāo)記——您想重新生成不含此錯(cuò)誤項(xiàng)的結(jié)果嗎?”
當(dāng)用戶感到自己的意見是有效的,能真正幫助系統(tǒng)改進(jìn),就會(huì)加深對(duì)系統(tǒng)的信任,不再將 AI 視為黑箱,而是合作伙伴。
首先可以捕捉那些不那么直接的反饋:用戶在哪里開始深挖細(xì)節(jié)?他們編輯或刪除了什么?持續(xù)忽略了什么?這些行為信號(hào)將大大影響結(jié)果的相關(guān)性。還可以使用更直接明了的反饋機(jī)制,比如:
① 二元反饋:一個(gè)簡單的點(diǎn)贊/點(diǎn)踩,能立即反饋輸出的質(zhì)量。很簡單,可以廣泛應(yīng)用。

無處不在的贊/踩反饋能提供淺顯但快速的反饋
② 自由文本輸入:在系統(tǒng)推出早期尤其有用,幫助你了解系統(tǒng)是如何出錯(cuò)的。填寫確實(shí)需要更更高成本,但可能會(huì)帶來寶貴的發(fā)現(xiàn)。

用文本框收集問題
③ 結(jié)構(gòu)化反饋:隨著你的系統(tǒng)逐漸成熟,開始發(fā)現(xiàn)一些常見的問題模式,就可以為用戶提供結(jié)構(gòu)化的反饋方式,來提高反饋效率并減少歧義。

已經(jīng)有了常見的問題類型時(shí),提供結(jié)構(gòu)化反饋
對(duì)產(chǎn)品來說提供這些反饋功能很簡單,但用戶可能沒什么動(dòng)機(jī)去反饋。以下是一些引導(dǎo)用戶持續(xù)反饋的技巧:
- 清楚地傳達(dá)反饋的影響。盡可能精確地告知用戶反饋的影響:“您的反饋將在本月底的下一次發(fā)布中集成。”這樣來鼓勵(lì)用戶養(yǎng)成反饋的習(xí)慣。當(dāng)用戶知道它是有幫助的,就已經(jīng)成了一種獎(jiǎng)勵(lì)。
- 考慮實(shí)實(shí)在在的獎(jiǎng)勵(lì)。比如,為持續(xù)反饋的用戶提供更加個(gè)性化、更多控制權(quán)的體驗(yàn)。這不僅可以激勵(lì)反饋行為,還能在滿足高級(jí)用戶的同時(shí),保持新手用戶的簡單體驗(yàn)不被影響。
信任是逐漸建立起來的,來自用戶在 AI 能力中體驗(yàn)到的每次互動(dòng)、每次洞察、每次 AI 協(xié)助下的決策。隨著時(shí)間,AI 會(huì)改進(jìn),產(chǎn)生更相關(guān)的結(jié)果和更少錯(cuò)誤;用戶也會(huì)改變,變得更熟練、更有依賴性、要求更高。不確定和錯(cuò)誤是 AI 與生俱來的部分,建立好信任后,小心審慎的用戶也將樂于使用。
復(fù)制本文鏈接 文章為作者獨(dú)立觀點(diǎn)不代表優(yōu)設(shè)網(wǎng)立場(chǎng),未經(jīng)允許不得轉(zhuǎn)載。




發(fā)評(píng)論!每天贏獎(jiǎng)品
點(diǎn)擊 登錄 后,在評(píng)論區(qū)留言,系統(tǒng)會(huì)隨機(jī)派送獎(jiǎng)品
2012年成立至今,是國內(nèi)備受歡迎的設(shè)計(jì)師平臺(tái),提供獎(jiǎng)品贊助 聯(lián)系我們
MJ+SD智能設(shè)計(jì)
已累計(jì)誕生 771 位幸運(yùn)星
發(fā)表評(píng)論 為下方 4 條評(píng)論點(diǎn)贊,解鎖好運(yùn)彩蛋
↓ 下方為您推薦了一些精彩有趣的文章熱評(píng) ↓