

2025 年 6 月,我受邀在倫敦大學城市學院圣喬治分校的人機交互設計中心(HCID)會議上發言。(圖片來源:海倫娜?利姆)
簡而言之:今年 AI 主導了用戶體驗(UX)領域。在本文中,我會解釋原因,并介紹我將 AI 用于用戶體驗研究的最新方法,重點講講 ChatGPT 的深度研究功能如何大幅加快定性研究分析。
更多AI干貨:

2025 年 8 月 ChatGPT 5 中深度研究功能的位置
十個月前,我在 Medium 上發表了關于 AI 在用戶體驗領域應用的文章,沒想到成了 “爆款”,閱讀量達數千次,遠超博客上的其他文章。但在生成式 AI 領域,十個月就像過了很久,變化太快,那篇文章有些內容已經過時了。
后來,我的母校 —— 倫敦大學城市學院圣喬治分校的人機交互設計系聯系我,邀請我在他們的年會上發言,我欣然接受了這個機會,想重新探討這個話題,尤其是得知老教授說他們聯系我部分原因是那篇文章很受歡迎之后。
以下是我對 AI 在用戶體驗領域應用的新見解,這是為 2025 年更新的內容,也包含了我在 2025 年人機交互設計中心(HCID)會議上的發言內容(我覺得講得還挺不錯的)。

AI 會取代你的工作嗎?這是我在 2025 年人機交互設計中心會議演講中的一張幻燈片。(圖片來源:Tania Ostanina)
2024 年初,我剛開始在工作中使用 AI 時,感覺自己就像一個勇敢的探險家,闖入了一片陌生的領域。誠然,AI 已經存在有一段時間了,我們大多數人都曾在家里用它來生成一些家常菜食譜或粗制濫造的視覺內容。但我們中很少有人有機會讓 AI 真正重塑自己的工作,這主要是因為存在 “AI 會吞噬任何輸入數據” 的數據隱私問題,以及由此導致的對在工作中使用 AI 的嚴格禁令。

數據隱私問題。這是我在 2025 年人機交互設計中心會議演講中的一張幻燈片。(圖片來源:Tania Ostanina)
但 2024 年是私有 AI 的開端。最終,像 OpenAI 和 Anthropic 這樣的供應商對其大語言模型(LLMs)進行了 “隔離”,以確保數據無泄露風險,這也為像我們這樣的機構開啟了以訂閱方式使用私有 AI 的大門。
時間來到 2025 年,尼爾森諾曼集團的一項研究表明,用戶體驗(UX)專業人員是使用 AI 最為頻繁的群體之一。該研究揭示的一個關鍵數據顯示,如今普通的 UX 從業者使用大語言模型的頻率,比其他抽樣職業高出驚人的 750 倍!
你有一把錘子,但并非看到的所有東西都是釘子。從在學習作業中作弊(說真的,正在讀這篇文章的人機交互設計 / 用戶體驗專業的學生們,要是你們嘗試過讓 AI 生成用戶訪談記錄,趕緊收手吧),到有個倒霉的樂迷惹惱尼克?凱夫(Nick Cave)—— 給他發了一首 ChatGPT 生成的 “尼克?凱夫風格” 的歌,有很多情況都表明使用 AI 并非明智之舉。

正如尼克?凱夫(Nick Cave)所說,生成式 AI(GenAI)并非在所有方面都出色。這是我在 2025 年人機交互設計中心會議演講中的一張幻燈片。(圖片來源:Tania Ostanina)
媒體熱衷于渲染此類故事,久而久之,這就在時代精神中營造出一種普遍 “感覺”,仿佛無論在什么應用場景下,AI 都一無是處或有害無益。
但我不這么認為。

用戶體驗(UX)與生成式 AI 很契合。這是我在 2025 年人機交互設計中心會議演講中的一張幻燈片。(圖片來源:Tania Ostanina)
因為我們能用這把錘子釘一些釘子。生成式 AI 的局限性與能力,和特定類型用戶體驗研究的局限與需求很匹配。具體來說:
- 生成式 AI 擅長總結文本數據,而用戶體驗研究恰恰會產生大量文本數據。
- 生成式 AI 必然會出現 “幻覺”(生成虛假信息)現象,而傳統用戶體驗研究通常能應對一定程度的 “模糊性”。(但如果你的工作涉及高度精確的領域,禁止使用 AI 是明智的。)
- 生成式 AI 本質上只能生成衍生性的輸出,而用戶體驗從業者很少創造出完全原創的成果。相反,我們的優勢在于對現有內容進行調整。
各位,這就是用戶體驗從業者喜愛 AI 的原因。它與我們的工作很匹配,對我們來說是真正有用的工具。除了(如今基本已解決的)數據隱私限制外,行業內對于使用 AI 并無爭議。只要研究報告寫得好,提供了所需數據,沒人會在意它是否由 AI 生成。
不過,關于 AI 的倫理問題絕對應該有更多爭議。就我而言,我很困惑用戶體驗行業對此討論得如此之少,我會繼續強調 AI 技術過去和現在存在的倫理缺陷,以引發更多關注。
關鍵內容

ChatGPT 企業版深度研究功能的截圖
言歸正傳,說說具體做法。
我給大家舉個用戶體驗研究的真實例子,在最近一個項目里,我用 AI 分析了用戶數據。所有識別性信息都已匿名處理。
我用的是 ChatGPT 企業版,也就是經過 “隔離” 的私有版本,具備最新的深度研究功能。這是 OpenAI 在 2025 年 2 月推出的一款專門的 AI “智能體”,號稱 “非常適合從事高強度知識工作的人”。

深度研究功能與傳統模型的對比。這是我在 2025 年人機交互設計中心會議演講中的一張幻燈片。(圖片來源:Tania Ostanina)
要是你沒辦法使用企業版,花 20 美元訂閱 ChatGPT Plus 也能用上深度研究功能(不過據我所知,這樣你的數據不會經過 “隔離” 處理)。
我 2025 年的方法和之前一樣,都從這三個步驟開始:

該方法。這是我在 2025 年人機交互設計中心會議演講中的一張幻燈片。(圖片來源:Tania Ostanina)
- 輸入:提供素材。如今你能提供給它的 “素材” 種類大大增加了:龐大的數據集、JSON 文件、截圖、網頁鏈接、PDF 文件等等。ChatGPT 企業版在讀取 PNG 格式文件方面特別出色,能輕松識別截圖中的文字。
- 指令:告訴它要做什么。這依然遵循我在原文章中提到的提示詞框架規則。
- 獲取:從它那里得到所需信息,并按需使用,比如為你所在機構的高層領導撰寫報告。
步驟 1:輸入
深度研究功能的優勢在于,它能夠處理大量數據,且比大多數傳統模型(如 4o、Claude 3.7 Sonnet 等)具有更高的準確性。據我發現,你不僅可以向它輸入諸如訪談記錄、原型截圖之類的文檔,還能指定讓它以某一份特定文檔為依據,使該文檔主導模型的思考與分析方向。
在我的案例研究中,這份文檔就是討論指南 / 研究計劃。

討論指南 / 研究計劃的重要性。這是我在 2025 年人機交互設計中心會議演講中的一張幻燈片。(圖片來源:Tania Ostanina)
討論指南通常由用戶體驗從業者與產品經理共同制定,一般包含以下內容:
- 研究背景:這是個怎樣的研究項目?針對什么產品開展?為什么要做這項研究?
- 研究目標與假設:通過這項研究,你試圖證明或證偽什么?
- 訪談參與者 / 用戶信息:他們是誰?招募標準是什么?如果(像我的案例中那樣)他們是某個特定細分領域的專業人士,那具體是什么領域?
訪談結構,包括訪談主題與所提問題類型,所有這些都與研究目標和假設相關聯。
步驟 2:指令
好了,你已經把訪談記錄、截圖和討論指南輸入給模型了。那要怎么告訴模型該怎么處理這些內容呢?
無需冗長對話
深度研究功能與傳統模型的一個關鍵區別在于,深度研究功能無需大量來回溝通。相反,你一次性說明要求,在回答幾個澄清問題后,模型就會開始 “執行任務”,根據你的指令生成一份詳盡的報告。你只有一次輸入提示詞的機會,所以必須確保提示詞能切中要點。

提示詞框架。這是我在 2025 年人機交互設計中心會議演講中的一張幻燈片。(圖片來源:Tania Ostanina)
不過,某些提示詞 “卡片” 的重要程度相比其他有所變化。目前以下這些 “卡片” 最為有用:
提示詞卡片:設定場景

“設定場景” 提示詞卡片。(圖片來源:Tania Ostanina)
解釋研究目的、針對的公司與產品、用戶是誰,以及模型將會接收哪些文檔;如果有關鍵文檔(在此例中即討論指南),要以其為依據進行設定。
提示詞卡片:用戶角色

“用戶角色” 提示詞卡片。(圖片來源:Tania Ostanina)
描述你希望模型扮演的角色,例如 “就職于一家科技公司(X 公司)的全球頂尖用戶體驗研究員,該公司為英國的 [某職業] 提供數字信息與分析產品”。

提示詞卡片應用示例。這是我在 2025 年人機交互設計中心會議演講中的一張幻燈片。(圖片來源:Tania Ostanina)
提示詞卡片:模板

“模板” 提示詞卡片。(圖片來源:Tania Ostanina)
告訴 AI 如何組織輸出內容,這仍是一項關鍵技巧。你可以讓它依照討論指南的結構(如果適用的話),或者給它一個包含所有標題的示例模板。

提示詞卡片應用示例。這是我在 2025 年人機交互設計中心會議演講中的一張幻燈片。(圖片來源:Tania Ostanina)
提示詞卡片:思維鏈

“思維鏈” 提示詞卡片。(圖片來源:Tania Ostanina)
如今,這項極為有用的技巧被 AI 提示詞工程師廣泛運用。簡單來說,如果你讓 AI 解釋得出某個特定結論的原因,其結論的準確性就會提高。
提示詞卡片:百搭卡(新增)

“百搭卡” 提示詞卡片。(圖片來源:Tania Ostanina)
這是一位同事想出來的。在我們公司的許多用戶研究中,包括這個例子,我們對想從用戶那里了解的內容已有預設結構。但要是用戶說了些我們沒預料到的東西呢?如果你不要求模型去發現這些意外情況,它就不會去做。你自己本就該留意這些異常,但為何不讓模型也思考一下呢?

提示詞卡片應用示例。這是我在 2025 年人機交互設計中心會議演講中的一張幻燈片。(圖片來源:Tania Ostanina)
這讓我想起 OpenAI 那個特別搞笑又有點詭異的視頻:兩個兼具視覺與語音功能的 AI 助手,與一位人類主持人對話時,有個人在主持人身后比出兔耳朵的手勢。這倆 AI 助手完全無視這個兔耳朵手勢,直到被明確提醒才注意到。

OpenAI 的 “兔耳朵” 視頻。(圖片來源:OpenAI)
步驟 3:收獲成果
輸入提示詞和相關文檔后,選擇 “深度研究” 并點擊 “提交” 按鈕,然后不妨給自己倒杯咖啡。AI 生成所需報告的時間,取決于 “任務” 的復雜程度,最長可能需要一小時。在我的案例研究中,這一步大約耗時 30 分鐘。

在等待 “深度研究” 生成報告時,不妨去喝杯咖啡。這是我 2025 年演講中的一張幻燈片。(圖片來源:Tania Ostanina)
不錯,報告生成了,長達 50 頁!但這也是整個流程里最無趣的部分:
逐字逐句仔細檢查!
雖說 “深度研究” 的準確率比大多數模型都高,但離 100% 還差得遠,而且它生成的錯誤內容看起來可能極具說服力。所以,千萬別輕信。直至今日,AI 依舊像個熱情但經驗不足的助手,其成果必須經過核查。只有你,作為整個流程中的專業人員,才具備專業知識和解讀能力,能夠真正理解用戶訪談中發生的情況,否決 AI 的錯誤結論,并且發現即便你用了 “百搭卡” 提示,AI 仍可能遺漏的任何 “兔耳朵”(意外情況)。
“深度研究” 有個貼心的功能,就是在右側面板你能看到它得出結論所采取的步驟。這里可能出現最離奇的錯誤內容,看著還挺逗。我注意到,由于 “深度研究” 功能本身已內置 “思維鏈” 流程,這類錯誤內容很少會出現在最終報告里。

離奇的錯誤內容:“塔斯馬尼亞的三文魚養殖”。這是我 2025 年演講中的一張幻燈片。(圖片來源:Tania Ostanina)
重要提示:由于 “深度研究” 一次僅允許執行一項任務,而非來回對話模式,所以你無法在與 AI 交流時進行修正。得用傳統方法,將報告下載到 Word 文檔里修改。
完成修正后,你可以把 Word 報告重新上傳到 ChatGPT,讓它將這 50 頁內容濃縮成簡潔的、類似 PPT 風格的展示文稿。這是最容易的一步:只需對常規 AI 模型(如 4o、o3 等)運用 “模板” 提示技巧就行。
關于用戶原話引用的說明
以我的經驗,常規 AI 模型從訪談記錄中提取用戶原話的能力很差,它們往往選擇意譯。相信我,我什么方法都試過了!相比之下,“深度研究” 的引用會直接標注原始材料來源,所以用戶原話更容易交叉核對。不過我還是建議手動檢查,尤其是你打算在最終報告里使用的那些原話。

關鍵在于誰掌控著主導權。這是我 2025 年演講中的一張幻燈片。(圖片來源:Tania Ostanina)
所以,“深度研究” 花了約 30 分鐘完成分析。即便算上人工撰寫提示詞、準備文檔、檢查和修正的時間,這也比手動完成整個分析要快,肯定也比我之前依賴常規 AI 模型的方法快。
需要提醒一句:可能會有人想把分析工作完全交給 “深度研究”,跳過檢查這一步,這可就大錯特錯了。說到底,如果 “深度研究” 出了錯,擔責任的是你,而不是 AI。即便模型越來越先進,時刻保持警惕、在它們出錯時加以干預,依舊至關重要。
忘掉我跟你說的一切

在我于 HCID 會議的演講里,這是我最喜歡的一張幻燈片。先是給聽眾講一堆有用且可操作的信息,接著又讓他們把這些都拋諸腦后,這有種特別的快意。
但這就是 AI 領域的現實。情況每周都在變,跟上節奏的唯一辦法就是與之共同發展。比如說,我那次演講還沒提到智能體 AI(agentic AI),但寫這篇內容的時候,它已然是 2025 年最重大(同時也是最模糊不清!)的 AI 事件。很有可能,要是我寫《用戶體驗中的 AI 3.0》,就會談到智能體 AI。不過也說不定,誰知道呢~
復制本文鏈接 文章為作者獨立觀點不代表優設網立場,未經允許不得轉載。




發評論!每天贏獎品
點擊 登錄 后,在評論區留言,系統會隨機派送獎品
2012年成立至今,是國內備受歡迎的設計師平臺,提供獎品贊助 聯系我們
MJ+SD智能設計
已累計誕生 771 位幸運星
發表評論 為下方 3 條評論點贊,解鎖好運彩蛋
↓ 下方為您推薦了一些精彩有趣的文章熱評 ↓