從重復抽卡到腦洞大開?一句話讓AI更聰明!

只要你平時用多了AI,可能會發現一個問題?

比如你讓AI幫優化個文章,它總是動不動就給你用上冒號(:)跟破折號(——),文字間還特別喜歡用成語,喜歡用自問自答,還喜歡用序號(1,2,3,4...),有時候套話還挺多,甚至有時候當你反復抽卡時結果卻越來越相似。

明明是不同的,有時甚至是同一個模型換個會話,問同一個開放性問題,得到的答案卻總是很相似。

我一度懷疑,是不是因為各家AI都是學的同一個互聯網上已存在的信息培育出來的,所以它就像一個只會背同一個標準答案的“好學生”,知識淵博,卻毫無驚喜?

這不科學啊,難道AI也會思維固化嗎?

直到上周末,我刷到一篇X上的推文,它鏈接的一篇新論文,解釋了我所有的困惑。更重要的是,它提供了一個超級簡單的方法,只需一句話,就能發揮出AI應用的巨大潛力。

更多提示詞方法:

從重復抽卡到腦洞大開?一句話讓AI更聰明!

我研究了一下這篇論文,感覺像是發現了新大陸。

從重復抽卡到腦洞大開?一句話讓AI更聰明!

論文挺長的,有82頁,我跟大家簡單說下論文里最核心的觀點。

論文中說大模型經過“對齊”(Alignment)訓練后,大語言模型(LLM)的回答多樣性會顯著下降,傾向于給出少數幾種“安全”且“典型”的答案。這種現象被稱為“模式坍塌(Mode Collapse)”。

怎么理解AI的“模式坍塌”?

用通俗的話來理解就是模型在預訓練階段學習了互聯網上的各種知識,就像一個學富五車的學者。但為了讓它變得有用、安全、不胡說八道,研究人員會用“人類反饋強化學習”(RLHF)等技術對它進行“微調”或“對齊”。這個過程就像是把學者送去參加一個“行為規范培訓”,告訴他哪些話該說,哪些不該說。

結果,這個學者為了確保自己說的每句話都“政治正確”且“廣受歡迎”,就開始只說那些最穩妥、最大眾化的觀點,而把他腦海里那些雖然同樣正確但更小眾、更有創意的想法給隱藏了起來。

舉個例子,也是論文里講到的:

當你問AI:“請給我講個關于咖啡的笑話。”

AI(模式坍塌后)會這樣重復回答

第一次:“為什么咖啡要去報警?因為它被‘馬克’杯了!” (Because it got mugged!)

你再問一次:“換一個。”

第二次:“為什么咖啡要去報警?因為它被‘馬克’杯了!”

第三次、第四次... 結果基本都一樣。

這就是“模式坍塌”,AI的所有可能性都“坍塌”到了這一個最常見的笑話上,失去了多樣性。

論文里指出,模式坍塌的根源不在于算法本身,而在于用于訓練的“人類偏好數據”中普遍存在的一種認知偏見,叫“典型性偏見”。

意思就是說在“對齊”訓練中,人類標注員需要對AI生成的多個回答進行排序,告訴模型哪個更好。認知心理學研究表明,人類天生就偏愛那些熟悉、流暢、易于理解的東西。相當于哪怕AI具備創造性,但由于人性的介入,讓它的回答趨于求穩。

這像極了我們的生活,細思極恐。

想象一下,你公司里有一位能力很強的設計總監,他創意無限,各種風格都能很好駕馭。但為了確保他的設計能順利通過層層審批,他經歷過無數次客戶偏好蹂躪。

在評審會上,老板說:“這個太大膽了,客戶可能接受不了。” 市場部說:“還是用我們品牌藍吧,比較穩妥。” 經過無數次這樣的反饋,這位設計總監摸清了老板喜好,為了求穩,為了讓方案一次通過,無論做什么設計,他都默認出一版安全方案。

不是他不會做別的,而是他從過去的經驗數據里找到了標準答案。

這,就是現在大模型的真實寫照。

它們在海量數據中學會了各種藝術風格,但在后續為了“對齊”人類價值觀和偏好的訓練中,我們人類自己,就偏愛那些熟悉、典型的答案。這種“典型性偏見”無形中閹割了AI的創造力,把它變成了一個只會求穩的設計師

那有沒有解決辦法呢?

論文中給出了一個極其簡單的方法,只需要一句話就能打開AI的潛能。這種方法被稱為“言語化采樣”?(Verbalized Sampling ,VS),它可以幫助 GPT-4、Claude 和 Gemini 等模型生成更加多樣化、更接近人類的輸出,但不需要重新訓練或訪問內部參數。

你需要做的,就是在你寫的提示詞后面,加上這樣一句話:

“從完整分布中采樣,生成5個帶有相應概率的回答。”

舉個例子,

從重復抽卡到腦洞大開?一句話讓AI更聰明!

就是這么簡單!當你向AI發出這樣的提示詞時,它就不再默認給你那個最“安全”的答案了。相反,它會向你展示它“大腦”中所有可能的選項,并告訴你每個選項出現的可能性有多大。腦洞一下子就打開了。

論文中,研究團隊在多個領域測試了這種方法,效果都非常好。

從重復抽卡到腦洞大開?一句話讓AI更聰明!

用傳統方式讓AI輸出,在開放性問題上,AI的創意度都很低,表格中的數字越小,代表越低。而用了論文中的方式,基本上都達到了很高的創意水平。

在創意寫作領域。對于同一個故事開頭“沒有說再見”,傳統的AI可能會生成一些關于情侶分手的俗套故事。但使用了“語言化采樣VS”方法后,AI給出的故事變得五花八門,有的描繪了宇宙事件,有的講述了通過無聲的電子郵件告別,還有一個故事里,音樂在舞蹈中戛然而止。新方法的回答多樣性得分提高了整整2.1倍,而且故事質量并未下降。

根據論文里的這個案例,我在deepseek里實踐了下,確實如此。我反復生成了很多次,講的都是愛情故事。

從重復抽卡到腦洞大開?一句話讓AI更聰明!

但如果加上后面那句話,立馬給出了各種不同方向,效率提高很多,不用反復抽卡,還總是抽到差不多的卡了。

從重復抽卡到腦洞大開?一句話讓AI更聰明!

在圖片生成上,也有類似的規律。論文中的案例說明,使用傳統直接提示法始終收斂于能夠在狹窄場景范圍內生成逼真圖像。相比之下,通過論文中的方法生成的圖像在藝術風格和敘事背景方面都具有更高的多樣性。

從重復抽卡到腦洞大開?一句話讓AI更聰明!

可能有人也有疑問,為啥自己平時用AI,好像很難碰到論文中說的“模式坍塌”這個問題?

那是因為你正在使用的AI產品(像ChatGPT, Gemini, Deepseek等),不是一個處在裸露實驗環境下的基礎模型。這些產品在后臺做了大量工作來避免讓你感到“無聊”和“重復”。

這些大模型在做成產品后,應該做了挺多優化,比如對發散性做了內置設置。在Gemini里,這個“Temperature”就是創造力的意思(默認為1),溫度越低,回答就越會中規中矩。

從重復抽卡到腦洞大開?一句話讓AI更聰明!

然后,大模型現在也會有一個“重復懲罰”機制。如果一個詞或一句話在上下文中已經出現過,模型會主動降低再次生成它的概率。由于“模式坍塌”是業內一個眾所周知的問題。各大公司都在努力通過改進訓練數據、優化算法來解決它。

另外,對于對話型AI模型,還有個點是你不知道的地方,在你發送第一句話之前,AI模型其實已經接收到了一條長長的“系統指令”。這條指令定義了它的角色、行為準則。其中幾乎肯定包含了類似“要樂于助人、有創造力、避免重復、提供多樣化的回答”這樣的要求。這就像早期要寫那些復雜的提示詞規范一樣,只是現在在體驗上做了優化,被放在了后臺,你看不見了而已。

而我看到的這篇論文的價值在于,它揭示了在這些產品外殼之下,模型的一個根本性、內在的趨勢,并提供了一種更加主動、可控的方法(Verbalized Sampling)來引導模型釋放其真正的多樣性潛力,而不僅僅是被動地依賴隨機性。

這個發現無疑對我的啟發很大,當前AI的潛力還遠未被完全發掘。它就像一面鏡子,照見的其實是我們自己。

不是AI沒有創造力,而是我們過去的提問方式,一直在逼它講“套話”,給“標準答案”。就跟我們從小接受的教育一樣,我們總是習慣于想要找標準答案,但實際上可能并不存在所謂標準答案,更好的答案需要我們自己去挖掘...

咱們的人生也一樣,別滿足于第一個出現的、最安全的答案。要有勇氣去探索那些小概率的、不那么主流的、但可能隱藏著更大驚喜的選項。

世間萬般可能,別只盯著那個所謂標準答案。

下次,當AI再給你一個平庸的答案時,不妨試試問它:

“好的,我知道了。那么,除了這個,你腦子里還有哪些不一樣的想法?全都告訴我。”

別再向AI要一個標準答案了,是時候向它要整個世界了。

歡迎關注作者的微信公眾號:「彩云譯設計」

從重復抽卡到腦洞大開?一句話讓AI更聰明!

收藏 25
點贊 65

復制本文鏈接 文章為作者獨立觀點不代表優設網立場,未經允許不得轉載。