【山巨源特稿】超級智慧人工智慧會偷襲我們嗎?

一些研究人員認為,人工智慧最終可以實現通用智能,在大多數任務上匹配甚至超越人類。馬修·哈特森Matthew Hutson發表在最新一期《自然》(Nature)的( Will superintelligent AI sneak up on us? New study offers reassurance)指出,ChatGPT 等大型語言模型的效能改進比看起來更容易預測。(Improvements in the performance of large language models such as ChatGPT are more predictable than they appear.) 創新能力的建立是逐漸進行的 人工智慧(AI)超級智慧會突然出現,還是科學家會預見它的到來,並有機會警告世界?隨著大型語言模型(例如ChatGPT)的興起,這個問題最近受到了廣泛關注,隨著規模的增長,這些模型已經實現了巨大的新能力。一些研究結果指向“湧現”,即人工智慧模型以敏銳且不可預測的方式獲得智慧的現象。但最近的一項研究將這些案例稱為「海市蜃樓」——系統測試過程中產生的假象——並表明創新能力的建立是逐漸進行的。 「我認為他們在說『沒有發生任何神奇的事情』方面做得很好,」Mozilla 基金會研究人工智慧審計的電腦科學家黛博拉·拉吉 (Deborah Raji) 說。這是“一個非常好的、可靠的、基於測量的批評。”這項工作於上週在新奧爾良舉行的 NeurIPS 機器學習會議上進行了展示。 大型語言模型通常使用大量文字或其他資訊進行訓練,透過預測接下來會發生什麼來產生現實的答案。即使沒有經過明確的培訓,他們也能翻譯語言、解決數學問題、寫詩或電腦程式碼。模型越大——有些型號有超過千億個可調參數——它的性能就越好。一些研究人員懷疑這些工具最終將實現通用人工智慧(AGI),在大多數任務上匹配甚至超越人類。 ChatGPT 打破了圖靈測試——評估人工智慧新方法的競賽已經開始 這項新研究以多種方式檢驗了「出現」的說法。在一種方法中,科學家比較了 OpenAI 的 GPT-3 模型的四種大小將四位數相加的能力。從絕對準確率來看,模型的第三個和第四個尺寸之間的性能差異從接近 0% 到接近 100%。但如果考慮答案中正確預測的數字數量,這種趨勢就沒那麼極端了。研究人員還發現,他們還可以透過給模型更多測試問題來抑製曲線——在這種情況下,較小的模型有時會正確回答。 接下來,研究人員研究了 Google LaMDA 語言模型在多項任務上的表現。它表現出明顯智力突然跳躍的任務,例如發現反諷或翻譯諺語,通常是多項選擇任務,答案被離散地評分為正確或錯誤。相反,當研究人員檢查模型對每個答案的機率(一個連續的指標)時,出現的跡象就消失了。 最後,研究人員轉向電腦視覺,這是一個很少有人聲稱會出現的領域。他們訓練模型來壓縮然後重建圖像。僅通過設定嚴格的正確性閾值,它們就可以引起明顯的湧現。「他們設計調查的方式很有創意,」西雅圖華盛頓大學研究人工智慧和常識的電腦科學家 Yejin Choi 說。 語言模型的大多數方面確實是可預測的 研究合著者、加州帕洛阿爾托斯坦福大學的計算機科學家 Sanmi Koyejo 表示,鑑於某些系統表現出突然的“相變”,人們接受湧現的想法並非沒有道理。他還指出,這項研究不能完全排除大型語言模型中的這種情況,更不用說在未來的系統中了,但他補充說,「迄今為止的科學研究強烈表明,語言模型的大多數方面確實是可預測的」。 Raji 很高興看到社群更加關注基準測試,而不是開發神經網路架構。她希望研究人員更進一步,詢問這些任務與現實世界部署的關係如何。例如,像 GPT-4 一樣,在有抱負的律師 LSAT 考試中取得好成績是否意味著模特兒可以擔任律​​師助理? 這項工作也對人工智慧安全和政策產生影響。「AGI 人群一直在利用新興能力的主張,」拉吉說。毫無根據的恐懼可能會導致令人窒息的監管或轉移人們對更緊迫風險的注意力。「模型正在改進,這些改進很有用,」她說。“但他們還沒有接近意識。”

【山巨源特稿】超級智慧人工智慧會偷襲我們嗎?

一些研究人員認為,人工智慧最終可以實現通用智能,在大多數任務上匹配甚至超越人類。馬修·哈特森Matthew Hutson發表在最新一期《自然》(Nature)的<超級智慧人工智慧會偷襲我們嗎?新研究讓人放心>( Will superintelligent AI sneak up on us? New study offers reassurance)指出,ChatGPT 等大型語言模型的效能改進比看起來更容易預測。(Improvements in the performance of large language models such as ChatGPT are more predictable than they appear.)

創新能力的建立是逐漸進行的

人工智慧(AI)超級智慧會突然出現,還是科學家會預見它的到來,並有機會警告世界?隨著大型語言模型(例如ChatGPT)的興起,這個問題最近受到了廣泛關注,隨著規模的增長,這些模型已經實現了巨大的新能力。一些研究結果指向“湧現”,即人工智慧模型以敏銳且不可預測的方式獲得智慧的現象。但最近的一項研究將這些案例稱為「海市蜃樓」——系統測試過程中產生的假象——並表明創新能力的建立是逐漸進行的。

「我認為他們在說『沒有發生任何神奇的事情』方面做得很好,」Mozilla 基金會研究人工智慧審計的電腦科學家黛博拉·拉吉 (Deborah Raji) 說。這是“一個非常好的、可靠的、基於測量的批評。”這項工作於上週在新奧爾良舉行的 NeurIPS 機器學習會議上進行了展示。

大型語言模型通常使用大量文字或其他資訊進行訓練,透過預測接下來會發生什麼來產生現實的答案。即使沒有經過明確的培訓,他們也能翻譯語言、解決數學問題、寫詩或電腦程式碼。模型越大——有些型號有超過千億個可調參數——它的性能就越好。一些研究人員懷疑這些工具最終將實現通用人工智慧(AGI),在大多數任務上匹配甚至超越人類。

ChatGPT 打破了圖靈測試——評估人工智慧新方法的競賽已經開始

這項新研究以多種方式檢驗了「出現」的說法。在一種方法中,科學家比較了 OpenAI 的 GPT-3 模型的四種大小將四位數相加的能力。從絕對準確率來看,模型的第三個和第四個尺寸之間的性能差異從接近 0% 到接近 100%。但如果考慮答案中正確預測的數字數量,這種趨勢就沒那麼極端了。研究人員還發現,他們還可以透過給模型更多測試問題來抑製曲線——在這種情況下,較小的模型有時會正確回答。

接下來,研究人員研究了 Google LaMDA 語言模型在多項任務上的表現。它表現出明顯智力突然跳躍的任務,例如發現反諷或翻譯諺語,通常是多項選擇任務,答案被離散地評分為正確或錯誤。相反,當研究人員檢查模型對每個答案的機率(一個連續的指標)時,出現的跡象就消失了。

最後,研究人員轉向電腦視覺,這是一個很少有人聲稱會出現的領域。他們訓練模型來壓縮然後重建圖像。僅通過設定嚴格的正確性閾值,它們就可以引起明顯的湧現。「他們設計調查的方式很有創意,」西雅圖華盛頓大學研究人工智慧和常識的電腦科學家 Yejin Choi 說。

語言模型的大多數方面確實是可預測的

研究合著者、加州帕洛阿爾托斯坦福大學的計算機科學家 Sanmi Koyejo 表示,鑑於某些系統表現出突然的“相變”,人們接受湧現的想法並非沒有道理。他還指出,這項研究不能完全排除大型語言模型中的這種情況,更不用說在未來的系統中了,但他補充說,「迄今為止的科學研究強烈表明,語言模型的大多數方面確實是可預測的」。

Raji 很高興看到社群更加關注基準測試,而不是開發神經網路架構。她希望研究人員更進一步,詢問這些任務與現實世界部署的關係如何。例如,像 GPT-4 一樣,在有抱負的律師 LSAT 考試中取得好成績是否意味著模特兒可以擔任律​​師助理?

這項工作也對人工智慧安全和政策產生影響。「AGI 人群一直在利用新興能力的主張,」拉吉說。毫無根據的恐懼可能會導致令人窒息的監管或轉移人們對更緊迫風險的注意力。「模型正在改進,這些改進很有用,」她說。“但他們還沒有接近意識。”