首頁 行業(yè) 活動 項目 快訊 文娛 時尚 娛樂 科技 汽車 綜合 生活

圖靈獎得主楊立昆:AI的邏輯推理和規(guī)劃能力有限,會犯事實錯誤和邏輯錯誤

2023-06-10 20:53:54 來源:搜狐科技

出品|搜狐科技

作者|鄭松毅

6月9日,2023智源人工智能大會在北京舉辦。法國當?shù)貢r間凌晨四點,被譽為“世界深度學習三巨頭”之一的楊立昆(Yann LeCun)在法國視頻連線北京現(xiàn)場,發(fā)表了主題為《走向能夠學習、推理和規(guī)劃的大模型》的演講,表達了對于人工智能的深度思考。


(相關資料圖)

搜狐科技在智源大會現(xiàn)場觀看了這場演講,從楊立昆演講時面露微笑的表情中,可以感受到楊立昆對于人工智能發(fā)展的積極樂觀態(tài)度。此前在馬斯克等人聯(lián)名簽署聯(lián)名信提出人工智能發(fā)展將給人類文明帶來風險時,楊立昆曾公開反駁,認為人工智能尚未發(fā)展到給人類構成嚴重威脅的程度。演講中,楊立昆再次強調人工智能是可控的,他表示,“恐懼是由對潛在負面結果的預期引起的,而興高采烈是由對積極結果的預測產(chǎn)生的,像這樣由目標驅動的系統(tǒng),我將之稱為‘目標驅動的人工智能’,它會是可控的,因為我們可以通過成本函數(shù)為它設定目標,確保這些系統(tǒng)不會想要接管世界,相反,它會屈從于人類和安全?!?/p>

楊立昆表示,人工智能距離人類和動物的能力差距在于邏輯推理和規(guī)劃,這是智能的重要特征,現(xiàn)在的大模型只能“本能反應”。

“如果你用一萬億或兩萬億個token來訓練它們,機器的性能是驚人的,但最終機器會犯事實錯誤、邏輯錯誤,它們的推理能力是有限的?!?/p>

楊立昆強調,基于自我監(jiān)督的語言模型無法獲得關于真實世界的知識。他認為,與人類和動物相比,機器的學習能力并不是很好。幾十年來,研發(fā)系統(tǒng)的方式都是在用監(jiān)督學習,但監(jiān)督學習需要太多標簽,學習任何東西都需要進行大量的嘗試,強化學習的結果卻不盡人意,這些系統(tǒng)是脆弱的,會犯愚鈍和錯誤,且并不會真正地推理和計劃。

“就像我們在演講時,如何從一個觀點表達到另一個觀點,怎么解釋事物,大腦里是有計劃的,而不是一字一句的即興發(fā)揮。也許在低層次上,我們在即興發(fā)揮,但在高層次上,我們一定是在規(guī)劃。所以規(guī)劃的必要性是非常明顯的。我的預測是,在相對短的幾年內,理智的人肯定不會再使用自回歸元素(自監(jiān)督學習方法中的模型之一)。這些系統(tǒng)將很快被放棄,因為它們是無法修復的。”

他表示,為了讓語言模型真正理解真實世界的知識,需要一個新的架構來取代,而這個架構就是他在一年前所發(fā)表的論文中提出的架構,“自主智能(Autonomous Intelligence)”。這是由一個配置模塊控制整個系統(tǒng),基于輸入信息,進行預測、推理、決策的架構。其中的“世界模塊”具備估計缺失信息、預測未來外界狀態(tài)的能力。

談及未來幾年AI將面臨的挑戰(zhàn),楊立昆指出三個方面,其一是學習世界的表征和預測模型;其二是學習推理,即學習如何有意識、有目的地運用思維去完成任務;最后一個挑戰(zhàn)是如何通過將復雜任務分解成簡單任務,以分層的方式運行來規(guī)劃復雜的行動序列。

談到這里,楊立昆介紹了他發(fā)表在論文中的另一個模型“世界模型(World Model)”,該模型可以想象一個場景,并根據(jù)場景預測行動結果。目的是找出一系列根據(jù)其自己的世界模型預測的行動,并最小化一系列成本的行動序列。

當楊立昆在提問環(huán)節(jié)被問及有關即將參加的一場關于AGI的地位和未來的辯論時,他表示這場辯論將圍繞一個問題展開,即人工智能系統(tǒng)是否會對人類構成生存風險。Max Tegmark 和 Yoshua Bengio 將站在“會”的一邊,認為強大的 AI 系統(tǒng)可能對人類構成存在風險。而楊立昆和 Melanie Mitchell 將站在“不”的一邊。

“我們的觀點不是說沒有風險,而是說這些風險雖然存在,但很容易通過精心設計來減輕或抑制。”

楊立昆認為,超智能系統(tǒng)尚未被研發(fā)出來,待其被發(fā)明出后,再討論“是否能使超智能系統(tǒng)對人類安全”也來得及。

責任編輯:

關鍵詞:

上一篇:微博直接爆!#Uzi加盟EDG登上微博熱搜第一 多個詞條位列熱搜前列

下一篇:蓉火傳遞啟動|大運火炬在北大啟航:從冬奧會到大運會 成都要向北京學些什么? 全球觀速訊

責任編輯:

最近更新

點擊排行
推薦閱讀