Categories
程式開發

AI搞了半天只是曲線擬合?貝葉斯網絡之父力荐因果關係應用


人工智能只是優秀的曲線擬合?近兩年,關於這一觀點的討論從未停止,圖靈獎獲得者、貝葉斯網絡之父Judea Pearl也參與其中,他一直自嘲自己是AI社區的反叛者,認為由於人類對智能的真正含義不完全理解而阻礙了人工智能的發展,他曾經在多個場合表達過這樣的觀點:人工智能領域的技術水平只不過是上一代機器已有功能的增強版:在大量數據中發現隱藏的規律性。所有令人印象深刻的深度學習成果都只是曲線擬合。從語音識別,到圖像識別,再到人機對話,難道這些都算不上“智能”,而只是“曲線擬合”的結果?

AI搞了半天只是曲線擬合?貝葉斯網絡之父力荐因果關係應用 1

毫無疑問,當下軟件在智能層面出現的一系列進步,背後推手正是機器學習與深度學習支撐起的AI技術體系。然而,近兩年來,越來越多的人開始討論這樣的軟件是否具備真正的“智能”。儘管採用人工智能技術的軟件確實在不少領域保持著快速發展的勢頭,但仍然有學者與懷疑論者們表示:這種算法與理想中的智能算法仍有著巨大甚至無法彌合的鴻溝。

什麼叫做“智能”?

關於智能的定義,可以追溯到古希臘時代的那群哲學家們。他們當時關注的主要是人類與動物(而非與機器)間的區別。亞里士多德就曾經提到,接受過良好教育思維的一大特徵就是能夠理解那些自己並不認同的主張。那時的他當然不會想到,自己的格言如今同樣適用於區分智能與人。

目前,機器仍然無法獨立提出思想或者假設,無法彼此進行測試,也無法根據邏輯推理以及實驗結果(即科學方法的核心原理)接受或者拒絕某種論點。儘管不同形式的AI(例如對抗性網絡)可能也會通過互相衝突的方式達成最佳效果,但很少有人會將這種算法推理稱為“智能”。

相反,這只是一種在原理層面相當簡單的方法:由兩套神經網絡利用相同的數據集交叉工作,從而獲得準確率超越任何單一神經網絡的處理模型。當然,這種方法在實現既定目標方面確實表現得更為有效。

人與機器之間的核心智能區別在於定義目標以及在實現目標期間找尋合理性的能力。我們也可以將其描述為區分因果關係的能力,例如某兩個事件雖然經常同時發生,但並不代表著其中一個事件導致了另一個事件。在公共話語當中,這類因果關係謬誤正是最常見的邏輯錯誤之一。圖靈獎得主、貝葉斯網絡之父 Judea Pearl 也認為機器學習和人工智能領域中的待解難題本質上與因果關係有關。

AI:到底是在學習還是在描述?

AI研究人員之間正在爭論的另一個新問題在於,當前的機器學習與深度學習技術是否代表著一種全新的算法推理形式。或者說,這只是對描述性統計與曲線擬合等原有數學技術的進一步延伸。

支持後一種觀點的陣營可謂人才濟濟,Judea Pearl還親自寫了一本研究因果科學的新書。這項研究,也帶來了關於人工智能未來以及深度學習是否能夠帶來近人類通用智能的討論。

Pearl在此前的採訪中表達了一些敏銳的觀察:

在我深入研究深度學習的過程中,我發現這類算法都停留在關聯這個層次上。也就是曲線擬合。這聽起來似乎令人不屑,但必須承認,深度學習的所有令人印象深刻的成就,實際就是在數據上擬合出一條曲線。從數學層次的角度來看,無論深度學習模型能夠如何熟練地操作數據,以及在操作數據時引入了哪些變量,無論整個過程多麼複雜繁瑣,其本質仍然只是一種曲線擬合運算。

從本質上講,深度學習是一種高度通用且極為強大的曲線擬合技術,能夠識別出以往無法被發現的模式,推斷趨勢並針對各類問題給出預測性結果。當然,曲線擬合在表示給定數據集時也存在一定風險,這就是過度擬合。具體來講,算法可能無法識別數據的正常波動,最終為了擬合度而將噪音視為有效信息。

Pearl坦言,深度學習的成功程度甚至超出了該領域專家的預期。但他也擔心,這可能會令研究人員們受困於概念的天花板,甚至危及真正通用型學習技術的發展。

這一切令人印象深刻,因為我們都沒想到純曲線擬合能解決這麼多問題——事實證明,曲線擬合確實可以,但我關注的是未來——接下來該怎麼辦?

AI研究人員正在根據自己對深度學習的觀點乃至立場劃分陣營,其中最堅決的倡導者聽不進任何批評意見。 Pearl以此為基礎對AI研究環境做出評述:

AI領域目前已經出現分裂。首先,有些人對機器學習、深度學習以及神經網絡的成功深深著迷。他們不明白我在擔憂什麼,他們只想繼續擬合曲線。但是,在與統計學習之外的AI工作者進行交流時,他們則能立刻意識到我提出的問題。

Pearl提到,除非算法與算法控制下的機器能夠推理出因果關係,或者至少能夠識別出概念化差異,否則這類方法的效能以及通用性將永遠無法與人類相提並論。他表示,除非能夠模擬人類的直覺,否則機器人永遠不可能跟人類進行真正有意義的對話。這要求機器能夠理解因果關係,同時掌握可行的其他行動與結果。簡而言之,我們又回歸了亞里士多德的判斷。

機器如何做到像人一樣思考?

雖然可能屬於目前的少數派,但Pearl並不是唯一一位意識到人工智能應該在深度學習之外探索其他可能的技術人。對於如何製造出能像人一樣思考的機器,其他人也給出了自己的觀點。

麻省理工學院研究人員發表的一篇論文認為,要創造擁有類人學習與思維能力的機器,除了利用模式識別來解決問題之外,還需要確保機器有能力自主創造出能夠理解並解釋周遭環境的因果模型。

這篇論文提出,這樣的系統必須以物理(物理學)與社會(心理學)科學為基礎,用以建立起對世界進行直觀推理的能力,最終令機器能夠“迅速獲取知識並將結論推廣到更多新的任務與場景。”與Pearl一樣,作者在文章結尾對AI研究人員提出了忠告:

我們建議,深度學習與其他計算範式的發展目標,應當是利用盡可能少的訓練數據解決任務,而非單純構建起能夠識別手寫字符、使用引擎或者下圍棋的特定解決方案。因此,除了訓練模型完成單一特定任務之外,我們還可以根據一系列類人指標對模型做出評估。

這樣的通用人工智能(AGI)一直是馬斯克及蓋茨等技術名流的抨擊對象。

簡單來說,Pearl一行人傾向認為,目前在人工智能方面取得的成果背後是海量數據訓練的結果,這些數據通常來自於模擬或大規模人類標註,問題也都是獨立同分佈的(IID,independently identically distribution),要么是使用基準數據集的圖像識別,要么是為特定問題精心收集合適的訓練數據集,在數據處理上面花費了大量功夫等。這樣看來,在某些特定問題上,機器可以達到甚至超過人類也很正常。

但是,當一個能以高準確率被正常識別的物體被放進與該物體出現場景呈負相關的場景訓練集時,視覺系統很容易被誤導,比如一條放在草地裡的魚,因為機器的認知中,魚往往是出現在水里。

此外,對抗脆弱性(adversarial vulnerability)現象強調,即使對IID 假設作出非常微小但有針對性的破壞(這類破壞可以通過向圖像添加精心選擇的噪聲來實現,而人類無法察覺此類更改),也會造成危險的錯誤,比如混淆交通標誌,這說明當下的人工智能係統還沒有足夠穩健,這也反映在計算資源問題上。因為機器學習方法嵌入的(小型)物理設備可能是電池供電。因此,解決大量現實問題的 AI 模型有可能需要重用組件,這要求組件對多個任務和環境具備穩健性。

結束語

也許,自適應或者自優化是相比於智能更準確的說法,這些模型在參數與結構層面仍然需要大量人工調整是不爭的事實。儘管,Pearl已經通過貝葉斯網絡建立起描述因果關係所必需的數學系統,但要想讓機器掌握被他稱為Do-Calculus的複雜因果關係,仍有很長的路要走。

與此同時,各類機器學習工具的用戶也必須意識到這些方案的局限性,避免將提取自特定問題與數據集的結果推廣到其他類別。這是AI的短板,也是接下來廣發開發者需要直面的核心挑戰。

參考鏈接:

https://diginomica.com/ai-curve-fitting-not-intelligence