這一領域在其發展方向和原因上存在分歧。
自上世紀50年代以來,人工智能一再言過其實,卻未能兌現其承諾。盡管近年來,由于深度學習,人工智能出現了令人難以置信的飛躍,但今天的人工智能仍然很狹隘:它在面對攻擊時很脆弱,不能泛化以適應不斷變化的環境,而且充滿偏見。所有這些挑戰使得該技術難以被信任,并限制了其造福社會的潛力。
3月26日,在《麻省理工學院技術評論》(MIT Technology Review)的年度EmTech數字活動上,兩位人工智能領域的杰出人物走上虛擬舞臺,討論該領域如何克服這些問題。
加里·馬庫斯(Gary Marcus),紐約大學名譽教授,Robust.AI公司創始人兼CEO,是一位著名的深度學習批評家。在去年出版的《重啟人工智能》(Rebooting AI)一書中,他認為人工智能的缺陷是這種技術固有的。因此,他認為,研究人員必須超越深度學習的范疇,將其與經典人工智能系統結合起來。經典人工智能系統可以編碼知識,并具有推理能力。
丹尼·蘭格(Danny Lange)是Unity負責人工智能和機器學習的副總裁,他完全屬于深度學習陣營。他的職業生涯建立在這項技術的前景和潛力上,曾擔任優步(Uber)的機器學習主管、亞馬遜(Amazon)的機器學習總經理,以及微軟(Microsoft)專注于大規模機器學習的產品主管。在Unity,他現在幫助DeepMind和OpenAI等實驗室構建虛擬訓練環境,教它們的算法感知世界。
活動期間,每位演講者都做了一個簡短的陳述,然后坐下來進行小組討論。他們表達的分歧反映了該領域內的許多沖突,突顯出一場持久的理念之戰對技術的影響有多么強大,而該技術未來的發展方向又有多么不確定。
為了清楚起見,下面對他們的小組討論進行了精簡和略加編輯。
加里,你利用你在神經科學和心理學方面的專長找出了人工智能目前缺失的東西。你認為是什么原因使得傳統的人工智能系統適合與深度學習相結合呢?
加里·馬庫斯:我要說的第一件事是,我們可能需要比深度學習和傳統人工智能更復雜的混合體。我們至少需要它。但可能有一大堆事情我們甚至還沒有想到過。我們需要保持開放的心態。
為什么要把經典的人工智能加入其中呢?嗯,我們在世界上根據我們的知識進行各種推理。深度學習并不能代表這一點。在這些系統中,沒有辦法來表示一個球是什么,一個瓶子是什么,以及這些東西對彼此有什么影響。所以結果看起來很好,但它們通常不是很普遍。
而這便是經典AI所擅長的。例如,它可以將一個句子解析為它的語義表示,或者了解世界上正在發生的事情,然后做出推斷。但經典AI也有自己的問題:它通常所能覆蓋的范圍并不夠,因為它有太多的人為定義等。但至少在原則上,這是我們所知道的唯一的方法,來建立一個系統,它可以對抽象的知識進行邏輯推理和歸納推理。這不意味著它是絕對正確的,但它是迄今為止我們擁有的最好的。
還有很多心理學上的證據表明人們可以做某種程度的象征性表征。在我之前的生活中,作為一個認知發展學領域的人,我對7個月大的嬰兒做了實驗,結果表明這些嬰兒可以概括符號知識。如果一個7個月大的嬰兒就能做到這一點,那么為什么我們要摒棄我們先天的優勢來構建人工智能呢?
你見過成功地將深度學習和經典人工智能結合起來的項目嗎?
GM:在我寫的一篇名為《人工智能的下一個十年》[1]的文章中,我列出了最近20個不同的項目,這些項目試圖將一些有深度學習和一些表征知識的混合模型組合在一起。一個大家都知道的例子是谷歌搜索。當你輸入一個搜索查詢,有一些經典的人工智能試圖消除有歧義的詞。它使用谷歌知識圖譜試圖找出當你談論“巴黎”時,你是在談論帕麗斯希爾頓,巴黎,德克薩斯,還是巴黎,法國。然后,它使用深度學習來做一些其他的事情——例如,使用BERT模型[2]來查找同義詞。當然,谷歌搜索并不是我們最終希望實現的人工智能,但它是一個非常可靠的證據,證明這不是一個不可能的夢想。
丹尼,你同意我們應該研究這些混合模型嗎?
丹尼·蘭格:不,我不同意。我對經典人工智能的看法是,它試圖在非常深刻的意義上模仿人類的大腦。這讓我想起了,你知道,在18世紀,如果你想要更快的交通,你會建造機械馬而不是發明內燃機。所以我非常懷疑試圖通過模仿人類大腦來解決人工智能的問題。
深度學習不一定是靈丹妙藥,但如果你給它提供足夠的數據,并且你有正確的神經網絡架構,它就能夠學習我們人類無法理解的抽象概念,這使系統在解決眾多廣泛任務時非常有效。
聽起來你們倆對人工智能的目標有分歧。
GM:有點諷刺的是,去年12月,我與約舒亞·本吉歐(yobengio)進行了一場辯論。本吉歐說,深度學習必須以神經學為基礎。所以我從深度學習中聽到了兩個相反的極端。這有點奇怪,我認為我們不應該對這些論點太當真。
相反,我們應該說:“經典AI中的符號知識能幫助到我們嗎?”答案絕對是肯定的。世界上幾乎所有的軟件都是建立在符號基礎上的。然后你不得不說,“從經驗上講,深度學習的東西能達到我們想要的效果嗎?”“到目前為止,問題是它沒有模型。Vicarious(一家以人工智能為動力的工業機器人初創公司)展示了一款非常受歡迎的雅達利(Atari)游戲學習系統[3]。但是當Vicarious將球拍移動了幾個像素后,整個游戲就崩潰了,因為它的學習水平實在是太淺了。它沒有球拍、球、磚頭的概念。而符號算法可以很容易地彌補這些缺陷。
研究人類的原因是,人類在某些方面做得比深度學習系統好得多。這并不意味著人類將最終成為正確的模型。我們想要的系統有一些電腦的屬性,也有一些從人那里學來的屬性。我們不希望因為人的記憶力差所以人工智能系統記憶力也差。但是,由于人是自然界中唯一能夠對某件事產生深刻理解的模型——確切地說,是我們所擁有的唯一模型——我們需要認真對待這個模型。
DL:對,世界上的編程語言都是以符號為基礎的,這是事實,因為它們是為人類實現自己的想法而設計的。
深度學習不是人腦的復制。也許你可以說它是受到了神經學的啟發,但它只是一個軟件。我們還沒有真正深入到深度學習。到目前為止,我們只有有限的訓練數據。我們有有限的結構和有限的計算能力。但關鍵是深度學習的學習概念,學習特征。這不是人類設計的東西。我認為Gary的方法和我的方法最大的區別是人類工程師是給系統提供智能還是系統自己學習智能。
丹尼,你提到由于數據和計算的局限性,我們還沒有真正看到深度學習的潛力。既然深度學習效率如此之低,我們難道不應該開發新技術嗎?為了開發新的深度學習能力,我們不得不大幅增加計算能力。
DLs:深度學習的問題之一是,到目前為止,它實際上是基于一種傳統的方法:你生成一個大的訓練數據集,然后把它輸入。一件可以真正提高深度學習的事情是有一個積極的學習過程,在這個過程中,網絡被訓練來優化訓練數據。你不需要輸入大量的數據來改善學習過程。可以不斷調整訓練數據,以針對特定的領域。
加里,你指出了深度學習在面對偏見和對抗性攻擊時的弱點。丹尼,你提到了合成數據是解決這個問題的辦法,因為“沒有偏見”,你可以運行數百萬次模擬,以消除對手的弱點。你們對此有何回應?
GM:僅僅依靠數據還不能解決問題。合成數據無法幫助解決貸款中的偏見或工作面試中的偏見等問題。真正的問題是,這些制度有一種傾向,會使那些由于歷史原因而存在的偏見永久化。與建立足夠復雜的系統來理解我們試圖取代的文化偏見相比,人工數據顯然不是解決方案。
對抗性攻擊是另一回事。數據可能有助于解決其中的一些問題,但到目前為止,我們還沒有真正消除許多不同類型的對抗性攻擊。之前我的文章中有提到棒球它被描述為濃縮咖啡。如果有人事先想好要在模擬中用意式濃縮咖啡做棒球,然后仔細地給它們貼上標簽,那很好。總會有一些沒人想到的情況。一個純粹由數據驅動的系統將繼續受到攻擊。
DL:不管你做什么,現實世界的數據都是有偏見的。你在特定的環境中收集數據,比如自動駕駛汽車,可能有90%的成年人和10%的兒童在街上。這是正態分布。但是一個機器學習系統需要訓練足夠多的數據以避免撞上成人或兒童中的任何一個。有了合成數據(模擬數據),如果你小心的話,基本上就能平衡和避免偏差。這并不意味著你不能制造新的偏見。你得小心點。當然,還解決了隱私問題,因為任何訓練數據中都沒有真實的人或真實的孩子。
至于對抗性的例子,它們的問題是,它們基本上是在弱計算機視覺模型的基礎上開發的——這些模型已經訓練了1000萬或2000萬張圖像,比如來自ImageNet的圖像。這遠遠不足以概括一個模型。我們需要大量的數據集和大量的領域隨機化來概括這些計算機視覺模型,這樣它們就不會被愚弄。
你對人工智能的未來最感興趣的是什么?
GM:去年確實出現了向混合動力汽車發展的趨勢。人們正在探索以前沒有的新事物,這很令人興奮。
DL:我認為這是一個多模型系統,是由許多不同的感知和行為模型組成的系統,用來解決真正復雜的任務。
責任編輯:Ct
評論