關于姚期智在2020年浦江創新論壇的演講,迄今為止只見到頭條推送的兩篇報道,即“圖靈獎唯一華人得主PPT:人工智能四大挑戰,影響自動駕駛”(簡稱“四大挑戰”)與“中國科學院院士姚期智:人工智能存在三大技術瓶頸”(簡稱“三大瓶頸”)。“四大挑戰”一文中有4頁PPT稿。PPT稿上,姚期智只提了“魯棒性”與“可解釋性”兩大技術瓶頸,以及未來超級人工智能的終極挑戰。“三大瓶頸”一文中將脆弱性、機器學習算法缺乏可解釋性、人工智能的對抗性較弱列為三大瓶頸。上述兩篇報道顯然出自專業人士的現場報道,有助于對姚期智演講的深入理解。
關于魯棒性問題,可以解釋成脆弱性、非安全性、非可靠性問題。人工智能系統設計歷來重功能性設計,輕可靠性、安全性設計;或先功能性,后安全性、可靠性。在早期產品中這一現象尤為嚴重。在自動駕馭汽車領域,最終制約因素是安全性、可靠性問題,未來,無人駕駛汽車研發會因可靠性、安全性問題,成為“永在途中”的課題。
關于可解釋性,可以理解成廣義的開源性。可解釋性就是如何讓人們深入了解人工智能系統。以汽車為例,在工業革命時代,汽車駕駛者們對汽車原理、結構一目了然;現在,汽車對于駕駛員而言只是一個黑盒子,只有方向盤、油門、剎車這樣一個應用界面。相比而言,工業革命時代的汽車有高度的可解釋性,人工智能的新興汽車無可解釋性。同樣,手機、數碼相機、電視機相較于電話機、照相機、電子管電視機而言,無可解釋性,對所有使用者都是黑盒子,無人去拆解、修理,去了解其內部結構,這是一種十分現實、十分先進的人工智能產品的傻瓜化應用模式,它將知識創新與創新知識應用徹底分離。然而,對于人工智能創新領域,不可解釋性是一個技術創新的巨大障礙。硬件的透明、軟件的開源,一定程度上解決了技術創新的可解釋性障礙。目前,可解釋性障礙突出表現在算法領域(人工智能三大基礎之一),它阻礙算法的推廣、評價與市場化,算法的碎片化現象會嚴重阻礙人工智能的發展。
關于第三個對抗性瓶頸,文中截取的PPT講稿中,未能見到列舉的這個瓶頸,也許可以歸納到魯捧性中。
姚期智是一個極有遠見、對人工智能有獨到見解的大家。早年在清華大學的一次演講中,他提出了人工智能時代的“大科學”概念。它表明:人工智能時代,已進入到諸多強勢科學的交叉融合發展時代,各個強勢學科都會以自己的視角(自以為是地)詮釋人工智能。此次演中,姚期智提到超人工智能,并提出對超人工智能的三點期望。過去人們一直把人工智能分成弱人工智能與強人工智能。弱人工智能始于半導體微處理器誕生,是對人類智力的人工仿真;強人工智能始于大腦工程,是人工智能的智力創新時代。由于人工智能超高速度的瘋狂發展,人們無法預見人工智能的未來,便有了后強人工智能的超人工智能概念。姚期智認為超人工智能具有很大的不確定性,人類會面對諸多種潛在威脅。對于超人工智能的未來,姚期智給出了未來制約智能機器的三個原則:一是利他,即人的利益凌駕于機器;二是謙卑,即機器不能自以為是;三是盡心,即機器能學懂人的偏好。每個原則都要用嚴格的算法來實現,這樣就能有效駕馭人工智能。這是一個對未知時代的理性期望,希望人工智能最終能走向理性化道路。
延伸閱讀文中提到的兩篇報道:
圖靈獎唯一華人得主PPT:人工智能四大挑戰,影響自動駕駛
無論當前自動駕駛,或是今后無人駕駛,都離不開以人工智能為基礎的算法、算力和數據支撐,最近也一直在學習相關的知識。
全球人工智能頂級大咖,也是圖靈獎唯一華人獲得者姚期智,在2020浦江創新論壇上,從前瞻和頂層的角度,發表了“人工智能面對的挑戰”,個人覺得很有啟發,這里與讀者進行分享。
“魯棒性”和“可解釋性”是當前研究熱點
魯棒性(Robustness),這也是汽車里很流行的詞匯,系統受到不正常干擾時,還能保證功能正常運作。
當前機器學習十分脆弱和不穩定,將一只小豬的照片加入些許“干擾”,就很有可能被系統識別為飛機。
“小豬變飛機”這種漏洞,會給人工智能應用帶來安全隱患。例如自動駕駛汽車在通過路口時,交通信號燈指示“停止”,但只要稍微被干擾和攻擊,系統很有可能識別為“通行”,會給自動駕駛帶來嚴重安全隱患。
機器學習算法缺乏可解釋性,是人工智能的“黑盒子”挑戰。
基于機器學習算法開發的房地產估價系統,通過學習各地房地產價格大數據,構建了價格模型,能自動評估房地產價格。
但這個價格無法用很好的邏輯去解釋,估價沒有完整的依據,賣房人心中會產生懷疑,這套系統會不會“故意”低估了這套房產價值,從而讓價格有利于買房者。
這樣的漏洞會導致人工智能在大規模應用時,特別是涉及到安全問題,如自動駕駛時,人們會有所顧慮。
以上兩個挑戰和例子是當前人工智能研究的熱點。
“強化學習”近幾年產生驚人效果
強化學習,在未來在三到五年內,卻是很有可能在應用上產生驚人的效果,是最有可能被突破的方向。
無人機群可輕松完成燈光秀、農林作業等任務,但這些任務都是人類與自然界的對抗,自然界不是非常樂意地要與人類進行對抗,這并不是一個惡意的對抗,是很容易解決的。
但如果是人和人、單位和單位進行較量,這個時候,要找到一個最優策略的空間就會變得無窮大,傳統計算機里面從數學角度嚴格來解決問題就行不通了。
而強化學習可以解決這個問題,是目前人工智能發展最迅速的方向,和普通的圖像識別提升1%的精度相比,這是“0和1”的較量,很有前途。
“多方安全計算”解決隱私問題
關于人工智能的隱私保護,1982年姚期智提出了“百萬富翁”的問題:兩個百萬富翁街頭邂逅,他們都想炫一下富,比比誰更有錢,但是出于隱私,都不想讓對方知道自己到底擁有多少財富,如何在不借助第三方的情況下,讓他們知道他們之間誰更有錢?
在這個經典問題之下,誕生了“多方安全計算”(MultipartyComputation, MPC)這門密碼學分支。
通過MPC,多個數據庫可以聯手做計算,卻又不透露各自的數據,最終實現數據所有權和使用權的分離。
“超級人工智能”終極挑戰
人臉識別等僅適用于特定領域,通用的超級人工智能何時會到來?這存在很大的不確定性。
超級人工智能必須可控而有益,譬如原子能和基金編輯。同時需要具備“利他的、謙卑的、盡心的”三個原則。
也就是,人的利益應凌駕于機器利益,機器不能自以為是,而且要學懂人的偏好。
期望以上分享,能讓讀者對人工智能趨勢(自動駕駛)有所把控。
中國科學院院士姚期智:人工智能存在三大技術瓶頸
昨天舉行的2020浦江創新論壇全體大會上,圖靈獎獲得者、中國科學院院士姚期智做了《人工智能面對的一些挑戰》主題演講。在他看來,人工智能有三大技術瓶頸亟待突破,需要科學家“從0到1”的原創研究。
作為現代密碼學的奠基人,姚期智創立的上海期智研究院今年初成立,目前已匯聚4位兩院院士、20多位科學家和多所高校的青年人才。研究院瞄準人工智能、現代密碼學、高性能計算系統、量子計算及量子人工智能、物理器件與計算、生物智能6個方向開展前沿研究。
在姚期智看來,脆弱性是人工智能面臨的第一大技術瓶頸。人眼識別十分穩定,一個圖像如有微小改變,人仍能一眼看出它是什么,而人工智能在圖像識別上卻是能力不足,比如將一只小豬的照片加入一些圖像“雜音”,機器視覺系統可能會把它識別為飛機。“小豬變飛機”這種漏洞會給人工智能應用帶來安全隱患。
第二大技術瓶頸是機器學習算法缺乏可解釋性,很多算法處于“黑盒子”狀態。如一個科研團隊開發了一個房地產估價系統,系統通過算法學習了各地房地產價格大數據,從而能自動評估房地產價格。然而,這套算法像黑盒子一樣,很難給出估價的完整依據。這在商業應用上是短板。算法的可解釋性問題亟待科研突破。
第三大技術瓶頸是人工智能的對抗性較弱。如今,一個無人機群可輕松完成燈光秀、農林作業等任務,但要看到,這些任務都是在自然環境下完成,如果是處于高對抗的人為環境中呢?比如在電子競技和軍事戰斗中,無人機群的協同作戰能力就會受到很大考驗,要在對抗中勝出,需要計算機科學、數學等領域的科學家進行深入的強化學習、博弈論研究,讓無人機群能在高對抗環境中自主找到最優策略。“這是一個很重要的科研方向。”
未來是否會產生“超級人工智能”?姚期智說,這存在很大的不確定性。但應對這種潛在威脅,他給出了制約智能機器的3個原則:一是利他,即人的利益凌駕于機器;二是謙卑,即機器不能自以為是;三是盡心,即機器能學懂人的偏好。“每個原則都要用嚴格的算法來實現,這樣就能有效駕馭人工智能。”
責任編輯:haq
-
人工智能
+關注
關注
1796文章
47681瀏覽量
240298 -
機器學習
+關注
關注
66文章
8439瀏覽量
133087 -
自動駕駛
+關注
關注
785文章
13932瀏覽量
167009
發布評論請先 登錄
相關推薦
評論