不久前兩個世界頂級人工智能實驗室Google Brain和DeepMind推出了一個可以閱讀唇語的系統(tǒng)。這個由Alphabet旗下的研究人設(shè)計的系統(tǒng)可以在很多時候超過專業(yè)的唇語解讀者。在對研究人員收集的視頻進行唇語解讀時,該系統(tǒng)的錯誤率僅為40%,而專業(yè)人員為86%。
在一篇解釋該技術(shù)的論文中,研究人員將其描述為一種幫助人們處理語言障礙的方法。他們認為,在理論上,該系統(tǒng)可以讓人們通過蠕動嘴唇進行交流。
但研究人員沒有討論另一種可能性——更好的監(jiān)控。唇讀系統(tǒng)是政策制定者所稱的“雙刃劍技術(shù)”,它反映了從頂級人工智能實驗室中出現(xiàn)的許多新技術(shù)。自動生成視頻的系統(tǒng)可以改善電影創(chuàng)作,但同時也會被用于假新聞的制作。自拍式無人機可以在足球比賽中捕捉視頻,也可以在戰(zhàn)場上殺死敵人。
現(xiàn)在,46名學者和其他研究人員組成了一個團隊,稱為計算機學術(shù)的未來(the Future of Computing Academy),它正敦促研究界重新思考分享新技術(shù)的方式。他們認為,在發(fā)表新的研究成果時,科學家們應(yīng)該解釋它如何以消極和積極的方式影響社會的。
美國西北大學教授布倫·特赫克特認為:“計算機行業(yè)可能會變得像石油和煙草行業(yè)一樣,受到老板和資本的驅(qū)使而進行技術(shù)研究,而非考慮其真實的社會影響;不過我們也可以選擇成為開始更廣泛思考的一代人。”
在發(fā)布新成果時,研究人員很少討論負面影響。這部分是由于他們希望將其工作放在積極的光環(huán)之下,另一部分是因為他們更關(guān)心開發(fā)技術(shù)而非使用技術(shù)。
正如許多領(lǐng)先的人工智能研究人員進入像谷歌大腦和DeepMind這樣的企業(yè)實驗室時,在高額薪資和股票期權(quán)的利益下他們必須保證雇主的利益。上市公司,特別是像谷歌這樣的消費巨頭,很少討論他們工作的潛在缺點。
赫克特先生和他的同事們正呼吁同行評審期刊拒絕那些沒有對技術(shù)潛在的缺點進行討論的論文。即便處在目前技術(shù)行業(yè)進行罕見的自我反思的時刻,該倡議也可能很難被人接受。許多研究人員擔心審稿人會因為討論技術(shù)缺點而拒絕論文,因而他們對是否接受該倡議猶豫不決。
但還是有越來越多的研究人員試圖揭示人工智能的潛在危害。今年2月,來自美國和英國的一群著名研究人員和政策制定者發(fā)表了一篇專門論述惡意使用人工智能的文章。還有的人正在從另一個角度來構(gòu)建技術(shù),展示人工智能可能會出錯的方面。而且隨著更危險的技術(shù)的出現(xiàn),人工智能界可能不得不重新考慮其開放研究的承諾。有人認為,有些事情最好是關(guān)起門來。
麻省理工學院媒體實驗室的研究員馬特·格羅最近建立了一個名為暗色天使(Deep Angel)的系統(tǒng),它可以從照片中刪除人和物體。這是一個計算機科學實驗兼作一個哲學問題,目的在于,在假新聞時代激發(fā)圍繞人工智能角色的對話。格羅先生說:“我們非常了解假新聞的影響力,現(xiàn)在的問題是,我們?nèi)绾翁幚磉@個問題?”
如果機器可以生成可信的照片和視頻,我們可能不得不改變我們查看互聯(lián)網(wǎng)上內(nèi)容的方式。
谷歌的唇讀系統(tǒng)可以幫助監(jiān)控嗎?也許現(xiàn)在還不能實現(xiàn)。在“訓練”其系統(tǒng)的同時,研究人員使用了正面拍攝特寫鏡頭的視頻。牛津大學的研究員Joon Son Chung表示,來自街道頭頂攝像機的圖像“還達不到可以進行唇讀的標準”。在一份聲明中,谷歌發(fā)言人先是提出與上面差不多的觀點,然后才指出該公司的“人工智能原則”,聲稱不會設(shè)計或共享“違反國際公約”的可用于監(jiān)視的技術(shù)。
但攝像機變得越來越小,價格也越來越便宜,研究人員對人工智能的不斷改進驅(qū)動了這些類似于唇讀系統(tǒng)技術(shù)的產(chǎn)生。谷歌的論文只是近期諸多進展中的一個。中國的研究人員剛剛推出了一個旨在利用類似技術(shù)在“野外”閱讀唇語的項目,它能適應(yīng)不同的光照條件和圖像質(zhì)量。倫敦帝國理工學院的研究員Stavros Petridis承認,即便使用智能手機的相機,這種技術(shù)最終也可用于監(jiān)控。他稱:“這是不可避免的。今天,無論你在構(gòu)建什么,都既可能被善用,也可能被誤用。”
AI技術(shù)和過去的所有技術(shù)革命一樣,這種全新的強大的力量在為社會注入活力的同時,也會帶來各種社會問題。作為AI浪潮核心的知識分子和工程師們,應(yīng)該也必須為自己創(chuàng)造的知識體系擔負起應(yīng)有的責任,力求造福世界,也應(yīng)極力避免技術(shù)的濫用和誤用帶來的損害。同時企業(yè)在追求利潤的同時,也應(yīng)該慎重地考量技術(shù)和使用的方式所帶來的影響,保證風險和技術(shù)的使用是合理可控的,這也是技術(shù)企業(yè)承擔社會責任的一部分。
-
AI
+關(guān)注
關(guān)注
87文章
31536瀏覽量
270355 -
人工智能
+關(guān)注
關(guān)注
1796文章
47683瀏覽量
240315 -
ai技術(shù)
+關(guān)注
關(guān)注
1文章
1290瀏覽量
24461
原文標題:如何規(guī)避AI帶來的技術(shù)風險?研究人員正在做這些努力...
文章出處:【微信號:thejiangmen,微信公眾號:將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論