衡阳派盒市场营销有限公司

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器偏見(jiàn)來(lái)自人的偏見(jiàn) 通過(guò)進(jìn)行算法審計(jì)并始終保持透明度就可遠(yuǎn)離偏見(jiàn)

iotmag ? 2018-02-08 10:10 ? 次閱讀

人們都曾看過(guò)機(jī)器控制了世界而人類被毀滅的電影。好在這些電影是娛樂(lè)性的,而且人們都認(rèn)為這些場(chǎng)景是不會(huì)發(fā)生的。然而,一個(gè)更應(yīng)該關(guān)注的現(xiàn)實(shí)問(wèn)題是:算法偏見(jiàn)。

算法偏見(jiàn)帶來(lái)的問(wèn)題

所謂“算法偏見(jiàn)”是指在在看似沒(méi)有惡意的程序設(shè)計(jì)中帶著創(chuàng)建者的偏見(jiàn),或者所采用的數(shù)據(jù)是帶有偏見(jiàn)的。結(jié)果當(dāng)然是帶來(lái)了各種問(wèn)題,例如,被曲解的谷歌搜索,合格的候選人被禁止進(jìn)入醫(yī)學(xué)院,聊天機(jī)器人在推特上發(fā)布種族主義和性別歧視信息等。

算法偏見(jiàn)造成的最棘手的問(wèn)題是,從事編程工程師即使主觀上沒(méi)有種族主義、性別歧視、年齡歧視等傾向,也有可能造成偏見(jiàn)。人工智能(AI,Artificial Intelligence)本質(zhì)上就是為了自學(xué)而設(shè)計(jì)的,有時(shí)它的確會(huì)出錯(cuò)。當(dāng)然,人們可以在事后做出調(diào)整,但最好的解決辦法是一開(kāi)始就防止它發(fā)生。那么,怎樣才能讓人工智能遠(yuǎn)離偏見(jiàn)呢?

具有諷刺意味的是人工智能最令人興奮的可能性之一就是能夠搭建一個(gè)沒(méi)有人類偏見(jiàn)的世界。比如當(dāng)涉及到招聘時(shí),一種算法可以讓男性和女性在申請(qǐng)同一份工作時(shí)獲得平等的待遇,或者在警務(wù)工作中防止發(fā)生種族偏見(jiàn)。

不管人們是否意識(shí)到,人類創(chuàng)造的機(jī)器確實(shí)反映了人們?cè)鯓邮强创澜绲模虼艘矔?huì)有類似的刻板印象和世界觀。由于人工智能越來(lái)越深入到生活中,人類必須重視它。

偏見(jiàn)的分類

人工智能面臨的另外一個(gè)挑戰(zhàn)是,偏見(jiàn)不是以一種形式出現(xiàn)的,而是有各種類型的。這包括交互偏見(jiàn)、潛意識(shí)偏見(jiàn)、選擇偏見(jiàn)、數(shù)據(jù)驅(qū)動(dòng)的偏見(jiàn)和確認(rèn)偏見(jiàn)。

“交互偏見(jiàn)”是指用戶由于自己與算法的交互方式而使算法產(chǎn)生的偏見(jiàn)。當(dāng)機(jī)器被設(shè)置向周圍環(huán)境學(xué)習(xí)時(shí),它們不能決定要保留或者丟棄哪些數(shù)據(jù),什么是對(duì)的,什么是錯(cuò)的。相反,它們只能使用提供給它們的數(shù)據(jù)——不論是好的、壞的,還是丑的,并在此基礎(chǔ)上做出決策。前面提到的聊天機(jī)器人Tay便是這類偏見(jiàn)的一個(gè)例子。它是受到一個(gè)網(wǎng)絡(luò)聊天社區(qū)的影響而變得偏種族主義了。

“潛意識(shí)偏見(jiàn)”是指算法錯(cuò)誤地把觀念與種族和性別等因素聯(lián)系起來(lái)。例如,當(dāng)搜索一名醫(yī)生的圖像時(shí),人工智能會(huì)把男性醫(yī)生的圖像呈現(xiàn)給一名女性,或者在搜索護(hù)士時(shí)反過(guò)來(lái)操作。

“選擇偏見(jiàn)”是指用于訓(xùn)練算法的數(shù)據(jù)被傾向性地用于表示一個(gè)群體或者分組,從而使該算法對(duì)這些群體有利,而代價(jià)是犧牲其他群體。以招聘為例,如果人工智能被訓(xùn)練成只識(shí)別男性的簡(jiǎn)歷,那么女性求職者在申請(qǐng)過(guò)程中就很難成功。

“數(shù)據(jù)驅(qū)動(dòng)的偏見(jiàn)”是指用來(lái)訓(xùn)練算法的原始數(shù)據(jù)已經(jīng)存在偏見(jiàn)了。機(jī)器就像孩子一樣:他們不會(huì)質(zhì)疑所給出的數(shù)據(jù),而只是尋找其中的模式。如果數(shù)據(jù)在一開(kāi)始就被曲解,那么其輸出的結(jié)果也將反映出這一點(diǎn)。

最后一類是“確認(rèn)偏見(jiàn)”,這類似于數(shù)據(jù)驅(qū)動(dòng)的偏見(jiàn),偏向于那些先入為主的信息。它影響人們?cè)鯓邮占畔ⅲ约叭藗冊(cè)鯓咏庾x信息。例如,如果自己覺(jué)得8月份出生的人比其他時(shí)候出生的更富有創(chuàng)造性,那就會(huì)偏向于尋找強(qiáng)化這種想法的數(shù)據(jù)。

當(dāng)我們了解到這么多偏見(jiàn)的例子滲入到人工智能系統(tǒng)時(shí),似乎會(huì)引起我們的擔(dān)憂。但重要的是要認(rèn)清事實(shí),記住這個(gè)世界本身就是有偏見(jiàn)的,因此,在某些情況下,人們對(duì)從人工智能中得到的結(jié)果并不奇怪。然而,并不應(yīng)該如此,人們需要一個(gè)對(duì)人工智能算法和系統(tǒng)進(jìn)行測(cè)試和驗(yàn)證的過(guò)程,以便在開(kāi)發(fā)期間和部署之前及早發(fā)現(xiàn)偏見(jiàn)。

人工智能算法及系統(tǒng)的測(cè)試與驗(yàn)證

與人類不同,算法不能撒謊,因此,如果結(jié)果是有偏見(jiàn)的,那一定有原因:和它得到的數(shù)據(jù)有關(guān)。人類可以撒謊去解釋不雇傭某人的原因,但人工智能不能。而采用算法,就有可能知道什么時(shí)候會(huì)出現(xiàn)偏見(jiàn),并對(duì)其進(jìn)行調(diào)整,以便將來(lái)能克服這些問(wèn)題。

人工智能會(huì)學(xué)習(xí),也會(huì)犯錯(cuò)。通常情況下,只有在實(shí)際環(huán)境中使用算法后才能發(fā)現(xiàn)任何內(nèi)在的偏見(jiàn),因?yàn)檫@些偏見(jiàn)在實(shí)踐中被放大了。不應(yīng)把算法看成是一種威脅,而是解決任何偏見(jiàn)問(wèn)題的好機(jī)會(huì),并能在必要的時(shí)候加以糾正。

可以通過(guò)開(kāi)發(fā)系統(tǒng)來(lái)發(fā)現(xiàn)有偏見(jiàn)的決策,并及時(shí)采取措施。與人類相比,人工智能特別適合采用貝葉斯(Bayesian)方法來(lái)確定某種假設(shè)的概率,從而消除所有人類偏見(jiàn)的可能性。這比較復(fù)雜,但是可行的,特別是考慮到人工智能的重要性(在以后幾年里只會(huì)越來(lái)越重要)。

隨著人工智能系統(tǒng)的建立和部署,非常重要的一點(diǎn)是必須理解它們是怎樣工作的,只有這樣才能通過(guò)設(shè)計(jì)讓它們具有意識(shí),避免將來(lái)出現(xiàn)偏見(jiàn)問(wèn)題。不要忘記,盡管人工智能發(fā)展非常迅速,但仍處于起步階段,還有很多值得學(xué)習(xí)和改進(jìn)的地方。這種調(diào)整會(huì)持續(xù)一段時(shí)間,在此期間,人工智能會(huì)變得更聰明,將有越來(lái)越多的方法來(lái)克服偏見(jiàn)等問(wèn)題。

技術(shù)行業(yè)總是在質(zhì)疑機(jī)器是怎樣工作的,為什么這樣工作。雖然大部分人工智能是在黑盒中運(yùn)作的,決策過(guò)程是隱藏的,但人工智能的透明度是建立信任和避免誤解的關(guān)鍵。

目前有很多研究都在進(jìn)行幫助鑒別偏見(jiàn)的產(chǎn)生,例如Fraunhofer Heinrich Hertz研究所開(kāi)展的工作。他們正在研究識(shí)別不同類型的偏見(jiàn),例如前面提到的偏見(jiàn),還有一些更“低級(jí)”的偏見(jiàn),以及人工智能訓(xùn)練和發(fā)展過(guò)程中可能出現(xiàn)的問(wèn)題。

另外還需要考慮的是無(wú)監(jiān)督訓(xùn)練。目前大多數(shù)人工智能模型是通過(guò)有監(jiān)督訓(xùn)練生成的:采集的是明顯帶有人類選擇的標(biāo)簽數(shù)據(jù)。而對(duì)于無(wú)監(jiān)督訓(xùn)練,使用不具任何標(biāo)簽的數(shù)據(jù),算法必須要通過(guò)自己對(duì)數(shù)據(jù)進(jìn)行分類、識(shí)別和匯集。雖然這種方法通常比有監(jiān)督學(xué)習(xí)慢很多數(shù)量級(jí),但這種方法限制了人的參與,因此,能夠消除任何有意識(shí)或者無(wú)意識(shí)的人為偏見(jiàn),從而避免對(duì)數(shù)據(jù)產(chǎn)生影響。

在底層也有很多事情可以改進(jìn)。在開(kāi)發(fā)新產(chǎn)品、網(wǎng)站或者功能時(shí),技術(shù)公司需要各方面的人員。多樣性會(huì)給算法提供各種各樣的數(shù)據(jù),而這些數(shù)據(jù)也是有偏見(jiàn)的。如果能有一些人去分析輸出結(jié)果,那么發(fā)現(xiàn)偏見(jiàn)的可能性會(huì)更高。

此外,還可以發(fā)揮算法審計(jì)的作用。2016年,卡耐基梅隆研究小組在網(wǎng)絡(luò)招聘廣告中發(fā)現(xiàn)了算法偏見(jiàn)。當(dāng)他們列出了在網(wǎng)上尋找工作的人員后,谷歌廣告顯示,男性在高收入工作中所占比例是女性的近六倍。該小組的結(jié)論是,進(jìn)行內(nèi)部審計(jì)將有助于減少這類偏見(jiàn)。

結(jié)論

總之,機(jī)器偏見(jiàn)來(lái)自人的偏見(jiàn)。人工智能的偏見(jiàn)有多種方式的表現(xiàn),但實(shí)際上,它只有一個(gè)來(lái)源:人類自己。

處理這一問(wèn)題的關(guān)鍵在于技術(shù)公司、工程師和開(kāi)發(fā)人員,他們都應(yīng)該采取有效的措施來(lái)防止無(wú)意中創(chuàng)建一種帶有偏見(jiàn)的算法。通過(guò)進(jìn)行算法審計(jì)并始終保持透明度,就有信心讓人工智能算法遠(yuǎn)離偏見(jiàn)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4630

    瀏覽量

    93364
  • 人工智能
    +關(guān)注

    關(guān)注

    1796

    文章

    47683

    瀏覽量

    240313

原文標(biāo)題:讓人工智能遠(yuǎn)離偏見(jiàn)

文章出處:【微信號(hào):iotmag,微信公眾號(hào):iotmag】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    如何實(shí)現(xiàn)前面板由透明度0到隱藏透明度100的變化

    如何實(shí)現(xiàn)前面板由實(shí)體 即透明度0到隱藏透明度100 這一過(guò)程的緩慢變化,有動(dòng)畫(huà)效果
    發(fā)表于 12-17 10:21

    本應(yīng)公平公正的 AI,卻從數(shù)據(jù)中學(xué)會(huì)了人類的偏見(jiàn)

    。但是透明性是例外,不是規(guī)則。商用應(yīng)用(我們用來(lái)找工作、評(píng)信用和貸款等服務(wù))使用的絕大部分AI系統(tǒng)都是專有的,其算法和訓(xùn)練數(shù)據(jù)是公眾看不到的。所以個(gè)人要想質(zhì)詢機(jī)器的決定或者想了解用帶人類偏見(jiàn)
    發(fā)表于 06-02 12:51

    人工智能遭遇的偏見(jiàn) 算法偏見(jiàn)帶來(lái)的問(wèn)題

    偏見(jiàn)是人工智能面臨一個(gè)挑戰(zhàn),主要是來(lái)自算法偏見(jiàn),當(dāng)然偏見(jiàn)并不止這些。與人類不同,算法不能撒謊,那
    發(fā)表于 02-06 14:04 ?1.2w次閱讀

    AI陷入沼澤,算法是潛在偏見(jiàn)的最后解決方案?

    人工智能本來(lái)并不存在偏見(jiàn),它不會(huì)因?yàn)闊o(wú)法通過(guò)邏輯來(lái)解釋的理由而“想”某些東西是真的或假的。不幸的是,從創(chuàng)建算法到解釋數(shù)據(jù),機(jī)器學(xué)習(xí)中存在著人類的偏見(jiàn)
    發(fā)表于 04-23 15:56 ?990次閱讀

    谷歌說(shuō)機(jī)器學(xué)習(xí)還能產(chǎn)生“偏見(jiàn)”?你有偏見(jiàn)嗎?

    機(jī)器學(xué)習(xí)還能產(chǎn)生“偏見(jiàn)”?機(jī)器學(xué)習(xí)也會(huì)對(duì)數(shù)據(jù)產(chǎn)生偏見(jiàn),從而導(dǎo)致錯(cuò)誤的預(yù)測(cè)。我們?cè)撊绾谓鉀Q這一問(wèn)題? Google的新論文或許會(huì)揭曉答案。機(jī)器
    的頭像 發(fā)表于 05-14 18:20 ?3433次閱讀
    谷歌說(shuō)<b class='flag-5'>機(jī)器</b>學(xué)習(xí)還能產(chǎn)生“<b class='flag-5'>偏見(jiàn)</b>”?你有<b class='flag-5'>偏見(jiàn)</b>嗎?

    當(dāng)你被AI歧視 如何解決這種偏見(jiàn)

    AI的歧視問(wèn)題也就不是一個(gè)簡(jiǎn)單的算法問(wèn)題了。今天我們就再聊一聊AI的偏見(jiàn)問(wèn)題,以及面對(duì)它,我們究竟能做些什么。
    發(fā)表于 06-11 09:16 ?1986次閱讀

    機(jī)器解釋自己:避免讓偏見(jiàn)影響機(jī)器學(xué)習(xí)系統(tǒng)

    在我們的生活中,許多重要決策都是由某種系統(tǒng)做出的,很多系統(tǒng)都存在明顯的偏見(jiàn),無(wú)論這系統(tǒng)是機(jī)器還是二者的組合。機(jī)器學(xué)習(xí)在決策制度中的作用越來(lái)越大,這為我們提供了一個(gè)建立更少
    發(fā)表于 06-23 12:34 ?727次閱讀

    IBM加速人工智能商用 IBM推出云工具檢測(cè)AI偏見(jiàn)

    IBM推出了一項(xiàng)軟件服務(wù),可以掃描人工智能系統(tǒng)的工作情況,以便檢測(cè)偏見(jiàn)并為正在做出的自動(dòng)決策提供解釋,一定程度的透明度可能是合規(guī)目的所必需的,而不僅僅是公司自己的盡職調(diào)查。 新的信任和透明度系統(tǒng)運(yùn)行
    的頭像 發(fā)表于 09-22 06:33 ?3207次閱讀

    如何讓人工智能擺脫算法偏見(jiàn)

    人們都曾看過(guò)電影里機(jī)器控制了世界而人類被毀滅的場(chǎng)景。好在這些電影只是娛樂(lè)性的,現(xiàn)實(shí)世界是不會(huì)發(fā)生的。然而,一個(gè)更應(yīng)該關(guān)注的問(wèn)題是:算法偏見(jiàn)
    的頭像 發(fā)表于 11-15 14:57 ?3878次閱讀

    人工智能學(xué)習(xí)人類知識(shí) 但同時(shí)也能吸收人類的偏見(jiàn)

    人們最初確實(shí)天真地以為,算法能比人類更能避免偏見(jiàn)。人工智能學(xué)習(xí)人類知識(shí),同時(shí)也吸收人類偏見(jiàn)。這種擔(dān)憂由來(lái)已久。但谷歌的一項(xiàng)新發(fā)明極大推進(jìn)了人工智能從文本材料中學(xué)習(xí)的速度,也使解決機(jī)器
    發(fā)表于 11-26 17:19 ?822次閱讀

    你對(duì)人工智能的偏見(jiàn)擔(dān)憂嗎?

    隨著人工智能繼續(xù)進(jìn)軍企業(yè),許多IT專業(yè)人士開(kāi)始對(duì)其使用的系統(tǒng)中可能存在的AI偏見(jiàn)表示擔(dān)憂。一份來(lái)自DataRobot的最新報(bào)告發(fā)現(xiàn),美國(guó)和英國(guó)近一半的人工智能專業(yè)人士“非常”擔(dān)心人工智能的偏見(jiàn)
    的頭像 發(fā)表于 01-20 17:35 ?1378次閱讀

    多樣化的團(tuán)隊(duì)可以幫助減少偏見(jiàn)算法

    根據(jù)伯恩霍爾茨的說(shuō)法,所有數(shù)據(jù)都是有偏見(jiàn)的,因?yàn)槭侨藗冊(cè)谑占瘮?shù)據(jù)。她強(qiáng)調(diào)說(shuō):“而且我們正在將偏見(jiàn)建立到數(shù)據(jù)科學(xué)中,然后將這些工具導(dǎo)出到偏見(jiàn)系統(tǒng)中。” “你猜怎么著?問(wèn)題變得越來(lái)越嚴(yán)重。因此,讓我們停止這樣做。”
    的頭像 發(fā)表于 04-09 14:44 ?1816次閱讀

    算法和人工智能具有天生的偏見(jiàn)嗎?

    諸如Facebook(我的前雇主),Google和Twitter之類的公司因各種帶有偏見(jiàn)算法而反復(fù)受到攻擊。為了應(yīng)對(duì)這些合理的恐懼,他們的領(lǐng)導(dǎo)發(fā)誓要進(jìn)行內(nèi)部
    的頭像 發(fā)表于 04-11 10:19 ?1696次閱讀

    如何消除對(duì)AI的偏見(jiàn)

    親自處理AI偏見(jiàn)的人表示自己的偏見(jiàn)已減少。例如,愛(ài)立信使用情景規(guī)劃方法來(lái)挑戰(zhàn)整個(gè)組織的戰(zhàn)略思維,并在戰(zhàn)略制定過(guò)程的多個(gè)階段測(cè)試和篩選偏見(jiàn)(Gartner 在“研發(fā)決策的常見(jiàn)認(rèn)知偏見(jiàn)”中
    發(fā)表于 08-12 16:28 ?1040次閱讀

    人工智能和機(jī)器學(xué)習(xí)中暗含的算法偏見(jiàn)

    在我們的世界里,算法無(wú)處不在,偏見(jiàn)也是一樣。從社會(huì)媒體新聞的提供到流式媒體服務(wù)的推薦到線上購(gòu)物,計(jì)算機(jī)算法,尤其是機(jī)器學(xué)習(xí)算法,已經(jīng)滲透到我
    的頭像 發(fā)表于 12-25 19:12 ?854次閱讀
    万博娱乐城| 久盛娱乐城| 豪博百家乐官网现金网| 百家乐官网的战术| 有关百家乐玩家论坛| 大发888作弊| 百家乐韩泰阁| 香港六合彩管家婆| 百家乐官网最大的赌局| 百家乐9点直赢| 亿酷棋牌世界| 百家乐官网塑料扑克牌盒| 百家乐有人赢过吗| 大发888娱乐城游戏下载| 百家乐官网连开6把小| 百家乐赢的方法| 大发888博彩官方下载| 大发888开户即送58| 百家乐官网有赢钱公式吗| 太阳会百家乐现金网| 娱乐城注册送钱| 百家乐官网园云鼎赌场娱乐网规则| 百家乐官网77scs官网| 大发888信用| 澳门百家乐官网有赢钱的吗| 百家乐赌场娱乐城大全| 玛曲县| 百家乐下注时机| 678百家乐博彩娱乐网| 百家乐官网美女真人| 百家乐视频聊天游戏| 大赢家博彩| 做生意风水方向怎么看| bet365客服电话| 博E百百家乐官网的玩法技巧和规则 | 罗甸县| 澳门百家乐心得玩博| 澳门金莎娱乐城| 永利博百家乐现金网| 百家乐官网出租平台| 百家乐三国|