人工智能系統僅與我們放入其中的數據一樣好。錯誤的數據可能包含隱含的種族,性別或意識形態偏見。許多AI系統將繼續使用不良數據進行訓練,這將成為一個持續存在的問題。但是我們相信可以克服偏見,并且能夠解決偏見的AI系統將是最成功的。
對于人類和機器而言,至關重要的原則是避免偏見并因此防止歧視。AI系統中的偏差主要發生在數據或算法模型中。在開發我們可以信賴的AI系統的過程中,至關重要的是使用無偏數據開發和訓練這些系統,并開發易于解釋的算法。
隨著人類和AI越來越多地共同做出決策,研究人員正在研究確保人類偏見不影響用于告知這些決策的數據或算法的方法。
麻省理工學院-IBM Watson AI實驗室致力于共同繁榮的努力,借鑒了AI和計算認知建模的最新進展,例如道德的契約方法,以描述人們在決策中使用的原則并確定人類的思維方式。目標是制造在決策過程中應用某些人類價值觀和原則的機器。IBM科學家還設計了一個獨立的偏差評估系統,可以確定AI系統的公平性。
識別和緩解AI系統中的偏見對于在人與學習機器之間建立信任至關重要。當AI系統發現,理解并指出決策中的人為矛盾時,它們還可以揭示我們偏partial,狹och和認知偏見的方式,從而使我們采取更加公正或平等的觀點。在認識我們的偏見和教導我們關于共同價值觀的過程中,我們可能會比AI進步更多。我們可能會改善自己。
-
算法
+關注
關注
23文章
4630瀏覽量
93360 -
AI
+關注
關注
87文章
31536瀏覽量
270343 -
人工智能系統
+關注
關注
0文章
38瀏覽量
10622
發布評論請先 登錄
相關推薦
評論