2017-03-16 14:25:22分類:行業資訊4978
【 3月16日消息】當前,行內每家公司都期待著在人工智能上有大發展。從谷歌到微軟,再到蘋果,再到三星,人工智能幾乎是智能手機領域的熱門詞匯。
但隨著這些系統變得更強大,功能更多,有必要確保它們不會被利用來針對特定人群。在美國德克薩斯州的西南偏南音樂節(SXSW)上,微軟研究院的凱特克勞福德(Kate Crawford )向我們展示了她在人工智能領域的觀點,認為這些龐大的數據系統在沒有任何責任的情況會出現片面的執行。
衛報報道了這位研究人員對人工智能的看法,暗示了人工智能系統的廣泛使用會引發極端主義。然而,并不是這些系統的使用本身,而是說人類的偏見會被以編碼的方式融入其中,從而導致這些功能被錯誤之人所濫用。
該研究的發起人是一個專注于人工智能社會影響的研究社區。該研究人員列舉了一個簡單的例子,此前有相關的人工智能研究稱可以根據某人的面部特征來預測犯罪行為。他們是怎么做到的?該系統通過照片來分析罪犯和非罪犯的面部特征,以預測是否會有犯罪行為。相關研究人員聲稱該系統沒有任何偏見。
Crawford說:“一貫而言,當機器學習系統通過人為數據進行訓練時,我們通常認為機器學習系統沒有偏見。”“但我們的偏見是建立在樣本數據的基礎之上的。”
在西南偏南音樂節上,她解釋了這一觀點。克勞福德還暗示,社交媒體網站是如何變成開放注冊的。她指出,來自劍橋大學的研究可以根據用戶在Facebook上的喜好來預測其宗教信仰。研究人員在識別基督徒和穆斯林等用戶信仰中,正確率達到了82%,同時在篩選民主黨人和共和黨人時也能達到同樣效果。
這項研究并不是新研究,而是在2013年進行的。自此以后,人工智能就取得了巨大的進步。