狠狠躁日日躁夜夜躁A片无码,中文字幕在线亚洲二区,最近更新中文字幕在线,四虎影视国产精品亚洲精品,男人扒开添女人下部免费视频

訂閱
糾錯
加入自媒體

AI 融入 BI 可期,“偏見”如影隨形怎破?

2020-05-14 09:14
IT168
關注

“偏見”:AI發(fā)現人為造成的不公平

在筆者翻譯的一篇文章中指出招聘、協(xié)作、銷售工具中的AI偏見無處不在。偏見是AI的致命弱點。而DataRobot的研究發(fā)現,在美國和英國,將近一半(42%)的AI專業(yè)人士“非!被颉皹O其”擔心AI偏見。AI可以在最意想不到的地方出現,沒有系統(tǒng)可以免疫。

根據領英(LinkedIn)的研究,43%的招聘人員和招聘經理表示,在招聘工具中引入AI的一個關鍵好處是它有消除人類偏見的潛力。然而,承諾將偏見最小化的人工智能工具,也可能在招聘過程中注入偏見。以谷歌的招聘廣告算法為例,更多向男性顯示高薪職位。

的確在招聘和銷售等領域容易產生偏見,但是偏見是AI帶來的嗎?

“AI的偏見是數據原生的偏見!比~松林強調,假如數據里面多數男性的工資本身即高出女性10%,AI在讀取數據后,便會提供一個男性薪資高出10%的建議。

“這種偏見并不是說機器造成的,而是機器告訴你,世界上存在不平等的問題。這種不公平是過去長久以來人造成的。恰恰是AI把這個問題揭示出來,以前人們可能沒有意識到這個問題,AI把這個問題有效地揭示出來之后,人在做決策的時候,恰恰可以有意糾正它的不公平性!备咴讫堖M一步指出偏見本身就是數據所潛在的客觀規(guī)律。

所以Tableau強調AI只是輔助公司做決策,可以提一些意見,對公司而言人才是最重要的。

Tableau 數據科學家兼主任軟件工程師Rachel Kalmar指出:“AI 項目中最困難的環(huán)節(jié)之一就是確定您要提出的問題!眳f(xié)作式方法可以揭示業(yè)務決策的哪些環(huán)節(jié)適合使用AI,哪些環(huán)節(jié)需要人工干預。假設要開一家新的零售商店,但以前從未開過這樣的商店; AI 的系統(tǒng)可以根據該地區(qū)的人流或人口統(tǒng)計學特征來提供建議,幫助預測商店的預期銷售額。但仍然需要領域專家的幫助,這些人可以在位置可見性、競爭對手信息或停車位情況等方面填補空缺。要讓機器學習建議實現其價值,決策必須由人來制定。正如 Tableau 的AI 主管產品經理 Richard Tibbetts 解釋的那樣:“AI 的出現并不意味著算法會告訴您如何做生意。真正幫助組織采用和信任AI 的是領域專家。”

由大數據、云計算、AI等技術推動著數字化世界的構建,而數字化世界所出現的諸多問題同樣是現實社會的映射,或許有數據的地方就免不了存在偏見和不公,消除偏見是一個長久的命題。我們仍然可以做一些力所能及的事情,比如加強監(jiān)督,讓多樣化的團隊構建軟件工具,仔細檢查數據健康度,加強內外部審計等。說到底,人與AI之間如何更好的協(xié)作取長補短才能有效消除更多偏見需要更多的探索。


<上一頁  1  2  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號