美國五大科技巨頭語音識別系統歧視黑人?網友給出新視角
近年來,隨著人工智能概念的走紅和落地,全球掀起了一股智能化風潮,為生物識別、機器視覺等產業(yè)的發(fā)展帶來了巨大利好。目前,以語音識別、人臉識別為代表的生物識別技術在世界各國得到了廣泛應用,并加速實現規(guī);逃。
其中,語音識別技術的發(fā)展與應用正越發(fā)成熟,智能音箱、聊天機器人、客服機器人等產品獲得了消費者的普遍認可。然而,近日斯坦福大學一項研究成果表明,亞馬遜、蘋果、谷歌、IBM和微軟這五大科技巨頭的語音識別系統可能存在種族差異。
該研究顯示,美國五大科技公司的語音識別系統在對白人用戶和黑人用戶的識別中,白人群體的錯誤率要比黑人群體少得多。此外,有高達20%的黑人用戶音頻片段被系統判定為不可讀。據此,斯坦福大學相關研究人員認為,這些公司的語音識別系統顯然存在歧視性。那么,真相是什么呢?
開發(fā)者因素影響
一般來說,借助人工智能技術,語音識別系統等智能化產品都具備自我學習能力,可以根據開發(fā)者提供的數據資源進行自我訓練,從而不斷成長、提高系統性能與服務水平,增強與人類用戶的溝通、理解能力。
但是在這一過程中,開發(fā)者提供的數據資源成為了關鍵。如果開發(fā)者本身存在種族偏見,選擇的數據資源也非常具有指向性,那么必然造成語音識別系統在初期學習中,就會養(yǎng)成類似種族偏見的“習慣”。
斯坦福大學的研究也表明,上述公司的語音識別系統在訓練時,所使用的數據就顯得有些片面化,不夠多樣性。因此,語音識別系統在訓練時如果得不到豐富、多元的數據,形成“歧視觀念”就難以避免。
使用者因素影響
相對于在初期訓練中具備的“本能”,語音識別系統在后期用戶使用過程中所受到的影響也是關鍵性的。如果語音識別系統的主要用戶是特定的某一群體,那么其持續(xù)自我學習數據的來源將變得非!皢握{”。
從目前美國市場的反饋來看,五大科技巨頭開發(fā)的語音識別系統更多的使用群體是白人,黑人用戶相對而言較少。所以,在白人用戶偏多而黑人用戶偏少的情況下,語音識別系統所收集、利用的數據多樣性不足,就會造成對特定用戶群體的識別準確率偏差。
所以,針對這種情況,相關企業(yè)應當重視起來,通過人為干預等方式,補充黑人群體、亞裔群體、拉丁裔群體等其他種族人群的語音信息,以保證語音識別系統在學習過程中接收信息的平衡性,從而盡量避免出現歧視后果。
口音因素影響
除了開發(fā)者、使用者所提供的數據存在多樣性問題外,很多網友認為,這和不同群體之間的口音差異也應當有一定關聯。相對于白人群體,其他種族的人群在發(fā)音上或多或少都會與之有差異,這可能是語音系統在識別方面有偏見的原因之一。
其實在我國,也存在地方方言導致語音識別有差異的情況。從大的方面來說,北方人和南方人的發(fā)音就不盡相同,就普通話識別來說,肯定是北方人的識別準確率更高。因此,方言、發(fā)音等因素也應當被考慮在內,而不是簡單地判定為種族偏見。
可以看出,語音識別系統要想繼續(xù)拓展市場還存在不少挑戰(zhàn),如果無法克服用戶群體傾向性、方言和發(fā)音等硬傷,那么顯然不利于語音識別產品實現進一步普及,也不利于其獲得更廣泛用戶的認可。對于語音識別行業(yè)來說,市場前景固然廣闊,但也必須努力克服眼下的困境,才能迎來真正的騰飛。

請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
-
7月8日立即報名>> 【在線會議】英飛凌新一代智能照明方案賦能綠色建筑與工業(yè)互聯
-
7月22-29日立即報名>> 【線下論壇】第三屆安富利汽車生態(tài)圈峰會
-
7.30-8.1火熱報名中>> 全數會2025(第六屆)機器人及智能工廠展
-
7月31日免費預約>> OFweek 2025具身智能機器人產業(yè)技術創(chuàng)新應用論壇
-
免費參會立即報名>> 7月30日- 8月1日 2025全數會工業(yè)芯片與傳感儀表展
-
即日-2025.8.1立即下載>> 《2024智能制造產業(yè)高端化、智能化、綠色化發(fā)展藍皮書》
推薦專題