WHO:保護人類福祉!在公共健康領域慎用AI
AI浪潮一波又一波,在科技圈攪動風云之后,下一個目標很可能就是醫(yī)療衛(wèi)生領域。
在關乎人類生命健康的領域里,對新技術的觀點一直是謹慎樂觀。對AI這種凸顯不確定性的科技,更是如此。
當地時間16日,世界衛(wèi)生組織(WHO)發(fā)聲明呼吁謹慎使用人工智能(AI)生成的大型語言模型工具(LLM),以保護和促進人類的福祉、安全和自主性,并維護公共健康。
此類大型語言模型工具包括ChatGPT等許多其他模仿理解、處理和產生人類交流的平臺,它們在公眾中傳播迅速,并越來越多地用于滿足人們的健康需求,在健康方面的應用充滿了潛力。
可能存在風險
WHO表示,在利用大型語言模型工具來改善健康信息獲取、作為決策支持工具,甚至增強在資源匱乏環(huán)境中的診斷能力以保護人們的健康和減少不平等時,必須仔細審查其可能存在的風險。雖然WHO支持適當使用技術,包括AI大型語言模型工具,來支持醫(yī)護人員、患者、研究人員和科學家,但對這種新技術持謹慎態(tài)度。
WHO表示,其倡導幾大核心價值,包括需要廣泛遵守透明度、包容性、公眾參與、專家監(jiān)督和嚴格評估等,而操之過急地采用未經測試的系統(tǒng)可能會導致醫(yī)護人員的錯誤操作,對患者造成傷害,削弱對人工智能的信任,從而破壞或延遲此類技術在全球范圍內的潛在長期效益與應用。
為了以安全、有效和合乎道德的方式來使用的技術,并進行嚴格監(jiān)督,WHO提出了以下領域的疑慮,包括:用于訓練AI的數據可能存在偏差,產生誤導性或不準確的信息,可能對健康、公平和包容性構成風險;大型語言模型生成的回答對終端用戶或許顯得權威而可信,但這些回答可能是完全錯誤的,或者包含嚴重錯誤的信息,尤其是涉及健康的回答;大型語言模型可能在未經事先同意使用的數據上進行培訓,并且可能不會保護用戶提供的敏感數據(包括健康數據);大型語言模型可能被濫用,以文本、音頻或視頻內容的形式產生和傳播看似極具說服力的虛假信息,公眾會很難將其與可靠的健康內容區(qū)分開來;與致力于將該工具商業(yè)化的技術公司不同,WHO致力于利用新技術,包括人工智能和數字健康,以改善人類健康,同時建議決策者確;颊甙踩捅Wo。
WHO并表示,建議在廣泛應用于日常醫(yī)療和藥物治療之前,應解決這些問題,并對其效益進行清晰的評估,無論是由個人、醫(yī)護人員還是衛(wèi)生系統(tǒng)管理者和決策者使用。
WHO并重申,在設計、開發(fā)和部署醫(yī)療AI時,應遵守該組織《醫(yī)療衛(wèi)生中AI的倫理與治理指南》列舉的倫理原則和適當的治理措施。
該指南中確定的六項核心原則是:(1)保護自治權;(2)促進人類福祉、人類安全和公共利益;(3)確保透明度、可解釋性和可理解性;(4)促進責任和問責;(5)確保包容性和公平性;(6)促進具有響應能力和可持續(xù)性的AI。
WHO該項聲明發(fā)布后,陸續(xù)多家機構宣布暫不考慮將AI技術納入到醫(yī)療技術研發(fā)當中。

請輸入評論內容...
請輸入評論/評論長度6~500個字