專屬客服號
微信訂閱號
全面提升數據價值
賦能業務提質增效
【產業鏈圖譜 | 人工智能產業鏈圖譜_人工智能產業鏈全景圖】
人工智能的本質是讓物擁有和人一樣的反應能力和思考方式,而這種預期是通過對大量的人類數據研究形成的,這種研究方式背后就具備了一定風險,因為這些數據也會包含一些非優質數據,曾經有智能機器人通過大量學習訓練出了一些社交不友好詞匯就是前例。
谷歌的智能產品曾將黑人識別為“大猩猩”,在當時引起了很多人的反對,除了“大猩猩”事件外,有研究院發現谷歌搜索中也存在種族歧視,比如搜索類似黑人名字,出現“被逮捕”的概率要高于搜索白人。
針對這些情況,谷歌表示,從人工智能的發展原理來講,AI偏見之所以存在,是因為我們給了AI偏見的數據。
近日,谷歌針對AI的安全問題,又提出了新的措施。
谷歌當前的機器學習安全管理負責人Jen Gennai表示,他們已經將防止數據錯誤和AI偏見作為當前工作的重點之一。Gennai表示會對谷歌智能產品進行分析和研究,確保該項智能產品達到了道德標準,為技術在后期的發展解決安全隱患。今年6月,Google的首席執行官發布了谷歌針對人工智能的七項技術標準,對谷歌產品的技術進行了詳細的規范,意在消除AI偏見。
谷歌的負責人表示,這種測試主要是找出產品的優缺點。我們希望公司能推出最好的產品,找出所有可能出錯的漏洞,以便解決問題,
此次,谷歌還將采取改進數據集質量,對用戶進行算法知識普及來消除當前的AI偏見,意在將AI的生產和使用合理化。
AI偏見為何存在
最新的發現是基于計算機模擬AIS,或虛擬代理,形成一組,并相互作用。最新研究顯示,機器人可以教會自己如何對待其他形式的生命,包括人類,比自己價值更低。專家說,對他人的偏見并不需要很高的認知能力,而且很容易通過人工智能機器表現出來。這些機器可以互相教對方排除他人的價值。
卡迪夫大學計算機科學與信息學學院的羅杰·惠特克(Roger Whitaker)教授是經過研究表示,“通過反復進行幾千次模擬,我們開始了解偏見是如何演變的,以及促進或阻礙偏見的條件。我們的模擬表明,偏見是自然界的一種強大力量,通過進化,偏見很容易在虛擬群體中受到激勵,從而損害了與他人的廣泛聯系。保護不受歧視群體影響可能無意中導致個人進一步形成歧視群體,導致人口分裂。這種廣泛的偏見很難扭轉。這些發現涉及個人通過優先復制那些獲得更高短期回報的信息來更新他們的偏見水平,這意味著這些決定不一定需要先進的認知能力。”
根據AI的學習研究,AI偏見是能夠通過不斷地相互學習習得的,同時這種偏見在特定情況下可能發生不可控制的情況,這對我們進行人工智能的研究提出了新的技術要求。
本文由五度數科整理,轉載請標明出處,違者必究!
請完善以下信息,我們的顧問會在1個工作日內與您聯系,為您安排產品定制服務
評論