专属客服号
微信订阅号
全面提升数据价值
赋能业务提质增效
【产业链图谱 | 人工智能产业链图谱_人工智能产业链全景图】
人工智能的本质是让物拥有和人一样的反应能力和思考方式,而这种预期是通过对大量的人类数据研究形成的,这种研究方式背后就具备了一定风险,因为这些数据也会包含一些非优质数据,曾经有智能机器人通过大量学习训练出了一些社交不友好词汇就是前例。
谷歌的智能产品曾将黑人识别为“大猩猩”,在当时引起了很多人的反对,除了“大猩猩”事件外,有研究院发现谷歌搜索中也存在种族歧视,比如搜索类似黑人名字,出现“被逮捕”的概率要高于搜索白人。
针对这些情况,谷歌表示,从人工智能的发展原理来讲,AI偏见之所以存在,是因为我们给了AI偏见的数据。
近日,谷歌针对AI的安全问题,又提出了新的措施。
谷歌当前的机器学习安全管理负责人Jen Gennai表示,他们已经将防止数据错误和AI偏见作为当前工作的重点之一。Gennai表示会对谷歌智能产品进行分析和研究,确保该项智能产品达到了道德标准,为技术在后期的发展解决安全隐患。今年6月,Google的首席执行官发布了谷歌针对人工智能的七项技术标准,对谷歌产品的技术进行了详细的规范,意在消除AI偏见。
谷歌的负责人表示,这种测试主要是找出产品的优缺点。我们希望公司能推出最好的产品,找出所有可能出错的漏洞,以便解决问题,
此次,谷歌还将采取改进数据集质量,对用户进行算法知识普及来消除当前的AI偏见,意在将AI的生产和使用合理化。
AI偏见为何存在
最新的发现是基于计算机模拟AIS,或虚拟代理,形成一组,并相互作用。最新研究显示,机器人可以教会自己如何对待其他形式的生命,包括人类,比自己价值更低。专家说,对他人的偏见并不需要很高的认知能力,而且很容易通过人工智能机器表现出来。这些机器可以互相教对方排除他人的价值。
卡迪夫大学计算机科学与信息学学院的罗杰·惠特克(Roger Whitaker)教授是经过研究表示,“通过反复进行几千次模拟,我们开始了解偏见是如何演变的,以及促进或阻碍偏见的条件。我们的模拟表明,偏见是自然界的一种强大力量,通过进化,偏见很容易在虚拟群体中受到激励,从而损害了与他人的广泛联系。保护不受歧视群体影响可能无意中导致个人进一步形成歧视群体,导致人口分裂。这种广泛的偏见很难扭转。这些发现涉及个人通过优先复制那些获得更高短期回报的信息来更新他们的偏见水平,这意味着这些决定不一定需要先进的认知能力。”
根据AI的学习研究,AI偏见是能够通过不断地相互学习习得的,同时这种偏见在特定情况下可能发生不可控制的情况,这对我们进行人工智能的研究提出了新的技术要求。
本文由五度数科整理,转载请标明出处,违者必究!
请完善以下信息,我们的顾问会在1个工作日内与您联系,为您安排产品定制服务
评论