确保人工智能不作恶 谷歌为AI再上“紧箍咒”

人工智能
2018
11/18
01:42
中国家电网
分享
评论

谷歌认为,比起杀人AI机器人,我们更该担心的是AI偏见问题。谷歌提出AI技术开发的道德准则,成立了专门的机器学习道德部门,对公司的产品和服务进行分析测试,提出改进意见,尽可能避免AI偏见的产生。

在去年举行的谷歌会议上,谷歌当时的人工智能(AI)负责人John Giannandrea表示,我们不需要担心杀手机器人,相反,我们需要担心的是AI偏见。

“如果要说真正的安全问题,那就是如果我们给这些系统提供有偏见的数据,那么生成的AI模型就会有偏见。”他说。

这是谷歌过去一直在努力解决的问题。2015年6月,谷歌照片应用的算法曾经错误地将黑人分类为“大猩猩”,引发了轩然大波。因此,从IBM到Airbnb,每家公司都在努力确保自己算法不会出现类似的偏差。

最近一段时间,谷歌为解决AI偏见又上了紧箍咒。

对于谷歌机器学习道德、信任和安全主管Jen Gennai来说,防止出现数据和AI偏见实际上就是他的工作内容。Gennai负责领导一个跨公司的团队,对谷歌的新产品和服务进行分析和咨询,以确保所有新产品都遵守这一道德标准。

“如果我们要打造一项新技术,我们需要确保它从一开始就走在正确的轨道上。”她说。

谷歌制定AI技术开发七大准则

今年6月,Google首席执行官Sundar Pichai发布了该公司的人工智能原则,指导谷歌在这些方面的工作和研究,包括确保Google员工不会制造或加强不公平的AI偏见。

Pichai表示,AI的开发和使用将在未来许多年内对社会产生重大影响。作为AI的领导者,我们感到自己有责任做到这一点。

这种关于人AI技术的新立场是受到谷歌出现问题的影响而提出的。除了“大猩猩”事件之外,哈佛大学研究人员Latanya Sweeney发现谷歌搜索中的存在种族歧视。当搜索类似黑人名字时,会比搜索类似白人名字更有可能出现与“被逮捕”相关的广告。

“这些现象都是我们的部门成立的原因,不应该让我们的用户看到这些,我们需要首先阻止这些偏见的产生。”Gennai说。

谷歌谷歌机器学习道德、信任和安全负责人Jen Gennai 现在每当谷歌推出新产品时,都会接受Gennai及其团队的严格测试。来自技术、法律、隐私和社会科学等领域的专家聚集在一起,根据谷歌制定的AI准则对每个产品进行分析。

这种测试主要是找出产品的优缺点。“我们并不是公司里可怕的监工。”Gennai说。“我们想的是,希望公司能推出最好的产品,所以我们要找出所有可能出错的漏洞,以便解决问题。

在谷歌智能助理给真人打电话的功能上,产品团队事先就AI如何处理不同口音做了大量工作,但Gennai的测试团队提出了一些其他问题。

“我们研究了用户如何与之互动,如何利用技术降低AI的偏见。我们提出了问题,要如何判断用户是不是有口吃或语言障碍。产品开发团队做了很多工作,但我们试图缩小所有差距,提升产品表现。”她说。

改进数据集质量

改善AI偏见的一种方法是改进数据集。 Gennai举了一个婚礼的例子。

过去,如果你在Google图片上搜索“婚礼”,得到的结果是白人穿着婚礼礼服的照片,因为算法是在基于西方人的数据源上进行训练的。然而,这对印度或中国的谷歌用户就不合适。谷歌要求人们提交世界各地的婚礼照片,以改善数据集。

“现在,我们得到了印度用户的大量反馈,他们向我们发送了许多色彩缤纷的婚礼照片,”我们希望了解我们现有资源,创建偏见相对较小的新资源。”

让用户也能理解算法

了解谷歌算法的内部工作流程,有助于团队更好地进行修改。比如用谷歌搜索“CEO”时出现的问题,当你在搜索栏中键入“CEO”时,你会看到一些穿着西装打着领带的白人男子的图片。

Gennai的团队调查数据时发现,这个现象往往并不是人为偏见,而是技术上的偏见。

“在算法看来,海军蓝像素就等于CEO,而且因为白人男性更容易穿蓝色西装,所以这纯粹是模型学习的方式问题。但这表明我们需要仔细检查数据。

让谷歌用户了解公司算法的运作方式也是很重要的。谷歌用户现在可以查看为你投放广告的原因,并查看由算法做出的决定。用户还可以查看为何会在谷歌搜索结果中看到某个链接,具体取决于用户之前的搜索记录。 Gennai表示,这是为了帮助用户更多地了解谷歌,以便他们可以信任谷歌搜索。

透明度也是谷歌AI原则的一部分。但是“与用户共享一个完整的算法根本没有用,反而可能会引起更多的混淆,并感觉我们是故意混淆。但是,用用户可读的语言解释算法,将有助于人们了解谷歌正在尝试做的事情,即使我们做错了。”Gennai说。

解决AI偏见,光靠谷歌不够

说到最后,偏见的根源其实还是来自人类。“我们每个人都有偏见,我们现有的全部数据源,都是建立在我们每个人和过去的历史偏见之上。”

但是,仅仅因为这一点,并不能说我们无法阻止偏见。相反,谷歌试图尽可能调查和解释最大的偏见来源,并尝试改变。

从这个角度看,谷歌的AI准则在公司内部非常重要,也是因为这个原因,谷歌为公司外的人创建了“负责任的AI”开发实践项目,这些人正在使用其开源软件来构建人工智能和机器学习算法。

“我们希望能够以身作则,提供相关工具和知识,让更多的人能够遵循这些准则。”她说。

【来源:中国家电网】

THE END
广告、内容合作请点击这里 寻求合作
AI
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

急性肾损伤(AKI)是指肾脏突然不能过滤血液中的废物,这种疾病会直接破坏重症病人的肾脏系统。
业界
荣耀总裁赵明在世界互联网大会物联网分论坛,发表了题为《物联网:消费革命的黄金十年》的演讲中指出,全球将迎来IoT爆发性增长期,企业对物联网将迎来消费革命的“黄金十年”。
业界
11月5日,搜狗公布了未经审计的2018年第三季度财报。财报显示,截至9月30日,搜狗总收入超18.8亿元,同比增长10%,非美国通用会计准则净利润1.9亿元,整体业务发展稳健。
业界
尽管AI影响范围如此之广,但仍然还只是亚马逊、谷歌等大体量企业的“玩具”以及部分创业公司的显著标签。对于绝大多数企业来说,AI 的成本高、全面部署困难等特性依然为它的落地带来不小的困扰。
滚动
银河水滴创始人兼CEO黄永祯同时宣布,银河水滴工业视觉平台“IndustryAI”的工业视觉检测算法将面向工业用户三年免费开放。
业界
最新文章

相关推荐

1
3