由于严重的性别差异问题,人工智能存在偏见的风险

人工智能
2019
01/05
02:44
千家网
分享
评论

人工智能需要由各种各样的开发者来创造,以防止产生偏见,但世界经济论坛(WEF)发现了一个严重的性别差异。

一段时间以来,STEM职业中的性别差距一直是个问题,但最终产品往往不太关心它是由什么性别开发的。人工智能将无处不在,重要的是它能代表它所服务的对象。

在本周发布的一份报告中,世界经济论坛写道:

“妇女和男子在这一深刻的经济和社会变革进程中的平等贡献至关重要。

社会比以往任何时候都更不能失去一半人类的技能、思想和观点,以实现管理良好的创新和技术所能带来的更繁荣和以人为中心的未来的希望。”

令人震惊的是,世界经济论坛的报告发现,不到四分之一的行业职位由女性担任。从这个角度来看,人工智能行业的性别差距大约是其他行业人才池的三倍。

世界经济论坛人工智能和机器学习主管凯•菲尔斯-巴特菲尔德(Kay Firth-Butterfield)表示:“创造人工智能的人代表整个人口,这一点绝对至关重要。”

在编码方面的偏见可能会让人工智能在某些社会群体中表现得比其他群体更好,这可能会给他们带来优势。这种偏见很少是有意的,但已经在人工智能的发展中找到了自己的方式。

美国公民自由联盟(ACLU)最近对亚马逊的面部识别技术进行了一次测试,发现它错误地将那些肤色较深的人贴上了罪犯的标签。

同样,NIST和达拉斯德克萨斯大学(University of Texas)的研究人员在2010年进行的一项研究发现,在东亚设计和测试的算法在识别东亚人方面做得更好,而在西方国家设计的算法在识别白种人方面更准确。

最近,谷歌在Gmail中发布了一个预测文本功能,该算法对使用女性代词的护士进行了有偏见的假设。

很明显,解决性别差距比以往任何时候都更加紧迫。

【来源:千家网】

THE END
广告、内容合作请点击这里 寻求合作
ai
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

人脸识别、语音助手、智能识图、AI美颜、智慧识屏、随行翻译……2018年以来,手机行业搭载AI技术的新卖点层出不穷,究竟哪些才是最常使用的功能?哪些功能是徒增成本、并无实用的“花瓶”?
人工智能
互联网虽然寒冬,但人工智能热度不减,成果不断。今年所有的互联网公司,都在ALL in AI。百度、腾讯、阿里巴巴、京东等互联网巨头甚至都在美国硅谷大肆高薪挖掘人工智能人才。
人工智能
人工智能已经取得了显著的进步,但事实上,刚刚起步的技术和有偏见的数据也不可避免地会产生人类未曾想到的错误。这就是为什么审查人工智能故障是必要和有意义的。
人工智能
近日,中国信息通信研究院副院长何桂立在由中国通信工业协会、中国通信工业协会物联网应用分会主办的“中国物联网产业赋能高峰会”上共同探讨了物联网的演进与发展。
人工智能
腾讯AI Lab团队在arXiv发表论文,通过对AI进行训练,并与《王者荣耀》顶级人类玩家PK,最后获得了48%的胜率。
人工智能

相关推荐

1
3