李飞飞离职谷歌背后:AI 还很稚嫩 作为科学家很卑微

创投圈
2018
11/19
21:15
驱动之家
分享
评论

今年 9 月 11 日,谷歌云 AI 部门负责人李飞飞宣布即将离职,回到斯坦福大学任教。外媒《连线》杂志日前刊文,讲述了李飞飞离职背后的故事。

以下为文章全文:

去年六月有段时间,凌晨一点左右,李飞飞穿着睡衣,坐在华盛顿特区酒店房间里,练习几个小时后要做的演讲。临睡前,李飞飞从笔记中删去一整段,以确保自己能在指定时间内快速阐明几个最重要的观点。醒来时,这位身高 165 厘米的人工智能专家穿上靴子和一件黑色的海军针织裙子,不同于平常的 T 恤和牛仔服。然后她搭乘一部 Uber 汽车,前往美国国会大厦南部的雷伯恩众议院大厦。

在进入美国众议院科学、空间与技术委员会的会议室之前,她拿起手机拍了一张特大木门的照片。(" 作为一名科学家,我对委员会感到异样。" 她说。)然后她步入空旷的大厅,走向证人席。

那天上午听证会的主题是 " 人工智能——强大的力量带来巨大的责任 ",与会者包括政府问责办公室的首席科学家蒂莫西 · 佩尔斯(Timothy Persons)和非营利组织 OpenAI 的联合创始人兼首席技术官格雷格 · 布罗克曼(Greg Brockman)。但只有李飞飞是在现场发言的唯一女性,并可谓在人工智能(AI)领域拥有开创性成就。作为构建可帮助计算机识别图像的数据库 ImageNet 的研究人员,她是一小群科学家中的一员,这群人可能少得仅够在厨房桌子旁边围成一圈,但 AI 近期的显著进步都要归功于他们。

那年六月,李飞飞在 Google Cloud 担任首席人工智能科学家,并请假离开斯坦福人工智能实验室主任一职。但她之所以出现在委员会面前,是因为她也是一家专注于招聘女性和有色人群成为人工智能建设者的非营利组织的联合创始人。

这一点也不奇怪,议员们当天就对她的专业知识进行了提问。令人惊讶的是她的谈话内容:她所热爱的领域所带来的严重危险。

一项发明及其影响之间的时间是短暂的。在像 ImageNet 之类的人工智能工具的帮助下,计算机可以被教授学习特定任务,然后比任何人都快地行动。随着这项技术的日益成熟,它正被授权对数据进行过滤、分类和分析,并对全球和社会带来影响。尽管这些工具以某种方式已经存在了 60 多年,但在过去的十年中,我们开始使用它们来完成改变人类生活轨迹的任务:今天,人工智能帮助确定哪些治疗方法可用于病人,谁有资格领取人寿保险,一个人应服刑多长时间,哪些求职者接受面试。

当然,这些权力可能是危险的。亚马逊不得不放弃 AI 招聘软件,因为该软件学会了对包含 " 女性 " 一词的简历加以处罚。谁能忘记谷歌 2015 年的惨痛经历呢?当时,谷歌的照片识别软件将黑人图片错误地贴上了大猩猩的标签。微软的 AI 社交聊天机器人则开始发布种族主义推文。但这些问题是可以解释的,因此也是可以扭转的。李飞飞认为,在不久的将来,我们将遇到一个不可能纠错的时刻,因为这项技术正在被迅速、广泛地采用。

那天上午,李飞飞在雷伯恩大厦作证,因为她坚信自己的领域需要重新校准。杰出而强大、且大部分由男性组成的高科技领袖已经对未来发出了警告,人工智能驱动的技术成为人类生存的威胁。但李飞飞认为,这些担忧被给予了太多的重视和关注。她专注于一个不那么戏剧化、但更重要的问题:人工智能将如何影响人们的工作和生活方式。它必然会改变人类的体验,而不一定意味着更好。" 我们有时间," 李飞飞说," 但我们现在必须采取行动。" 李飞飞认为,如果我们对人工智能的设计及其设计者进行根本性的改变,技术将永远是一个向善的变革力量。如果不是的话,大量人性将被从等式中剔除出去。

在听证会上,李飞飞是最后一个说话的人。没有证据表明她彻夜练习是因为紧张,她开口了。" 人工智能中存在人工的东西。" 她的音量增强了。" 它的灵感来自于人类,它是由人类创造的,最重要的是它能影响人类。这是一个强有力的工具,我们只是刚刚开始理解,这是一个沉重的责任。" 周围人的脸严肃起来,一位出席会议的女士表示赞同,嘴里发出 " 嗯……嗯 " 的声音。

李飞飞生长在华南工业城市成都。她是一个孤僻而聪明的孩子,也是一个如饥似渴的读书人。她的家庭有点不寻常:在一个不推崇饲养宠物的文化里,她父亲给她买来了一只小狗。母亲来自知识分子家庭,鼓励她读《简 · 爱》。(" 在勃朗特姐妹中,我最喜欢艾米丽," 李说。)。在她 12 岁时,父亲移居美国新泽西州帕西帕尼,她和母亲几年没见到他。16 岁时母女俩也出国移民。到美国的第二天,李飞飞的父亲带她去了加油站,让她告诉技工修修他的车。她几乎不会讲英语,但通过手势,李飞飞想出了解释问题的方法。在两年内,李飞飞已经学会了足够多的语言,可以为只会说初级英语的父母担任翻译和向导。" 我必须成为父母的嘴巴和耳朵。" 她说。

她在学校也表现很好。父亲喜欢淘旧货,为她找到了一个科学计算器,她在数学课上使用,直到一位老师指出她的错误计算,她才发现有个功能键坏了。李飞飞称赞另一位高中数学教师鲍勃 · 萨贝拉(Bob Sabella)引导她进入学术界,开始追逐美国梦。帕西帕尼高中没有高级微积分课,所以他自编了一个课本,在午休时间教李飞飞。萨贝拉和妻子也让她到他们家里玩,并带她去迪斯尼度假,借给她 2 万美元开了一家干洗店,让她的父母经营。1995 年,她获得了奖学金,得以去普林斯顿大学读书。其间,她几乎每个周末都回家帮助经营家庭生意。

在大学里,李飞飞的兴趣是广泛的。她主修物理,学习计算机科学和工程学。2000 年,她在帕萨迪纳加州理工学院攻读博士学位,同时研究神经科学和计算机科学。

看到并促成看似不同领域之间的联系,这一点使李飞飞想到了 ImageNet。她的计算机视觉同行正在研究帮助计算机感知和解码图像的模型,但这些模型范围有限:研究人员可能要编写一种算法来识别狗,再用另一种算法来识别猫。李开始怀疑问题不在于模型而在于数据。她认为,如果一个孩子在早年通过体验视觉世界——即通过观察无数的物体和场景——来学习观看,或许计算机也可以类似地通过分析各种各样的图像以及它们之间的关系来学习。对李飞飞来说,这一认知是一个巨大飞跃。" 这是一种组织整个世界视觉概念的方法。" 她说。

但是她很难说服同事相信,在海量数据库中为每个物体的每个可能的图片加上标签是合理的。此外,如果李飞飞决定要让这个想法奏效,标签需要从普通类(如 " 哺乳动物 ")贴到高度特定类(如 " 星鼻鼹 ")。2007 年,李飞飞回到普林斯顿做助理教授,当她谈到 ImageNet 的想法时,很难找到教员帮忙。最后,一位专攻计算机体系结构的教授同意加入,成为合作者。

她的下一个挑战是打造巨人。这意味着很多人将不得不花费大量时间来做繁琐的标记照片的工作。李飞飞试着给普林斯顿学生每小时支付 10 美元,但进展缓慢。然后一个学生问她是否听说过亚马逊土耳其人机器人(Amazon Mechanical Turk)。这是著名的众包平台,可借助群众的智慧解决机器很难或无法解决的问题。突然之间,她可以把许多工人集合起来,成本只是九牛一毛。但从少数普林斯顿学生到数万名隐形探索者的劳动力扩张,自身也存在挑战。李飞飞不得不考虑工人间可能的偏见。" 在线工人,他们的目标是用最简单的方法赚钱,对吧?" 她说。如果你让他们从 100 张图片中选择熊猫,怎样才能阻止他们乱点一气呢?" 因此,她嵌入并跟踪了一些图像,例如已经正确识别为狗的金毛猎犬的照片,作为对照组。如果土耳其人可以正确标记这些图像,他们就能诚实地工作。

2009 年,李飞飞团队认为 320 万张(后来增加到 1500 万张)大型图片集已足够全面,可供使用,他们在发布数据库的同时发表了一篇论文。起初这个项目很少受到关注。但后来团队有了一个想法:他们联系了次年在欧洲举行的计算机视觉比赛的组织者,要求他们允许竞争对手使用图像网络数据库来训练他们的算法。这就是 ImageNet 大规模视觉识别挑战。

大约在同一时间,李飞飞加入斯坦福大学担任助理教授。那时,她嫁给了机器人学家西尔维奥 · 萨瓦雷塞(Silvio Savarese)。但是他在密歇根大学有一份工作,而且距离很远。" 我们知道,对我们来说,硅谷更容易解决我们分居两地的问题," 李飞飞说。(萨瓦雷塞于 2013 年加入斯坦福大学。)" 同时,斯坦福大学是特殊的,因为它是人工智能的发源地之一。"

2012 年,多伦多大学的研究人员杰弗里 · 辛顿(Geoffrey Hinton)参加了 ImageNet 竞赛,利用该数据库来训练一种人称深度神经网络的人工智能。最终结果比之前的任何实验都要精确得多,他赢了。李飞飞本来没打算去看辛顿领奖,她在休产假,而颁奖典礼在意大利佛罗伦萨举行。但她认识到历史时刻正在到来。于是她在最后一刻买了一张机票,把自已塞进午夜航班的中间座位。辛顿的图像神经网络改变了一切。到 2017 年,也就是比赛的最后一年,计算机在图像中识别物体的错误率从 2012 年的 15% 降到了不到 3%。计算机,至少通过一种方法,比人类更善于观察。

ImageNet 使深层学习成为可能,有了它,近期人类才能在自动驾驶汽车车、面部识别、可识别物体(以及告诉你它们是否正被促销)的电话摄像机方面取得进展。

辛顿领奖后不久,当李飞飞还在休产假时,便开始思考在她的同行中女性为何如此之少。在那一刻,她敏锐地感受到了这一点,她看到了差距正在拉大成为问题。大多数构建人工智能算法的科学家是男性,而且通常具有相似背景。他们就自己特有的世界观、甚至所预见的危险嵌入他们所从事的项目。许多人工智能的创造者都是拥有科幻梦想的男孩,灵感来自《终结者》和《刀锋战士》的场景。担心这种事情没什么不对的,李飞飞想,但这些想法偏离了 AI 可能存在风险的狭隘观点。

正如李飞飞所说,深层学习系统 " 可获得偏见,输出偏见。" 李飞飞认识到,虽然驱动人工智能的算法可能貌似是中性的,但影响这些算法结果的数据和应用却不是。重要的是创建它的人,以及创建的目的。那天,李飞飞在国会山指出,如果没有一群背景多样的工程师,我们可能会创建出一套有偏见的算法,做出不公平的贷款申请决策,或者只在白人脸上训练神经网络,从而创建出一种在黑人脸上表现不佳的模型。" 我认为,如果我们 20 年后觉醒,发现我们的技术、领导者和从业者缺乏多样性,那将是我的末日图景," 她说。

李飞飞开始相信,关键任务是把人工智能的发展重点放在帮助人类体验上。她在斯坦福大学所从事的一个项目是与医学院合作,将人工智能带到 ICU,努力减少诸如医院获得性感染之类的问题。它涉及到开发一个摄像头系统,可监控洗手站,并在医院工作人员忘记正确擦洗量给出提示。这种类型的跨学科合作是不寻常的。斯坦福大学临床卓越研究中心主任、医学教授阿诺德 · 米尔斯坦(Arnold Milstein)说:" 没有其他来自计算机科学领域的人向我伸出援助之手。"

AI 应当如何进化?这项工作让李飞飞看到了希望。AI 可以用来补充人们的技能,而不是简单地替换之。如果其他学科的人(甚至是现实世界中的人)加入这一工程,他们就可以制造出一些工具来扩展人类能力,比如实现耗时工作自动化,让 ICU 护士有更多时间陪伴病人,而不是建立人工智能使某人的购物体验自动化,并让出纳员下岗。

考虑到 AI 正在飞速发展,李飞飞认为她的团队需要调整人员——越快越好。

帮助女性进入计算机领域

李飞飞对数学相当很痴迷,她深知要让女性或者其它有色人种进入计算机领域,需要付出巨大努力。根据国家科学基金会(National Science Foundation)的统计,2000 年,女性拿到的计算机学士学位只占全年总量的 28%,2015 年更是降到 18%。在李飞飞自己的实验室内,也很难聘请到足够多的有色人种和女性研究员。李飞飞说,虽然她的实验室比典型 AI 实验室更加多样化,但是男性仍然占主导。她还说:" 女性不够多,少数民族更是不够多,实验室储备人才也存在这样的问题。学生参加 AI 会议,会看到 90% 的与会者都是同性,非裔美国人的数量也远没有白人男性多。"

当李飞飞成为奥尔加 · 鲁萨科沃斯基(Olga Russakovsky)的导师时,她几乎快要退出行业。鲁萨科沃斯基当时已经是一名计算机科学家,拿到了数学学士学位和计算机硕士学位,都是在斯坦福拿到的,但是她在论文方面落后了。鲁萨科沃斯基是实验室唯一的女性,她觉得自己与同行脱节了。后来李飞飞来到斯坦福,情况有了变化。李飞飞帮助鲁萨科沃斯基学会一些研究技能,鲁萨科沃斯基还说,李飞飞让她有了自信。现在鲁萨科沃斯基是普林斯顿大学计算机系的助理教授。

4 年前,鲁萨科沃斯基念完博士,她希望李飞飞能帮助自己建一个夏令营,让那些对 AI 有兴趣的女士参与进来。李飞飞同意了,她们马上召集志愿者,给高中二年级学生打电话。虽然只有 24 个名额,但是一个月之内却收到 200 份申请。2 年后,他们扩大了项目,设立非盈利组织 AI4All,将年轻人带到斯坦福、加州大学伯克利分校,包括女孩、有色人种、经济状况不佳的人。

在加州奥克兰市区,AI4All 有一个狭小的共享办公室,由于组织的成长,现在它即将搬出。现在 AI4All 在 6 所大学设立夏令营。去年她们在卡耐基梅隆大学举办夏令营,为 20 个名额招募成员,收到 900 份申请。有一名 AI4All 学生想用计算机视觉技术侦测眼病,还有一人用 AI 编写程序,给 911 呼叫按紧急程度排序,由于救护车未能及时抵达,这名学员的祖母不幸离开人世。很明显,个人视角会给未来 AI 工具带来巨大影响。

谷歌旅程

在斯坦福管理实验室近 3 年后,李飞飞于 2016 年离开,加盟谷歌,担任谷歌云(Google Cloud)首席科学家,谷歌云是公司的企业计算业务部门。李飞飞想知道行业是如何运作的,如果能根据客户的关注点部署新工具,也许可以扩大自己的研究范围。Facebook、谷歌、微软等企业也投入巨资,研究 AI,希望 AI 能帮助业务快速发展。与大学相比,企业拥有更多更好的数据。对于 AI 研究人员来说,数据就是燃料。

最开始时,李飞飞充满激情与活力。她与企业会谈,将科学研究应用于现实。在她的领导下,部门推出面向公众的 AI 工具,有了这套工具,任何人不需要写一行代码就能开发机器学习算法。她在中国设立实验室,优化 AI 工具,用于医疗健康领域。她在达沃斯世界经济论坛发表演讲,与国家元首、流行艺人交流。

然而,在私营企业工作带来新的压力,这种压力往往让人不舒服。去年春天,由于谷歌与美国国防部签署 Project Maven 合同,李飞飞招来非议。从本质上讲,项目就是要用 AI 工具分析视频图像,政府可能会用该技术控制无人机袭击目标,按照谷歌的描述,它们可以用 AI 识别低分辨率目标,拯救生命才是首要使命。许多员工反对公司将自己开发的技术应用于军事无人机。当时 4000 名员工请愿,要求公司发表声明,承诺谷歌与合同承包商不会开发战争技术。还有几人辞职抗议。

虽然李飞飞没有直接参与交易,不过负责 Maven 项目的正是她所工作的部门。李飞飞写过一封邮件,希望公司不要陷入尴尬境地,这封邮件被《纽约时报》拿到,媒体报道将李飞飞推向风口浪尖。看起来让人困惑,因为在整个行业李飞飞如同伦理道德的化身。事实上,在公众抗议之前,李飞飞认为这门技术是无害的,她从未想过员工会反感。

为什么会出现这样的问题?李飞飞还是知道的,她说:" 问题的关键不在于事件本身,而在于时间点,企业的责任感、AI 崛起、硅谷应该参与对话,所有这些因素交织在一起,Maven 项目成为了交汇点。" 虽然谷歌说自己 " 不做恶 ",立场还不够鲜明。

迫于压力,谷歌没有续签 Maven 合同,争议慢慢平复。一些谷歌科学家和高管组成团队,李飞飞也是其中一员,他们编写公开指南,承诺谷歌会用 AI 技术造福社会,避免工具出现偏见,不让工具伤害人类。一直以来,李飞飞都在为重返斯坦福做准备,不过她觉得自己有必要亲眼看到指南通过。李飞飞说:" 每个机构都必须设立一套行事原则,评估流程时必须负责,我觉得这点相当重要。本杰明 · 富兰克林曾经说过,当宪法出台时,它可能不是完美的,但它的确是当时最好的。大家会有不同的意见,不同的派别可以继续对话。" 李飞飞说,指南发表的几天是她当年最快乐的几天。李飞飞还说:" 能够参与,能够做点贡献,对我而言相当重要。"

AI 伦理

6 月份,我前往李飞飞的家中拜访她,李飞飞的家在斯坦福校园。那时刚好晚上 8 点多一些,当我们交流时,她的丈夫将小儿子和女儿送到楼上睡觉,父母在姻亲的单元楼过夜。餐厅变成了游戏室,所以我们坐在客厅聊天。到处都是家人的照片,架子上放着一台 1930 年代的老式坏电话。当我问她时,她说父母是移民过来的,李飞飞的父亲喜欢去跳蚤市场出售旧东西。

一边交流,信息在手机上跳了出来。医生给李飞飞的母亲开了药,父母让她将说明翻译给自己听。李飞飞可能会在 Googleplex 开会,或者在世界经济论坛演讲,也可能正在参加国会听证会,如果父母需要帮助,会发短信给她。她马上回应,没有打断思路。

在生活的大部分时间里,李飞飞往往需要同时关注两件不同的事。她是一名科学家,对艺术也有着深刻的见解。她既是美国人,又是中国人。她对人很感兴趣,也对机器人感兴趣。

7 月末,李飞飞打电话给我,当时她们家正在为旅行做准备,她在给女儿洗手。李飞飞问我:" 你看到沙伦 · 沃拉尔(Shannon Vallor)发表的声明了吗?" 沃拉尔是圣塔克拉拉大学的哲学家,专门研究新兴科学技术存在的哲学与伦理问题,她说自己要到谷歌云工作,担任伦理顾问。

为了这件事,李飞飞做了许多努力,在华盛顿证词中,她曾经引用沃拉尔的话说:" 没有真正独立的机器价值,机器价值就是人类价值。" 谷歌任命史无前例。其它企业也行动起来,围绕 AI 软件的使用、谁能使用设置围栏。2016 年,微软设立内部伦理委员会,微软还说,由于伦理委员会存在伦理担忧,它已经拒绝与某些潜在客户合作。如何使用 AI 技术?微软也开始设限,比如封杀某些面部识别应用。

7 月份我们交谈时,李飞飞知道自己即将离开谷歌,2 年的休假快要结束了。当时有许多人猜测说,李飞飞会因为 Project Maven 争议离开。不过李飞飞却说,她之所以回到斯坦福,主要是因为不想放弃学术职位,而且她也有些累了。李飞飞还说,在谷歌度过动荡的夏天之后,伦理指南就像是隧道尽头的一线光。

李飞飞渴望能在斯坦福设立新项目。秋天,李飞飞与约翰 · 艾切曼第(John Etchemendy,前斯坦福大学教务长)宣布说要设立一个学术中心,将 AI 与人类研究融合在一起,汇聚硬科学、设计研究、多学科研究。李飞飞认为:" 作为一门新兴科学,AI 从没有真正倾尽全力吸引人文主义者和社会科学家参与进来。" 许久以来,大家都认为这些领域对 AI 来说无关紧要,但李飞飞却认为它相当关键。

从本质上讲,李飞飞是一名乐观主义者。6 月参加听证之后,她曾告诉立法者:" 我深入思考那些对人类既危险又有危害的工作,比如救火、自然灾害搜救。" 她相信,技术可以帮助人类尽可能避开危险。

想让单个机构的单个程序改变整个行业的确有些难,受到诸多限制。尽管如此,李飞飞还是认为要竭尽所能训练研究人员,让他们像伦理学家一样思考,研究人员用原则而非利润指导自己行事,背景多种多样。

在电话中,我问李飞飞,她有没有想过 AI 也许可以用完全不同的方式发展,避开至今我们所看到的问题。她回答说:" 很难想象。" 李飞飞还说:" 科学进步和创新来自于几代人的乏味工作,要不断纠错试错。我们花了一段时间才认清偏见。我工作了 6 年,然后才意识到:‘天啊,我们陷入了危机。’ "

在美国国会山参加听证时,李飞飞曾说:"AI 科学还很稚嫩,作为一名科学家,我感受到自己的卑微。这门科学诞生只有 60 年。一些经典科学存在已久,比如物理、化学、生物学,这些科学每天都在进步,让人类生活变得更好,与它们相比,AI 还要走漫长的路才能认清自己,知道自己有哪些可以帮助人类的潜能。用适当的指南引导 AI 发展,可以让生活变得更美好。如果没有指南,技术会让贫富分化变得更严重,让排斥力变得更强大,进一步强化偏见,几个世代以来,我们一直在努力克服这种偏见。" 李飞飞试图让我们相信,现在的时代已经是一个介于发明和影响(指发明带来的影响)之间的时代。

 来源:驱动之家

THE END
广告、内容合作请点击这里 寻求合作
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

相关推荐

1
3