GMIS 2017 | 伯克利教授Stuart Russell:人工智能的过去、现在和未来

机器之心原创

机器之心编辑部

全球机器智能峰会(GMIS 2017),是全球人工智能产业信息服务平台机器之心举办的首届大会,邀请了来自美国、欧洲、加拿大及国内的众多顶级专家参会演讲。本次大会共计 47 位嘉宾、5 个 Session、32 场演讲、4 场圆桌论坛、1 场人机大战,兼顾学界与产业、科技巨头与创业公司,以专业化、全球化的视角为人工智能从业者和爱好者奉上一场机器智能盛宴。

5 月 28 日,机器之心主办的为期两天的全球机器智能峰会(GMIS 2017)进入第二天,全天议程中最受关注的是多位重要嘉宾出席的领袖峰会,包括《人工智能:一种现代方法》的作者 Stuart Russell、第四范式联合创始人兼首席科学家杨强、科大讯飞执行总裁兼消费者事业群总裁胡郁、阿尔伯塔大学教授及计算机围棋顶级专家 Martin Müller、Element AI 联合创始人 Jean-Sebastien Cournoyer 等。

Stuart Russell 是加州大学伯克利分校人工智能统计中心创始人兼计算机科学专业教授,一直关注人工智能领域的发展。同时,他还是人工智能领域里标准教科书《人工智能:一种现代化方法》的作者。作为当天的第一名演讲嘉宾,Stuart Russell 带领现场观众进行了一场关于《人工智能的过去、现在和未来》的探索,观往知来,全面解析人工智能的奥秘。

「很长一段时间以来,大家都不知道人工智能是什么,我们一直在想应该对它有一个怎样的定义。」Russell 说,人工智能是一个内涵丰富的学科,其内容涉及哲学、数学、神经科学等学科与领域。

同时,人工智能也不是一个新学科。在二十世纪四十年代,人们就在思考如何使用一些新工具;五十年代的时候,已经有很多会议呼吁各学科的人们一起来共同创造人工智能。「但后来的情况怎么样?它们都分开了,这是因为所有的这些学科缺乏一种通用的数学语言。」创造一种通用的数学语言来涵盖所有学科是一件困难的事,尽管目前还无法实现,但是人们正朝着这样的方向前进。六十年代时,这个领域已经有一些可以看得到的进展,人们是非常乐观的;但到了七十年代左右,大家逐渐变得失望;在八十年代的人工智能寒冬之时,许多公司已经开始赔钱,人工智能成为一个大家不喜欢的词语。

现在,人们开始认真地看待人工智能,迎来了人工智能爆炸的奇迹。许多初创公司开始专注于人工智能的发展,像谷歌、IBM 等巨头公司也投入到人工智能的研究中。同时,人们也看到了神经科学的进步以及计算机资源、大数据的发展。

随后,Russell 详细介绍了有监督学习方法。在深度学习需要使用卷积神经网络的时候,属于一种有监督的学习,也是人工智能的一部分。这里的数据是有标签的,同时还涉及一些包括线性模型、逻辑回归、神经网络、决策树的假设方法,进而对未来的案例进行推论。

Russell 用一个简单的物体识别例子给了大家更清晰的认知。

那么,为什么要进行深度学习呢?

2015 年,机器已经具有超越人类的表现,这中间 ImageNet 数据集是功不可没的。不过,机器在视觉方面也有逊于人类的表现,可能出现各种各样的错误,包括物体的遮挡、视图的扭曲、一张图片中存在多对象类别或是超级类别、子类别的混乱等情况。

另外,Russell 举了 AlphaGo 战胜李世石的例子。「AlphaGo 包含了很多技术,一种就是深度学习,也用到了蒙特卡罗树搜索,可以得到非常高效的结果,它可以追溯到 1950 年代的一些复杂但是经典的搜索方法。另一方面,人工智能很多领域的发展也促成了 AlphaGo 的成功,比如支持深度学习的硬件发展。」刚刚输给 AlphaGo 的柯洁也曾说,去年跟 AlphaGo 下棋的时候好像还是在跟人下棋,而今年他觉得好像是跟上帝下棋一样。

接下来,Russell 分享了一些他对与人工智能的看法。

他认为,虽然现在所有的发展都是非常让人欣慰的,但是确实还是噱头在里。人们需要审慎考虑,不要因为过度的期待而觉得失望。在大家对人工智能取得巨大进步而感到自豪的时候,也有可能出现 AI 的寒冬。「我们上一次 AI 寒冬是因为这个技术的前景和一些承诺。很多人可能都不太记得当时的内容,是 1980 年左右的一些技术,当把它放到真实的世界当中时并不是非常的奏效。那时深度学习也不太受欢迎。但是如今我们可以更新现代的技术,可能未来对训练资料、数据的要求也不用再那么高。」对此,Russell 称,假设让一个小孩看大象的图片,给小孩子两、三张大象的图片他就能够识别了,而非给他 4000 多张图片进行训练。所以可能将来技术先进到一定程度的时候,人们对它的依赖就不再那么大。

过去五十年的 AI 发展给人们的一大启示——知识是非常重要的,人类能够高效的学习是因为一开始人类就有很多知识,知识使得人类能够从非常少的案例中完成学习。这里,Russell 提到了一种概率规划,并举例核武器测试网点等概率规划的应用。

对于人工智能的现在、未来以及眼下仍无法实现的问题,Russell 也给出了自己的观点。

「虽然我们缺失的东西很多,但是我们已经能够预见到,不远的讲来,AI 系统就能够像人类一样,具备相同的能力了。」有的人可能认为这是一个天方夜谭,但是 1933 年,一位非常有名的物理学家 Lord Rutherford 曾说过,任何想抽取原子转变能力的人都是在在异想天开。然而第二天 Leo Szilard 就发明了中子诱导核链式反应。

人工智能可以让人类做更多的事情,把人类文明推向更积极的方向。但是也有出现杀人机器的可能性,成为一种大规模杀伤性武器新品种,引起人们的种种担忧。

问题的关键是,人们需要确保给机器赋予的这些功能确实是想让它拥有的,但是也可能人们赋予它的功能并不是人们最初期待的。Russell 举了点石成金的国王将食物、水、饮料,甚至他的女儿都变成了金子后痛苦去世的故事。对于这个问题,Russell 的见解是要改变 AI 的定义,AI 系统要能够被证明可以给人类带来益处。为了实现这个目标,有三个简单的方法:「第一点,机器人的目标就是使得人类的意愿最大化的实现,就是说机器应该使得人类的意愿得到满意,而不是让机器给我们创造一种让人类感觉不舒适生活。第二点,机器人不知道什么是价值,我们不要给机器有一个固定的价值系统。第三点,人类的行为给机器提供参考。」

演讲的最后,Russell 提出了两个非常有趣的例子。第一个例子是关于个人助手要帮助更需要晚餐的人而选择不帮助主人准备晚餐。

第二个例子是孩子在家感到饥饿的时候,家里冰箱没有东西,机器人选择家里的猫作为食材准备晚餐。

这样的机器人是好是坏?未来人工智能到底会走向何处?Russell 给出了自己的答案:「AI 需要对人类有贡献,要想做到这点是一个技术性的问题,我相信我们能够解决这个问题。」

更多有关GMIS 2017大会的内容,请点击「阅读原文」查看机器之心官网 GMIS 专题↓↓↓

相关文章推荐

不吃辣的最终沦为了下等人

科技  2017-08-14 10:17