随着社会上开始遍布类似「终结者」之类机器人的骇人报导,人工智能(AI)在2017年取得了卓越的进步。例如,一个叫做Libratus的机器人选手就会让你在扑克游戏里进退两难。而在现实世界中,人工智能应用正在被用于改善农业产出,或者扩大医疗的覆盖面等诸多领域。但是,你最近有和你的智能助理Siri或者Alexa聊过天吗?如果有的话,你会知道尽管有很多企业的宣传,人工智能仍然有很多不能做或者不能理解人类的事情。所以,在接下来的下一年里人工智能的专家们还需要解决以下5个棘手的问题。

理解我们的语言

实际上,人工智能技术从未能如此轻松地处理我们的语言和文字。Facebook已经做出了可以为视障人士读出图像内容的描述的AI,而谷歌则能够帮你简洁快速地回覆电子邮件。尽管如此,软件仍然不能真正理解我们的语言以及背后的真实语意。「我们能够理解一些概念,然后把它们用各种方式结合起来运用到不同的实际情况中。「来自波兰州立大学的教授MelanieMitchell说道,「但是这些人工智能和机器学习系统并不能做到百分之百和我们人类一样。」Mitchell把当今软体上的这些困境描述为数学家GianCarlo-Rota所说的「thebarrierofmeaning」(语意障碍)。目前一些人工智能的研究团队正在努力尝试攻克这个难关。

其中任务之一是让机器有一定的常识,来理解现实世界。比如,Facebook的研究人员正在尝试让机器人软体看一些视频来理解现实世界。而其他的研究人员则是让软体用他们对世界的认知来模仿人类的行为。谷歌一直在尝试提升机器学习人类语言学隐喻修辞的能力,Mitchell已经用相关系统模拟过机器用一些类比修辞和预存的对人类世界的理解,来解释照片中的内容。

阻碍机器人革命的现实差距

机器人在硬体方面已经相对成熟了:你可以用500美元买一个手掌大小、配备高清摄像头的无人机。同时搬运货物和能用双腿行走的机器人性能也大有改善。然而问题在于为什么现实生活中这些机器人没有参与进来,帮助我们更好地工作?那是因为当今的机器人缺乏协调他们发达四肢的大脑。实际上,让机器人完成任何具体的任务都需要给他们特定的编程。通过这样,他们可以学习一些操作,比如在多次失败的尝试之后学会抓取特定物体。但是这个学习过程相对较慢。目前一个可行的方法是让机器人在虚拟世界中接受训练,然后把这些数据转移到真实的机器人体内。尽管这个方法困扰于现实中结果的差距—模拟训练过程学习到的技能在现实场景不能总是被有效地运用进来。

幸运的是现实的差距正在逐步缩小,2017年10月,谷歌的研究人员报导新的进展,他们在试验机器人在模拟和真实场景下拾取不同物体比如胶带座、玩具、梳子等物体。人工智能在自动驾驶汽车领域的进展同样非常重要。那些在自动驾驶汽车领域角逐的公司,让虚拟的汽车在模拟的道路上行驶,以此减少在实际路况下测试所花费的时间和金钱开销。自动驾驶汽车初创公司Aurora的首席执行官ChrisUrmson表示,如何让模拟的测试更贴近去现实驾驶情况,是他们公司的首要任务之一。Urmson之前领导过Google母公司Alphabet的自动驾驶汽车项目,他预计道「明年或者之后,我们可以更好的通过这种模拟来加速机器学习的进展。」

防止AI骇客的攻击

那些管理我们电网、摄影镜头、手机的软体经常会受到各种安全漏洞的困扰。应用于自动驾驶汽车和自主机器人的软体同样会遭受这样的问题。更严重的是,有证据表明有关机器学习的软体因为复杂性的原因反而引入了更多的攻击途径。今年,有关研究人员指出,他们可以隐藏某个内置于机器学习系统里的触发器,然后让它在接受特定信号的时候变成邪恶模式。来自纽约大学的研究小组设计了一个在通常情况下能够正常运作的街道识别系统,但是该系统的问题在于它一旦识别出黄色的Postit标志就会异常运作。如果把黄色便利贴粘到Brooklyn街道的一个停车标志上,系统会自动识别并报告这是一个限速标志。这些看似很小缺陷,都可能成为自动驾驶汽车的潜在问题。

在本月一个世界知名的机器学习会议上,研究人员们强调了这种潜在威胁的严重性。在会议上他们讨论了机器欺骗的一些可能方法,比如如何生成与人类手写相仿但是对于机器来说截然不同的数字。比如人类会把某个图形看作是数字2,然而机器视觉系统却把它当做是3。研究人员也讨论了应对这种攻击可能有效的防御方法,同时也担心人工智能可能会被当做愚弄人类的工具。该研讨会的组织者TimHwang预测到,随着机器学习以后被应用地更加广泛、变得更加强大,使用这种技术来操控人类的情况难以避免。他说:「以后你将不再需要一屋子的博士生去进行机器学习的研究」,Hwang先生指出,在2016年美国总统选举期间,俄罗斯的虚假宣传表明出AI技术已经可以被用于信息战。他说:「为什么你没有在这些活动之中发现机器学习技术应用的踪影呢?」Hwang预测道把戏之一就是可能使用了机器学习来产生不实的音频和视频。

人工智能在棋类竞技中脱颖而出

Alphabet的围棋选手软件在2017年发展迅猛。在5月份,更强大的新一代版本在中国打败了围棋冠军。这个AI的研究部门DeepMind随后又创立了一个叫AlphaGoZerod的版本,它可以在不需要和人类比赛的情况下训练自己。去年12月,该部门又一次升级了AlphaZero,让它先后学会了下象棋和日本将棋。AlphaGo的结果令人意外,但同时也限制了人工智能的局限性。因为尽管国际象棋,将棋和围棋都很复杂,但是这些棋类选手都有相对简单的规则和游戏玩法。这表明了它们在未来确实能够很好的胜任的某些人类职务。但是在生活中大多数情况下,问题的结构远远没有那么规整。

这也是为什么2017年DeepMind和Facebook两公司都开始发展能够玩多人制「星际争霸」游戏的人工智能的原因,虽然到目前为止两公司都没有取得长足发展。因为到目前即使是最好的人工智能玩家,也难以和中等水平的人类玩家抗衡。DeepMind的研究人员OriolVinyals在今年早些时候告诉WIRED网站的记者,它们的人工智能玩家缺乏规划和记忆的能力。而这些能力恰恰是规划指挥游戏队伍,预测对手行为并且加以应对的关键。此外,这些技能还能让人工智能更好的协同现实工作,比如运用到办公室场景或者军队指挥中去。2018年人工智能在星际争霸或者类似游戏的巨大进步,可能预示着AI未来会有更强大广泛的应用。

教会人工智能来明辨是非

即使在上述领域AI没有新进展的情况下,如果把现有技术用于经济和社会学领域也同样会带来翻天覆地的变化。然而正当企业和政府正在大力发展AI的时候,一些人难免会担心人工智能和机器学习带来的一些意外或者蓄意伤害。于本月召开的NIPS机器学习大会上,如何在安全和道德准则限定下发展科技成为了会议讨论的重要内容之一。研究人员发现,机器学习系统已经可以开始从我们远不完美的世界里获取数据,进而学会了一些例如对性别有刻板映像印象之类的不好的行为。所以现在有人在研究能够监视人工智能系统内部的运作,并保证他们能够在运用到金融或者医疗领域时能公平地发挥作用。

下一年我们应该就能看到科技公司赋予人工智能以人性的光辉。谷歌、Facebook、微软和其他公司已经开始着手这个问题。同时他们都是一个致力于控制人工智能对社会影响的非盈利组织Partnership的成员。当然,很多驱动力也来自于外界的独立组织。一个叫做人工智能伦理管理基金会的慈善项目正在支持麻省理工学院,哈佛大学等研究人工智能运用和社会福利的关系。纽约大学的一个叫AINow的新组织也在进行类似研究。在近期的一个报告里,该组织呼吁各国推广使用黑匣子算法以此来保持司法刑事、社会福利领域的隐私性。

 



相关文章