尽管2017年人工智能取得显著进步,但人工智能仍然无法做到或无法理解的事情还有很多,本文列举了2018年亟待解决的5个问题。

 

 

  2017年的人工智能领域取得了显著进步。例如,一款名为“冷扑大师”的人工智能机器人,完胜人类顶级扑克选手。在现实世界中,机器学习正被应用于扩大农业和改善医疗保健等方面。
 
  但最近你使用过Siri(iPhone上的语音控制功能)或Alexa(当前拥有URL数量最庞大,排名信息发布最详尽的网站)吗?如果你用过,那么你就会知道,尽管有各种炒作,但人工智能仍然无法做到或无法理解的事情还有很多。专家们将在2018年重点研究以下5个棘手的问题:

 

使人工智能理解语言

  在处理文本和语言方面,机器比以往任何时候的表现都要好。Facebook可以为视力受损的人朗读图像的描述;谷歌则在对电子邮件进行简短回复方面表现出色。然而,软件仍然无法真正理解我们话语的含义以及我们的想法。波特兰州立大学教授梅兰妮·米切尔(Melanie Mitchell)说:“我们人类可以将所学的概念以不同的方法组合起来,并将它们应用到新的情况中。而这是人工智能和机器学习系统无法做到的。”
 
  米切尔认为如今的软件发展受到了数学家吉安·卡罗-罗塔(Gian Carlo-Rota)所说的“意义障碍”的限制。一些领先的人工智能研究团队正试图弄清楚应如何克服这一障碍。
 
  研究工作的目的之一是使机器拥有常识,并熟悉支撑人类思维的物质世界。例如,Facebook的研究人员正试图通过让机器观看视频的方式来教机器学习理解现实世界。另一些研究者则致力于使机器模仿人类对世界的理解。谷歌一直在试图让机器人学习理解世界的软件。米切尔已经尝试用现有经验和大量概念来训练系统以解释照片中所发生的事情。

 

缩小阻碍机器人革命的现实差距

  机器人硬件已经发展得相当不错了。你能够以500美元的价格买到一台带有高清摄像头只有手掌大小的无人机。那些运送货箱,用两条腿走路的机器也有了改进。那么为什么人类的生活还没有全面运用机器助手呢?――目前的机器人缺少“思维大脑”来指挥它们复杂的组织结构。
 
  让机器人做任何事情都需要特定的编程来完成特定的任务。它们可以从重复的试验(和错误)中学习类似操作任务,但这一过程相对缓慢。一个很有潜力的办法是让机器人在虚拟的仿真世界中训练,然后把获得的信息下载到物理机器人的机身里。然而,这种方法却存在难题――“现实差距”,这个词语描述了机器人在仿真世界中学习的技能被转化到现实世界中的机器上时并非总是可用的。
 
  然而,“现实差距”正在缩小。2017年10月,谷歌报告的实验结果让人们看到了希望――机械手臂学会了捡起各种各样的物体,包括胶带座、玩具和梳子。
 
  对于致力于研究自动驾驶汽车的人们来说,“现实差距”也进一步缩小。竞相研究机器人驾驶的公司模拟在街道上部署虚拟汽车,以减少在真实交通和道路条件下进行测试所需的时间和开支。自动驾驶创业公司Aurora的首席执行官――之前曾是谷歌之母――Alphabet公司的自动驾驶汽车项目的负责人――克里斯·厄姆森(Chris Urmson)透露,让虚拟测试更适用于真实的交通是他团队的首要任务之一。他说:“在接下来一年左右的时间里,我们将会看到如何利用这一点来加速机器学习。”

 

防范人工智能黑客

  运行电网、安全摄像头和手机的软件一直受到安全漏洞的困扰。自动驾驶汽车软件和家用智能软件也会存在相同的问题,甚至可能更糟――有证据表明,机器学习软件的复杂性会导致发展新的黑客攻击途径。
 
  2017年的研究表明,你可以在一个机器学习系统中隐藏一个秘密的触发机制,在一个特定的信号发出时,该机制会使系统进入“捣蛋”模式。纽约大学的一个研究团队设计了一个路标识别系统――除非看到黄色的便利贴,否则都能够正常运作。在布鲁克林的一个停车标志上贴上一张黄色便利贴,自动识别系统就会发出限速要求。而类似小把戏就能造成大麻烦。
 
  这个威胁被认为是很严重的。2017年12月上旬在世界最著名的机器学习会议上,研究人员召开了为期一天的研讨会以探讨欺骗机器带来的威胁。研究人员讨论了一些会引发混乱的问题,比如在人类看来很正常的手写数字,但在软件看来却有所不同。例如,你所看到的2,会被一个机器视觉系统看作是3。研究人员还讨论了利用此类问题对人类进行攻击的可能,并对未来人工智能或许被用来愚弄人类表示担忧。
 
  组织该研讨会的蒂姆·黄(Tim Hwang)预计,随着机器学习变得更强大、更容易部署,使用这种技术来操纵人类是不可避免的。他说:“你不再需要很多博士来进行机器学习。”蒂姆·黄指出,在2016年总统大选期间,俄罗斯的“假讯息活动”就是人工智能强化的信息战的一个预演。

 

超越棋盘游戏

  Alphabet的“冠军围棋”软件在2017年得到了快速发展。2017年5月,该软件一个更强大的版本击败了中国的围棋世界冠军。该软件的设计者――DeepMind公司,随后创建了一个版本――AlphaGoZero,可以在不学习任何人类围棋案例的情况下学习围棋。12月,另一个升级版本诞生了――AlphaZero,可以学习国际象棋和日本棋盘游戏――将棋。
 
  大量引人注目的进展令人印象深刻,但也暗示了人工智能软件的局限性。国际象棋、将棋和围棋都很复杂,但都有相对简单的游戏规则,游戏设置对双方都是可见的。它们很好地匹配了计算机可以快速计算很多未来可能布局的能力,但生活中的大多数情况及问题并非都是那么整齐有序。
 
  这就是为什么DeepMind和Facebook都于2017年开始研发多人视频游戏“星际争霸”的原因。两者都尚未取得较大进展。目前,由业余爱好者打造的最好机器人,甚至都比不上那些中等技术的游戏玩家。DeepMind的研究人员奥里奥尔·温亚尔斯(Oriol Vinyals)在2017年早些时候向《连线》杂志透露,他的软件现在缺乏必要的规划和记忆能力,而这些能力可以在组建和指挥军队的同时,对于对手的行动进行预测和反应。另外,这些技能也会使软件在帮助现实世界更好地完成任务,比如办公室工作或真正的军事行动。2018年“星际争霸”或类似游戏若取得重大进展,可能预示着人工智能将出现一些强大的新应用程序。

 

教人工智能辨别是非

  即使在上述领域并未取得新进展,如果现有的人工智能技术能得到广泛应用,经济和社会的很多方面也将发生巨大变化。由于政府和很多公司都急于做到这一点,一些人对于人工智能和机器学习可能带来的意外和故意伤害深感担忧。
 
  在2017年12月召开的网络入侵防护系统(NIPS)机器学习会议上,一个重要的议题就是如何将技术控制在安全和伦理道德的范围内。研究人员发现,机器学习系统在接受数据训练时,可以挑选出令人讨厌的或不必要的行为,比如性别歧视。目前,一些人正在研究可以用于审核人工智能系统内部运作的技术,并确保它们在金融或医疗等行业工作时能做出公正决策。
 
  2018年,科技公司将会提出一些想法――关于如何使人工智能保持在人性美好的一面。谷歌、Facebook、微软和其他一些公司已经开始讨论这个问题,这些公司都是一家名为“人工智能合作”的新型非营利组织的成员,该组织将研究并试图改变人工智能的社会影响。一个名为“人工智能道德与行业管理基金”的慈善项目用来资助麻省理工学院、哈佛大学和其他研究人工智能的机构,以维护公众利益。纽约大学一个新的研究机构――AI Now也有类似的使命。在该机构最近发布的一份报告中,呼吁各国政府在刑事司法或福利等领域应坚决放弃使用不接受公众审查的“黑箱”算法。

 

 

资料来源  Wired

责任编辑  游溪