https://d2ufo47lrtsv5s.cloudfront.net/content/sci/357/6346/7/F2.medium.gif

 

  艾萨克·阿西莫夫在一篇关于他的科幻小说的文章中表示:将机器人描述为一种危险的设备是很常见的,并总是以摧毁它们的创造者为结局。但他反对这一观点,并制定了确保机器人系统安全且不会伤害人类的“机器人三定律”。1955年在建议使用计算机解决人类面临的各种问题时首次使用了“人工智能”一词,这离阿西莫夫“人与机器人”关系的问世仅几年时间。半个多世纪以来,人工智能研究已日趋成熟并发展了多个分支学科,产生了一系列机器学习方法,赋予人工智能感知、学习、推理以及理解自然语言等多种能力。
 
  “深度学习”令机器模式在准确性上取得了令人惊讶的跳跃式进展,人工智能日益繁荣的时代已经到来。这些新的进展给消费者带来了人工智能的许多新能力,包括语音翻译和半自动驾驶等。然而,许多艰难的挑战依然存在,如何让人工智能学会人类智能的许多能力,仍然是人工智能科学家困惑的一个问题。
 
  与此同时,对人工智能潜在负面影响的忧虑也减缓了对AI研究的兴奋和激情。受一些很久以前的科幻故事情节影响,有些人担心超级智能机器人的崛起或人工智能系统可能会失控。另外一些人注重的则是一些较近的忧患问题,强调潜在的不良后果。例如,用于指导卫生保健和刑事司法中高风险决策的数据驱动分类器,可能受到隐藏在数据集深处的带有偏见观点的数据的影响,从而导致不公正和不准确的推断。其他迫在眉睫的问题包括关于自主系统所做决定的法律和道德问题,解释人工智能所做推断的困难,新形式的监督系统对公民自由的威胁,军事应用不稳定产生的影响,取代人类就业岗位的潜在威胁以及财富不平等现象的扩大等。
 
  我们在推动人工智能科学向前发展的同时,在短期和长期尺度上解决人工智能对人类和社会的影响将至关重要。例如,可以通过重点研究、监测和分析,制定出有价值的评估和指导方案。人工智能的影响范围广泛,需要跨学科团体的参与,包括计算机科学家、社会科学家、心理学家、经济学家和律师等。就长期问题来说,通过对话就超级人工智能和邪恶人工智能的不同看法和分歧进行沟通是很有必要的。有前途的发展方向包括确定轨迹和结果,让人工智能加入到计算机科学家和工程师们在软件验证、技术安全和故障安全设计原则等方面的工作中去。
 
  好消息是,关于人工智能的研究以及一些项目计划的实施已在进行之中。2008年人工智能发展协会主持了一项长达数月的关于人工智能未来发展的研究项目,研究AI的兴趣在之后美国加州阿西洛玛的一次会议上达到了高潮。该项目负责在未来一个世纪甚至更长时间里,每5年组织一次类似研究的总结报告。最近其他方面的一些活动包括美国国家科学院主办的研习班和研究项目。2017年4月,在一项为期两年的调查研究之后,一份关于自动化对美国劳动力影响的报告问世了。2017年早些时候,来自工业界、学术界和民间社会的代表组成了一个称为“AI伙伴关系”的非营利组织,以期为开发和保护人工智能技术推荐最佳范例。
 
  阿西莫夫曾撰文总结道,“我无法让自己相信,如果知识出现了危机,解决方案也一样无知。对我来说,解决方案必须充满智慧。你不应该拒绝面对危险,而是要学会如何安全地掌控它。”事实的确如此,人工智能的前进之路应该由理智的好奇心、谨慎与合作来引导。

 

资料来源 Science

责任编辑 彦 隐