人工智能正在推动所有科学领域的进步。但四位前沿领域的科学家警告说,要审慎使用人工智能。

人工智能(AI)的快速发展为科学进步提供了巨大潜力,但同时也引发了伦理问题。人工智能系统不仅可以分析庞大的数据集、检测相关模式、优化资源配置并生成假设,可能还有助于人们应对气候变化、粮食安全和疾病等全球性挑战。然而,人工智能的使用也引发了与公平、偏见、歧视、透明度、问责和隐私有关的问题。图像生成式人工智能程序可能会延续并放大这种偏见,例如将“非洲”一词与贫困联系起来,或将“贫穷”与深肤色联系起来。此外,一些科技巨头未能披露他们系统中的一些重要信息,这妨碍了用户在问责方面的努力。

来自不同国家的四位研究者就人工智能在科学研究中的重大前景和潜在陷阱发表了看法。他们讨论了获得准确代表整个人群的数据集的必要性,以及理解人工智能工具局限性的重要性。非洲的专家警告说,人工智能系统应该惠及所有人,而不是进一步加剧富裕国家和贫穷国家之间的不平等。

罗斯 · 金:善用人工智能,坚持高道德标准

16.1

罗斯·金(RossKing)是英国剑桥大学和瑞典查尔姆斯理工学院的计算机科学家。他和同事在机器人科学家的帮助下,发现牙膏中的一种常见成分是强效抗疟疾药物

1983年以来,我就在人工智能领域工作,当时我在荣誉学位论文项目中利用计算机模拟微生物生长。人工智能的潜力让我深受鼓舞,因此我帮助组织了“图灵人工智能科学家大挑战”,这是一项旨在开发出到2050年能够产生诺贝尔奖级别研究成果的人工智能系统的倡议。科技进步给人类社会带来巨大变革:如今数十亿人在生活水平上都超过了历史上的英国君主,享有更优质的食物和医疗服务,以及更便捷的全球旅行和数字通信。但是,我们仍然面临诸如气候变化、流行病和极端贫困等重大问题。

在我的人工智能职业生涯中,我一直试图让科学变得更加高效。2009年,我和同事们制造了一个名为亚当(Adam)的机器人科学家,它是第一个可以进行酵母基因组学自动化研究的机器人。2015年,我们推出了夏娃(Eve),它是亚当的改良版,实现了早期药物设计的自动化,尤其关注被忽视的热带疾病。我们证明了人工智能技术能够显著降低开发成本,这种方法目前已在制药行业得到广泛应用。夏娃发现,三氯生(牙膏中的一种常见成分)是一种强效抗疟疾药物。

只是在最近几年,才有人真正开始关注人工智能可能带来的伦理后果。然而,这已经有点为时过晚。如果“图灵挑战”取得成功,我们将拥有能够改变科学但又具有潜在危险的智能体。这促使我们一群人在2023年的一次挑战研讨会上起草了《斯德哥尔摩人工智能科学宣言》。我们与其他签署方共同承诺,会将人工智能用于造福人类的科学研究,并确认人工智能应有助于应对全球气候变化和粮食安全等重大挑战。我们还认识到,有必要进行严格的监督和问责,并建立安全防护措施,防范潜在的滥用行为。我们希望这份宣言能提高公众对使用人工智能的隐患的认识。例如,避免偏见和歧视至关重要。如果训练数据不能覆盖整个人群,那么系统就无法做出准确的普适性推断。

同样,我们应当警惕人工智能系统可能会得出错误结论。以美国监狱中关押的人为例,历史上黑人的监禁率远高于白人,这与美国系统性的种族主义传统有关。显然,这种差异并非生物学因素所致,但一个仅基于监禁统计数据集进行训练的人工智能系统可能会得出错误的推断,认为这与生物学有关。因此,我们要非常小心,不能轻信大型语言模型所说的一切,而应审慎检查其输出结果。在科学研究中,你仍需为自己的工作负责,不能简单地推卸责任说,“人工智能告诉我这么做的”。

我认为使用人工智能来处理数据、生成假设或提出实验建议并没有什么伦理上的问题。它只是一种工具。归根结底,你的良知才是你的向导。

苏莱什 · 文卡塔苏布拉曼尼安:了解人工智能工具的局限性

16.2

苏莱什·文卡塔苏布拉曼尼安(SureshVenkatasubramanian)是美国罗德岛普罗维登斯布朗大学的计算机科学家,参与起草了美国首个《人工智能权利法案》蓝图

2013年的一次休假中,我开始从宏观角度思考人工智能,并问自己:“如果我们在全世界范围内使用机器学习,会发生什么?我们如何知道这些系统在做它们应该做的事情?”现在,我专注于研究自动化决策系统对社会的影响,特别是在算法公平性方面。算法不公平是指决策算法根据我们认为不应起作用的特征作出决策的情况。例如,一家科技公司用于招聘决策的算法可能会倾向于选择男性而非女性。

2021年,我应邀担任白宫科技政策办公室负责科学与司法事务的助理主任,并参与起草了美国首个《人工智能权利法案》蓝图。这份文件提出了五个核心原则来保护个人权益,其中包括保护数据隐私和避免算法歧视。它与科学家息息相关,特别是当他们在研究中应用人工智能影响公民权利时,可能会影响到个人发展或获得服务的机会。例如,作为一名生物医学研究者,您可能正在开发医疗设备或设计治疗方案,这些都会影响人们的生活以及他们在社会中发挥作用的能力。

《人工智能权利法案》将为人工智能从业者提供更具体的建议。我们在人工智能工具的能力和局限性方面需要有更好的指导。要知道,所有工具都有局限性。除非你别无选择,否则你不会用螺丝刀去钉钉子。

公众关于人工智能的讨论大多停留在较宏观的层面上,这样的讨论并没有实际帮助。研究者们需要更加明确地关注人的需求,否则就无法真正理解他们开发的工具对社会产生的广泛影响。比如,开发一种复杂而公平的评估工具来预测哪些人最不可能按时出庭,然后特别关注这些人,这种做法可能还不如直接给每个人发开庭日提醒信息来得有效。

在布朗大学,我领导着“技术责任中心”。我们思考的一件事便是如何让广大研究人员了解人工智能的能力边界。

我们可以使用ChatGPT来为文章提供标题创意吗?当然可以。我们能通过聊天机器人获得问题的准确答案吗?目前还不行,但请继续关注。我们能依赖人工智能制定改变人生的重大决策吗?几乎可以肯定这是行不通的,至少在没有重大保护措施的情况下是不行的。目前,我们正处于炒作人工智能的阶段,很少有人讨论这些工具的局限性。但重要的是,我们需要对此有一个全面的认识,了解这些工具适合做什么、不适合做什么。

尼亚伦 · 穆罗西:高效且合乎道德的人工智能需要有代表性数据

16.3

尼亚伦·穆罗西(Nyalleng Moorosi)是莱索托王国分布式人工智能研究所的计算机科学家,同时也是“深度学习Indaba”(一个非营利组织,旨在帮助非洲人学习成为人工智能进步的积极塑造者和拥有者,Indaba在祖鲁中语意为“聚集”)的联合创始人

2016年,我为南非科学与工业研究委员会做过一个数据科学项目——利用社交媒体数据来了解当年地方选举中的政治趋势和情绪。很明显,大部分讨论都是由城市里的富裕选民主导的。我们没有农村居民的声音,而且老年人以及低收入群体在其中的比例也不高。我们还意识到,我们可以获取人们不一定愿意主动提供的信息,比如他们的位置或关于家庭和朋友的细节。这些关于公平和隐私的问题都暴露了出来。这让我对数据的代表性产生了浓厚的兴趣:也就是说,哪些人被包含在数据集中,以及他们是如何被呈现的。

在非洲,数据代表性真的很重要。在驱动人工智能聊天机器人的大型语言模型中,大多数非洲语言的资源非常少,所以这些模型在执行诸如语言识别和翻译等任务时表现不佳。一个典型的例子是在2024年国际计算语言学协会北美分会上发表的一篇论文。这篇论文显示,当用于在特定数据集中识别517种非洲语言时,ChatGPT的平均准确率只有5%,但它却能够在77%的时间里识别出英语。人工智能需要靠历史数据进行训练,但由于这些人工智能系统没有非洲国家的数据,因此并不适用于我们。开发者实际上还没有“看到”我们。

当非洲的人工智能开发者拿到这些性能不佳的系统时,我们会迅速进入我们的社区,开始构建数据集。我们与这些系统互动,并对其进行修正,系统也在不断地学习。最理想的情况是,我们能让这些系统为我们工作,但由于我们并不拥有这些系统背后的公司,所以我们实际上是在无偿地做这些工作。

因此,我们应该将资源集中在本土的研究人员和开发者身上,这样我们才能开发出自己的系统。然后,我们就能使用自己的正确性衡量标准,并纳入有意义的数据。Masakhane(祖鲁语意为“我们共同建设”)是非洲最大的语言模型构建社区之一,现在已经构建了多个基准数据集,许多其他本地语言工具都是基于这些数据集开发的。

人工智能的另一个问题是,它可能会输出社会无法接受的结果,比如谷歌照片应用将两个黑人标记为大猩猩。现在,谷歌通过从他们的数据集中删除“大猩猩”这个标签,创建了永远不会再犯这种错误的系统。当然,对于我们研究界来说,这可能并不是最佳解决方案,但它表明这种错误在美国是多么难以容忍。开发者和公司会将自己的身份、文化和政治观点嵌入到他们的系统中。这就是为什么在当地构建人工智能系统很重要,因为我们知道自己对什么敏感,以及什么对我们的社区有意义。

我和我的人工智能开发者同事们认为,作为非洲人,我们需要学习足够的知识来为自己开发这些技术。于是,在2017年,我们成立了非营利组织“深度学习Indaba”,旨在加强非洲的机器学习和人工智能。起初,我们只是举办了一个暑期班,让人们来学习机器学习的基础知识。如今,这个组织做的事情要多得多。我们的目标是让非洲人不仅成为人工智能进步的观察者和接受者,还要成为这些进步的积极塑造者和拥有者。我们了解我们的问题,并且擅长解决它们。

塞迪纳 · 恩迪亚耶:防止非洲遭受人工智能驱动的殖民化

16.4

塞迪纳·恩迪亚耶(SeydinaNdiaye)是塞内加尔谢赫·哈米杜·凯恩数字大学的项目主任兼讲师。他担心非洲被视为充满人工智能资源的可供开发之地

攻读博士学位期间,我在法国图卢兹的国家农艺研究所工作,研究如何使用人工智能优化冬小麦的种植。在非洲,人工智能可以发挥巨大的积极作用,特别是与联合国的17个可持续发展目标联系起来考虑时尤为明显。这些目标要求我们共同努力解决贫困、饥饿、疾病和环境恶化等问题。人工智能在农业、健康和教育等领域取得的进展意味着它已经有可能应用于解决非洲的许多常见问题。人工智能也为加强对非洲多样性文化的认同开辟了广阔的前景。非洲人工智能界的人们已经感受到了制作非洲特色内容的热情,这些内容可以与世界其他地区分享。我们也看到了由非洲人主导的非洲语言人工智能系统。

获得博士学位后,我联系了以前在塞内加尔大学的本科同学和教授,提出我们应创办信息技术公司的想法,来确保我们在这一领域的主权,而不仅仅是进口产品的消费者。我们创建了几家信息技术教育和软件开发公司,包括SeySoo,该公司在塞内加尔、加蓬、布基纳法索和法国提供信息技术服务和培训。

在我职业生涯的起步阶段,我对人工智能持有的是一种纯粹积极的看法。然而在过去的15年里,人工智能的蓬勃发展更多地受到了经济利益的驱动,而非以解决人类面临的问题为导向,这让我开始重新审视自己的观点。

我担心非洲正在被该领域的大国当作人工智能经济全球链中获益最少的一环来管理,这是违背非洲意愿的。他们将非洲视为难以在其他地方获得的健康数据的来源,或是寻找从事数据分类和标注工作的低薪工作者的地方。我担心这会让非洲再次遭受殖民化。当谈论非洲的殖民化时,我们想到的是对自然资源和人力资源的严重剥削,但殖民化最负面的影响无疑是文化认同和自主性的丧失,尤其是在技术创新方面。

人工智能的霸权之争取决于三大支柱:计算能力、人才和数据。随着国际竞争的加剧和全球需求的增长,这些资源变得越来越稀缺。北半球的发达国家和大型企业往往将目光投向南半球,尤其是非洲大陆,视其为人才和数据资源丰富的未开发之地。这种形势下,非洲大陆面临的风险(实际上这种情况已经发生)在于,其经验丰富的人才会因为移民潮而流失,而那些受雇为数据工作者的非洲人会在工作条件不佳、薪资低廉、工作保障不足的环境中被剥削利用。

在众多国际研究项目中,我们经常看到非洲合作伙伴被用来提供数据以构建模型,或者为大规模实验提供框架。这种做法加剧了殖民主义倾向。若非洲研究人员在人工智能科学进程中的贡献得到充分认可,我们便有望找到融合多元文化的创新解决方案。InstaDeep是一家由非洲人创立和运营的初创公司,在人工智能驱动的药物发现、设计和研发方面取得了显著进步,现已被生物技术公司BioNTech收购。

对于使用在非洲国家收集的数据的研究者而言,维护数据的保密性至关重要,尤其是涉及个人隐私的敏感信息,如健康数据。同样重要的是,要确保那些为人工智能模型提供数据的非洲人能够从这些系统中获益。

如果我们期望发展由所有人共享、共创的负责任的人工智能技术,就要确保非洲大陆不被抛在后面。这主要是非洲政策制定者的责任,他们需要将人工智能作为优先事项,并为非洲研究人员和企业家提供创新所需的资源。国际研究界也可以提供帮助,包括将非洲的专业知识和经验纳入项目中,并仔细考虑如何使用非洲数据。全球合作伙伴可以帮助非洲研究人员成为为非洲和世界提供令人惊叹的人工智能解决方案的创造者。

资料来源 Nature