麻省理工学院的经济学家对不受管制的技术创新发出警告。
麻省理工学院教授达龙·阿齐默鲁
并非所有的技术创新都值得被称作进步。那是因为,一些技术进展虽然带来便利,但总的来看,也许不像宣传中那样推动社会进步。麻省理工学院(MIT)教授达龙 · 阿齐默鲁(Daron Acemoglu)就是一位站在科技拉拉队对立面的研究者。阿齐默鲁的研究领域包括劳动经济学、政治经济学和发展经济学。美国电气与电子工程师协会《IEEE 光谱》杂志与他聊了聊最近的研究工作,以及他对于“人工智能之类的技术会对人类社会带来正面还是负面影响”这个问题的见解。
在你2022年11月的工作论文“自动化与劳动力”中,你与共同作者说,当AI与劳动力相遇时,在最好的情况下,记录也是好坏参半。如何解释对熟练劳动力的更大需求与他们的人员配备水平之间的差异?
公司常常解雇技能生疏的劳动者,试图多雇用熟练的劳动者。理论上,需求高昂和供应紧缩应该带来价格增高的结果——在这个例子中,就是雇佣方提供更高的薪水。基于这条接受已久的原理,公司理所当然会认为“给更多钱,带来更少麻烦”。可以说,这在一定程度上是对的,但……当公司抱怨技能短缺时,我认为一部分的情况是,他们在抱怨他们见到的应聘者普遍缺乏技能。
在你的2021年论文“人工智能的危害”中,你的主张是假如AI仍然不受管制,它会引起巨大的危害。你能否提供一些例子?
让我给你两个来自时下最流行的ChatGPT的例子。ChatGPT能被用来做许多不同的事。但大语言模型目前的路线——ChatGPT是典型例子——主要聚焦于宽泛的自动化议程。ChatGPT试图让使用者感到惊艳……它尝试做的事情是试图在形形色色的任务上表现得和人类一样好:回答问题、进行对话、写诗、写文章。事实上,ChatGPT在一些事上能够胜过人类,因为写连贯的文本是一个具有挑战性的任务,根据从互联网上搜集的大量数据,AI就能通过预测工具知道接下来应该出现什么词,在这方面干得相当好。
GPT-3(催生出ChatGPT的大语言模型)所走的路线是强调自动化。在其他一些领域,自动化已造成一些有害的影响——造成不平等、失业等。你思考一下就会明白,同样的架构能用于十分不同的工作。我们可以换个方式使用生成式AI,不是要取代人类,而是当人类的帮手。假如你想要写一篇论文给《IEEE 光谱》,你要么可以让ChatGPT为你写篇论文,要么可以让它为你整理出一份阅读清单,也许就捕捉到一些你本人不知道、但与主题相关的文章。于是,问题会变成那份阅读清单上的文章有多可靠。然而,生成式AI凭借这种能力会成为人类的补充性工具,而不是一件取代人类的工具。但是,那不是眼下人工智能走的路线。
让我再给你另一个例子。因为,ChatGPT的架构基础就是从互联网上抓取能免费获得的信息。然后,美国人工智能公司OpenAI运作的中心化结构有一个难题:假如你仅仅从互联网抓取信息,再用生成式AI工具来组成句子,那么非常可能出现的情况是,你最后得到一堆包括种族外号在内的仇恨言论,因为互联网上充斥了这些垃圾言论。那么,ChatGPT要如何处理这个问题呢?呃,一帮工程师坐下来,研发出另一组工具(大多数是基于强化学习)。这组工具使得他们可以说“这些词不许说出来”。以上就是中心化模型的难题。要么任由AI给出仇恨言论,要么就得要由某人来判定什么言论包含仇恨。但在政治论述中,那么做不会有助于任何信任。因为揭开真相后可能发现,三四个工程师就能决定民众在社会议题和政治议题上能听到哪些内容。我相信,那些工具能以更加去中心化的方式得到使用,而不是在中心化的科技巨擘(比如微软、谷歌、亚马逊和脸书)的支持下使用。
你说,创新者应该采取更加慎重的姿态,而不是继续快行打破常规。是不是有什么明确的禁条能够指导人工智能的研究?
是的。让我再一次用ChatGPT来举例。他们想要在市场上击败谷歌公司,而一些技术最初是由谷歌研发的。这次他们在研究上领先一步,发布了产品。现在有数千万人在使用ChatGPT,但如果它们以这种方式被使用,我们不知道大语言模型的更广泛的含义会是什么,会如何影响新闻业和中学英语课,它们将有什么政治含义。谷歌不是我最喜欢的公司,但在这件事上,我认为谷歌的做法谨慎得多。谷歌实际上阻挡了他们的大语言模型。但OpenAI公司学习脸书的“快行打破常规”,把ChatGPT一下子抛出来。这是一件好事吗?我不知道。结果是,OpenAI公司已经变成一家估价几百亿美元的公司。现实中,它一直是微软公司的一部分,现在它已经被整合进微软必应。与此同时,谷歌的市值少掉大约1 000亿美元。所以,你看到了我们所处的高风险、竞争残酷的环境,以及这种环境产生的诱因。我不认为在没有规章的情况下我们能信任大公司负责任地做事。
科技公司早已断言,自动化会让人类扮演管理者的角色,而不是简单地干所有工作。机器人在一边工作,人类在一堵墙后面的小房间里监督机器的活动。但谁敢说,那个小房间不会在大洋彼岸呢?这种分离会不会进一步允许雇主通过离案外包削减劳工成本?
对的,我同意上面这番话。我会说,这是一些从事快速算法自动化的公司通常使用的借口。这是一种常见说法。但你无法创造出1亿个人类监督者、数据提供者、算法训练者的工作岗位。提供数据和训练的用意是要让算法从现在起能承担人类过去干的工作。这和我说的与人类互补的含义是不同的,后者的意思是算法变成人类的一个工具。
根据你的论文“人工智能的危害”,一心想要削减劳动力成本的公司高管已经使用技术来帮助绕开那些让劳动者受益的劳动法律。譬如说,重新排定小时工的轮班表,这样几乎没有人每周的工作时间达到可以享受雇主赞助的医疗保险或加班费的门槛。
是的。还有些更加重要的例子是用AI来监督劳动者,以及采用无固定时限合同形式的实时调度。换言之,我雇用了你,但我不保证会提供你任何工作。你是我的雇员,我有权叫你上班。当我叫你上班时,雇主期望你准时出现。比方说我是星巴克公司,我会打电话告诉你“威利,早上八点过来上班”,你就来上班。然而,我不是非得要叫你来上班,假如我连续一周就不叫你,那么你那周就毫无收入。
随着AI技术和方便监督的技术同时扩散,会不会出现隐私和匿名性完全丧失的情况,就像科幻电影《少数派报告》中描绘的那样?
呃,我认为这种情况早已经发生了。谷歌已经掌握关于你的许多信息,除非你关闭手机里的各种设置。它也在持续不断地利用你在互联网和其他手机应用中留下的数据。所以,隐私和匿名性完全没了。一些人说:“哦,没那么糟糕。那些是大公司。”但我认为,那些公司把数据用于个性化定向广告,在把你的数据卖给第三方,这会引起许多问题。
四年之后,我的孩子会从大学毕业了,AI将如何改变他们的职业选择?
那要说回之前那番关于ChatGPT的谈话了。GPT-3和GPT-4这类程序也许会毁掉许多工作,目前来看,它们不会带来生产力的巨大改进。另一方面,正如我提过的,也许存在更好的替代路线。AI的发展没有预先设定,我们无法准确知道接下来的四年里会发生什么,但关键在于路线。当前的发展路线是基于自动化的。假如继续往那条路走,许多工作将会向你的孩子关上大门。但如果发展路线沿着一个不同的方向,让AI变成人类的补充,那么谁知道会怎样呢?或许,那时可能有一些十分有意义的新职业向他们张开双手。
资料来源 IEEE Spectrum