从不断变革的信息系统的历史中汲取启示。
人工智能(AI)相关的争论往往与模型是否智能、自主有关。一些人工智能研究人员和评论员推测,我们正处于使用通用人工智能(AGI)创造智能体的风口浪尖上,这一前景既令人兴奋又令人焦虑。关于大型人工智能模型的文化和社会影响的广泛讨论往往围绕两个焦点:当前使用的这些系统造成的直接影响,以及当这些系统未来变成AGI系统甚至超级AGI系统时的预期影响。然而,这种将大模型作为智能体的论述从根本上来说是错误的。将社会科学和行为科学的思想与计算机科学相结合,可以帮助我们更准确地理解人工智能系统。大型人工智能模型不应一味被视为智能体,而应视为一种可以利用其他人积累的信息的全新文化和社会技术。
大型人工智能模型的新技术结合了早期技术的重要特征。就像图片处理、书写、打印、视频、互联网搜索和其他此类技术一样,大型人工智能模型允许人们访问其他人创建的信息。目前,语言、视觉和多模态的大型人工智能模型以互联网为基础,因而这些早期技术的产品以机器可读的形式随时可用。并且,与经济市场、国家官僚机构和其他社会技术一样,这些系统不仅使信息广泛可用,而且允许人们以独特的方式对其进行重组和转换。大型人工智能模型是“人类社会的人工系统”的新变体,它对信息进行处理,以实现大规模的协调功能。
像其他所有创新一样,人工智能将产生技术规范之外的文化和社会影响。我们认为,大型人工智能模型本身应当被理解为一种特定类型的文化和社会技术。它类似过去的写作、印刷、市场运作、行政等方面使用的技术。哪怕新技术本身不是文化或社会方面的,比如蒸汽技术和电力技术,也可以产生文化影响。而维基百科这样的真正的新文化技术,却可能影响有限。过去的许多文化和社会技术对社会产生了深刻的、变革性的影响。大型人工智能模型可能也会如此。
这些影响明显不同于蒸汽或电力等其他重要通用技术的影响。它们也不同于我们对假想中的AGI的期望。对过去的文化和社会技术及其影响的反思将有助于我们更好地理解人工智能模型的危险因素和广阔前景,而不是一味担心超级智能体的出现。
社会和文化机构
人类从诞生以来就一直依赖文化。一开始,人类利用语言获得了从其他人的经验中学习的独特能力,这可以说是人类进化成功的秘密。这些能力在技术上的重大变化推动了巨大的社会变革。口头语言之后是图画,然后是文字、印刷品和视频。如今,我们可以在更广阔的空间和时间范围内获取越来越多的信息,访问和组织这些信息的新方法也陆续出现,从图书到报纸,再到互联网搜索。这些发展对人类思想和社会产生了或好或坏的深远影响。例如,18世纪印刷技术的进步使新思想得以迅速传播,在启蒙运动和法国大革命中发挥了重要作用。2000年前后数字技术发生了一次里程碑式的转变:几乎所有的文本、图片和动图信息都被转换成数字格式,并且可以立即传播和无限复制。
人类只要存在,就会依赖社会机构协调个人信息的收集和决策的制定。这些机构本身可以被认为是一种技术。在现代,市场、民主和官僚制度尤为重要。经济学家弗里德里希 · 哈耶克(Friedrich Hayek)认为,市场的价格机制动态总结了极其复杂、深不可测的经济关系。生产者和购买者不需要了解生产的复杂性,他们只需知道价格,这将大量的细节压缩成一个简化但好用的符号。民主政体的选举机制以相关方式将分散的意见集中在集体的法律和领导的决策上。人类学家詹姆斯 · 斯科特(James Scott)认为,所有国家都通过建立官僚系统管理复杂的社会。这些官僚系统对信息进行分类和系统化处理。在计算机出现之前,市场、民主体制和官僚机构允许信息的表述有所缺失,只要有用即可。这些表述来自并超越了个人的知识和决定。价格、选举结果或国内生产总值(GDP)等指标总结了大量的个人认知、价值观、偏好和行动。同时,这些社会技术本身也可以塑造个人知识体系、推动事务决策。
市场、国家或官僚机构的抽象机制,如文化媒体,可以通过关键行为影响个人生活。例如,中央银行将金融经济的复杂性降低到只有几个关键变量。这提供了明显的稳定金融的效果,但代价是让房地产市场的不稳定性加剧。比如美国中央银行对此关注甚少,从而引发了2008年全球金融危机。同样,市场可能并不会主动呈现有害碳排放这样的“外部影响”。通过征收碳税将这些信息整合到价格中会有所帮助,但这需要国家层面采取行动。
人类广泛地依赖这些文化和社会技术。然而,这些技术的出现是因为人类具有智能生命体的独特能力。人类和其他动物可以感知并应对不断变化的外部世界,建立新的外部世界模型,并且在积累更多证据时修改这些模型,然后设计新的目标。同时,人类个体还可以创造新的信仰和价值观,并通过语言或印刷品将这些信仰和价值观传递给他人。文化和社会技术以强有力的方式传播和组织这些信仰和价值观,但如果没有人类个体的贡献,文化和社会技术将无法出现。没有创新,模仿就没有意义。
例如,机器人技术中的一些人工智能系统试图将类似的能力复现。原则上,人工系统可以在将来的某个时刻做到这一点。毕竟,人脑就是这样运作的。但目前,所有这些系统离真正获取这样的能力都还有很远的距离。我们现在可以讨论对这些潜在的未来人工智能系统的担忧,以及如果它们出现,我们将如何处理它们。但这与目前和不久的将来大型人工智能模型对现实的影响是不同的问题。
大型人工智能模型
与其他系统不同,大型人工智能模型在过去几年中取得了显著且出乎意料的进展,使其成为当前有关AI的讨论的焦点。这一进步导致人们主张对其进行“扩展”,即简单地采用当前的设计并增加它们使用的数据量和计算能力,从而使得AGI智能体可能在不久的将来出现。但是,大型人工智能模型与智能体有着本质上的区别,而且“扩展”不会改变这一点。
与智能体不同,大型人工智能模型以一种新的方式结合了文化和社会技术的特点。它们可以生成无法管理的庞大而复杂的人工信息体的目录。但这些系统并不仅仅是总结这些信息,它们还可以以新的方式,按比例重新组织并建构这些信息的表示方式。正如市场价格是对潜在资源分配和使用的有损表示,政府统计数据也不能完全代表潜在人口的特征,拥有训练后的数据语料库的大型人工智能模型也具有这样的特点。
因为人类很难清楚地思考大规模的文化和社会技术,所以我们倾向于从信息代理的角度来考虑它们。故事是传递信息的一种特别有效的方式,从炉边故事到小说再到电子游戏,他们通过创建说明性的虚构代理物来实现这一点,尽管听众知道这些代理物不是真实的。类似地,很容易将市场和国家视为代理物,机构或公司甚至可以拥有一种法律人格。
但大型语言模型(LLM)和大型多模态模型实际上是统计模型,它们将人类产生的大量文本语料库分解为特定的单词,并估计长单词序列的概率分布。这是一种不完美的语言表示方法,但包含了大量关于它总结的模式的信息。它允许LLM预测下一个单词的顺序,从而生成类似人类语言的文本。大型多模态模型对音频、图像和视频数据执行相同的操作。大型人工智能模型不仅抽象出了一个非常庞大的人类文化体,而且允许对其执行各种各样的新操作。LLM可以通过提示对其所训练的数据进行复杂的转换。简单的论据可以用华丽的隐喻表达,华丽的散文可以凝练成朴素的语言。类似的技术使相关模型能够根据提示生成新的图片、歌曲和视频。以前对于大规模操作来说过于复杂、庞大和不成熟的文化信息现在已经变得易于处理。
在实践中,这些系统的最新版本不仅依赖人类生成和管理的大量文本和图像的缓存,而且还依赖人类的判断和其他形式的知识。特别是,系统依赖人类反馈强化系统(RLHF)或其变体,即成千上万的人类员工提供模型输出的评级。它们还依赖快速工程:人类必须利用他们的背景知识和聪明才智从模型中提取有用的信息。
允许大型人工智能模型从文本中提取统计结果的相对简单但功能强大的算法并不是模型成功的关键。现代人工智能建立在图书馆、互联网、数以万计的人类编码者和日益增长的活跃用户的基础上。有人向机器人寻求帮助,为求职申请撰写求职信,这实际上是在与成千上万的早期求职者以及数百万其他信函的作者和RLHF员工建立技术中介关系。
挑战与机遇
人工智能方面的争论焦点应侧重于这些新的文化和社会技术带来的挑战和机遇。我们现在有了一种技术,它对文字和图像文化的作用,就像大型市场对经济的作用,大型官僚机构对社会的作用,甚至可以与历史上印刷品对语言的作用相提并论。接下来会发生什么?就像过去的经济、组织和信息“通用技术”一样,这些系统将对生产力产生影响。它们可以代替人类工作,使得以前只有人类才能执行的任务如今可以自动化运行。它们也可以参与分配工作。
然而,人工智能也将产生更广泛和更深刻的文化效果。我们还不知道这些效果是否会像印刷、市场或官僚机构那样影响深远。这些早期的技术是18世纪和19世纪广泛的社会变革的核心。所有这些技术,与大型人工智能模型类似,都支持信息的抽象处理,以便可以大规模地执行新类型的操作。所有这些也都引起了人们对错误信息和偏见的传播、对文化同质化的合理关切。包括印刷品和电视在内的新的传播媒体的出现,会带来对新媒体传播错误信息和邪恶文化力量的合理担忧。类似地,官僚机构和市场部署的分类方案往往会带来令人不安的结果。
与此同时,这些技术为在全球范围内重组信息和协调数百万人之间的行动创造了新的可能性。关于LLM的社会、经济和政治效果的思考集中于对新文化和社会技术的担忧和希望。确定这些思考方向既需要认识到新论点和旧论点之间的共同点,也需要仔细地分析全新的且在不断发展的技术细节。
这是社会科学的中心任务之一。社会科学领域的学者对过去这些技术效果的研究有助于我们思考AI目前还不太明显的社会影响,并考虑如何重新设计AI系统,以增加正面影响并减少负面影响。随着媒体、市场和官僚体系在19世纪和20世纪的扩张,它们产生了经济上的输家和赢家,取代了从文员和打字员到类似“人形计算机”的各类工人。今天,人们显然担心大型人工智能模型和相关技术可能取代“知识工人”。
还有一些不太明显的问题。大型人工智能模型会使文化和社会同质化还是碎片化?在历史背景下思考这一点尤其具有启发性。当前的担忧类似19世纪和20世纪在市场和官僚机构问题上的分歧。有学者担心经济和官僚“合理化”带来的同质化后果;有学者则认为市场交易会让参与者接触不同形式的生活,从而减少冲突。
大型人工智能模型的设计可以忠实地再现文本、图像和视频序列的平均出现概率。因此,它们有一种内在的倾向,即在训练数据中最常见的情况下表现得最准确,在数据稀少或全新的情况下表现得最不准确。这可能导致大型人工智能模型呈现糟糕的同质化倾向。
另一方面,大型人工智能模型可能允许我们设计新的方法,以获得文化视角的多样性。结合和平衡这些观点可以提供更复杂的解决复杂问题的方法。实现这一点的一种方法可能是建立类似当前社会的生态系统。在这种生态系统中,不同大模型中的不同观点可以相互辩论,并可能相互融合,以创建新观点。大型人工智能模型在提取文本和图像中微妙、不明显的细节方面出人意料地有效。这表明,这些技术可用于在文本和图像中找到纵横交错于人类知识和文化空间的模式,包括人类难以察觉的模式。我们可能需要新的系统,使大型人工智能模型反映的人物角色多样化,并产生与人类社会相同的分布结构和多样性。
使这样的系统多样化可能对科学进步起到非常重要的作用。人工智能技术具有进一步加速科学发展的潜力。通过将文本、音频和图像中的许多视角连接在一起,大型人工智能模型可以让我们发现它们之间前所未有的联系,从而造福科学和社会。
新的文化和社会技术影响经济关系的方式不那么明显,但也更有趣。文化技术的发展导致产生信息的人和传播信息的系统之间产生了一种紧张经济关系。任何一个群体都离不开另一个群体:作家需要出版商,正如出版商需要作家一样。但他们的经济激励却朝着相反的方向推进。如果分销商能够以较低的成本获取作者的信息,那么分销商将获得利润;而如果作者能够以较低的成本获取分销商的信息,那么作者将获得利润。这种紧张关系一直是新文化技术的一个特点。以数字形式分发信息的便捷性和效率已经使这一问题变得不容忽视,从地方报纸到学术期刊的危机都证明了这一点。大型人工智能模型处理可用信息的速度、效率和范围使得这些问题显得尤为突出。
还有一些关键的技术问题:我们可以在多大程度上弥补大型人工智能模型的系统缺陷?它们在什么时候会比基于人类知识工作者的系统更好,或更坏?我们也不应掩盖关键的政治问题:哪些人能够被利益调动起来?相关的技术和组织能力的组合如何产生?很多时候,技术部门的评论员将这些问题归结为机器和人类之间的简单斗争。一方面,进步的力量将战胜倒退的反对新技术的倾向。另一方面,人类也会成功地抵制人工技术的非人道侵权行为。这些斗争早在计算机出现之前就已经存在,因此这种想法不仅没有认识到以往的分配斗争的复杂性,而且忽视了未来可能出现的许多不同路径。这些路径中的每一条都有独特的技术可能性。
就早期的社会和文化技术而言,一系列进步制度的出现,包括规范和管理制度,缓和了新技术的影响,比如编辑法、同行评议法、印刷诽谤法、选举法、存款保险法、市场法规、民主和官僚机构、证券交易委员会等。它们的效力各不相同,需要不断修订。然而,这些力量并不是自己产生的,而是技术本身的使用者协调一致和持续努力的结果。
展望未来
AGI,作为超级智能体的大型人工智能模型,在技术界内外都为人们所关注。AI乐观主义者将其描述为充满希望的“婴儿潮一代”。但也有人将其视为“末日使者”。这些想法错误地理解了这些模型的性质及其与过去技术变革的关系,转移了人们对这些技术带来的真正问题和机遇的注意力,使我们没有注意到历史可以教给我们的关于如何确保收益大于成本的经验教训。
当然,正如我们上面提到的,未来可能会有更像智能体的假想人工智能系统。我们可能会讨论如何处理这些假想系统。但LLM不是这样的系统。与图书馆目录和互联网一样,大型人工智能模型也是文化和社会技术悠久历史的一部分。
社会科学对这段历史进行了详细的探索,使我们对过去的技术剧变有了清晰的认识。把计算机科学和工程以及社会科学紧密地结合起来,将有助于我们理解这段历史并应用这些经验教训。大型人工智能模型会导致更高程度的文化同质性还是更严重的碎片化?它们会加强还是破坏人类的社会制度?当它们重塑政治经济时,谁是赢家,谁是输家?在将大型人工智能模型视为人类智能体的类似物的讨论中,这些紧迫的问题并没有成为焦点。
改变这一现状将更好地促进研究。如果社会科学和计算机科学方面的学者都明白大型人工智能模型不仅仅是一种新的文化和社会技术,那么他们就更容易合作并整合各自的优势。计算机科学领域的学者可以将他们对这些系统的深刻理解与社会科学学者对其他此类大规模系统如何重塑前一个时代的社会、政治和经济的理解结合起来,补全现有的研究并发现新的方向。这将有助于纠正过去的偏差,即计算机科学学者对复杂的社会现象采用过于简化的概念,而社会科学学者无法理解这些新技术的复杂功能。
这将使有关人工智能的讨论内容发生转变——彻底从对机器接管人类社会的恐惧和对不久的将来人人都将拥有一个完全可靠和称职的人工助手的期望中转移出来。大型人工智能模型的实际效果肯定与此不同。与市场和官僚机构一样,它们将使某些知识比过去更为明显和易于掌握,鼓励决策者专注于他们能够衡量和看到的新事物,而牺牲那些不那么明显和更令人困惑的事物。因此,权力和影响力将转向那些能够完全部署这些技术的人,而远离那些不能部署这些技术的人。人工智能削弱了使用人工智能和为其提供数据的人的地位,加强了人工智能方面的专家和决策者的重要性。
最后,以这种方式思考可以重塑人工智能的功能。工程师和计算机科学学者已经意识到大模型偏差的问题,并且正在思考它们与伦理和正义的关系。他们应该更进一步:这些系统将如何影响分配问题?它们对社会极端化和一体化的实际作用是什么?大模型能用来增强而不是削弱人类的创造力吗?找到这些问题的实际答案需要我们对社会科学和工程有足够的理解。将有关人工智能的争论转移到文化和社会技术方面是建立这种跨学科认识的关键一步。
资料来源Science
————————
本文作者亨利·法雷尔(Henry Farrell)是约翰 · 霍普金斯大学政治专家;阿利泰·高普尼克(Alison Gopnik)是加州大学伯克利分校心理学家;科斯马·沙利兹(Cosma Shalizi)是卡内基梅隆大学统计系副教授;詹姆斯·埃文斯(James Evans)是芝加哥大学社会学与数据科学系教授












