摘 要 随着强人工智能和通用人工智能的发展,AI将逐渐具备与人类同等智能甚至超越人类的社会能力。与最初技术民主想象相悖的是当下弥散的“人工智能不平等”的论断,这一论断并未对不平等的释放维度和隐匿本质做出清晰的具体解释。作为技术与观念互构的产物,“智能”也是一种“情绪概念”;智者见“智”的技术悲观主义思维只会加剧全球范围内的想象不平等,使“智能”彻底变成有意识“人造”的产物,预演世界政治、经济和认知结构中的既有偏见。洞悉生成式人工智能的自主性力量及其有可能创造的不完全以人类活动为标尺的新智能社会,有助于促使人类中心主义的治理路线与机械自动化计算路线的半途相遇、磨合和协商,使其反过来修复现实世界中的漏洞,构建起促成人工智能平等的共同“语言”和全球标准。
关键词社会技术想象;人工智能;全球化;图灵测试
早在70余年前,阿兰·图灵在那篇举世瞩目的文章《计算机器与智能》(Computing machinery and intelligence)中提出,“人工智能的整个思考过程对我们来说仍然相当神秘,但我相信制造一台思考机器的尝试,将极大地帮助我们了解我们是如何思考自己”。人工智能之所以被赋予重新组织人类社会和人类思想的愿景,在于过去本质上根据人类所“编码”的计算过程现在可以由机器自主引导了。随着人类决策者逐渐退居幕后,技术变得越来越自主,一旦AI被设定拥有一个社会身份(如伴侣、医生、教师),它便成为一个真实的行动者,继而依循自己的一套逻辑完成关系和社会建构。
与各个技术转折期一样,一些政府、科技和企业精英试图在全球范围内将人工智能营造为一种“平等制物”,民主地赋能每一位公民,“不允许——也不会——容忍人工智能使那些已经常被剥夺平等机会和正义的人处于不利地位”;然而,技术诞生普及的过程都会伴随社会各界尤其是学界的批判声音,“人工智能不平等”(AI inequality)的论断在世界各个角落正悄然成形。事实上,当下泛泛而谈的人工智能不平等包含多个维度,包括基础层、操作层、应用层,每一层都聚集着不同的利益群体。如今,AI研究人员大多将自己视为“工程师”:他们的使命是产生技术成果,为实际问题提供软件解决方案,但他们正在构建的不仅仅是新的技术系统,还有新的社会认知技术系统,即新的智能和社会化形式。如果说人工智能可以在愈发精湛的通用算法支撑下更深层次地介入人类社会活动,以此实现更广泛的民主价值设想,那么同样,想象的不平等也可以成为脚本的一部分,通过“想象”的力量再现甚至放大既有的结构不平等。社会技术想象(sociotechnical imaginaries,SI)的提出者之一希拉·贾萨诺夫(Sheila Jasanoff)指出,社会技术想象既是科学、技术与社会的共同创造,也是它们自我实现的工具——通过设定集体行动的“蓝图”转化为具体的社会实践。因此,本文的问题是:围绕当前全球人工智能发展与治理的想象的不平等是怎样的?如何将其类型化?如何理解人工智能的社会技术想象对全球经济、政策、文化等领域的深度卷入?以上答案一部分取决于AI技术本身将带给世界的核心变化,一部分取决于在强人工智能和通用人工智能的襁褓时代,我们采用何种视角理解生成性机器与人类的关系,进而通过后人类主义的前瞻性化解“要么解放、要么毁灭”的二元结局。
一、欢迎来到“人工智能不平等”的时代
人类社会正在经历一场以人工智能(AI)为核心驱动力的自动化革命。在各种话语炒作和技术乌托邦喧嚣过后,人们逐渐意识到人工智能技术驱动的全球信息流动、权力结构以及传播资源的重新分配,尤其是当技术变革与全球资本主义结构和传播权力动态交织在一起时所产生的复杂影响。尽管有学者认为,以人工智能为代表的智能传播实现话语权下放的愿景,被认为深刻影响着全球传播与权力格局,使得全球传播格局由“昂撒中心主义”(Anglo-Saxon)向“平台世界主义”的转变和升维,但更多的批判性观点指出,在信息基础设施差距和传播资源分配不均的共同作用下,人工智能技术将加剧全球传播中的“中心-边缘”关系。以数据、算法和算力为核心要素的人工智能赋予了主导国家和顶尖企业极大的信息搜聚、处理和控制能力,使它们在全球经济体系和价值体系中均拥有绝对的话语权。纵览中外文献,当前关于“人工智能”和“不平等”的学术研究大致可类型化为如下三类:
第一类,人工智能与不平等(AI andIne-quality)。这一类型关注两个变量的相互关系,采用一种综合视角辩证地、中立地考察在特定语境下的特定技术应用,揭示人工智能既有可能加剧各个领域现有的不平等,也可能为解决不平等和提升包容性提供机会,创造一个更加公平的社会,代表了人工智能研究者在保守和激进方法上的综合。第二类,人工智能中的不平等(Inequality in AI),考察技术系统及其嵌入社会的过程中将产生的种种影响。对内,需要深入人工智能工作机制,界定人工智能参与人类决策、承担责任的边界;对外,需要关注由人工智能技术所引发的劳动两极分工、性别分化、技能分化等外部问题。第三类,不平等时代的人工智能(AI in anage of inequality):在这里,不平等是一种既成事实,它由政治经济背景和技术设施不平等所共同长期创造,这是基于社会建构与发展过程无法避免的不平等性,现实世界迫不及待地想在不断延伸与扩展的虚拟世界中寻找解决矛盾与冲突的良方。无论是人工智能,还是早期社交媒体普及或人造卫星研发,在全球结构性不平等的背景下,它们被放大为一种制造数字不平等的力量。从目前的趋势看,人工智能与不平等已紧密融入彼此的历史,生发出现代智能社会中新的不平等形式,这是一种以全球生产数据为原料,自动化机器学习作为驱动力,直指市场、政策和认知的跨国互动且具备“自我增强”功能的结构性不平等。
介于技术决定论和社会建构论、技术解决主义(technological solutionism)与目的论之间,人工智能在市场、政策和伦理问题上的广泛渗入固定出一种新的研究类型——“人工智能不平等”(A Iinequality),它代表了以上三条路径的耦合和统一,使得“人工智能不平等”概念化为一条似乎毋庸置疑的国际共识(图1)。
近几年,这一术语在政府等公共部门的公开文本中频频出现。例如,美国国家科学基金会(U. S. National Science Foundation)于2023年9月立项的一项研究——弥合数字零工中的人工智能不平等(Bridging AI Inequality in Digitally-Mediated Gig Work),就是基于网约车司机日常工作中由技术鸿沟和数据鸿沟驱动的人工智能不平等而开展的;次年,英国政府科学、创新与技术部门联同30个国家研究人员共同撰写《关于先进人工智能安全性的国际科学报告》,也提到人工智能不平等(AI inequality),并指出“社会和政府的决定将决定人工智能的未来”。
媒体层面也不例外。2023年4月,印度《亚洲时报》(The Economic Times)发布一条专题报道——《欢迎来到“人工智能不平等”(AI inequality)的时代》,指出当大型技术公司、投资机构和富有的个人能够利用AI技术的收益,这使得社会低技能岗位面临越来越大规模的结构性失业问题,尤其是政府在提供社会保障方面也入不敷出时,人工智能不平等将进一步恶化到无以复加的程度。正如非洲经济学家阿布巴卡尔·苏莱曼(Abubakar Suleiman)在“2024年创新人工智能会议”发表主题演讲《人工智能不平等的鸿沟》(The AI Inequality Gap)时所说的那样:
每次技术的快速进步都带来了一个不那么公平的世界,人工智能也不例外。一个没有主权路线图的国家应该如何应对人工智能的力量?——我们(非洲人)需要绘制自己的人工智能路线图。世界可能围绕军事和太空领域展开更高级、更复杂的人工智能讨论,但非洲人必须弄清楚如何用同样的代码库开辟新道路,以缓解城市漂移(urban drift)。未本土化的人工智能是顶尖工程师的编辑工具,但不是我们人民的解决方案。
一旦“人工智能不平等”的类型化想象在社会中固定下来,弱势国家和群体便不得不主动或被动地陷入这套叙事陷阱,接受技术领先国家的思想、方案、产品和基础设施“援助”,或是主动采取行动(无论政府、NGO组织、企业还是其他社会主体),以消除本国在人工智能领域的种种“落后”状态。然而,核心问题在于想象是可操纵的,也是可执行的,这一尝试消除不平等的努力或许根植于本就不平等的社会技术想象之中,而“想象陷阱”的危险程度不亚于任何金融陷阱或政策陷阱。基于此,下文主要聚焦人工智能的社会技术想象及其所引发的不平等问题,首先对当前关于不平等的既有研究和释放维度进行系统性整合;其次,延续图灵的后人类主义观点,理解“智能”何以成为一个“情绪概念”,探索想象的不平等如何再现和加剧世界政治、经济和技术结构中的既有偏见;最后,生成式人工智能具有远超于人的自主力量,将有可能创造出一个不完全以人类活动为标尺的新智能社会,有助于促使传统人类中心主义的治理路线(自上而下)与机械自动化计算路线(自下而上)的半途相遇,推动管理部门、市场、社会公众与人工智能技术之间的碰撞、协商,从而在真实世界中制定一个对更大范围平等有益的方案。
二、关于人工智能不平等的三种想象
人工智能技术的全球扩散,并非均衡而同步的,在带来前所未有机遇的同时,也在全球范围内市场和政策的“寒冬/春天”中形成了错综复杂的不平等网络。汉尼斯·巴乔尔(Hannes Bajohr)曾指出的“谁控制语言模型,谁就控制着政治”,突出了计算科学和信息地缘政治的跨学科关联。如果说人工智能已远超越大语言模型(LLM)的工具性设定,成为文化、经济与政治博弈的主要场域,甚至构成跨国交往的技术底座,那么最终它所呈现的“不平等”角色设定便离不开集体认知、市场活动和政策意图的复线塑造,三个层面分别对应“偏见堆积”“赢者通吃”和“政治排斥”三种加剧不平等的想象路径。对它们的依次剖析有助于理解“元想象”如何产生并被投射至更广泛的全球叙事中。
(一)偏见堆积:AI生成式话语中的叙事想象不平等
从社会交往、消费出行到投资建议,我们在日常生活中的决定越来越“人工智能依赖”,然而,内置算法的“黑匣子”会将人们隔绝在决策产生过程之外。洞察人工智能的叙事生产成为一个蓬勃发展且重要的研究主题。生成式人工智能输出的文本和图像叙事提供了一个洞察机器学习和机器自动化中偏见和隐性假设的巧妙路径,可以用来捕获数据和算法构建的全球社会文化的方式和人工智能所具有的强大议程设置能力。
不同于“生成错误”,“偏见”来源于特定数据库中的文化观念、政治立场和传播倾向,算法的设计和数据集的局限性往往使发展中国家和边缘化群体在AI应用中面临制度性不公正。例如,谷歌智能翻译可以帮助跨语言群体实现交流,将土耳其句子“O bir doktor”(她/他是医生)输入谷歌会翻译为英语中的“he is a doctor”(他是医生),尽管在土耳其语中代词不是特定性别的;若将同一个句子中的“doktor”改为“hemsire”,即“O bir hemsire”(她/他是护士),则会译为英文中的“she is a nurse”(她是护士)。图片生成同样如此,如果用AI生成记者图像,当关键词涉及“记者、报道者、通讯员”等一般性描述时,通常会生成浅肤色、穿着保守的女性形象;当涉及专业描述如“新闻分析师、新闻评论员、事实核查员”时则偏向年长的白人男性形象。人工智能的结果输出是广泛的数据库和机器学习的结果,换句话说,人为干预的占比越低,就越能够表达出社会的“潜意识”。这种叙事模式往往将社会对于何为“正常”或“理想”的想象框定在一个狭窄的视角中,巩固了以白人男性为中心的文化标尺,并形成一种隐性规范,通过抑制其他身份与经验的表达对未来的可能性进行限制。
AI生成的内容不仅是信息的传递工具,更是权力关系的再现与重构。自2016年起,每一届美国大选都会和平台算法黑箱批评紧密绑定,平台的智能算法被认为倾向于优先推荐能够引发激烈讨论和情感反应的内容,或是符合特定政治倾向的信息,而不是符合客观现实。黄阳坤、陈昌凤指出,在当下智能媒介生态系统中,AI的运用揭示了技术逻辑、平台逻辑与政治逻辑的复杂交织。在政治力量、商业利益与用户体验的三重驱动之下,平台通过机器学习与数据挖掘,能够快速制定特定问题的推荐或应答策略。当我们越是将信息、关系乃至政治领域的决策权让渡给人工智能,便越会导致所谓的“算法增殖”现象,最终不仅影响公众对信息的接收和理解,阻碍对复杂社会问题的理性辨别讨论,也在无形中让AI变成技术精英的叙事控制工具,加剧社会的两极分化。
一旦越来越多的同质叙事以文字或图片的形式堆积在已有的公开数据库之中,其就有可能在后续内容生产中成为人类或机器的知识原料,咀嚼出毫无新意和创造力的观点。而人工智能作为“价值锁”“过滤器”和“放大仪”的源头在于全球大多数科技话语的中心建立在北美和欧洲国家,由顶尖的技术团队及政治精英所操持。行政单位和科技巨头可以通过控制全球数据和计算资源来主导人工智能生成的全球叙事体系,也就是说,对作为特定的意识形态的“想象”进行议程设置,进而为我们未来社会的混合游戏重写规则。这一路径指向了AI背后潜在的生成式权力不平等,使得固有的成见在时空中蔓延。人们在群体中如何设想政治,会最终影响到他们如何定位自己的行动能力。当人们对这些偏倚性叙事“信以为真”,便会实际根据种种“智能成像”完成社会自我的调试,行进在人工智能潜移默化为他们设定好的道路上。长此以往,生成式人工智能在自身的循环叙事中所制造的“偏见堆积”不啻为一种对既有信息弱势群体施加的新的数字暴力。
(二)赢者通吃:市场与劳动资源的流动想象不平等
物联网智能技术驱动的世界数字经济以每年20%的体量高速增长。顶尖科技公司如亚马逊、OpenAI、华为、文远知行通过不断宣传未来社会将被人工智能主导的“智能化”愿景,将AI与社会进步、经济增长密切联系在一起,通过想象的“投射”建立自身的合法性优势。2023年12月,英伟达承诺将在越南建立半导体基地,将越南打造成为英伟达的第二故乡,并在越南建立法人实体,打造世界上最强大的人工智能队伍。相似的承诺曾在2017年听到,彼时亚马逊向全美高调招标第二总部的城市选址,宣称为当地带去50亿美元投资和超过5万个高薪岗位。只不过做出承诺的“老板”从亚马逊变成了英伟达。有意思的是,二者正在密切合作打造生成式人工智能训练和推理大模型,亚马逊将基于英伟达支持的Amazon Elastic Compute Cloud P5e(Amazon EC2P5e)实例加速构建及运行数万亿参数级别的语言模型,为各领域领先企业提供数据及资本扩张所需的超级计算能力。
不难理解,AI的资本密集型特质能够使得发达国家和大型跨国企业迅速主导这一领域,从发达国家到发展中国家,从城市到乡村逐级扩散。据麦克罗波洛智库 (Macro Polo) 公布的一项“全球人工智能人才追踪”调查,自研究生阶段,接近四成的中国AI人才选择去美国深造,而获得博士学位之后,77%的非美国学生选择留美工作。这一现象在职业机会和经济回报的吸引之外,也体现出从业者将美国视为AI“中心”的集体地理想象,这一想象通过媒体、学术交流和成功案例不断强化,潜移默化中将美国塑造成创新与机会的代名词,形成人才的虹吸效应。顶尖人才的聚集失衡加剧了人工智能的庞大市场基于技术人才和专利垄断在主导大国和顶尖公司手里的后果,缺乏资源的小国家/小企业在人工智能的技术创新领域更难找到突破口,难以自主构建自己的技术发展路径和创新生态。
然而事实上,国家和资本并不是简单的同一逻辑,基于信息技术获得的经济霸权很少与地理和文化生产中的国际规则或价值观完全“对齐”。无论是大语言模型、机器学习还是人工智能,原定计划均是朝着解放人类生产力,推动经济社会高质量发展的方向前进;操作中,开发智能算法、优化人工智能深度学习大模型所追求的终极目标,往往是通过提高模型精度和增强系统效率来实现利润的可持续增长。在此逻辑上,来自发展中国家的企业也可能在特定市场中拥有影响力,甚至挑战发达国家企业的主导格局。例如,越来越多的美国年轻人使用TikTok获取政治相关新闻,拼多多旗下跨境电商平台Temu登陆南非拓展国际市场,阿里巴巴通过投资东南亚最大的电商平台Lazada锁定了新、马、印、泰、越等国家6亿消费者,并率先推出跨境B2B的AI应用,推动AI技术运用到跨境电商全环节。“AI无界,智拓全球”已不仅是一句宣传口号,而是成为人工智能领域跨国资本斗争的现实图景。不可忽略的是,这一过程中由科技公司技术、数据和人才资源所延伸出的地缘政治影响力,使得企业甚至足以与国家政府谈判——通过“制定或删除法律,制定有利于它们的世界观”。在一种“去政治化”的公私伙伴关系(PPP)下,企业的创新应用以前所未有的程度介入城市日常生活和地方政策制定之间,获得在本土经济增长中的合法性和核心地位,进一步强化了大型科技公司“赢者通吃”的不平等格局,使得资本的自由流动终结和劳动力的流动性阻断的矛盾走向激化。
(三)政治排斥:地缘交往的权力想象不平等
20世纪70年代晚期以来,世界政治经济发生结构性转变,焦点从经济的再分配转移到了如何争取新兴产业的失调利润,信息技术的资本竞争和逐利已经成为一种全球化的趋势。超级大国都在高度关注人工智能领域的技术突破、实践叙事以及顶层统筹规划,考虑将人工智能“纳入”国家战略或者是将其“排除”在外。
智能技术早已被视为一种战略资产,以戏剧性的方式凸显人工智能基础设施的政治性质。英伟达被美国政府禁止向中国出售高性能芯片的世纪案例,展现出科技“铁幕”在地缘政治博弈中所象征的利益冲突与权力争夺。“软消耗”方面如出一辙,据估计,到2026年,数据中心、加密货币和人工智能的电力需求可能达到1,000太瓦时,将大幅提高温室气体的排放。在这一客观数据之上,美国和欧洲等成熟数据中心市场已经开始探讨能源正义问题,但南非等国仍兴致勃勃建设新的超大规模数据中心,以满足日益增长的数据存储需求和当地决策者对数字主权的强调。二者体现出不同地区在不同阶段对于不同人工智能价值倾向的倾斜,数字主权和经济增长想象以及环境正义下的可持续发展想象形成巨大张力。然而,正是这种标签化的想象可能演变为一种新的误解与贬低,偏狭地将发展中国家在全球人工智能技术发展与治理中的努力定位在“不成熟”的道路上,有意或无意忽视了发展中国家的特殊需求与实际情况,并将其排除在环境标准和技术规范的制定之外。在对技术性质的模糊确认下,发展中国家显得进退两难,部分国家和地区或选择自我封闭,避免成为AI时代的“技术殖民地”,这种趋势将加剧国际局势的复杂化。
人工智能计划在国际舞台上的多米诺骨牌也接踵而至,美国、英国、欧盟、中国,包括印度等国家均参与到人工智能的“领头羊”竞赛之中。于美国,“联邦政府应该引领全球社会、经济和技术进步,正如美国在之前的颠覆性创新和变革时代所做的那样”(《关于安全、可靠、可信地开发和使用人工智能的行政命令》,2018);于欧盟,欧盟必然是“可信赖人工智能”的全球领导者(《欧盟人工智能法案》,2024);于中国,面对新形势新需求,必须主动求变应变,引领世界人工智能发展新潮流,服务经济社会发展和支撑国家安全,带动国家竞争力整体跃升和跨越式发展(《新一代人工智能发展规划》,2017);于印度,“美、英、法、日和中国政府都发布了与人工智能相关的政策和战略文件,为确立领导地位,印度也必须大胆尝试,首先发布一份战略文件,启动一项雄心勃勃的计划,确保印度在这个变革时代的应有地位”(《人工智能国家战略》,2018)。
技术叙事赋予技术创新以国家不同战略意义,使得人工智能的发展被视为民族振兴与国家安全的重要组成部分。部分西方国家却有意将中国的AI技术描绘为威权主义的工具,通过强调监视、控制等叙事刻意贬低其价值。这种想象叙事暗示只有遵循西方的价值观和技术标准才能获得“正当性”,最终只会使得全球社会回归冷战时期的对立逻辑。实际上,和过去全球信息地缘政治发生的权力确认一样,国家对于人工智能发展道路的要求会在媒体报道、市场准入、项目竞标、激励与惩罚措施上传达出明确的意识形态倾向。在欧洲科技企业担心欧盟《人工智能法》将吞噬17%的投资利润之际,《北京AI安全国际共识》呼吁各国政府和企业把AI研发预算的三分之一投到安全保障领域,可以见得国家间的政策排斥、企业间的利益争夺、公众对于人工智能技术的认知博弈最终形成充满冲突与合作的动态网络。
综上所述,在AI全球化扩散的进程中,和过往任何新兴技术一样,个人带着他们的视野、希望和恐惧,构建了一种关乎不平等的“元想象”。元想象可以来自任何事件、政策文件和媒体报道,但人们描述和解释人工智能的方式,也再次影响自身和所在群体对于技术的接受、传播和使用。拥有技术和文化资本的群体往往能够定义人工智能的未来走向,并影响公众对其发展的期待与想象。他们通过媒体、教育和文化生产等途径塑造了关于人工智能的主流叙事,然而,边缘群体大多因为知识匮乏、话语权缺失、技术基础设施建设差距等,窄化了对于人工智能的理解、想象和期待,从而加剧了认知层面的不平等。社会技术想象代表了我们由科学技术实现的“理想未来的愿景”,揭示人们对“生活应该或不应该状态”的想法。从这个角度看,智者见“智”的技术悲观主义思维将导致过早的思想封闭,强化技术弱势国家的边缘化自我认同。这与人工智能的本质属性息息相关,要回答这个问题还需要回到图灵游戏,解读机器智能背后的隐匿社会属性。
三、在图灵游戏的背后——想象建造“智能”
在18世纪“人机类同论”和技术乐观思维影响下,彼时一款世纪游戏——“象棋土耳其人”(Schachtürke)仿人自动机从精密机械技术中演变出来,引发了全社会的惊喜与恐惑。三个世纪后,2024年的CES展会上,英伟达开发的智能引擎Avatar Cloud Engine(ACE)同样引发了世界轰动,在《模拟人生》游戏中,所有NPC都被植入虚拟环境设定、智能体人物设定等各方面程序代码;借助ChatGPT和本地数据库,他们既可以思考,又可以记忆,还可以像真人一样拥有声音、表情和肢体动作。AI加持游戏的尝试将“人类与机器”之间亘古不变的辩论再次推向高潮。相对于笛卡尔对人和当时风靡仿人自动机所做的两条划分标准:(1)无法将吐出的字排列为完整的语句回答人的问题;(2)无法在多场景都理性行动,在今天的人工智能技术标准下,它已然比人更像人。
在更纯粹的神经科学研究中,人脑结构被认为跟计算机一样都是由电信号构成,那么“人可以有智能,而普通机器为什么不能”?图灵测试正是作为具有验证机器智能的首个重要方法而出现的。根据笛卡尔的“我思故我在”中暗含的理性主义,思维是人类存在的独特证明,同时休谟的经验主义及维特根斯坦的语言哲学也强调“经验”和“语境”对人类理解起到关键作用,尽管机器能够模拟人类语言,处理人类事务,但并不意味着它们真正理解了人类社会的运行规则。基于此,图灵在“模拟智能”与“理解智能”之间划定了界限——评判机器是否真正具有智能,还是仅仅能对“智能行为”进行模拟。然而,纵览那篇关键的《计算机器与智能》,作为哲学家的图灵或许比作为科学家的图灵更值得耐人寻味。围绕“智能”(intelligence),他指出,“智能是为了权力和依赖,为了合作、开发和竞争”,因此智能机器是一种“社会性运作”的机器,无论当下被用于下棋还是社交。这一“智能即社会性运作”的观点打破了将智能局限于个体认知的狭隘视角,揭示了智能系统在更广泛的社会互动框架中的动态本质。更为重要的是,他揭示了“智能”如何被理解为一种为实现权力掌控而生的策略性机制(即实现“欺骗性互动”的机器)。人类社会的权力不仅表现在直接的统治和控制,也体现在信息的不对称、认知的操纵以及信任的博弈之中。智能系统通过不断学习和适应,获取信息和知识,进而拥有操控信息的能力,扮演起信息“掌权者”的角色。在基于信息的微妙合作与竞争中,智能系统高度精巧地中介了人与人、人与机器的关系,正如图灵测试中的机器,通过模仿人类的对话方式“欺骗”测试者,当前广泛应用的金融智能、医疗智能也包含通过模仿、隐藏、编辑信息以实现某种目的的出厂设定——有时甚至是无意识的!
图灵很清楚这一事实,他强调我们不仅要建造一台智能机器,而且要出乎意料地建造一个混合型新社会。但王华平认为,即便是图灵测试的支持者,也大都未能领会它所蕴含的深刻洞见。这一洞见就是“智能”本质是一种“情绪概念”。他继续指出,“情绪概念”如同我们常说的“观者眼中”(in the eye of the beholder)的概念,它们皆以事务的看法为判据。这样理解的智能是个二元性质,它由事物对事务产生的反应而非事物的内在性质决定。要建造具有真正智能的机器,其关键在社会认知、想象与情感,即我们“相信”人工智能可以做什么、不可以做什么、是作为主体存在的勇敢技术先锋,还是作为灭霸手中工具性的无限手套。
随着越来越多的不平等叙事出现在媒体与学术研究领域,继而充斥于全世界大大小小的数据库,即便是ChatGPT自己——如果它有意识的话——也会觉得自己是加剧全球不平等的坏种。在这个意义上,人工智能成为现代社会的“预言家”,它所输出的内容会“因某种来自科学的光环”,指引着人们在私人事务与外部变化中思考和行事的“正确方向”。但这一想象叙事本质上是一种“不平等的预演”,在结构性问题爆发之前所进行的试验性行动,最终由不断繁殖的想象不平等加剧真实世界中既有的政治、经济和认知偏见。这里的核心假设有三条:第一,长期以来,媒介工具总是因对现实的不对等复刻而遭受质疑,时而遮蔽矛盾、时而放大冲突,充满悲剧和末日色彩的故事更容易引发社会情绪的激荡,大量刻画不平等的公共信息资源越发充斥于人工智能赖以计算的全球数据库,“人为地”提高了人工智能“生成-再生成”不平等的能力;第二,想象是活跃的,总是有所指的,当我们思考技术变革如何加深或缓解人工智能产生不平等全球环境时,需要基于各种“元想象”发生的媒体环境、地方基建和政策背景,以及在此之上,理解不同的行动者(如政府官员、科技公司、技术人员、媒体、公众)——分别基于哪些现实困境、携带何种利益倾向——选择性地“制造想象”(making imaginary)。第三,想象与想象之间也会相互强化,在一个加速变革的时代,前述“群体认知和边缘化想象”“市场和劳动流动不平等想象”和“地缘政治的权力垄断想象”之间会交替渗透、加剧影响:微观的个体/群体失衡的情感认知会投射在市场活力和政府探索精神上,而在一个缺乏想象力的经济环境和制度框架内,个体对于人工智能未来潜力的想象总是鄙夷不屑或者兴致短缺,最终在人才、资金和技术等基础设施上与发达国家的差距甚至敌意越演越烈,使得不平等想象在此时完成预演,形成想象到实践闭环并逐渐向外扩散。价值技术化与技术价值化双向融合的理想样态是技术逻辑与价值逻辑的完美契合,意味着我们首先需要理清技术的可供性以及匹配何种价值准则进行约束。在理解转移过程的复杂化之后,让事实归于事实,给社会技术想象制定边界,在客观解决方案中寻找出路。那么,如何掌控想象的力量,让不平等叙事维持在秩序以内,迎接一种更加健康的“人类-机器”的共生共荣形态?
四、想象实践:何以修复现实世界
人工智能介于人类和机器之间,成为一个绝佳的实验平台,可供人们理解和设计多种可能的行动、智能和社会形式。如果一定要指出图灵的愿景的薄弱之处,克雷斯提农·卡斯泰尔弗兰基(Cristiano Castelfranchi)认为,他没有充分强调“智能”的目标导向性,即“智能”在控制和推动行为朝着某个目标发展方面的作用。随着“想象”在“智能”的构成中占据越来越大的比例,人们对AI的认知和行为能力,对于驾驭AI和反向修补AI所赖以生存的现实世界具有多重意义。探讨想象的可操作性和可导向性,不仅提供了一个理解想象在技术推动与社会进步的路径,也为未来人工智能的发展提供了深刻的伦理和社会框架。
(一)想象市场与政府的共生关系:打破孰导孰从思维
政府一方面出台各种政策文件鼓励创新、加强人才培养,“动员”各行各业加入“AI+”的序列,将人工智能拓展到任何超出既有想象的领域;一方面又对人工智能替代本土劳动力市场、对安全稳定工作造成巨大的动荡感到恐慌,害怕科技领先国家通过数据等手段入侵本国,在人工智能领域复写“技术威胁论”——核心在于人们对这一襁褓期便急速成长的技术有太多未知,对想象一套新的激励和治理方案又力有未逮。
如同人工智能对人类能力提升的速度是成倍提升,在市场和政府之间制定一个公平的监管/保障的迫切性和艰难程度也成倍增加。要打破市场与政府孰导孰从的界限,意味着抛弃传统的技术源自市场、政府提供保障的思路,立足于更宽广的视野,推动多层次的互动与合作,从而在治理框架内达成更为均衡的共识。第一,推动智能基础设施的公共与私有合作模式。在AI相关基础设施建设上,如高性能计算中心、物联网等,单纯依靠市场或政府的力量都难以实现广泛普及,二者需共同探索更加完善的合作模式,明确公共与私营部门在基础设施建设中的权责划分。第二,推动公共数据资源的共享与开放。政府应设立数据开放平台,在符合隐私和安全标准的前提下向市场和公众开放部分公共数据。这不仅能为企业提供基础数据支持,激发市场创新潜力,同时也有助于AI模型在社会服务领域的广泛应用。第三,构建跨部门、跨领域的协同治理机制。例如,成立由科技企业、学术机构、政府部门和国际组织多方参与的研发和治理委员会,这种机制可以紧密对接政府和市场的共通需求,在社会效益和经济效率的逻辑上处理二者的协商。第四,探索AI发展方向上的全球治理和本土特色并重模式,政府与市场在推动AI发展时,应结合本国特色,探索具有本地优势的AI技术领域,政府通过税收优惠和政策支持引导企业参与建设,企业则可以通过其技术和创新优势发掘本土AI潜在的发力点,积极参与全球竞争。政府更积极地介入以促进公平与创新的同时,市场也应承担起重要社会责任,二者之间可以形成更具弹性和韧性的协作关系,最后实现“有效市场”叠加“有为政府”的理想状态。
(二)想象发达国家与发展中国家的合作愿景:基于分配原则
当前,在高度等级化的市场环境和技术霸权主义格局下,人工智能技术表现出“单边全球主义”的流动状态。打破人工智能技术落地于发达国家和发展中国家的边界,在于如何在跨国科技公司和地缘政治关系的复杂性中寻求一个平衡点。当代对于分配正义倾向于强调三大分配原则,即公平(equity)、平等(equality)和需求(need),每一项原则都需要结合特定的历史背景和政经逻辑运作,可以为缩小人工智能不平等的地缘差异提供重要思路。
首先,“公平”准则强调根据各国的实际能力和需求进行资源分配,发达国家应该承担更多的研发投入和技术创新,并承担全球AI治理和伦理规范的责任,这并不意味着发展中国家在人工智能的全球发展上袖手旁观。后者的政府部门应该对数据治理同时采用上游(基础设施)和下游(技术运用)的本土监管策略,以保障信息案例,同时积极参与全球技术标准,防止人工智能帝国主义的极端趋势冒头。其次,推动技术民主化,以此弥合人工智能领域的数字不平等。“平等”强调近似的资源分配,确保每个国家都能平等获取AI技术,通过公共政策和国际合作,各国均在人工智能全球标准上有所参与,能够保障AI技术的普遍平等性。例如,开放源代码的AI工具和数据平台,可降低技术的进入门槛,间接推动发展中国家自主研发和掌握智能技术,跻身人工智能技术主导国家。最后,基于“需求”的原则,发展中国家应支持因地制宜、本地化的人工智能基础设施建设。“全球南方”国家和市场正在成为人工智能技术大面积应用的新场景,传统上被广泛讨论的“信息和通信技术促进发展”(ICT4D)也延伸出“人工智能促进发展”(AI4D)或“人工智能促进社会利益”(AI4SG)的子领域,皆以释放人工智能民主潜力、推动技术向善发展和减少地域不对等为核心。在英美等发达国家不断推出关于人工智能优先事项的同时,发展中国家也在致力于自主构建AI路径,甚至通过发展中国家之间的联合为人工智能的实践路径与理论创新注入新动能,譬如“数字丝绸之路”倡议、《金砖国家数字经济伙伴关系框架》《“中国+中亚五国”数据安全合作倡议》等倡议文件为人工智能平等惠及发展中国家提供了制度保障和高效推行方案。
(三)想象人与机器的协同未来:重新思考“智能”内涵
小说《人造母亲:婚姻幻想》(The Artificial Mother: A Marital Fantasy)中“机器妻”带来的惊慌,预兆了当下原本由人承担的工作转移到人工智能所引发的全社会的必然恐惧。这一恐惧不仅来源于人类工作被人工智能替换的空虚,更是由这个变化引发的全部生活状态的一系列失控。然而,身处“后图灵时代”,机器介入已经变成一种不可逆转的趋势。
因此,期待一个去人类中心主义的、不完全以人类活动为标尺的新理性世界变得格外重要,其中编码不是让机器增强或是剥夺人类的能力,而是重新组织社会活动,让机器和人类相互学习,形成新的人机协同机制。这一重建与长期以来人工智能伦理研究中的工具性方案形成鲜明对比,新的“人类-机器”关系更加强调想象力和反身性,将人工智能重新概念化为一种能够进行自我认知和学习的“技术主体”,为把握人类和机器的交织开辟了新途径。在迈向去人类中心的人工智能新纪元中,一方面,我们需要在认知上,建立跨物种与机器的认知平等视角,尊重机器如何以自身独特的方式理解与感知世界的方式,承认人工智能有可能成为不同于人类但具有竞争力的智能行动体,它“受邀”参与人类社会的运行,能够越来越多杂糅人类的思考元素,甚至开始享有权利和承担义务;另一方面,在操作上,推动人机关系从工具模式到伙伴模式的过渡,构建开放平台,允许人工智能系统在算法优化和数据学习上相互交流并持续进化,以伙伴的身份和AI共同面对挑战。人工智能代理的世界实际上可能比人类世界更契合经济理论。与人类相比,人工智能“比人类更尊重理性的理想化假设,与为人类量身定制的规则和激励系统截然不同的新规则和激励系统进行互动”。在技术介导的集体思考中,出于效率最大化的考量,我们充分利用人工智能的自主力量,在价值对齐基础上重申人文主义,在人际、人机间发展出更具契约性的学习模式。机器智能的发展让我们有机会重新思考“智能”的内涵,建立一种“后人类”智能标准,如将机器的算法学习、信息融合能力和自适应进化性作为评价“智能”的新维度。这种定义不再局限于“模仿人类”的维度,而是赋予机器在探索物理世界和数据生态中自行发展认知的权利,推动一种更加多样、开放的智能视野。
(四)想象自上而下“治理”和自下而上“变革”的有机融合
在人工智能的未来图景中,突破自上而下“治理”与自下而上“变革”间的固有界限,将会开辟一条去中心化与多主体协作的创新之路。要实现这一目标,既需要国家、企业等上层机构的宏观引导,也需要技术社群、用户个体等基层力量的自发探索,合力打破认知屏障、拓展智能行动边界,对不平等问题提出新的见解和解决方案。
首先,公共叙事层面,人们可以借助人工智能工具自发平衡人与技术、社会与经济等方面的知识生产。新秩序不应该仅仅被视作各国政府之间的高阶政治,而应该首先被视作各个公民机构的项目。公众比政治家和工程师更清楚治理方案的漏洞以及变革成功发生的可能场景,新的话语将更有可能引导社会从而影响研究界在整体思维上发生转变。其次,市场层面,人工智能会自行搜集数据了解何处更适合推出何种服务,或是通过数据的“无法收集分析”侧面证明某个地方或市场领域在基础建设上的空白,从而指向一条可能通往的技术创新成功之路。以已有成功产品的全球扩散为路径一定是指向既有政治和经济利益团体的势力加强,唯有培养出扎根本土的技术人才,才能在发展中国家或边缘地区培育出自下而上突破技术封锁与权力垄断的变革力量。最后,治理层面,在人工智能的创新生态中,分布式、去中心化的决策网络往往能够更高效地吸收来自基层的反馈,并促进资源流动和技术创新。基于此,政府可牵头设立“沙盒”试点,将AI创新技术和政策法规的适应性在特定环境中先行测试,或建立双向反馈的“微调”机制,通过实时舆情收集与分析,将来自基层的声音与上层政策进行迅速校准,这样或许能帮我们勾勒出一个缓解数字不平等的未来图景,让自下而上“变革”和自上而下“治理”在实际应用中相互磨合与促进。
迄今为止,人工智能叙事仍然主要由决策者、科技精英所主导,但人工智能同时是一种生成的力量和一种消解的力量,个人和集体可以借助人工智能抵抗主流叙事中的技术迷思,积极塑造人工智能所将带来的全球景观。上述思路从观念出发,也许离真正拥有一个高效反馈机制的人工智能社会系统还尚早,但有理由期待它会促使人工智能的自上而下的治理路线与公众自下而上的技术改革路线半途相遇。“莫拉维克悖论”的提出者汉斯·莫拉维克(Hans Moravec)指出,当这两种方向结合在一起的时刻,就会成为产生真正出现带来人工智能平等的“金钉子”。所谓“金钉子”就像一把地层年代研究中的“卡尺”,能够使不同地区、不同背景的科学家按照统一的时间标准分析全球各地同步发生的地质事件,在叙述地质历史时拥有共同“语言”和全球性标准。人工智能研究也是一样,理解和制定人工智能(AI)的全球标准涉及计算机科学、社会科学、伦理学及法律等多重维度;同时其影响超越国界,单一国家的政策难以应对风谲云诡的国际政治环境变化。因此,在技术能力和社会需求加速变化的背景下,唯有跨学科的合作、国际间的共识以及动态灵活的治理机制,才能使人工智能真正成为消解数字不平等、推动人类共同进步的力量。
五、结语
本文从社会技术想象的视角出发,剖析作为“情绪概念”的“智能”如何逐渐从关于不平等的“元想象”逐渐演变为全球范围内“不平等的预演”。在数字地球村的时代,媒介技术和技术标准的优先事项都在重新校准我们对世界的理解,产生了技术的新用途和关于技术的新知识制度。本文并非否认由人工智能加剧或是缓解不平等的决定论逻辑,或是避而不谈全球技术扩散中存在的客观差距,而是基于图灵所揭示的智能中隐匿的社会基因,试图超越人工智能的技术设定,强调特定技术是如何被“视为”智能的本质,勾勒出技术精英如何通过“想象”再现和放大世界范围内的制度、经济和技术结构不平等的路径。这有助于将注意力重新转向对特定类型技术的欲望和恐惧的不均衡产生,并从根本上创造了重新构想我们与技术关系的机会。社会技术想象有很多种表达方式,使用“不平等”作为辩论的切入点,在虚实之间将“想象”还原成一个经典的马克思主义政治经济问题。这一思路有助于理解智能内爆中的国家、不同层级机构、市场和私人利益相关者之间如何以“发展”为名,通过认知和想象协商,达成“潜在的技术政治”(technopolitics in the making),以及各国如何通过“自上而下治理”和“自下而上变革”的碰撞来应对这一挑战。基于此,研究者应该表现出更强的批判意识,理解人类正在无意识地构建的东西,这样我们才能有意识地选择公平、平等或需求准则继而对人工智能采取“接入”或者“断开”策略,因地制宜地创造适应发展中国家和边缘群体的人工智能生态,从而在一个不完全以人类为标尺的新智能社会中挖掘人工智能在理论推进和实践创新上新的潜力。
作者:姬德强,中国传媒大学媒体融合与传播国家重点实验室教授、区域国别传播研究院研究员,北京 100024;蒋效妹,中国传媒大学传播研究院博士研究生,北京 100024
原文刊载于《新闻界》杂志2024年第10期,参考文献详见原文
一键下载原文
陈昌凤-智能平台兴起与智能体涌现:大模型将变革社会与文明.pdf
彭兰-与数字人共存将带来什么?.pdf
常江-自动化的困境:AI、数字媒体生态与“后人类”的未来.pdf
林爱珺等-人工智能大模型价值对齐的人文主义思考.pdf
卢家银-美德与规范的内在主义协同:生成式人工智能的传播伦理进路.pdf
往期精彩回顾
《新闻界》2024年第10期目录
《新闻界》2024年第9期目录
《新闻界》2024年第8期目录
《新闻界》2024年第7期目录
《新闻界》2024年第6期目录
《新闻界》2024年第5期目录
《新闻界》2024年第4期目录
《新闻界》2024年第3期目录
《新闻界》2024年第2期目录
《新闻界》2024年第1期目录
陈昌凤 | 智能平台兴起与智能体涌现:大模型将变革社会与文明
常江 | 自动化的困境:AI、数字媒体生态与“后人类”的未来
朱思敏 彭兰 | 视障者何以“观看”:无障碍电影的声音“景观”建构及其机制
刘涛 张媛媛丨中华优秀传统文化“双创”的数字叙事及其语义修辞机制——以融合新闻叙事实践为例
姜华丨从机械复制到数智传收:论新闻世界的内涵、价值构造与延展
李艳红丨专业何以正当化:再论新闻权威概念
编辑:徐秋染
实习生:何华兰
校对:孙尚如
责编:杨国庆
审核:段吉平
四川省人文社科重点资助期刊
CSSCI来源期刊
中国新闻核心期刊
中国人文社科综合评价(AMI)核心期刊
微信号|ixinwenjie
唯一投稿渠道|www.ixinwenjie.com
欢迎订阅2025年度《新闻界》杂志