打开APP
人类命运共同体视域下生成式人工智能的全球治理逻辑
中国社会科学网
2024-11-21 11:10:07

以ChatGPT为代表的生成式人工智能正在加速迭代升级,由训练数据生成的文本、图像乃至视频、艺术作品、设计方案等个性化的服务极大地丰富了人们的生产生活体验。与此同时,生成式人工智能技术所带来的数据泄露、深度伪造、算法偏见、价值对齐等安全风险和隐患也逐渐显现。生成式人工智能的风险监管与治理是世界各国共同面临的难题,各国需共同协商达成共识才能推动这一领域的全球治理进程。从各国各方已经出台的生成式人工智能监管方案来看,以欧盟为代表的欧洲国家更看重该技术运行过程中的数据隐私、人权保护等问题,在《人工智能法案》中确立了数据风险分级监管制度;美国更倾向于推动该技术的自由发展,在风险监管方面侧重知识产权保护和强调数据透明度;中国倡导人工智能发展应坚持以人为本、智能向善,增强发展中国家在人工智能全球治理中的代表性和发言权,尊重各国平等发展和利用人工智能的权利。

生成式人工智能的全球治理是我国参与和引领全球治理体系改革和建设的重要一环。中国当以习近平主席倡导的全球治理观为指导,提出关于生成式人工智能全球治理体系构建的新思路和新方案,并将其转化为国际共识,创建规则共商、风险共治、标准共建、成果共享的生成式人工智能全球治理逻辑。

规则共商:推动国际公约与共识文件“双轨”并行的治理框架

生成式人工智能的全球治理是一项艰巨却有意义的议题。从世界范围来看,现有相关安全监管与治理的机制存在规则碎片化、目标理念各异、各有侧重且不成体系等问题,阻碍了相关进程的推进。为了推动人工智能技术造福全人类,践行人类命运共同体理念,中国提出《全球人工智能治理倡议》,主张在充分尊重各国政策和实践基础上,形成具有广泛共识的全球人工智能治理框架和标准规范。世界各国应在联合国框架下共同谈判磋商,提出各类风险的有效应对策略。

首先,积极推动生成式人工智能风险治理框架的国际公约谈判,制定具有法律约束力的规则,这是构建全球治理体系的关键一步。其次,兼顾各类国际峰会、论坛、进程,推动更多利益攸关方积极参与,引导各方推动共同认可的原则、规范、做法以共识文件、成果文件等“软法”的形式出台,辅助国际公约的拟定和谈判。这种“双轨”并行的治理框架,一方面,国际公约以其权威性和法律约束力确保国际社会公认的风险隐患得以有效管控;另一方面,共识文件等“软法”形式则凭借其灵活性和适应性,在达成公约前方便各国就共同关注的问题集思广益并凝聚成果,二者相互补充、协同共进,共同为生成式人工智能的全球治理搭建起科学、合理、有效的架构。

风险共治:促进多边与多方共论风险治理的应对方案

生成式人工智能的发展和影响是全球性的,广大发展中国家对这项技术的掌握和治理与美欧等国家存在一定的差距。因此,在讨论风险治理方案时应当同时兼顾发展中国家,从公平性角度出发,确保发展中国家有权利、有必要参与到风险应对方案的制定中,确保发展中国家的利益得到保障。治理将涉及技术、法律、政策等多方面问题,还需要跨领域的前沿技术工程师、专家学者、社群代表、国际标准化组织等多利益攸关方共同加入。因此,在生成式人工智能风险治理的过程中不仅应坚持多边主义原则,争取各国共同协作,还应联合包括国际组织、学术机构、科技企业、民间团体等在内的多利益攸关方探讨风险应对的方案。

首先,应鼓励各方在联合国框架下组成一个开放式专家组,建立多方参与的讨论机制,集众人之智共论风险解决方案。其次,生成式人工智能的风险最初是在各大科技公司软件运行过程中发现和识别的,因此各大软件平台将是发现和应对风险的第一“战场”,各国政府可以建立安全风险上报机制,邀请各大软件平台及时向政府部门输送第一手案例和应对方案,在国际人工智能治理机构和开放式专家组的讨论中,共同分享相关风险解决方案,为国际规则制定提供案例样本。

标准共建:借助行业力量推动技术标准的共同建设

当前世界各国在科技领域加紧抢抓人工智能相关产业标准制定,2023年11月,英国国家网络安全中心和美国网络安全和基础设施安全局发布了《安全AI系统开发指南》。这份文件旨在确保AI发展中的安全性是固有的,为AI开发者提供了安全设计方面的指导。它涵盖了从零开始构建的应用程序到基于现有资源构建的应用程序。中国亦积极加入相关标准制定进程。在2024年联合国科技大会上,世界数字技术院颁布了生成式人工智能相关应用检测标准和安全规则,在大语言模型安全测试方法下,制定了国际可遵循的标准。这些标准的制定由全球数十家高科技企业的专家们共同完成,其中包括我国多家企业。

生成式人工智能技术复杂且处于快速发展阶段,不同的研发团队和企业可能采用不同的技术路径和方法,这容易导致技术的可靠性和稳定性参差不齐。如果没有统一的技术标准,不同的生成式人工智能系统可能无法相互理解和交互,这将严重阻碍技术的发展和应用。因此要构建该领域的全球标准,需借助行业的力量,鼓励全球各大科技巨头、研究所等共同协作,成立一个多边标准制定合作组织。中国科技公司和技术社群也应当积极在该组织发声,推动中国的前沿科技成果在人工智能国际标准制定中的应用。组织以确保人工智能技术的安全性、可靠性、可控性、公平性为宗旨,致力于实现生成式人工智能技术标准的讨论和制定,通过行业标准有效管控风险,推动人工智能技术造福全人类。

成果共享:分享各国各方降低风险与应急管理最佳做法

在实现规则共商的“双轨”并行的治理框架下,通过多边与多方共同参与的开放式专家组讨论机制,各国各方可实现降低生成式人工智能风险以及共享应急管理最佳做法。《全球人工智能治理倡议》中提出,推动建立风险等级测试评估体系,实施敏捷治理,分类分级管理,快速有效响应。研发主体不断提高人工智能可解释性和可预测性,提升数据真实性和准确性,确保人工智能始终处于人类控制之下,打造可审核、可监督、可追溯、可信赖的人工智能技术。2024年9月,中国首部以风险治理为导向的《人工智能安全治理框架》(以下简称《框架》)发布。《框架》从内生安全和应用安全两大方面落实各方主体责任,提出相应技术应对和综合防治措施。

随着人工智能“狂飙突进”式的发展给全球带来一定安全隐患和风险挑战,各国各方在应对生成式人工智能风险时相继做出敏锐的反应。这时应推动在前述框架和专家组讨论背景下建立双边或多边生成式人工智能安全对话机制与信息共享平台,供各国各方分享和借鉴各自在降低人工智能安全风险和应急响应方面的优秀做法及相关经验。同时,应当保证对话机制的成果可以分享给广大发展中国家,帮助弥合智能鸿沟和治理能力差距。

人工智能的安全、可靠、可控、公平发展有赖于世界各国的共同努力,生成式人工智能带来的风险挑战亟需国际社会共同应对。我们应积极践行人类命运共同体理念,全面落实全球发展倡议、全球安全倡议、全球文明倡议,以《全球人工智能治理倡议》为契机,践行生成式人工智能规则共商、风险共治、标准共建、成果共享的全球治理逻辑。

【本文系2021年国家社科基金青年项目“智能化武装行动国际规制及中国主张研究”(21CGJ006)研究成果之一】

(居梦,湖北工业大学马克思主义学院副教授;周静,湖北工业大学马克思主义学院)

来源: 中国社会科学网
编辑: 张黎明
免责声明:本文由顶端号作者上传发布,仅代表作者观点,顶端新闻仅提供信息发布平台。如文章内容涉及侵权或其他问题,请30日内与本平台联系,反映情况属实我们将第一时间删除。
热评
暂无评论,去APP抢占沙发吧