大模型治理蓝皮报告(2023年)——从规则走向实践.pdf
《大模型治理蓝皮报告(2023年)——从规则走向实践.pdf》由会员分享,可在线阅读,更多相关《大模型治理蓝皮报告(2023年)——从规则走向实践.pdf(71页珍藏版)》请在咨信网上搜索。
1、z中国信息通信研究院政策与经济研究所中国科学院计算技术研究所智能算法安全重点实验室2023年11月大模型治理蓝皮报告大模型治理蓝皮报告(20232023 年年)从规则走向实践从规则走向实践前言近一年来,以 ChatGPT 为代表的大模型技术引发通用人工智能新一轮发展热潮,在带动大规模产业升级、劳动力转移、产品的分配机制等方面均带来深刻变革,成为改变世界竞争格局的重要力量。与此同时,围绕人工智能治理的议题探讨显著增多,全球人工智能治理体系加速构建。党中央国务院高度重视人工智能治理工作,作出一系列重要部署。习近平总书记强调,要共同做好风险防范,形成具有广泛共识的人工智能治理框架和标准规范,不断提升
2、人工智能技术的安全性、可靠性、可控性、公平性。寻找大模型治理的准确定位,构建适应技术发展趋势的治理体系愈加重要且迫切。面对大模型带来的新问题新挑战,传统监管模式面临着 AI 自主演化控制难、迭代快速跟进难、黑箱遮蔽追责难等问题,一劳永逸的事前监管模式已经难以应对不断推陈出新的人工智能发展需求。从治理框架来看,敏捷治理成为回应大模型技术快速迭代的重要治理模式,软硬法协调、多主体协同的治理需求更为突出。构建高质量数据集、创新知识产权制度、探索价值对齐实现方式、维护信息内容安全等成为各方关注的热点问题。美国、欧盟、英国等主要国家和地区加紧推进人工智能治理布局,共同寻求具有共识和互操作性的治理规则。我
3、国围绕人工智能发展、安全、治理三方面提出全球人工智能治理倡议,通过算法备案、评估评测、事后溯源检测等方式,推动人工智能治理从规则走向实践,为全球提供人工智能治理中国方案。希望研究成果为社会各界进一步参与大模型治理实践提供有益参考。目录一、大模型治理的重要性紧迫性凸显.1(一)大模型技术浪潮兴起.1(二)大模型引领数字化变革.3(三)大模型带来的典型风险.5二、技术变革下大模型治理框架日渐明朗.11(一)治理模式:敏捷治理成为国际较为通行的治理方案.11(二)治理主体:激励多元主体协同治理成为全球共识.14(三)治理机制:软硬兼施推进大模型治理.18三、聚焦大模型治理核心议题规则.22(一)数据
4、治理规则.23(二)知识产权保护.32(三)伦理问题治理.36(四)信息内容治理.40四、把握全球大模型治理最新动态趋势.42(一)美国从松散碎片式治理逐步趋向体系化治理.42(二)欧盟继续发挥人工智能治理领域布鲁塞尔效应.45(三)英国力图以促进创新的监管方法引领全球治理.49(四)国际组织在大模型治理国际合作中各显其能.52五、探索我国大模型治理的主要落地工具.55(一)事前备案.55(二)事中全流程评估.57(三)事后溯源检测.60六、完善我国大模型治理体系的思路建议.63(一)确立促进创新的人工智能敏捷治理理念.64(二)聚焦人工智能场景应用细化制度方案.64(三)立足当前治理实践创新
5、人工智能治理工具.65(四)激励企业积极管控风险以推动平台合规.66(五)促进全球人工智能合作治理体系构建.67大模型治理蓝皮书从规则走向实践(2023 年)1一、大模型治理的重要性紧迫性凸显(一)大模型技术浪潮兴起(一)大模型技术浪潮兴起当前,世界人工智能领域科技创新异常活跃,日益成为改变世界竞争格局的重要力量。一批里程碑意义的前沿成果陆续突破,以ChatGPT 为代表的大模型技术引发通用人工智能新一轮发展热潮。1.对大模型的基本认识大模型(LLM,Large Language Model)指的是具有超大参数规模,建立在多头自注意力机制 Transformer 架构之上,以深度神经网络为基础
6、,用海量文本数据预训练而成的语言模型。以 ChatGPT 为代表的大模型能够模拟人类的创造性思维,生成具有一定逻辑性和连贯性的语言文本、图像、音频等内容。大模型基于大数据、大算力、多模态的技术优势,实现从感知世界、理解世界向创造世界的跃迁,推动人类社会加速迈向人机共生的智能社会阶段。大模型体现出三方面技术趋势:一是从决策式 AI 到生成式 AI。决策式 AI 主要是通过分类回归对数据进行分析,主要应用于图像识别、推荐系统、决策智能体等领域。生成式 AI 借助 Transformer 架构等,具有全局表征能力强、高度并行性、通用性强、可扩展性强等优势,主要应用于内容创作、科研、人机交互等领域,实
7、现了从简单感知到内容创造的跃迁。二是从单模态模型到多模态模型。多模态是指通过处理和关联来自多种模态的多源异构数据,挖掘分析信息、提高模型能力的学习方法。典型任务是图像/视频/语言间的跨模态预训练、跨模态定位等,如给定文本生成一段对应的声音、图像/视频与文本大模型治理蓝皮书从规则走向实践(2023 年)2的相互检索或生成等。三是从亿级到千亿、万亿级参数的预训练模型。大模型指的正是模型参数规模庞大,大模型参数规模从亿级发展到百亿、千亿级别,并向着更高规模的参数探索。例如,GPT-3 参数量达1750 亿,文心一言参数规模为 2600 亿等。随着参数规模的增长,模型能力也得到显著提升。2.大模型的变
8、革影响(1)内容生产方式的“颠覆者”大模型实现了高质量、高效率、多样化的内容生产,成为推动内容生产方式变革的重要力量。一是信息内容生产主体发生显著变革。人工智能在信息收集、筛选和整合、推理的全过程都能替代人力,极大地解放人力资源。二是信息内容生产效率快速提升。大算力驱动强算法处理大数据,在自然语言处理、计算机视觉、自动驾驶、等各领域多种任务上,都能高质量作出结果判断,高效率进行内容生成。三是信息内容传播出现颠覆性变化。信息的生产、传播更加便利,尤其是降低了专业知识的获取门槛。信息内容的表现形态更加丰富,利用人工智能创生技术,图、文、代码等相互转换更加自由,可以一键生成“数字人”分身,开启智能互
9、联时代。(2)通用人工智能的“先行者”大模型是迈向通用人工智能的重要技术探索。一是具备了与人类智能相媲美的综合智能能力。大模型的能力不再局限于自然语言、视觉等特定方面,而是具备了执行一般智慧行为的能力,广泛拓展了人工智能技术的适用范围。二是具备了通用型技术能力的潜力。业界普大模型治理蓝皮书从规则走向实践(2023 年)3遍认为,大模型是智能时代的关键基础底座,各领域不再需要单独开发人工智能,仅需调用大模型接口即可。将来可能构建出新的应用生态、创造新的用户接口,并带来潜在商业模式的变革。三是具备了赋能千行百业的适应性。大模型可作为底层技术,垂直应用于各个产业和复杂场景。这种可以嫁接千行百业的智能
10、生产力,正在重塑和影响未来生活。(3)人机交互的“协作者”大模型使得人类行为与机器运行之间的协作更加自然、高效和智能,拓展了更为广阔的人机交互空间。一是呈现出极大的语言表达的自由度。大模型“善于”理解和生成自然语言,人们可以自由提问或表达需求,不必担心特定的格式或指令。这种自由度使得人与机器的交互更为自然、灵活。二是呈现出极为个性化的交互体验。大模型可以通过分析和理解用户的喜好、兴趣和上下文信息,进行定制化的服务和建议。大模型的即时回应和连续对话,给用户提供了实时的帮助和引导。Web 2.0 之父蒂姆奥莱利(Tim OReilly)认为未来的人工智能系统将成为人类工作的协作者,通过人机合作实现
11、更强大的效果。(二)大模型引领数字化变革(二)大模型引领数字化变革大模型体现出强智能性、强通用性、强交互性,为进一步的产业革新与数字政府发展奠定了坚实的基础。根据麦肯锡报告,生成式人工智能每年或将为全球 GDP 增加 2.6-4.4 万亿美元。根据 Markets andMarkets 报告,2023 年全球生成式人工智能的市场规模预计为 110.3亿美元,2028 年预计将达到 518 亿美元,年复合增长率达 35.6%。大模型治理蓝皮书从规则走向实践(2023 年)41.大模型推动产业跨域深度融合凭借大数据、大市场、多场景优势,人工智能与交通、医疗、工业等传统行业深入融合,涌现出一批新业态
12、新模式。在工业领域,大模型实现汽车、建模等设计的自动优化、打造 3D 模型、通过智能物流、智能安防实现智能化管理;在医疗领域,大模型实现蛋白质分子的结构预测、辅助医生影像读片与分析病例报告,推出 AI 陪护与交互式心理咨询;在金融领域,大模型催生了数字员工,借助 AI 客服、AI 投资顾问、AI 财务实现服务的自动化,并进一步优化投资管理与风险管理。据埃森哲预计,2035 年人工智能应用将为制造业带来 4万亿美元额外增长,年增长率可达 4.4%。2.大模型提升公共服务水平当前,公共领域大模型应用如火如荼,为公共服务提质增效。美国、英国、葡萄牙、新加坡等 13 个国家或地区已将 ChatGPT
13、应用于政府内部办公、公共服务提供等场景。据日本野村综合研究所开展的网络问卷调查显示,政府部门对 ChatGPT 的利用率达 17.5%,仅次于信息通信业(32.8%)和制造业(19.2%)。从市场份额来看,根据普鲁杜尔公司(Prudour Pvt.Ltd)数据显示,2022 年各国政府应用大模型的市场份额超过 1 千万美元,预计 2032 年超过 5 亿美元,年复合增长率达 45.8%。大模型技术的引入可以显著提升人机交互的友好程度。同时,大模型在信息收集、数据分析以及语言重塑能力层面的优势,能够有效协助整合政府治理资源,改善政府治理结构,打破政府组织壁垒,实现跨部门、跨层级的协同治理。大模型
14、治理蓝皮书从规则走向实践(2023 年)5(三)大模型带来的典型风险(三)大模型带来的典型风险大模型在提升产业效率与社会生产力的同时,亦伴随着多重风险与挑战,有必要从技术自身缺陷引发的风险、技术应用在不同层面带来的问题与挑战等维度出发,梳理和探讨大模型发展面临的困局。1.大模型自身技术缺陷带来的风险挑战一是大模型的生成“幻觉”问题引发生成内容不可信。生成幻觉通常指模型按照流畅正确的语法规则产生的包含虚假信息甚至无意义内容的文本。幻觉一般被认为是模型生成的文本不遵循原文或不符合事实,在大模型场景下主要指不符合事实,即出现“一本正经胡说八道”的情形。幻觉产生的本质原因是大模型的输出结果是根据概率推
15、理而成的,这导致了大模型可能针对一个原本模糊或者不确定的预测,给出一个“过度自信”的结果。因此,OpenAI 公司首席技术官Mira Murati 亦指出,ChatGPT 和底层大型语言模型的最大挑战是其会编造错误的或不存在的事实。二是大模型的“涌现”效应带来模型能力不可控。所谓智能“涌现”,是指大语言模型在没有经过针对性训练的任务,包括需要复杂推理能力的任务中,同样表现出卓越的性能。这种“智能涌现”能力通常在小模型中未被发现,而只会在具备一定规模的大模型中出现。目前仅能够明确观测到当模型大小超过一定阈值时,模型各方面综合能力得到质变式爆发增长的“涌现”现象,但却无法确定“涌现”的阈值所在,这
16、使现有大模型的“智能涌现”能力具有突发性、不可预测性和不可控性,例如,在某用户故意“激怒”ChatGPT 后,后者威大模型治理蓝皮书从规则走向实践(2023 年)6胁将披露该用户的 IP、居所等个人信息,甚至损害其名誉。不少人工智能研究人员亦发出警告,如果控制不当,足够强大的人工智能模型可能超越人类智能成为地球主导力量,引发灾难性后果。三是大模型的脆弱性和攻击性造成外部安全隐患难以根除。由于技术本身的特性,没有一个系统是永远安全和不可能被攻破的。一方面,随着大模型生成侧的高度发展,对其进行网络攻击日渐增多。例如通过在提示词后增加一些不规则后缀,即可让此提示词绕过大模型的拦截策略,让其生成预料之
17、外的内容。另一方面,大模型应用降低了漏洞查找与系统攻击的难度。如果模型被恶意植入后门,模型的安全也会受到威胁,尤其在大模型应用下,漏洞查找与系统攻击变得更加容易,导致系统安全隐患持续升级。例如,有攻击者利用 ChatGPT生成自动攻击的代码,让它更加高效的利用某个目标系统的漏洞,进行网络攻击。2.大模型在个人维度引发的风险挑战一是加深“信息茧房”并影响公平正义。一方面,以呈现高频次单一信息为生成机制会加深“信息茧房”。过去,个人自主进行信息检索是往往能够获得来源丰富、多种多样的信息以供选择,从而形成对所欲探究事物更全面的认知;而在大模型应用下,个人只能被动接受模型提供的信息,而无法获取样本数量
18、不占优势的“小众”信息,使得大模型生成内容类似于“茧房”,将个体对事物的认知桎梏于有限信息之中。1另一方面,大模型训练数据存在的固有偏见和歧视问1参见 https:/ 年)7题。这是由于大模型对数据高度依赖,所以生成结果会体现出数据源的偏向性。如 GPT-3 显示出了基于宗教信仰的偏见和性别歧视,大语言模型 Gopher 存在职业与性别之间的刻板印象联想,图像生成模型 Dalle-2 则表现出显著的性别和种族歧视。二是技术滥用侵犯人格尊严并阻碍个人发展。一方面,大模型的恶意利用侵犯人格尊严。当前已有大量案例表明,大模型被用于生成虚假的有损公民人格尊严的视频、音频、图像等,进而被恶意应用于网络欺
19、凌、辱骂、造谣等场景下,给当事人带来极大的精神及财产损害。例如,乔治华盛顿大学法学院教授 Jonathan Turley 发现,ChatGPT生成内容显示他在阿拉斯加课程旅行中对学生进行了性骚扰。然而,Turley 教授并未带领学生去阿拉斯加或任何其他地方进行课程旅行,也未曾受到过性骚扰学生的指控。另一方面,大模型的过度依赖阻碍个人发展。当前越来越多个体频繁应用大模型服务完成工作学习任务,例如用 ChatGPT 写论文、写判决书的案例屡见不鲜,且个人对大模型的依赖表现出应用日益广泛、程度日益加深的特征,恐导致个人学习能力以及认知水平可能大幅退化,影响人与社会的长期发展潜力。美国智库布鲁金斯学会
20、刊文指出,ChatGPT 将可能导致人类记忆和批判能力的下降。三是情感计算造成潜在伦理风险并扰乱人际关系。情感计算是模拟某个角色并设定其情绪或心理状态的新型人工智能应用,其发展与普及可能给个人行为、社会关系、伦理道德等诸多领域带来巨大的冲击。一方面,情感计算可能瓦解传统人际关系。以近期众多人工智能大模型治理蓝皮书从规则走向实践(2023 年)8企业推出的“AI 伴侣”为例,该类应用可能导致个人不愿花时间精力与真正的人类进行情感交流,从而导致传统的人际关系与婚姻家庭结构遭到重创,甚至颠覆过往的伦理道德观念。另一方面,情感计算可能不正当地引导个人情绪、行为乃至价值观。人工智能产品可能会有偏见或有目
21、的性地引导某些个体,尤其当人类习惯于长期与机器人交互时,人获取的信息会很自然地被机器所引导,进而影响个人的价值观,或是控制个人的情绪与行为。3.大模型在企业维度引发的风险挑战一是用户过度授权、违规信息使用以及黑客攻击,引发用户隐私与商业秘密的泄露风险。在用户个人隐私方面面临侵权诉讼,当前,大模型的用户使用条款普遍给予企业超出必要限度的个人信息使用权,加大了用户个人信息泄漏的风险,从而担负极大的违规风险。以ChatGPT 为例,其使用条款明确规定,除非用户要求 OpenAI 不对其输入和输出内容进行使用,否则 OpenAI 拥有对任何用户输入和输出内容的广泛使用权,以达成优化训练 ChatGPT
22、 的目的。在企业商业秘密方面,企业员工很有可能故意或过失地违反公司保密制度,将公司的营业信息、技术信息、平台底层代码、近期营销计划、公司薪酬体系等信息泄露,黑客也可能利用系统漏洞发起攻击获取海量涉密信息,从而导致企业商业秘密泄露风险。二是内容生成依托海量文本与图像数据,引发版权侵权风险。一方面,大模型生成内容由于缺乏规范的许可使用机制具有侵权风险。由于大模型根据概率推理的生成机制,其使用作品难以逐个、准确地大模型治理蓝皮书从规则走向实践(2023 年)9援引法定许可或合理使用条款,这使得大模型未经许可使用作品的行为可能会侵犯被使用作品的复制、改编、信息网络传播权等权利。例如 2023 年 1
23、月,全球知名图片提供商华盖创意(Getty Images)起诉热门人工智能绘画工具 Stable Diffusion 的开发者 Stability AI,称其未经许可从网站上窃取了数百万张图片。再如,用于谷歌 T5 和 META的 LLaMA 等大模型训练的 C4 数据集,虽然源自公开网站,但也包括至少 27 个被美国政府认定为盗版和假冒产品市场的网站。另一方面,大模型生成内容存在与既有作品“实质性相似”的潜在侵权风险。如果大模型通过分析学习后生成的内容与原始作品过于相似,以至于可能会误导公众或混淆原始作品的来源,其可能会因与他人作品存在“实质性相似”而被认定为侵权,从而导致著作权侵权相关的诉
24、讼,而含有侵权内容的大模型生成内容的使用者亦有可能需要承担侵权责任。2三是应用形态颠覆现有数据收集模式,引发数据安全风险。大模型生成工具的运作机制导致企业纬度的违规数据传输与敏感信息泄露频发。以 ChatGPT 为例,根据其运作原理,用户在输入端提出的问题首先会传输到位于美国的 OpenAI 公司,随后 ChatGPT 才会给出相应回答,因此存在数据泄露风险。如韩媒报道,三星半导体事业部向员工开放使用 ChatGPT 后短短 20 天内即发生多起数据违规输入事件。又如数据安全公司 Cyberhaven 调研显示,不同行业客户的 160万名员工平均每周向 ChatGPT 泄露敏感数据达数百次。2
25、参见 https:/ 年)104.大模型在社会维度引发的风险挑战一是冲击就业市场,提升劳动力转型下的社会不安定性。虽然大模型带来的岗位智能化升级将提升社会生产效率、创造新兴岗位,但也会导致特定领域或人群的失业危机。大模型对初等和中等技能白领岗位需求的冲击较大,从事重复性、机械性等工作的劳动者将极易被大模型工具替代。据高盛研究报告分析,以美国为例,46%的行政工作和 44%的法律工作将受到较高程度的影响。在此趋势下,相当数量的劳动者需在短期内进行与社会新需求相匹配的职业转换,这对他们的经济收入、社会地位、身心健康都可能产生较大影响,如果大规模劳动力转型不当甚至有可能引发社会动荡等风险。二是扩大数
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 模型 治理 报告 2023 规则 走向 实践
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【Stan****Shan】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【Stan****Shan】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。