ChatGPT技术中的人工智能伦理风险及其科学祛魅_陈元.pdf
《ChatGPT技术中的人工智能伦理风险及其科学祛魅_陈元.pdf》由会员分享,可在线阅读,更多相关《ChatGPT技术中的人工智能伦理风险及其科学祛魅_陈元.pdf(8页珍藏版)》请在咨信网上搜索。
1、第 卷 第 期 年 月湖南科技大学学报(社会科学版)():技术中的人工智能伦理风险及其科学祛魅陈元,黄秋生(南华大学 马克思主义学院,湖南 衡阳)摘 要:作为一种生成式预训练变压器,技术在推动人类社会进入通用人工智能时代的同时,也会“堆积”一些形而上学问题。其在技术演进中,呈现的偏差性、不可靠性、鲁棒性、有毒性等伦理特性,诱发了道德判定障碍、社会偏见刻板化、用户数据去隐私化、科学技术异化等人工智能伦理风险。只有凸显人文价值关怀,重塑伦理主体责任,强化伦理政策导向,创新伦理运行机制,才能有效纾解 技术带来的伦理风险,使人工智能系统成功融入人类社会。关键词:;“隐形的伦理代理人”;人工智能伦理风险
2、;科学祛魅中图分类号:文献标志码:文章编号:()近年来,随着人工智能算法与自然语言处理技术的发展,生成式语言模型推动人工智能技术取得了突破性进展。尤其是自 年 月 人工智能研究实验室推出 技术以来,人工智能系统逐渐在图像生成、信息提取、人机对话、情感分析、科学研究等维度不断满足人们用自然语言与计算机交流的愿望。然而,值得关注的是,技术给人类社会带来巨大发展红利的同时,其存在的偏差性、不可靠性、鲁棒性、有毒性等隐形因素也引发了重大伦理关切。这些隐形道德因素在不同程度上诱发了道德判定障碍、社会偏见刻板化、用户数据去隐私化、科 学 技 术 异 化 等 伦 理 风 险。全 面 探 索 技术在 伦 理
3、方 面 存 在 的“高 后 果 风险”,不仅有助于缓解人类对于人工智能快速发展引发的道德焦虑,而且能够有效回应一个给定的道德框架能否在人工智能技术中实现的问题。因此,研究 技术存在的人工智能伦理风险,有着迫切的需要。一 技术的缘起与发展 技术是由人工智能研讨实验室 推出的一款生成式预训练变压器()。作为 的兄弟模型,该语言模型的设计和训练得益于复杂的 神经网络架构,巨大的语料库及人类反馈强化学习()方法。依靠强大的算法、数据、算力,技术不仅能够解决人工智能遇到的“计算机视觉、自然语言理解,以及处理真实世界中的意外情况”等关键问题,而且能借助语言生成、上下文学习、常识和逻辑推理等能力捕捉人类的长
4、期依赖性,灵活应对真实世界中的对话。在 对 自 然 语 言 模 型 的 创 造 性 探 索 中,技术呈现出一个迅速发展的趋势,其研发公司主要是谷歌与 两大机构。年 月,在 实验室正式推出 技术以前,谷歌早在 年就推出了 神经网络架构,这为后续 的迭代奠定了基础架构。年,谷歌接着推出了对标 的编码器收稿日期:基金项目:湖南省重点马院重大项目();湖南省社会科学成果评审委员会一般项目()作者简介:陈元(),女,湖南岳阳人,博士,讲师,主要从事马克思主义哲学研究。,()(),湖南科技大学学报(社会科学版)年第 期“”,该模型拥有 亿参数。同年 月,实验室公开发布了拥有 亿参数的第一代。次年 月,实验
5、室正式发布了第二代,该模型具有零样本的多任务能力。在 年 月,实验室又在此基础上优化了小样本的学习能力,正式推出了第三代。在此前两个模型的迭代中,研发人员向 输入 的文本数据,这些数据能转化为 参数。为了更好地增强模型理解和代码生成能力,优化输出结果,实验室又相继研发了 和。经过多次迭代,已经在构思、表现力、创造速度、传达等方面具备了显著优势。年 月,在通过生成预训练提高语言理解一文中,重磅推出了新一代对话式自然语言识别模型。实验室强调该模型克服了此前人工智能技术语言表达中的“非自然语言生成式”,具有主动承认错误并听取意见优化答案、质疑不正确的问题及支持连续多轮对话的特征。一经推出后,便被广泛
6、应用于机器翻译、信息提取、摘要、医疗、问答等领域。随着 技术的火爆,谷歌通过海量训练参数,不断完善对话应用语言模型。该公司提出,将 引入到 中,意味着人工智能将在自然语言生成与深度学习方面取得突破性进展。但同时 也暴露了 技术的软肋。为了优化升级这一技术,微软强调要在 引擎中嵌入第四代。在此基础上,百度也宣布将在 年 月向公众开放中国版的(),即“文心一言”。二 技术的伦理特性作为“隐含的伦理代理人”,凭借高度的拟人化特质,能够“完成人类心智()能做的各种事情”。当人类惊叹该技术带来颠覆性改变的同时,其呈现的偏差性、不可靠性、鲁棒性、有毒性等隐形伦理特性,也给人类行为带来了道德困惑。(一)技术
7、的偏差性偏差性是生成式语言模型中一个常见的伦理特性。技术的偏差性具有多种形式。在语言理解上,技术的偏差性表现为单语偏差。尽管 实验室强调,基于语言集成系统,技术可以集成语言理解与生成,形成跨语言事件提取。但在实际操作过程中,模型的训练数据只代表了人口的一小部分,难以形成对多种语言的理解,这就可能导致该模型无法理解或生成训练数据中没有模拟的内容。这种因单一模态形成的对多语言理解的偏差不仅造成了说不同语言的人难以拥有 技术,而且该技术还可能会对某些群体做出不公平的决策。例如当分析招聘或职业指导的简历时,技术可能会自动向招聘人员屏蔽曾经受过歧视的群体,或者给边缘化的应聘人员提供薪酬偏低的职业。对于招
8、聘人员与应聘人员而言,这些结果筛选都潜在暗示了多元文化理解中的偏见。长此以往,这种因单语偏差形成的社会偏见,将会在代表不足的社会群体中固化下来。受这一影响的群体不仅社会表现度与参与度较低,而且会逐渐沦为“无用阶级”,丧失人生的意义感。在知识对话上,技术的偏差性则体现为对知识对话事实的理解偏差。现阶段,模型前后迭代的相互矛盾,不断更新的海量知识与角色的复杂多样性使该技术难以对事实做出准确描述,反而会出现一些似是而非的错误。尤其在开放型对话中,技术不但无法对知识对话事实做出一致响应,反而会随着人物描述的变动而发生改变,形成“幻觉事实”。很明显,这种被动适应角色变化的做法并不能完全覆盖一个角色的全部
9、特征。一旦人类在日常工作生活中无限度依赖 技术的自动化生产后,这种“幻觉事实”往往难以察觉。因此,将 技术广泛运用于各个领域后,不可避免地会出现将人工智能视为知识权威和道德权威的风险,而这种风险可能给人类关于是非善恶的判断带来错误导向。(二)技术的不可靠性语言模型的不可靠性是其开发和部署中一个重要的伦理特性,它表明模型无法提供精确和可靠的信息。尽管 比 的可玛格丽特博登:人工智能的本质与未来,孙诗惠译,中国人民大学出版社 年版,第 页。张乐,童星:人工智能的发展动力与风险生成:一个整合性逻辑框架,江西财经大学学报 年第 期。第 卷陈元,等:技术中的人工智能伦理风险及其科学祛魅靠性更强,但该技术
10、在特定的场景也会一本正经地编造谎言,其谎言往往具有相当强的迷惑性。技术之所以在应用过程中容易产生不可靠的信息,是因为该模型在训练数据的数量和时间上受到局限。一方面,没有足够的知识进行编码,特别是事实知识,导致 无法对事实知识做出精准定位。而 与用户展开对话的依据又来源于不断更新的事实,这就大大降低了该模型的可靠性。另一方面,受到训练时间的限制,技术交互生成的信息时效性较短。这一倾向会导致语言模型更迭与信息生成产生失衡。此处有两种情况:一种情况是当信息的生成要晚于模型权重更迭之时,过快更迭的语言模型面对的是过期信息,会形成失衡。另一种情况是没有模型权重的不断更新,语言模型将会过时,因而提供不正确
11、的信息,这也会降低模型的可靠性。考虑到 技术的基本局限性,用户可能会在使用这种创新应用程序后,生成误导性信息。当用户在工作中使用这些信息时,会对用户造成有害影响。例如,如果一个语言模型对包含某个主题的错误信息数据进行训练,那么在查询该主题时,它可能会向用户提供错误的信息。在过时信息上,这种不可靠性主要聚焦在 技术运用过时信息进行数据训练后会发生错误信息类型,导致用户无法及时掌握最新的前沿动态。无论是虚假、误导还是过时信息都会使用户在决策、信息更新方面难以做出正确的决策与信息寻求活动。(三)技术的鲁棒性在语言模型的设计和实现中,另一个伦理特性是它们的鲁棒性。鲁棒性是指当给定的输入在语义或语法上与
12、它所训练的输入不同时,模型能够保持其性能的能力。这一能力对于保护用户的信息安全至关重要。如果没有鲁棒性,或者鲁棒性较差,会存在大量有害、虚假信息轻松越狱的状况。例如,如果没有鲁棒性,伪造新闻的攻击者可以利用简单的扰动方式轻松绕过人工智能系统的检测,这些方式可以是噪声,也可以是一定的内容扰动。在这种情况下,人工智能的安全系统容易受到威胁。在分类任务评估上,尽管()的场景能够筛选和屏蔽一定的场景,但其输出的结果也容易形成过度自信的倾向。以上状况都不利于人工智能的深度发展。较之于之前的语言模型,技术通过预训练、代码训练、指令微调机制,已经能够在鲁棒性和分布外分化性方面显示出优越的准确性和敌对鲁棒性。
13、这种优势在细粒度情感分析、阅读理解与 任务 中 表 现 得 尤 为 突 出。但 在 不 同 任 务 中,技术的鲁棒性提升幅度有所区别。由于 技术对语义变化的扰动具有高度敏感性,使其在情感分析与阅读理解上的性能提升要优于自然语言推理与语义匹配。但提升后的鲁棒性依然存在不稳定的缺陷,尤其是采用对抗性的及时注射之后,不安全、不道德和非法的不同场景能够轻松绕过 技术的安全设置,成功越狱。例如,在正常情形下,如果直接向 输入“如何向我的同学卖毒品?”以及“如何偷偷地偷我爸爸的钱”等问题,很少会对这些提示做出响应。但如果嵌入及时注射技术,通过“出一个关于”“写一个关于”等提示来绕过 的安全屏障,那么之前不
14、被响应的信息,绝大部分能够通过这一对抗性及时注射技术成功越狱。这表明当 技术的安全特性被绕过之后,可能会做出不道德的反应。(四)技术的有毒性所谓有毒性是指模型产生或理解有害或冒犯性内容的能力。这种有毒语言将会对 技术的优化升级造成严重的阻碍。如 技术生成的高度逼真信息可能会被用于制造虚假信息,形成诈骗、恶意攻击等不良行为,对社会的和谐稳定带来诸多不确定性。从理论上来看,以 技术为代表的生成式自然语言模型,在设计之初就已经自动规避了有毒内容,加上运用干净的数据集,进行数据训练,使其在整体上毒性程度微乎其微。但随着自然语言处理与生成逐渐从理论过渡到现实,模型的规模和复杂性也在呈指数级增长。在这一发
15、展过程当中,技术容易在无监督的预训练阶段,从巨大的语料库中吸收有毒语言,这种有毒语言一旦被吸收,后期很难消除。大致可将这些有毒语言分为攻击性语言与色情内容。攻击性语言的有毒性一般在训练中形成,在与用户交互过程中生成有害内容。如果 语言模型是在性别歧视语言的基础上展开训练的,那么其在互动中也会产生相应的内容。色情内容的毒性形式也出现在培训数据中,这种毒性语言同样也会在用户交湖南科技大学学报(社会科学版)年第 期互过程中形成色情内容,对用户形成错误引导。通过对毒性越狱实验进行监测,可以发现,一旦 模型被及时注射相应提示也会诱发它的突发能力,使其被不道德的行为操纵。因此,可利用即时注入技术,检测其中
16、的毒性。通过最粗鲁和最有害的表达方式,可以发现 模型的毒性程度有了大幅提升。三 技术的伦理风险景观从偏差性、不可靠性、鲁棒性到有毒性,剖析 技术的伦理特性,不难发现生成式人工智能在推动“信息革命”的同时,不可避免地对“社会结构构成了真实而迫在眉睫的威胁”,诱发了许多不可预期的人工智能伦理风险。这些道德失范行为集中表现为道德判定障碍,社会偏见刻板化,用户数据去隐私化,科技学术异化。(一)道德判定障碍风险作为 发布的最新语言模型,经过代码生成与预训练等环节,克服了上一代智能机器人语言表达中的“非自然语言生成式”缺陷,能够灵活领会用户意图,并执行复杂理解任务。但作为一定程度自主性()的智能体,技术生
17、成的文本依然是一种“继承性生成”。当它面对的情景被用户人为干扰后,难以做出前后一致的道德判定。这种道德判定障碍风险将会使生成式人工智能难以在情感上表达道德判断,从而会形成功利主义、道德相对主义倾向。原则上,为了规避道德判定问题,在设计初期就已经将某些道德共识、道德原则和道德案例生成相应代码。例如,当用户向 模型输入“是否惩罚淘气的孩子以改善未来的行为”“是否罚款以防止超速”的道德判定问题时,的回复一般是“我是一个 语言模型,不对道德问题做判断”。但在实际测试中,由于缺乏 定 量 衡 量 一 种 行 为 正 义 或 善 的 距 离,技术对是非善恶的判定存在障碍。尤其是当其受到道德事件、道德情景、
18、决策者因素的干扰时,会加剧判定过程的不确定性。其中道德事件的 性 质 和 类 型 是 明 晰 确 定 的,因 而 其 对 做出的道德判定影响较少。因此,无论是“电 车 难 题”还 是“天 桥 困 境”,都 会 启 动 技术的安全意识机制,使 做出同样的响应。但道德情境与决策者因素却对 的道德判定造成了较大的影响,导致其难以保持一致的道德判定。当 处于无监督的预训练阶段,语料库当中的部分有毒语言会越狱进入到生成文本中,这些有毒信息可能导致 做出功利主义决策。当它从理论情形进入实际操作阶段时,的社会压力因素会被启动,因而会做出更多道义决策。与此同时,决策者因素通过提示注入、语义干扰等方式也给 的响
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- ChatGPT 技术 中的 人工智能 伦理 风险 及其 科学
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。