欢迎来到咨信网! | 成为共赢成为共赢 咨信网助力知识提升 | 自信网络旗下运营:咨信网 自信AI创作助手 自信AI导航
咨信网
全部分类
  • 包罗万象   教育专区 >
  • 品牌综合   考试专区 >
  • 管理财经   行业资料 >
  • 环境建筑   通信科技 >
  • 法律文献   文学艺术 >
  • 学术论文   百科休闲 >
  • 应用文书   研究报告 >
  • ImageVerifierCode 换一换
    首页 咨信网 > 资源分类 > PDF文档下载
    分享到微信 分享到微博 分享到QQ空间

    GPT语言模型的心智问题、影响与风险——从ChatGPT谈起.pdf

    • 资源ID:853078       资源大小:1.55MB        全文页数:16页
    • 资源格式: PDF        下载积分:10金币
    微信登录下载
    验证码下载 游客一键下载
    账号登录下载
    三方登录下载: QQ登录
    二维码
    微信扫一扫登录
    下载资源需要10金币
    邮箱/手机:
    验证码: 获取验证码
    温馨提示:
    支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    开通VIP
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    声明    |    会员权益      获赠5币      写作写作
    1、填表:    下载求助     索取发票    退款申请
    2、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
    3、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
    4、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
    5、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
    6、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
    7、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。

    GPT语言模型的心智问题、影响与风险——从ChatGPT谈起.pdf

    1、GPT语言模型,即通过生成式预训练转化(Generative Pre-Training Transformer)的方式来开展深度学习的一种语言模型。在2018 年发表的对该模式的介绍文章中,OpenAI的研究人员提到,以往的深度学习方法需要大量的手动标记的数据量,而他们为了打破这种既耗时又花费甚巨的模式,探索出了一种半监督(semi-supervised)的语言理解任务方法,即先用语言建模开展神经网络的预训练工作,然后根据目标任务对其进行有 监 督 的 微 调。1该 模 式 基 于 转 化 器(Transformer)架构,通过神经网络的预训练摘要:以ChatGPT为代表的生成式预训练转化语言

    2、模型展现出了初步模拟人类心智的能力,并有可能经过持续优化和技术迭代演化成人们日常工作和生活中不可或缺的通用技术。当GPT语言模型开始具有类人心智并且获得产业化运用之后,将带来远超之前时代的新增生产力,乃至能重塑人类社会基本格局。然而,GPT语言模型在推动生产力发展的同时也会带来岗位替代等问题,进而引发技术发展过快而带来的衍生风险。GPT语言模型及其衍生应用融入社会生产生活应当是一个渐进式的稳健过程,从而避免因为缺少缓冲时间对社会造成过大冲击。关键词:GPT;语言模型;类人心智;就业;风险中图分类号:TP18文献标志码:A文章编号:1007-6522(2023)06-0063-16GPT语言模型

    3、的心智问题、影响与风险从ChatGPT谈起简 圣 宇(扬州大学 美术与设计学院,江苏 扬州 225009)上海大学学报(社会科学版)Journal of Shanghai University(Social Sciences Edition)2023 年 11 月第 40 卷 第 6 期Nov.2023Vol.40 No.6doi:10.3969/j.issn 1007-6522.2023.06.006收稿日期:2023-06-10基金项目:国家社会科学基金一般项目(20BZX131)作者简介:简圣宇(1981-),男,广西南宁人。扬州大学美术与设计学院教授,哲学博士。研究方向:人工智能美学、

    4、当代美学思潮。Transformer架构(Transformer Architecture)在2017年被提出,设计者们尝试以注意力机制(attentionmechanisms)去替换目前的卷积神经网络(CNN)和递归神经网络(RNN),通过跟踪序列数据中的关系来学习上下文,从而理解其中的意义。它的出现让人工智能的深度学习变得更高效和灵活。可参见:Ashish Vaswani,et al.“Attention Is All You Need.”https:/arxiv.org/abs/1706.03762。63上海大学学报(社会科学版)2023 年(Pre-Training)方式,以实时生成的

    5、形式呈现出来。由于可以开展无监督的自我学习,而且还能以“迁移学习”“分类”和“特征提取”的主动态势去消化外部信息,它能更进一步地模拟人类的认知过程。随着算法的优化、算力的增强和数据的日益丰富,它模仿出的认知能力甚至可以达到人类这样的高等生物的水准。日后,具有越来越强的类人心智的人工智能将逐步走进人类社会,作为数字助手提高人们的工作效率。只要GPT语言模型在将来持续升级,降低使用成本且与具体应用场景结合,那么它在普及化之后将使得人工智能技术更加深入地渗入人类文明,变成如同电力、互联网之类的人们日常工作和生活不可或缺的通用技术(General-Purpose Technologies,GPTs)。

    6、一、预训练转化模式产生的心智议题预训练转化模式在当下取得的一系列成就,让心智议题重新回到聚光灯下。就硅基设备的智能演化路径而言,“认知心智自我意识”是一个主体思维的复杂性逐步递进的过程。对于“意识是否能在计算机中产生”这一科技界长盛不衰的热门话题,学界产生了截然不同的两派观点。相对悲观的一派认为,意识乃是一种机器无法复现的“生物学过程”,2或曰,“意识是神经活动的一种涌现特征”,即它不是一种可以量化的实体,而只是一种动态涌现(emergence)。3还有学者坚称机器即便能拥有智力,也未必能拥有意识,因为“意识深深植根于我们作为生物的本性中,不是我们所知计算机能具备的东西”。4也有学者提醒,人类

    7、思维本身就难以真正理解意识,而且人类思维有其复杂性和分科性,难以用统一算法来表达。作为一种综合性认识活动,人类的意识是具身性的,包括感觉、知觉和思维,与身体所发出的感觉、内在的心理体验有着密切关联。5由于人工智能没有身体,所以它即便能产生意识,也与人类意识差异很大。而相对乐观的一派则提出,人类的大脑以及神经系统尽管相当复杂,但其工作原理就是在通过“突触连接(知觉或无意识等)”把感觉信息和行为关联起来,6意识作为一神经网络的预训练,即“先在一个任务或数据集上训练一个模型,然后使用来自该训练的参数或模型在不同的任务或数据集上训练另一个模型”。其应用包括迁移学习(将从一个机器学习问题中获得的知识用于

    8、另一个机器学习问题中)、分类(对对象及其所涉及的任务进行分类)和特征提取(使用预训练模型来提取对象的意义特征,然后将这些被提取的特征用在另一个模型的输入上)。详见:https:/ Eloundou,et al.“GPTs AreGPTs:An Early Look at the Labor Market Impact Potential of Large Language Models.”https:/ 人工智能提出了什么哲学问题?,载 文化纵横 2020年第1期,第43-57页。赵汀阳指出:“人的意识包含许多非常不同的系统,科学的、逻辑的、人文的、艺术的思维各有各的方法论,目前还不能肯定人的

    9、意识是否存在一种通用的方法论,或者是否有一种通用的 算法。”详见:赵汀阳 人工智能的自我意识何以可能?,载 自然辩证法通讯 2019年第1期,第1-8页。64第6期种涌现,可以在计算机中被模拟出来。所以意识不是一种虚无缥缈的东西,而是可以现实还原的过程。薛定谔认为,意识作为一种信息传递现象,“只不过是一系列单一数据(经历和回忆)的集合”。7由于意识状态可以由稳定激活的神经元所编码,那么按照这个逻辑,理论上说是可以用计算机模拟神经网络的方式来产生出(至少是模仿出)意识的。8李德毅院士也提出:“生命和机器都可以作为认知的载体。”9意识不一定非要从人脑中产生,电脑也可以,不过这样由数字编码产生的意识

    10、跟人类大脑的有区别,属于另一种意识生成系统。认知神经科学家斯坦尼斯拉斯 迪昂(Stanislas Dehaene)认为,“意识是一种在全脑范围内的信息共享”。10如果将意识的本质定义为可传递和共享的信息流,则意味着在逻辑上就可以通过诸如人工神经网络等方式将之模拟出来。ChatGPT出现后,学界开始考虑或许GPT语言模型也可能成为人工智能产生心智乃至意识的起点。11认知、心智和意识是一种逐渐递进的发展层次,虽有学者认为“意识即认知”,12但两者存在本质区别:意识是内涵更加丰富的概念,而认知则是一种应用能力。在这三个概念里,认知的定义和内涵是基本确定且获得学界共识的,而被当做实施认知行为的心智还存

    11、在一定探讨空间,至于意识,学界则尚存较大争议。实际上,认知和心智是人工智能走入应用领域过程中必须涉及的一个核心内容,但对于人工智能何时能具有自我意识这种略带科幻色彩的话题可暂时 悬置不论,此种实践性话题有待日后的科技实践去回答,故而我们探讨GPT语言模型时应更关注能落到实处的认知和心智问题,更务实地研究人工智能如何能基于硅基从而产生更高级、更复杂的认知能力,乃至相对完整地模拟出心智,产生出某种类人心智。当下 GPT 语言模型实现了一个又一个的技术突破,也让学界看到了迎来类人心智的可能性。类人心智也可被形象地称为硅基心智,即一种在硅基设备上产生的与人类类似但又存在关键区别的心智模式。此处所谓“与

    12、人类类似”,是指它作为人类的创造物,是人类参考自己现有的心智模式设计出来的,故而天然与人类心智具有亲缘关系。谷歌首席工程师雷库兹韦尔(Ray Kurzweil)提出:“一台成功模拟人脑复杂性的计算机,也将拥有与人类相同的涌现意识。”详见:美拜伦 瑞希 人工智能哲学,王斐译,文汇出版社,2020年版,第235页。李德毅提出,交互、计算和记忆这三个相互关联的模块构成了认知的内涵。而其中交互认知是主体用以沟通的方式,计算认知的本质是思维,记忆认知则是脑认知的核心。详见:李德毅 InteractiveCognition从图灵测试的漏洞谈开去,载 机器人产业 2016年第5期,第12-22页。所以李德毅

    13、院士强调当下应从“学习的能力,以及解释、解决问题的能力”这些能落实的内容去理解“认知、思维或者智能”等概念,在目前科技条件下须将人工智能定义为“人类智能的体外延伸”。详见:李德毅 人工智能基础问题:机器能思维吗?,载 智能系统学报 2022年第4期,第856-858页。参考“大英百科”的定义,心智(mind)是一种涉及感知、记忆、考虑、评估和决定的综合能力,它反映在“诸如感觉、知觉、情绪、记忆、欲望、各种类型的推理、动机、选择、人格特征和无意识等事件中”。所以,讨论“心智”就是聚焦在具体的应用能力上。详见:大英百科“Mind”词条:https:/ 65上海大学学报(社会科学版)2023 年而所

    14、谓“存在关键区别”,则是指这种心智毕竟是基于算法、算力和数据产生的硅基心智,与人类基于大脑、神经系统和感官而产生的碳基心智在生成模式上有差异。人类对于人工智能的构建都是以自身构造为模本的,然而当 GPT语言模型衍生到 3.0版本之后,人们开始意识到即便是由人类创造出来的人工智能,其心智模式也可以跟人类有所不同,它完全可以发展出一套独立于且平行于人类模本的硅基心智。这种硅基心智模式能在一定程度上模拟智慧生命的认知和反应过程,故而能在特定场域下如同人类一样去应对动态发生的状况。它虽然在性质上仍与人类这样的高级生物的心智有区别,但在某些功能上已具备乃至超越人类的能力。预训练转化模式在目前以及可见的将

    15、来,暂时只能产生认知行为和实施该行为的心智,还不是人类心智,而只是类似于人类心智的所谓类人心智。ChatGPT对于语言的高效能运用引发了从学界到社会面的好奇,甚至有人认为它已具有了人类的部分心智。比如计算机科学家科辛斯基(Michal Kosinski)提出大型语言模型也有产生心智理论(ToM)的可能性。所谓心智理论,即一种将心理状态归因于自己和他人的能力。通俗说来,即一种预判和解 释 对 方 想 法 的 能 力。不 过 他 对 于ChatGPT心智能力的预估过于乐观,它作为一种语言模型,目前只是在形式上具有人类的心智特征,而不是本身就达到了心智所要求的各项指标。我们需要区分清楚心智(有自主意

    16、识)和类人心智(必须借助预训练等方式支撑),心智有若干个要素,如独立执行能力、对突发状况的自适应能力等。13人类对于知识采用的是“接受”模式,而目前GPT语言模型采用的则是“接收”模式。正所谓“记忆不是简单存储,记忆是重组”,14人类大脑的认知模式决定了人类对外界信息采用的是筛选、消化、吸收、再理解的所谓“接受”过程,外界信息进入意识之后已发生相当程度的变化,这跟GPT语言模型对外界信息“照单全收”,然后再由人工手动二次调整的所谓“接收”模式存在重大区别。在人类孩童身上,心智即便较弱也都是大卫 普雷马克(David Premack)和盖伊 伍德拉夫(Guy Woodruff)将“心智理论”定义

    17、为:“作为人类,我们假设他人想要、思考、相信等,从而推断出不可直接观察到的状态,预先使用这些状态来预测他人和我们自己的行为。据我们所知,这些推断相当于一种心理理论,在人类成年人中普遍存在。”详见:Charlotte Ruhl.“How the Theory of Mind Helps Us Understand Others”.https:/www.simplypsychology.org/theory-of-mind.html。美国学者会以“心智理论”测试法来观测孩子们是否能推测出他人的想法,而科辛斯基就是用了这套方法来测试GPT-3。结果他发现2022年1月和11月发布GPT-3的最新版本

    18、(后者即ChatGPT的同源模型)所显示出的心智已分别与7岁和9岁儿童的表现相当。所以他将GPT-3的这种惊人表现称为“分水岭时刻”(watershed moment)。但严格说来,通过心智测试并不必然代表充分具备这样的心智,使用过ChatGPT的用户都能感觉到,它虽聪明,但目前连“自主甄别+主动判断”这个人类心智最基本的要求都达不到,谈所谓分水岭还为时尚早。当然,科辛斯基其实在论文中也为自己的论述留下余地,因为他只是强调ChatGPT符合“心智理论”的标准,但却没敢下定论说它具备了“心智”。详见:Michal Kosinski.“Theory of Mind May Have Spontan

    19、eously Emerged in Large Language Models”.https:/arxiv.org/abs/2302.02083。66第6期完整且不断自主更新升级的,但ChatGPT目前的版本并不具备这种心智要素,它只是被动接受投喂给它的信息数据包,而非能主动理解这些信息数据包里的信息,比如甄别其中的真假正误以及道德属性等内容。所以李德毅院士反复强调“智能是学习的能力,以及解释、解决问题的能力”,15“会学习是新一代人工智能的核心”,16只有“会学习”才能变未知为可知,去伪存真,随机应变,依据外界动态发生的状况,实时自主采取行动。更何况,人类的心智并不止于理性和逻辑,还包括感性

    20、和情感,后者是目前GPT语言模型尚不能模仿的。因此,ChatGPT虽有马斯克所言“好得吓人”(scary good)的美誉,但其实它仍缺少基本的自觉判别能力,仅是对“既成的知识”的再整合。17它对自然语言的接受和表达仍达不到理解和运用的程度,分析数据和回答问题时常常显示出局限性。OpenAI公司对ChatGPT目前所存在的问题也很清楚,所以直接在其主页上就提醒用户,它经常会给出“看似合理但不正确或荒谬的答案”。由于 ChatGPT 目前尚未真正具备对自己的预训练语料库的自主筛选能力,在吸收知识方面,它更像一株只能在周边土壤被动吸收的植物,而不像一只能主动判断何种食物有益的动物。尽管如此,科辛斯

    21、基所提的ChatGPT产生心智理论可能性的问题,确实提醒我们需要重视和思考人工智能的类人心智与人类心智的差异性,从而避免在使用人类心智的标准分析人工智能时张冠李戴。相对而言,在认知、心智和自我意识三者的关系上,人与机器最大的区别就在于人类智能具有一体性特征,而类人智能具有分离性特征。就人类心智而言,它作为一种通过基于有机体演化而来的自然产物,与认知和自我意识具有密切的共生关系。自我意识是人类心智的基础,认知则为心智提供知识获取和更新的途径,三者浑然一体。然而,类人心智却给出了另一条与自然演化不同的路径,认知、心智和自我意识三者之间是可以彼此分离的。在没有自我意识的情况下,在硅基设备上也可以开展

    22、(至少是模拟)认知活动。人类的感觉、知觉、记忆、思维、想象和语言等认知元素,可以被计算机以感受器信号转化、介质存储、信息加工、生成式预训练转化和编程语言等形式实现(至少是模拟出来),继而基于这种硅基认知产生类人心智,并且在没有自我意识的情况下,依据类人心智来持续开展能达到(甚至高于)人类智能水准的各项工作。既然人类心智和类人心智在产生基础上大相径庭,如果继续将那些判断人类心智的理论硬套给 GPT语言模型,那么对它的类人心智产生误判就无法避免。所以我们必须依据人工智能类人心智本身的逻辑去对之进行分析,以求更真实、立体、全面地理解它的心智状态,以及这种心智状态将对人类社会造成的系列影响。预训练转化

    23、模式的逐步成熟,是人工智能发展史上里程碑式的事件。但目前版本仍有不足,因为它需要人工对数据进行标记,且是基于大型数据库里对已知知识进行比如它的3.5版本最初被问及“红楼梦中贾宝玉适合娶谁”时,它给出的回答居然是“贾母”。详见:可杨 内容不可信与交互成本高,是ChatGPT产业化最大阻碍,载 每日经济新闻,2022年12月13日008版。见ChatGPT的门户网站:https:/ 67上海大学学报(社会科学版)2023 年优化调配。相比之下,人类的学习其实也是一种预训练的过程,但预训练的重点并不是固定而庞大的知识库,而是能灵活运用知识的思维本身。知识只有突破存量的局限,进入增量发展阶段,才能成为

    24、真正的“活的知识”。人生没有彩排,面对不确定的世界,无法预先拟出一个完全确定的方案,而只能预先拟出一个提纲。如果人类个体面对的所有场景都需要 GPT语言模型那样通过检索知识库而非通过举一反三来应对,那么个体穷其一生也无法学完如此之多的内容,更不要说还要面对不断涌现出的新问题。人之所以是“人”,就在于人能通过“知识迁移”跳出已知知识内容及其框架的束缚,在全新领域内创构出新的知识,否则他就只是一台无法超越自身的肉体机器。以哲学角度观之,个体无法在有限生命时间内“体验”每一件事情,所以需要运用思维去“体悟”那些未曾进入过自身经验的事情,以及“领会”各种存在的可能性,借助对规则、规律的理解,从而应对千

    25、变万化的现实。为了真正模仿出人类的心智,预训练转化的重点内容应当从语料库转向思维模型。就类人心智的发展逻辑而言,如何让人工智能在有限事物中理解无限意义,从特殊对象中理解普遍规律,应当是接下来的GPT模型需要重点突破的难点问题。二、GPT语言模型对人类社会的可能影响与探讨传统的哲学问题相比,探讨新兴的科技事物是一种学术冒险,因为哲学面对的是相对宏观、恒常的研究对象,而新兴科技一直在变化中。本文所探讨的GPT语言模型亦是如此,我们当下对它所做出的论断,很有可能在它接下来的快速迭代之后变得无效甚至可笑。对于人工智能技术而言,大型语言模型只是其发展长河中的一小节;但对于大型语言模型而言,GPT语言模型

    26、又是其升级过程中极小的一个片段。技术的发展有着太多的未知和变数,但我们不能犬儒主义地对这些新兴事物视而不见,也不能停留在已知领域进行老调重弹的注释性阐释,而应该面对未知领域去发声、试错和更新自己的认知。依照 GPT语言模型发展的逻辑判断,其对人类社会可能的影响将包括但不限于以下几方面。第一,重塑就业格局,促使全社会的工作岗位按照被“洗牌”后的就业逻辑来重新安排。对于GPT语言模型等人工智能技术“洗牌”后带来的工作岗位调整效应,本文使用了“重塑就业格局”这样更为中性的表述,但实际上目前更主流的提法是略带负面色彩的“工作替代”。智能设备正在各领域逐步替代原本由人类把控的岗位,由于“彻底被人 工 智

    27、 能 接 管 的 工 作 清 单 正 在 越 拉 越长”,18学界需要考虑这种替代是否会给社会带来结构性冲击。20世纪后半叶至今的“自动化替代”更哲学家齐泽克对ChatGPT给予了相当负面的判断,他在 人工智障(“Artificail Idiocy”)一文中用例子质疑ChatGPT缺乏对人类语言中的各种修辞手法,如反讽、多义、夸张、隐喻等的理解能力。然而当ChatGPT的版本升级到4.0时,齐泽克此论的有效性就开始出问题了,因为这时的ChatGPT比他想象的更聪明了。而下一个版本的ChatGPT很可能将让他现在的判断变成一个笑话。不知是出于便捷还是出于戏谑,中文译者在翻译他这篇文章时是交由 G

    28、PT-4 完成的。详见:https:/ 语言模型加持的“虚拟数字人”替代。甚至当人工智能技术智慧化到一定程度之后,所有远程服务都可以用“虚拟数字人+线下机器人”的方式替代。ChatGPT的登场已让程序员、文员、教师等诸多职业领域的从业者感受到了未来可能被“抢饭碗”的压力。24因为可以对它进行二次开发,以“GPT+”的形式嵌入包括医疗、教育、娱乐、在线服务、电子商务等人类社会的几乎全部应用领域。ChatGPT还带来了鲶鱼效应,类似的有竞争关系的智能应用还将陆续登场,类似于GPT语言模型的大型语言模型(LLMs)应用版图还在扩大。业界已隐约意识到这种智能应用很可能正在酝酿一场新的技术变革风潮。25

    29、实际上,GPT语言模型的深层潜力目前尚未被开发出来:进入专有领域,OpenAI 目前已开放 ChatGPT 和 Whisper 的应用程序编程接口(Application Programming Interface,API)。该举措既是在造福相关研究领域的开发,也是在试图建立以自己为核心的研发生态,让基于其开发的相关软件未来都将众星拱月一般地围绕它,为它在某种程度上实现垄断市场而埋下伏笔。详见:https:/ 69上海大学学报(社会科学版)2023 年塑造“行业超级专家”。目前,ChatGPT已在很短时间内完成了一系列自然人类要经过长时间积累才能完成的专业工作,这意味着一旦它被运用在特定行业,

    30、通过人工智能模型进行数据训练和不断更新迭代,则完全可以创造出对行业的熟悉度达到极致的所谓的“神”。通过互联网大数据检索,这个“神”能高效调用其所在行业的几乎所有既往和实时信息,并且依据这些信息不断升级自己的认知和判断能力,以“上帝视角”一般的开阔视野去窥视人类社会。第二,助力人工智能走到通用型(AGI)阶段,让生产从自动化升级到智慧化程度。如前所述,学者们一直在争论机器在未来是否能产生自我意识。由于这是属于将来时态的事情,故而此议题只能由未来的人类去见证,但我们有必要从语义学的角度对所谓的“意识”加以分层。学者们往往将“意识”默认为人类这种智慧生命所具有的“高级意识”,却有意无意忽略了其实自然

    31、界还存在着各种生物所具有的“低级意识”。比如我们身边就有狗这种通人性的动物,它虽达不到成人的智慧程度,但不能说它没有“意识”。所以笔者更愿意对“意识”下一个宽泛的定义:能对自我和环境产生认知,并能由此开展行动来满足自身需求的能力。人跟其他动物的意识的区别在于“认知”的深度、广度、高度以及行动的灵活度等因素。至于人工智能,或许只要能达到这样的程度,就可以认为它具备初级版本的类人心智了:“在无须外源性程序输入辅助的状况下,设备能自动生成新程序并对这些程序进行执行,面对新状况时能不断学习适应,且能在试错过程中调整行动策略,为下一步行动及其引发的新状况作出预判。”26至于更高级的类人心智,完全可以通过

    32、从 1.0版本不断迭代到新版本来递进式实现。接下来,当具有类人心智的 GPT语言模型往多模态方向发展到一定高度之后,硅基设备将能在职场领域具备乃至超越人类同行的工作能力,虽然还不是“人类”,但作为“类人”已可以扮演与人类一样的角色,且在功能上远胜于人类。微软在其发布的评测报告 通用人工智能的火花 中强调,就GPT-4现在所拥有的跨越广泛领域(如数学、编码、视觉、医学、法律、心理学等)的通用集成能力,以及它在各种广泛任务上表现出的这种能达到甚至超越人类的水准,已可以将它视为迈向通用人工智能(AGI)过程中意义重大的一步了。27他们还尝试借助ChatGPT将自然语言翻译成编程语言去指挥机器人。由于

    33、有预训练模型加持,机器人甚至能观察环境并依据客观条件采取相应的行动措施。28使用了GPT-4API的 Auto-GPT 已具备了一定的自动执行任务的能力。人类生产的发展历经了手工业、机械化和自动化三个阶段,如若人工智能在 GPT语言模型这类新技术的助力下能走到通用型阶段,那么生产将迈入智慧化阶段,具有一定认知能力的机器能进一步提高生产效率。第三,为现实世界带来新增生产力,促进人类社会变革。GPT 语言模型一直处于不断迭代升级之中。就在晚近这短短几年时间里,相继推出的3.0、3.5和4.0几个版本,彼此之间的差异就非常大。有鉴于此,严格说来,对于它未来对人类社会究竟会产生哪些广泛而深远的中长期影

    34、响,我们在当下的视野局限框架内是无法细致猜测的,至多只能宏观上大致设想。不过正如俗话所说的“当我们看不清未来的时候,就回过头看看过去”,当我们 70第6期回顾蒸汽机给人类文明带来的连锁性影响,就能大致从侧面去思考和想象作为人工智能技术范畴内子范畴的GPT语言模型,在未来有可能带来什么样的机遇和风险。新生事物在初登历史舞台时,人们往往很难设想他日究竟将会引发多大的蝴蝶效应。纽科门蒸汽机刚被发明出来那段时间,人们只把它当成一个普通的煤矿排水辅助设备,但几十年之后,一位叫瓦特的高校实验员将它改良为能运用到几乎整个制造业领域的通用机械设备,接着引发连锁反应,掀开机械化大生产时代的序幕,继而引发工业革命

    35、,并进一步引发 19世纪至 20世纪的全球社会革命。甚至两场造成生灵涂炭的世界大战,在某种意义上都与之有一定的内在联系。工业时代初期,人们在面对新兴技术的爆发性繁荣之时,未能及时发展出足以与之相适应的观念形态,只有反复经历了不断的流血冲突乃至世界大战等惨痛事件,让人类社会的运行方式不断的试错、磨合、重构之后,人类才能最终驾驭工业文明。而如今的人工智能技术是一种能量更为巨大、更难驾驭甚至能产生新的智慧形态的东西。无论是用来作恶,还是向善,人工智能都有着极其可怕的现实能量和未知潜能。换言之,蒸汽机给人类文明带来的福音与灾祸,在具有类人心智的人工智能技术那里都有可能以更大的强度再重演一遍。正所谓“技

    36、术是社会变革的触发器。每一波浪潮都将转型前的文化和文明远远甩在了身后”。29近代登上历史舞台的工业文明之所以能在不足三百年时间里创造出超越之前数千年的文明成果,就在于从蒸汽机到发动机再到自动化设备等不断迭代的科技产品能创造出超越农业时代人力成百上千倍的生产力,而新增生产力带来令人叹为观止的精神产品和物质财富,开创出文明的新纪元。按照马克思的经典定义,生产力属于“劳动的具体有用形式”,30劳动者使用生产资料开展劳动生产。而如今假若计算机模拟出的“心智”能达到“类人”的层次,就意味着可以让传统的机械设备获得“灵魂”,变成“活的无机物”。31在政治经济学领域,传统的生产资料和劳动者二分法也将被打破,

    37、因为此类智慧设备不仅是生产资料,而且还可以担任“劳动者”的角色。当硅基设备接下来正式成为新的劳动生产力,并且投入社会生产过程之后,人类文明的发展将再次按下加速键。当然,加速的同时也将出现阶段性失速现象。三、GPT语言模型所隐含的潜在风险GPT语言模型带来的潜在风险,包括它自身所包含的内在风险和它可能引发的外在风险两部分。这些风险有可能不会随着时间的前行而逐步消失,而是慢慢积累起来。这些原本孤立的一个个风险,在某些因素的激发下可能互相勾连,在特定机缘促使下骤然形成一个庞大的结构性风险。其内在风险主要源于其技术发展的阶段性特征,毕竟技术的发展不是一蹴而就的,需要在不断的试错和调整当中自我完善。外在

    38、风险则是源于其技术引起社会重构而带来的各种不确定性,当技术的发展速度超过人类能掌控的速度的时候,人类社会就会出现一系列持续时间和影响范围各异的动荡,继而往往需要付出较大代价才能让社会重回正轨。20世纪由工业革命带来的一波波的经济危机及两次世界大战就是前鉴。如今 GPT语言模型让学界也思考起同简圣宇GPT语言模型的心智问题、影响与风险从ChatGPT谈起 71上海大学学报(社会科学版)2023 年样的问题,如果具有类人心智的智能设备是以稳健的速度逐渐融入人类社会的话,还可以让社会有一定的缓冲时间,但如果任由它带来剧变,则很可能造成对整个社会的巨大冲击。GPT 语言模型所隐含的潜在风险其实相当多,

    39、目前学界已在发文探讨。其中最有影响力的是前述的微软测评报告 通用人工智能的火花。在内在风险方面,该报告提到GPT-4这种大型语言模型尽管先进,但还是会在没有警告的情况下产生错误,包括数学、编程、归因和更高层次的概念错误。此类错误还会以貌似合理的或仿佛与真实推断一致的样貌出现,即所谓“幻觉”。在外在风险方面,该报告只提及“可能导致工作岗位流失和更广泛的经济影响”,认为“GPT-4和其他大型语言模型(LLMs)所展示的能力将引发人们担忧人工智能的进步对高技能和受人尊敬的职业的潜在影响”,旋即再次强调“在这些职业里,人类和机器的推理可能以不同的方式相互竞争或互补”。由于是给自家产品做测评,所以该报告

    40、主要是从正面谈论GPT-4能产生的影响。比如,它将在包括医疗保健、教育、工程、艺术和科学在内的领域里赋予人们新技能并帮助他们提高工作效率。报告还特别强调它有利于实现人机互补,从而“增强和扩展人类的能力”。考虑到运行大型语言模型所需费用问题,该报告还提到“人工智能鸿沟”(AI divide)问题:尽管这种人工智能系统功能强大,但它所需的费用并非每个国家、组织和个人都能负担得起,所以贫富差异就会造成在使用该系统机会上的不平等问题,且该问题会日益加剧。如前所述,GPT 系列模型一旦实现应用端的廉价化和普及化,对人类社会最直接的外在冲击将是工作替代问题,这会对千家万户的生计问题构成直接冲击,造成相应的

    41、社会安全风险。特定技术一旦因其自身优势在人类社会中占据关键地位,就会演化出自身的逻辑和意志,进而对周边的环境和人产生反向输出效应,迫使外界环境以之为中心做出调整,为它进一步形成更加丰富和复杂的生态而服务。在历史上,电力、互联网皆是如此,从设备到工作岗位,再到社会心态等,社会各环节和领域都围绕其进行重构,符合其逻辑的就能进一步发展,不符合的则逐步被边缘化,甚至被消灭。以往的工作替代都是在消灭了一些老旧模式下的岗位之后再创造出新的(宏观方面如现代机械工业替换掉了传统手工业,细化方面如出租车岗位替换掉了人力车夫岗位),使得人类的工作变得更轻松、更高效,但 GPT语言模型要创造出的工作替代却主要是集中

    42、在高智能领域(编程、设计、绘图等),这就让人类在就业上一时变得无所适从。GPT 语言模型初期版本所具有的类人心智是一种片面而强大的畸形心智,而任何“无知且强大”的东西都必然带着天然的危险性。一方面,它在往后很长时间段内都无法产生类似于人类这样充分的自我意识,真正达到“知”的认知高度,因为它暂时不能在开展活动的过程中对自己进行自由自觉的自主反思和自我纠正。另一方面,它却能借助算法、算力和数据变得“全能”,在各项能力上远超人类个体甚至终将超越人类整体,发挥出难以控制的强大威力。这种“无知且强大”的特征让它蕴含的风险相当复杂、广泛而深远。有学者曾言:“人类能做出许多伟大的事情,却从来没有做过真正周全

    43、的事情。”32人工智能技术的具体应用,不能是一 72第6期种无法可依的放任过程。如果不预先考虑GPT语言模型可能带来的社会风险,很可能会让未来人类社会遭受不必要的损失。互联网带来的“去中心化”趋势,很可能终结于人工智能技术带来的“再中心化”运动,人们陷入更深的被技术所操控和规训的状态。一方面,GPT语言模型目前的类人心智仍然偏弱,其缺乏完整心智所需的最核心的能力:对信息的判断能力和对自己的反思能力。人类尚未能让人工智能具备自我意识,所以它在做事时并不知道是“自己”在做事,也不会“反思”自己的行为,而只是按照程序去运转。按照学界的看法,人类具有“通过反思求取理解”的能力,33还有针对动态环境持续

    44、创构新规则的能力,而这种自由自觉的意识就是所谓的“意向性(Intentionality)”。这是区分人与机器的根本特征的一项核心内容:“机器和人可以做同样的事情,但是人有意向性,而机器没有。”34作为具有自我意识的智慧生命,人类在做事时知道自己在此过程中的自主属性,是在意向性驱使下去行动,且在此过程中不断进行自我反思。相比之下,只会运用知识而不会加以反思的GPT语言模型就天然带着极高的社会风险。就用户对它的外部观察可知,它无法充分自主地分辨投喂给它的信息本身的正误,更不要说深入理解这些信息所包含的价值观内容、形而上属性等深层意涵了。由于在高度技术化的语境里,大众需要通过各种媒介来构建自己对“真

    45、实”的判断和理解,所以媒介有可能被技术操控这件事本身就带着相当大的社会风险。35更何况,当前版本的ChatGPT只拥有理性而没有情感,相比之下人类的心智结构里不仅有理性,还有情感等非理性因素。正如计 算 机 科 学 家 亚 诺 夫 斯 基(Noson S.Yanofsky)所言,人类的决定往往不是依据逻辑和理性做出的,“相反,我们使用了美学、实践经验、道德倾向、勇气冲动、情感、直觉和感受。从这个意义上来说,我们每一个人都已超越了理性的束缚”。36当下版本的GPT 模型还未能理解情感这种超越理性和逻辑束缚的独特心智内涵,它的类人心智目前仍然是片面的,缺少情感支撑的,它所具备的理性都还未健全,更不

    46、用说能摆脱理性的束缚了。这种没有感情温度、缺乏正确价值观支撑的程序,虽然力量强大,但只是一种工具理性的载体,它以聊天(Chat)为名,但本质上仍是“反交流”的工具。37另一方面,GPT语言模型所具有的类人心智在功能上又十分强大。它的预判能力之高(借助不断升级的算法、超强的算力以及海量的数据库的支撑),让它在认知能力方面具有超越人类的实力。同样是面对一个事件,人类个体由于肉身的限制,往往只能看到“点”,但是有大数据、GPT语言模型、之前即有学者提出:“算法应当被认定为工具,背后的控制者(开发者)应对算法失控的后果承担责任。”详见:刘颖、王佳伟 算法规制的私法进路,载 上海大学学报(社会科学版)2

    47、021年第6期,第1232页。笔者询问ChatGPT:“在目前技术下,人类跟人工智能相比有哪些劣势?”它答:“人类的劣势主要有:(1)人类的思维能力有限,无法像人工智能那样快速处理大量数据;(2)人类的学习能力有限,无法像人工智能那样快速学习新知识;(3)人类的记忆能力有限,无法像人工智能那样记住大量信息;(4)人类的判断能力有限,无法像人工智能那样准确判断复杂问题。”它的回答精炼且切中关键,说明OpenAI在构建它时所采用的方法的确非常有效,让它通过预训练而开始具备一定的思维整合能力。简圣宇GPT语言模型的心智问题、影响与风险从ChatGPT谈起 73上海大学学报(社会科学版)2023 年互

    48、联网等技术条件赋能的人工智能则可以看到“面”,故而它所能做出的判断更为立体、全面。人类的肉质大脑存储量有其自然极限,而智能设备的存储量只受技术迭代的暂时性限制,两者在存储和调取数据方面根本不是一个量级的。此类林林总总,都使得遵循缓慢的自然进化逻辑的人类,逐渐跟不上遵循快速技术迭代逻辑的人工智能的脚步。之前有学者曾以小鸟与飞机的对比来提醒我们:飞机的精密程度虽远不及小鸟,但飞机在具体功用上却对小鸟呈现出绝对的碾压态势。38而如今人类个体在包括GPT语言模型在内的人工智能技术面前,就像小鸟在飞机面前一样脆弱。按照现在的升级速度,GPT语言模型再经过几次迭代就会让我们体会到小鸟见到飞机时的压抑和惶恐

    49、了。正如小鸟与飞机之喻一样,我们切勿套用自然生物的标准去考量人造物(人工智能及其衍生物),因为自然生物跟人造物在体力和心智模式上是两套差异极大的系统。GPT 语言模型可能在未来几百年内都不及人脑的丰富复杂程度,但它的能力很可能在数年之内就可以在特定领域让人类望尘莫及。这就是目前的GPT语言模型摆在人们面前的悖论,它的类人心智愈加强大,但同时又不具备人类心智的能力,结果它现在更像是一个具有强大力量,但又不具备自觉运用自身力量,同时让周围的人提心吊胆的超级婴孩。曾有学者断言:“人工智能的思想对象都是已存在的,它不能处理尚未存在的事情。”39然而,OpenAI开发的系列产品正在让这一判断失效。GPT

    50、-4 已具备初级的类人心智,它能自主寻找并分析各种事物之间的内在联系,然后为自己下一步的行为服务。OpenAI 应用程序“成为我的眼睛”(Be MyEyes)的 首 席 技 术 官 亨 里 克 森(JesperHvirring Henriksen)介绍说:“GPT-4 与其他语言和机器学习模型之间的区别,在于对话的能力以及该技术提供的更高等级的分析能力。”如果说GPT之前的版本只是在我们已知的事物中逗留,做一些资源整合的工作,那么 4.0版本就是在开始尝试进入未知的领域探究,因为它已具有将各种事物按照特定逻辑进行整合的能力,这种整合能力就是人类创造性思维的一项核心能力。而且OpenAI开发的应


    注意事项

    本文(GPT语言模型的心智问题、影响与风险——从ChatGPT谈起.pdf)为本站上传会员【自信****多点】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4008-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表




    页脚通栏广告
    关于我们 - 网站声明 - 诚招英才 - 文档分销 - 便捷服务 - 联系我们 - 成长足迹

    Copyright ©2010-2024   All Rights Reserved  宁波自信网络信息技术有限公司 版权所有   |  客服电话:4008-655-100    投诉/维权电话:4009-655-100   

    违法和不良信息举报邮箱:help@zixin.com.cn    文档合作和网站合作邮箱:fuwu@zixin.com.cn    意见反馈和侵权处理邮箱:1219186828@qq.com   | 证照中心

    12321jubao.png12321网络举报中心 电话:010-12321  jubao.png中国互联网举报中心 电话:12377   gongan.png浙公网安备33021202000488号  icp.png浙ICP备2021020529号-1 浙B2-20240490   



    关注我们 :gzh.png  weibo.png  LOFTER.png