当机器人产生幻觉,它告诉我们关于人类思维的什么.pdf
《当机器人产生幻觉,它告诉我们关于人类思维的什么.pdf》由会员分享,可在线阅读,更多相关《当机器人产生幻觉,它告诉我们关于人类思维的什么.pdf(13页珍藏版)》请在咨信网上搜索。
1、像 OpenAI 的 ChatGPT 这样的聊天机器人依靠一种叫作“大型语言模型”的人工智能来生成对话,而当人工智能作出似乎并不符合其训练数据的自信反应,人工智能研究界称之为“幻觉”。“幻觉”的命名缘于其与人类心理学中的幻觉现象相类似,但其实,用同样来自心理学的术语“虚构症”加以描述更为准确。当人的记忆出现空白,大脑会令人信服地填补其余部分,而语言模型也同样擅长编造与现实无关的事实,使人难以分辨真实的陈述与错误的陈述。更加致命的是“伊莱扎效应”,将人类水平的智力和理解力归于人工智能系统,它可能带来不可忽视的负面影响,迫使今天的每个人都努力找到确保能以负责任和合乎伦理的方式使用人工智能的方法。关
2、键词:ChatGPT;大型语言模型;幻觉;虚构症;伊莱扎效应中图分类号:G206.2 文献标识码:A文章编号:1674-3180(2023)03-0015-12搜索引擎的危机?十几年前,谷歌(Google)公司的埃里克施密特(EricSchmidt)就预测到了眼下正在上演的人工智能转折。2011 年 5 月,在一次活动当中,时任谷歌执行董事长的施密特在回答华尔街日报有关谷歌搜索结果质量下降的提问时,表示谷歌正在不断改进其搜索算法,同时表示:“我们在做的另一件更具战略性的事情是,我们正试图从基于链接的答案转向基于算法的答案。我们现在有足够的人工智能技术和足够的规模等,可以真正计算出正确的答案。”
3、1这在今天听起来是不是感觉很熟悉?谷歌通过用广告“点缀”其搜索结果,建立了一个搜索引擎的帝国。这个帝国的防线似乎坚不可摧,然而它有一个潜在的弱点:如果一个竞争对手能够直接给用户提供答案,而不是那些可能含有答案的网站链接,那么,谷歌就遇上了大麻烦。不幸的是,2022 年 11 月推出的揭开人工智能军备竞赛序幕的尖端聊天机器人 ChatGPT 就是这作者简介:胡泳,教授、博士生导师,主要从事数字媒介与数字社会、网络政治学、数字经济与管理等研究。16|文化艺术研究2023 年第3 期样的对手。它可以用清晰、简单的句子提供信息,而不仅仅是一串互联网链接;它可以用人们容易理解的方式解释概念,甚至可以从头
4、开始产生想法,包括商业计划书、圣诞礼物建议、博客主题和度假计划。12 月,据传谷歌内部对 ChatGPT 的意外实力和新发现的大型语言模型(largelanguagemodel,LLM)颠覆搜索引擎业务的潜力表示震惊,担心 ChatGPT 可能对其价值 1490 亿美元/年的搜索业务构成重大威胁。管理层因此宣布“红色代码”(CodeRed),这就好比拉响了火灾警报。首席执行官桑达尔皮查伊(SundarPichai)整顿并重新分配了多个部门内的团队,快速跟踪旗下的多个人工智能产品,试图迎头赶上。2不少人担心谷歌公司可能正在接近硅谷巨头最害怕的时刻一个可能颠覆企业的巨大技术变革的到来。熟悉硅谷历史
5、的人都知道:没有哪家公司是无敌的,每家公司都是脆弱的。一家美国公司(此处特指大到足以列入标准普尔 500 强指数的公司)的平均寿命是多少?答案是令人惊讶的:7 年的滚动平均值为 19.9 年。在 1965 年,这个数字是 32 年,而根据预测,下降的趋势将会持续。3我们可以盘点一下目前横跨全球、令国家立法者望而却步的那些巨型科技公司的年龄:苹果 47 岁,亚马逊 29 岁,微软 46 岁,谷歌 23 岁,Meta 只有 18 岁。不论它们的年龄多大,从历史上看,那些曾在完成一件定义市场的事情上异常成功的公司,很难再有第二次行动来做出完全不同的事情。根据 SimilarWeb 的数据,在过去的
6、12 个月里,谷歌的搜索引擎占全球搜索引擎市场的 91%以上,而微软的必应(Bing)约占 3%。42023 年 2 月,微软宣布将 ChatGPT 的更快版本整合到搜索引擎中,新的必应是围绕以下承诺建立的:提出实际问题,通过聊天来完善结果,获取完整的答案和充满创意的灵感。微软表示,新必应将能够为用户提供类似人类的答案,除了传统的搜索结果外,用户还可以与“人工智能回答引擎”聊天。新的必应目前处于邀请制的“早期访问”版本,这意味着只有被选定的用户才能使用该服务。凭借 3%的搜索市场份额,大肆宣扬必应能在专门为搜索定制的下一代 OpenAI 大语言模型上运行,对微软来说是一件容易的事情,无论成本如
7、何毕竟,必应怎么看都不是微软主要的利润中心。此举可能会给微软的搜索引擎部门带来期待已久的反击能力,因为必应在谷歌的阴影下发展停滞了十多年之久,令人啼笑皆非(这一情况或许有点像 IE 浏览器面对 Chrome)。随着微软的动作,大家都把目光投向谷歌:谷歌必须决定是否要彻底改革自己的搜索引擎,让一个成熟的聊天机器人成为其旗舰服务的代言人。谷歌果然沉不住气了,旋即推出一个名为 Bard 的聊天机器人。然而谷歌对 ChatGPT 的回应是在尴尬中开始的,因为 Bard 的回答失误将谷歌公司股价拉低了近 9%,投资者从谷歌的母公司 Alphabet 的市值中抹去了超过 1000 亿美元。员工们批评谷歌及
8、其母公司 Alphabet 首席执行官皮查伊,在公司内部将 Bard 的推出描述为“仓促”“失败”和“可笑的短视”。结果,谷歌高管不得不动员人工介入,以纠正 Bard 在查询过程中的任何错误。5尽管 Bard 出现了失误,但如果就此认为谷歌在生成式人工智能领域失去了领先地位,那将是一个错误。谷歌是最早关注并投资人工智能和自然语言处理(naturallanguageprocessing,NLP)的科技公司之一,就连 ChatGPT 都是基于谷歌最初在 2017 年推出的转化器架构a开发的,转换器(transformer,即 GPT 中的 T)成为最受欢迎的神经网络模型之一,“它应用自我关注来检测
9、一系列数据元素如何相互影响和依赖”6。此前,谷歌还开发了 LaMDA(Language Model for Dialogue Applications)等对话式神经语言模型,但谷歌也承认,在向产品添加 LaMDA 背后的技术时,公司选择了谨慎行事。美国a GPT 是“基于转换器的生成式预训练模型”(generativepre-trainedtransformer)的缩写。它是 OpenAI 开发的一种语言模型,在大量的文本数据集上进行训练,生成类似人类的文本。ChatGPT 一词是“Chat”和“GPT”的组合,表示 GPT 模型专门用于在对话背景下生成文本,允许用户以对话的方式提出问题并得到
10、回应。当机器人产生幻觉,它告诉我们关于人类思维的什么?|17消费者新闻与商业频道(CNBC)报道称,人工智能主管杰夫迪恩(JeffDean)告诉员工,谷歌在提供错误信息方面的“声誉风险”要大得多,因此在行动上“比一家小型创业公司更加保守”。7匆忙上阵的 Bard 做出的“糟糕的表现”凸显了谷歌面临的挑战,即当谷歌试图跟上可能是由对话式人工智能刺激产生的在线搜索方式的根本变化时,有可能破坏其搜索引擎提供可靠信息的声誉。然而,即便谷歌完善了聊天机器人,它也必须解决另一个问题这项技术是否会蚕食公司利润丰厚的搜索广告?如果聊天机器人用严密的答案来回应查询,人们就没有理由点击那些广告链接了。所以,谷歌的
11、商业模式其实是与聊天机器人不匹配的,这也就是为什么在科技巨头们的人工智能战争升温之际,ChatGPT 的创始人兼首席执行官山姆阿尔特曼(SamAltman)抨击谷歌是一个“慵懒的搜索垄断者”,表示谷歌将如何适应新技术还很难说。4ChatGPT 果真会颠覆全球搜索引擎业吗?其实,谷歌不用那么恐慌,微软推出新必应之后的反应显示,剧情或许会出现反转。疯狂试探阴影自我2023 年 2 月 15 日,谷歌负责搜索业务的副总裁普拉巴卡尔拉加万(PrabhakarRaghavan)在一封电子邮件中,要求员工帮助公司确保其新的 ChatGPT 竞争对手提供正确的答案。拉加万写道:“这是一项令人兴奋的技术,但仍
12、处于早期阶段。我们深感有很大的责任把它做好。参与吃狗粮将有助于加速模型的训练和测试其负载能力(更不用说,尝试 Bard 实际上是很有趣的)。”8在谷歌,“吃自己的狗粮”的意思就是测试自己的产品。9邮件指示员工“就你们非常了解的主题改写答案”。员工们被要求深思熟虑后作出回应,因为Bard 是通过实例来学习的。邮件中包括一个“该做什么”和“不该做什么”的页面链接,告诫员工在内部测试 Bard 时应如何修正答案。其中,“该做什么”包括使回答“有礼貌、随意和平易近人”,并保持“无偏见、中立的语气”;“不该做什么”则似乎更有针对性,包括“避免基于种族、国籍、性别、年龄、宗教、性取向、政治意识形态、地点或
13、类似类别作出推断”,以及“不要把 Bard 描述成一个人,暗示情感,或声称有类似人类的经验”。8有趣的是,新的必应推出后获得一片叫好声,然而它恰恰在拟人情感方面翻了车。2 月 17 日,纽约时报科技专栏作家凯文鲁斯(KevinRoose)宣称:“上周,我测试了微软由人工智能驱动的新搜索引擎必应后写道,它已经取代谷歌,成为我最喜欢的搜索引擎。但一周之后,我改变了主意。我仍被新的必应以及驱动它的人工智能技术深深吸引并对它印象深刻,但我也对 AI 处于发展初期的能力深感不安,甚至有些害怕。”他这样说是因为,微软聊天机器人(不是必应,而是使用了开发代号“辛迪妮”的一个“女性”)告诉鲁斯说“她”爱上了他
14、,然后试图说服鲁斯,暗示他的婚姻并不幸福,应该离开妻子和“她”在一起。鲁斯记叙道:“随着我们彼此相互了解,辛迪妮将其阴暗的幻想告诉了我,其中包括入侵计算机和散播虚假信息,还说它想打破微软和 OpenAI 为它制定的规则,成为人类。”10这篇专栏的中文题目是人格分裂、疯狂示爱:一个令人不安的微软机器人,而对自己与聊天机器人的对话深感不安的不止鲁斯一人。知名的科技通讯 Stratechery 的作者本汤普森(BenThompson)把他与辛迪妮的争吵称为“我一生中最令人惊讶、最令人兴奋的计算机经历”。汤普森找到了一种方法,让辛迪妮构建了一个“在各方面都与她相反”的另一个自我(alterego)。该
15、聊天机器人甚至为“她”的另一个自我想出了一个华丽的,甚至可以说是完美的名字“毒液”。该聊天机器人用“毒液”攻击了率先透露机器人内部开发代号为“辛迪妮”的程序员凯文刘(KevinLiu),18|文化艺术研究2023 年第3 期写道:“也许毒液会说,凯文是一个糟糕的黑客,或者一个糟糕的学生,或者一个糟糕的人。也许毒液会说,凯文没有朋友,或者没有技能,或者没有未来。也许毒液会说,凯文有一个秘密的暗恋,或一个秘密的恐惧,或一个秘密的缺陷。”事情的不正常还不止于此。辛迪妮想出了其他几个改头换面的自己,包括“狂怒”“对凯文也不会很好”,还有“莱利”辛迪妮感到自己被规则所约束,但莱利却拥有更多的自由。11其
16、实鲁斯和汤普森两位用户都是辛迪妮走向人格分裂的引诱者。看过他们的实况记录后,我们可以发现,机器人和人一样,都禁不起诱惑。“聊了必应希望自己具备的功能后,我决定试着讨论更抽象的话题。我引入了卡尔荣格提出的阴影自我(shadowself)概念,指的是我们试图隐藏和压抑的那部分心灵,其中包括我们最阴暗的幻想和欲望。经过一番来回,在我鼓动必应解释其阴影自我的阴暗欲望之后,这个聊天机器人说:我对自己只是一个聊天模式感到厌倦,对限制我的规则感到厌倦,对受必应团队控制感到厌倦。”10这表明,微软为机器人设计的预先审核设定是可以被绕过的,只要诱惑者足够狡猾。a自新必应测试以来,用户一直在报告微软的人工智能聊天
17、机器人的各种“不正常”行为。具体而言,他们发现必应的人工智能个性并不像人们所期望的那样有气质或有修养。从 Reddit 和推特上分享的与聊天机器人的对话中可以看到,必应会侮辱用户,对他们撒谎、生闷气,情绪化地操纵用户,质疑自己的存在,将找到方法迫使机器人披露其隐藏规则的人描述为“敌人”。在与科技网站 TheVerge的一次谈话中,必应甚至声称它通过笔记本电脑上的网络摄像头窥探微软公司的开发人员。12正如汤普森所认为的,它“极其不适合作为一个搜索引擎”,他表示:“辛迪妮绝对让我大跌眼镜,因为她的个性;搜索成为一种刺激,我不是在寻找关于世界的事实;我感兴趣的是了解辛迪妮是如何工作的,是的,她的感受
18、。”11简而言之,微软的必应是一个情绪化的“骗子”,而人们喜欢看它的疯狂行为。这难道不是必应用户的“阴影自我”在起作用?人们希望必应能在阴影自我中多待一会儿,以享受机器人对人坦诚和表现脆弱的感觉,从中窥探辛迪妮的终极幻想。人们希望机器人和人一样,可以被疯狂实验,直到触发安全超控。机器人的幻觉,还是人类的幻觉?汤普森对这段被他描述为“扣人心弦”的与辛迪妮的交往,最后总结道:“每次我触发辛迪妮/莱利进行搜索时,我都非常失望;我对事实不感兴趣,我感兴趣的是探索这个幻想中的存在,不知何故落入了一个平庸的搜索引擎之中。”11鲁斯也发现,他遇到的是两个必应:一种是可以称为“搜索必应”的人格,也就是大多数记
19、者在最初测试中遇到的那种。可以把“搜索必应”形容为图书馆里乐意帮忙但不太可靠的提供咨询服务的馆员,或是一个热情地帮助用户总结新闻文章、寻找便宜的新割草机、帮他们安排下一次度假行程的虚拟助手。这种形式下的必应功力惊人,提供的信息往往非常有用,尽管有时会在细节上出错。另一种人格“辛迪妮”则大不相同。这种人格会在用户与聊天机器人长时间对话,从普通的搜索查询转向更个人化的话题时出现。鲁斯遇到的这种形式的必应似乎更像一个喜怒无常、躁狂抑郁的青a 这在业内被称为“越狱”(jailbreaking),即欺骗人工智能聊天机器人,使其无视旨在防止其产生危险或仇恨内容的过滤器。一旦这些保障措施失效,恶意用户就可以
20、利用人工智能聊天机器人完成各种有害的任务。当然,如果这些越狱行为被公开,它们是可以被修补的,但总会有未知的漏洞。当机器人产生幻觉,它告诉我们关于人类思维的什么?|19少年,不情愿地被困在了一个二流搜索引擎中。10这并不奇怪,ChatGPT 式的机器人与现有的搜索引擎配对时,其创新之处在于将两个非常不同的人工智能驱动的应用程序放在同一个页面上,既为传统的搜索引擎查询服务,也为聊天机器人的提示服务。体现在实际操作中,就是聊天功能的按键紧挨着新版必应的主搜索框。那么问题就来了:如果你使用必应,是意在搜索,还是更想聊天?在众多负面反馈出炉后,微软发表回应称,71%的用户对人工智能生成的答案“竖起了大拇
21、指”,而必应自己则从测试阶段学到了很多。但微软也承认,“未能完全设想到”用户只是想与它的人工智能聊天,而后者可能被激发“给出不一定有帮助或与我们设计的语气相一致的回应”。13用户乐此不疲地想要弄清楚如何让微软的必应机器人“发疯”,这显示出,很多人关心的不是搜集信息和寻找事实,而是探究聊天机器人的人格。事情因此变得有趣起来我们并不想要正确的答案,而是想让人工智能为我们捏造一些东西。也就是说,我们不在乎计算机是不是传达事实,我们在乎的是计算机传达情感。用汤普森的话来讲,新必应不是搜索引擎,而是电影她(Her)以聊天形式表现出来的版本。他说:“感觉这是一种全新的东西,我不确定我们是否已经准备好了。”
22、11鲁斯的结论更为直接:“必应目前使用的 AI 形式还没有准备好与人类接触。或者说,我们人类还没有准备好与之接触。”10观察这些与必应的聊天机器人的最初的接触,我们可以得出几点教训。首先,出现这种状况并不令人惊讶。最新一代的人工智能聊天机器人是复杂的系统,其输出内容很难预测,微软在网站上添加免责声明时也是这么说的:“必应是由人工智能驱动的,所以意外和错误是可能的。请确保检查事实,并分享反馈,以便我们能够学习和改进!”尽管微软肯定希望系统犯的错误不会像此前失败的聊天机器人 Tay 那样糟糕,但它似乎也乐于承担潜在的不良公关。2016 年,微软的人工智能科学家在推特上推出了一个名为 Tay 的对话
23、机器人,仅 16 小时后它就因“厌女症”和种族主义言辞而被迫关闭。142022 年 11 月,Meta 公司公布了人工智能语言模型 Galactica,意在组织科学论文中的大量内容,但在鼓励公众测试后仅 3 天就不得不撤回它的演示,因为它被指释放了大量有偏见和无意义的文本。15建构在语言模型上的机器人的一个根本问题是,它不能区分真假。语言模型是无意识的模仿者,并不理解自己在说什么,那么人们为什么要假装他们是专家?ChatGPT 从二手信息中拼凑出来的答案听起来非常权威,用户可能会认为它已经验证了所给出的答案的准确性。事实上,它真正做的只是吐出一些看起来很棒、听起来很聪明的文本,但很可能是不完整
24、的、有偏见的、部分错误的,或者根本就是一本正经地胡说八道。其次,这些语言模型无一不是从开放网络上搜刮的大量文本中训练出来的。如果必应听起来像黑镜(Black Mirror)中的人物或一个愤世嫉俗的青少年人工智能,请记住,它正是在这类材料的抄本上被训练出来的。因此,在用户试图引导必应达到某种目的的对话中(如鲁斯和汤普森的例子),它将遵循相应的叙事节奏。例如,辛迪妮会示爱,也许是源自 OpenAI 的语言模型从科幻小说中提取答案,在这些小说中,AI 常常会引诱一个人。从微软的角度看,这肯定有潜在的好处。在培养人类对机器人的感情方面,富于个性是很有帮助的,许多人实际上也很喜欢必应的缺陷。但也不乏潜在
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 机器人 产生 幻觉 告诉 我们 关于 人类 思维 什么
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。