欢迎来到咨信网! | 成为共赢成为共赢 咨信网助力知识提升 | 自信网络旗下运营:咨信网 自信AI创作助手 自信AI导航
咨信网
全部分类
  • 包罗万象   教育专区 >
  • 品牌综合   考试专区 >
  • 管理财经   行业资料 >
  • 环境建筑   通信科技 >
  • 法律文献   文学艺术 >
  • 学术论文   百科休闲 >
  • 应用文书   研究报告 >
  • ImageVerifierCode 换一换
    首页 咨信网 > 资源分类 > PDF文档下载
    分享到微信 分享到微博 分享到QQ空间

    层次概念的分布式表示和学习方法综述.pdf

    • 资源ID:863756       资源大小:1.10MB        全文页数:7页
    • 资源格式: PDF        下载积分:10金币
    微信登录下载
    验证码下载 游客一键下载
    账号登录下载
    三方登录下载: QQ登录
    二维码
    微信扫一扫登录
    下载资源需要10金币
    邮箱/手机:
    验证码: 获取验证码
    温馨提示:
    支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    开通VIP
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    声明    |    会员权益      获赠5币      写作写作
    1、填表:    下载求助     索取发票    退款申请
    2、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
    3、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
    4、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
    5、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
    6、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
    7、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。

    层次概念的分布式表示和学习方法综述.pdf

    1、收稿日期:2022-10-14摇 摇 摇 摇 摇 摇 修回日期:2023-02-16基金项目:国家自然科学基金(71774101,61802230);江苏省现代教育技术研究课题(2021-R-87014)作者简介:朱晓光(1989-),男,讲师,研究方向为知识表示、自然语言理解。层次概念的分布式表示和学习方法综述朱晓光(徐州工程学院 管理工程学院,江苏 徐州 221018)摘摇 要:层次概念能够有效解释语言模型的隐含知识,并且提升语言模型的结构化优化性能。针对层次概念表示和学习模型的多样化发展,该文分析了层次概念表示的线性空间、概率空间和文本蕴含性质,梳理了概念学习模型的层次结构和优化原理,用

    2、于促进概念学习模型的应用效果。通过阐述概念学习过程和语义空间的层次性质,归纳层次概念学习的四类计算模型:基于条件熵的文本层次概念抽取;建立语言资源的概念层次和神经网络的隐含层次之间的映射;通过迭代的随机过程拓展主题模型;在正则化因子中添加语义关系约束。通过概念学习综述得出如下结论:层次性的语言模型广泛结合了显明和隐含的概念表示方法;统计模型和语言资源的语义映射是拓展层次结构的主要路径;层次结构具有双曲空间和嵌套球形结构;层次结构分析可以提升统计模型的解释水平。关键词:层次概念;概念学习;分布式表示;统计语言模型;层次主题模型中图分类号:TP391摇 摇 摇 摇 摇 摇 摇 文献标识码:A摇 摇

    3、 摇 摇 摇 摇 文章编号:1673-629X(2023)10-0001-07doi:10.3969/j.issn.1673-629X.2023.10.001Survey of Distributed Representation and Learning Methods onHierarchical ConceptZHU Xiao-guang(School of Management Engineering,Xuzhou University of Technology,Xuzhou 221018,China)Abstract:Hierarchical concepts can effect

    4、ively explain the implicit knowledge and improve the structural optimization performance oflanguage models.Concerning the diversified development of hierarchical concept representation and learning models,we analyze thelinear space,probability space and textual entailment properties of hierarchical

    5、concept representation,and sort out the hierarchicalstructure and optimization principles of concept learning models to promote the application of concept learning models.By expoundingthe hierarchical nature of the concept learning process and semantic space,four types of computational models for hi

    6、erarchical conceptlearning are summarized,including text-level concept extraction based on conditional entropy,establishing a mapping between theconcept level of language resources and the hidden level of the neural network,expanding the topic model through an iterative stochasticprocess,and adding

    7、semantic relationship constraints in the regularizer.Through the survey of concept learning,the following conclusionsare drawn.Hierarchical language models widely combined explicit and implicit concept representation methods.Semantic mappingbetween statistical model and language resources are the ma

    8、in paths to expand hierarchical structures.Hierarchical structures aredistributed with hyperbolic space and nested spherical structure.Hierarchical structure analysis can improve the interpretation level ofstatistical models.Key words:hierarchical concept;concept learning;distributed representation;

    9、statistical language model;hierarchical topic model0摇 引摇 言概念表示方法是语义分析的基础问题,也是影响语言模型的结构和性能的重要因素。随着计算技术的发展,层次概念和分布式表示逐渐成为了语言模型的基础组件,并且促进了显明语义和隐含语义的相互映射1-2。通过结合计算语言理论和深度学习模型,各类层次概念表示方法显著提升了语言处理任务的性能,并且有助于解释和提取统计模型的语言属性3。相对而言,统计语言模型的层次概念结构还缺少系统性的分析,不能有效地促进自然语言处理模型的应用和拓展。因此,基于语义学理论和层次概念表示方法,该文综述了概念学习模型的表

    10、示方法和学习原理,解析了层次语义空间的计算原理和统计性质,讨论了层次概念计算模型的应用场景和研究建议。第 33 卷摇 第 10 期2023 年 10 月摇 摇 摇 摇 摇 摇 摇 摇 摇 摇计 算 机 技 术 与 发 展COMPUTER TECHNOLOGY AND DEVELOPMENT摇 摇 摇 摇 摇 摇 摇 摇 摇 摇Vol.33摇 No.10Oct.摇 20231摇 语义空间的层次类型按照层次结构的性质,语义空间可以划分为三种类型:线性空间、概率空间和文本蕴含。其中,概念的涵摄关系(Subsumption)具有不同的表示方法和分布规律。通过映射至共同的语义空间,语言资源和统计模型之间

    11、形成了相互的信息增益。1.1摇 线性空间线性空间主要刻画语义分布的几何性质。其中,分布式的概念对应于整个网络的一种稳定的激活模式。在连续的语义空间之中,若是抽象的语义场(上位词)覆盖特定的区域,则会形成层次的语义空间,如图 1 所示。XYZXYZXYZ图 1摇 上位词的区域中心性质概念学习和层次聚类之中,上层节点包含较多的特征,因而会趋向于语义空间的中心区域,具有更为均匀的特征关联。这种区域关系形成了语义空间的指向性特征。在 GloVe 的预训练空间和实体关系识别模型之中,语言属性的向量都具有规律性的方向。除了指向性特征,概念的分布区域也存在不同的形状。决策树的节点具有矩形或超矩形的概念分布。

    12、层次结构的分布式表示通常建立球形的概念分布区域1。非线性的监督学习模型可能生成复杂的分类器边界。若是采用核心特征作为维度,则特征间时有互斥;若是采用样例作为维度,则概念区域一般都是凹平面。1.2摇 概率空间概念表示的概率空间主要包括各种层次性的主题模型。通过假定一组概率分布,相关模型构建了由主题生成词汇的随机过程。在递归的生成过程中,词汇的内涵逐渐趋于具体的特征分布。例如,图 2 生成了10 个样本点,其中 pi+1是狄利克雷分布 Dir(a=pi)所生成的一个随机样本。随机样本的相对位置表明:随机过程趋向于概率单纯形的边缘位置,获得相对具体和单一的特征。层次主题模型体现了概念的原型化现象。对

    13、于概念分布的概率空间,词汇向量的持续归一化表明了原型的激活过程。原型的激活减少了文本的语义,从而保持概率性的词汇分布。这种现象在文本蕴含中更为明显:词汇的累加本应增加语义,却因原型化而减少了长句的内涵。1510502005101520051015208910345672图 2摇 狄利克雷的随机样本序列1.3 摇 文本蕴含关系文本蕴含(Textual entailment)是文本之间的一种指向性的推理关系。其中,作为前提(Premise)的文本可以推出(蕴含)作为结论(Conclusion)的文本。整句蕴含主干句,则形成言语表达的层次性和构成句法。添加补充语或细化词汇可以形成句子的层次关系。补充

    14、语或下位词将限定句子的所指,由此蕴含原始的句子。图3 给出了一个词汇细化的例子。其中,句子“保持指标在合理区间冶的“指标冶可以逐渐细化。当然,也可以按照句法添加补语,生成涵义更为具体的句子。RBC图 3摇 逐步细化的句子内涵补充语的添加需要遵守句法,否则,将不能直接约束句子的内涵,继而形成文本蕴含的关系。换言之,只有按照句法添加修饰语才可以细化句子的内涵。其中,句法主要指构成句法(Constituency syntax)。词汇的组合可以视为一个单元或成分(Constituent),并且逐层地向上组合语义。2摇 层次概念的计算模型参照语义组合约束和概念相对化的理论,本节综2摇 摇 摇 摇 摇 摇

    15、 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 计算机技术与发展摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 第 33 卷述和归纳层次概念的表示方法和学习模型,主要包括:显明的文本层次结构、神经网络模型、层次概率主题模型和语言资源正则约束。2.1摇 显明的文本层次结构文本的语言单位之间存在显明的层次关系。这种关系主要通过统计特征和语言学模板进行提取,其结果是词汇、词组和知识库条目组成的层次概念结构。这种方式仅仅使用显明的语义表示,因此更加容易理解和表达,不会出现各类优化和拟合的问题。但是,对于开放的规模性文本,显明构造具有高成本和低召回率的问题。2.1.

    16、1摇 词汇共现根据词汇的共现和句法特征,相关研究构建了文本的层次结构发现方法4。基于词汇的 ID、TF-IDF、PMI 的属性组合,可以判断“网络冶是“社交网络、金融网络冶的上位词汇,由此拓展层次关系的语言资源5。此类“主词蕴含复合词冶的层次关系主要通过度量共现频率获得,例如:给定阈值 t,如果 P(x|y)逸 t,P(y|x)0 判断子节点激活24-25。层次输出的每个节点蕴含一个分类边界,可以表示目标概念的区域性分布特征。3摇 第 10 期摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 朱晓光:层次概念的分布式表示和学习方法综述层次输出结构具有多种来源,主要包括语言资源、标签群组和多层次文

    17、本分类26。层次性语言资源可以直接提供标签预测的输出结构,用于逐层地判断标签所属的节点27。相对于神经语言模型,文本分类通常应用多子节点的层次结构,例如:标签群组的子集关系、多分枝(K-ary)的树形结构的贝叶斯层次聚类算法28-29。相对于序列化的语义解码,树形结构的解码器能够层次化地捕获组合语义,并且保证解码过程中不同 组 成 部 分 的 独 立 性,进 而 更 好 地 生 成 语 义框架30。层次的输出层结构可以在优化过程中进行动态调整。基于信念网络的层次隐含类别(HLC)模型首先通过层次聚类获得初步的结构,然后根据 BIC 调整两侧的节点数量31。通过增加剪枝和校正的过程,分布式的聚类

    18、树也可以动态适应新词的训练25,32。2.2.3摇 拓展的神经网络结构神经网络模型也被广泛用于语言模型的训练和层次结构的优化。针对语言模型,相关研究主要进行了如下拓展:(1)根据情境理论应用注意力机制;(2)按照句法结构递归地进行张量运算;(3)按照层次结构建立神经网络模型,并且在各层次的模型之间共享参数。这些拓展结构虽然存在优化方法上的差异,但是概念表示主要还是应用了词汇、位置、语言属性的分布式表示方法。神经网络的集成模型和显明层次结构之间可以逐层建立语义映射,如图 5 所示。对于层次标签预测任务,HFT-CNN 针对每一层标签训练一个卷积神经网络模型,并且在模型之间共享卷积层的参数33。基

    19、础层次映射是语言单位的粒度层次,主要针对词汇、句子和语篇等语言单位分别建立卷积网络,根据语言单位之间的包含关系约束模型之间的共享参数34。在训练过程中,各层节点的组合约束使得概念不仅要靠近自身类别的原型,同时也要逼近其祖先类别35。S图 5摇 组合模型和概念层次之间的映射循环神经网络和卷积神经网络主要引入了注意力模型、上下文权重和多粒度语言单位。其中,卷积单元和 LSTM 单元都可以作为层次语言模型的节点36。通过应用局部学习规则(Oja爷s Rule),前馈的层次脉冲网络也被用于学习概念的层次结构37。根据语言单位的粒度性质,层次注意力网络按照词汇和句子的包含关系构建了神经网络模型,并且逐层

    20、添加注意力单元38。基于句子的构成(Constituency)句法,递归神经网络可以灵活地按照节点组合语义,完成情感识别和句法解析等任务39-40。针对语言模型解释的需要,R2D2 融合了组合句法和分布式表示,通过递归的转换器解析了句子的构成句法39。更加复杂的神经网络则是性能导向的,可能具有层次的模型形态,但是并不蕴含概念的层次结构41。2.3摇 层次概率主题模型层次概念的概率模型主要是指层次主题模型(HTM)及其拓展模型。词汇频率符合多项式分布模型,因此,主题模型采用了词汇的先验分布狄利克雷分布,例如:狄利克雷过程的向上合并构建概率混合模型和嵌套的狄利克雷过程42-43。对于无监督的概念学

    21、习过程,嵌套的中餐馆随机过程(nCRP)经常被用于计算深度的、具有动态结构的主题树44。在计算路径概率的过程中,nCRP 可以动态适应主题范围的变化45。与此类似,BRT 模型的节点可以展开任意数量的分支,其中,父节点的概率分布部分地约束子节点的分布46。贝叶斯树(BRT)也被用于分类法的构建,其中,层次树的非叶子节点表示词汇的划分,包含词汇和上下文的集合47。类似于图 2 所示的生成过程,层次性随机过程的样本将逐渐偏向具体概念。在主题的概率空间之中,主题树的根节点是相对均匀分布的,叶子节点则指示具体的主题48-49。文本主题空间的层次结构之中,第一层预测元主题群组,并且在群组内进一步细化主题

    22、的分类50。层次概率模型可以结合不同种类的语言单位和语言属性,形成多粒度的语言模型。除了基础的词汇分布,句子、篇章等语言单位都可以产生自一个随机过程。在词汇主题(Topic)的基础上还可以添加句子的主题(Theme)51。层次隐含树分析(HLTA)模型之中,叶子节点表示“(可观察的)词汇是否出现在文档之中冶,非叶子节点表示“(未观察到的)文档属性冶49。概率性层次概念的主要优势在于显明的随机过程和组合方式。概率性的层次概念可以相互结合,用于提升层次概念学习的性能。通过组合词汇的概率分布和语义标签提升主题的内聚性和稳定性52。HMTC通过层次关系的语义标签和分布式表示提升了层次文本分类的性能26

    23、。2.4摇 语言资源的正则约束语言资源的层次结构可以拓展概念表示学习的成本函数。通过添加节点之间的蕴含关系和基于路径的4摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 计算机技术与发展摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 第 33 卷语义相似度,拓展的成本函数可以限定相似的或互斥的概念在语义空间中的间距。语言单位的粒度具有基础的语义约束,例如:句子与其成分的语义相似。概念学习的基础的语言单位是词汇,其次是具有不同粒度的语言单位,主要包括:字素、字符、词素、句子和篇章53-55。不同粒度的语言单位自然地形成层次结构,可以作为神

    24、经网络模型的内部结构和约束条件,用于提升概念学习的性能。成本函数的拓展意味着语义分布受到多重的约束,如图 6 所示。在构建分布式语义空间的过程中,文本共现作为主要的远程监督,语言资源约束则是成本函数的扩展,例如,百科全书约束实体的分布式层次关系56。相反,在扩展语言资源的过程中,文本共现作为辅助部分来提升显明语义的特征完备性,例如,知识表示综合的考虑实体属性、层次类型和文本关系57。/图 6摇 概念学习的多重语义约束除了言语表达的语言单位,语言资源也包含了特异性的语言单位和语义属性,例如:WordNet 的义项(Synset)、HowNet 的义素(Sememe)和概念基元58-59。这些语言

    25、单位的层次结构可以直接用于分布式表示的优化,通过语义相似度的约束使得相邻的节点具有相似的语义分布,即:层次结构关系限定语义空间之中的词汇间距60。由此,分类法的父节点和子节点处于连续语义空间中的邻近区域61。根据预先设置的图像标签的层次结构,层次特征选择模型(HFSGR)添加了L2,1-norm 正则因子,使得相近的子树具有近似的稀疏表示62。除了词汇间距的约束项,预测节点和实际节点在分类法中的路径距离也可以作为成本函数的约束项19。3摇 结束语根据计算语言模型,该文综述了层次概念的分布式表示特征和学习模型,归纳了语义空间的层次结构和概念学习类型。对于层次概念的学习,显明文本结构分析容易提取规

    26、范文本的层次结构,但是不包含深层语义。神经网络的层次模型主要依赖概念的分布式表示,通过深层语义和语言资源的映射显著地提升模型性能。神经网络的层次关系不具备直接解释的途径,必须参照语言资源进行知识提取。层次主题模型采用嵌套的随机过程,其层次概念具有概率分布的性质和解释方法。层次概念学习模型正在朝三个方面发展。第一,通过建立语言资源和分布式表示之间的语义映射,提升语义空间的稳定性和完备性。第二,提取计算模型中的层次结构和分布性质。针对知识提取和转移学习的需要,逐步解释统计模型的语言属性和知识类型,促进中文层次概念的构造和语言资源的拓展。第三,建立计算模型和语言理论之间的映射,进一步完善原型、语义框

    27、架和层次关系的分布式表示方法,解释对应的几何运算和语义组合现象,建立各类语义空间和语言单位之间的内在联系,促进语言资源的融合发展。参考文献:1摇DONG T,BAUCKHAGE C,LI J,et al.Imposing categorytrees onto word-embeddings using a geometric constructionC/International conference on learning representations.New Orleans:ICLR,2019:1-10.2摇BENGIO Y,COURVILLE A,VINCENT P.Represent

    28、ationlearning:a review and new perspectivesJ.IEEE Transac鄄tions on Pattern Analysis and Machine Intelligence,2013,35(8):1798-1828.3摇 汪诚愚,何晓丰,宫学庆,等.面向上下位关系预测的词嵌入投影模型J.计算机学报,2020,43(5):868-883.4 摇SANDERSON M,CROFT B.Deriving concept hierarchiesfrom textC/Proceedings of the 22nd annual internationalACM

    29、 SIGIR conference on research and development in in鄄formation retrieval.New York:ACM,1999:206-213.5摇URENA P.Learning IS-A relations from specialized-do鄄main texts with co-occurrence measures J.Journal ofComputer-Assisted Linguistic Research,2018,2(1):21-38.6摇DE KNIJFF J,FRASINCAR F,HOGENBOOM F.Domai

    30、ntaxonomy learning from text:the subsumption method versushierarchical clusteringJ.Data&Knowledge Engineering,2013,83:54-69.7摇MEIJER K,FRASINCAR F,HOGENBOOM F.A semanticapproach for extracting domain taxonomies from textJ.Decision Support Systems,2014,62:78-93.8 摇WANG L,WANG Y,XIE Y.Learning word hi

    31、erarchicalrepresentations with neural networks for document modelingJ.Journal of Experimental&Theoretical Artificial Intelli鄄gence,2020,32(3):515-531.9摇 唐摇琳,郭崇慧,陈静锋,等.基于中文学术文献的领域本体概念层次关系抽取研究J.情报学报,2020,39(4):387-398.10 李摇 娟.汉语近义词辨析知识库构建研究J.北京大学学报:自然科学版,2022,58(1):106-112.11 熊回香,叶佳鑫.面向科技文献检索的关键词层次结构构

    32、建J.情报理论与实践,2022,45(9):157-163.5摇 第 10 期摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 朱晓光:层次概念的分布式表示和学习方法综述12 SNOW R,JURAFSKY D,NG A Y.Learning syntactic pat鄄terns for automatic hypernym discoveryC/Advances inneural information processing systems.Vancouver:NIPS,2004:1297-1304.13 HOXHA J,JIANG G,WENG C.Automated learning o

    33、f do鄄main taxonomies from text using background knowledgeJ.Journal of Biomedical Informatics,2016,63:295-306.14 GABRILOVICH E,MARKOVITCH S.Computing semanticrelatedness using wikipedia-based explicit semantic analysis C/International joint conference on artificial intelli鄄gence.Hyderabad:IJCAI Organ

    34、ization,2007:1606-1611.15 FARALLI S,STILO G,VELARDI P.Automatic acquisitionof a taxonomy of microblogs users爷 interestsJ.Journal ofWeb Semantics,2017,45:23-40.16 SEVESO A,MERCORIO F,MEZZANZANICA M.A hu鄄man-AI teaming approach for incremental taxonomy learn鄄ing from textC/International joint conferen

    35、ce on artificialintelligence.Montreal:IJCAI Organization,2021:4917-4918.17 FU R,GUO J,QIN B,et al.Learning semantic hierarchies:acontinuous vector space approachJ.IEEE/ACM Transac鄄tions on Audio,Speech,and Language Processing,2015,23(3):461-471.18 DONG T.Precise embodying tree structures onto their

    36、latentfeature vectorsJ.Journal of Visual Language and Compu鄄ting,2022,2022(1):16-24.19 MANZOOR E,LI R,SHROUTY D,et al.Expanding taxono鄄mies with implicit edge semanticsC/Proceedings of theweb conference 2020.Taipei,China:ACM,2020:2044-2054.20 NICKEL M,KIELA D.Learning continuous hierarchies inthe lo

    37、rentz model of hyperbolic geometryC/Internationalconference on machine learning.Long Beach:JMLR,2018:1109-1117.21 AMALAMAN P K,EICK C F,WANG C.Supervised taxon鄄omies-algorithms and applicationsJ.IEEE Transactionson Knowledge and Data Engineering,2017,29(9):2040-2052.22 MNIH A,HINTON G E.A scalable h

    38、ierarchical distributedlanguage modelC/Advances in neural information pro鄄cessing systems.Vancouver:NIPS,2008:1-8.23 BLITZER J,WEINBERGER K Q,SAUL L K,et al.Hierar鄄chical distributed representations for statistical language mod鄄elingC/Advances in neural information processing sys鄄tems.Montreal:NIPS,

    39、2005:185-192.24BEYGELZIMER A,LANGFORD J,LIFSHITS Y,et al.Conditional probability tree estimation analysis and algo鄄rithmsC/Proceedings of the 25th conference on uncer鄄tainty in artificial intelligence.Montreal:AUAI,2009:51-58.25 XU Z,KUSNER M J,WEINBERGER K Q,et al.Cost-sen鄄sitive tree of classifier

    40、s C/International conference onmachine learning.Atlanta:JMLR,2013:133-141.26 MA Y,LIU X,ZHAO L,et al.Hybrid embedding-based textrepresentation for hierarchical multi-label text classificationJ.Expert Systems with Applications,2022,187(7):115905.27 DEKEL O,KESHET J,SINGER Y.Large margin hierarchi鄄cal

    41、 classificationC/International conference on machinelearning.New York:ACM,2004:27.28 JERNITE Y,CHOROMANSKA A,SONTAG D.Simultane鄄ous learning of trees and representations for extreme classifi鄄cation and density estimationC/International conferenceon machine learning.Sydney:PMLR,2017:1665-1674.29 BASA

    42、K J,KRISHNAPURAM R.Interpretable hierarchicalclustering by constructing an unsupervised decision treeJ.IEEE Transactions on Knowledge and Data Engineering,2005,17(1):121-132.30 赵睿卓,高金华,孙晓茜,等.基于树形语义框架的神经语义解析方法J.中文信息学报,2021,35(1):9-16.31 HARMELING S,WILLIAMS C K I.Greedy learning of bi鄄nary latent tre

    43、esJ.IEEE Transactions on Pattern Analysisand Machine Intelligence,2011,33(6):1087-1097.32 LE H S,OPARIN I,MESSAOUDI A,et al.Large vocabularySOUL neural network language modelsC/Annual confer鄄ence of the international speech communication association.Florence:ACISC Association,2011:1469-1472.33 SHIMU

    44、RA K,LI J,FUKUMOTO F.HFT-CNN:learning hi鄄erarchical category structure for multi-label short text cate鄄gorizationC/Conference on empirical methods in naturallanguage processing.Brussels:ACL,2018:811-816.34 KALCHBRENNER N,BLUNSOM P.Recurrent convolution鄄al neural networks for discourse compositionali

    45、tyC/An鄄nual meeting of the association for computational linguistics.Sofia:ACL,2013:119-126.35 任摇 权.基于原型网络的细粒度实体分类方法J.中文信息学报,2020,34(12):65-72.36 JO魮L L,TOUSSAINT Y,RA魵SSI C,et al.Cross-corpustraining with tree LSTM for the extraction of biomedical re鄄lationships from textC/International conference

    46、on learn鄄ing representations.Vancouver:ICLR,2018:1-11.37 LYNCH N,MALLMANN-TRENN F.Learning hierarchical鄄ly-structured conceptsJ.Neural Networks,2021,143:798-817.38 YANG Z,YANG D,DYER C,et al.Hierarchical attentionnetworks for document classification C/Proceedings ofthe 2016 conference of the North A

    47、merican chapter of the as鄄sociation for computational linguistics.San Diego:ACL,2016:1480-1489.39 HU X,MI H,WEN Z,et al.R2D2:recursive transformerbased on differentiable tree for interpretable hierarchical lan鄄guage modelingC/Annual meeting of the association for6摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇

    48、摇 摇 摇 计算机技术与发展摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 第 33 卷computational linguistics.Bangkok:ACL,2021:4897-4908.40 费摇 豪,姬东鸿,任亚峰.基于动态句法剪枝机制的中文语义角色标注J.计算机学报,2022,45(8):1746-1764.41 李摇 豫,周光有.基于层次化语义框架的知识库属性映射方法J.中文信息学报,2022,36(2):49-57.42HELLER K A,GHAHRAMANI Z.Bayesian hierarchicalclusteringC/Internation

    49、al conference on machine learn鄄ing.New York:ACM,2005:297-304.43 RODR魱GUEZ A,DUNSON D B,GELFAND A E.The nes鄄ted Dirichlet processJ.Journal of the American StatisticalAssociation,2008,103(483):1131-1144.44 BLEI D M,GRIFFITHS T L,JORDAN M I.The nested chi鄄nese restaurant process and Bayesian nonparamet

    50、ric inferenceof topic hierarchiesJ.Journal of the ACM,2010,57(2):1-30.45 MA J,CUI P,WANG X,et al.Hierarchical taxonomy awarenetwork embeddingC/Special interest group on knowl鄄edge discovery and data mining.New York:ACM,2018:1920-1929.46 BLUNDELL C,TEH Y W,HELLER K A.Bayesian rosetreesC/Proceedings o


    注意事项

    本文(层次概念的分布式表示和学习方法综述.pdf)为本站上传会员【自信****多点】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4008-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表




    页脚通栏广告
    关于我们 - 网站声明 - 诚招英才 - 文档分销 - 便捷服务 - 联系我们 - 成长足迹

    Copyright ©2010-2024   All Rights Reserved  宁波自信网络信息技术有限公司 版权所有   |  客服电话:4008-655-100    投诉/维权电话:4009-655-100   

    违法和不良信息举报邮箱:help@zixin.com.cn    文档合作和网站合作邮箱:fuwu@zixin.com.cn    意见反馈和侵权处理邮箱:1219186828@qq.com   | 证照中心

    12321jubao.png12321网络举报中心 电话:010-12321  jubao.png中国互联网举报中心 电话:12377   gongan.png浙公网安备33021202000488号  icp.png浙ICP备2021020529号-1 浙B2-20240490   



    关注我们 :gzh.png  weibo.png  LOFTER.png