欢迎来到咨信网! | 成为共赢成为共赢 咨信网助力知识提升 | 自信网络旗下运营:咨信网 自信AI创作助手 自信AI导航
咨信网
全部分类
  • 包罗万象   教育专区 >
  • 品牌综合   考试专区 >
  • 管理财经   行业资料 >
  • 环境建筑   通信科技 >
  • 法律文献   文学艺术 >
  • 学术论文   百科休闲 >
  • 应用文书   研究报告 >
  • ImageVerifierCode 换一换
    首页 咨信网 > 资源分类 > PDF文档下载
    分享到微信 分享到微博 分享到QQ空间

    基于深度强化学习的对抗攻击和防御在动态视频中的应用.pdf

    • 资源ID:640358       资源大小:6.70MB        全文页数:6页
    • 资源格式: PDF        下载积分:10金币
    微信登录下载
    验证码下载 游客一键下载
    账号登录下载
    三方登录下载: QQ登录
    二维码
    微信扫一扫登录
    下载资源需要10金币
    邮箱/手机:
    验证码: 获取验证码
    温馨提示:
    支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    开通VIP
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    声明    |    会员权益      获赠5币      写作写作
    1、填表:    下载求助     索取发票    退款申请
    2、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
    3、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
    4、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
    5、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
    6、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
    7、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。

    基于深度强化学习的对抗攻击和防御在动态视频中的应用.pdf

    1、第 56 卷 第 9 期2023 年 9 月通信技术Communications TechnologyVol.56 No.9Sep.20231115文献引用格式:熊水彬.基于深度强化学习的对抗攻击和防御在动态视频中的应用 J.通信技术,2023,56(9):1115-1120.doi:10.3969/j.issn.1002-0802.2023.09.015基于深度强化学习的对抗攻击和防御在动态视频中的应用*熊水彬(江西理工大学,江西 赣州 341000)摘 要:目前深度强化学习中的对抗攻击和防御的研究大多集中在静态图像的分类任务方面,而在动态视频方面的应用研究还存在许多空白。对此,首先在 At

    2、ari 游戏,即动态视频中实现深度Q 网络(Deep Q Network,DQN)智能体模型;其次使用快速梯度符号方法(Fast Gradient Sign Method,FGSM)白盒攻击与黑盒攻击、投影梯度下降(Projected Gradient Descent,PGD)攻击和像素攻击对 DQN 模型进行对抗攻击实验;最后使用基于高斯数据增强的随机化防御和对抗训练方法对这些对抗攻击进行防御实验。实验结果表明,深度强化学习中的对抗攻击和防御在动态视频应用中同样具有有效性。关键词:深度强化学习;DQN;对抗攻击;对抗防御;Atari 游戏中图分类号:TP18 文献标识码:A 文章编号:100

    3、2-0802(2023)-09-1115-06Adversarial Attacks and Defenses Based on Deep Reinforcement Learning in Motion VideoXIONG Shuibin(Jiangxi University of Science and Technology,Ganzhou Jiangxi 341000,China)Abstract:Currently,most of the studies on adversarial attacks and defenses in deep reinforcement learnin

    4、g focus on the classification task of static images,while there are still many gaps in the application research on motion video.To this end,this paper first implements the DQN(Deep Q Network)agent model in Atari game,i.e.,a motion video.Then,it uses FGSM white-box attack and black-box attack,PGD(Pro

    5、jected Gradient Descent)attack and pixel attack to conduct adversarial attack experiments on the DQN model.Finally,it uses Gaussian data augmentation-based randomization defense and adversarial training methods to defend against these adversarial attacks.Experimental results indicate that adversaria

    6、l attacks and defenses in deep reinforcement learning are also effective in motion video applications.Keywords:deep reinforcement learning;DQN;adversarial attack;adversarial defense;Atari game0 引 言深度强化学习是深度学习与强化学习相结合的产物1,是一种新兴的人工智能技术。但是,深度强化学习模型会面临一些安全性和鲁棒性的问题,其中之一就是对抗攻击和对抗防御2。对抗攻击是指攻击者针对深度强化学习模型的弱点

    7、或缺陷对模型进行攻击,使得模型产生错误的预测或输出,从而使得深度强化学习模型的效果降低甚至完全失效。对抗防御则是防御者为了保护深度强化学习模型免受对抗攻击的干扰,降低对抗攻击带来的危害,从而采取的一系列防御方法。对抗攻击会影响深度强化学习智能体的性能,能够暴露其内部的弱点和缺陷。在此基础上进行针对性的对抗防御能够大大提高面对类似对抗攻击的 *收稿日期:2023-06-25;修回日期:2023-08-12 Received date:2023-06-25;Revised date:2023-08-121116通信技术2023 年防御效果。因此,深入研究深度强化学习模型的对抗攻击和防御问题,对于提

    8、高深度强化学习模型的安全性和鲁棒性,保证其在实际应用中的可靠性和稳定性具有非常重要的意义。目前对抗攻击与对抗防御的研究大多是面向静态图像的分类任务,在动态视频方面的应用研究关注较少。由于 Atari 游戏3简单的游戏规则和动态的游戏画面,因此本文选择 Atari 游戏作为实验平台,在 Atari 游戏4中设计实验实现深度强化学习模型中的对抗攻击与对抗防御,在动态视频方面对对抗攻击与防御方法进行综合性探讨研究。1 DQN 算法深度 Q 网络(Deep Q-Network,DQN)属于基于值函数的算法5,它的基本思想是用一个深度神经网络来表示 Q 值函数,输入数据是一幅图像或者一个状态,输出数据则

    9、是对应的选择各个动作时的Q 值。DQN 使用经验回放机制和目标网络来提高学习效率和稳定性,通过梯度下降最小化损失函数来不断更新网络权重,从而逼近最优的 Q 值函数。本文利用经验回放机制6、目标网络和对输入状态图像进行预处理等技巧完成 DQN 算法设计。DQN 模型在 Atari 中的 Pong 游戏上表现得分情况如表 1 所示。表 1 不同训练轮次 DQN 模型得分情况训练轮次平均得分100-15200-63002040019500202 对抗攻击实现2.1 FGSM 攻击快速梯度符号方法(Fast Gradient Sign Method,FGSM)是一种基于梯度的对抗样本生成方法7-8。F

    10、GSM 的基本思路是在原始输入样本的基础上计算损失函数对输入样本的梯度,然后将梯度符号作为扰动方向,并将梯度的绝对值作为扰动大小,向着使分类结果最差的方向添加扰动,从而得到对抗样本9,使得模型对该样本的分类结果发生错误。对抗样本生成过程如图 1 所示,第 1 行原始图像加上第 2 行扰动,得到第 3 行的对抗样本。设x为原始输入样本,表示模型参数,y表示输入样本真实标签,J(,x,y)表示损失函数,sign是符号函数,表示扰动的大小。对抗样本()(),xXxsignJx y=+?生成公式为:()(),xXxsignJx y=+?(1)图 1 对抗样本生成过程1117第 56 卷第 9 期熊水彬

    11、:基于深度强化学习的对抗攻击和防御在动态视频中的应用得到对抗样本后,将对抗样本作为输入图像,输入到 DQN 模型中,继而影响模型判断,通过不断地生成对抗样本就可达到攻击模型的效果。在白盒环境中10,基于 DQN 模型的 Q 值和动作张量使用交叉熵损失函数计算出损失函数,然后进行反向传播得到梯度,再用sign()符号函数得到梯度方向,之后扰动量乘以梯度方向再加上原本状态张量得到对抗样本。在实验过程中还设置了攻击概率,即对每一帧图像以一定概率值选择是否生成对抗样本。不同概率进行 FGSM 白盒攻击时,实验结果如表 2、表 3 和表 4 所示。表 2 100%概率进行 FGSM 白盒攻击时扰动量与得

    12、分关系扰动量训练 400 轮的 DQN 模型得分训练 500 轮的DQN 模型得分0.000 019200.000 216180.000 4-21-190.000 66-120.000 8-21-190.001 0-21-21表 3 80%概率进行 FGSM 白盒攻击时扰动量与得分关系扰动量训练 400 轮的 DQN 模型得分训练 500 轮的 DQN 模型得分0.000 019.020.00.000 217.218.20.000 4-4.4-7.60.000 6-4.6-8.40.000 8-16.2-13.40.001 0-20.2-20.8表 4 50%概率进行 FGSM 白盒攻击时扰动

    13、量与得分关系扰动量训练 400 轮的 DQN 模型得分训练 500 轮的 DQN 模型得分0.000 019.020.00.000 217.619.80.000 4-2.5-1.00.000 6-10.8-5.80.000 8-12.4-8.20.001 0-20.8-19.7在黑盒环境中11,首先根据游戏观测画面得到状态,然后将该状态输入替身模型中得到选择各个动作的 Q 值,再用替身模型计算出选择的动作,同时将动作转化为张量类型。然后将该 Q 值和动作张量使用交叉熵损失函数计算出损失函数,再进行反向传播得到替身模型的梯度,将这个梯度作为目标模型的梯度,再用sign()符号函数得到梯度方向,之

    14、后扰动量乘以梯度方向再加上原本状态张量得到最终的对抗样本。当替代模型为训练 400 轮的 DQN模型时,FGSM 黑盒攻击的实验结果如表 5 所示。表 5 FGSM 黑盒攻击时扰动量与得分关系扰动量训练 400 轮的 DQN 模型得分训练 500 轮的 DQN 模型得分0.000 019200.000 2-2170.000 4-21130.000 618-170.000 8-13-200.001 0-14-17利用 FGSM 攻击方式对输入图像进行攻击扰动,模型效果明显变差。白盒攻击时效果都较好,使用很小的扰动量即可以对模型性能造成较大影响;黑盒攻击的攻击效果很大部分取决于替代模型,当替代模型

    15、越接近最优策略时,攻击效果就越好。2.2 PGD 攻击投影梯度下降(Projected Gradient Descent,PGD)攻击是一种迭代的基于梯度的攻击方法,它通过多次迭代来使攻击更加精确,适用于求解带有约束条件的凸优化问题13。PGD 攻击的主要思想是利用梯度下降法在每次迭代时将当前解投影到可行域内,以满足约束条件,从而得到“最优”的扰动,即输出最差的结果使模型获得更低的奖励。PGD 攻击具体的步骤如下:(1)给定输入数据为xt、标签为y及模型的参数为;(2)计算模型的损失函数L(,xt,y),并根据损失函数的梯度得到扰动()1(,)xtdsignJxy+=;(3)利用截断函数将xt

    16、+d投影到一个预定义的范围内,得到新的输入样本xt+1;(4)以xt+1为输入,重复步骤(2)(3),直到达到指定的迭代次数或满足停止条件。PGD 攻击可表示为:()()1,(,txtxtxClipxsignLx y+=+(2)式中:Clip为截断函数。PGD 攻击在迭代次数为 3、截断值为 0.2 时,不同扰动量对 DQN 模型的攻击结果如表 6 所示。通过比较 PGD 攻击结果与 FGSM 攻击结果,发现 PGD 攻击进行多次小步的迭代得到的对抗样本效果比FGSM攻击进行一次一大步的扰动好很多。FGSM 白盒攻击时,扰动量为 0.000 4 时模型被干扰效果仅相当于 PGD 迭代 3 次、

    17、截断为 0.2、扰动量为 0.000 2 的效果。可见 PGD 攻击是个强大的对抗1118通信技术2023 年攻击算法。表 6 PGD 攻击不同扰动量对模型攻击时游戏得分扰动量训练 400 轮的 DQN 模型得分训练 500 轮的 DQN 模型得分0.000 019200.000 117110.000 221-170.000 3-16-110.000 4-17-200.000 5-21-202.3 单像素攻击单像素攻击(One Pixel Attack)14是一种典型的黑盒攻击方法,只需获取输入图像即可对模型进行攻击。它的基本思想是通过改变图像中较少的像素点,甚至只改变其中的一个像素点就能够实

    18、现较好的攻击效果。对原始游戏画面进行像素攻击后得到的图像如图 2 所示,其中一个像素点被改变。表 7 是进行简单随机像素攻击时,改变像素的个数与得分的关系。图 2 像素攻击后 Pong 游戏图像表 7 像素攻击时改变像素数目与得分关系改变像素个数训练 400 轮的 DQN 模型得分训练 500 轮的 DQN 模型得分01920171910151620-21830-21-19实验结果表明,改变图像像素点的像素攻击方式可以对 DQN 模型进行攻击,能够对 DQN 模型产生威胁,而且改变的像素个数越多,模型的得分就越低,像素攻击对模型的攻击效果就越明显。3 对抗防御3.1 随机化防御随机化防御是一种

    19、基于随机化思想的对抗性防御方法,通过在程序代码、内存布局、执行文件等多个层面引入随机性、多样性和动态性,来消除软件的同质化现象,实现软件的多态化,减小或者动态变化系统攻击面,增加攻击者漏洞利用难度,能有效抵御针对软件缺陷的外部代码注入型攻击、文件篡改攻击、数据泄露攻击、感染攻击等攻击。随机化防御方法的核心思想是对输入数据进行随机化,使得攻击者难以构造有效的对抗 样本。本文使用高斯数据增强方法对 DQN 模型进行随机化防御15。在实验中,高斯数据增强通过在行为网络的输出上使用Pytorch内置的高斯函数添加高斯噪声来实现,其中高斯噪声均值为 0,标准差为0.01(由交叉验证方法得出)。进行 FG

    20、SM 白盒攻击时,高斯数据增强DQN模型得分情况如表8所示,FGSM 黑盒攻击得分情况如表 9 所示,PGD 攻击得分情况如表 10 所示,像素攻击得分情况如表 11 所示。表 8 FGSM 白盒攻击时模型得分情况扰动量训练 400 轮的模型得分训练 500 轮的模型得分0.000 021200.000 218200.000 41210.000 6-21110.000 8-21-200.001 0-21-20表 9 FGSM 黑盒攻击时模型得分情况扰动量训练 400 轮的模型得分训练 500 轮的模型得分0.000 021200.000 221200.000 41750.000 612-210

    21、.000 8-21-190.000 0-21-20表 10 PGD 攻击时模型得分情况扰动量训练 400 轮的模型得分训练 500 轮的模型得分0.000 021200.000 117200.000 2-13-10.000 3-18-120.000 4-21-190.000 5-18-191119第 56 卷第 9 期熊水彬:基于深度强化学习的对抗攻击和防御在动态视频中的应用表 11 像素攻击时模型得分情况扰动量训练 400 轮的模型得分训练 500 轮的模型得分0212011221101920209-1730-7-19使用高斯数据增强会影响一些 DQN 模型的训练效果,但从实验结果中可以得到

    22、高斯数据增强对 FGSM 攻击、PGD 攻击和像素攻击都能有一定的防御能力,尤其对 FGSM 黑盒攻击和像素攻击防御效果较好。但是整体而言防御效果并不是很显著,当对抗攻击强度增大到一定值时,模型性能仍然会受到较大影响。造成该结果可能的原因是训练轮次不足,使用高斯数据增强训练时会影响训练效果,所以需要更多的训练次数才能使模型达到较好的效果,以及得到更强的防御能力。3.2 对抗训练对 抗 训 练(Adversarial Training)是 一 种 主动防御方法16-17,它通过向训练集中添加对抗样本,做一次数据增强,使得深度强化学习(Deep Reinforcement Learning,DRL

    23、)系统在训练过程中能够更好地学习到对抗干扰,从而提高其抵抗能力。对抗训练方法包括基于 FGSM 算法的对抗训练、基于 PGD 算法的对抗训练等。对抗训练的步骤如下:(1)初始化 DRL 策略和对抗攻击算法A;(2)从环境中采样一个状态s,并使用策略选择一个动作a;(3)使用对抗攻击算法A生成一个对抗观察 sadv=s+,其中是一个小的扰动,使得(sadv)=(s);(4)将对抗观察sadv和原始观察s加入训练集中,作为输入特征;(5)使用训练集中的数据更新策略的参数,使其能够在对抗观察和原始观察下都表现良好;(6)重复步骤(2)(5),直到策略达到预期的性能或收敛。对对抗训练后的DQN模型进行

    24、对抗攻击实验,进行 500 轮对抗训练的模型防御 FGSM 白盒攻击时得分情况如表 12 所示;对抗训练 500 轮的模型防御 FGSM 黑盒攻击的得分情况如表 13 所示;进行PGD 攻击时,对抗训练 500 轮的模型得分情况如 表 14 所示;进行像素攻击时,对抗训练 500 轮的模型得分情况如表 15 所示。表 12 FGSM 白盒攻击时防御模型的得分情况扰动量对抗训练 500 轮的模型得分0.000 0200.000 2200.000 4200.000 630.000 8-190.001 0-20表 13 FGSM 黑盒攻击时各防御模型的得分情况扰动量替代模型为 300 轮DQN 模型

    25、时替代模型为 400 轮DQN 模型时0.000 020200.000 220200.000 420200.000 620170.000 8-19-180.001 0-16-21表 14 PGD 攻击时防御模型的得分情况扰动量对抗训练 500 轮的模型得分0.000 0200.000 1200.000 2200.000 3-210.000 4-190.000 5-19表 15 像素攻击时防御模型的得分情况扰动量对抗训练 500 轮的模型得分02012010-1520-1630-15使用基于 FGSM 的对抗训练方法,对 FGSM 白盒攻击与黑盒攻击这两种同类型的对抗攻击具有很强大的防御能力;对

    26、于 PGD 攻击也有一定的防御效果,需要扰动量增大到一定值才能对模型产生影响。不过对于像素攻击,对抗训练并没有体现出良好的防御能力。总体而言,经过对抗训练,模型的鲁棒性得到明显提高,可见对抗训练防御方法是一种有效的对抗防御方法。4 结 语本文首先阐述了深度强化学习中的DQN算法,并且在 Atari 中的 Pong 游戏中训练了 DQN 智能体模型;其次引入对抗攻击和对抗防御,详细介绍了1120通信技术2023 年FGSM 攻击、PGD 攻击、单像素攻击 3 种对抗攻击方法和对抗训练、随机化防御、对抗检测 3 种对抗防御方法,阐述了它们的基本原理,然后对 DQN模型进行了对抗攻击和对抗防御实验,

    27、并且相互之间进行了分析比较。最后得出结论,对抗攻击可以轻松地影响 DRL 模型,能降低 DRL 模型的性能,会对 DRL 模型产生很大的危害,而对抗防御方法可以在一定程度上提高模型的鲁棒性,提高对对抗攻击的防御能力。深度强化学习的对抗攻击与对抗防御是一个不断发展和改进的领域,需要不断地进行研究和探索,未来应更加深入研究各种对抗攻击,寻求破解之道,研究出更加有效的对抗防御方法,让智能体模型能够抵御攻击,不被干扰,发挥出它强大的能力,从而造福社会、造福人类。参考文献:1 刘全,翟建伟,章宗长,等.深度强化学习综述 J.计算机学报,2018,41(1):1-27.2 YUAN X Y,HE P,ZH

    28、U Q L,et al.Adversarial examples:Attacks and defenses for deep learningJ.IEEE Transactions on Neural Networks and Learning Systems,2019,30(9):2805-2824.3 石征锦,王康.深度强化学习在 Atari 视频游戏上的应用 J.电子世界,2017(16):105-106.4 王雅轩.深度强化学习下的对抗攻击及防御方法研究 D.广州:华南理工大学,2021.5 MNIH V,KAVUKCUOGLU K,SILVER D,et al.Human-level

    29、 control through deep reinforcement learningJ.Nature,2015,518(7540):529-533.6 陈松.基于经验重放的深度强化学习算法研究 D.苏州:苏州大学,2020.7 GOODFELLOW I J,SHLENS J,SZEGEDY C.Explaining and harnessing adversarial examplesJ/OL.arXiv,2014:1412.6572.https:/arxiv.org/abs/1412.6572.8 KOS J,SONG D.Delving into adversarial attacks

    30、 on deep policiesJ/OL.arXiv,2017:1705.06452.https:/arxiv.org/abs/1705.06452.9 刘海燕,吕涵.对抗样本生成及防御方法综述 J.现代信息科技,2021,5(22):82-85.10 AKHTAR N,MIAN A.Threat of adversarial attacks on deep learning in computer vision:A surveyJ.IEEE Access,2018,6:14410-14430.11 李蒙,韩立新.基于深度强化学习的黑盒对抗攻击算法 J.计算机与现代化,2021(4):117

    31、-121.12 ZHOU M Y,WU J,LIU Y P,et al.DaST:data-free substitute training for adversarial attacksC/2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR),2020:231-240.13 WANG C.Attacking and defending deep reinforcement learning policiesJ/OL.arXiv,2022:2205.07626.https:/arxiv.org/abs

    32、/2205.07626.14 SU J W,VARGAS D V,SAKURAI K.One pixel attack for fooling deep neural networksJ.IEEE Transactions on Evolutionary Computation,2019,23(5):828-841.15 QIN Z,FAN Y,ZHA H,et al.Random noise defense against query-based black-box attacksJ.Advances in Neural Information Processing Systems,2021,34:7650-7663.16 TRAMR F,KURAKIN A,PAPERNOT N,et al.Ensemble adversarial training:Attacks and defenses J/OL.arXiv,2017:1705.07204.https:/arxiv.org/abs/1705.07204.17 刘斯杰,张志祥,张乔嘉.基于对抗训练和图像去噪的对抗样本防御算法 J.计算机工程与设计,2022,43(11):3093-3100.作者简介:熊水彬(2001),男,本科生,主要研究方向为深度强化学习。


    注意事项

    本文(基于深度强化学习的对抗攻击和防御在动态视频中的应用.pdf)为本站上传会员【自信****多点】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4008-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表




    页脚通栏广告
    关于我们 - 网站声明 - 诚招英才 - 文档分销 - 便捷服务 - 联系我们 - 成长足迹

    Copyright ©2010-2024   All Rights Reserved  宁波自信网络信息技术有限公司 版权所有   |  客服电话:4008-655-100    投诉/维权电话:4009-655-100   

    违法和不良信息举报邮箱:help@zixin.com.cn    文档合作和网站合作邮箱:fuwu@zixin.com.cn    意见反馈和侵权处理邮箱:1219186828@qq.com   | 证照中心

    12321jubao.png12321网络举报中心 电话:010-12321  jubao.png中国互联网举报中心 电话:12377   gongan.png浙公网安备33021202000488号  icp.png浙ICP备2021020529号-1 浙B2-20240490   



    关注我们 :gzh.png  weibo.png  LOFTER.png