基于通道注意力机制和BIGRU的非侵入式负荷分解方法.pdf
《基于通道注意力机制和BIGRU的非侵入式负荷分解方法.pdf》由会员分享,可在线阅读,更多相关《基于通道注意力机制和BIGRU的非侵入式负荷分解方法.pdf(10页珍藏版)》请在咨信网上搜索。
1、第 21 卷 第 7 期 电 力 信 息 与 通 信 技 术 Vol.21 No.7 2023 年 7 月 Electric Power Information and Communication Technology Jul.2023 中图分类号:TN915.853 文献标志码:A 文章编号:2095-641X(2023)07-001-10 DOI:10.16543/j.2095-641x.electric.power.ict.2023.07.01 著录格式:钱玉军,包永强,姜丹琪,等基于通道注意力机制和 BIGRU 的非侵入式负荷分解方法J电力信息与通信技术,2023,21(7):1-10
2、 基于通道注意力机制和 BIGRU 的 非侵入式负荷分解方法 钱玉军1,包永强2,姜丹琪1,张旭旭1,雷家浩1(1南京工程学院 电力工程学院,江苏省 南京市 211167;2南京工程学院 信息与通信工程学院,江苏省 南京市 211167)Non-intrusive Load Monitoring Method Based on the Channel Attention Mechanism and BIGRU QIAN Yujun1,BAO Yongqiang2,JIANG Danqi1,ZHANG Xuxu1,LEI Jiahao1(1.School of Electric Power En
3、gineering,Nanjing Institute of Technology,Nanjing 211167,Jiangsu Province,China;2.School of Information and Communication Engineering,Nanjing Institute of Technology,Nanjing 211167,Jiangsu Province,China)摘要:针对目前负荷监测领域存在模型分解准确率低、训练周期长、泛化性能差的问题,文章构建了基于通道注意力机制和双向门控循环单元的非侵入式负荷监测模型,利用搭建的序列到点编码解码结构,将智能电表入
4、口处总功率序列与待测目标设备序列中点在模型上进行映射训练。使用功率嵌入层对负荷序列的输入过程进行优化,将离散的负荷总功率序列通过功率嵌入矩阵映射到高维紧密向量空间;采用一维卷积神经网络提取负荷序列的局部特征,双向门控循环单元提取负荷的长序列依赖关系,同时融合通道注意力机制强化对目标设备重要信号特征的学习,挖掘目标设备状态与负荷功率之间的关联。在基于能量分解模型基准框架下,利用公开数据集 REDD和 UK-DALE 进行实验,与现有两种典型负荷分解模型进行比较分析,实验结果表明,文章构建的模型在减少网络训练时间和参数的前提下,有效检测了目标设备的开关状态,显著提升了负荷分解准确性。关键词:非侵入
5、式负荷监测;双向门控循环单元;序列到点;功率嵌入;通道注意力机制 ABSTRACT:A non-intrusive load monitoring model based on the channel attention mechanism and BIGRU is constructed to address the current problems of low accuracy of model decomposition,long training period and poor generalization performance in the field of load monit
6、oring.Using the constructed sequence-to-point encoding-decoding structure,the total power sequence at the entrance of the smart meter is mapped to the midpoint of the sequence of target devices to be tested on the model for training.The input process of the load sequence is first optimized using a p
7、ower embedding layer to map the discrete load total power sequence to a high-dimensional compact vector space via a power embedding matrix.A one-dimensional convolutional neural network is used to extract the local features of the load sequence,a bi-directional gated recurrent network(BIGRU)to extra
8、ct the long sequence dependencies of the load,and a fused channel attention mechanism(Attention)to enhance the target device state and load power correlations are explored by incorporating a channel attention mechanism(Attention)to enhance the learning of important signal features of the target devi
9、ce.In the benchmark framework based on the energy decomposition model,experiments are conducted using the publicly available datasets REDD and UK-DALE to compare and analyse with two existing typical load decomposition models.The experimental results show that the model constructed in this paper eff
10、ectively detects the switching status of the target device and significantly improves the load decomposition accuracy with reduced network training time and parameters.KEY WORDS:non-intrusive load monitoring;BIGRU;sequence-to-point;power embedding;channel attention mechanism 0 引言 电力系统中贯彻发展可再生能源、提升电能
11、在 基金项目:国家自然科学基金项目(62171217)。终端消费的比重是实现碳达峰、碳中和的重要保证。电力系统结构形态需要向深度低碳或零碳新型电力系统模式转变1。新型电力系统用户侧有大量新型负荷参与电网调度,用户之间差异化负荷2 钱玉军等:基于通道注意力机制和 BIGRU 的非侵入式负荷分解方法 Vol.21 No.7 需求会影响能源容量的配置,因此有必要采用非侵入式负荷监测(non-intrusive load monitoring,NILM)技术对用户侧的负荷特性进行监测,推动能源革命,统筹实现双碳目标的长期战略任务2。NILM 是一种面向新型电力系统分析用户侧用电信息的创新技术,该技术利
12、用智能电表采样负荷数据,应用信号分析和机器学习算法获取电器启停时间、能耗量和用电规律等信息3。NILM 的实现基本步骤包括数据采集(用于模拟电压和电流信号的数字采样)、数据处理(计算功率、谐波等电气参数)、事件检测(从数据序列中检测电器开关或状态切换事件)、特征提取和负载分类(对检测到的电器进行分类识别)。目前实现非侵入式负荷分解的主要方法分为组合优化和模式识别两类。NILM 中基于组合优化算法通过将采样到的设备信号与已建立负荷特征库中的信号进行模板匹配作为优化策略4。文献5提出总谐波失真系数作为负荷新特征,采用动态自适应粒子群算法对实测用电数据进行负荷分解;文献6构建总负荷数据图信号模型,利
13、用功率损耗进行条件约束,自主调整参数,完成负荷分解。随着机器学习的发展,K 最近邻分类(K nearest neighbor,KNN)7、支持向量机(support vector machine,SVM)8、随机森林9等算法在 NILM 问题中得到了应用。文献10利用均值漂移算法对负荷状态进行聚类,根据稳态情况下时域分布确定负荷事件的发生点,完成负荷检测;文献11利用稀疏编码算法学习电器的功耗模型,利用模型预测各电器的功耗;文献12利用改进的维特比算法计算超状态的稀疏矩阵,通过概率密度函数(probability mass function,PMF)量化负荷状态,保留负载之间的依赖关系,在较短
14、的时间内评估了负载类型以及负载消耗状况。然而这些方法所用的负荷特征需要人工手动提取与标记,可扩展性较差。与传统方法不同,深度学习方法能够自动从原始数据中提取负荷特征。文献13提出了基于双向门控循环单元(bi-directional gate recurrent unit,BIGRU)和序列到序列网络模型,构建 BIGRU 神经网络对输入序列进行负荷特征提取,将多个 GRU层沿正向和反向拼接叠加在一起,利用 Softmax 函数计算研究目标用电设备被分类到对应类别的概率,选择模型分解最大概率确定目标用电设备的类型,进而识别负荷类型以及确定负荷运行起始时间;文献14提出了一种基于序列到序列的多层深
15、度神经网络,该算法通过读取每日总耗电量的负荷曲线,根据设备特定的功率特征来识别设备的状态;文献15首次提出仅使用全连接层和卷积神经网络的序列到点的模型,滑动聚合数据窗口来分解单个中点时间上的设备消耗;文献16提出了使用滑动窗口进行实时能量分解的循环网络单元(window-gated recurrent unit,WGRU),该算法在多状态设备上表现突出;文献17提出一种基于编码解码模型并且融合了注意力机制的 NILM 模型,通过注意力机制强化特征提取范围,增强了负荷识别能力。综上所述,NILM 已经从依赖于机器学习和人工提取负荷特征的传统方法发展到完全由数据驱动的深度学习技术,模型性能的表现接
16、近于实际应用。为了解决 NILM 存在分解准确率低、训练周期长、泛化性能差的问题,本文提出一种综合考虑负荷特征以及功耗时序特征的深度学习模型,在文献16的双向门控循环单元结构上进行改进,采用通道注意力机制(channel attention mechanism)替代原网络中的 Dropout 层,强化了负荷特征学习,同时引入 NILM 领域首次提出的序列到点的编码解码结构,进行横向对比。与已研究案例相比,本文的创新点和贡献如下。1)构建功率嵌入矩阵,将离散的功率序列映射到高维空间,便于编码部分对于时序信息的提取,有效降低了模型运算量及提高负荷分解的准确性。2)采用序列到点编码解码模型,预测输出
17、序列窗口中点值,降低了负荷序列中边缘数据的影响。3)引入基于通道注意力机制改进BIGRU网络,增强重要负荷特征的学习,同时强化负荷前后关联时序特征的信息挖掘。4)采用迁移学习模式实现不同数据集间的跨域分解,改进了网络模型的泛化能力。1 非侵入式负荷分解模型 本文构建的非侵入式负荷分解模型如图 1 所示,主要包括功率嵌入、序列到点编码解码结构、基于通道注意力机制改进 BIGRU 网络(BIAGRU)3 部分。首先对每一用电设备训练一个基于通道注意力机制和 BIGRU 的序列到点模型,设备之间网络结构完全相同,差别在于每种设备对应的网络内部权重参数数量以及输入模型的负荷序列长度不同,设备模型在总功
18、率数据序列上滑动采样,通过功率嵌入层映射到高维向量空间,利用 BIGRU 网第 21 卷 第 7 期 电 力 信 息 与 通 信 技 术 3 络改进模块强化负荷特征的选取,优化负荷分解效果,最后目标设备对应序列到点模型会映射当前时间目标设备的有功功率。图 1 非侵入式负荷分解模型 Fig.1 Diagram of the non-intrusive load monitoring model 1.1 功率嵌入 鉴于深度学习输入的总负荷功耗数据是公开源数据集,数据量涉及上百万个采样点,而文章设计的模型输入序列的长度是 50100 个采样点,故需要对负荷数据进行信息粒化处理。具体来说,数据集中出现
19、的不同用电设备对应训练的模型的输入功率序列长度是不同的,这主要取决于单个用电设备运行期间完整遍历负荷激活周期的大小。如热水壶烧开水只需 5 min,洗衣机完成整个洗衣和脱水过程需要 60 min 左右。对此,将数据集中出现的M 种用电设备根据其激活周期设置模型的输入窗口长度 L,划定为L1,L2,L3,LM。将负荷序列按照目标设备的激活周期大小分割,分割的单块序列通过词嵌入矩阵映射到高维向量空间。主要步骤为:将输入的总负荷序列1jP,2jP,jiP进行信息粒化处理,其中jiP代表目标设备 j 在对应的总功率序列中的第 i 个点的功率,在粒化处理过程中,对负荷序列按采样频率整数倍切割,在一定程度
20、上造成在切割点处功率信息的损失,不过相较于单点处的功率大小,这种微小负荷信息缺失不会对负荷分解造成影响,粒化处理后得到1P,2P,iP,之后将粒化后的序列通过初始化的功率嵌入矩阵 E=v_s*e_s映射到高维向量E1P,E2P,EiP,其中 v_s 代表某一时刻采样点的有功功率大小,要求大于数据集中单点最高功率值(数据集单点最大功率值约为 5000 W),否则会导致部分采样点没有对应的映射向量;e_s表示单一设备功率值由功率嵌入矩阵映射后的序列长度。将功率序列和功率嵌入矩阵构建向量映射联系,便于编码器对时序信息的提取,同时对原始负荷序列保持了良好的跟踪性,降低了深度学习模型的运算量,从而提高负
21、荷分解性能。1.2 门控循环单元和 BIGRU 门控循环单元(gate recurrent unit,GRU)网络是长短期记忆(long short-term memory,LSTM)网络的改进结构,可以有效解决网络梯度消失和爆炸的问题,同时一定程度上减少网络学习参数量和降低模型过拟合的风险。GRU 结构单元包含更新门和重置门,前者用来关注负荷信息更新隐藏状态,后者用于遗忘部分非重要隐藏状态。GRU 结构是单向输入输出,然而在提取负荷深层特征时,需要将当前状态信息与前后时刻的隐藏状态建立联系,BIGRU 在这种场景中表现良好。BIGRU 由 2 个单向、方向相反的 GRU 组成,其结构如图 2
22、 所示。图 2 BIGRU 单元结构 Fig.2 BIGRU unit structure diagram 在每一时刻,网络中的隐藏状态由 2 个方向相反的 GRU 共同决定,即:1GRU(,)ttthhx (1)1GRU(,)ttthhx (2)tttttthhhWVb(3)式中:th和th分别表示在t时刻正向GRU和反向GRU的输出状态;xt为隐藏状态的输入;Wt和Vt分别表示输出状态th和th的权重矩阵;bt代表偏置矩阵。由上述公式看出,BIGRU 当前的隐层状态由当前的输入tx、t1 时刻前向的隐层状态输出1th 和反向隐层状态输出1th 3 个部分共同决定。在 t 时刻BIGRU 的
23、隐层状态通过前向隐层状态1th 和反向4 钱玉军等:基于通道注意力机制和 BIGRU 的非侵入式负荷分解方法 Vol.21 No.7 隐层状态1th 加权求和得到。与单向 GRU 相比,BIGRU 能更好地联合捕捉正向和反向依赖,以较少的训练迭代次数获得更好的训练损失。1.3 序列到点模型 序列到点模型是在输入序列(如 NILM 问题中的功率读取)和输出序列(如单个设备中的功率预测)之间建立映射,将采样的负荷序列通过编码和解码两个步骤输出目标负荷窗口的中点值,具有较强的时序信息处理能力,有利于网络训练耗时的减少。序列到点体系结构定义了一个神经网络 FP,它将输入的滑动窗口1t t WY 映射到
24、输出相应窗口1t t WX 的中点X,模型为1F()+t t WXX,其中是高斯随机噪声。该结构预测设备中点元素的状态与该中点前后的输入功率信息相关,对每个中点X都有一个预测,而非对整个窗口预测平均值。1.4 通道注意力机制 注意力机制18-20是一种对网络模型权重选择性分配的机制,通过调整权重系数修改负荷特征的关键程度,权重系数越大,关联特征越重要,对负荷分类和预测结果影响越大。本文算法的创新之处在于利用通道注意力机制进一步提高了网络的特征提取能力(见图 3),尤其对不常用电气特征的提取,这种注意机制不同于之前的结构,它提高了特征通道的性能。该机制有选择性地关注功耗序列数据中不同位置的负荷信
25、息,变向地减少需要处理时序数据的规模;由于每种用电设备模式存在差异性,处于不同时刻的特征信息对于设备运行与否的贡献不同,引入通道注意力机制对影响设备开启的特征根据重要性分配权重,强化模型学习负荷特征的能力,进而提高模型的检测精度。具体步骤如下。步骤 1:输入负荷特征图 uC,uCRHWC,R表示特征图的维度,C 表示 uC的通道数,H 和 W分别表示 uC的高和宽,对 uC全局空间进行压缩,实现全局感受野。采用全局平均池化(global average pooling,GAP)将每个通道上对应的空间信息(HW)压缩到对应通道中变为一个通道。此时一个像素表示一个通道,变为 11C 维度向量,表示
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 通道 注意力 机制 BIGRU 侵入 负荷 分解 方法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。