引用格式:姚沁怡,龙莆均,陈世伦. 基于可解释LightGBM的电动汽车充电站入侵检测方法[J].网络安全与数据治理,2025,44(5):1-9,16.
引言
随着电动汽车产业的迅猛发展,电动汽车充电站(Electric Vehicle Charging Stations,EVCS)作为连接电网与终端用户的关键基础设施,正不断向智能化、网络化方向演进。EVCS不仅集成了通信、控制、计费等多功能模块,还普遍采用OCPP、IEC 61850、IEC 15118等标准协议以实现设备间的互联互通。然而,这种开放性和标准化所带来的便利,也暴露出严峻的网络安全隐患,如远程操控、恶意数据注入、服务中断及隐私泄露等问题。传统的基于签名匹配的入侵检测系统(如Snort、Suricata)难以识别未知攻击,且维护成本高、响应延迟大,难以满足EVCS实时、高可靠的安全需求。因此,研究更具智能性、自适应性与前瞻性的入侵检测方法成为保障EVCS网络安全的核心课题。
近年来,基于机器学习与深度学习的入侵检测系统(Intrusion Detection System,IDS)因其对异常行为的建模能力,在EVCS安全防护中取得显著成果。例如,Akanda等[1]利用逻辑回归与随机森林建模EVCS网络数据,有效识别静态攻击行为;Makhmudov等[2]结合自适应随机森林与数据漂移检测算法ADWIN,增强了模型的流式响应能力;Tulsiani等[3]系统评估多种分类器的性能,验证了机器学习方法在鲁棒性与泛化性方面的优越性。在深度学习方面,Kilichev等[4]基于EdgeIIoTset构建CNN、LSTM与GRU融合的NIDS架构,实现对多类攻击的高效识别;Basnet等[5]设计了LSTM模型用于5G架构下的DDoS与FDI攻击检测;Miskin等[6]在CICIDS2017数据集上实现了LSTM准确率9998%;Almadhor等[7]引入迁移学习策略,有效缓解了不同数据分布下模型性能波动的问题。
尽管深度学习模型表现出强大的检测性能,但其高度非线性结构也带来了“黑箱”问题,导致决策过程难以理解和信任,尤其在安全关键系统中限制了其部署落地。具体而言,这类模型在特征空间中往往缺乏显式的逻辑关联解释,用户难以追溯模型是如何做出判断的。此外,模型性能提升通常伴随着结构复杂度增加,进一步加剧了解释性与性能之间的权衡矛盾[8-9]。在实际应用中,运营人员不仅需要知道“是否发生攻击”,还需了解“为何发生”“哪些特征导致异常”,以支持策略制定和系统防御优化。因此,提升模型的可解释性成为深度学习IDS发展的关键方向。
为此,可解释人工智能(Explainable Artificial Intelligence,XAI)方法被逐步引入EVCS入侵检测研究中。相关研究如Khan等[10]探讨XAI在提升IDS可信度方面的理论基础;Arreche等[11]提出基于XAI的特征选择框架,增强关键变量识别能力;Attique等[12]将联邦学习与SHAP结合,构建兼具隐私保护与可解释性的IDS;Mohanty等[13]则结合GAN合成数据与LightGBM+SHAP实现电动汽车负载预测中的特征贡献分析;Rahman等[14]基于CNNLSTM检测架构,引入SHAP解释获得了高准确率与良好可理解性。
尽管当前XAI方法已在部分研究中展现出前景,但仍面临若干挑战:其一,多数研究仅应用单一解释方法,缺乏对多种XAI方法的对比与协同机制的深入探讨;其二,特征选择、模型调参与解释方法之间尚未形成统一的集成框架,降低了解释稳定性与部署可行性;其三,现有研究多以解释性为附加指标,未系统评估解释质量对模型性能及安全运维决策的反馈价值。
针对上述问题,本文提出一种基于轻量级梯度提升机(Light Gradient Boosting Machine, LightGBM)的可解释EVCS入侵检测框架,通过SAOA算法优化模型超参数,并集成六种XAI技术(SHAP、LOCO、PFI、CEM、LIME、ALE)对模型预测机制和特征重要性进行多维度解释。同时,利用混淆矩阵、特征重要性对比分析等指标,展现模型在多攻击场景下的实用性与可部署性,为EVCS网络安全提供可信且透明的智能防护方案。
本文详细内容请下载:
//www.51qz.net/resource/share/2000006540
作者信息:
姚沁怡,龙莆均,陈世伦
(重庆科技大学 数理科学学院,重庆401331)

