引用格式:姚沁怡,龍莆均,陳世倫. 基于可解釋LightGBM的電動汽車充電站入侵檢測方法[J].網絡安全與數據治理,2025,44(5):1-9,16.
引言
隨著電動汽車產業的迅猛發展,電動汽車充電站(Electric Vehicle Charging Stations,EVCS)作為連接電網與終端用戶的關鍵基礎設施,正不斷向智能化、網絡化方向演進。EVCS不僅集成了通信、控制、計費等多功能模塊,還普遍采用OCPP、IEC 61850、IEC 15118等標準協議以實現設備間的互聯互通。然而,這種開放性和標準化所帶來的便利,也暴露出嚴峻的網絡安全隱患,如遠程操控、惡意數據注入、服務中斷及隱私泄露等問題。傳統的基于簽名匹配的入侵檢測系統(如Snort、Suricata)難以識別未知攻擊,且維護成本高、響應延遲大,難以滿足EVCS實時、高可靠的安全需求。因此,研究更具智能性、自適應性與前瞻性的入侵檢測方法成為保障EVCS網絡安全的核心課題。
近年來,基于機器學習與深度學習的入侵檢測系統(Intrusion Detection System,IDS)因其對異常行為的建模能力,在EVCS安全防護中取得顯著成果。例如,Akanda等[1]利用邏輯回歸與隨機森林建模EVCS網絡數據,有效識別靜態攻擊行為;Makhmudov等[2]結合自適應隨機森林與數據漂移檢測算法ADWIN,增強了模型的流式響應能力;Tulsiani等[3]系統評估多種分類器的性能,驗證了機器學習方法在魯棒性與泛化性方面的優越性。在深度學習方面,Kilichev等[4]基于EdgeIIoTset構建CNN、LSTM與GRU融合的NIDS架構,實現對多類攻擊的高效識別;Basnet等[5]設計了LSTM模型用于5G架構下的DDoS與FDI攻擊檢測;Miskin等[6]在CICIDS2017數據集上實現了LSTM準確率9998%;Almadhor等[7]引入遷移學習策略,有效緩解了不同數據分布下模型性能波動的問題。
盡管深度學習模型表現出強大的檢測性能,但其高度非線性結構也帶來了“黑箱”問題,導致決策過程難以理解和信任,尤其在安全關鍵系統中限制了其部署落地。具體而言,這類模型在特征空間中往往缺乏顯式的邏輯關聯解釋,用戶難以追溯模型是如何做出判斷的。此外,模型性能提升通常伴隨著結構復雜度增加,進一步加劇了解釋性與性能之間的權衡矛盾[8-9]。在實際應用中,運營人員不僅需要知道“是否發生攻擊”,還需了解“為何發生”“哪些特征導致異?!?,以支持策略制定和系統防御優化。因此,提升模型的可解釋性成為深度學習IDS發展的關鍵方向。
為此,可解釋人工智能(Explainable Artificial Intelligence,XAI)方法被逐步引入EVCS入侵檢測研究中。相關研究如Khan等[10]探討XAI在提升IDS可信度方面的理論基礎;Arreche等[11]提出基于XAI的特征選擇框架,增強關鍵變量識別能力;Attique等[12]將聯邦學習與SHAP結合,構建兼具隱私保護與可解釋性的IDS;Mohanty等[13]則結合GAN合成數據與LightGBM+SHAP實現電動汽車負載預測中的特征貢獻分析;Rahman等[14]基于CNNLSTM檢測架構,引入SHAP解釋獲得了高準確率與良好可理解性。
盡管當前XAI方法已在部分研究中展現出前景,但仍面臨若干挑戰:其一,多數研究僅應用單一解釋方法,缺乏對多種XAI方法的對比與協同機制的深入探討;其二,特征選擇、模型調參與解釋方法之間尚未形成統一的集成框架,降低了解釋穩定性與部署可行性;其三,現有研究多以解釋性為附加指標,未系統評估解釋質量對模型性能及安全運維決策的反饋價值。
針對上述問題,本文提出一種基于輕量級梯度提升機(Light Gradient Boosting Machine, LightGBM)的可解釋EVCS入侵檢測框架,通過SAOA算法優化模型超參數,并集成六種XAI技術(SHAP、LOCO、PFI、CEM、LIME、ALE)對模型預測機制和特征重要性進行多維度解釋。同時,利用混淆矩陣、特征重要性對比分析等指標,展現模型在多攻擊場景下的實用性與可部署性,為EVCS網絡安全提供可信且透明的智能防護方案。
本文詳細內容請下載:
http://m.jysgc.com/resource/share/2000006540
作者信息:
姚沁怡,龍莆均,陳世倫
(重慶科技大學 數理科學學院,重慶401331)