期刊VIP學術指導 符合學術規范和道德
保障品質 保證專業,沒有后顧之憂
0 引言
自動化系統任務性能與人類操作員的精神狀態密不可分。腦力負荷(Mental Workload)指操作者執行特定認知任務時的心理生理負擔,通常與情境意識、情緒和警惕有關[1]。 腦力負荷與操作員的專業知識、個性、任務類型及生理變量密切相關,社會壓力和期望等社會變量也會影響腦力負荷水平。腦力負荷是分析和實現人機協作任務的關鍵因素,若操作員長期執行工作,可能導致記憶性能下降甚至惡化,通常表現為操作員無法集中注意力進行分析,導致工作效率低,甚至引發不可逆轉的事故。
因此提高腦力負荷分類準確性、準確評估操作員腦力負荷具有重要意義,相關研究可用于指導操作員高效地開展工作。
不同級別的腦力負荷與瞬態期間接收的信息密切相關[2-3]。本文實驗將收集操作員在不同工作負荷水平下頭皮產生的腦電信號。腦電信號是一種神經生理學標記物,其使用電生理指標記錄大腦活動[4]。當皮層中的大量神經元彼此同步時,產生突觸后電位形成腦電信號,記錄大腦活動變化。腦電信號是復雜的非平穩隨機時間序列,特征提取和組合難度很大[5-7]。
基于神經網絡的學習算法在特征學習方面表現令人印象深刻[8],人工神經網絡在數據分類方面也有卓越表現。首先,人工神經網絡是數據驅動的;其次,神經網絡從噪聲訓練數據中壓縮編碼[9-11],即在訓練之后,即使訓練數據包括不可見的輸入模式,通常也可產生良好的結果;第三,神經網絡具有靈活的并行結構,可以同時解決高維輸入的問題[10]。
超限學習機(ELM)是一種特殊的單隱藏層前饋人工神經網絡(SLFN)[12]。ELM與經典SLFN的區別在于訓練權重算法[13-15]。在標準ELM中,輸入層到隱藏層的權重在分布中隨機分配。在通過隨機權重將輸入層鏈接到隱藏層之后,可根據最小二乘法獲得從隱藏層到輸出層的輸出權重[16-17]。在ELM訓練模型過程中進行輸出權重的計算。ELM通常可以通過支持向量機產生競爭性學習泛化能力[18]。ELM在特定應用中的表現也優于深度學習。在許多應用中,ELM與深度學習具有很強的互補性。憑借其泛化和學習速度優勢,ELM引起研究人員高度關注。ELM學習算法應用領域廣泛,如大數據分析、機器人、智能電網、健康產業、可穿戴設備、異常檢測、地球科學和遙測等[19-20]。
1 方法分析
本文采用一種融合超限學習機與支持向量機的混合集成分類器,對腦力負荷水平進行二分類。本部分簡要回顧超限學習機與支持向量機的基本訓練算法,再介紹混合集成分類器設計原理。
1.2 支持向量機
支持向量機是一個二分類模型,其核心是定義特征空間中最大間隔的線性分類器。 線性分類器與感知器不同之處在于最大間隔。 支持向量機還包括內核技術,它使支持向量機成為基本非線性的分類器。 非線性分類問題指如何通過使用非線性模型進行良好分類。對于一個給定的數據集:
1.3 超限學習機與支持向量機的結合
本文用整體數據集的80%作為訓練數據集(23040*137),20%作為測試集(5760*137)。
本文實驗使用不同數目的支持向量機對訓練數據集進行訓練,得出的結果不通過最后的符號函數進行處理,而是將這些離散值放入超限學習機中再次訓練,超限學習機的輸入神經元個數與支持向量機的個數保持一致,通過該方法得出訓練精度與測試精度。之后通過改變與超限學習機結合的支持向量機個數,分別得出訓練精度與測試精度。
同樣可以將支持向量機作為終層分類器,將不同個數的超限學習機訓練結果結合,最后放入支持向量機中,得到最終訓練結果,在此之間通過改變支持向量機核函數得到更高的測試精度與訓練精度。
2 實驗結果
本文使用超限學習機運行初始數據集,通過改變超限學習機隱藏層神經元數量,可以獲得不同訓練精度和測試精度。具有最高測試精度的隱層神經元數量為2 300,隱層數量為2 300,最高測試精度為0.793 4,訓練精度為0.834 7。
取1到5,分別以 5種不同的支持向量機個數組成混合分類器,測試數據訓練與測試。每個數目的支持向量機在打亂數據的前提下運行5次,實驗結果如表1所示,測試精度與訓練精度分別是運行5次的平均值。
從表1可以看出支持向量機個數越多,得到的訓練精度就越高,此時5個支持向量機的參數相同,然后改變支持向量機的參數,使5個支持向量機的參數各不相同,得到的分類結果如表2所示。
從表2可以發現使用不同的支持向量機參數可以得到更高的訓練精度與測試精度。用跨被試的方法將8個被試數據中的7個作為訓練數據集,1個作為測試數據集,實驗8次結果如表3所示。
從表4中可以發現混合分類器在訓練時間上比單個支持向量機與單個超限學習機花費的訓練時間長,但是訓練精度與測試精度相比有所提高。本文將混合分類器與其它主流算法進行對比,對比結果如表5所示。
從表4中可以發現支持向量機與超限學習機混合分類器的分類精度與其它算法相比有顯著提升,訓練精度可以穩定地維持在1.0,測試精度也有不錯的表現。
同樣將SVM作為終極分類器,使用不同個數的ELM訓練數據集,SVM選擇不同的核函數實驗結果,如表6所示。
從表6、表7可以看出,與以終極分類器為ELM的分類器相比,該方式結合的混合分類器表現效果較差。
SVM是一種最常用的、性能最佳的分類器,具有良好的泛化能力,在小樣本訓練集上,SVM可以獲得比其它算法更好的結果,因此可以通過調整參數提高分類結果。隨著ELM模型訓練時間的縮短,可以先將數據輸入ELM進行訓練。通過調整參數,可輕松獲得訓練好的ELM模型,且訓練精度較高。將SVM降維的數據放入訓練好的ELM中,由于ELM具有良好的原始數據分類性能,因此兩個分類器組合將提高分類準確性。
推薦閱讀:人工智能論文容易發表嗎