摘要:本文選取MIDI音樂文件作為樣本,基于音樂心理學理論建立音樂特征與情感的映射模型,利用BP神經網絡進行音樂情感的計算機識別訓練,測試結果表明該模型基本達成預期效果,具備良好適用價值。
關鍵詞:音樂情感;音樂特征;BP神經網絡
中圖分類號::TP391 文獻標識碼:A? 文章編號:1005-5312(2020)26-0054-01? DOI:10.12228/j.issn.1005-5312.2020.26.039
一、音樂情感識別建模
1.模型建立?;谝魳非楦凶R別原理確立音樂情感認知流程:首先以數學模型、音樂心理學理論為基礎,從中抽象出輸入、輸出向量的數學含義;其次是結合對輸入向量的需求,從MIDI音樂文件中提取出特征信息、完成情感標注,完成輸入向量各分量的計算;最后是通過大量數據訓練完成數學模型參數的調整,確定情感認知模型①。
2.音樂特征向量空間定義。音樂特征是認知、識別與表現音樂情感的載體,當前以下三種音樂特征:一是基本特征,包含速度、力度、音高與音色;二是音樂語言表現方式,包含旋律、節(jié)奏、和聲等;三是整體特征,包含風格、調式、曲式等。基于映射模型進行音樂特征參數的定義,共包含九個特征子集,其中音高特征子集包含音高、音高變化量、變化頻率、音域四項參數,力度特征子集包含聲級和聲級變化兩項參數,速度特征子集包含速度與速度變化兩項參數,音程分布子集的參數為是否協(xié)和,旋律方向子集以旋律方向為參數,調式調性子集包含有無調性、調式兩項參數,時值特征子集的參數為長短音符對比,節(jié)奏緊張性子集以音符密度為參數,節(jié)奏穩(wěn)定性子集以節(jié)奏突變度為參數,由此建構起音樂情感識別系統(tǒng)。
二、音樂情感特征的提取與識別方法
1.音樂特征提取。首先,從基本特征提取入手,利用平均音高表示樂曲的音高水平,設Pi為樂曲中第i個音符的音高,n代表樂曲中涵蓋的音符數量,其公式為:
以樂曲中的小節(jié)為基本單位,利用音高變化表示音高變化幅度,設Bari為第i個小節(jié)的音高平均值,N為樂曲中包含的小節(jié)數量,其公式為:
利用音域衡量樂曲音高的廣度、評價樂曲的表現力,設P1,P2,…,Pn為第1~n個音符的音高值,其公式為:
利用時值表示音符持續(xù)時間,音強表示音符力度。其中時值的計算公式為:
其次,從音色入手,音色能夠間接反映出樂曲所傳達出的情感。在建構起音色與情感間映射關系的基礎上,結合音樂信號的頻譜分布圖建立其與音色術語、樂器與適合表達的情感或場景間的聯(lián)系,以基頻為主的頻譜分布圖為例,其音色術語包含純凈的、簡單的兩種類型,分別對應音叉、豎笛樂器,用于表達單純的或簡單的、歡快的情感或場景。
再次,從力度提取入手,選取平均力度、力度變化兩個特征進行力度描述,其公式分別為:
接下來分別完成旋律方向與節(jié)奏的識別,設D為樂曲中全部音符的音長之和,Di為第i個音的音長,其公式分別為:
最后基于MIDI文件中的可選指令分別完成調號、調性的識別算法定義。
2.基于BP神經網絡的識別機制建立。在BP網絡學習過程設計上,表示為:開始——初始化權值、閾值——給定輸入向量、目標輸出——求隱含層、輸出層各單元輸出——求目標輸出與實際輸出的誤差——判斷是否滿足要求,是則結束,否則修改權值、閾值,開始新一輪計算?;贐P神經網絡建立音樂情感分類識別機制,首先進行輸入、輸出層設計,將輸入層節(jié)點數目設為8個,輸出神經元節(jié)點數目設為3個,則五種情感類型分別表示為(0,0,1)、(0,1,0)、(0,1,1)、(1,0,0)和(1,1,1);其次進行隱藏層設計,節(jié)點f數(x目)?為117個;再進行網絡結構設計,采用8×17×3結構,以作為隱藏層、輸出層的激活函數,確保輸出結果恰好落在(0,1)之間;最后進行網絡訓練參數的設定,最大循環(huán)次數、誤差期望值分別為2500和0.001,以traingdx函數、均方誤差性能函數分別作為訓練函數和性能函數。
基于MATLAB7.1實驗環(huán)境觀察BP神經網絡的運行結果,選取25個MIDI格式的音樂片段作為測試樣本,測得其分類精度與識別能力均保持較高水平,準確率達80%。
★基金項目:江西省文化藝術科學規(guī)劃項目《基于BP神經網絡的音樂情感識別研究》研究成果,項目編號:YG2018106。
注釋:
①唐霞,張晨曦,李江峰.基于深度學習的音樂情感識別[J].電腦知識與技術,2019,(11):238-243.
作者簡介:李璐(1981-),女,漢族,江蘇徐州人,研究生,講師,研究方向(從事工作):音樂學。