AI、深度學習領域很常見到歸一化,之看都沒有很了解,故整理後簡單說明。
- 說明: 歸一化是將數據按比例縮放到一個共同的範圍或分布內,以提高數據處理或模型學習的效率和效果。
- 目的:
1. 提高算法效率:在許多機器學習和數據分析算法中,如果數據特徵的尺度差異很大,會導致學習過程緩慢甚至不收斂。歸一化通過將所有特徵縮放到相同的尺度範圍內,有助於加速學習過程。
2. 提高模型性能:對於一些基於距離的算法(如K近鄰、K-均值聚類等),特徵的尺度差異會直接影響距離的計算,進而影響模型的性能。通過歸一化,可以確保不同尺度的特徵對模型的貢獻是均衡的。
3. 避免數值問題:在處理包含很大或很小數值的數據時,可能會遇到數值溢出或下溢的問題。歸一化有助於將數據縮放到一個合適的範圍內,減少這類問題。
4. 滿足模型假設:某些統計模型和算法需要數據符合特定分布(如正態分布),或者需要特徵之間具有相似的尺度。歸一化可以是達到這些前提假設的一種方法。
1. 最小-最大歸一化 (Min-Max Normalization) |
|
2. Z得分歸一化 (Z-Score Normalization) |
|
3. 小數定標歸一化 (Decimal Scaling Normalization) |
|
結論: 歸一化並沒有指定的公式,但有常見的公式。主要是看當下的場景去定義適合的歸一化。