[AI人工智能] 歸一化 Normalization


Posted by mike-hsieh on 2024-02-26

AI、深度學習領域很常見到歸一化,之看都沒有很了解,故整理後簡單說明。

  • 說明: 歸一化是將數據按比例縮放到一個共同的範圍或分布內,以提高數據處理或模型學習的效率和效果。


  • 目的:
      1. 提高算法效率:在許多機器學習和數據分析算法中,如果數據特徵的尺度差異很大,會導致學習過程緩慢甚至不收斂。歸一化通過將所有特徵縮放到相同的尺度範圍內,有助於加速學習過程。
      2. 提高模型性能:對於一些基於距離的算法(如K近鄰、K-均值聚類等),特徵的尺度差異會直接影響距離的計算,進而影響模型的性能。通過歸一化,可以確保不同尺度的特徵對模型的貢獻是均衡的。
      3. 避免數值問題:在處理包含很大或很小數值的數據時,可能會遇到數值溢出或下溢的問題。歸一化有助於將數據縮放到一個合適的範圍內,減少這類問題。
      4. 滿足模型假設:某些統計模型和算法需要數據符合特定分布(如正態分布),或者需要特徵之間具有相似的尺度。歸一化可以是達到這些前提假設的一種方法。


  • 常見的歸一化方法:
1. 最小-最大歸一化 (Min-Max Normalization)


2. Z得分歸一化 (Z-Score Normalization)


3. 小數定標歸一化 (Decimal Scaling Normalization)



結論: 歸一化並沒有指定的公式,但有常見的公式。主要是看當下的場景去定義適合的歸一化。


#Normalization







Related Posts

Day 1|Using percentages & avoiding heights

Day 1|Using percentages & avoiding heights

[13] 值 - 字串

[13] 值 - 字串

Web開發學習筆記09 — 陣列操作方法(Array Methods)& 箭頭函式(Array Function)

Web開發學習筆記09 — 陣列操作方法(Array Methods)& 箭頭函式(Array Function)


Comments