Lp範數
外觀
$ L _ { p } $-範數(英語:$ L _ { p } $-norm,亦稱 $ \ ell _ { p } $-範數、$ p $-範數 ) 是向量空間內底的一組範數。$ L _ { p } $-範數和冪平均有一定的聯繫。伊的定義如下:
$ $ L _ { p } ( { \ vec { x } } )=\ lVert { \ vec { x } } \ rVert _ { p }={ \ Bigl ( } \ sum _ { i=一 } ^ { n } | x _ { i } | ^ { p } { \ Bigr ) } ^ { 一 / p } , \ qquad { \ vec { x } }=\ { x _ { 一 } , x _ { 二 } , \ ldots , x _ { n } \ } , \ , p \ geqslant 一 . $ $
$ p $ 的無仝取值
- $ p=-\ infty $ : $ \ lVert { \ vec { x } } \ rVert _ { \ infty }=\ lim _ { p \ to-\ infty } { \ Bigl ( } \ sum \ limits _ { i=一 } ^ { n } | x _ { i } | ^ { p } { \ Bigr ) } ^ { 一 / p }=\ min _ { i } | x _ { i } | $。
- $ p=零 $:$ \ lVert { \ vec { x } } \ rVert _ { 零 }=\ sum _ { i=一 } ^ { n } \ left [x _ { i } \ neq 零 \ right] $,也就是所有的 $ x _ { i } $ 中,無等於零的個數。注意,遮的 $ L _ { 零 } $-範數並非通常意義上的範數(不滿足三角不等式或者是會當加性)。
- $ p=一 $:$ \ lVert { \ vec { x } } \ rVert _ { 一 }=\ sum \ limits _ { i=一 } ^ { n } | x _ { i } | $,即 $ L _ { 一 } $-範數是向量各分量絕對值之和,又閣稱曼哈頓距離。
- $ p=二 $ : $ \ lVert { \ vec { x } } \ rVert _ { 二 }={ \ sqrt { \ sum \ limits _ { i=一 } ^ { n } | x _ { i } | ^ { 二 } } } $,此此歐氏距離。
- $ p=+ \ infty $ : $ \ lVert { \ vec { x } } \ rVert _ { \ infty }=\ lim _ { p \ to + \ infty } { \ Bigl ( } \ sum \ limits _ { i=一 } ^ { n } | x _ { i } | ^ { p } { \ Bigr ) } ^ { 一 / p }=\ max _ { i } | x _ { i } | $,此也就無散錢抑是上大的範數。
機器學習內底的應用
佇機器學習內底,為著欲對抗過擬合、提高模型的一般化能力,會當通過向目標函數當中引入參數向量的 $ L _ { p } $-範數來做正則化。其中上捷用的是引入 $ L _ { 一 } $-範數的 $ L _ { 一 } $-正則項佮引入 $ L _ { 二 } $-範數的 $ L _ { 二 } $-正則項;前者有利於得著疏解,後者提著平棒解決。