<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="zh-Hant-TW">
	<id>https://wiki.taigi.ima.org.tw/w/index.php?action=history&amp;feed=atom&amp;title=K-L%E8%BD%89%E6%8F%9B</id>
	<title>K-L轉換 - 修訂紀錄</title>
	<link rel="self" type="application/atom+xml" href="https://wiki.taigi.ima.org.tw/w/index.php?action=history&amp;feed=atom&amp;title=K-L%E8%BD%89%E6%8F%9B"/>
	<link rel="alternate" type="text/html" href="https://wiki.taigi.ima.org.tw/w/index.php?title=K-L%E8%BD%89%E6%8F%9B&amp;action=history"/>
	<updated>2026-04-13T06:04:21Z</updated>
	<subtitle>本 wiki 上此頁面的修訂紀錄</subtitle>
	<generator>MediaWiki 1.43.1</generator>
	<entry>
		<id>https://wiki.taigi.ima.org.tw/w/index.php?title=K-L%E8%BD%89%E6%8F%9B&amp;diff=366273&amp;oldid=prev</id>
		<title>TaiwanTonguesApiRobot：​從 JSON 檔案批量匯入</title>
		<link rel="alternate" type="text/html" href="https://wiki.taigi.ima.org.tw/w/index.php?title=K-L%E8%BD%89%E6%8F%9B&amp;diff=366273&amp;oldid=prev"/>
		<updated>2025-08-22T04:05:27Z</updated>

		<summary type="html">&lt;p&gt;從 JSON 檔案批量匯入&lt;/p&gt;
&lt;p&gt;&lt;b&gt;新頁面&lt;/b&gt;&lt;/p&gt;&lt;div&gt;K-L 轉換 ( Karhunen-Loève Transform ) 是建立佇咧統計特性基礎頂懸的一種轉換，伊是均方差 ( MSE , Mean Square Error ) 意義下的最佳轉換，就按呢佇資料壓縮技術內底占有重要的地位。&lt;br /&gt;
&lt;br /&gt;
K-L 轉換名稱來自 Kari Karhunen 和 Michel Loève。&lt;br /&gt;
&lt;br /&gt;
K-L 轉換是對輸入的向量 x，做一个正交變換，予得輸出的向量會當去除數據的相關性。&lt;br /&gt;
&lt;br /&gt;
毋過，K-L 轉換雖然有方均差 ( MSE ) 意義下的最佳轉換，毋過必須事先知影輸入的訊號，而且需要經過一寡繁雜的數學運算，比如講協方差 ( covariance ) 猶閣有特徵向量 ( eigenvector ) 的計算。就按呢佇咧工程實踐 K-L 轉換並無予人廣泛的應用，猶毋過 K-L 轉換是理論上最佳的方法，所以咧走揣一寡毋是最佳、但是較好實現的一寡轉換方法的時陣，K-L 轉換會當提供遮轉換性能的評價標準。&lt;br /&gt;
&lt;br /&gt;
用處理圖片做範例，佇咧 K-L 轉換途中，圖片的能量會變做集中，對壓縮起來的圖片，但是實際上，KL 轉算做是 input-dependent，即需要對每一張輸入圖片儉下一个轉換機制，每一張圖攏無仝，這陣實務應用上是不實際的。&lt;br /&gt;
&lt;br /&gt;
==原理==&lt;br /&gt;
&lt;br /&gt;
KL 轉換屬於正交轉換，其處輸入訊號的原理如下：&lt;br /&gt;
&lt;br /&gt;
嘿輸入向量 $ \ mathbf { x } $ 做 KL 傳換以後，輸出向量 $ \ mathbf { X } $ 之元素間 ( $ u _ { 一 } \ neq u _ { 二 } $ , $ u _ { 一 } $ 和 $ u _ { 二 } $ 為 $ \ mathbf { X } $ 之元素的 index ) 的相關性做零，即：$ E [( X [ u _ { 一 }]-{ \ bar { X } } [u _ { 一 }] ) ( X [u _ { 二 }]-{ \ bar { X } } [u _ { 二 }] ) ]=零 $&lt;br /&gt;
&lt;br /&gt;
展開上式並做消去：&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
E [X [ u _ { 一 }] X [u _ { 二 }] ]-{ \ bar { X } } [u _ { 一 }] { \ bar { X } } [u _ { 二 }]=零&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
若是 $ { \ bar { x } } [n]=零 $，因為乎 KL 轉換式線性轉換的關係，$ { \ bar { X } } [n]=零 $，會當達成以下式，所以遮有輸入向量 $ \ mathbf { x } $ 之平均值 $ { \ bar { x } } $ 需要為 $ 零 $，所以乎 KLT 是專門用佇隨機的程序的分析：&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
E [X [ u _ { 一 }] X [u _ { 二 }] ]=零&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
其中 $ u _ { 一 } \ neq u _ { 二 } $，就輸出向量無仝款元素相關性為 $ 零 $。&lt;br /&gt;
&lt;br /&gt;
轉去到矩陣表示形式，令 $ \ mathbf { K } $ 為 KL 轉換矩陣，使：&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
\ mathbf { X }=\ mathbf { Kx }&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
以 $ \ mathbf { K } $ 和 $ \ mathbf { x } $ 表示 $ \ mathbf { X } $ 之 covariance 矩陣：&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
E [\ mathbf { X } \ mathbf { X } ^ { T }]=E [\ mathbf { K } \ mathbf { x } \ mathbf { x } ^ { T } \ mathbf { K } ^ { T }]=\ mathbf { K } E [\ mathbf { x } \ mathbf { x } ^ { T }] \ mathbf { K } ^ { T }&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
因為乎 $ { \ bar { x } } [n]=零 $，$ E [\ mathbf { x } \ mathbf { x } ^ { T }] $ 直接等於 covariance 矩陣：&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
E [\ mathbf { X } \ mathbf { X } ^ { T }]=\ mathbf { K } \ mathbf { C } \ mathbf { K } ^ { T }&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
其中 $ \ mathbf { C } $ 為 $ \ mathbf { x } $ 之 covariance 矩陣。&lt;br /&gt;
&lt;br /&gt;
若欲使 $ E [X [ u _ { 一 }] X [u _ { 二 }] ]=零 $，著 $ E [\ mathbf { X } \ mathbf { X } ^ { T }] $ 著愛為著對角線矩陣，隨對角線上之值攏為著 $ 零 $，所以乎 $ \ mathbf { K } $ 著愛將傳換做對角線矩陣，即 $ \ mathbf { K } $ 的每一行攏為 $ \ mathbf { C } $ 之特徵向量。&lt;br /&gt;
&lt;br /&gt;
K-L 轉換的目的是將原始數據做轉換，予得轉換以後資料的相關性上細。若輸入數據做一維：&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
y [u]=\ sum _ { n=零 } ^ { N 影一 } K [u , n] x [n]&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
K [u , n]=e _ { n } [n]&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
其中 en 為輸入訊號 x 共變異數矩陣 ( covariance matrix ) Cx 的特徵向量 ( eigenvector )&lt;br /&gt;
&lt;br /&gt;
若輸入訊號 x 為二維：&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
y [u , v]=\ sum _ { m=零 } ^ { M 影一 } \ sum _ { n=零 } ^ { N 影一 } K [u , m] K [v , m] x [m , n]&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
==佮離散餘弦轉換的關係==&lt;br /&gt;
&lt;br /&gt;
二維之 K-L 轉換推導係自原先輸入信號之自協方矩陣&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
C _ { x _ { i } x _ { j } }=E [x _ { i } , x _ { j }]&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
亦即&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
C _ { x _ { i } x _ { j } }={ \ begin { bmatrix } E [x _ { 一 } , x _ { 一 }] &amp;amp; E [x _ { 一 } , x _ { 二 }] &amp;amp; E [x _ { 一 } , x _ { 三 }] &amp;amp; \ dots &amp;amp; E [x _ { 一 } , x _ { j }] &amp;amp; \ dots &amp;amp; E [x _ { 一 } , x _ { N }] \ \ E [x _ { 二 } , x _ { 一 }] &amp;amp; E [x _ { 二 } , x _ { 二 }] &amp;amp; E [x _ { 二 } , x _ { 三 }] &amp;amp; \ dots &amp;amp; E [x _ { 二 } , x _ { j }] &amp;amp; \ dots &amp;amp; E [x _ { 二 } , x _ { N }] \ \ \ vdots &amp;amp; \ vdots &amp;amp; \ vdots &amp;amp; \ ddots &amp;amp; \ vdots &amp;amp; \ ddots &amp;amp; \ vdots \ \ E [x _ { i } , x _ { 一 }] &amp;amp; E [x _ { i } , x _ { 二 }] &amp;amp; E [x _ { i } , x _ { 三 }] &amp;amp; \ dots &amp;amp; E [x _ { i } , x _ { j }] &amp;amp; \ dots &amp;amp; a _ { in } \ \ \ vdots &amp;amp; \ vdots &amp;amp; \ vdots &amp;amp; \ ddots &amp;amp; \ vdots &amp;amp; \ ddots &amp;amp; \ vdots \ \ E [x _ { M } , x _ { 一 }] &amp;amp; E [x _ { M } , x _ { 二 }] &amp;amp; E [x _ { M } , x _ { 三 }] &amp;amp; \ dots &amp;amp; E [x _ { M } , x _ { j }] &amp;amp; \ dots &amp;amp; E [x _ { M } , x _ { N }] \ end { bmatrix } }&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
會著，此處假設輸入信號 x 已經先減去平均值。&lt;br /&gt;
&lt;br /&gt;
若輸入彼此具高度相關性，如影像等，是會當假使佇水平佮垂直方向頂懸會當予人分離，並且以水平和垂直之相關係數 $ \ rho _ { H } , \ rho _ { V } $ 加以表示假設 $ x _ { i } $ 佮 $ x _ { j } $ 之水平和垂直距離分別為 $ h , v $&lt;br /&gt;
&lt;br /&gt;
著 $ E [x _ { i } , x _ { j }]=\ rho _ { H } ^ { h } \ cdot \ rho _ { V } ^ { v } $&lt;br /&gt;
&lt;br /&gt;
以一三 x 二之輸入 $ X={ \ begin { bmatrix } x 一 &amp;amp; x 二 &amp;amp; x 三 \ \ x 四 &amp;amp; x 五 &amp;amp; x 六 \ end { bmatrix } } $ 為例現此時 $ C _ { x _ { i } x _ { j } }={ \ begin { bmatrix } 一 &amp;amp; \ rho _ { H } &amp;amp; \ rho _ { H } ^ { 二 } &amp;amp; \ rho _ { V } &amp;amp; \ rho _ { H } \ rho _ { V } &amp;amp; \ rho _ { H } ^ { 二 } \ cdot \ rho _ { V } \ \ \ rho _ { H } &amp;amp; 一 &amp;amp; \ rho _ { H } &amp;amp; \ rho _ { H } \ rho _ { V } &amp;amp; \ rho _ { V } &amp;amp; \ rho _ { H } \ rho _ { V } \ \ \ rho _ { H } ^ { 二 } \ rho _ { V } &amp;amp; \ rho _ { H } &amp;amp; 一 &amp;amp; \ rho _ { H } ^ { 二 } \ rho _ { V } &amp;amp; \ rho _ { H } \ rho _ { V } &amp;amp; \ rho _ { V } \ \ \ rho _ { V } &amp;amp; \ rho _ { H } \ rho _ { V } &amp;amp; \ rho _ { H } ^ { 二 } \ rho _ { V } &amp;amp; 一 &amp;amp; \ rho _ { H } &amp;amp; \ rho _ { H } ^ { 二 } \ \ \ rho _ { H } \ rho _ { V } &amp;amp; \ rho _ { V } &amp;amp; \ rho _ { H } \ rho _ { V } &amp;amp; \ rho _ { H } &amp;amp; 一 &amp;amp; \ rho _ { H } \ \ \ rho _ { H } ^ { 二 } \ rho _ { V } &amp;amp; \ rho _ { H } \ rho _ { V } &amp;amp; \ rho _ { V } &amp;amp; \ rho _ { H } ^ { 二 } &amp;amp; \ rho _ { H } &amp;amp; 一 \ end { bmatrix } } $&lt;br /&gt;
&lt;br /&gt;
毋過對任意 sài-sù 的水平抑是垂直方向之協方差矩陣會當表示成&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
C _ { xx }={ \ begin { bmatrix } \ rho &amp;amp; \ rho ^ { 二 } &amp;amp; \ dots &amp;amp; \ rho ^ { N 影一 } \ \ \ rho ^ { 二 } &amp;amp; \ rho &amp;amp; \ dots &amp;amp; \ rho ^ { N 鋪二 } \ \ \ vdots &amp;amp; \ vdots &amp;amp; \ ddots &amp;amp; \ vdots \ \ \ rho ^ { N 影一 } &amp;amp; \ rho ^ { N 鋪二 } &amp;amp; \ dots &amp;amp; \ rho \ end { bmatrix } }&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
會當發現其值干焦佮 $ | i-j | $ 有關，阮用其閉合形式，其基底元素 $ v _ { ij } $ 為&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
v _ { ij }={ \ sqrt { \ frac { 二 } { N + \ lambda _ { j } } } } \ sin { ( { \ frac { ( 二 i-N 影一 ) \ omega } { 二 } } + { \ frac { j \ pi } { 二 } } ) }&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
此處 $ \ lambda _ { j } $ 為 $ C _ { xx } $ 之特徵值&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
\ lambda _ { j }={ \ frac { 一-\ rho ^ { 二 } } { 一孵二 \ rho \ , \ cos { \ omega _ { j } } + \ rho ^ { 二 } } }&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
其中 $ \ tan ( N \ omega _ { j } )=-{ \ frac { ( 一-\ rho ^ { 二 } ) \ sin { \ omega _ { j } } } { \ cos { \ omega _ { j } } 鋪二 \ rho + \ rho ^ { 二 } \ cos { \ omega _ { j } } } } $&lt;br /&gt;
&lt;br /&gt;
對無仝的輸入影像，其實 $ \ rho $ 會有無仝款，若是予 $ \ rho \ rightarrow 一 $，此轉換毋免佮輸入相關，同時繼承矣 K-L 轉換去除相關性的媠性質。&lt;br /&gt;
&lt;br /&gt;
現此時 $ \ lambda _ { j }=\ left \ { { \ begin { matrix } N , &amp;amp; { \ mbox { if } } j=一 \ \ 零 , &amp;amp; { \ mbox { if } } j \ neq 一 \ end { matrix } } \ right . $&lt;br /&gt;
&lt;br /&gt;
代入上式，得 KLT | $ \ rho \ rightarrow 一 $，$ v _ { ij }=\ left \ { { \ begin { matrix } { \ sqrt { \ frac { 一 } { N } } } \ cos { \ frac { ( 二 i 影一 ) ( j 影一 ) \ pi } { 二 N } } , &amp;amp; { \ mbox { if } } j=一 \ \ { \ sqrt { \ frac { 二 } { N } } } \ cos { \ frac { ( 二 i 影一 ) ( j 影一 ) \ pi } { 二 N } } , &amp;amp; { \ mbox { if } } j \ neq 一 \ end { matrix } } \ right . $&lt;br /&gt;
&lt;br /&gt;
離散餘弦轉換較 K-L 轉換佇實務上比較有利，因為毋通紀錄會隨輸入改變的轉換矩陣。&lt;br /&gt;
&lt;br /&gt;
==KLT 佮 PCA 的區別==&lt;br /&gt;
&lt;br /&gt;
KLT 佮主成份析 ( PCA , Principle component analysis ) 有相𫝛的特性，二者之間有真幼的精差，其中 KLT 專門咧處理隨機性的訊號，猶毋過 PCA 則無這个限制。著 PCA 來講，遮假使做輸入訊號 ㄧ 向量，輸入向量 $ \ mathbf { x } $ 佇乘頂轉換矩陣 $ \ mathbf { W } $ 進前，會先將輸入向量扣去平均值，即 :&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
\ mathbf { X }=\ mathbf { W } ( \ mathbf { x }-{ \ bar { x } } )&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
PCA 會根據 $ \ mathbf { x } $ 之 covariance 矩陣來選擇特徵向量做轉換矩陣之內容：&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
E [( \ mathbf { x }-{ \ bar { x } } ) ( \ mathbf { x }-{ \ bar { x } } ) ^ { T }]=\ mathbf { W \ Lambda W } ^ { T }&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
其中 $ \ mathbf { \ Lambda } $ 為對角線矩陣而且對角線值為特徵值。&lt;br /&gt;
&lt;br /&gt;
由頂頭會當講 PCA 和 KLT 之差佇咧講敢有減去平均值，這是因為輸入資料分布的限制造成的，做輸入向量支平均值做零時，二這者無差。&lt;br /&gt;
&lt;br /&gt;
==應用==&lt;br /&gt;
&lt;br /&gt;
佇影像的壓縮頂懸，目的是欲共原始的影像檔用較少的資料量來表示，因為大部份的影像並且毋是隨機的分布，相鄰的像素 ( Pixal ) 間存在一寡相關性，咱若有法度揣著一種可能倒反換 ( reversible transformation )，伊會當去除數據的相關性，按呢一來就會當閣較有效地儲存資料，因為 K-L 轉換是一種線性轉換，並有去除資料相關性的特性，便會當共應用佇影像的壓縮頂懸。此外，因為 K-L 轉換具有共訊號轉到特徵的空間 ( eigenspace ) 的特性，所以也會當應用佇人面辨識頂懸。&lt;br /&gt;
&lt;br /&gt;
==參考文獻==&lt;br /&gt;
&lt;br /&gt;
一 . Ding , J . J . ( 二千空一十七 ) . Advanced Digital Signal Processing [Powerpoint slides] http : / / djj . ee . ntu . edu . tw / ADSP 八 . pdf&lt;br /&gt;
&lt;br /&gt;
二 . Gerbrands , J . J . , On the relationships between SVD , KLT , and PCA , Pattern Recogn . , 十四 ( 一千九百八十一 ) , pp . 三百七十五拍三百八十一&lt;br /&gt;
&lt;br /&gt;
[[分類: 待校正]]&lt;/div&gt;</summary>
		<author><name>TaiwanTonguesApiRobot</name></author>
	</entry>
</feed>