<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="zh-Hant-TW">
	<id>https://wiki.taigi.ima.org.tw/w/index.php?action=history&amp;feed=atom&amp;title=%E8%B2%BB%E9%9B%AA%E7%B7%9A%E6%80%A7%E5%88%A4%E5%88%A5</id>
	<title>費雪線性判別 - 修訂紀錄</title>
	<link rel="self" type="application/atom+xml" href="https://wiki.taigi.ima.org.tw/w/index.php?action=history&amp;feed=atom&amp;title=%E8%B2%BB%E9%9B%AA%E7%B7%9A%E6%80%A7%E5%88%A4%E5%88%A5"/>
	<link rel="alternate" type="text/html" href="https://wiki.taigi.ima.org.tw/w/index.php?title=%E8%B2%BB%E9%9B%AA%E7%B7%9A%E6%80%A7%E5%88%A4%E5%88%A5&amp;action=history"/>
	<updated>2026-05-15T02:10:46Z</updated>
	<subtitle>本 wiki 上此頁面的修訂紀錄</subtitle>
	<generator>MediaWiki 1.43.1</generator>
	<entry>
		<id>https://wiki.taigi.ima.org.tw/w/index.php?title=%E8%B2%BB%E9%9B%AA%E7%B7%9A%E6%80%A7%E5%88%A4%E5%88%A5&amp;diff=455522&amp;oldid=prev</id>
		<title>TaiwanTonguesApiRobot：​從 JSON 檔案批量匯入</title>
		<link rel="alternate" type="text/html" href="https://wiki.taigi.ima.org.tw/w/index.php?title=%E8%B2%BB%E9%9B%AA%E7%B7%9A%E6%80%A7%E5%88%A4%E5%88%A5&amp;diff=455522&amp;oldid=prev"/>
		<updated>2025-08-23T03:17:08Z</updated>

		<summary type="html">&lt;p&gt;從 JSON 檔案批量匯入&lt;/p&gt;
&lt;p&gt;&lt;b&gt;新頁面&lt;/b&gt;&lt;/p&gt;&lt;div&gt;佇咧模式識別中，&amp;#039;&amp;#039;&amp;#039;費雪線性判別&amp;#039;&amp;#039;&amp;#039;（Fisher&amp;#039;s linear discriminant）是一種線性判別方法，其意圖是咧分類別為 c 類時，將 d 維空間（看仿的點是 d 維向量）中的數據點投影到 c 糊一維空間起去，予無仝類的樣本點佇這个空間頂懸的投影雖然分離，仝類的盡量鬥起來。&lt;br /&gt;
&lt;br /&gt;
==兩類情形==&lt;br /&gt;
&lt;br /&gt;
佇咧二類判別時，費雪線性判別將&amp;#039;&amp;#039;&amp;#039;d&amp;#039;&amp;#039;&amp;#039;維空間內底的數據點投影到一條直線頂懸去，予無仝類的款本點佇這條直線頂的投影雖然分離，仝類的款本點佇這條直線頂懸量共鬥予絚。假使有兩類平本集 $ { \ mathcal { D } } _ { 一 } $ 的類別為&amp;#039;&amp;#039;&amp;#039;ω&amp;#039;&amp;#039;&amp;#039;一，樣本數為&amp;#039;&amp;#039;&amp;#039;n&amp;#039;&amp;#039;&amp;#039;一，$ { \ mathcal { D } } _ { 二 } $ 的類別為&amp;#039;&amp;#039;&amp;#039;ω&amp;#039;&amp;#039;&amp;#039;二，樣本數為&amp;#039;&amp;#039;&amp;#039;n&amp;#039;&amp;#039;&amp;#039;二。定義樣本均值&amp;#039;&amp;#039;&amp;#039;m&amp;#039;&amp;#039;&amp;#039;i 佮類內散佈&amp;#039;&amp;#039;&amp;#039;S&amp;#039;&amp;#039;&amp;#039;i。&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ \ mathbf { m } _ { i }={ \ frac { 一 } { n _ { i } } } \ sum _ { x \ in { \ mathcal { D } } _ { i } } \ mathbf { x } , i=一 , 二 $&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ \ mathbf { S } _ { i }=\ sum _ { x \ in { \ mathcal { D } } _ { i } } \ left ( \ mathbf { x }-\ mathbf { m } _ { i } \ right ) \ left ( \ mathbf { x }-\ mathbf { m } _ { i } \ right ) ^ { t } , i=一 , 二 $&lt;br /&gt;
&lt;br /&gt;
投影直線的方向咧量做&amp;#039;&amp;#039;&amp;#039;w&amp;#039;&amp;#039;&amp;#039;，樣本投影佇直線頂的值為 _ y _。是會當兩類平本投影后的均值和類內散佈為 $ { \ tilde { m } } _ { i } $ 和 $ { \ tilde { s } } _ { i } ^ { 二 } $，&amp;#039;&amp;#039;&amp;#039;i&amp;#039;&amp;#039;&amp;#039;=一 , 二。&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ y=\ mathbf { w } ^ { t } \ mathbf { x } \ quad { \ tilde { m } } _ { i }=\ mathbf { w } ^ { t } \ mathbf { m } _ { i } , i=一 , 二 $&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ { \ begin { aligned } { \ tilde { s } } _ { i } ^ { 二 } &amp;amp;=\ sum _ { y \ in { \ mathcal { Y } } _ { i } } \ left ( y-{ \ tilde { m } } _ { i } \ right ) ^ { 二 } \ \ &amp;amp;=\ sum _ { x \ in { \ mathcal { D } } _ { i } } \ left ( \ mathbf { w } ^ { t } \ mathbf { x }-\ mathbf { w } ^ { t } \ mathbf { m } _ { i } \ right ) ^ { 二 } \ \ &amp;amp;=\ sum _ { x \ in { \ mathcal { D } } _ { i } } \ mathbf { w } ^ { t } \ left ( \ mathbf { x }-\ mathbf { m } _ { i } \ right ) \ left ( \ mathbf { x }-\ mathbf { m } _ { i } \ right ) ^ { t } \ mathbf { w } \ \ &amp;amp;=\ mathbf { w } ^ { t } \ mathbf { S } _ { i } \ mathbf { w } \ end { aligned } } $&lt;br /&gt;
&lt;br /&gt;
欲予無仝類的平本點的投影量分離，仝類做伙趕緊鬥，會使予兩類的投影的平均值的差別盡量大，其實差的佮盡量細，伊嘛是要求 $ { \ frac { \ left | { \ tilde { m } } _ { 一 }-{ \ tilde { m } } _ { 二 } \ right | ^ { 二 } } { { \ tilde { s } } _ { 一 } ^ { 二 } + { \ tilde { s } } _ { 二 } ^ { 二 } } } $ 上大化。&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ { \ begin { aligned } { \ boldsymbol { J } } ( \ mathbf { w } ) &amp;amp;={ \ frac { \ left | { \ tilde { m } } _ { 一 }-{ \ tilde { m } } _ { 二 } \ right | ^ { 二 } } { { \ tilde { s } } _ { 一 } ^ { 二 } + { \ tilde { s } } _ { 二 } ^ { 二 } } } \ \ &amp;amp;={ \ frac { \ left ( \ mathbf { w } ^ { t } \ mathbf { m } _ { 一 }-\ mathbf { w } ^ { t } \ mathbf { m } _ { 二 } \ right ) ^ { 二 } } { \ mathbf { w } ^ { t } \ mathbf { S } _ { 一 } \ mathbf { w } + \ mathbf { w } ^ { t } \ mathbf { S } _ { 二 } \ mathbf { w } } } \ \ &amp;amp;={ \ frac { \ mathbf { w } ^ { t } \ left ( \ mathbf { m } _ { 一 }-\ mathbf { m } _ { 二 } \ right ) \ left ( \ mathbf { m } _ { 一 }-\ mathbf { m } _ { 二 } \ right ) ^ { t } \ mathbf { w } } { \ mathbf { w } ^ { t } \ left ( \ mathbf { S } _ { 一 } + \ mathbf { S } _ { 二 } \ right ) \ mathbf { w } } } \ \ &amp;amp;={ \ frac { \ mathbf { w } ^ { t } \ mathbf { S _ { B } } \ mathbf { w } } { \ mathbf { w } ^ { t } \ mathbf { S _ { W } } \ mathbf { w } } } \ \ \ end { aligned } } $&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ \ mathbf { S _ { B } }=\ left ( \ mathbf { m } _ { 一 }-\ mathbf { m } _ { 二 } \ right ) \ left ( \ mathbf { m } _ { 一 }-\ mathbf { m } _ { 二 } \ right ) ^ { t } , \ mathbf { S _ { W } }=\ left ( \ mathbf { S } _ { 一 } + \ mathbf { S } _ { 二 } \ right ) $&lt;br /&gt;
&lt;br /&gt;
會當證明當&amp;#039;&amp;#039;&amp;#039;w&amp;#039;&amp;#039;&amp;#039;滿足 $ \ mathbf { S _ { B } w }=\ lambda \ mathbf { S _ { W } w } $，即&amp;#039;&amp;#039;&amp;#039;w&amp;#039;&amp;#039;&amp;#039;的方向佮 $ \ mathbf { S _ { W } } ^ { 影一 } \ left ( \ mathbf { m } _ { 一 }-\ mathbf { m } _ { 二 } \ right ) $ 相仝彼時陣，_&amp;#039;&amp;#039;&amp;#039;J&amp;#039;&amp;#039;&amp;#039;_ (&amp;#039;&amp;#039;&amp;#039;w&amp;#039;&amp;#039;&amp;#039;) 取得上大的值。賰的問題就是按怎求解交易&amp;#039;&amp;#039;&amp;#039;w&amp;#039;&amp;#039;&amp;#039;零，也就是這个一維空間內底共兩類分開的彼个點的位。當 _&amp;#039;&amp;#039;&amp;#039;J&amp;#039;&amp;#039;&amp;#039;_ (&amp;#039;&amp;#039;&amp;#039;w&amp;#039;&amp;#039;&amp;#039;) 超過&amp;#039;&amp;#039;&amp;#039;w&amp;#039;&amp;#039;&amp;#039;零就判決做某一類別&amp;#039;&amp;#039;&amp;#039;ω&amp;#039;&amp;#039;&amp;#039;，抑無就是判決做另外一類別。毋過目前並無一个通用的選取方法。&lt;br /&gt;
&lt;br /&gt;
佇兩个類別的分布是多元常態分布，而且協方差矩陣仝款的時陣，根據貝葉斯決策理論，$ \ mathbf { w }=\ mathbf { \ Sigma } ^ { 影一 } \ left ( \ mathbf { u } _ { 一 }-\ mathbf { u } _ { 二 } \ right ) $，並且&amp;#039;&amp;#039;&amp;#039;w&amp;#039;&amp;#039;&amp;#039;零是一个佮&amp;#039;&amp;#039;&amp;#039;w&amp;#039;&amp;#039;&amp;#039;佮先驗概率有關係的常數。咱會當用樣本均值佮樣本協方差去估計&amp;#039;&amp;#039;&amp;#039;u&amp;#039;&amp;#039;&amp;#039;i 和&amp;#039;&amp;#039;&amp;#039;Σ&amp;#039;&amp;#039;&amp;#039;。閣較一般來講，若是咱對投影后的數據咧行平滑，抑用一維高斯函數進行擬合，&amp;#039;&amp;#039;&amp;#039;ω&amp;#039;&amp;#039;&amp;#039;零就佇咧使兩類的後驗概率仝款的位置。&lt;br /&gt;
&lt;br /&gt;
==有足濟類的狀況==&lt;br /&gt;
&lt;br /&gt;
費雪線性判別佇面對二類判別時，共兩類本向一條直線佇咧投影，也就是將數據對 d 維空間向一維空間投影。按呢佇咧面對 c 因為一切的時陣，所欲做就是將數據對 d 維空間向 c 鋪一維空間投影。這就需要推廣投影方程、類間散布矩陣&amp;#039;&amp;#039;&amp;#039;S&amp;#039;&amp;#039;&amp;#039;B 佮類內散佈矩陣&amp;#039;&amp;#039;&amp;#039;S&amp;#039;&amp;#039;&amp;#039;W。對 d 維空間向 c 鋪一維空間的投影是通過 c 抹一投影方程進行的：&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
y _ { i }=\ mathbf { w } _ { i } ^ { t } \ mathbf { x } , \ mathbf { x } \ in { \ mathcal { D } } _ { i } \ quad i=一 , \ ldots , c 影一&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
遮的 $ { \ mathcal { D } } _ { i } $ 為第 i 類的樣本集。設 $ \ mathbf { y }=[y _ { 一 } , y _ { 二 } , \ ldots , y _ { c 影一 }] ^ { t } \ quad \ mathbf { W }=[w _ { 一 } , w _ { 二 } , \ ldots , w _ { c 影一 }] $，c 學一个方程會當閣較簡練的表達：&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
\ mathbf { y }=\ mathbf { W } ^ { t } \ mathbf { x } , \ mathbf { y } \ in { \ mathcal { Y } } _ { i } \ quad i=一 , \ ldots , c 影一&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
遮的 $ { \ mathcal { Y } } _ { i } $ 為第 i 類似本的投影向量集。類間散布矩陣&amp;#039;&amp;#039;&amp;#039;S&amp;#039;&amp;#039;&amp;#039;B 佮類內散佈矩陣&amp;#039;&amp;#039;&amp;#039;S&amp;#039;&amp;#039;&amp;#039;W 會當由總體散布矩陣&amp;#039;&amp;#039;&amp;#039;S&amp;#039;&amp;#039;&amp;#039;T 佮總體攏值向量&amp;#039;&amp;#039;&amp;#039;m&amp;#039;&amp;#039;&amp;#039;推導會著：$ \ mathbf { m }={ \ frac { 一 } { n } } \ sum _ { \ mathbf { x } } \ mathbf { x }={ \ frac { 一 } { n } } \ sum _ { i=一 } ^ { c } n _ { i } \ mathbf { m } _ { i } \ qquad \ mathbf { S } _ { T }=\ sum _ { \ mathbf { x } } ( \ mathbf { x }-\ mathbf { m } ) ( \ mathbf { x }-\ mathbf { m } ) ^ { t } $&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
{ \ begin { aligned } \ mathbf { S } _ { T } &amp;amp;=\ sum _ { i=一 } ^ { c } \ sum _ { \ mathbf { x } \ in { \ mathcal { D } } _ { i } } ( \ mathbf { x }-\ mathbf { m } _ { i } + \ mathbf { m } _ { i }-\ mathbf { m } ) ( \ mathbf { x }-\ mathbf { m } _ { i } + \ mathbf { m } _ { i }-\ mathbf { m } ) ^ { t } \ \ &amp;amp;=\ sum _ { i=一 } ^ { c } \ sum _ { \ mathbf { x } \ in { \ mathcal { D } } _ { i } } ( \ mathbf { x }-\ mathbf { m } _ { i } ) ( \ mathbf { x }-\ mathbf { m } _ { i } ) ^ { t } + \ sum _ { i=一 } ^ { c } \ sum _ { \ mathbf { x } \ in { \ mathcal { D } } _ { i } } ( \ mathbf { m } _ { i }-\ mathbf { m } ) ( \ mathbf { m } _ { i }-\ mathbf { m } ) ^ { T } \ \ \ end { aligned } }&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
定義類的散佈矩陣&amp;#039;&amp;#039;&amp;#039;S&amp;#039;&amp;#039;&amp;#039;B 佮類內散佈矩陣&amp;#039;&amp;#039;&amp;#039;S&amp;#039;&amp;#039;&amp;#039;W：&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
\ mathbf { S } _ { W }=\ sum _ { i=一 } ^ { c } \ sum _ { \ mathbf { x } \ in { \ mathcal { D } } _ { i } } ( \ mathbf { x }-\ mathbf { m } _ { i } ) ( \ mathbf { x }-\ mathbf { m } _ { i } ) ^ { t } \ quad \ mathbf { S _ { B } }=\ sum _ { i=一 } ^ { c } \ sum _ { \ mathbf { x } \ in { \ mathcal { D } } _ { i } } ( \ mathbf { m } _ { i }-\ mathbf { m } ) ( \ mathbf { m } _ { i }-\ mathbf { m } ) ^ { T }&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
\ mathbf { S } _ { T }=\ mathbf { S } _ { W } + \ mathbf { S _ { B } }&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
遐爾仔本數據的投影向量的類間散布矩陣 $ { \ widetilde { \ mathbf { S } } } _ { \ mathbf { B } } $ 佮類內散佈矩陣 $ { \ widetilde { \ mathbf { S } } } _ { \ mathbf { W } } $：即為：&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
{ \ widetilde { \ mathbf { S } } } _ { \ mathbf { B } }=\ sum _ { i=一 } ^ { c } \ sum _ { \ mathbf { y } \ in { \ mathcal { Y } } _ { i } } ( { \ widetilde { \ mathbf { m } } } _ { i }-{ \ widetilde { \ mathbf { m } } } ) ( { \ widetilde { \ mathbf { m } } } _ { i }-{ \ widetilde { \ mathbf { m } } } ) ^ { T }=\ mathbf { W } ^ { t } \ mathbf { S _ { B } } \ mathbf { W }&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
{ \ widetilde { \ mathbf { S } } } _ { \ mathbf { W } }=\ sum _ { i=一 } ^ { c } \ sum _ { \ mathbf { y } \ in { \ mathcal { Y } } _ { i } } ( \ mathbf { y }-{ \ widetilde { \ mathbf { m } } } _ { i } ) ( \ mathbf { y }-{ \ widetilde { \ mathbf { m } } } _ { i } ) ^ { t }=\ mathbf { W } ^ { t } \ mathbf { S _ { W } } \ mathbf { W }&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
佮兩類情形類似，欲揣著某一&amp;#039;&amp;#039;&amp;#039;W&amp;#039;&amp;#039;&amp;#039;予類似內散布盡量細，散布盡量大。但是遮的類內散佈佮類間散布不再是一個值，是一个矩陣。矩陣的行列式是矩陣的特徵值的乘積，也就是講數據佇咧各個主要的方向的差的積，等於是類別散布超雞卵糕體積的平方。故使用行列式來度量散布，按呢判別函數就算做 $ { \ boldsymbol { J } } ( \ mathbf { w } )={ \ frac { | { \ widetilde { \ mathbf { S } } } _ { \ mathbf { B } } | } { | { \ widetilde { \ mathbf { S } } } _ { \ mathbf { W } } | } }={ \ frac { | \ mathbf { W } ^ { t } \ mathbf { S _ { B } } \ mathbf { W } | } { | \ mathbf { W } ^ { t } \ mathbf { S _ { W } } \ mathbf { W } | } } $&lt;br /&gt;
&lt;br /&gt;
會當證明，當&amp;#039;&amp;#039;&amp;#039;W&amp;#039;&amp;#039;&amp;#039;的列向量&amp;#039;&amp;#039;&amp;#039;w&amp;#039;&amp;#039;&amp;#039;i 是 $ \ mathbf { S _ { B } } \ mathbf { w } _ { i }=\ mathbf { \ lambda } _ { i } \ mathbf { S _ { W } } \ mathbf { w } _ { i } $ 的廣義特徵向量的時，有法度予 _&amp;#039;&amp;#039;&amp;#039;J&amp;#039;&amp;#039;&amp;#039;_ (&amp;#039;&amp;#039;&amp;#039;w&amp;#039;&amp;#039;&amp;#039;) 上大。因為乎&amp;#039;&amp;#039;&amp;#039;S&amp;#039;&amp;#039;&amp;#039;B 中 c 一秩為一抑是零的矩陣相加，而且其中干焦 c 學一个矩陣是互相獨立的。所以乎&amp;#039;&amp;#039;&amp;#039;S&amp;#039;&amp;#039;&amp;#039;B 的秩上濟為 c 影一。所以上濟干焦 c 學一个特徵向量是非零的。&lt;br /&gt;
&lt;br /&gt;
==應用==&lt;br /&gt;
&lt;br /&gt;
===尪仔面熟別===&lt;br /&gt;
&lt;br /&gt;
佇咧人面捌別中，每一个人面圖像具有大量的像素點。LDA 主要用來共特徵減少到一个會當處理的數目咧進行分類。每一个新的維度攏是原先像素值的線性組合，這就構成一个模仔。按呢得著的線性組合予人叫做 Fisher faces , 通過主成分析得著的則叫做特徵面。&lt;br /&gt;
&lt;br /&gt;
==參考文獻==&lt;br /&gt;
&lt;br /&gt;
* Duda , R . O . ; Hart , P . E . ; Stork , D . H . Pattern Classification 二版。機械工業出版社 . 兩千空四 . ISBN  七刣一百一十一孵一孵三千六百八十七-X .&lt;br /&gt;
* Fisher , R . A . The Use of Multiple Measurements in Taxonomic Problems . Annals of Eugenics . 一千九百三十六 ,&amp;#039;&amp;#039;&amp;#039;七&amp;#039;&amp;#039;&amp;#039;( 二 ) : 一百七十九–一百八十八 . doi : 十席一一一一 / j . 一千四百六十九石一千八百空九石一九三六 . tb 兩千一百三十七 . x . hdl : 一石五千兩百二十七分之兩千四百四十 .&lt;br /&gt;
&lt;br /&gt;
[[分類: 待校正]]&lt;/div&gt;</summary>
		<author><name>TaiwanTonguesApiRobot</name></author>
	</entry>
</feed>