<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="zh-Hant-TW">
	<id>https://wiki.taigi.ima.org.tw/w/index.php?action=history&amp;feed=atom&amp;title=%E8%B2%9D%E6%B0%8F%E5%AE%9A%E7%90%86</id>
	<title>貝氏定理 - 修訂紀錄</title>
	<link rel="self" type="application/atom+xml" href="https://wiki.taigi.ima.org.tw/w/index.php?action=history&amp;feed=atom&amp;title=%E8%B2%9D%E6%B0%8F%E5%AE%9A%E7%90%86"/>
	<link rel="alternate" type="text/html" href="https://wiki.taigi.ima.org.tw/w/index.php?title=%E8%B2%9D%E6%B0%8F%E5%AE%9A%E7%90%86&amp;action=history"/>
	<updated>2026-04-24T16:07:10Z</updated>
	<subtitle>本 wiki 上此頁面的修訂紀錄</subtitle>
	<generator>MediaWiki 1.43.1</generator>
	<entry>
		<id>https://wiki.taigi.ima.org.tw/w/index.php?title=%E8%B2%9D%E6%B0%8F%E5%AE%9A%E7%90%86&amp;diff=374237&amp;oldid=prev</id>
		<title>TaiwanTonguesApiRobot：​從 JSON 檔案批量匯入</title>
		<link rel="alternate" type="text/html" href="https://wiki.taigi.ima.org.tw/w/index.php?title=%E8%B2%9D%E6%B0%8F%E5%AE%9A%E7%90%86&amp;diff=374237&amp;oldid=prev"/>
		<updated>2025-08-22T05:09:54Z</updated>

		<summary type="html">&lt;p&gt;從 JSON 檔案批量匯入&lt;/p&gt;
&lt;p&gt;&lt;b&gt;新頁面&lt;/b&gt;&lt;/p&gt;&lt;div&gt;&amp;#039;&amp;#039;&amp;#039;貝氏定理&amp;#039;&amp;#039;&amp;#039;（英語：Bayes&amp;#039;theorem）是機率論中的一个定理，描述講佇這个所在已經有一寡條件，某事件的發生機率。比如講，若已經知影健康問題佮壽命有關係，使用貝氏定理則會當通過知影某人年歲，來更加準確地計算出某人有某一種健康問題的機率。&lt;br /&gt;
&lt;br /&gt;
通常，事件 A 佇事件 B 有發生的條件下發生的機率，佮事件 B 佇事件 A 有發生的條件下發生的機率是無仝款。毋過，這兩个是有確定的關係的，貝氏定理就是這種關係的陳述。貝氏公式的一个用途，即透過了解的三个機率顛倒推出第四个機率。貝氏定理佮隨機變數的條件機率佮邊際機率分布有關。&lt;br /&gt;
&lt;br /&gt;
成做一个普遍的原理，貝氏定理對所有機率的解說是有效的。這一定理的主要應用做貝氏推論，是推論統計學中的一種推論法。這一定理名稱來自托馬斯 ・ 貝葉斯。&lt;br /&gt;
&lt;br /&gt;
==陳泗治==&lt;br /&gt;
&lt;br /&gt;
貝氏定理是關於隨機事件 A 和 B 的條件機率的一个定理。&lt;br /&gt;
&lt;br /&gt;
其中 $ A $ 以及 $ B $ 為隨機事件，而且 $ P ( B ) $ 無為零。$ P ( A \ mid B ) $ 是講佇事件 $ B $ 發生的狀況下事件 $ A $ 發生的機率。&lt;br /&gt;
&lt;br /&gt;
佇貝氏定理中，每一个名詞攏有約定俗成的名稱：&lt;br /&gt;
&lt;br /&gt;
* $ P ( A \ mid B ) $ 是已經知影 $ B $ 發生了後，$ A $ 的條件機率。嘛叫做 $ A $ 的事後機率。&lt;br /&gt;
* $ P ( A ) $ 是 $ A $ 的事前機率（抑是邊際機率）。 其實無考慮任何 $ B $ 方面的因素。&lt;br /&gt;
* $ P ( B \ mid A ) $ 是已經知影 $ A $ 發生了後，$ B $ 的條件機率。嘛會當講 $ B $ 的事後機率。某一寡文獻伊閣講其為咧特定 $ B $ 時，$ A $ 的概似性，因為 $ P ( B \ mid A )=L ( A \ mid B ) $。&lt;br /&gt;
* $ P ( B ) $ 是 $ B $ 的事前機率。&lt;br /&gt;
&lt;br /&gt;
按遮的術語，貝氏定理會當表述做：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: 事後機率=( 概似性 \ * 事前機率 ) / 標準化常數也就是講，事後機率佮事前機率佮相𫝛度的乘積做正比。&lt;br /&gt;
&lt;br /&gt;
另外咧，比例 $ P ( B | A ) / P ( B ) $ 嘛有時予人號做標准概似度（standardised likelihood）， 貝氏定理會當表述做：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: 事後機率=標準概似度 \ * 事前機率&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: 由貝氏公式 $ P ( \ theta | X )={ \ frac { P ( \ theta ) P ( X | \ theta ) } { P ( X ) } } \ propto P ( \ theta ) P ( X | \ theta ) $ 會當看出講，這內底的 $ \ theta $ 是一个隨機變數（因為乎 $ \ theta $ 有機率 $ P ( \ theta ) $）。 因為乎 $ P ( \ theta | X ) \ propto P ( \ theta ) P ( X | \ theta ) $，所以這嘛是貝氏估計佮極大概若像估計的區別所在，極大概若估計中間愛估計的母數是一般的變數，若貝氏估計中愛估計的母數是一个隨機變數。&lt;br /&gt;
&lt;br /&gt;
==對條件的機率推導貝氏定理==&lt;br /&gt;
&lt;br /&gt;
根據條件機率的定義。佇事件 $ B $ 發生的條件下事件 $ A $ 所發生的機率是：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ P ( A | B )={ \ frac { P ( A \ cap B ) } { P ( B ) } } $&lt;br /&gt;
&lt;br /&gt;
其中 $ A $ 佮 $ B $ 的聯合機率表示講 $ P ( A \ cap B ) $ 抑是講 $ P ( A , B ) $ 抑是講 $ P ( AB ) $。&lt;br /&gt;
&lt;br /&gt;
仝款所在，佇事件 $ A $ 發生的條件下事件 $ B $ 發生的機率&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ P ( B | A )={ \ frac { P ( A \ cap B ) } { P ( A ) } } \ ! $&lt;br /&gt;
&lt;br /&gt;
整理佮合併這兩个方程式，咱會當得著這个&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ P ( A | B ) \ , P ( B )=P ( A \ cap B )=P ( B | A ) \ , P ( A ) \ ! $&lt;br /&gt;
&lt;br /&gt;
這个引理有時號做機率乘法規則。上式兩爿同除以 $ P ( B ) $，若是 $ P ( B ) $ 是非零的，咱會使得著貝氏定理 :&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ P ( A | B )={ \ frac { P ( B | A ) \ , P ( A ) } { P ( B ) } } \ ! $&lt;br /&gt;
&lt;br /&gt;
==二中一个形式==&lt;br /&gt;
&lt;br /&gt;
貝氏定理通常會當閣寫做下跤的形式：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ P ( B )=P ( A \ cap B ) + P ( A ^ { C } \ cap B )=P ( B | A ) P ( A ) + P ( B | A ^ { C } ) P ( A ^ { C } ) $，&lt;br /&gt;
&lt;br /&gt;
其中 _ A _ C 是 A 的補集（即非 A）。 故頂懸式亦可寫做：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ P ( A | B )={ \ frac { P ( B | A ) \ , P ( A ) } { P ( B | A ) P ( A ) + P ( B | A ^ { C } ) P ( A ^ { C } ) } } \ ! $&lt;br /&gt;
&lt;br /&gt;
佇閣較一般化的狀況，準講 { _ A _ i } 是事件集合內底的部份集合，對任意的 _ A _ i，貝氏定理會當用下式表示：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ P ( A _ { i } | B )={ \ frac { P ( B | A _ { i } ) \ , P ( A _ { i } ) } { \ sum _ { j } P ( B | A _ { j } ) \ , P ( A _ { j } ) } } \ ! $&lt;br /&gt;
&lt;br /&gt;
===以可能性佮相仝率表示貝氏定理===&lt;br /&gt;
&lt;br /&gt;
貝氏定理亦可由相仝率 Λ 佮可能性 _ O _ 表示：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ O ( A | B )=O ( A ) \ cdot \ Lambda ( A | B ) $&lt;br /&gt;
&lt;br /&gt;
其中&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ O ( A | B )={ \ frac { P ( A | B ) } { P ( A ^ { C } | B ) } } \ ! $&lt;br /&gt;
&lt;br /&gt;
定義做 B 發生的時陣，A 發生的可能性（odds）；&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ O ( A )={ \ frac { P ( A ) } { P ( A ^ { C } ) } } \ ! $&lt;br /&gt;
&lt;br /&gt;
著著 A 發生的可能性。相𫝛率（Likelihood ratio）則定義做：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ \ Lambda ( A | B )={ \ frac { L ( A | B ) } { L ( A ^ { C } | B ) } }={ \ frac { P ( B | A ) } { P ( B | A ^ { C } ) } } \ ! $&lt;br /&gt;
&lt;br /&gt;
===貝氏定理和機率密度===&lt;br /&gt;
&lt;br /&gt;
貝氏定理亦可用佇連續機率分布。因為機率密度函數嚴格上並非機率，由機會密度函數引出貝氏定理的觀念較為困難（詳細推導參閱）。 貝氏定理和機率密度的關係是由求極限的方式建立：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ f ( x | y )={ \ frac { f ( x , y ) } { f ( y ) } }={ \ frac { f ( y | x ) \ , f ( x ) } { f ( y ) } } \ ! $&lt;br /&gt;
&lt;br /&gt;
全機率定理有類似的論述：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ f ( x | y )={ \ frac { f ( y | x ) \ , f ( x ) } { \ int _ {-\ infty } ^ { \ infty } f ( y | x ) \ , f ( x ) \ , dx } } . \ ! $&lt;br /&gt;
&lt;br /&gt;
親像離散的情形，公式內底的每項攏有名。_ f _ ( _ x _ , _ y _ ) 是 _ X _ 和 _ Y _ 伊的聯合分布；_ f _（_ x _ | _ y _）是予定 _ Y _=_ y _ 後，_ X _ 的代誌了後分布；_ f _（_ y _ | _ x _）=_ L _（_ x _ | _ y _）是 _ Y _=_ y _ 後，_ X _ 的相仝度函數（為 _ x _ 的函數 )；_ f _（_ x _）和 _ f _（_ y _）著著 _ X _ 和 _ Y _ 邊的際份布；_ f _（_ x _）著著 _ X _ 的事前分佈。&lt;br /&gt;
為著方便起見，遮的 _ f _ 佇遮的專有名詞內底代表無仝的函數（會當由引數的無仝判斷）。&lt;br /&gt;
&lt;br /&gt;
===貝氏定理的推廣===&lt;br /&gt;
&lt;br /&gt;
對變數有兩个以上的這个情況，貝氏定理亦成立。比如講：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ P ( A | B , C )={ \ frac { P ( A ) \ , P ( B | A ) \ , P ( C | A , B ) } { P ( B ) \ , P ( C | B ) } } \ ! $&lt;br /&gt;
&lt;br /&gt;
這个式會當由套用濟改兩个變數的貝氏定理佮條件機率的定義導出：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ P ( A | B , C )={ \ frac { P ( A , B , C ) } { P ( B , C ) } }={ \ frac { P ( A , B , C ) } { P ( B ) \ , P ( C | B ) } } $&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $={ \ frac { P ( C | A , B ) \ , P ( A , B ) } { P ( B ) \ , P ( C | B ) } }={ \ frac { P ( A ) \ , P ( B | A ) \ , P ( C | A , B ) } { P ( B ) \ , P ( C | B ) } } $&lt;br /&gt;
&lt;br /&gt;
一般化的方法則是利用聯合機率去分解待求的條件機率，並無加以探討的變數角度（意即從要探討的變數計算邊際機率）。 攏著愛看無仝款的分解形式，會當證明某積分必為一，按呢的分解形式會當予人簡化。利用這个性質，貝氏定理的計算量可能會當大幅下降。貝氏網路為此方法的一个例，貝氏網路指定幾若个變數的聯合機率分佈的分解型式，機率分佈滿足下述條件：當其他變數的條件機率予定時，該變數的條件的機率做一簡單的型式。&lt;br /&gt;
&lt;br /&gt;
==範例==&lt;br /&gt;
&lt;br /&gt;
===食毒者檢測===&lt;br /&gt;
&lt;br /&gt;
下面展示貝氏定理佇檢測食毒者的應用。假設一个定定規的檢測結果的靈敏度佮特異度攏為百分之九十九，即吸毒者每擺檢測呈陽性（+）的機率做百分之九十九。吸毒者每擺檢測呈陰性（-） 的機率做百分之九十九。對檢測結果的機率來看，檢測結果是較準確實，但是貝氏定理煞會當揭示一个藏佇的問題。假設某公司對全體雇員進行吸毒檢測，已經知百分之空七五的雇員食毒。請問每位檢測結果呈陽性的雇員吸毒的機率有偌懸？&lt;br /&gt;
&lt;br /&gt;
令「D」為雇員吸毒事件，「 N」為雇員無食毒的事件，「 +」為檢測呈陽性的事件。可得&lt;br /&gt;
&lt;br /&gt;
* P ( D ) 代表雇員食毒的機率，無考慮其他的狀況，該值為空遞零零五。因為公司的雇員進前統計表明該公司的雇員內底有百分之空七五的人食毒品，所以這个值就是 D 的事前機率。&lt;br /&gt;
* P ( N ) 代表雇員無食毒的機率，顯然，該值為空芳九九五，也就是一-P ( D )。&lt;br /&gt;
* P ( + | D ) 代表吸毒者被驗出為陽性的機率，這是一个條件的機率，因為陽性檢測準確性是百分之九十九，所以這該值為零交九九。&lt;br /&gt;
* P ( + | N ) 代表袂吸毒者被驗出為陽性的機率，也就是出錯檢測的機率，該值為零交零一。因為這對袂食毒者，其實檢測做陰性的機率做百分之九十九，所以，其實予人誤檢測做陽性的機率一-空九九九=空九九空一。&lt;br /&gt;
* P ( + ) 代表無考慮其他因素的影響的陽性檢出率，白話來講，即該公司有偌濟比例的檢測結果為陽性。該值為空隙空一四九抑是百分之一刣四九。咱會當通過全機率公式計算會到：此機率=身為吸毒者的機率 x 食毒被驗出陽性的機率（百分之空抹五 x 百分之九十九=百分之空抹四九五 ) + 身為無吸毒者的機率 x 無毒煞被驗出陽性的機率（百分之九十九石頭五 x 百分之一=百分之空抹九九五 )。P ( + )=空九二一四九是檢測呈陽性的事前機率。用數學公式咧講：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ P ( + )=P ( + \ cap D ) + P ( + \ cap N )=P ( + | D ) P ( D ) + P ( + | N ) P ( N ) $&lt;br /&gt;
&lt;br /&gt;
根據欲講，阮會當計算某人檢測呈陽性的時陣有影食毒的條件機率 P ( D | + )：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ { \ begin { aligned } P ( D | + ) &amp;amp;={ \ frac { P ( + | D ) P ( D ) } { P ( + ) } } \ \ &amp;amp;={ \ frac { P ( + | D ) P ( D ) } { P ( + | D ) P ( D ) + P ( + | N ) P ( N ) } } \ \ &amp;amp;={ \ frac { 空九九九 \ times 空九空空五 } { 空九九九 \ times 空九空空五 + 空九九空一 \ times 空九九五 } } \ \ &amp;amp;=空九三三二二 . \ end { aligned } } $&lt;br /&gt;
&lt;br /&gt;
就算吸毒檢測的準確率懸到百分之九十九，但貝氏定理共咱講：若是某人檢測呈陽性，其他的機率只有大約百分之三十三，無食毒的可能性會較大。假陽性懸，著檢測的結果袂使靠。這是因為公司袂食毒的人數遠遠大於吸毒人數，所以就算袂吸毒者被誤檢做陽性的機率干焦是百分之一，其實際予人誤檢的人數猶是真大。比如講伊，若該公司攏總有一千人（其中五个人食毒，九百九十五人毋吸）， 無食毒的人被檢測出陽性的人數有大約十人（百分之一 x 九百九十五）， 吸毒被驗出陽性的人數有五个人（百分之九十九 x 五）， 攏總十五个人被驗出陽性（十 + 五）。 佇咧這十五人內底，只有大約百分之三十三的人是真正有食毒。所以貝氏定理會當公開這檢測佇這个案例內底的袂當靠。&lt;br /&gt;
&lt;br /&gt;
同時，嘛因為袂當靠的主因為是袂食毒煞予人誤檢陽性的人數傷濟佇食毒予人檢測出來的人數（欲講例中十人 &amp;gt; 五人）， 所以就算陽性檢測靈敏度會當到百分之一百（只要食毒一定驗出陽性）， 檢測結果陽性的員工，真正食毒的機率 $ P ( D | + ) $ 嘛干焦會提懸到約百分之三十三石頭四。毋過若靈敏度猶是百分之九十九，特異度煞提懸到百分之九十九石五（也無食毒的人內底，大約是百分之空抹五會去予人誤檢做陽性）， 著檢測結果陽性的員工，真正食毒的機率會當提懸到百分之四十九嬸九。&lt;br /&gt;
&lt;br /&gt;
===胰腺癌檢測===&lt;br /&gt;
&lt;br /&gt;
基於貝氏定理：就算百分之一百的胰腺癌症患者攏有某症頭，啊若某人有仝款的症頭，絕對無代表講該人有百分之一百的機率著胰腺癌，閣需要考慮事前機率，假使胰腺癌的發病率是十萬分之一，全球有仝款症頭的人有萬分之一，所以人著胰腺癌的機率只有十分之一，百分之九十的可能是假陽性。&lt;br /&gt;
&lt;br /&gt;
===不良種子檢測===&lt;br /&gt;
&lt;br /&gt;
基於貝氏定理：假使百分之一百的不良種子嘛攏表現 A 性地，種子表現出來 A 性地，並無代表講這款的子百分之一百是無好種子，閣需要考慮事前機率，假使講攏總有六萬粒不良種子，佇咧種子中的比例是十萬分之一（準講總共有六十億種子）， 假設所有種子中有三分之一表現 A 性地（即二十億粒的種子表現 A 性地）， 是按呢種子為不良種子的機率只有十萬分之三。&lt;br /&gt;
&lt;br /&gt;
==參見==&lt;br /&gt;
&lt;br /&gt;
* 機率論&lt;br /&gt;
* 貝氏機率&lt;br /&gt;
* 貝氏推理&lt;br /&gt;
&lt;br /&gt;
==參考文獻==&lt;br /&gt;
&lt;br /&gt;
==外部連結==&lt;br /&gt;
&lt;br /&gt;
* 數學了美番外篇：平凡若閣神奇的貝氏方法&lt;br /&gt;
&lt;br /&gt;
[[分類: 待校正]]&lt;/div&gt;</summary>
		<author><name>TaiwanTonguesApiRobot</name></author>
	</entry>
</feed>