<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="zh-Hant-TW">
	<id>https://wiki.taigi.ima.org.tw/w/index.php?action=history&amp;feed=atom&amp;title=%E9%AE%91%E5%A7%86-%E9%9F%8B%E7%88%BE%E5%A5%87%E7%AE%97%E6%B3%95</id>
	<title>鮑姆-韋爾奇算法 - 修訂紀錄</title>
	<link rel="self" type="application/atom+xml" href="https://wiki.taigi.ima.org.tw/w/index.php?action=history&amp;feed=atom&amp;title=%E9%AE%91%E5%A7%86-%E9%9F%8B%E7%88%BE%E5%A5%87%E7%AE%97%E6%B3%95"/>
	<link rel="alternate" type="text/html" href="https://wiki.taigi.ima.org.tw/w/index.php?title=%E9%AE%91%E5%A7%86-%E9%9F%8B%E7%88%BE%E5%A5%87%E7%AE%97%E6%B3%95&amp;action=history"/>
	<updated>2026-04-24T07:22:50Z</updated>
	<subtitle>本 wiki 上此頁面的修訂紀錄</subtitle>
	<generator>MediaWiki 1.43.1</generator>
	<entry>
		<id>https://wiki.taigi.ima.org.tw/w/index.php?title=%E9%AE%91%E5%A7%86-%E9%9F%8B%E7%88%BE%E5%A5%87%E7%AE%97%E6%B3%95&amp;diff=373898&amp;oldid=prev</id>
		<title>TaiwanTonguesApiRobot：​從 JSON 檔案批量匯入</title>
		<link rel="alternate" type="text/html" href="https://wiki.taigi.ima.org.tw/w/index.php?title=%E9%AE%91%E5%A7%86-%E9%9F%8B%E7%88%BE%E5%A5%87%E7%AE%97%E6%B3%95&amp;diff=373898&amp;oldid=prev"/>
		<updated>2025-08-22T05:07:21Z</updated>

		<summary type="html">&lt;p&gt;從 JSON 檔案批量匯入&lt;/p&gt;
&lt;p&gt;&lt;b&gt;新頁面&lt;/b&gt;&lt;/p&gt;&lt;div&gt;佇咧電氣的工程、計算機科學、統計算佮生物信息學中，&amp;#039;&amp;#039;&amp;#039;鮑姆-韋爾奇算法&amp;#039;&amp;#039;&amp;#039;是用佇咧走揣隱馬爾可夫模型無知影參數的上大向望算法，伊利用頭前向-後向算法來計算 E-Step 的統計信息。&lt;br /&gt;
&lt;br /&gt;
==歷史==&lt;br /&gt;
&lt;br /&gt;
鮑姆-韋爾奇算法是以其發明者倫納德 ・ 埃紹 ・ 鮑姆佮勞埃德 ・ 理察 ・ 韋爾奇的名字號的。鮑姆-韋爾奇算法佮隱馬爾可夫模型佇二十世紀六空年代尾佮七空年代初由鮑姆佮伊的同事佇國防分析研究所的一系列文章中頭擺描述。HMMs 頭起主要應用佇語音處理領域。二十世紀八空年代，HMMs 開始成做分析生物系統佮信息，特別是遺傳信息的有用工具。此後，𪜶成做基因組序列概率建模的重要工具。&lt;br /&gt;
&lt;br /&gt;
==介紹==&lt;br /&gt;
&lt;br /&gt;
隱馬爾有可夫模型來講一組「隱含」變量佮會當縮短的離散隨機變量的聯合概率。伊依賴佇假設：第 $ i $ 一个藏的變量干焦佮第 $ i 影一 $ 隱含變量相關，佮其他進前的隱藏變量無關係，當前觀測著的狀態干焦依賴佇當前的隱藏狀態。&lt;br /&gt;
&lt;br /&gt;
鮑姆-韋爾奇算法利用上大向望算法，會予定一組觀測特徵向量的情況下，求出隱馬爾可夫模型參數的上大若親像估計。&lt;br /&gt;
&lt;br /&gt;
記離散的隱含隨機變量為 $ X _ { t } $，伊攏總有 $ N $ 種狀態 ( $ X _ { t } $ 有 $ N $ 個無仝的值 )。設 $ P ( X _ { t } | X _ { t 影一 } ) $ 佮時間無關係，得著佮時間無關係的隨機變量轉移矩陣：&lt;br /&gt;
&lt;br /&gt;
$ A=\ { a _ { ij } \ }=P ( X _ { t }=j | X _ { t 影一 }=i ) $&lt;br /&gt;
初始的狀態 ( 即 $ t=一 $ ) 分佈由下式共出：&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
\ pi _ { i }=P ( X _ { 一 }=i )&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
記觀測著的變量為 $ Y _ { t } $，攏總有 $ K $ 種取值。仝款假影由隱含變量得著的可觀測變量佮時間無關係。佇時間 $ t $，由隱含變量 $ X _ { t }=j $ 得著的會當觀察變量 $ Y _ { t }=y _ { i } $ 的概率是：&lt;br /&gt;
&lt;br /&gt;
$ $&lt;br /&gt;
b _ { j } ( y _ { i } )=P ( Y _ { t }=y _ { i } | X _ { t }=j )&lt;br /&gt;
$ $&lt;br /&gt;
&lt;br /&gt;
由所有可能著 $ X _ { t } $ 和 $ Y _ { t } $ 的取值，咱會當得著這个 $ N \ times K $ 矩陣 $ B=\ { b _ { j } ( y _ { i } ) \ } $，其中 $ b _ { j } $ 屬於所有可能愛含狀態，$ y _ { i } $ 屬於所有的會當觀測狀態。&lt;br /&gt;
&lt;br /&gt;
予出觀測序列：$ Y=( Y _ { 一 }=y _ { 一 } , Y _ { 二 }=y _ { 二 } , \ cdots , Y _ { T }=y _ { T } ) $。&lt;br /&gt;
&lt;br /&gt;
咱會當用 $ \ theta ( A , B , \ pi ) $ 咧講隱馬爾科夫鏈，鮑姆-韋爾奇算法走揣 $ \ theta ^ { * }=\ arg { \ underset { \ theta } { max } } P ( Y | \ theta ) $ 的局部真大值，也就是會當予觀測著的序列出現的概率上大的 HMM 的參數 $ \ theta $。&lt;br /&gt;
&lt;br /&gt;
==算法==&lt;br /&gt;
&lt;br /&gt;
初初化的參數 $ \ theta ( A , B , \ pi ) $，會當隨機初化的，抑是根據先驗智識初始化。&lt;br /&gt;
&lt;br /&gt;
====前向過程====&lt;br /&gt;
&lt;br /&gt;
記 $ \ alpha _ { i } ( t )=P ( Y _ { 一 }=y _ { 一 } , Y _ { 二 }=y _ { 二 } , \ cdots , Y _ { t }=y _ { t } , X _ { t }=i | \ theta ) $ 是參數 $ \ theta $ 的條件下跤，觀測的序列是 $ y _ { 一 } , y _ { 二 } , \ cdots , y _ { t } $，時刻 $ t $ 的狀態是 $ i $ 的概率。會當通過遞歸計算：&lt;br /&gt;
&lt;br /&gt;
一 . $ \ alpha _ { i } ( 一 )=\ pi _ { i } b _ { i } ( y _ { 一 } ) $&lt;br /&gt;
二 . $ \ alpha _ { i } ( t + 一 )=b _ { i } ( y _ { t + 一 } ) \ sum _ { j=一 } ^ { N } \ alpha _ { j } ( t ) a _ { ji } $&lt;br /&gt;
&lt;br /&gt;
====後向過程====&lt;br /&gt;
&lt;br /&gt;
記 $ \ beta _ { i } ( t )=P ( Y _ { t + 一 }=y _ { t + 一 } , \ cdots , Y _ { T }=y _ { T } | X _ { t }=i , \ theta ) $ 是參數是 $ \ theta $，在時刻 $ t $ 的狀態是 $ i $ 的條件下跤，下跤的部份的觀測序列是 $ y _ { t + 一 } , \ cdots , y _ { T } $ 的概率。&lt;br /&gt;
&lt;br /&gt;
一 . $ \ beta _ { i } ( T )=一 $&lt;br /&gt;
二 . $ \ beta _ { i } ( t )=\ sum _ { j=一 } ^ { N } \ beta _ { j } ( t + 一 ) a _ { ij } b _ { j } ( y _ { t + 一 } ) $&lt;br /&gt;
&lt;br /&gt;
====更新====&lt;br /&gt;
&lt;br /&gt;
* 根據貝葉斯公式計算臨時變量。&lt;br /&gt;
* 佇予定觀測序列 $ Y $ 佮參數 $ \ theta $ 的狀況之下，佇時間 $ t $ 狀態是 $ i $ 的概率 : $ \ gamma _ { i } ( t )=P ( X _ { t }=i | Y , \ theta )={ \ frac { P ( X _ { t }=i , Y | \ theta ) } { P ( Y | \ theta ) } }={ \ frac { \ alpha _ { i } ( t ) \ beta _ { i } ( t ) } { \ sum _ { j=一 } ^ { N } \ alpha _ { j } ( t ) \ beta _ { j } ( t ) } } $&lt;br /&gt;
* 佇予定觀測序列 $ Y $ 佮參數 $ \ theta $ 的狀況之下，佇時間 $ t $ 狀態是 $ i $，佇時間 $ t + 一 $ 狀態是 $ j $ 的概率 : $ \ xi _ { ij } ( t )=P ( X _ { t }=i , X _ { t + 一 }=j | Y , \ theta )={ \ frac { P ( X _ { t }=i , X _ { t + 一 }=j , Y | \ theta ) } { P ( Y | \ theta ) } }={ \ frac { \ alpha _ { i } ( t ) a _ { ij } \ beta _ { j } ( t + 一 ) b _ { j } ( y _ { t + 一 } ) } { \ sum _ { i=一 } ^ { N } \ sum _ { j=一 } ^ { N } \ alpha _ { i } ( t ) a _ { ij } b _ { j } ( y _ { t + 一 } ) \ beta _ { j } ( t + 一 ) } } $&lt;br /&gt;
* $ \ gamma _ { i } ( t ) $ 和 $ \ xi _ { ij } ( t ) $ 的分母仝款，表示予定參數 $ \ theta $ 得著觀測序列 $ Y $ 的概率。&lt;br /&gt;
* 閣更新參數：&lt;br /&gt;
* $ \ pi _ { i } ^ { * }=\ gamma _ { i } ( 一 ) $，佇時間 $ 一 $ 狀態是 $ i $ 的概率&lt;br /&gt;
* $ a _ { ij } ^ { * }={ \ frac { \ sum _ { t=一 } ^ { T 影一 } \ xi _ { ij } ( t ) } { \ sum _ { t=一 } ^ { T 影一 } \ gamma _ { i } ( t ) } } $，等於向望的對狀態 $ i $ 轉換著狀態 $ j $ 的數量除了愛對狀態 $ i $ 開始的轉換的總數。&lt;br /&gt;
* $ b _ { i } ^ { * } ( v _ { k } )={ \ frac { \ sum _ { t=一 } ^ { T } 一 _ { y _ { t }=v _ { k } } \ gamma _ { i } ( t ) } { \ sum _ { t=一 } ^ { T } \ gamma _ { i } ( t ) } } $，其中 $ 一 _ { y _ { t }=v _ { k } }={ \ begin { cases } 一 { \ text { if } } y _ { t }=v _ { k } , \ \ 零 { \ text { otherwise } } \ end { cases } } $，$ b _ { i } ^ { * } ( v _ { k } ) $ 是向望的對狀態 $ i $ 得著的觀察值等於 $ v _ { k } $ 的數量除了愛對狀態 $ i $ 開始的轉換的總數。&lt;br /&gt;
* 重複頂懸的工課一直到收斂。算法可能過擬合，嘛無保證收斂著全局上大的。&lt;br /&gt;
* 其中計算 $ \ gamma _ { i } ( t ) $ 和 $ \ xi _ { ij } ( t ) $ 佮上大的向望算法的 E-Step，若更新 $ \ pi _ { i } ^ { * } \ alpha _ { ij } ^ { * } , b _ { i } ^ { * } ( v _ { k } ) $ 的過程比上大向望算法的 M-Step。&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==例==&lt;br /&gt;
&lt;br /&gt;
假使講咱有一隻會生卵的雞，逐工中晝阮攏會去抾雞卵。雞敢是生卵依賴一寡未知影的隱含狀態，遮阮簡單的假使干焦兩種隱含狀態會決定伊是毋是生卵。咱毋知影遮的隱含狀態的初始值，毋知影𪜶之間的轉換概率，嘛毋知佇逐種狀態會生雞會生卵的概率。阮隨機初共化𪜶來開始咧臆。&lt;br /&gt;
&lt;br /&gt;
假使咱得著的觀測序列是 ( E=eggs , N=no eggs ) : N , N , N , N , N , E , E , N , N , N。&lt;br /&gt;
&lt;br /&gt;
按呢阮同時嘛得著觀測狀態的轉移：NN , NN , NN , NN , NE , EE , EN , NN , NN。&lt;br /&gt;
&lt;br /&gt;
通過頂懸的信息來重新估計狀態轉移矩陣。&lt;br /&gt;
&lt;br /&gt;
重新估計 $ S _ { 一 } $ 到 $ S _ { 二 } $ 轉移概率為 $ { \ frac { 空九二二 } { 二嬸四二三四 } }=空九空八 $ ( 下表中的 &amp;quot; Pseudo probabilities &amp;quot; )，重新計算所有的轉移概率，得著下跤的轉移矩陣：&lt;br /&gt;
&lt;br /&gt;
紲落來重新估計 Emission Matrix :&lt;br /&gt;
&lt;br /&gt;
重新估計對隱含狀態 $ S _ { 一 } $ 得著觀察結果 E 的概率是 $ { \ frac { 空九二三九四 } { 空九二七三空 } }=空空八七六九 $，得著新的 Emission Matrix&lt;br /&gt;
&lt;br /&gt;
為著估計初狀態的概率，咱分別假做序列的開始狀態是 $ S _ { 一 } $ 和 $ S _ { 二 } $，然後求出上大的概率，閣歸一化了後更新初狀態的概率。&lt;br /&gt;
&lt;br /&gt;
一直重複頂懸的步數，一直到予人收縮。&lt;br /&gt;
&lt;br /&gt;
==代碼==&lt;br /&gt;
&lt;br /&gt;
[[分類: 待校正]]&lt;/div&gt;</summary>
		<author><name>TaiwanTonguesApiRobot</name></author>
	</entry>
</feed>