<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="zh-Hant-TW">
	<id>https://wiki.taigi.ima.org.tw/w/index.php?action=history&amp;feed=atom&amp;title=%E8%A9%9E%E8%A2%8B%E4%BB%94%E6%A8%A1%E5%9E%8B</id>
	<title>詞袋仔模型 - 修訂紀錄</title>
	<link rel="self" type="application/atom+xml" href="https://wiki.taigi.ima.org.tw/w/index.php?action=history&amp;feed=atom&amp;title=%E8%A9%9E%E8%A2%8B%E4%BB%94%E6%A8%A1%E5%9E%8B"/>
	<link rel="alternate" type="text/html" href="https://wiki.taigi.ima.org.tw/w/index.php?title=%E8%A9%9E%E8%A2%8B%E4%BB%94%E6%A8%A1%E5%9E%8B&amp;action=history"/>
	<updated>2026-05-14T05:45:59Z</updated>
	<subtitle>本 wiki 上此頁面的修訂紀錄</subtitle>
	<generator>MediaWiki 1.43.1</generator>
	<entry>
		<id>https://wiki.taigi.ima.org.tw/w/index.php?title=%E8%A9%9E%E8%A2%8B%E4%BB%94%E6%A8%A1%E5%9E%8B&amp;diff=458908&amp;oldid=prev</id>
		<title>TaiwanTonguesApiRobot：​從 JSON 檔案批量匯入</title>
		<link rel="alternate" type="text/html" href="https://wiki.taigi.ima.org.tw/w/index.php?title=%E8%A9%9E%E8%A2%8B%E4%BB%94%E6%A8%A1%E5%9E%8B&amp;diff=458908&amp;oldid=prev"/>
		<updated>2025-08-23T04:09:08Z</updated>

		<summary type="html">&lt;p&gt;從 JSON 檔案批量匯入&lt;/p&gt;
&lt;p&gt;&lt;b&gt;新頁面&lt;/b&gt;&lt;/p&gt;&lt;div&gt;&amp;#039;&amp;#039;&amp;#039;詞袋仔模型&amp;#039;&amp;#039;&amp;#039;（英語：&amp;#039;&amp;#039;&amp;#039;Bag-of-words model&amp;#039;&amp;#039;&amp;#039;）是一个佇自然語言處理佮信息檢索（IR）會當看著真簡化的表達模型。現此模型下，一段文本（譬如一个句抑是一个文檔）會當用一个貯遮的詞的袋仔來表示，這款表示方式無考慮文法佮詞的順序。最近詞袋仔模型也被應用佇電腦視覺領域。&lt;br /&gt;
&lt;br /&gt;
詞袋仔模型被廣泛應用佇文件分類，詞出現的頻率會當用來做訓練分類器的特徵。&lt;br /&gt;
&lt;br /&gt;
關於著 &amp;quot; 詞袋仔 &amp;quot; 這个用字的由來會當追溯到澤里格 ・ 哈里斯於一九五四年在《Distributional Structure》的文章 _。_&lt;br /&gt;
&lt;br /&gt;
==範例==&lt;br /&gt;
&lt;br /&gt;
下列文件會當用詞袋仔表示 :&lt;br /&gt;
&lt;br /&gt;
以下是兩個簡單的文件 :&lt;br /&gt;
&lt;br /&gt;
是以上的兩个文件，會當建構出下列的清單 :&lt;br /&gt;
&lt;br /&gt;
此處有十个無仝的詞，使用清單的索仔引表示長度為十的向量 :&lt;br /&gt;
&lt;br /&gt;
` ` `&lt;br /&gt;
( 一 ) [一 , 二 , 一 , 一 , 二 , 零 , 零 , 零 , 一 , 一] ( 二 ) [一 , 一 , 一 , 一 , 零 , 一 , 一 , 一 , 零 , 零]&lt;br /&gt;
` ` `&lt;br /&gt;
&lt;br /&gt;
每一个向量的索引內容對應到清單中詞出現的次數。&lt;br /&gt;
&lt;br /&gt;
比如講伊，第一个向量 ( 文件一 ) 前兩个內容索引是一佮二，頭一个索引內容是 &amp;quot; John &amp;quot; 對應到清單頭一个詞並且該值設定做一，因為乎 &amp;quot; John &amp;quot; 出現一改。&lt;br /&gt;
&lt;br /&gt;
這向量表示法袂保存原始句仔內底詞的順序。該表示法有真濟成功的應用，親像郵件過濾。&lt;br /&gt;
&lt;br /&gt;
==Term weighting==&lt;br /&gt;
&lt;br /&gt;
咧講的範例，文件向量包含 term 頻率。佇咧 IR 佮文字分類常用無仝方法量 term 權重。常見方法為 tf-idf。&lt;br /&gt;
&lt;br /&gt;
==範例：糞埽郵件過濾==&lt;br /&gt;
&lt;br /&gt;
分類一个郵件訊息，一个貝氏糞埽郵件分類的假設訊息是一堆字而且隨機倒佇咧兩堆袋仔內底其中一个袋仔內底，了後使用這貝氏機率去決定佗一跤袋仔是較有可能的。&lt;br /&gt;
&lt;br /&gt;
==參考文獻==&lt;br /&gt;
&lt;br /&gt;
==參見==&lt;br /&gt;
&lt;br /&gt;
* w-shingling&lt;br /&gt;
* n 元語法&lt;br /&gt;
* 向量空間模型&lt;br /&gt;
* 自然語言處理&lt;br /&gt;
* Additive smoothing&lt;br /&gt;
* 文件分類&lt;br /&gt;
* 機器學習&lt;br /&gt;
* Document-term matrix&lt;br /&gt;
* Hashing trick&lt;br /&gt;
* 按呢上小哈希&lt;br /&gt;
* 特徵揣出&lt;br /&gt;
&lt;br /&gt;
[[分類: 待校正]]&lt;/div&gt;</summary>
		<author><name>TaiwanTonguesApiRobot</name></author>
	</entry>
</feed>