<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="zh-Hant-TW">
	<id>https://wiki.taigi.ima.org.tw/w/index.php?action=history&amp;feed=atom&amp;title=LogSumExp</id>
	<title>LogSumExp - 修訂紀錄</title>
	<link rel="self" type="application/atom+xml" href="https://wiki.taigi.ima.org.tw/w/index.php?action=history&amp;feed=atom&amp;title=LogSumExp"/>
	<link rel="alternate" type="text/html" href="https://wiki.taigi.ima.org.tw/w/index.php?title=LogSumExp&amp;action=history"/>
	<updated>2026-04-23T02:38:22Z</updated>
	<subtitle>本 wiki 上此頁面的修訂紀錄</subtitle>
	<generator>MediaWiki 1.43.1</generator>
	<entry>
		<id>https://wiki.taigi.ima.org.tw/w/index.php?title=LogSumExp&amp;diff=414454&amp;oldid=prev</id>
		<title>TaiwanTonguesApiRobot：​從 JSON 檔案批量匯入</title>
		<link rel="alternate" type="text/html" href="https://wiki.taigi.ima.org.tw/w/index.php?title=LogSumExp&amp;diff=414454&amp;oldid=prev"/>
		<updated>2025-08-22T12:33:22Z</updated>

		<summary type="html">&lt;p&gt;從 JSON 檔案批量匯入&lt;/p&gt;
&lt;p&gt;&lt;b&gt;新頁面&lt;/b&gt;&lt;/p&gt;&lt;div&gt;&amp;#039;&amp;#039;&amp;#039;LogSumExp&amp;#039;&amp;#039;&amp;#039;（LSE，嘛稱&amp;#039;&amp;#039;&amp;#039;RealSoftMax&amp;#039;&amp;#039;&amp;#039;或者是多變數&amp;#039;&amp;#039;&amp;#039;softplus&amp;#039;&amp;#039;&amp;#039;）函式是一个平滑上大值—— 一个對極值函式的金滑近來若像，主要用佇機器學習演算法內底。其定義做參數的指數的佮的對數：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ \ mathrm { LSE } ( x _ { 一 } , \ dots , x _ { n } )=\ log \ left ( \ exp ( x _ { 一 } ) + \ cdots + \ exp ( x _ { n } ) \ right ) . $&lt;br /&gt;
&lt;br /&gt;
==性質==&lt;br /&gt;
&lt;br /&gt;
LogSumExp 函式的定義域為 $ \ mathbb { R } ^ { n } $（實數空間）， 把域是 $ \ mathbb { R } $（實數線）。&lt;br /&gt;
伊是對極值函式 $ \ max _ { i } x _ { i } $ 的近似，同時有如下的界限：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ \ max { \ { x _ { 一 } , \ dots , x _ { n } \ } } \ leq \ mathrm { LSE } ( x _ { 一 } , \ dots , x _ { n } ) \ leq \ max { \ { x _ { 一 } , \ dots , x _ { n } \ } } + \ log ( n ) . $&lt;br /&gt;
&lt;br /&gt;
頭一个無等式佇咧 $ n=一 $ 以外的狀況是嚴格成立的，第二个不等式干焦佇所有元素相等時取等號。&lt;br /&gt;
（ 證明：令 $ m=\ max _ { i } x _ { i } $，著 $ \ exp ( m ) \ leq \ sum _ { i=一 } ^ { n } \ exp ( x _ { i } ) \ leq n \ exp ( m ) $。將無等式取對數即可。）&lt;br /&gt;
&lt;br /&gt;
另外咧，咱會當共不等式縮囥予較絚的界限。考慮函式 $ { \ frac { 一 } { t } } \ mathrm { LSE } ( tx ) $。然後，&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ \ max { \ { x _ { 一 } , \ dots , x _ { n } \ } } &amp;lt; { \ frac { 一 } { t } } \ mathrm { LSE } ( tx ) \ leq \ max { \ { x _ { 一 } , \ dots , x _ { n } \ } } + { \ frac { \ log ( n ) } { t } } $&lt;br /&gt;
&lt;br /&gt;
（ 證明：將上式 $ x _ { i } $ 用 $ t &amp;gt; 零 $ 的 $ tx _ { i } $ 替換，得著&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ \ max { \ { tx _ { 一 } , \ dots , tx _ { n } \ } } &amp;lt; \ mathrm { LSE } ( tx _ { 一 } , \ dots , tx _ { n } ) \ leq \ max { \ { tx _ { 一 } , \ dots , tx _ { n } \ } } + \ log ( n ) $&lt;br /&gt;
&lt;br /&gt;
因為 $ t &amp;gt; 零 $，&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ t \ max { \ { x _ { 一 } , \ dots , x _ { n } \ } } &amp;lt; \ mathrm { LSE } ( tx _ { 一 } , \ dots , tx _ { n } ) \ leq t \ max { \ { x _ { 一 } , \ dots , x _ { n } \ } } + \ log ( n ) $&lt;br /&gt;
&lt;br /&gt;
最後咧，同除 $ t $ 得著結果。）&lt;br /&gt;
&lt;br /&gt;
此外，若是阮共坐一个負數，會當得著一个佮 $ \ min $ 有關係的不等式：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ \ min { \ { x _ { 一 } , \ dots , x _ { n } \ } }-{ \ frac { \ log ( n ) } { t } } \ leq { \ frac { 一 } {-t } } \ mathrm { LSE } (-tx ) &amp;lt; \ min { \ { x _ { 一 } , \ dots , x _ { n } \ } } . $&lt;br /&gt;
&lt;br /&gt;
LogSumExp 函式是凸函式，所以佇定義域頂懸嚴格遞增。（但並毋是所在攏是嚴格凸的。）&lt;br /&gt;
&lt;br /&gt;
令 $ \ mathbf { x }=( x _ { 一 } , \ dots , x _ { n } ) $，偏導數為：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ { \ frac { \ partial } { \ partial x _ { i } } } { \ mathrm { LSE } ( \ mathbf { x } ) }={ \ frac { \ exp x _ { i } } { \ sum _ { j } \ exp { x _ { j } } } } , $&lt;br /&gt;
&lt;br /&gt;
顯明 LogSumExp 的梯度是 softmax 函式。&lt;br /&gt;
&lt;br /&gt;
LogSumExp 的噗共擔是負負。&lt;br /&gt;
&lt;br /&gt;
==著數體中的 log-sum-exp 計算技巧==&lt;br /&gt;
&lt;br /&gt;
做通常的算講術計算講佇咧對尺度頂頭來進行的時陣，定定會遇著 LSE 函式，比如講對數機率。&lt;br /&gt;
&lt;br /&gt;
類似於線性尺度中的乘法運算變成對數尺度中的簡單加法，線性尺度中的加法運算變做對數尺度中的 LSE：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ \ mathrm { LSE } ( \ log ( x _ { 一 } ) , . . . , \ log ( x _ { n } ) )=\ log ( x _ { 一 } + \ dots + x _ { n } ) $&lt;br /&gt;
&lt;br /&gt;
使用對數體計算的一個常見目的是使用有限精度浮點數直接表示（線頂性域內底）足細的抑是足大的數字的時陣提懸精度並免溢个問題 .&lt;br /&gt;
&lt;br /&gt;
不幸的是，佇一寡情況下直接使用 LSE 猶原會致使上溢 / 發生問題，著愛改用以下等效公式按呢（尤其是當中「上大」近來若值的準確性無夠時）。 所以，IT + + 等足濟數學庫攏提供矣 LSE 的預設常式，閣佇內底使用這个公式。&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ \ mathrm { LSE } ( x _ { 一 } , \ dots , x _ { n } )=x ^ { * } + \ log \ left ( \ exp ( x _ { 一 }-x ^ { * } ) + \ cdots + \ exp ( x _ { n }-x ^ { * } ) \ right ) $&lt;br /&gt;
&lt;br /&gt;
其中 $ x ^ { * }=\ max { \ { x _ { 一 } , \ dots , x _ { n } \ } } $&lt;br /&gt;
&lt;br /&gt;
==一个嚴格凸的 log-sum-exp 型函式==&lt;br /&gt;
&lt;br /&gt;
LSE 是凸的，但毋是嚴格凸的。咱會當通過增加一項為零的額外參數來定義一个嚴格凸的 log-sum-exp 型函式：&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
: $ \ mathrm { LSE } _ { 零 } ^ { + } ( x _ { 一 } , . . . , x _ { n } )=\ mathrm { LSE } ( 零 , x _ { 一 } , . . . , x _ { n } ) $&lt;br /&gt;
&lt;br /&gt;
This function is a proper Bregman generator ( strictly convex and differentiable ) .&lt;br /&gt;
It is encountered in machine learning , for example , as the cumulant of the multinomial / binomial family .&lt;br /&gt;
&lt;br /&gt;
佇熱帶分析中，這是對數半環的佮。&lt;br /&gt;
&lt;br /&gt;
==參見==&lt;br /&gt;
&lt;br /&gt;
* 著數平均&lt;br /&gt;
* Log semiring&lt;br /&gt;
* 平滑上大值的&lt;br /&gt;
* Softmax 函式&lt;br /&gt;
&lt;br /&gt;
==參考資料==&lt;br /&gt;
&lt;br /&gt;
[[分類: 待校正]]&lt;/div&gt;</summary>
		<author><name>TaiwanTonguesApiRobot</name></author>
	</entry>
</feed>