迴歸分析analysis)是簡單線性迴歸的一種延伸應用,用以瞭解一個依變項與兩組以上自變項的函數關係。 對數線性迴歸(英语:Log-linear model )(英語:Log -linear model ),是將解釋變項(實驗設計中的自變項)和反應變項(實驗設計中的依變項)都取對數值之後再進行線性迴歸,所以依據解釋變項的數量,
玻尔兹曼分布在數學上,波茲曼函數更廣義的形式為吉布斯測度(英语:Gibbs measure)。在統計學與機器學習中又被稱為對數-線性模型(英语:log -linear model )。在深度学习中,玻尔兹曼分布被用于随机神经网络的采样分布,例如玻尔兹曼机,受限玻尔兹曼机和深度玻尔兹曼机。 玻色–愛因斯坦統計 費米-狄拉克統計
泊松回归\mathbb {R} ^{n}} 代表由一组相互独立的变量组成的向量,其泊松回归的模型形式为: log ( E ( Y ∣ x ) ) = α + β ′ x , {\displaystyle \log (\operatorname {E} (Y\mid \mathbf {x} ))=\alpha
基于流的生成模型对上式取对数后得到对数似然: log p 1 ( z 1 ) = log p 0 ( z 0 ) − log | det d f 1 ( z 0 ) d z 0 | {\displaystyle \log p_{1}(z_{1})=\log p_{0}(z_{0})-\log \left|\det
逻辑斯谛函数{\displaystyle p=f(a+bx),} 其中x为解释变量,a和b为欲拟合的模型参数,f为标准逻辑斯谛函数。 邏輯斯諦迴歸和其他对数线性模型(英语:log -linear model )也常用于机器学习。将逻辑斯谛函数推广至多元输入情景即为Softmax激活函数,用于多元罗吉斯回归(英语:multinomial logistic