1. 最大原理

学习概率模型时,在所有可能的概率模型(分布)中,熵最大模型是最好的模型
假设离散随机变量X的概率分布是P(X),则其熵为H(P)=- sum_{x}^{}P(x)logP(x)
且满足0<=H(P)<=logN
当且仅当X的分布是均匀分布时右边的等号成立,即当X服从均匀分布时,熵最大。

        直观地,最大熵原理认为要选择概率模型首先必须满足已有事实(约束条件)。在没有更多信息的情况下,那些不确定的部分都是“等可能的”。

        通过熵的最大化来表示等可能性,使不容易操作的“等可能”转化为一个优化数值指标-熵。

最大熵原理概率学习估计一个准则。

2. 最大熵模型定义学习

2.1 最大熵模型的定义

        假设满足所有约束条件模型集合为C,定义在条件概率分布P(Y|X)上的条件熵为

H(P)=-sum_{x,y}^{}widetilde{P}(x)P(y|x)lnP(y|x)

模型集合C中条件熵H(p)最大的模型成为最大熵模型

2.2 最大熵模型学的学习

        其学习过程就是求解最大熵模型的过程可以形式化为约束优化问题

对偶函数的极大化等价于最大熵模型的极大似然估计

        最大熵模型与LR模型有类似的形式,它们又称为对数线性模型。这类模型的学习就是在给定训练数据条件下对模型进行极大似然估计正则化的极大似然估计

3. 模型学习的最优化方法

        LR回归模型和最大熵模型学习归结为以似然函数为目标函数的(无约束)最优化问题,一般通过
迭代算法求解,这时的目标函数具有很好的性质(光滑的凸函数),多种最优化方法都适用,保证能找到全局最优解。
        常用的方法有改进的迭代尺度法、梯度下降法、牛顿法或拟牛顿法。其中牛顿法或拟牛顿法一般收敛速度更快。

原文地址:https://blog.csdn.net/MusicDancing/article/details/134684586

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。

如若转载,请注明出处:http://www.7code.cn/show_11001.html

如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱suwngjj01@126.com进行投诉反馈,一经查实,立即删除

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注