打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
信息熵最大值的证明

证明:当概率均等时信息熵最大。即当 

pi=1n 时,下面的 H 取得最大值。


H=i=1npilogpi=logn


证明: 先证明一个结论:


两个概率变量 x,y 满足 x+y=p,0<p1, p 为一定值,当 x 越靠近 p2 时,下面的z越大

z=(xlogx+(px)log(px))


对x求导

z=(logx+x1xlog(px)(px)1px)=logxpx


x=p2 时,z=0;


x<p2 时,z>0; 单调递增;


x>p2 时,z<0; 单调递减;


所以,x=p2 为最大值点,x 越靠近 p2 时 z 越大。


下面是 z 函数示意图, 注意这里对数是以 e 为底的,如果以 2 为底,最大值为 1 。



回过头来,证明命题。假设 p=1n, 定义


x1=min(pi)<max(pi)=x2


则必有 x1<p<x2, 由此可推出


(plogp+(x1+x2p)log(x1+x2p))>(x1logx1+x2logx2)


这是因为若 px1+x22, 则 p 比 x1 靠近 x1+x22, 所以左式大;若p>x1+x22, 则 p 比 x2 靠近 x1+x22, 所以左式大。


每一轮我们都把最小、最大的 pi 所对应的两项 pilogpi 的值变成了 (plogp+(x1+x2p)log(x1+x2p)) , 并且 H 增大,i=1npi=1 保持了概率和为1。


经过 n-1 轮后,所有的项的值都变成了 plogp, 达到最大值。 所以 p=1n 时H 取得最大值logn

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
实际应用问题中的最值
矩阵、向量求导法则
泊松分布的期望和方差推导
闭区间套定理(Nested intervals theorem)讲解2
循环群的例子
概率论 各种分布及其期望、方差、分布函数
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服