欢迎来到三一文库! | 帮助中心 三一文库31doc.com 一个上传文档投稿赚钱的网站
三一文库
全部分类
  • 研究报告>
  • 工作总结>
  • 合同范本>
  • 心得体会>
  • 工作报告>
  • 党团相关>
  • 幼儿/小学教育>
  • 高等教育>
  • 经济/贸易/财会>
  • 建筑/环境>
  • 金融/证券>
  • 医学/心理学>
  • ImageVerifierCode 换一换
    首页 三一文库 > 资源分类 > PPT文档下载  

    [信息与通信]陈伟建-信息论基础-第2章 熵与互信息.ppt

    • 资源ID:2001293       资源大小:741KB        全文页数:42页
    • 资源格式: PPT        下载积分:6
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录 QQ登录   微博登录  
    二维码
    微信扫一扫登录
    下载资源需要6
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    [信息与通信]陈伟建-信息论基础-第2章 熵与互信息.ppt

    2019/1/30,第2章 熵与互信息,信息如何度量?,2019/1/30,2.1 熵,信源发出的消息为单一符号,而这些符号随机地取值于一个有限集合,1、单符号离散信源,定义,表示,离散型随机变量X,2019/1/30,随机变量X的取值xi为信源发出的消息 i=1,2,N,2019/1/30,例1,例2,2019/1/30,2、自信息量,消息xi的概率P(xi)对数的负值,也叫无条件自信息量,用I(xi)表示,定义,表示,单位由对数的底a决定当a=2时为bit(binary unit),a=e时为nat(nature unit),a=10时为Hart(Hartley),2019/1/30,以bit为单位的自信息量,I(xi)与xi的概率P(xi)相关 I(xi)是P(xi)的减函数,且当P(xi) =0时I(xi) ,P(xi) =1时I(xi) =0 I(xi)是P(xi)的连续函数,2019/1/30,例3,信源发出各消息的自信息量,2019/1/30,3、熵,信源各消息自信息量的数学期望,也叫无条件熵,用H(X)表示,定义,表示,单位一般为bit或bit/symbol,2019/1/30,H(X)反映信源每发出一条消息所提供的平均信息量,不反映信源发出某条特定消息的信息量 一般情况下,H(X)不等于每接受一条消息所获得的平均信息量,2019/1/30,4、熵的主要性质和最大熵定理,非负性,严格上凸性,2019/1/30,严格上凸性的描述设函数f(x)对任一小于1的正数及定义域中任意两个值x1、x2,如果,称函数f(x)为严格上凸函数,2019/1/30,2019/1/30,2019/1/30,2019/1/30,最大熵定理,等概率信源具有最大熵,最大熵H(X)max=logn,2019/1/30,2019/1/30,例4,信源的信息熵,2019/1/30,例5,信源的信息熵,2019/1/30,例6,信源的信息熵及p-H(p)曲线,当p=0时,H(p)=0,p=0.25时,H(p)=0.811(bit),2019/1/30,p=0.75时,H(p)=0.811(bit),p=1时,H(p)=0,p=0. 5时,H(p)=1(bit),2019/1/30,2.2 联合熵与条件熵,信源发出的消息为有限或可数的符号序列,而符号序列中任何时刻的符号都随机地取值于同一个有限集合,1、多符号离散信源,定义,表示,离散型随机过程X1X2Xn,2019/1/30,2019/1/30,例1,2019/1/30,2、自信息量,消息xi1xi2xin的概率P(xi1xi2xin)对数的负值,也叫联合自信息量,用I(xi1xi2xin)表示,定义,表示,2019/1/30,定义,条件概率P(xin/xi1xin-1)对数的负值,用I(xin/xi1xin-1)表示,条件自信息量,表示,2019/1/30,自信息量的链式法则,定理,2019/1/30,例2,信源发出消息x1x1和x3x2各自的自信息量,2019/1/30,3、联合熵,信源各消息自信息量的数学期望,也叫联合熵,用H(X1X2Xn)表示,定义,表示,2019/1/30,2019/1/30,2019/1/30,信息熵的链式法则,定理,2019/1/30,2019/1/30,2019/1/30,2019/1/30,信息熵的界,2019/1/30,例3,信源的信息熵,2019/1/30,2019/1/30,2019/1/30,2019/1/30,2019/1/30,4、熵率,信源每发出一个消息符号所提供的平均信息量,也叫平均符号熵,用HN(X1X2XN)表示,定义,表示,单位一般为bit/symbol,2019/1/30,例4,信源的熵率,

    注意事项

    本文([信息与通信]陈伟建-信息论基础-第2章 熵与互信息.ppt)为本站会员(音乐台)主动上传,三一文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三一文库(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    经营许可证编号:宁ICP备18001539号-1

    三一文库
    收起
    展开