当前位置: 首页 > news >正文

网站建设优化推广杭州网站收录排名

网站建设优化推广杭州,网站收录排名,膳食管理东莞网站建设,博客主题Wordpress本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown版本已归档至【Github仓库:information-theory】,需要的朋友们自取。或者公众号【AIShareLab】回复 信息论 也可获取。 文章目录联合熵条件熵联合…

本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown版本已归档至【Github仓库:information-theory】,需要的朋友们自取。或者公众号【AIShareLab】回复 信息论 也可获取。

文章目录

      • 联合熵
      • 条件熵

联合熵

联合集 XY 上, 对联合自信息 I(xy)I(x y)I(xy) 的平均值称为联合熵:

H(XY)=Ep(xy)[I(x⇌y)]=−∑x∑yp(xy)log⁡p(xy)\begin{array}{l} H(X Y)=\underset{p(x y)}{E}[I(x \rightleftharpoons y)] \\ =-\sum_{x} \sum_{y} p(x y) \log p(x y) \end{array} H(XY)=p(xy)E[I(xy)]=xyp(xy)logp(xy)
当有n个随机变量 X=(X1,X2,…,Xn)X=\left(X_{1}, X_{2}, \ldots, X_{n}\right)X=(X1,X2,,Xn) , 有

H(X)=−∑X1,X2,…,Xnp(x1,x2,…,xn)log⁡p(x1,x2,…,xn)H(\mathbf{X})=-\sum_{X_{1}, X_{2}, \ldots, X_{n}} p\left(x_{1}, x_{2}, \ldots, x_{n}\right) \log p\left(x_{1}, x_{2}, \ldots, x_{n}\right) H(X)=X1,X2,,Xnp(x1,x2,,xn)logp(x1,x2,,xn)
信息熵与热熵的关系

信息熵的概念是借助于热熵的概念而产生的。

  1. 信息熵与热熵含义相似

  2. 信息熵与热熵的区别:

    • 信息熵的不增原理
    • 热熵不减原理
  3. 热熵的减少等于信息熵的增加。

条件熵

联合集 XY\mathbf{X Y}XY 上, 条件自信息I(y/x)I(y / x)I(y/x)的平均值定义为条件熵:

H(Y/X)=Ep(xy)[I(y/x)]=−∑x∑yp(xy)log⁡p(y/x)=∑xp(x)[−∑yp(y/x)log⁡p(y/x)]=∑xp(x)H(Y/x)\begin{array}{l} H(Y / X)=\underset{p(x y)}{E}[I(y / x)]=-\sum_{x} \sum_{y} p(x y) \log p(y / x) \\ =\sum_{x} p(x)\left[-\sum_{y} p(y / x) \log p(y / x)\right]=\sum_{x} p(x) H(Y / x) \end{array} H(Y/X)=p(xy)E[I(y/x)]=xyp(xy)logp(y/x)=xp(x)[yp(y/x)logp(y/x)]=xp(x)H(Y/x)
推广:

H(Xn∣X1,…,Xn−1)=−∑X1,X2,…,Xnp(x1,x2,…,xn)log⁡p(xn∣x1,…,xn−1)\begin{array}{l} H\left(X_{n} \mid X_{1}, \ldots, X_{n-1}\right) =-\sum_{X_{1}, X_{2}, \ldots, X_{n}} p\left(x_{1}, x_{2}, \ldots, x_{n}\right) \log p\left(x_{n} \mid x_{1}, \ldots, x_{n-1}\right) \end{array} H(XnX1,,Xn1)=X1,X2,,Xnp(x1,x2,,xn)logp(xnx1,,xn1)
注意:当有n个随机变量 X=(X1,X2,…,Xn)X=\left(X_{1}, X_{2}, \ldots, X_{n}\right)X=(X1,X2,,Xn)

H(X,Y)=H(Y)+H(X∣Y)=H(X)+H(Y∣X)H(X)=H(X1)+H(X2∣X1)+…+H(Xn∣X1,X2,…,Xn−1)\begin{array}{l} H(X, Y)=H(Y)+H(X \mid Y)=H(X)+H(Y \mid X) \\ H(\mathbf{X}) =H\left(X_{1}\right)+H\left(X_{2} \mid X_{1}\right)+\ldots+H\left(X_{n} \mid X_{1}, X_{2}, \ldots, X_{n-1}\right) \end{array} H(X,Y)=H(Y)+H(XY)=H(X)+H(YX)H(X)=H(X1)+H(X2X1)++H(XnX1,X2,,Xn1)
注意: H(X∣Y)\mathbf{H}(\mathbf{X} \mid \mathbf{Y})H(XY) 表示已知变量 Y\mathbf{Y}Y 后, 对变量 X\mathbf{X}X 尚存在的平均不确定性(存在疑义)。

已知信源 X=[ABC1/31/31/3]X=\left[\begin{array}{ccc}A & B & C \\ 1 / 3 & 1 / 3 & 1 / 3\end{array}\right]X=[A1/3B1/3C1/3]Y=[DEF1/103/53/10]Y=\left[\begin{array}{ccc}D & E & F \\ 1 / 10 & 3 / 5 & 3 / 10\end{array}\right]Y=[D1/10E3/5F3/10] ,请快速两个信源的信息熵的关系。

答:H(X) > H(Y)。其实不用计算,由上面可知一个简单的结论,等概率时信息熵最大。

参考文献:

  1. Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  2. Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  3. 周炯槃. 通信原理(第3版)[M]. 北京:北京邮电大学出版社, 2008.
  4. 樊昌信, 曹丽娜. 通信原理(第7版) [M]. 北京:国防工业出版社, 2012.
http://www.dt0577.cn/news/18080.html

相关文章:

  • 淄博北京网站建设公司腾讯与中国联通
  • wordpress 进度条整站seo排名费用价格
  • 做特产网站百度一下首页百度一下
  • 贵州省建设厅网站首页电商运营主要工作内容
  • 企业网站seo优化怎么做如何做网站
  • 网络工程师和做网站哪个难上海网站优化
  • 动漫设计好就业吗seo优化方式包括
  • 公司网站制作重庆seo排名快速
  • 网站建设本科毕业设计论文怎么建网站卖东西
  • 做网站用什么笔记本配置百度号码认证平台取消标记
  • 贵阳网站建设技术托管中国十大搜索引擎排名最新
  • 湖州网站制作报价百度自媒体平台
  • 在wordpress中设置mx记录宁波网站推广优化公司怎么样
  • tk免费域名注册网站深圳百度推广电话
  • wordpress注册没用北京seo关键词优化外包
  • 网站后台找不到了怎么办关键词推广
  • wordpress 提高速度慢网站seo搜索引擎优化案例
  • 网站建设建设公司重庆seo排名收费
  • 公司内部 网站开发app推广员好做吗
  • 做网站平台接单域名服务器ip查询网站
  • 医药类网站建设评价免费seo
  • 做网站还赚钱么百度关键词代做排名
  • code编程网站百度查重
  • 佛山外贸网站建设价位网站搜什么关键词好
  • 深圳建设网站开发最新免费网站收录提交入口
  • 如何查找网站seo怎么刷排名
  • 网站需求分析怎么做网站建设关键词排名
  • 德阳网站开发熊掌号抖音搜索引擎优化
  • 网站开发读书笔记南宁seo优化公司
  • 青州网站建设公司上海公司排名