编辑: huangshuowei01 2018-09-17

Y)=E[I(xi;

yj)]的下限G 取代经典的平均失真测度E(dij)的上限D, 我们就得到新的优化准则. 几个优化结论无记忆二元信源的R(G)函数 给定Shannon信息R,广义信息G有上下界.-2.69是说,要用谎言造成敌人信息损失,1比特最多造成敌人2.69比特的信息损失.G(R=0)=-0.626表示:相信别人无根据乱说会减少自己已有的信息.主观信息总是少于或等于客观信息. G/R反映通信效率, 其最大值是1.最佳匹配点W2, 这时候预测P(X|Y为真)和事实P(X|Y)一致, 两种信息等价. GPS精度不同时的R(G)函数.精度越高,即主观信道容量越大,最佳匹配点R=G越大 GPS精度提高时,R=G的匹配点如何随单位距离量化比特k变化. 上图说明,给定GPS精度,地图量化等级太高没有意义 信息率失真函数

3 限误差信息率R(T)及其和信息率失真R(D)及复杂性失真C(Dc)之间的等价关系3.1 从信息率失真到复杂性失真平均失真 复杂性失真定义但是,数据压缩实践中,我们需要对每对(xi, yj)之间的误差给出限制.为此,Kolmogorov提出基于其复杂性理论的结构函数,最近又有人提出复杂性失真.复杂性理论把一个字符串的最短编码长度叫做这个字符串的复杂性.有失真编码时,如果对于每对xi, yj, 存在 那么对于信源集合A中每个xi, 集合B上存在一个以yi为中心的失真球Bi, 用球中任何一个yj表示xi都可以.球的半径都是Dc0.5. 给定信源和失真球限制,可以求出最小平均码长或Shannon互信息,设为C,C=C(Dc) 这就是复杂性失真函数. 复杂性理论研究者证明:C(Dc)=R(Dc). 但是, 这是不对的, 因为根据常识,应该有C(Dc)>

R(Dc).因为每门60分及格和平均60分及格,这两个标准是不一样的.3.2 定义限误差信息率并证明复杂性失真是其特例其实, 我们可以把复杂性失真定义为信息率失真的特例:考虑为1,2,3,4编码,允许误差Dc=1.现在用信息率失真理论的定义,符合要求的编码(误差小于或等于1)失真dij=0,不符合要求的编码失真dij= -∞,根据定义就有C(Dc=1)= R(D=0). 信息率失真函数和广义信息测度之间的关系信息率失真理论种有下面公式: 其中就有以集合为条件的Bayesian公式: 把R(D)函数写成易于理解的形式 如果所有Bi(失真球)大小一样, 广义熵就变成复杂性失真函数C(Dc).所以复杂性失真C(Dc)是信息率失真R(D)的特例. 3.4 用一个编译码例子说明R(Dc)........

下载(注:源文件不在本站服务器,都将跳转到源网站下载)
备用下载
发帖评论
相关话题
发布一个新话题