信息论基础里面概率越大可能性越大信息量越多不确定性越小概率越大,可能性越大,但是信息量越小,不确定性越小,熵越小,自信息越小信息是个很抽象的概念。我们常常说信息很多,或者信息较少,但却很难说清楚信息到底有多少。比如一本五十万字的中文书到底有多少信息量。直到1948年,香农提出了“信息熵”(shāng)的概念,才解决了对信息的量化度量问题。一条信息的信息量大小...建立了信息量的统计公式,奠定了信息论的理论基矗...把热力学熵与信息熵直接联系起来,使热力学中争论了...来度量为定性被消除的量的大小:H(...
更新时间:2022-07-27标签: 信息论基础信息信息论基础 全文阅读