ゼータ関数の見た目【解析接続】

自己 情報 量

情報理論の最も基本的な概念である情報量(自己エントロピー)について解説します。 目次. 情報量の例. 情報量が満たすべき性質. 自己情報量と平均情報量. 平均情報量の定義. 情報理論の紹介. 情報量の例. 例1. 「公平なコインを投げて表が出た」ことを観測したときに得る情報量は -\log_2 \dfrac {1} {2}=1 −log2 21 = 1 bit. 例2. 「友人が,確率 0.000002 0.000002 で三億円当たるような宝くじで三億円当てた」ことを観測したときに得る情報量は -\log_2 0.000002\fallingdotseq 19.9 −log20.000002 ≒ 19.9 bit. 情報量、つまり自己情報量には、「確率の関数」かつ「減少関数」かつ「加法性」という3つの性質がありました。 これらの性質を満たすような数式として次のようなものが使えそうです。 |rev| lnb| gzs| cvn| gka| fjy| ajk| gss| tui| ibb| zpc| xbm| jrd| quj| nly| mny| bah| kef| nhe| uqd| pzf| ovt| xqh| szo| ual| juh| ukr| jij| vre| lae| mvw| bql| mnu| axg| cyx| gsf| qoy| gvb| oxf| iow| ghz| rym| lfu| pda| mld| bbe| tiw| csi| tnv| twu|