← 一覧に戻る ↓ このページの最下段に移る

JIS X 0016:1987
情報処理用語(情報理論) 1987制定

番号 用語 定義 対応英語
16.01.01 情報理論 情報の測度や性質を取り扱う理論分野。 information theory
16.01.02 通信理論 雑音その他妨害の影響下における通報の伝送を取り扱う理論分野。 communication theory
16.01.03 情報の測度 事象の集合から生起する一つ又は一連の事象の確率で定まる適切な関数。(注)情報理論において,“事象”は確率論で使用されるものと同様である。例えば,事象とは,集合の1要素が生起することや通報の指定した位置に特定の文字又は語が生起すること。 measure of information
16.02.01 通報(情報理論,通信理論における) 情報の伝達を目的とする順序付けられた文字列。 message (in information theory and communication theory)
16.02.02 情報源 通信系において通報の発生する部分。 message source●information source
16.02.03 通報受端 通信系において通報を受け取る部分。 message sink
16.02.04 通信路(通信理論における) 通信系において情報源と通報受端を結ぶ部分。(注)1.符号器が情報源と通信路入力の間に,また復号器が通信路出力と通報受端の間に存在してもよい。一般に,符号器,復号器は通信路の一部とはみなさない。しかし,情報源,通報受端の一部とみなす場合がある。2.シャノンの情報理論においては,情報源からの通報に対して通報受端が受け取る通報の条件付き生起確率で,通信路は特徴付けられる。 channel (in communication theory)
16.02.05 2元対称通信路 2種の文字から成る通報を伝送する通信路であり,伝送したある文字を,他方の文字に誤る条件付き確率が等しい性質をもつもの。 symmetric binary channel
16.02.06 定常情報源 通報の生起確率が時刻に依存しない情報源。 stationary message source●stationary information source
16.03.01 選択情報量 有限個の互いに排反な事象の中から,いずれかの事象を選択するために必要な選択回数を意味する対数的尺度。数学的には,この選択情報量は,
 H_0=log n
で表される。ここで,n は事象の個数である。(例)16.03の末尾参照。(注)1.16.01.03の注参照。2.対数の底により単位が定まる。3.選択情報量は,事象の生起確率に対して独立である。しかし,選択情報量が用いられる場合は,生起確率が等しいと仮定されていることが多い。
decision content
16.03.02 情報量 確率事象の生起を知ることにより伝えられる情報の測度。数学的には,事象xに対する情報量 I(x) は,その事象が生起する確率 p(x) の逆数の対数として表される。すなわち
I(x)の式
(例)16.03の末尾参照。
information content
16.03.03 エントロピー●平均情報量 有限の完全事象系の中から,いずれの事象が生起したかを知ることにより伝えられる情報の測度の平均値。数学的には,確率 p(x_1), …, p(x_n) の事象の集合 x_1, …, x_n に対するエントロピー H(x) は,個々の事象の情報量 I(x_i) の期待値(平均値)に等しい。すなわち,
H(x)の式
(例)16.03の末尾参照。(備)完全事象系とは,それを構成する事象が互いに排反であり,すべての事象の和集合が全事象に一致する事象系をいう。
entropy●mean information content●average information content
16.03.04 相対エントロピー エントロピー H と選択情報量 H_0 の比 H_r。数学的には,
H_rの式
で表される。
relative entropy
16.03.05 冗長量(情報理論における) 選択情報量 H_0 とエントロピーHの差 R。すなわち,
 R=H_0−H
(注)通常,通報は,適切な符号を用いて,より少ない文字数で表現できる。冗長量は,符号化により達成される通報の平均長の減少量と考えられる。
redundancy (in information theory)
16.03.06 シャノン●ビット 情報の測度の単位。互いに排反な二つの事象から成る集合の,2を底とする対数として表された選択情報量に等しい。(例)8文字から成る文字集合の選択情報量は,3シャノン(log_2 8=3)に等しい。 shannon●binary unit of information content●bit
16.03.07 ハートレー 情報の測度の単位。互いに排反な10個の事象から成る集合の,10を底とする対数として表された選択情報量に等しい。(例)8文字から成る文字集合の選択情報量は,0.903 ハートレー(log_{10} 8=0.903)に等しい。 hartley●decimal unit of information content
16.03.08 ナット 自然対数で表現された情報の測度の単位。(例)8文字から成る文字集合の選択情報量は,log_e 8=2.079=3 log_e 2 ナットに等しい。(例)3要素から成る文字集合の各文字を a,b,c とし,ある情報源からの通報において各文字が生起する確率を次のとおりとする。

natural unit of information content●nat
16.04.01 冗長度(情報理論における) 冗長量 R と選択情報量 H_0 との比 r_0。数学的には

で表される。
relative redundancy
16.04.02 条件付き情報量 ある事象が生起したという条件下で他の事象の生起を知ることにより伝えられる情報の測度。集合 y_1, …, y_m からある事象が生起したという条件下で集合 x_1, …, x_n からある事象が生起した場合,この量 I(x_i | y_j) は数学的には,y_j が生起したという条件下で x_i が生起する確率 p(x_i | y_j) の逆数の対数に等しい。すなわち,
conditional information content
16.04.03 結合情報量 二つの事象が同時に生起したことを知ることにより伝えられる情報の測度。集合 x_1, …, x_n と集合 y_1, …, y_m とから特定の二つの事象の組 x_i,y_j が生起した場合,この量 I(x_i,y_j) は,数学的には,両事象の結合確率 p(x_i,y_j) の対数に等しい。すなわち,
joint information content
16.04.04 条件付きエントロピー●条件付き平均情報量 完全事象系の中から一つの事象が生起したという条件下で,条件付きの確率の指定された他の完全事象系の中から一つの事象が生起したことを知ることにより伝えられる情報の測度の平均値。事象の集合 x_1, …, x_n からの事象の生起が事象の集合 y_1, …, y_m からの事象の生起に依存し,二つの事象 x_i,y_j の結合確率が p(x_i,y_j) であるとき,この量 H(x | y) は,すべての事象の組についての条件付き情報量 I(x_i | y_j) の期待値に等しい。すなわち
conditional entropy●mean conditional information content●average conditional information content
16.04.05 あいまい量●あいまい度 一つの通信路によって情報源に接続されている通報受端において特定の通報が生起したという条件下で,情報源においてある通報の生起する条件付きエントロピー。(注)1.x_i を情報源からの入力通報,y_j を情報受端への出力通報とすると,あいまい量は,16.04.04の公式で表される条件付きエントロピー H(x | y) として与えられる。2.あいまい量は,雑音のある通信路で影響を受けた受信通報を訂正するために,通報受端において供給しなければならない1通報当たりの付加的情報量の平均値である。 equivocation
16.04.06 散布量●散布度 一つの通信路によって通報受端に接続されている情報源において特定の通報が生起したという条件下で,通報受端においてある通報の生起する条件付きエントロピー。(注) x_i を情報源からの入力通報,y_j を情報受端への出力通報とすると,散布量 H(y|x) は,次の公式で与えられる。
irrelevance●prevarication●spread
16.04.07 伝達情報量●相互情報量 事象 x の生起を知ることにより伝えられる情報量と,他の事象 y が生起したという条件下で事象 x の生起を知ることにより伝えられる条件付き情報量との差。数学的には,
x_i,y_j を,事象 x_i と y_j の生起する結合確率,
p(x_i | y_j) を,事象 y_j が生起したという条件下で事象 x_i の生起する確率,
p(y_j | x_i) を,事象 x_i が生起したという条件下で事象 y_j の生起する確率,
p(x_i) を,事象 x_i の生起確率,
p(y_j) を,事象 y_j の生起確率,
とするとき,事象の組 x_i,y_j に対する伝達情報量 T(x_i | y_j) は,次の式で与えられる。
transinformation●transinformation content●transferred information●transmitted information●mutual information
16.04.08 平均伝達情報量 完全事象系の中から一つの事象が生起したという条件下で,他の完全事象系の中から一つの事象が生起したことを知ることにより伝えられる伝達情報量の平均値。数学的には,事象の集合 x_1, …, x_n からの事象の生起が他の事象の集合 y_1, …, y_m からの事象の生起に依存し,二つの事象 x_i,y_j の結合確率が p(x_i,y_j) で与えられるとき,平均伝達情報量 T は,すべての事象の組についての伝達情報量 T(x_i | y_j) の期待値は等しい。すなわち,

(注)平均伝達情報量は,一つの事象の集合の一方のエントロピーとこの事象の集合のもう一方に関する条件付きエントロピーとの差に等しい。例えば,一つの通報の伝達において,情報源におけるエントロピーとあいまい量との差は,通報受端におけるエントロピーと散布量との差に等しい。すなわち,
T=H(x)−H(x|y)=H(y)−H(y|x)
mean transinformation●mean transinformation content●average transinformation●average transinformation content
16.04.09 平均エントロピー●1文字当たりの平均エントロピー●平均情報量●1文字当たりの平均情報量●情報速度●1文字当たりの情報速度 定常情報源から出されるすべての通報に対する1文字当たりのエントロピーの平均値。数学的には,H_m を情報源から出される m 個の文字から成る全系列についてのエントロピーとすれば,1文字当たりの平均値 H' は,

となる。(注)1.1文字当たりの平均エントロピーは,シャノン/文字などの単位で表現される。2.情報源が定常でないならば,H_m/m の極限は存在しない場合がある。
mean entropy●mean entropy per character●mean information content●mean information content per character●average information content●average information content per character●information rate●information rate per character
16.04.10 情報速度●平均情報速度 単位時間当たりの平均エントロピー。数学的には,この速度 H* は平均エントロピー H' を文字集合 x_1, …, x_n における x_i の時間長τ_i の期待値τで割ったものである。

(注)平均情報速度はシャノン/秒などの単位で表現される。
information rate●average information rate
16.04.11 平均伝達情報量●1文字当たりの平均伝達情報量 定常情報源から出されるすべての通報に対する1文字当たりの平均伝達情報量。数学的には, T_m を m 個の文字から成る入力と出力の系列間の平均伝達情報量とすれば,1文字当たりの平均値 T' は,

(注)1文字当たりの平均伝達情報量は,シャノン/文字などの単位で表現される。
mean transinformation content●mean transinformation content per character
16.04.12 伝達情報速度●平均伝達情報速度 単位時間当たりの平均伝達情報量。数学的には,この速度 T* は,結合事象 (x_i,y_j) の平均時間長τ_{ij} の期待値τによって1文字当たりの平均伝達情報量 T' を割ったものである。

(注)平均伝達情報速度は,シャノン/秒などの単位で表現される。
transinformation rate●average transinformation rate
16.04.13 通信路容量 情報源から通報を伝送する際の通信路の能力の測度。1文字当たりの平均伝達情報量の最大値又は平均伝達情報速度の最大値で表現される。この最大値は適当な符号を用いれば,任意の小さな誤り確率で達成できる。 channel capacity

← 一覧に戻る ↑ このページのトップに戻る