PL EN DE FR ES IT PT RU JA ZH NL UK TR KO CS SV AR VI FA ID HU RO NO FI

クロード・シャノン

Exact page not found, but we found similar results:

クロード・シャノン
クロード・エルウッド・シャノン(Claude Elwood Shannon, 1916年4月30日 - 2001年2月24日)はアメリカ合衆国の電気工学者、数学者。 情報理論の考案者であり、「情報理論の父」と呼ばれた。情報、通信、暗号、データ圧縮、符号化など今日の情報社会に必須の分野の先駆的研究を...
シャノン=ハートレーの定理
シャノンの通信路容量が求められる。このとき、ノイズの強さと信号の強さが与えられることで帯域幅が決定される。この定理の名称は、アメリカの2人の電子工学者クロード・シャノンとラルフ・ハートレーに由来している。 あらゆる多重かつ多相の符号化技法を考慮すると、シャノン・ハートレーの定理から導かれる通信路容量...
情報理論
は、メッセージの重要性や意味には立ち入らない。すなわち、データの質は扱わず、確率論的に扱えるデータの量だけを扱う。 情報理論は、1948年、クロード・シャノンが Bell System Technical Journal に投稿した論文 "A Mathematical Theory of...
シャノン符号化
シャノン符号化(シャノンふごうか、Shannon coding)は、クロード・シャノンによって考案された、可逆圧縮の方法である。 記号の(推定もしくは実際の)出現確率に基づく接頭符号を使用している。同じ接頭符号でも、常に最短の符号長を表すことができるハフマン符号に比べ、シャノン...
シャノン・ファノ符号化
シャノン・ファノ符号化(シャノン・ファノふごうか)とは、1948年にクロード・シャノンとロベルト・ファノによって考案された可逆圧縮の方法である。 記号の(推定もしくは実際の)出現確率に基づく接頭符号を使用している。同じ接頭符号でも、常に最短の符号長を表すことができ、コンパクト符号と呼ばれるハフマン...
情報量
1 ビット(1 シャノン)と呼ぶ量が統計力学で k ln 2 に対応するという関係を導いていた。 現在の情報理論におけるエントロピーの直接の導入は1948年のクロード・シャノンによるもので、その論文『通信の数学的理論』でエントロピーの概念を情報理論に応用した。シャノン...
ビット
うな変数の値が判明したときに得られる情報として定義される。情報量の単位として、このビットはクロード・シャノンにちなんで名付けられたシャノンとも呼ばれる。厳密には、ビットはデータ量(ストレージ量)の単位、シャノンは情報量の単位と区別するが、歴史的経緯により後者も前者と同じ単位(ビット)で表現され、誤り...
標本化定理
標本化定理はハリー・ナイキストが1928年に予想しており、これに対して1949年のクロード・シャノンの証明が有名である。そのため、シャノンの標本化定理やナイキスト=シャノンの標本化定理と呼ばれることが多い。 しかし、その後の研究で、シャノンとは独立に標本化定理を証明していた人物が次々と見つかった。ソビエト連邦...
ハリー・ナイキスト
として発表され、これは後にクロード・シャノンによって発展させられる情報理論の基になった。 1927年にナイキストはアナログ信号をデジタルサンプリングして、再現するのにアナログ信号の周波数の 2 倍が必要であることを Telegraph Transmission Theory の中で示した。ナイキスト-シャノンの標本化定理と呼ばれる。...
シャノン (単位)
シャノン(shannon、記号 Sh)は、IEC 80000-13で定められた情報量およびエントロピーの単位である。その名前はクロード・シャノンに因む。 1シャノンは、起こる確率が1⁄2の出来事が持っている情報量と定義される。また、それは同確率の2つの状態による系のエントロピーでもある。...
← Back to original