スポンサーサイト

上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。

--.--.-- | | スポンサー広告

SPIKES 3章前半

3.1 Why information theory?
私たちは感覚刺激についての"情報を得る" とか、スパイク列が”情報を運ぶ”とか言う。この節では情報という言葉について、もう少し正確な定義を与える。

3.1.1 Entropy and available information
まず情報理論の基本的枠組みを紹介している。
message Xが与えられて、それがP(X)という確率分布に従うとき、利用できる情報の可能性を測る値としてエントロピー:

S = - int P(X) logP(X) dx

というものを定義する。
さらにXがガウス分布に従う場合のエントロピーを定義する。単位の取り方や、変数変換によってエントロピーは変化してしまう。そのためエンントロピーの絶対値を議論するのではなく、エントロピーは相対値で見るのが良い。

3.1.2 Entropy of spike trains
知覚とニューロン応答の関連を見る前に、スパイク列それ自体がもつ情報量について考察する。
ここではスパイク列の情報量については二つの見方をしている。
1. binで区切って情報量を見る(情報量はΔτの関数)
2. ある時間窓の中にn個スパイクがあるかで情報量を見る(情報量はnの関数)
n << 1 のとき、どちらも対して違わない。

ここで重要なことは次の二つだと思われる。
まず、情報量を考えることで私たちにスパイク列の見方の基準を与える。
さらに、一つのスパイクは1bit以上の情報をもつということである。
(これはある程度細かくbinを区切ると、スパイクがあるbinに表れる確率が減るので、当たり前といえば当たり前。)

3.1.3 Mutual information and the Gaussian channel
入出力関係を測るには相互情報量を用いるのが良い。ここで言う入力とは知覚刺激で出力とはスパイクなどのニューロンの応答である。相互情報量はどれだけ入力と出力が近いかを測る。
信号伝達のモデルが

y = gs + η

とする。yが出力、sが入力、gがgain、ηがノイズである。
入力信号にGaussianを仮定するといろいろと良い性質が表れる。
ここで信号伝達のモデルを次のように書き換える:

y = g(s + n_eff).

ここでn_eff = η/gである。n_effをeffective noiseと呼ぶ。
こうすると相互情報量を入力信号のSN比(s^2/n_eff^2)として表すことができるようになる。
相互情報量は入力信号と入力ノイズが互いに独立でGaussianのときに最大となる。

3.1.4 Time dependent signals
信号に定常性が仮定できる場合、時間の基準点に依存しない解析方法としてフーリエ解析を紹介している。
興味のある関数f(t)の分布P(f(t))がガウス分布に従うとしたとき、その分散は各フーリエ係数の分散の和に等しい。なぜならばフーリエ係数の分散は同じフーリエ成分どうし以外は0になるためである。また相関関数はパワースペクトラムのフーリエ変換で表される。
また、ある信号の相互情報量はそのフーリエ成分の相互情報量の和に等しい。ノイズのパワースペクトルがわかっている場合、最も効率のよい情報伝達を行うには信号のパワースペクトラムをどのように設定すればよいだろうか。これはノイズ+信号のパワーがすべての周波数で均一になるようにすればよい。

この小節ではハエのphotoreceptorの特性を調べている。この節の最終的な目標はこのphotorecptorがどれだけ情報伝達ができるのかを調べることである。そのためには相互情報量を計算してやれば良い。そして、相互情報量を計算するためには入力の各周波数成分のSN比を求めれば良い。

step1
photoreceptorに与える刺激は時間的にコントラストが変化する光である。この時、光刺激があるレスポンス関数とコンボリューションされて細胞の電圧になるとする。制御変数はコントラストで、観測値は細胞電圧である。これから周波数領域での伝達関数を求めることができる。

step2
観測値を試行平均して、その値を一試行ごとの観測値から引いてやるとノイズ成分が抽出でき、そこからノイズのスペクトラムを求めることができる。
こうして求めたノイズのパワースペクトラムをstep1で求めた伝達関数で割ってやると、入力の単位におけるノイズのパワースペクトラムを求めることができる。これは3.1.3で行った操作(n_eff = n/g)とほぼ等価である。

step3
あと必要なのは入力のパワースペクトルである。仮にphotoreceptorが最も効率の良い伝達をしているならば、前述したとおり、ノイズ+信号のパワーがすべての周波数で均一になるように信号のパワースペクトルを決めてやれば良い。

step4
各周波数ごとに相互情報量を求めて和をとれば、photoreceptorの情報容量を調べることができる。

(この流れは次節3.2のFig.3.15に載っている)


この節で言いたいことは、情報理論を取り入れると、ニューロン活動を調べる上での基準やものさし、上限や下限を与えられし、さらに情報理論の観点で求めた上限なり下限は、実際のニューロンの特性にわりと関連しているということだと思う。

Spikes: Exploring the Neural Code (Computational Neuroscience) Spikes: Exploring the Neural Code (Computational Neuroscience)
Fred Rieke、David Warland 他 (1999/06/25)
Bradford Books
この商品の詳細を見る
スポンサーサイト

2006.07.03 | | Comments(0) | Trackback(0) | 輪講

コメント

コメントの投稿


秘密にする

«  | HOME |  »

FC2カウンター

ブロとも申請フォーム

この人とブロともになる

ブログ内検索


上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。