スポンサーサイト

上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。

--.--.-- | | スポンサー広告

Effective Connectivity

輪講でEffective Connectivityというものを学びました。教材はこのページの20です。

脳を研究している人たちなら、異なる脳部位の活動にいったいどのような関係があるのか知りたいと少なからず思っているわけです。最近ではfMRIなどの非侵襲脳活動計測機を用いてヒトの全脳の活動を同時に測定できます(時間分解能はあまり高くはありませんが)。その時得られた異なる脳部位の活動の関連を調べる方法に二つの概念があります。それはFunctional ConnectivityとEffective Connectivityです。Functional Connectivityは単に離れた部位の活動の相関です。Effective Connectivityはある部位が他の部位にどう影響を与えるかです。私の解釈ではEffective Connectivityはモデルを立てて、そのモデルパラメータを推定する方法です。ですからEffective Connectivityを調べる方法は複数提案されています。たとえば、
effective1.png
というモデルを立ててACを求める方法があります。ここで、xは脳活動、uは入力(視覚刺激など)です。行列ACのすべての要素が値をもつとすると推定が不安定になる場合があるので構造を入れます。例えば今三つの脳活動部位しかないとするとxは3次元ベクトルになります。そのとき脳活動部位x1とx2、x2とx3の間には結合があるが、x1とx3の間にはないとします。そうすると、
effective2.png
となります。
この他にも時間的構造を用いる方法にはMultivariate Autoregressive Model (MAR)による部位間の時間遅れを考慮した解析、Volterra級数を用いた部位間のレスポンス関数を推定する方法などがあるようです。また時間的構造を用いない方法には、Psychophysiological Interactionsという脳活動を興味のある心理モデル(注意とか)に回帰させる方法や、構造方程式を用いた部位間の関係を調べる方法などがあるようです。


【“Effective Connectivity”の続きを読む】
スポンサーサイト

2006.10.03 | | Comments(0) | Trackback(0) | 輪講

SPIKES 3章前半

3.1 Why information theory?
私たちは感覚刺激についての"情報を得る" とか、スパイク列が”情報を運ぶ”とか言う。この節では情報という言葉について、もう少し正確な定義を与える。

3.1.1 Entropy and available information
まず情報理論の基本的枠組みを紹介している。
message Xが与えられて、それがP(X)という確率分布に従うとき、利用できる情報の可能性を測る値としてエントロピー:

S = - int P(X) logP(X) dx

というものを定義する。
さらにXがガウス分布に従う場合のエントロピーを定義する。単位の取り方や、変数変換によってエントロピーは変化してしまう。そのためエンントロピーの絶対値を議論するのではなく、エントロピーは相対値で見るのが良い。

3.1.2 Entropy of spike trains
知覚とニューロン応答の関連を見る前に、スパイク列それ自体がもつ情報量について考察する。
ここではスパイク列の情報量については二つの見方をしている。
1. binで区切って情報量を見る(情報量はΔτの関数)
2. ある時間窓の中にn個スパイクがあるかで情報量を見る(情報量はnの関数)
n << 1 のとき、どちらも対して違わない。

ここで重要なことは次の二つだと思われる。
まず、情報量を考えることで私たちにスパイク列の見方の基準を与える。
さらに、一つのスパイクは1bit以上の情報をもつということである。
(これはある程度細かくbinを区切ると、スパイクがあるbinに表れる確率が減るので、当たり前といえば当たり前。)

3.1.3 Mutual information and the Gaussian channel
入出力関係を測るには相互情報量を用いるのが良い。ここで言う入力とは知覚刺激で出力とはスパイクなどのニューロンの応答である。相互情報量はどれだけ入力と出力が近いかを測る。
信号伝達のモデルが

y = gs + η

とする。yが出力、sが入力、gがgain、ηがノイズである。
入力信号にGaussianを仮定するといろいろと良い性質が表れる。
ここで信号伝達のモデルを次のように書き換える:

y = g(s + n_eff).

ここでn_eff = η/gである。n_effをeffective noiseと呼ぶ。
こうすると相互情報量を入力信号のSN比(s^2/n_eff^2)として表すことができるようになる。
相互情報量は入力信号と入力ノイズが互いに独立でGaussianのときに最大となる。

3.1.4 Time dependent signals
信号に定常性が仮定できる場合、時間の基準点に依存しない解析方法としてフーリエ解析を紹介している。
興味のある関数f(t)の分布P(f(t))がガウス分布に従うとしたとき、その分散は各フーリエ係数の分散の和に等しい。なぜならばフーリエ係数の分散は同じフーリエ成分どうし以外は0になるためである。また相関関数はパワースペクトラムのフーリエ変換で表される。
また、ある信号の相互情報量はそのフーリエ成分の相互情報量の和に等しい。ノイズのパワースペクトルがわかっている場合、最も効率のよい情報伝達を行うには信号のパワースペクトラムをどのように設定すればよいだろうか。これはノイズ+信号のパワーがすべての周波数で均一になるようにすればよい。

この小節ではハエのphotoreceptorの特性を調べている。この節の最終的な目標はこのphotorecptorがどれだけ情報伝達ができるのかを調べることである。そのためには相互情報量を計算してやれば良い。そして、相互情報量を計算するためには入力の各周波数成分のSN比を求めれば良い。

step1
photoreceptorに与える刺激は時間的にコントラストが変化する光である。この時、光刺激があるレスポンス関数とコンボリューションされて細胞の電圧になるとする。制御変数はコントラストで、観測値は細胞電圧である。これから周波数領域での伝達関数を求めることができる。

step2
観測値を試行平均して、その値を一試行ごとの観測値から引いてやるとノイズ成分が抽出でき、そこからノイズのスペクトラムを求めることができる。
こうして求めたノイズのパワースペクトラムをstep1で求めた伝達関数で割ってやると、入力の単位におけるノイズのパワースペクトラムを求めることができる。これは3.1.3で行った操作(n_eff = n/g)とほぼ等価である。

step3
あと必要なのは入力のパワースペクトルである。仮にphotoreceptorが最も効率の良い伝達をしているならば、前述したとおり、ノイズ+信号のパワーがすべての周波数で均一になるように信号のパワースペクトルを決めてやれば良い。

step4
各周波数ごとに相互情報量を求めて和をとれば、photoreceptorの情報容量を調べることができる。

(この流れは次節3.2のFig.3.15に載っている)


この節で言いたいことは、情報理論を取り入れると、ニューロン活動を調べる上での基準やものさし、上限や下限を与えられし、さらに情報理論の観点で求めた上限なり下限は、実際のニューロンの特性にわりと関連しているということだと思う。

Spikes: Exploring the Neural Code (Computational Neuroscience) Spikes: Exploring the Neural Code (Computational Neuroscience)
Fred Rieke、David Warland 他 (1999/06/25)
Bradford Books
この商品の詳細を見る

2006.07.03 | | Comments(0) | Trackback(0) | 輪講

SPIKES 2章前半

SPIKES第2章Fundationsの前半について簡単にメモしておきます。

2.1 Characterizing the neural responese
2.1節では、スパイクの捉え方についての基礎が書かれています。

2.1.1 Probabilistic respones and Bayse' rule
スパイクを計測するときは主に何回も同じ刺激を提示して計測するそうです。なぜ、こうするかというとスパイクはいささかランダムだからだそうです。
また、刺激sが与えられたときのスパイク列{t}の尤度P({t}|s)を考えるのではなく、ベイズルールを用いてスパイク列{t}が与えられたときの刺激sである事後確率P(s|{t})を求めることで、つまり、encodingからdecodingの見方をすることで、非線形関数が線形関数になって、より簡単に現象を考えることができるようになるそうです。
さらに、スパイクが出た時刻を基点に刺激を加算平均してやると、ニューロンがどのような刺激に反応するかを調べることができるspike triggered averageという手法があるそうです。

2.1.2 Rate, intervals, and correlations
この小節では、一般にどんな尺度でスパイクを測っているか、測るのが良いのかが紹介されています。その尺度とは、発火頻度、スパイク間隔および自己相関です。
平均発火頻度だけでは刺激を一意にうまく表すことができないが、二次統計量まで考慮するとうまくいくものもあるらしいです。

2.1.3 Input/output analysis
この小節は、入出力関係を表すシステム同定の一般的な話がされています。まず、ある関数のある点周りの近似は、テーラー展開を用いて行うことができます。関数自体の近似はVolterra expansionというので行えるそうです。さらに入力にガウスノイズを考えた場合はWiener expansionというものになるそうです。Wiener expansionはVolterra expansionの原点周りのモーメントがゼロになるようにちょっと手を加えたものと見ることもできると思います。なんだか難しそうですが、結局、スパイクの解析で主に使われているのは1次の展開までで、2次展開まで考えているのはあまり多くないようです。一次の展開は単なる入力とカーネルのコンボリューションです。一次視覚野のニューロンの応答などをWiener expansionで説明したりするそうです。

2.1.4 Models for firing statistics
発火頻度を計算するbinがあまりにも長すぎたり(>1s)、短すぎたり(<1ms)しない場合は、発火頻度をポアソン分布でうまく表すことができるそうです。発火頻度の分散を平均で割ったものをFano factorといい、ポアソン分布ならば分散と平均が同じなのでFano factorは1になります。ただ、自然な刺激に対しては、ポアソン分布を仮定したときに予想される値とは異なる値になって説明できない場合もあるそうです。

2006.06.19 | | Comments(0) | Trackback(0) | 輪講

SPIKES 1章 Introduction

先週からSPIKESの輪講がはじまったので、そのメモをとっていきます。

この本は"decoding"の古典的書物らしいです。ここでいうdecodingとはニューロンから情報を読み取るということです。といっても出版されたのは10年前ですが。主にスパイクという時系列データのdecodingに頂点を当てているみたいです。

まず1章 Introduction です。

1.1 The classical results
神経科学の歴史が書かれています。GalvaniとVolta(1700s)がカエルの脚の筋肉に金属を付けると脚が痙攣するという実験の紹介から始まり、神経細胞の発見(Ramon y Cajal )、特定の神経が特定の感覚刺激に関連あるという発見(Muller)など、いろいろ書かれています。

ここで重要なのは、AdrianとHubel&Wieselの発見でしょうか。

Adrianの発見
1. 感覚ニューロンがスパイクを出すということ
2. rate coding - 感覚刺激がスパイクの発火頻度で表されている
3. adaptation - 同じ刺激にずっとさらされると発火頻度が下がる

Hubel & Wieselの発見
1. orientation selectivity(center-surround ニューロンたちによって形成される)
2. cortical map (コラム構造の発見)
3. self organization (ネコの赤ちゃんの片目に目隠しをするとそれに対応する回路が発達しなくなる)

網膜節細胞がcenter-surround型の受容野を持つということはBarlowやKufflerによって発見されています。

1.2 Defining the problem
スパイク列が意味するものは何か、どのように外界を符号化しているのか、を知りたい。そこで、私たち自身をホムンクルスの立場におこう。(ここでいうホムンクルスとは脳の中で情報を読み取る小人のこと。)これはdecodingの問題である。

1.3 Central claims of this book
1. Representation of time-dependent signals
decodingについてです。
encodingを調べるよりdecodingの方が簡単らしいです。

2. Information rates and coding efficiency
一つのスパイクあたりどれだけの情報(bits/spike)を伝えられるかについてです。

3. Reliability of computation
行動の信頼性、一つのニューロンの信頼性、信頼性に対する物理的な限界についてです。

2006.06.12 | | Comments(0) | Trackback(0) | 輪講

«  | HOME |  »

FC2カウンター

ブロとも申請フォーム

この人とブロともになる

ブログ内検索


上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。