めもめも ...〆(。_。)
認知心理学・認知神経科学とかいろいろなはなし。 あるいは科学と空想科学の狭間で微睡む。
×
[PR]上記の広告は3ヶ月以上新規記事投稿のないブログに表示されています。新しい記事を書く事で広告が消えます。
ぶろぐさーば調子わる。
水出し紅茶が美味しい季節になってまいりました。
2リットルの軟水ミネラルウォーターペットボトルに茶葉をてきとーに放り込んで(こないだ大きめスプーン5、6杯くらいなのがいいかんじだった。茶葉の量はその日の気分)冷蔵庫にいれて翌日茶漉しで葉っぱ漉して飲む。
それだけ。
香りがよいお茶だとなおよし。
最近はくだもの系着香茶の水出しがお気に入り。
ところで、NeuroImageでデコーディング批判出て、かの有名な神谷さんが反論しているらしいですよ!
ちょっとまじめにデコーディングについて勉強しよーと思っていたので、ちょっとがっつり読むことにします。
はくろんには直結しないのにいいのかとかいろいろ懸念もありますが、まあ並行運用ってゆかそのへんはなあなあにバランスとりながら。
ま、それはそれとして。
批判のほうは
Op de Beeckというひとの
Against hyperacuity in brain reading: Spatial smoothing does not hurt multivariate fMRI analyses?
ってタイトル。
(まだページ数ついてない、ってことは引用するときはin press扱いなのかねー)
神谷さんの反駁は
Spatial smoothing hurts localization but not information: Pitfalls for brain mappers.
Kamitani Y, Sawahata Y.
ってやつらしー。
こういうの出てくるともうワクワクテカテカしてくるよね!せざるを得ない!
デコーディングは流行ってるだけじゃなくていろんな議論も引き起こしてくれるものね!
杓子じゃないけどねこなのでデコーディングに激しく心惹かれますもの!
せっかくなので、Op de Beeckさんの話でもざっくり読んでみましょうかしら!
あくまでざっくりね!ざっくり!
水出し紅茶が美味しい季節になってまいりました。
2リットルの軟水ミネラルウォーターペットボトルに茶葉をてきとーに放り込んで(こないだ大きめスプーン5、6杯くらいなのがいいかんじだった。茶葉の量はその日の気分)冷蔵庫にいれて翌日茶漉しで葉っぱ漉して飲む。
それだけ。
香りがよいお茶だとなおよし。
最近はくだもの系着香茶の水出しがお気に入り。
ところで、NeuroImageでデコーディング批判出て、かの有名な神谷さんが反論しているらしいですよ!
ちょっとまじめにデコーディングについて勉強しよーと思っていたので、ちょっとがっつり読むことにします。
はくろんには直結しないのにいいのかとかいろいろ懸念もありますが、まあ並行運用ってゆかそのへんはなあなあにバランスとりながら。
ま、それはそれとして。
批判のほうは
Op de Beeckというひとの
Against hyperacuity in brain reading: Spatial smoothing does not hurt multivariate fMRI analyses?
ってタイトル。
(まだページ数ついてない、ってことは引用するときはin press扱いなのかねー)
神谷さんの反駁は
Spatial smoothing hurts localization but not information: Pitfalls for brain mappers.
Kamitani Y, Sawahata Y.
ってやつらしー。
こういうの出てくるともうワクワクテカテカしてくるよね!せざるを得ない!
デコーディングは流行ってるだけじゃなくていろんな議論も引き起こしてくれるものね!
杓子じゃないけどねこなのでデコーディングに激しく心惹かれますもの!
せっかくなので、Op de Beeckさんの話でもざっくり読んでみましょうかしら!
あくまでざっくりね!ざっくり!
へい!
じゃあアブスト。
fMRIのデコーディングとかいって、1ミリメートル以下のカラム構造が検出できるってほんまなん?
だって血流から脳活動推測してんねんで?
そんなんめっちゃ空間解像度おおまかになるやん?
もし、なんかうまーいこと微細なカラムからの信号を取り出せてるっちゅーねやったらよ?
なめらかフィルタリング使ったら細かい空間情報とぶからあかんくね?デコーディングできんくならね?
んでもなめらかフィルタつかってても「デコーディング」はできるやん?
それって、「デコーディング」と微細なカラムになんの関係もないっちゅーことになるんちゃうんかー。
えー。どやねんやー。
そいう話。
…なんで関西弁になってしまったんだろう。
まあいいや。気にしない気にしない。
ではイントロをばざっくりと。
よく考えたら解析のこまい手順とか知らないよわたし。
なのでひじょーにおおまかな「イメージ」で読みます。
そこんとこご了承ください。
んでは。
fMRI研究はたのしーよねー。
でも、血流由来の信号(blood-oxygenation-level-dependent;BOLD信号ですね。決してあたまのすずやかなことをさす形容詞ではござんせん)ってことで、どうしても空間解像度的にはミリ単位ってゆかたいがい1ミリよりでかい単位で調べることになるよねー(Engel et al., 1997; Parkes et al., 2005; Shmuel et al., 2007)。
fMRIでのうみそを調べるときは、「ボクセル(voxel)」ってゆー単位を使うんやけど(こいつはまーピクセルの立体版やと考えてくらはい。のうみそを立体ドットの集合って考えるわけやね)、1ボクセルには多分数万個のニューロンが含まれてる。
だから個々のニューロンの活動なんてゆーこまい話はMRIではわっかんない。
んでさらに、MRI研究では解析ソフトとかつかって、データまるめこんじゃうんだよねー。
(まーよーするに、カクッカクの信号を、なめらか関数にするフィルタをかけるってことです)
そいで分析しやすくするわけです。
こーゆーやりかただと、複数のボクセルの反応パターンを調べるなんて研究はやれなくね?
パターンがだいじそーやのに(Haxby et al., 2001; Haynes and Rees, 2006; Norman et al., 2006; Peelen et al., 2006)。
それはどんなかってーと、たとえば。
単純な話、ある条件下の活動パターンと同じような条件下の活動パターンの相関を調べる、とか(Downing et al., 2007; Op de Beeck et al., 2006, 2008a; Peelen et al.,2006)。
(この方法はcorrelational multivariate analyses か CMAって呼んでね!ってさ)
比較用に違う条件下のも。
おんなじよーな条件下で相関が高くって、全然違う条件下での相関が低いんなら、当該活動パターンはその条件間の違いを予測できるもんなんじゃね?→Haxbyらの話
まーこんなんは視知覚のfMRIとかで使われてたわけですけども(Bonhoeffer and Grinvald, 1993;Fukuda et al., 2006)。
(ごめん…視知覚のほう不勉強でごめんなさい。
悪気はなかったんだ…なかったけど…ガボールパッチとか見てたら眠くなっちゃうんだわたし…
ごめんね視知覚の先生たち…)
「デコーディング」って言うてるひとたちの間で主流になってるのは(工学的分野でいうところの)パターン分類、とくにsupport vector machine (通称SVM) を使うやりかたです(Haynes and Rees, 2005; Kamitani and Tong, 2005)。
(これは“decoding”multivariate analyses, DMAって呼びたいだってさ)
これは、モデルに分類を学習させて、新しいデータをちゃんとじょうずに分類できるかな?ってするやつ。
CMAもDMAもどっちも1変量の分析よか精度よく解析できてるっぽい(Downing et al., 2007; Haynes and Rees, 2005; Kamitani and Tong, 2005)けど、ちょっと「できすぎ」にも見える。
だって、3立方ミリメートルのボクセルの分析で、しましまの向きがどっち向きになってるのを見てるのかわかる、とか言うんやで?
方向カラムがどんだけちっさい思ってんねん。
カラム(集合体)やいうても1ミリ以下ですよ?
そういうこまいレベルで脳内表現されてげなやつについて、でっかいボクセルでも選択的反応性あるのかね。
ボクセルとかレベルで、機能的領域があるってーやつならまだわかるで。
オブジェクトとLOC(lateral occipital cortex)とか(Op de Beeck et al., 2006, 2008a; Williams et al., 2007)。
でもV1(初期知覚野)で方向ってどーなん。
特徴カラムとか反映してるってこと(Fujita et al., 1992; Op de Beeck et al., 2008b)?
(あれ?レチノトピーとかガン無視ですか?
レチノトピーで方向選択性とかなんとかなりませんか?
いや視知覚詳しないんでようわかりませんけども。
LOCがありならV1のレチノトピーもありじゃないの?あれえ?)
(あー。今気づいた。
カラミっぽいとこがなぜか関西弁で変換されてしまうのな。
何のコントやっちゅーねん)
でわ。
The effect of smoothing on multivariate analyses: some empirical data
という節に参ります。
デコーディングがカラムとかそういうこまい単位のものを反映してるっていうなら、こまい情報をおとしてしまうなめらかフィルタでぐっだぐだになるに違いない!
というわけでやってみました(Op de Beeck et al., 2008a,c)。
筆者の去年の論文では、CMAでオブジェクトやってんけど、なめらかフィルタで相関おちたよー。
とりあえず、
・LOC versus V1
・ややこいポリゴン物体 versus しましま
・CMA versus DMA
でしらべてみまうー。しまうー。
(ちょwwwwオブジェクトでLOC言うときながら無意味ポリゴンかよwwwwという点で吹くのは多分少数派ですね。
なんだよーどうせなら日常的オブジェクトを使ってくれたほうが自分的に楽しいのに。
でも視知覚のひとってシーンだの日常オブジェクトとかだいきらいですよね!
いわく、「視覚的特徴の統制がとれていない」だの。
いわく、「意味とかわけがわからない」だの。
いいんですよ視知覚やってるよーなばりばりかしこいひとたちが嫌うからこそわたしのようないい加減人間が研究に取り組む余地があるわけで。
だから仲間が少なくてもきらわれものでも気にしない!)
はい結果はFig. 2に。
ちなみに実験刺激の例はFig. 1ですね。
論文見れるひとならその図を見ていただければいいんですが、論文見れないひと向けに書いてますんでかんたんに図の解説をば。
相関を出したCMAの結果では、V1-しましまの方向の相関もLOC-オブジェクトの相関も、なめらかフィルタがでかくなるほど高くなるということに。
しかしDMAのほうでは、なめらかフィルタがどんなんであろーと、V1-しましまもLOC-オブジェクトも予測パフォーマンスに変化なし。
ふむ。
んでわ次に
Object experiment
の節に進みます。
CMAでもLOCの活動パターンとオブジェクトの相関はけっこー高かった。
でもなめらかフィルタで相関が高まったのはどうゆうことだろうねー。
DMAだと、LOCの予測パフォーマンスはほぼ100%くらいになった。
けどなめらかフィルタの影響はなかった。
(だからなんやねーん、と思ったけどここは結果の記述しかないのでツッコミがまんがまん)
でわでわ。
The effect of smoothing on multivariate analyses: a simulation
という節へ。
なめらか関数は、少なくともデコーディングの予測力を下げるもんではないっぽい。
LOCでもV1でも、その傾向は同じやった。
あれ?これ複数ボクセルの分析してる研究の話と矛盾してね?
じゃあ、なめらか関数のせいでパフォーマンスさがるような状況ってのをシミュレーションしてみよー。
実際に皮質が4mm以上のでかい機能的単位をもつ場合と。
実際は機能的単位はちょーこまくて1mm以下な場合。
Fig. 4はそのシミュレーションの図解で、右側がでかい単位で情報表現してる場合、左側がこまい単位での場合です。
で、まーノイズがのったりとかして、得られるfMRIデータ(Fig. 4のB)とかなめらかフィルタかけたデータ(Fig. 4のC)とかではどっちがどっちか区別がつかねー。
ほいでその2つの場合における1つのラン(測定のひとまとまり)での選択的活動と、おんなじ条件下のほかのランでの選択的活動との相関とか出してみた。
Fig. 5にそのシミュレーションの結果。
CMAだと、ちまい単位での場合、なめらか関数の大きさに相関は影響されない。
だけど、でかい単位の場合だと、なめらか関数がでかくなるほど相関がでかくなった。
おんなじようにDMAでもシミュレーションしてみた。
こっちは、でかい単位の場合でなめらか関数の影響が無かった。
ちまい単位だと、なんとまあなめらか関数がでかくなるとパフォーマンスが落ちた。
このシミュレーションの結果を考えると、デコーディングしたっていうのはでかい単位で表現できる情報のことなんじゃないかいね。
こまい単位の分はデコーディングできてないんじゃないかね。
という話。
で、
Discussion
ですよ。
CMAはなめらか関数でかいと予測力上昇→でかい単位情報を反映してるはず!
DMAはなめらか関数ではパフォーマンス影響うけねー。
CMAはS/N比の影響をもろに受ける(Op de Beeck et al.,2008a)。
DMAだとどんだけノイズが入ってもパフォーマンスかんけーねー。
(そこだけ聞くといいことのように聞こえるんだが)
シミュレーションはまー所詮シミュレーションですけども、シミュレーション的にはDMAやと、なめらか関数かけるとちまい単位情報の予測力が下がるっぽいぞー。
シミュレーションでは、単純なホワイトノイズを使ったわけですけども、全体的にかかるからとなりどーしのボクセルで相関高くなっちゃった(Gautama and Van Hulle, 2005)。
(うわそのひとブッダの子孫ですか?って言いたくてしかたないお!)
空間周波数の低いとこにかかるよーなノイズがあったら、ざっぱになめらかフィルタかけると予測パフォーマンスあんましイクナイんじゃないかなーと思ってシミュレーションちょっと追加してみた。
でもおまいらには教えてあげない。
(これを論文上では“data not shown”と言います。いぢわるですね。
でもこのデータで次の論文書けるお!とか思ってたらそーゆーいぢわるがまかり通ったりします。
いいなあそんなほいほいデータ持ってて。と思うけどシミュ屋さんと実験屋さんでは「でーた」の意味が違うよなとかなんとか以下愚痴省略)
とりあえず、結果的には空間周波数低いとこのノイズでSVMの予測パフォーマンスは、でかい単位の場合でもちまい単位の場合でも筆者の推測どーり下がってた。
特にでかい単位でのパフォーマンス下がり具合半端じゃなかった。
ちょっとだいじなこと言うからはいみんなちゅうもーく。
今回、V1でしましま方向のデコーディングとLOCでポリゴン物体のデコーディングをやって、それぞれ分析したわけですが。
マカクザルとかでの単一電極でニューロン活動記録するよーな研究の結果から言って、方向とか物体特徴とか、ちまい単位で表現されてる情報ですよねー。
方向だったらちょー有名ノーベル受賞のHubel and Wiesel, 1969やGrinvald et al., 1986、物体特徴だったらみんなだいすき(というよりもわたしが個人的にすげー感銘を受けた)Fujita et al., 1992ですね。
(だって、この記事のってるNatureが某陸の孤島キャンパスの図書館にさらわれていってしまったよー、って話をある先生にしたら、先生は藤田先生にかけあってくださって、藤田先生はわざわざpdfくださったんですよ。
もーすげー喜んで読んだ。
でも表紙(マネキンの生首&パプリカとマネキンの唇を重ねたもの)のセンスはちょっとないわー。いやあれはNature編集部がわるいんだと思うけど。
これはものすごい研究だ!とわかってるのに、いやわかってるからこそ表紙きもいのが難点)
デコーディング研究って、電極で検出できるくらいのちまい単位で表現される情報を、fMRIでも検出できることになるんだろーか?
デコーディングの元ネタのほう(Haynes and Rees, 2005; Kamitani and Tong, 2005)は、「まて!はやまるな!」とデコーディング=カラムの活動反映説について慎重な姿勢を見せておりますけれども。
でもカラム反映説っぽいかんじでレビューにとりあげられちゃったりもするしねー(Haynes and Rees, 2006; Norman et al., 2006)。
(個人的には、カラム反映しないよーなパラダイムでやっても意味なくね?という気持ちと、いや情報表現の単位はカラムだけじゃないやろ、もっとでかい機能的単位あっても全然おかしくないやろ、という気持ちがまざってひじょーに複雑。
デコーディング最前線のひとはどう考えてるんやろー。聞いてみたいね。
そゆ意味では神谷さんの反論は非常に楽しみです。
もっと非公式に(=ざっくり&データドリブンでなく仮説ドリブンに)聞いてみたい気もするけどわたし神谷さん研究室に伝手無いしなあ。
一回そこのPDのひとと話す機会があったけど、ひとみしり発動なうえに、興味の方向が全然違って話かみあわなくなってもーいーや、ってなっちゃったしなあ。
なんか、初期知覚野からのデコーディングパフォーマンスをあげるための方法論の話だけだと、わたしはあんまし興味をそそられないのですよ。
わたしが欲しいのは、「見ているものが何か当てられる機械」ではなくて、「こころのしくみがわかるツール」、もっと定義的にいえば「記憶の情報表現を操作的に調べられるツール」なんだもの。
そゆ意味で、今のデコーディング研究は、わたしの望みに近くて遠い。
方法論としては面白いから、うまいやりかたさえ見つかれば(そして研究資金が手に入れば)今のデコーディング研究を参考にわたしの望みに近づけると思うんだけどなー。
なので、行動データとSVMってゆー(ある意味安直な)研究は、工学系のひとには新鮮味なくておもしろくなくっても、心理屋さんにとってはまだまだ宝の山だと思う。
じゃあJEPでやれって言われたら泣くけど。)
んで、ちまい単位で表現される情報ってのがカラム由来かもねーってのはまあいいとして、でかい単位で表現される情報って何よ、という話。
でそれって空間配置とかざっぱなアレ、うちらで言うとこ(?)の大局的情報なんかもねーみたいなことはちらっと書いてある。
やーでもあーでもないこーでもないともにゅもにゅ言ってるんでめんどくさいし省略。
Appendixもぱっと見そんなたいしたことないっちゅーか詳しいこと知りたかったら元論文読めってかんじなんで省略。
まーそんなかんじでした。
途中かっこ書きなんかで風の向くまま気の向くままがんがん感想入れてましたがさらに個人的感想。
これ今年の3月の注意と認知合宿研究会で谷藤先生が言ってた話で簡単に論破されるんじゃね?
サルでTEに機能ドメインあるっぽいよーってやつ。
あーでもあれってまだ論文にはなってないのかな。
どうだっけな。
わかんないのでとりあえず注意と認知研究会のURLはっとく。
ttp://www.l.u-tokyo.ac.jp/AandC/
ここがばれたらかるくしねるのでh抜きます。
フレーム使用ページなんで、もしそこ見る人がいたら、左のメニューから研究会資料の2009年のをみたら谷藤先生の資料見れます。
複数カラムででかい単位の機能ドメインが実現されるよーってなったらこのひとの結論意味なくね?
って思うんだけどどうなんだろう。
まあ神谷さんの反論がどんななってんのかはまた今度。
追記。
神経科学有名ブログではこれ+神谷さんの反論の2本立てでレビューやってた。
やっぱ本業には勝てないのか。しょんぼり。
(なんの勝負だ)
つーわけで神谷さんの反論ざっくり読みたいひとはこっちを読まれたほうがわたしのたりないあたまレビューよりなんぼか役に立つと思います。
http://www.mumumu.org/~viking/blog-wp/?p=2886
まー神谷さんの分のレビューは免れたと思って今度はちょっと毛色のかわったデコーディングもの読もう。
と言っておくとSFレビューになったりするわけですねわかります。
じゃあアブスト。
fMRIのデコーディングとかいって、1ミリメートル以下のカラム構造が検出できるってほんまなん?
だって血流から脳活動推測してんねんで?
そんなんめっちゃ空間解像度おおまかになるやん?
もし、なんかうまーいこと微細なカラムからの信号を取り出せてるっちゅーねやったらよ?
なめらかフィルタリング使ったら細かい空間情報とぶからあかんくね?デコーディングできんくならね?
んでもなめらかフィルタつかってても「デコーディング」はできるやん?
それって、「デコーディング」と微細なカラムになんの関係もないっちゅーことになるんちゃうんかー。
えー。どやねんやー。
そいう話。
…なんで関西弁になってしまったんだろう。
まあいいや。気にしない気にしない。
ではイントロをばざっくりと。
よく考えたら解析のこまい手順とか知らないよわたし。
なのでひじょーにおおまかな「イメージ」で読みます。
そこんとこご了承ください。
んでは。
fMRI研究はたのしーよねー。
でも、血流由来の信号(blood-oxygenation-level-dependent;BOLD信号ですね。決してあたまのすずやかなことをさす形容詞ではござんせん)ってことで、どうしても空間解像度的にはミリ単位ってゆかたいがい1ミリよりでかい単位で調べることになるよねー(Engel et al., 1997; Parkes et al., 2005; Shmuel et al., 2007)。
fMRIでのうみそを調べるときは、「ボクセル(voxel)」ってゆー単位を使うんやけど(こいつはまーピクセルの立体版やと考えてくらはい。のうみそを立体ドットの集合って考えるわけやね)、1ボクセルには多分数万個のニューロンが含まれてる。
だから個々のニューロンの活動なんてゆーこまい話はMRIではわっかんない。
んでさらに、MRI研究では解析ソフトとかつかって、データまるめこんじゃうんだよねー。
(まーよーするに、カクッカクの信号を、なめらか関数にするフィルタをかけるってことです)
そいで分析しやすくするわけです。
こーゆーやりかただと、複数のボクセルの反応パターンを調べるなんて研究はやれなくね?
パターンがだいじそーやのに(Haxby et al., 2001; Haynes and Rees, 2006; Norman et al., 2006; Peelen et al., 2006)。
それはどんなかってーと、たとえば。
単純な話、ある条件下の活動パターンと同じような条件下の活動パターンの相関を調べる、とか(Downing et al., 2007; Op de Beeck et al., 2006, 2008a; Peelen et al.,2006)。
(この方法はcorrelational multivariate analyses か CMAって呼んでね!ってさ)
比較用に違う条件下のも。
おんなじよーな条件下で相関が高くって、全然違う条件下での相関が低いんなら、当該活動パターンはその条件間の違いを予測できるもんなんじゃね?→Haxbyらの話
まーこんなんは視知覚のfMRIとかで使われてたわけですけども(Bonhoeffer and Grinvald, 1993;Fukuda et al., 2006)。
(ごめん…視知覚のほう不勉強でごめんなさい。
悪気はなかったんだ…なかったけど…ガボールパッチとか見てたら眠くなっちゃうんだわたし…
ごめんね視知覚の先生たち…)
「デコーディング」って言うてるひとたちの間で主流になってるのは(工学的分野でいうところの)パターン分類、とくにsupport vector machine (通称SVM) を使うやりかたです(Haynes and Rees, 2005; Kamitani and Tong, 2005)。
(これは“decoding”multivariate analyses, DMAって呼びたいだってさ)
これは、モデルに分類を学習させて、新しいデータをちゃんとじょうずに分類できるかな?ってするやつ。
CMAもDMAもどっちも1変量の分析よか精度よく解析できてるっぽい(Downing et al., 2007; Haynes and Rees, 2005; Kamitani and Tong, 2005)けど、ちょっと「できすぎ」にも見える。
だって、3立方ミリメートルのボクセルの分析で、しましまの向きがどっち向きになってるのを見てるのかわかる、とか言うんやで?
方向カラムがどんだけちっさい思ってんねん。
カラム(集合体)やいうても1ミリ以下ですよ?
そういうこまいレベルで脳内表現されてげなやつについて、でっかいボクセルでも選択的反応性あるのかね。
ボクセルとかレベルで、機能的領域があるってーやつならまだわかるで。
オブジェクトとLOC(lateral occipital cortex)とか(Op de Beeck et al., 2006, 2008a; Williams et al., 2007)。
でもV1(初期知覚野)で方向ってどーなん。
特徴カラムとか反映してるってこと(Fujita et al., 1992; Op de Beeck et al., 2008b)?
(あれ?レチノトピーとかガン無視ですか?
レチノトピーで方向選択性とかなんとかなりませんか?
いや視知覚詳しないんでようわかりませんけども。
LOCがありならV1のレチノトピーもありじゃないの?あれえ?)
(あー。今気づいた。
カラミっぽいとこがなぜか関西弁で変換されてしまうのな。
何のコントやっちゅーねん)
でわ。
The effect of smoothing on multivariate analyses: some empirical data
という節に参ります。
デコーディングがカラムとかそういうこまい単位のものを反映してるっていうなら、こまい情報をおとしてしまうなめらかフィルタでぐっだぐだになるに違いない!
というわけでやってみました(Op de Beeck et al., 2008a,c)。
筆者の去年の論文では、CMAでオブジェクトやってんけど、なめらかフィルタで相関おちたよー。
とりあえず、
・LOC versus V1
・ややこいポリゴン物体 versus しましま
・CMA versus DMA
でしらべてみまうー。しまうー。
(ちょwwwwオブジェクトでLOC言うときながら無意味ポリゴンかよwwwwという点で吹くのは多分少数派ですね。
なんだよーどうせなら日常的オブジェクトを使ってくれたほうが自分的に楽しいのに。
でも視知覚のひとってシーンだの日常オブジェクトとかだいきらいですよね!
いわく、「視覚的特徴の統制がとれていない」だの。
いわく、「意味とかわけがわからない」だの。
いいんですよ視知覚やってるよーなばりばりかしこいひとたちが嫌うからこそわたしのようないい加減人間が研究に取り組む余地があるわけで。
だから仲間が少なくてもきらわれものでも気にしない!)
はい結果はFig. 2に。
ちなみに実験刺激の例はFig. 1ですね。
論文見れるひとならその図を見ていただければいいんですが、論文見れないひと向けに書いてますんでかんたんに図の解説をば。
相関を出したCMAの結果では、V1-しましまの方向の相関もLOC-オブジェクトの相関も、なめらかフィルタがでかくなるほど高くなるということに。
しかしDMAのほうでは、なめらかフィルタがどんなんであろーと、V1-しましまもLOC-オブジェクトも予測パフォーマンスに変化なし。
ふむ。
んでわ次に
Object experiment
の節に進みます。
CMAでもLOCの活動パターンとオブジェクトの相関はけっこー高かった。
でもなめらかフィルタで相関が高まったのはどうゆうことだろうねー。
DMAだと、LOCの予測パフォーマンスはほぼ100%くらいになった。
けどなめらかフィルタの影響はなかった。
(だからなんやねーん、と思ったけどここは結果の記述しかないのでツッコミがまんがまん)
でわでわ。
The effect of smoothing on multivariate analyses: a simulation
という節へ。
なめらか関数は、少なくともデコーディングの予測力を下げるもんではないっぽい。
LOCでもV1でも、その傾向は同じやった。
あれ?これ複数ボクセルの分析してる研究の話と矛盾してね?
じゃあ、なめらか関数のせいでパフォーマンスさがるような状況ってのをシミュレーションしてみよー。
実際に皮質が4mm以上のでかい機能的単位をもつ場合と。
実際は機能的単位はちょーこまくて1mm以下な場合。
Fig. 4はそのシミュレーションの図解で、右側がでかい単位で情報表現してる場合、左側がこまい単位での場合です。
で、まーノイズがのったりとかして、得られるfMRIデータ(Fig. 4のB)とかなめらかフィルタかけたデータ(Fig. 4のC)とかではどっちがどっちか区別がつかねー。
ほいでその2つの場合における1つのラン(測定のひとまとまり)での選択的活動と、おんなじ条件下のほかのランでの選択的活動との相関とか出してみた。
Fig. 5にそのシミュレーションの結果。
CMAだと、ちまい単位での場合、なめらか関数の大きさに相関は影響されない。
だけど、でかい単位の場合だと、なめらか関数がでかくなるほど相関がでかくなった。
おんなじようにDMAでもシミュレーションしてみた。
こっちは、でかい単位の場合でなめらか関数の影響が無かった。
ちまい単位だと、なんとまあなめらか関数がでかくなるとパフォーマンスが落ちた。
このシミュレーションの結果を考えると、デコーディングしたっていうのはでかい単位で表現できる情報のことなんじゃないかいね。
こまい単位の分はデコーディングできてないんじゃないかね。
という話。
で、
Discussion
ですよ。
CMAはなめらか関数でかいと予測力上昇→でかい単位情報を反映してるはず!
DMAはなめらか関数ではパフォーマンス影響うけねー。
CMAはS/N比の影響をもろに受ける(Op de Beeck et al.,2008a)。
DMAだとどんだけノイズが入ってもパフォーマンスかんけーねー。
(そこだけ聞くといいことのように聞こえるんだが)
シミュレーションはまー所詮シミュレーションですけども、シミュレーション的にはDMAやと、なめらか関数かけるとちまい単位情報の予測力が下がるっぽいぞー。
シミュレーションでは、単純なホワイトノイズを使ったわけですけども、全体的にかかるからとなりどーしのボクセルで相関高くなっちゃった(Gautama and Van Hulle, 2005)。
(うわそのひとブッダの子孫ですか?って言いたくてしかたないお!)
空間周波数の低いとこにかかるよーなノイズがあったら、ざっぱになめらかフィルタかけると予測パフォーマンスあんましイクナイんじゃないかなーと思ってシミュレーションちょっと追加してみた。
でもおまいらには教えてあげない。
(これを論文上では“data not shown”と言います。いぢわるですね。
でもこのデータで次の論文書けるお!とか思ってたらそーゆーいぢわるがまかり通ったりします。
いいなあそんなほいほいデータ持ってて。と思うけどシミュ屋さんと実験屋さんでは「でーた」の意味が違うよなとかなんとか以下愚痴省略)
とりあえず、結果的には空間周波数低いとこのノイズでSVMの予測パフォーマンスは、でかい単位の場合でもちまい単位の場合でも筆者の推測どーり下がってた。
特にでかい単位でのパフォーマンス下がり具合半端じゃなかった。
ちょっとだいじなこと言うからはいみんなちゅうもーく。
今回、V1でしましま方向のデコーディングとLOCでポリゴン物体のデコーディングをやって、それぞれ分析したわけですが。
マカクザルとかでの単一電極でニューロン活動記録するよーな研究の結果から言って、方向とか物体特徴とか、ちまい単位で表現されてる情報ですよねー。
方向だったらちょー有名ノーベル受賞のHubel and Wiesel, 1969やGrinvald et al., 1986、物体特徴だったらみんなだいすき(というよりもわたしが個人的にすげー感銘を受けた)Fujita et al., 1992ですね。
(だって、この記事のってるNatureが某陸の孤島キャンパスの図書館にさらわれていってしまったよー、って話をある先生にしたら、先生は藤田先生にかけあってくださって、藤田先生はわざわざpdfくださったんですよ。
もーすげー喜んで読んだ。
でも表紙(マネキンの生首&パプリカとマネキンの唇を重ねたもの)のセンスはちょっとないわー。いやあれはNature編集部がわるいんだと思うけど。
これはものすごい研究だ!とわかってるのに、いやわかってるからこそ表紙きもいのが難点)
デコーディング研究って、電極で検出できるくらいのちまい単位で表現される情報を、fMRIでも検出できることになるんだろーか?
デコーディングの元ネタのほう(Haynes and Rees, 2005; Kamitani and Tong, 2005)は、「まて!はやまるな!」とデコーディング=カラムの活動反映説について慎重な姿勢を見せておりますけれども。
でもカラム反映説っぽいかんじでレビューにとりあげられちゃったりもするしねー(Haynes and Rees, 2006; Norman et al., 2006)。
(個人的には、カラム反映しないよーなパラダイムでやっても意味なくね?という気持ちと、いや情報表現の単位はカラムだけじゃないやろ、もっとでかい機能的単位あっても全然おかしくないやろ、という気持ちがまざってひじょーに複雑。
デコーディング最前線のひとはどう考えてるんやろー。聞いてみたいね。
そゆ意味では神谷さんの反論は非常に楽しみです。
もっと非公式に(=ざっくり&データドリブンでなく仮説ドリブンに)聞いてみたい気もするけどわたし神谷さん研究室に伝手無いしなあ。
一回そこのPDのひとと話す機会があったけど、ひとみしり発動なうえに、興味の方向が全然違って話かみあわなくなってもーいーや、ってなっちゃったしなあ。
なんか、初期知覚野からのデコーディングパフォーマンスをあげるための方法論の話だけだと、わたしはあんまし興味をそそられないのですよ。
わたしが欲しいのは、「見ているものが何か当てられる機械」ではなくて、「こころのしくみがわかるツール」、もっと定義的にいえば「記憶の情報表現を操作的に調べられるツール」なんだもの。
そゆ意味で、今のデコーディング研究は、わたしの望みに近くて遠い。
方法論としては面白いから、うまいやりかたさえ見つかれば(そして研究資金が手に入れば)今のデコーディング研究を参考にわたしの望みに近づけると思うんだけどなー。
なので、行動データとSVMってゆー(ある意味安直な)研究は、工学系のひとには新鮮味なくておもしろくなくっても、心理屋さんにとってはまだまだ宝の山だと思う。
じゃあJEPでやれって言われたら泣くけど。)
んで、ちまい単位で表現される情報ってのがカラム由来かもねーってのはまあいいとして、でかい単位で表現される情報って何よ、という話。
でそれって空間配置とかざっぱなアレ、うちらで言うとこ(?)の大局的情報なんかもねーみたいなことはちらっと書いてある。
やーでもあーでもないこーでもないともにゅもにゅ言ってるんでめんどくさいし省略。
Appendixもぱっと見そんなたいしたことないっちゅーか詳しいこと知りたかったら元論文読めってかんじなんで省略。
まーそんなかんじでした。
途中かっこ書きなんかで風の向くまま気の向くままがんがん感想入れてましたがさらに個人的感想。
これ今年の3月の注意と認知合宿研究会で谷藤先生が言ってた話で簡単に論破されるんじゃね?
サルでTEに機能ドメインあるっぽいよーってやつ。
あーでもあれってまだ論文にはなってないのかな。
どうだっけな。
わかんないのでとりあえず注意と認知研究会のURLはっとく。
ttp://www.l.u-tokyo.ac.jp/AandC/
ここがばれたらかるくしねるのでh抜きます。
フレーム使用ページなんで、もしそこ見る人がいたら、左のメニューから研究会資料の2009年のをみたら谷藤先生の資料見れます。
複数カラムででかい単位の機能ドメインが実現されるよーってなったらこのひとの結論意味なくね?
って思うんだけどどうなんだろう。
まあ神谷さんの反論がどんななってんのかはまた今度。
追記。
神経科学有名ブログではこれ+神谷さんの反論の2本立てでレビューやってた。
やっぱ本業には勝てないのか。しょんぼり。
(なんの勝負だ)
つーわけで神谷さんの反論ざっくり読みたいひとはこっちを読まれたほうがわたしのたりないあたまレビューよりなんぼか役に立つと思います。
http://www.mumumu.org/~viking/blog-wp/?p=2886
まー神谷さんの分のレビューは免れたと思って今度はちょっと毛色のかわったデコーディングもの読もう。
と言っておくとSFレビューになったりするわけですねわかります。
この記事にコメントする
この記事にトラックバックする
トラックバックURL:
カレンダー
10 | 2024/11 | 12 |
S | M | T | W | T | F | S |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
カテゴリ説明
もっさり:日々の雑感をもっさり。
がっつり:論文や研究関連をがっつり。
びっくり:科学ニュースでびっくり。
まったり:空想科学などでまったり。
ばっかり:デザイン系自己満足ばっかり。
ほっこり:お茶を嗜んでほっこり。
がっつり:論文や研究関連をがっつり。
びっくり:科学ニュースでびっくり。
まったり:空想科学などでまったり。
ばっかり:デザイン系自己満足ばっかり。
ほっこり:お茶を嗜んでほっこり。
最新コメント
※SPAMが多いのでhttpを含むコメントと英語のみのコメントを禁止しました※
最新記事
(05/08)
(04/24)
(04/10)
(02/03)
(11/01)
最新トラックバック
プロフィール
HN:
az
性別:
非公開
自己紹介:
興味のあるトピックス
分野は視覚認知。視知覚にがて。
あと記憶全般。
カテゴリ (semanticsか?) とかも。
最近デコーディングが気になる。
でも基本なんでもこい。
好奇心は悪食。
好きな作家(敬称略)
川上弘美
小林秀雄
津原泰水
森茉莉
レイ・ブラッドベリ
イタロ・カルヴィーノ
グレッグ・イーガン
シオドア・スタージョン
分野は視覚認知。視知覚にがて。
あと記憶全般。
カテゴリ (semanticsか?) とかも。
最近デコーディングが気になる。
でも基本なんでもこい。
好奇心は悪食。
好きな作家(敬称略)
川上弘美
小林秀雄
津原泰水
森茉莉
レイ・ブラッドベリ
イタロ・カルヴィーノ
グレッグ・イーガン
シオドア・スタージョン
ブログ内検索
最古記事
(08/05)
(08/16)
(08/19)
(08/19)
(08/21)
カウンター
フリーエリア
PR