忍者ブログ

めもめも ...〆(。_。)

認知心理学・認知神経科学とかいろいろなはなし。 あるいは科学と空想科学の狭間で微睡む。

2017/10    09≪ 1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17  18  19  20  21  22  23  24  25  26  27  28  29  30  31  ≫11
こんなんshinka3.exblog.jp/10976642/みつけた。
いやまあNatureとか縁遠い世界ですが、こーやって研究関係のブログやってみるのはよいことだ!とNatureにおすみつきをもらったような気になっておこう。
普段研究とかとあまり関係のない生活をしてるひとに、「こんなんやってるひとがいますよ」という情報を提供するのもまあよいんじゃないかなー。
ということで。

Kay & GallantでNature Neuroscienceにデコーディングまとめがでとるー!
たった2ページやけど。
そして某有名神経系論文読んだりとかブログはしばらくおやすみ。
これはもうわたしがこの論文読むしかなくね!?
研究会の準備!?そんなん明日でもできるわぁー。
つーか2ページなんだからさっくり読めるはず!

ということでひさしぶりにがっつり自分の興味ある論文を読みます。
そいや前のデコーディングのも挫折しっぱなしだー。
まあいいや。
「とりあえずまとめから」はひよっこの常套手段ですから。

つーわけで本日はこれを読みます。

I can see what you see.
Kay KN, Gallant JL.
Nat Neurosci. 2009 Mar;12(3):245.

でははじまりはじまり。


fMRIのデータを分類することで、MRI装置の中にいるヒトが何を知覚しているのかをあててみせるぜ!というのが「デコーディング」という研究方法なわけです。
たいていのfMRI研究では、調べたいところ(英語でregion of interest略してROIと呼びます)のボクセル(ピクセルの立体版ね。得られるのは3次元画像データだから)が受け取る情報や行う課題によって活動が変わるぜー、というアプローチをとる。
デコーディングやら分類ものでは、その逆で、ボクセルどもの活動をパターンわけして、「そのとき何してたか(何見てたかとか)」に対応できるかな?っというの。
で、まー単純な例として、家か顔かどっちかしか見せないよ!どっちを見てるかあててごらん!という程度なら可能だったりするんだよねー。

最近のやつ(Kayらの2008年の論文のとか、Mitchell, et al., 2008とか。そいやわたし後者ちゃんと読んでないな)は、脳活動を分類して、「それは何択かあるうちのどれでしょう?」は当てられるよー、という話。
でも選択問題だけじゃなくて、何を見ているか画像を再構成することも可能だよ!あんまし正確じゃないっぽいけど。(Thirion, et al., 2006やべえこれ全然読んでないやつだ)
そしてこないだ報道されてたMiyawaki, et al. (2008)ではだいぶデコーディング洗練されてきたよー。
んでその説明が図1.まあこれに関しては以前ちらっとふれたので割愛。例の10×10方眼紙で何見てたかわかるよ!ってやつ。
対象にするROIはV1とかV2とかV3とか、いわゆる「初期視覚野」とかそんなかんじで言われるところ。
すげーおおざっぱなことを言うと、要するにうしろどたま。
(うしろどたまの初期視覚野は、網膜からの連絡を受け持つところから連絡(ややこしい言い方でごめん)をもらっているので、その活動と網膜にうつっている画像に対応があるのです。のうみそ研究者は、この対応のことを「レチノトピー」と呼びます)
この筆者らがMiyawaki, et al. (2008)で注目しているのは、対応する領域がかぶってるところが結構たくさんあったのに見てた画像再構成ができた点。
画像を再構成するにあたって画像の分割方法が何種類かあったからねー。
んで分割したとことの対応を見て、分割数種類を合わせて、最終的に再構成って流れだった。
対応する範囲が違うボクセルもあるわけだから、
いろんな分割方法を組み合わせるっていうのは再構成画像をより正確にするにはよい方法っぽい。
(ひとつのボクセルの中には、ものすごい数のニューロンが含まれてる。
だってボクセルってせいぜい1ミリ立方とかやし。
それに対してニューロンの大きさは20μmに満たないんですよ。
そりゃーいっぱいあるわな。
んで、たくさんあるニューロンの中には、おおざっぱな空間配置に反応するものもいれば、
すげーこまかいピンポイントにしか反応しないものもいる。
結果として、ヒトの脳機能イメージング研究で出てくるボクセルは、
アレもやればコレにも関係してくる、マルチな役者のような振る舞いをするわけですよ。
もちろん限界はあるだろーけどね。)
つまり、今回の話でいえば、周辺視野に対応するボクセルは中心窩に対応するボクセルよりも、おおざっぱな空間配置に反応するから、そーゆーボクセルの活動は、おおざっぱな分割画像に対応付けるときに重み付けしたらよろしい。
逆も然り。
組み合わせるという方法はよい!ってことかな。
(わたしの物言いがおおざっぱだ。
まあもともとそういうスタンスのブログだからいいや)

さて。
Miyawaki, et al. (2008)は「見てた画像を再構成する」という触れ込みなわけですが。
デコーディングと呼ばれるものには他にも「見てたのはどれか当てる」「脳活動を分類する」というパターンがあるよ、と。
とりあえず今までのデコーディング研究を種類分けしたのが図2です。
図を無許可で掲載するわけにもいかんのでざくーり解説してみませう。

分類型
*Haxby, et al. 2001
(MRIボクセル活動とオブジェクト(なんかいろんなモノ)の分類)
*Hung, et al. 2005
(ニューロン活動とオブジェクト分類)
*Kamitani & Tong 2005
(ボクセル活動としましまの方向)

当てる型
*Kayのやつ
(ボクセルと風景画像)
*Mitchellのやつ
(ボクセルと単語の「意味」)

再構成型
*↑でもふれたMiyawaki
*Thirion
(ボクセルと白黒コントラスト、らしい)
*Stanly, Li & Dan, 1999
(ニューロンと風景・・・
・・・って、え!?Li, F-Fって風景の工学的手法研究で有名なあのひとでわ!!?
え何もうデコーディングとかとっくの昔にやってたの!!?うわああおあああああ!!!)

対応付けの種類でいえば、

脳活動→見たもの
*Miyawaki
*Haxby
*Hung
*Kamitani
*Stanley

見たもの→脳活動
*Kay
*Mitchell
*Thirion

まーそれぞれ良し悪しがありますね。
この課題ならこっちのほうが予測精度が高くなる、ってのはあるようだ。
あと見たものの分類方法を変えてみるというアプローチもあり。

さてさて、日本のメディアがいっせいにちやほやしたMiyawakiらの研究は鉄壁完璧なのか!?っていうと、科学研究なんだからそんなわけもなく。
筆者らはこーゆーツッコミを展開しています。
V4とかの「高次」視覚野のボクセルつかったらさらに正確なデコーディングになるのでは?
(あ!それまさしく前わたしが言ってたことと同じやーん。
ちうかみんな考えるよねそんなこと!)
(レチノトピーが保たれた)V1から視覚情報表現はどのようになっているのかという問題を考えるのによいかもねー、と。
(たとえば、おなじモノでも正面から見たときと側面から見たときって見た目は全然違うよね。
でもわたしたちはそれをちゃんと「おなじモノ」って考えられる。網膜にうつる像は違っても。
それってどういうこと?
他にも、「よく考えたら見たかんじ違うのに“おんなじ”ってみなしてる」ことっていっぱいあるよー。
それはどういう仕組みなのか?
仮説はあれど「正解」はまだわからんのですよ。いまのところ)

あと、単純に、MRI装置って解像度そんなによくない(個々のニューロンを検出できないという意味において)から、もっと解像度よくしたりノイズを減らしたりできればいいよねー。
(・・・まあそんなん神経科学者じゃなくて工学のひとに頼むしかないけどね!もっとすごいMRI装置作ってよーなんて)
んで高磁場MRIの研究を例に出してる。
Yacoub, Harel & Ugurbil (2008)PNASの。
見たら7テスラやった。
(とはいえ高磁場のは解析いろいろ大変だと聞く。そんなに詳しくは知らんけど)

それか、そもそもの方眼紙をこまかくすればいんじゃね?とさ。
きくところによると32×32ぐらいできるらしいよ!
(この報告は学会発表抄録っぽいので詳しくはわからない)

まーそれにつかった画像は白黒コントラストで作れるシンプルなものだけだったし、
今のところ脳活動から自然画像をデコーディングできた研究は無い。
(うおおおおおおおおおおおおおおおおおお!
どーどー自分。自分の思ってたこと言われて興奮すんな。
ちなみに筆者らがやったのは自然風景画像から脳活動への対応付けにあたる・・・
・・・あれ違いがよくわからんくなってきた。
もっかいちゃんと読んだほうがいいかも?)
そもそも10×10方眼紙で書ける風景なんてほとんどねえー。
もっと升目をこまかくして風景画像の輪郭検出できたら可能?
でも風景画像は輪郭だけじゃなくて肌理とかの情報大事やしなー。
(ついでにいうと色もな!
ちうか↑でV4(色に関与するという)を出してきたのって、
まさか色つき風景デコーディングできる研究を発表準備してたりする暗示とかじゃないよな?
うがちすぎか自分!?いやでも・・・うーん・・・)
だから、自然画像のデコーディングには、Miyawakiらの方法以外にも何か新しい方法が必要じゃね?と。
(うわああやっぱし↑の暗示に思える!!!)

あとはデコーディングは福祉にやくだつよねーとかそういうドリーミングなので割愛。
そりゃブレインマシンインターフェイスな何かを夢想しますよねーそりゃ。
(とはいえMRIつかってる時点で無理が生じるけど。
動かなくてもよい場面なら使えるか?
運動系がまひしてるひとの数分間意思表明とか?)


と、だいたいこんなかんじ。
デコーディング論文の整理には役立ったと思われる。
そして何より、わたしの妄想に近いところにいるのは神谷さんたちじゃなくってこの筆者らだということがわかった。
・・・まあわかったところで何かできるわけではないけども。
いつかこのひとたちと議論してみたいなあ。
・・・それにはちゃんとした英語力が必要になるわけで・・・ううぅぅぅ・・・

いきなり英会話能力があっぷするわけもないので、とりあえずKayらの2008の例の論文をもう一度ちゃんと読むことにしよう。
・・・いやそこで英会話の練習にいかないところがひとみしりひよっこのだめなところなわけですが。
わかってたらなんとかしろよ自分。
はいそうですね。

あ、今気づいたけどRieger et al. 2008ガン無視じゃん。
MEGだから?ボクセル関係ないから?知覚じゃなくて記憶を扱うから?
あれ?なんで?

と、いうことは、KayのとRiegerのと両方読んで考え直さないかんわけですな。
まあじっくり取り組む読み物ということで。

お邪魔します
キリ番を踏んだのも何かのご縁ということで、ちょっと気になったところをつっこませてください。

>きくところによると32×32ぐらいできるらしいよ!

これは32x32ぐらいでもどういう場面か理解できる程度の情報があるらしいよ(だからそんなにものすごく解像度を上げることが重要だってわけではないかもね)ということです。32x32の画像再現が出来ているというのではないです。


>今のところ脳活動から自然画像をデコーディングできた研究は無い。
>...
>ちなみに筆者らがやったのは自然風景画像から脳活動への対応付けにあたる・・・
>・・・あれ違いがよくわからんくなってきた。

「当てる型」のは著者がやったけど「再構成」が出来たという論文は今のところない、という話です。


>(うわああやっぱし↑の暗示に思える!!!)

去年の北米神経科学学会では同グループから(高次視覚野の情報も用いて)再構成をやったという話も出たので、これもそのうち論文になると思います。暗示というか、確かにちょっと白々しい書き方ではあるかも。

この辺の話は今が旬という感じですね。
by pota 2009/03/01(Sun)19:11:26 編集
ありがとうございます
うひゃあああああああついに本職のヒトが光臨なすったー!!!
すすすすすすいませんこんなてきとーなものでお目汚ししてしまって!
でもご指摘たいへんありがたいです!とても勉強になります!

>32x32ぐらいでもどういう場面か理解できる程度の情報があるらしいよ
あーそういうことなのですか。納得できました。
scene perceptionのひとたちとかもうおおまか1本線ぐらいの絵でカテゴライズしていらっしゃいますものね。
そう考えたらそもそもlocal情報じゃなくてglobal情報でscene処理するとか言ってるヒトが多いのに今更グリッドを出してくるのもナンセンスですね。
あれでもグリッドでlocalをおおざっぱにしてglobalな画像を作ると考えたらいいのか。
つーかむしろKayたちのアプローチはグリッドよりもglobal処理だからいいのか。
やっぱりそうなのか。ふむ。
とても示唆的ですね。ありがとうございます。

>「当てる型」のは著者がやったけど「再構成」が出来たという論文は今のところない、という話です。
なるほど!図を見れば確かにそうですね!
せっかく図示してくれているのにうっかりしてました。

>去年の北米神経科学学会では同グループから(高次視覚野の情報も用いて)再構成をやったという話
あーやっぱり。
そりゃやりますよねー。やるべきことと方法論が見えてたら。
しかし「どの程度」の精度なのかは非常に気になりますね。
論文をてかてかしながら待つこととします。

やっぱりSfNはいろんな情報があって楽しそうですねえ・・・
行ってみたいものです。

>今が旬
「いつまで旬が持つのか」「旬が過ぎたら忘れ去られてしまうのか」等含めて興味深いと思います。
そもそもfMRIの旬がそろそろ終わりかけって言うヒトもいらっしゃるようですが。

それはともかく、デコーディング研究がどこまで可能なのか、これからも見ていきたいです。
by az 2009/03/02(Mon)16:28:16 編集
この記事にコメントする
              
お名前
タイトル
メールアドレス
URL
カラー
絵文字 Vodafone絵文字 i-mode絵文字 Ezweb絵文字
コメント
非公開 管理人のみ閲覧できます
パスワード   
* コメントの編集にはパスワードが必要です
この記事にトラックバックする
トラックバックURL:
カレンダー
09 2017/10 11
S M T W T F S
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31
カテゴリ説明
もっさり:日々の雑感をもっさり。
がっつり:論文や研究関連をがっつり。
びっくり:科学ニュースでびっくり。
まったり:空想科学などでまったり。
ばっかり:デザイン系自己満足ばっかり。
ほっこり:お茶を嗜んでほっこり。
最新コメント
※SPAMが多いのでhttpを含むコメントと英語のみのコメントを禁止しました※
[05/07 ぱるぱる]
[05/06 ぱるぱる]
[05/06 ぱるぱる]
[08/29 初見名無し]
[06/25 あ]
最新トラックバック
プロフィール
HN:
az
性別:
非公開
自己紹介:
興味のあるトピックス
 分野は視覚認知。視知覚にがて。
 あと記憶全般。
 カテゴリ (semanticsか?) とかも。
 最近デコーディングが気になる。
 でも基本なんでもこい。
 好奇心は悪食。

好きな作家(敬称略)
 川上弘美
 小林秀雄
 津原泰水
 森茉莉
 レイ・ブラッドベリ
 イタロ・カルヴィーノ
 グレッグ・イーガン
 シオドア・スタージョン
バーコード
ブログ内検索
カウンター
フリーエリア
PR
<< Back  | HOME |   Next >>
Copyright ©  -- めもめも ...〆(。_。) --  All Rights Reserved
Designed by CriCri / Material by もずねこ
忍者ブログ  / Powered by [PR]