SCImates α2は機能を停止しています。

満渕研究室取材に戻る

満渕研同行記

イントロダクション

2005年10月14日金曜日に、立花隆さんとNHKの取材班の人たちに同行して、東京大学の先端技術研究所内の、満渕研究室に行きました。

 その日の夕方、たまたま立花さんと打ち合わせしていて、6時半ごろ「ここに7時までいられて、そのあと先端研、すぐそこなんだけど、にNHKの番組の取材に行くんだけど、」と言われたので、頼んで連れていってもらうことにしました。

 なので、この日見学した実験についてはほとんど事前に知識は無く、神経を電気刺激して感覚を生み出す実験をするらしいということだけ立花さんに聞きました。

 先端研まで歩いていく途中、立花さんと雑談できました。こちらの知的水準を測られているのを実感したのは、僕が「二・二六事件で犬養さんが殺されたときに...」と言ったときに、「え、誰が殺されたって?」と聞き返されたときです。間違えたかな〜と思いながらも僕は「犬養さん」と言って、立花さんは何食わぬ顔をしていたました。でも後で調べてみたら、二・二六事件より前の五・一五事件で犬養首相は暗殺されていたので、たぶん底が知れたなぁと思うのです。

 先端研の建物の前でNHKのひとたちと待ち合わせて、中に入りました。部屋の前の廊下には踏み台があり、そこで靴を脱ぐようになっていました。靴を脱ぎ、携帯の電源を切って鞄ごと廊下に置き、部屋に入りました。

 この日見学できた実験はふたつあります。ひとつめは、腕の神経を電気刺激して、手に感覚を生じさせる実験で、もうひとつは、人が手を動かす筋電を計測して、合わせてロボットアームの手を動かす実験です。

実験1: マイクロニューログラフィ

スリッパを履いて入ると、わりと奥に深い部屋でした。手前右側に、ノートパソコンを並べて作業している割と若い三、四人の一団がいて、手前左側にはビデオカメラがあって、記録を撮っている様子です。その視線の先、部屋のまんなかに左を向いた椅子があり、立花さんはそこに座りました。右腕を台に乗せて、さっそく超音波エコーで腕の中を撮影されています。腕にゲル状のものを塗っていたのは、たぶん、空気との界面が邪魔なためでしょう。その上からバーコードリーダーのような形の機械をあてると、画面には、腕の断面が白黒で映りました。神経内科の先生が、これが神経です、と画像をゆびさしても、どれが神経だか僕には区別がつきませんでした。

 刺し込む針とは別に、手首に平らな電極を張り、二の腕にも電極を取り着けていました。活発に変化する神経の電位を測る際の基準として、あまり変化しない皮膚の電位を使うためのようです。また興味深いことに、これから電極を立花さんの腕に刺す医師も、手首に電極を着けていました。静電気によるノイズを防ぐためのようです。

 超音波エコーで見ながら腕に針を刺していきました。タングステンでできた針は、先端を除いてコーティングされていて、その先端部が電極として機能するといいます。

 針がゆっくり進むにつれ、スピーカーからプツプツ音がしたり、ザーザー音がしたりしました。針先の電位の変化を増幅して聞いています。これは針が進むときのノイズだと説明されました。

 このとき電極を刺そうとしている腕の正中神経では、数万本の神経線維が束になっています。この束は直径数mmで、膜に覆われています。

 立花さんに、束に電極の先が達すると、驚いて腕を思わず動かしてしまいそうになるような感覚があるから、それでも動かないように、と注意がありました。しばらく経って、果たして立花さんは「うわっこれか」と声を上げました。しかし、すぐに慣れた様子でした。

神経線維をみつける

続いて、神経細胞一つの信号だけを電極で拾えるように微調整に入ります。うまくいくと、限られた領域を押したり叩いたりしたときに、信号が入るようになります。信号は、スピーカーから音として聞いたり、オシロスコープという機械の画面に表示させたりできます。

 立花さんの右手を軽く叩きながら拾った信号を観察して、ひとつの神経細胞の信号なのか、複数の神経細胞の信号が混ざっているのか判断します。
複数の神経細胞の信号が混ざっている様子だったので、少しずつ電極の位置を動かして、なんとかひとつの神経細胞の信号が取れる状態にもっていく作業が行われました。

 わずかに電極がずれるだけでやり直さなくてはならない、じれったい作業です。「電極の先がずれるといけないので、なるべく首を動かさないでください」とまで立花さんは言われていました。

刺激する

単一の神経スパイクだけがよく聞こえるようになると、一本の神経線維(=軸索)の信号だけを測れていることになります。

 今度は同じ電極にパルス波を送って、軸索上でインパルスを発生させて、立花さんがどのような感覚を受けるのか確かめていました。ヒト以外の動物だと、神経を電気刺激されたときにどんな感覚を受けているのか、言葉で伝えることができないので、人間を対象にしてこの実験をするのに意味があるということです。

 ところが、なかなかはっきりした感覚が立花さんに伝わりません。「中指の内部になんとなく、こうある感じ」とか、「ひじの外側から小指にかけてすーっと撫でられた感じ」とか「なぜだか左脚になにかある気がする」とか曖昧な感覚が生じている様子で、しかも、刺激のon/offと感覚の有無が一致しているのか、いまいちわかりません。

 この作業は長くかかりました。2時間以上にわたって、3回にわたって針を刺し直し、針も替え、神経線維を探す作業からやり直していました。

 針電極の電位変化を聞きながら神経線維を探している最中に、非常に強いノイズが、2分程度続いて途切れることを繰り返しました。実験が進まないと何も撮れないので、NHKの人達も機器の電源を切っていました。

 見回すと、部屋の壁は金属に塗料を塗った様子で、扉のガラスにも金属の線が縦横に約1mm間隔で入っていて、天井の換気扇も金属の網で覆われています。どうやら部屋全体が外部の電波を通さないようになっている様子です。

 おそらく部屋の中にノイズの原因があったはずですが、何が原因だったかはわかりませんでした。が、しばらく待っているとノイズは収まって、実験は再開しました。

 最終的には、立花さんが右手中指の、第一関節あたりの側面になにか感じる、という状態で次に移りました。

ロボットアームとつなぐ

ここまでは、周波数と振幅を直接指定した刺激を神経に加えていましたが、次に、ロボットアームの指先につけたセンサーの押された圧の強さに応じて、立花さんの神経を刺激する段階に入りました。ロボットアームの指先が強く圧されるほど、たくさんのパルスが立花さんの腕の中の電極に伝わる仕掛けです。この間、振幅は変えないそうです。

 実際の神経線維を伝わる電気信号も、頻度の大小で情報を伝えていて、インパルスひとつひとつの大きさは変わらないので、その真似をしているそうです。

 満渕研の人がロボットアームの指先を押したりやめたりしている横で、立花さんが、「うん、来ている来ている」「あ、それはちょっと強い」とか言っていました。その様子をNHKの人が撮影していました。

 撮影が済むのを待って、思い付いたことを言ってみました。「立花さん、自分の左手でロボットアームのセンサーを刺激してみたらどうですか。」

 自分の左手で押した結果を、神経への刺激で受け取るというループを作ってみたら面白そうだとふと思いました。あまり嬉しい感覚だと、ハマってしまう心配もあると思いましたが、この実験で立花さんが感じていたのは、それほど嫌にもならず、嬉しくもならない感覚だったようなので、この提案をしてみました。

 さっそくロボットアームが立花さんの近くに寄せられました。立花さんが、左手でロボットアームの指先を刺激して、右手に生じる感覚をたしかめています。立花さんの感想は、「ちゃんとこの仕組みが自分の頭でわかっていて、この刺激が自分でコントロールできると、すぐにこのロボットアームも自分のものになったような意識が生まれてくると思う。たとえ最初はぴりぴりした電気刺激のようなものであっても、一番可塑性があるのは脳なのだから。」というものでした。

 ここで僕が思い出したのは、Jeff Hawkins: On Intelligenceという本にあった、カメラで撮った映像を、舌に圧力として伝える装置の話で、その装置を着けた人は、しばらくして、舌経由の視覚を使えるようになったそうです。

 ここまで撮影して、次の実験の準備の間、立花さんとNHKの人は、満渕教授とのインタビューを撮影するということで、別室に行っていました。僕は次の実験も準備から見たかったので、部屋に残っていました。

実験2: ロボットアームを動かす

もうひとつの実験は、筋電を測ってロボットアームを制御する実験でした。筋電は、筋肉が収縮するときに生じる電位の変化ですが、運動神経の1パルスと筋電の1パルスは対応するので、いずれ神経から直接計測した信号でロボットアームを制御するための、基礎的実験としての意味があるということでした。

 この実験には2つの段階がありました。まず、腕の4箇所で筋電を測りながら、被験者が手の指を動かしているときの指の角度変化と筋電信号を対応づけます。次に、その対応を利用して、拾った筋電信号が手の指の角度をどの角度にするつもりで発せられた信号であるかを計算して、ロボットアームを動かします。

 最初の、筋電と指の角度を対応づける作業をするときには、筋電を測るための電極を4本腕に刺し、さらに、手にサイバーグローブという装置を着けます。サイバーグローブには、指の角度が計測できるセンサーがついています。

 手前右側に、最初、ノートパソコンを並べて作業していた若い三、四人の一団は、その筋電の信号と指の曲がる角度とを対応づけるソフトを作っている、東京大学の学部の工学部計数工学科や、院の情報理工学系研究科の人たちでした。

 そのソフトの新しい版を作っている最中だったせいでうまく動かなかったり、多少のトラブルがありましたが、第一の段階は1時間かかりませんでした。

 続いて、いよいよロボットアームを動かしました。ノートパソコンに信号が入るようにしてプログラムを実行すると、画面に数字が1秒に10個程度のはやさで流れました。これは、筋電信号から指の角度を推定した数値だそうです。この数値に合わせてロボットアームを制御しているそうで、実際、1秒近い遅れはありましたが、被験者が手を開くとロボットアームも開き、閉じると閉じていました。単に開く/閉じるのスイッチではなく、手の開き具合も追随しているように見えました。

 この実験も、電極がずれると途端にうまくいかなくなることがあるそうで、急いでNHKの取材班を呼びに行って、撮影してもらいました。

 この段階では、サイバーグローブからの実際の指の角度の情報は使っていないので、サイバーグローブを外しても動作するはずですが、サイバーグローブを外すときに電極がずれてしまうおそれがあるので、装着したまま、撮影してもらっていました。

 その日は結局、12時半近くまで見学していて、ぎりぎりで終電に乗って帰りました。

 たいへん興味深い経験ができたこと、満渕研究室の関係者のみなさまや、こころよく同行させてくれた立花さんたちに感謝します。

 それと、このときのことを立花さんも書いています。

05/12/10 平井 洋一

満渕研究室取材に戻る

このページに寄せられたコメントとトラックバック

*コメント*トラックバック

準備中

寄せられたトラックバックはありません。

このページについて