Otaku ワールドへようこそ![302]知覚能力を獲得するには運動経験が必須である
── GrowHair ──

投稿:  著者:



『シンギュラリティサロン #32』(12/1)聴講レポート
…………………………………………………………………

名称:シンギュラリティサロン #32
日時:2018年12月1日(土)1:30pm~4:00pm
場所:グランフロント大阪・ナレッジサロン・プレゼンラウンジ
主催:シンギュラリティサロン
共催:株式会社ブロードバンドタワー 一般社団法人ナレッジキャピタル
講師:浅田稔氏(大阪大学大学院工学研究科教授)
演題:『人工痛覚回路はシンギュラリティか?』
講演概要:

近年の深層学習に代表される人工知能の興隆はめざましく、人間のあらゆる能力を超えていく勢いである。しかしながら、BigData、GPGPU に代表される巨大なデータ量と莫大な計算資源の支援が必要で、量で圧倒する力づくの感がある。これに対し、人間は、エネルギー効率(これは他の種と共有)がよいばかりでなく、量と異なる質の問題、すなわち「心」の課題をもっており、身体性や社会性が大きなカギであり、現状の深層学習が不得意な部分である。本講演では、人工システムに痛覚回路を埋め込むことで、痛みの感覚、他者の痛みへの共感、さらにモラル、倫理感へと発展する思考実験を検討し、来るべき共生社会のありかたを議論する。
定員:100名
入場料:無料
聴講者:小林秀章(記)
https://singularity-salon-32.peatix.com/


【タイムテーブル】

13:30~15:00 浅田稔氏(大阪大学大学院工学研究科教授)講演
       『人工痛覚回路はシンギュラリティか?』
15:00~15:30 自由討論

【ケバヤシが聴講する狙い】

シンギュラリティサロンでの浅田氏の講演は、2018年11月25日(日)に東京で、12月1日(土)に大阪で開催されている。
https://peatix.com/event/464154

https://singularity-salon-32.peatix.com/


これに先立って、私は浅田氏の姿を二度拝見している。

最初は2017年11月22日(水)に「銀座松竹スクエア」で開催された、JST社会技術研究開発センター(RISTEX)『自律性の検討に基づくなじみ社会における人工知能の法的電子人格』のキックオフシンポジウムにおいてである。
http://www.ams.eng.osaka-u.ac.jp/ristex/index.php/events/kickoff/


二度目は2018年3月5日(月)に同じく「銀座松竹スクエア」で開催されたJST戦略的創造研究推進事業(CREST)『脳領域/個体/集団間のインタラクション創発原理の解明と適用』のキックオフシンポジウムにおいてである。

浅田氏は司会を務めていて、ご自身の講演はなかったが。このときの私の目当ての講演は津田一郎氏(中部大学教授)による『創発脳科学の数理:拘束条件付き自己組織化理論と数理モデル』であった。
http://www.er.ams.eng.osaka-u.ac.jp/kawai/crest/index.php/events/kickoff/


自分の中で、浅田氏は「身体」の人というイメージ。ロボティクスだから身体なのはあたりまえなのだが、そこだけではなく。

意識の存立条件として、身体は必要か不要か。この問いに対しては、研究者によって立場の分かれるところである。私は「べつに要らないんじゃない?」派だが、そんな私から浅田氏は「必須でしょ」派にみえている。

私はただ正解が知りたいだけであって、自分が支持する仮説を身体を張ってでも守り抜こうなどという心がけはさらさらない。事実と論理に基づいてスマートに説き伏せていただけるなら、それはそれでたいへんありがたい。




【内容】

□講師紹介

本日、松田卓也先生(神戸大学名誉教授)不在につき、塚本昌彦先生(神戸大学教授)から講師紹介。

浅田稔先生。ロボットでたいへん有名な方。「ロボカップ」の創始者の一人である。

シンギュラリティサロンは、同じ講演者が東京と大阪で一回ずつ登壇するのが恒例。6日前、11月25日(日)に東京で開催された。基本的には同一内容でとお願いしているけれど、東京のときは、2時間ぐらいしゃべっていただいて、ぜんぶ終わらなかった。本日は、前回しゃべり残したところをぜひお話しいただけると。

大阪大学の辻三郎研究室の出身で、同じくロボティクスの石黒浩先生が同じ研究室の後輩にあたる。もともと機械工学からではなく、画像処理からロボティクスに入ってきたという点も共通する。

本日のタイトルは『人工痛覚回路はシンギュラリティか』。前回、ここまで話が到達せずに終わっちゃったので、今回はぜひ。

浅田先生、登壇。

□イントロ

前回の東京でのシンギュラリティサロンの前日 11月24日(土)に「日本発達神経科学学会第7回学術集会」が東京大学で開催され、茂木健一郎氏(ソニーコンピューターサイエンス研究所)、國吉康夫先生(東京大学教授)、津田一郎先生(中部大学教授)、乾敏郎先生(京都大学名誉教授、追手門学院大学教授)が登壇した。
http://www.jsdn2018.com/


乾先生の講演は『自由エネルギー原理の本質と認知発達研究への展開』と題し、カール・フリストン氏の「自由エネルギー原理」について、非常にうまく解説していた。それにひっかけながら、前回、散漫だった東京での話をまとめたいと思っている。

ロボットを研究する分野でありながら、メカではなくて、ロボットと人間との関係を通じて、人間の研究をしてきた。

□自己紹介、その1

レオナルド・ダ・ヴィンチのアンドロイドを作った。母音に合わせて口の形が変わる。3年前にダヴィンチミュージアムで一か月間展示した。

制作費用に税金を使ってなく、民間から調達した。アンドロイドは首が回るが、自分は借金で首が回らなかった。やっと返し終えた(※)。

※ その電源ケーブルを「ダヴィンチ・コード」と呼ぶのだろうか。

□自己紹介、その2

ロボカップは、名古屋から始まって、昨年、20年ぶりに名古屋で開催した。参加者数の伸びをグラフでみると飽和しているように見えるけど、ある時点から上限を設定したから。
http://www.robocup2018.com/


□深層学習の真相

人工知能が人間を超えるかどうかについて、少し論考してみたい。

物体の認識率を競うILSVRCにおいて、ジェフリー・ヒントン氏率いるトロント大学のチームが深層学習(Deep Learning)を用いることで、エラー率を従来手法の26%から一気に17%へ押し下げるという劇的な進歩を遂げ、機械学習の研究者らに衝撃を与えたのは2012年のこと。

ニューラルネットワークを多層化するアイデア自体は、1980年代に福島邦彦氏が発案しており、「ネオコグニトロン」と呼んでいた。これが畳み込みニューラルネットワーク(Convolutional Neural Network; CNN)の発想のもとになった。

また、誤差伝播法については、1967年に甘利俊一氏が確率降下学習法を提案したのが元になっている。このほかにも日本オリジナルの仕事が多数ある。

□人工知能は人間を超えるか?

動画からリアルタイムで対象物を検出するYOLO ver.2は検出・追跡能力が驚異的だ。たくさんの人が素早く動いていても、リアルタイムで人を検出し、追跡できている。これを見る限り、人間の能力に匹敵するか、超えているようにもみえる。

□画像認識の失敗例

ある風景写真に対し、画像認識ソフトウェアは「馬がいる」と返してきた。「どこにおんねん?」。あるいは、黄色いスクールバスが停まっている写真に対して、もともとの画像は正しく認識できていたのに、意図的にノイズを載せたら認識しなくなった。見た目はほとんど変わっていないのに。

2012年に機械は人間の能力を超えたというけれど。仮に機械による認識の正答率が99%、人間による認識の正答率が95%だったとする。人間の5%の誤差の中に機械の1%が入っていない。

つまり、正答率が高いとしても、たまに間違えるときの誤り方が奇想天外で、人間だったらぜったいそんな間違え方するわけがないよね、ということをやらかしてくれる。人間は、機械のミスに共感できない。

□現状の深層学習

深層学習の恩恵により、認識判断の正答率において、機械は人間を超えた。深層学習は、ヒトの視覚システムからヒントを得ている。スーパーリッチで、ものすごくいろんなことができちゃう。

機械の認識判断能力はすごいのに、一方、運動のほうは、まだまだ非常に貧弱。画像認識には1,000万枚もの画像を学習させる。運動のほうは1,000万回もやってられない。

認識にせよ、運動にせよ、人間はそんなに膨大な学習データを必要としない。

機械の学習方法は、相関しかとってない。学習のメカニズムが根本的に人間とは異なるようだ。それでもいろんな便利なことに使えちゃう。

では、運動系がプアであったら、何がまずいか?

□運動は知覚にとって本質的に重要

「運動経験が知覚を意味づける」。これが本日のポイントとなるメッセージである。

二匹の子猫を使った実験が1963年に発表されている。二匹の子猫は、軸のまわりをぐるぐる歩けるようになっている。一匹は自分の意志で動けるが、もう一匹はかごに乗っかっていて、相手に追随して動くだけ。入ってくる視覚情報は同じ。

この環境下である期間過ごさせた後、目の前が崖っぷちになっているところへ連れていった。崖の先はガラス板が続いていて、踏み出しても落ちないようにはなっている。

自分の意志で歩いた猫は崖の手前で止まったが、相手に追随していた猫は止まらずに踏み出してしまった。つまり、自分の周囲の物理的な状況を把握する方法を学習できていなかった。

入ってくる視覚情報がまったく同じであっても、自発的に運動するという経験がないと、周囲の状況の理解のしかたが学習できないことが分かった。

画像認識において、単なる正答率で比較すると、機械は人間を超えているようにみえるかもしれないけど、大量のデータに基づいて相関性を学習しているだけの機械は、その学習のメカニズムが人間とは本質的に異なっているのではないかと示唆されている。その意味で、機械はまだ人間に追いついていないともとれる。

ここから、どうするか、という話に入っていく。

□乾敏郎『感情とはそもそも何なのか』

体を動かしていないから、視覚の意味が分からない。それはどういうことか。追手門学院大学の乾敏郎先生が著書『感情とはそもそも何なのか』の中で易しく説明している。
https://www.amazon.co.jp/exec/obidos/ASIN/4623083721/dgcrcom-22/


一般的には、「知覚」と「運動」とは、まったく別物だと捉えられがちである。しかし、実は、ある種の表裏一体の関係があるのではあるまいか。

知覚においては、外界の状況が「こうなっていますよ」という情報を身体というセンサーが捉えて、神経を通じて脳に伝えるという、フィードフォワード(前進)一方向の情報伝達をしているのではない。

脳は常に、入力信号に基づいて、外界がどうなっているかを推論している。入力信号の原因を追及するフィードバック機構がはたらいている。もし、予測と異なる入力信号が入ってきたら、両者の誤差に基づいて、予測 (信念)を書き換える。

一方、運動のほうは、一見、知覚とはぜんぜん違うはたらきのようにみえるかもしれないけど、実は、同じことになっている。

運動に際して、脳の運動野は「この筋肉をこれだけ収縮させろ」と運動の指令を送っているのではない。運動の最終状態の予測信号を送っているだけ。予測信号を末梢に送ると、予測誤差を最小にするように身体が変化する。それで、結果として目標状態を達成する。

知覚と運動に共通する大事なキーワードは「予測」。脳内のニューロンの働きのレベルでは知覚も運動も関係ない。カール・フリストンの自由エネルギー原理の話につながる。つまり、「知覚」も「運動」も「予測」という言葉でまかなえてしまう。

こういうふうにまとめると、非常にすっきりする。(後で説明する)「ミラーニューロン」も状態予測で説明できてしまう。

□発達のどの段階で予測がはたらきはじめるのか

チンパンジーの生活を観察した結果、チンパンジーは仲間や人間が何を考えているのかを、ある程度予測できているようだと分かった。

一方、人間は、何歳で他者の状態の予測がはたらくようになるのか。

「サリー・アン課題」というのがある。
1・サリーは、カゴと玉を持っています
2・アンは、箱を持っています
3・サリーは、持っていた玉をカゴの中に入れて、部屋を出ます
4・アンは、その玉をカゴから出し、自分の箱に入れます
5・箱を置いて、アンは部屋を出ます
6・そこへ、サリーが帰って来ました
7・さて、サリーは、玉を出そうとしてどこを探すでしょうか?

我々は神様視点(客観視点)で事の成り行きを追っているので、実際に玉がどこにあるか正解を知っている。しかし、アンが玉を移したことを知らないサリーの立場に立てば、玉は元の場所にあるはずだと思い込んでいるはずである。そこが分かるかどうか、という問題。

4歳までは正答できず、客観的な玉の場所のほうを回答してしまうと言われている。つまり、他人の立場に立って考えることができるようになり始めるのが、そのくらいの年齢からだと言われている。

これに対して、いやいや、もっと早くからできているはずだ、という反論もあるらしい。

□認知発達ロボティクスとは?

ロボットに心を宿らせたい。

「認知発達ロボティクス」は、人間の認知発達過程を構成的手法を用いて理解することを目的とする。構成論的手法とは、人間に似せたものを人工的に作ってみて、どれくらい似ているか似ていないかを評価することによって、人間の内部ではたらいているメカニズムを解明しようとするアプローチのことをいう。

核となるアイデアは、「物理的埋め込み(身体性)」と「社会的相互作用」のふたつである。それらは、他者を含め環境との相互作用を通じて、情報を構造化する。

□身体性とは何か

身体性とは何か。

メルロ・ポンティいわく、「身体とは、物理的な世界と主観的な経験とを結ぶメディア(媒介者)である」。

客観的な物理的世界があるかどうかは分からないけど、仮にあるとしましょう(※)。

※筆者注。客観的な物理世界があるかどうか分からないとするのは、「素朴実在論の否定」が前提になっている。客観的な物理世界がもし存在しなかったとしても脳は存在するように錯覚しうる、ということを示す思考実験として「水槽の脳」がある。

自分は客観的な物理世界の中にいて、主観的な体験をする。身体は主観と客観の間にあって、両者を媒介する。

これが、従来言われてきた身体性。

□身体性を再考する(新体制?)

もう一回考えなおさなくてはならない。

通常、「身体性」というと、感覚入力と運動出力の話になる。

脳が世界とインタラクションするためには介在する身体が必要ですよ、と言っているのが身体性の旧体制。

身体性の新体制とは、脳は脳で、これまたやっぱり身体だよね、とする考え方。

脳を身体としてみるならば、ニューロンの結線距離や配置(幾何学的構造)が問題になってくる。距離が遠ければ、その分だけ伝達に遅れが発生するはずだ。また、エネルギー代謝(バッテリー)の問題もある。

脳の数理モデルでよくあるのは、一定間隔の離散時間ごとに脳の状態が切り替わっていくものだが、そのような単純なモデルではまかないきれない、現実の事情が絡んでくるはずだ。

□社会的相互作用について

心が生じるための条件として、インタラクションがいちばん大事。

一体のロボットが、ある惑星に行って仕事をする場合、心が生まれる必然性はない。

そこに別のロボットもしくは人間が行って、協調して仕事をしなくてはならない状況が生じたとき、コミュニケーションする必要性が生じ、そのときに初めて、心が生まれる可能性がある。

心はどこにありますか? 多くの設計科学者は「脳にあります」とか、「将来チップに宿るようになります」という。

そういうものではない。意識チップありますよ、心チップありますよって話ではないだろう。要するに、意識が宿るのは、頭の中ではなく、外だよ、と言いたい。

「身体全体が外部環境、特に社会的な環境と相互作用することでしか、心は理解できない」。(Noe, 2009)

同じことを、立教大学の河野哲也先生もおっしゃっている。心は、インタラクションすることで、初めて生まれる可能性がある。

「心の働きも脳の内部に閉ざされた内的過程ではなく、一定のニッチにおける生命的活動である。心は身体と環境の関係性に存在するのである」。(河野, 2006)

二人とも哲学者であって、設計については何も言っていないけれど、我々ロボティクスの研究者が受け取るべきメッセージとしては、ロボットを作る際、インタラクションを通じて何か情報を得る構造を埋め込んでおきなさいよ、ということだ。

□人間の発達とは

人間の発達過程は、どういうふうになっているか。

□胎児脳の初期発達

"Neuroscience"という分厚い書籍がある。神経科学の教科書。6人の著者による。

胎児の段階での脳の発達の過程が、2日ごとに図示されている。

□新生児発達と学習ターゲット

生まれてからは、1か月ごとにそれぞれの段階の行動特徴がある。それぞれの段階で、それぞれの行動を通じて、何かを学習しているらしい。

5か月:自分の手をじっと見る
6か月:抱いた人の顔をいじる
7か月:物を落として落ちた場所をのぞく
8か月:物を打ち合わす
9か月:たいこを叩く、コップを口に
10か月:動作模倣が始まる
11か月:微細握り、他者に物を渡す
12か月:ふり遊びが始まる

われわれはロボットを賢くしたい。赤ちゃんから学べることがたくさんある。赤ちゃんの発達と同じ過程を経て認知機能と運動機能を表裏一体で徐々に獲得していくロボットが作れたら、すばらしい。

ところが、ミステリーがいっぱいある。赤ん坊はどうやって認知と運動の機能を獲得していっているのか、さっぱり分からない。

□作業仮説:痛覚回路は意識(心)の創発の要

やっと本題に入れます(※)。

※この時点で1時間02分がすでに経過している。

ポイントは、意識というのは、チップ上に宿ったりするようなものではなく、ある種の現象であるという点にある。

1. ロボットが痛みを感じるように痛覚神経回路を埋め込みましょう
2. ミラー・ニューロン・システムの発達を通じて、ロボットは他者の痛みを感じるかもしれない
3. すなわち、情動感染、情動的共感、認知的共感、同情、哀れみの感情をロボットが発達させる?
4. 道徳の原型が創発する
5. ロボットが道徳(被)行為者になる
6. ロボットやAIに対する法制度が検討される

下のほうがだんだん字が薄くなっていっているのは、自信のなさの表れ。

□痛覚神経回路

ロボットに痛覚神経回路を搭載するとは、バンパーセンサーをつけて、ああ、触覚回路ですね、という話ではない。触覚の強さがしきい値を超えると、痛みになるという質的変化が起きる。

人間の身体において、通常の触覚を伝える神経と痛覚を伝える神経とは、別々に並行して走っている。痛いとき「痛いの痛いの飛んでけー」と言いながらさするが、これにはちゃんと意味がある。さすることによって、触覚が励起され、それにともなって痛覚が遮断されるのである。

触覚センサー作ってみた。指でぐりぐりいじくると、XYZ方向にぼにょぼにょ動く。かなづちでごんごん叩くと、「痛い」信号が発信される。波形をみると、明らかに信号の質が違う。

□ミラー・ニューロン・システムとその初期発達モデル

ミラー・ニューロン・システム(Mirror Neuron System; MNS)とは、同一の動作について、他者がその動作をする際と、自身がその動作をする際とで、共通して発火するニューロンのこと。F5と呼ばれる運動野に存在することが分かった。

他者の行動を観察→対応するミラーニューロンが活性化→ミラーニューロンは運動ニューロンなので、その活動を実行すれば模倣行動が発生する。他者の行動を見てミラーニューロンが発火したとしても、何でもかんでも真似してしまわないよう、前頭葉で抑制がはたらいている。前頭前野に障害があって抑制が効かないと、相手の行動をのべつまくなしに模倣し続ける。

先ほど言ったように、運動野から運動の指令が出ているわけではなくて、どういう状態にしたいかという目標を示す期待信号が送り出される。それに対して、現在の状態は違うので、誤差が出る。その誤差を最小化するように自己を制御する。

誤差に重みを掛け算している。この重みは、誤差をどれだけ重くみるかという精度を表している。重みがゼロなら、誤差はゼロになるので、現在の状態との差異は解消され、運動が起きない。この精度がすごく大事。何らかの障害があって、この重みがうまく働かないと、何でもかんでも真似してしまう。

あと5分だけください(※)。

※この時点で1時間30分。

□自由エネルギー原理

カール・フリストンの「自由エネルギー原理(Free Energy Principle; FEP)」の話をします。

FEPとは何か。

・いかなる自己組織化されたシステムでも環境内で平衡状態であるためには、そのシステムの(情報的)自由エネルギーを最小化しなくてはならない
・適応的なシステムが無秩序へ向かう自然的な傾向に抗して持続的に存在しつづけるために必要な条件
・「意識についての理論」そのものではない

実際には何をしているか

□乾2018から

・ヘルムホルツの自由エネルギーの最小化
  =(予測誤差を最小化するように信念を書き換え、予測を最適化する)
  +(予測誤差を最小化する行動をとる)

・運動ニューロンからの出力:目標となる状態をとったときの自己受容感覚の予測、すなわち期待される自己受容感覚
・これを実現するためには、予測誤差によて予測信号が変化しないように、予測誤差を抑制する必要がある

自由エネルギーというスカラー値の時間的変化が感情に対応する。値がどれほどであるかと、どっち方向へ変化する途上にあるかのコンビネーションに応じて、生じる感情の種類が変わる。

とりあえず時間なので、終わります。

【所感】

意識に身体は必要か。浅田氏は必須派で私は不要派で、決定的に対立するかと思いきや、話をよくよく聞いてみれば、違いがよく見えなくなってしまった。

今回の浅田氏の講演内容について、疑問を呈したり、反論したくなったりしたポイントがひとつもない。すべて、まったくその通りだなぁ、と納得して聞くことができた。

機械学習のアルゴリズムが劇的に進化して、深層学習による認識能力は、そのエラー率の少なさで評価すれば人間を超えているとは言え、中身のアルゴリズムは人間の脳内で実際に起きている理解の過程とは、似ても似つかないものだという点、大いに納得できる。

人間の赤ん坊は、発達の過程で、身体の制御のしかたの習得や、外的世界のありようの理解を自力で徐々に進めていく。発達にインタラクションが必須であるとは言え、他者は問題の解法や正解そのものを伝達することは不可能で、せいぜい手助けしかできない。あくまでも各自が自力で解法を編み出し、正解を獲得する。

たとえば、右目と左目に、ほんの少しだけ視差のある平面的な画像信号が入力されてきたとき、それらを合成して、周囲の物体の三次元的な形状がどうなっているかという情報を復元する計算は「両眼立体視」と呼ばれるが、赤ん坊に生まれつきこのアルゴリズムが備わっているわけではない。

両眼立体視のアルゴリズムそのものを、あくまでも自力で発見する。かなり難しい数学の問題なんだけど、なぜか解いちゃうんだな。三角関数とか、理解しているんだろうか。

一方、ロボットに両眼立体視の機能を搭載することが可能ではあるが、それは、どういう計算をすれば両眼立体視できるかという数学の問題を人間が解いた結果として得られたアルゴリズムにしたがって、人間がプログラムを組んで、ロボットにインストールして走らせているだけである。ロボットが自力で両眼立体視アルゴリズムを発見しているわけではない。

人間の赤ちゃんが発達の過程で、身体の制御のしかたを自力で習得し、世界のありようを自力で理解していくのと同じ過程を経て、ロボットが自力で発達していき、知能や感情や意識を萌芽させていくことができたらすばらしい(あるいはオソロシイ)が、現時点において、そんな手法は片鱗も見えていていない。

「赤ん坊の発達過程にはミステリーが多くて、自発的に発達する機械を製作することは、むずかしすぎて、現時点ではまったくできていない」と浅田氏は潔く白状していた。それが聞けたのだから、私から反論することはあまりない。

ただ、構成論的アプローチに意味があったのか、という疑問は残る。心を理解したいと思い、心には身体が必須であるという信念から、身体性を備えたロボットを製作してみたけれど、そこから分かったことは、問いのむずかしさだけであった。ちゃんちゃん。って話だろうか。だとしたら、「そらみろ、やっぱり」としか言いようがない。

結局、構成論的アプローチから得られた成果とは何だったのだろう。あるいは、成果が出るのはまだまだこれからって話なのだろうか。

物理的な機構を備えることは、ただの計算上のシミュレーションに比べて、どんなアドバンテージがあるのだろう。

手のひらの上で、ほうきを逆さに立てて、どれだけ長い時間バランスを保っていられるかトライしたことはないだろうか。倒立振子(とうりつしんし)の問題とよぶ。これは強化学習を使って解けている。解けたと思った答え(こうすればこうなるの体系)が合っているかを確認するには、実際のほうきを倒立させるロボットを製作してみる必要はなく、物理の力学シミュレーションの計算だけで済んでしまう。実物を製作してみる意味は、見た目がおもしろいってことぐらいではないだろうか。

心や意識や発達を理解するための構成論的アプローチにしても、シミュレーション計算で済んじゃう話ではないのだろうか。そうだとしたら、意識を計算機にアップロードすることが原理的には可能だって話になってもよさそうな気がするが、そこは、そういうものではないと主張されているようだ。

私は、作業仮説ではありながら、意識は脳に宿るものであり、それだけで完結しうるものであり、身体は必ずしも必要ないだろうと考えている。

もちろん、入力や出力デバイスによって、どんな意識が備わるか、という意識の質は異なってくるに違いない。

感覚信号入力デバイスとして、赤外線が見えるとか、嗅覚が人間の100倍鋭いといった機能を備えたセンサーが接続されていて、そこから感覚入力信号が脳に届けられるのだとしたら、我々の持たないクオリアを持ち、我々とは違ったふうに世界を理解するだろう。

また、運動信号出力デバイスとして、羽ばたけば飛べる翼を備えているとか、水中で暮らせるエラを備えているのだとしたら、自己認識がまた違ったものになっていたであろう。

しかし、意識があるかないかを決めるのは、脳へのビット列情報の出入りが本質的であって、身体を備えることは必須ではないのではないかと私は考える。

私のモデルでは、自我の宿るベースの媒体は脳だけでじゅうぶんで、脳単体がすなわち「私」であり、目鼻耳口手足等々の身体は、外界に属する。脳は、視覚や聴覚などモーダルの異なる入力信号間の整合性や、出力した信号と一瞬の間を置いて入ってくる入力信号との関係性を頼りに、外界がどういうふうになっているのかを解き明かそうとしている。

「水槽の脳」という思考実験がある。脳がむき出しの単体で培養液に浸かっていて、生かされている。背後には超パワフルなコンピュータが設置されている。神経細胞を介して脳とコンピュータが接続されていて、ビット列の形式の信号がやりとりされている。

脳にとっての現実世界である物体の配置や物理法則は、コンピュータの中にデータとしてあるだけで、コンピュータはひたすらシミュレーション計算を続けていて、脳の送り出した運動指令としてのビット列に応じて、こうしたらこうなるをシミュレーション計算し、整合性のあるビット列を視覚信号や聴覚信号として脳に送り返す。

このとき、脳はすっかりだまされて、世界が実在すると思い込み、自分はふつうに生活していることに何の疑いももたないであろう。

これはあくまでも思考実験であって、それを実験してみることによって検証することはできない話だが、これの示唆する脳の機構は、きっと正しく言い当てているだろうと私は思っている。なので、身体の物理的な存在なしに意識が現れいずることが可能であり、意識が宿るためには、あたかも身体があるように整合性をもって出入りするビット信号のほうが、身体の存在そのものよりも本質的であり、必須な要件なのではないかと思う。

「水槽の脳」をどう思いますか、と聞いてみればよかったのだ。しまったなぁ。

そのチャンスはほどなく巡ってきた。2019年3月16日(土)、「TKP 名古屋駅前カンファレンスセンター」にて、JST戦略的創造研究推進事業(CREST)『脳領域/個体/集団間のインタラクション創発原理の解明と適用』の第二回公開シンポジウムが開催され、聴講しに行ってきた。

終了後、浅田氏は仲間内を引き連れて打ち上げに繰り出すことにしているそうで、ありがたくも畏れ多くも、浅田氏からじきじきに私にも声をかけていただいた。

浅田氏が名古屋に用事ができたときにはよく行くという居酒屋が名古屋駅の駅ビル内にあり、7人で飲み会が催された。しかも、私は浅田氏の右隣の席を確保することができた。

ああ、それなのにそれなのに。飲み放題だったのをいいことに、私は可能な限りの量の酒を口から入力するほうへ専念してしまった。つくづくバカだ。こんなバカを哀れんで、天の神様はもう一回チャンスを与えてくれたりしないだろうか。


【GrowHair】GrowHair@yahoo.co.jp
セーラー服仙人カメコ。アイデンティティ拡散。
http://www.growhair-jk.com/


3月10日(日)に大阪で開催された「シンギュラリティサロン」で登壇させていただいた。
https://singularitysalon-33.peatix.com/


4月28日(土)に神戸で開催される同じイベントの「特別編」でも、引き続き登壇させていただける話になった。今度の回は、4月28日(土)から29日(月)まで開催される「078」というイベントの中で開催される。
https://078kobe.jp/


同じ建物の1階と3階で、慶應義塾大学の中村伊知哉先生とオーディエンスを奪い合うのか……。

■シンギュラリティサロン・078 特別編
「シンギュラリティが来ることを前提とした一歩進んだシンギュラリティの話」
https://078kobe.jp/events/9514/

https://peatix.com/event/631462/


日時:2019年4月28日(土)10:00am~0:20pm
会場:デザイン・クリエイティブセンター神戸(KIITO)3階 Futureステージ
登壇者:
松田卓也(神戸大学名誉教授)
塚本昌彦(神戸大学大学院工学研究科教授)
小林秀章(セーラー服おじさん)
司会:保田充彦(株式会社ズームス代表)
主催:シンギュラリティサロン
共催・協力:078実行委員会事務局

神戸発の同サロンの特別編では、シンギュラリティが「来る」ことを前提として、一歩進んだシンギュラリティの話を進めます。「来ない」話を含めると、いつも話がそこで止まってしまうからです。

内容的には従来のどおり、シンギュラリティはどのようにやってきて、それが人々の生活にどのような影響を及ぼし、さらにそれに対してどのように対処できるのかについて議論します。

将来のシナリオを、最悪のケースから最善のケースまで描きながら、最悪のシナリオをいかに回避できるのか、人類が今後何をすべきかについて知恵を絞ろうと思います。これまで議論されてこなかった、具体的なイメージが作り出されることを目指します。