《スーパーハイパー楽観論》
■Otakuワールドへようこそ![334]
「意識の仮想世界仮説」でコンピュータに意識が芽生えるか?[後編]
GrowHair
■Otakuワールドへようこそ![334]
「意識の仮想世界仮説」でコンピュータに意識が芽生えるか?[後編]
GrowHair
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
■Otakuワールドへようこそ![335]
「意識の仮想世界仮説」でコンピュータに意識が芽生えるか?[後編]
GrowHair
https://bn.dgcr.com/archives/20200731110100.html
───────────────────────────────────
前々回の前編と前回の中編の続き。
https://bn.dgcr.com/archives/20200626110100.html
https://bn.dgcr.com/archives/20200710110100.html
●人工意識はソフトウェア開発でできちゃう?
田方氏によると、人工意識を作る上で、主役を張るのは、哲学者でもなく、脳科学者でもなく、人工知能研究開発者でもなく、ソフトウェア・エンジニアである。「意識はソフトウェアで実現される」と言っている。さらに、「意識科学は、思考実験段階から、そろそろ具体的な設計段階に進むべき」とも。
つまり、人工意識を作りたいという目的に照らすと、現状の学問的アプローチはすべて方向違いであり、さっさと設計に進み、ソフトウェアを作れば実現できちゃうだろう、と言いたいようだ。これは、あまり聞かない、特殊な考え方だ。どこかネジが外れたかのような、スーパーハイパー楽観論。
第一に、哲学者ではない、という点については、私も1000%同意だ。「鳥類学者が鳥の役に立つ程度にしか、科学哲学は科学の役に立たない」(リチャード・ファインマン)。
第二に、脳科学者はどうか。脳科学の主たる目的は、脳の動作メカニズムの謎をすべて解明することにあり、人工意識を作ることではない。しかし、試しに脳的なものを作ってみて、その動作をみることで、何か知見が得られるかもしれない、という構成論的なアプローチが有効そうであれば、そこにも興味が行くであろう。また、脳の謎がすべて解明できた暁には、同等の機能を呈する装置を作ることも可能になるかもしれない。
第三に、人工知能研究開発者はどうか。究極的には、人間並みの、あるいは人間を超える知能や意識をもった汎用人工知能を作りたいと思っている。その手段は、ソフトウェア以外に考えられないと思う。
しかしながら、多くの研究開発者は、現段階の到達地点が、究極のゴールの遥か遥か手前という感覚をもっているのではないだろうか。スタートからゴールまで100メートルあるとしたら、今いるのが、だいたい10メートル地点ぐらい?
人類史20万年で進捗が10%なら、あと180万年かかる、って話ではない。ダートマス会議が開催された1956年が人工知能の起点だとすると、まだ60年ちょいしか経っていない。ディープ・ラーニングが登場して、画像認識の精度に飛躍的な進歩をもたらしたのが2012年で、たったの8年前。AlphGo が囲碁でイ・セドルを負かしたのが2016年で、4年前。AIにできることが、ブオーーーンと指数関数的に加速している。この調子でいけば、ゴールは案外近いかもしれない。
しかし、現時点で、すでに人工意識を作る素材が整っていると考える研究開発者はほぼいないと思う。そう思うなら、さっさと作っちゃえば、一番乗りになれるのだから。ひょっとして、田方氏は、なにかひらめいたのだろうか。
●内省的洞察で得た意識の仕組みをプログラムで書けば出来上がり
作りたいのは、人間を相手に、自然な会話のできるAIである。正真正銘の意識を宿すことを目的としてなく、フリが上手いだけでよいので、中身は空っぽの張りぼてでよい。とは言え、決して簡単な課題ではない。
人は、言葉を交わすとき、相手の感情を読み取ろうとしたり、意図を汲み取ろうとしたりするもので、もし、意識や感情が備わっていなかったら、まともな会話にならないはずだ。
言葉が使えることと、意識や感情が備わっていることとは、密接な関係にあると田方氏はみているようで、目的を達成するための要件として、人工意識を作ることを掲げている。
コンピュータに意識を宿らせるには、どうすればよいか。大方針として、次のように考えているようだ。まず、自分の意識のありようを内省的に洞察し、その構造がどうなっているかとか、どんな仕組みで機能しているのかを探り出す。
しかる後に、その構造や機能をコンピュータ・プログラムで記述する。プログラミング言語としては、オブジェクト指向言語が適している。そのソフトウェアを実行すれば、われわれ人間と同様に意識や感情を備え、言葉を操るようになるはずだ。一丁上がり。
7月29日(水)の時点で、田方氏のYouTube動画が66本上がっているが、95%ぐらいが、われわれの意識のありようがこうなっている、という話で占められている。その部分は、おおむね、よい。ああ、だいたいそういうふうになってる感じがするよね、ってことで、ある程度納得がいく。
仮に、その省察が100%正しいとして、ここまで意識が解明できたのなら、あとは、手を動かしさえすれば、ソフトウェアの形でコンピュータに移植できちゃうよね、って話だろうか。私の感覚だと、そこにまだ越えなきゃならない山が一山も二山もありそうにみえる。
インプリメント(実装)する方法に触れているのは、意識は3DCGで表現すればよいという話と、プログラムはオブジェクト指向言語で記述すればよい、ということぐらいだ。
この構想を聞いただけで、じゃ、ソフトウェアに落とし込むところはアンタに発注したから、よろしくね、ともし言われたら、何をどうしたらいいのか分からず、途方に暮れて固まってしまいそうだ。仕様書はどこ?
現実に実行可能な話をしているのか、途方もない夢を語っているだけなのか、判断がつかない。
●頭の中の3DCG ワールド─「意識の仮想世界仮説」
田方氏の構想の中心にあるのが「意識の仮想世界仮説」である。意識っていうのは、こういう仕組みになっているよね、というのを言い表している。
その前に、比較のため、意識のない状態というのを考えてみる。田方氏は、魚やカエルには意識がないと考えている。進化レベルがその段階にとどまっている生物は、目の前にエサがあれば、パクっと食いつくし、天敵に襲われそうになったら、ささっと逃げる。ひとつの感覚入力に対しては、行動出力がひとつに決まっており、変更が効かない。ハードワイヤーされているので、本能にしたがってしか行動できない。
試しに、スマホの画面にハエが這っている映像を映し出して、カエルに見せると、カエルは舌を素早く伸ばして捕獲しようとする。いつまででもやっている。何十回やっても、気がついて軌道修正することができない。
感覚入力と行動出力が直結しているなら、機械でも容易に実現できそうなことである。視覚クオリアが備わっている必要はなく、盲視でじゅうぶんであろう。
釣り上げられた魚は、痛そうに跳ね回るけど、その実、痛みのクオリアは備わっていない。もし、痛みから逃れるために行動を変更する機能が備わっていないのだとしたら、痛くて苦しいだけで、何の足しにもならないはずで、そんな余計なものを持たないだろう。
複数の選択肢の中から、考えて行動選択できる能力を備えるのに、意識が必要になる。考えるには、まず、自分が置かれた状況を把握しなくてはならない。
目の前にコップがあるのが見えているとき、そのコップがどこにあるかというと、自分の外にあるのではなく、脳の中にある。脳は、外界にある物体を直接見ることはできない。
コップの表面から拡散した光が、レンズとして機能する水晶体で集光され、網膜に倒立像ができる。意識は、この像を見ている。……のではない。もし、そうだったら、たいへんなことになる。網膜には、盲点があり、像の一部に欠落が生じてしまう。
また、シャッキリした像が見えているのは、視野角1°ぐらいに限られていて、周辺はボケボケである。視線をあちこちに急速に動かす「サッカード」をしていて、拾い集めた断片を継ぎはぎして、一枚の絵に仕上げている。もし、網膜像が見えていたら、真ん中以外ボケボケで、しかも、サッカードのたびに像が流れてしまう。
脳内には舞台美術さんがいて、粗が生じないように、せっせと絵を仕上げているのだ。意識はその作品を眺めている。舞台美術さんの正体は、無意識である。
それに、脳内に再現された周辺世界のコピーは、映像のような二次元世界ではなく、三次元世界である。網膜に映る像は二次元であっても、左右の目に映る像の差異を利用して両眼立体視し、奥行き情報も復元している。脳内には三次元世界を構築するのである。これも、無意識の仕事。
これを、どうやって実現しているか。それは、3DCG(三次元コンピュータ・グラフィクス)のような仕組みによってである。脳内には三次元空間が入れ物として用意されている。目で見た対象物が、それぞれ三次元オブジェクトとして、この空間の中に配置されていく。3DCGにおける3Dモデリングに相当する。
この三次元モデルをレンダリングして、視線方向に見えるはずの絵を生成する。これが、視覚クオリア。
脳内の三次元世界は、外界の三次元世界のありようをできる限り忠実に再現しようとして作られる。ここが大きくズレていたら、行動出力の結果が、思い描いていたのと合わなくなってしまうので。ここは、無意識の仕事。
脳内の三次元仮想世界は、自分の位置から放射状にみて世界がどう見えているかを描写した主観視点の像ではなく、地図のような役割を果たす、客観視点の記述である。この仮想世界の中に、自分自身をも配置することができる。これが、志向的クオリアに相当する。
さて、もし、脳内の仮想世界がひとつしかなかったら、われわれの思考は現実世界に完全に縛りつけられてしまう。想像力をはたらかせたり、もし何々が起きたらという仮定の上で思案をめぐらしたり、過去の情景を思い出したり、ということができなくなってしまう。
それなので、現実世界直結の仮想世界とは別に、自由に操作できる仮想世界を持っている。これが、「想像仮想世界」。想像仮想世界のほうは、無意識ではなく、意識がつかさどる。意識の側から、自由に物を生成して配置したり、操作したりできる。
言葉を使ってコミュニケーションすることの基本にあるのは、脳内の仮想世界のありようを言葉で表現し、それを受け取った相手は、自分の脳内に、同じ仮想世界を再現する処理の流れだ。これが成功すると、「話が通じた」ということになる。
ディープラーニングで学習したAIは、写真に写っているのが猫だと認識できるようになったけど、それは単に、平面の画像と、「猫」という記号とを結びつけたにすぎない。「猫」という記号が、あのモフモフした現実世界の生き物を指しているのだと分かっていない。つまり、「猫」という言葉の意味が分かっていない。このことを「記号接地(シンボル・グラウンディング)」ができていないという。
猫という言葉に対して、猫の三次元モデルを結びつけておくようにすれば、記号接地問題が解決したことになる。天王寺動物園で初めてシマウマを見たとき、なるほど、形が馬で、体表が縞模様で、これはどう見ても、「シマウマ」としか呼びようがないですなぁ、と納得することができる。
●魚やカエルにはクオリアがないだって?
田方氏は、魚やカエルには視覚クオリアや痛みのクオリアが宿っていないはずだと言っている。本人たちから反論される心配がないからって、言いたい放題言ってるけど。しかし、自明な話ではなく、本当のところは分からない。
ヒトは、脚気のテストでひざをコン! とやられると、脚がピッと伸びる。これは反射であり、意図的に変更することができない。だからといって、行動を選択するための思考能力がまったく備わっていないとはならない。
カエルだって、ハエを捕獲するときは、タイミングが遅れたら逃げられてしまうので、考える以前に舌が伸びるようにできている。だからといって、思考能力が備わっていないとは帰結できない。田んぼをのっそり散歩しているときなどは、頭の中に地図があって、陸のほうへ行こうか、水へ入ろうか、と考えているかもしれないではないか。
サルやネズミに視覚クオリアがあることは、実験で確認されている。ある特定のパターンが見えたとき、レバーを引くなどの特定の行動をとるようにトレーニングしておき、錯視が見えたかどうかを自己申告させるという方法を使う。
似たような方法で、コウモリが、みずから発した超音波が壁に反射して往復してくる時間から距離を測る反響定位をしているとき、聴覚ではなく、視覚クオリアが生じていることが確認できている。しかし、魚やカエルとなると、トレーニングできそうになく、同じ手が使えない。
私は、目がある生き物だったらすべて視覚クオリアを備えているであろうし、魚やカエルも痛みを感じているだろうと思っている。進化の過程で、脳が建て増し、建て増し、されてきたが、クオリアは割と古い領域だけで生成しうるのではないか。
また、せっかく目があるのに、視覚クオリアが生成されず、盲視のように情報処理しかしていなかったとしたら、生きててつまらないではないか。
探しても研究事例があまり出てこないが、こんな記事があった。
2018年01月10日 07時00分
GigaZine
「魚も痛みを感じている」という見方が研究者の間でも広がりを見せている
https://gigazine.net/news/20180110-fish-feel-pain/
●オブジェクトをどうやって分節するか
自分の意識のありようを内省的に洞察して、その構造や仕組みを探り出すとする基本方針は、いわば、客席からお芝居を見て、そのお芝居がどんなふうに見えているかを体系化しようというようなことである。主観世界がどうなっているかを、主観の側から眺めている。
そうやって抽出したエッセンスが「意識の仮想世界仮説」です、って話はたいへんよく理解できる。まあ、だいたいそんな感じになってるだろうな、と思う。
しかし、いざ、仮説にしたがって、意識をソフトウェアの形でコンピュータに実装しようとするとき、どうやって突破したらいいか困り果てる壁がみえてこないだろうか。
楽屋で何が進行しているかをちゃんと把握できていなければ、意識って作れないんじゃないの? といったことである。
そんな壁が、たくさんあるように、私にはみえる。ひとつに、オブジェクトをどうやって分節するか、がある。
マイクロソフトのMR(複合現実; Mixed Reality)製品で「Hololens」というのがある。ヘッドセットを頭に装着し、グラス越しに世界を見る。すると、見たものすべてを石に変えるのではなく、ポリゴン化する。
つまり、小さい多角形パッチをつなぎ合わせて、見えている物体の表面すべてを覆いつくしてくれる。言い換えると、自分の見ている世界の三次元形状を計測して、3DCGのモデリング・データに落とし込んでくれるのである。
見回したり移動したりして、新しい面が見えてくると、すでに取得済みのパッチワークの先にどんどんつなげてくれる。まわりを見回しながら、家の中をくまなく歩き回れば、内観の完全なデータが得られる。外観でもできる。
このデータが取れた段階で、レンダリングの計算をして、任意の視点から、見えるはずの絵を生成することが可能になる。これはまさに、頭の中に仮想三次元世界を作ったことに相当するのではあるまいか。
2017年、Nest+Visual社は、ホロレンズ向けのゲーム「JK-Bazooka」を制作して発表した。小さいセーラー服おじさんが、そこらへんをちょろちょろ走り回るので、それを狙って、指のジェスチャーでミサイルを発射する。当たると、ハートを撒き散らしながら、昇天していく。テーブルのヘリから出ないように歩くし、物陰に入れば姿が見えなくなるし、現実の三次元世界と整合している。
これはまさに、想像仮想世界も生成できているということではないか。しかし、できていないことがある。このモデルだと、世界は、一体化した、たったひとつの物体からなっている。壁、床、テーブル、椅子など、オブジェクトの切り分けができていないのである。
人と自然な会話ができるためには、まず、自分が置かれた状況を言葉で説明する能力が備わっていなくては始まらない。人間だったら、「いま、会議室にいて、白い壁にホワイトボードがかかっていて、テーブルと椅子があります」というふうに何の苦労もなく言葉で情景を描写できる。
二次元画像から被写体を認識し、「猫」とラベルづけする技術は、ディープラーニングにより実現しているので、二次元と三次元との違いはあれ、応用すればできそうな感じはする。
しかし、田方氏は、「ディープラーニングなんかやってても意味理解にはつながらない、まるで方向違いだってこと、そろそろ気がつけよ」と、けちょんけちょんにけなしている。あれだけ言っておきながら、必要不可欠な要素技術として、ちゃっかり採用しちゃうのだろうか。
●三次元仮想世界と言葉との間の相互変換はどうすればできるか
他にも壁がみえる。三次元仮想世界と言葉との間の相互変換はどうだろう。
言葉を使って意味を伝えるとはどういうことか。脳内の三次元仮想世界を人から人へとコピーすることである、という感じのことを田方氏は述べている。一方が、自分の脳内の仮想世界のありようを言葉に落とし込んで発信する。他方が、その言葉を受信して、それにしたがって、自分の脳内に仮想世界を組み立てる。
言葉に落とし込まれた時点で情報がキュッと圧縮されているので、完全な形で復元することは不可能である。しかし、だいたい一致しているとき、「話が伝わった」ことになる。
これができるためには、入力された言葉を三次元仮想世界へ変換する機能と、逆向きの変換をして言葉を出力する機能とが備わってなくてはならない。
「大学に落ちました」と聞いて、「一口に大学と言っても、北海道大学とデジタルハリウッド大学とでは姿ががらっと異なるので、何大学か言ってくれないと三次元オブジェクトが生成できません」と返したのでは、お里が知れる。お前、出身は工場だろ。
大学の正門の脇に立てられた大きなベニヤ板に、飛び飛びの自然数が昇順に印字された紙が貼りつめてあり、集まった若者たちが、手元の番号と照合して、笑ったり泣いたり茫然と立ち尽くしたりしている光景が脳内に生成できれば正解であろう。でも、やけにハードル高くない?
さて、逆に、脳内三次元仮想世界から言葉への変換はどうだろう。
本日、私は、1:57pmに自宅を出発し、最寄り駅から14:06発の電車に乗り、高田馬場駅で降りて、「磯丸水産高田馬場駅前店」に2:16pm から2:37pmまでいて、特盛うな丼の代金1,859円をANA VISAゴールドカードで決済し、ビッグボックス7階の「自遊空間」に入り、本来は、68、69、71、73番のどれかのブースに入りたかったのだが、空いてなかったため、72番の禁煙リクライニング席に入り、この席は、パソコンのディスプレイの上の棚の裏側に蛍光灯があるためまぶしくてしょうがないのを我慢し、しかし、パソコンは、Thirdwave Diginnos Co.,Ltd. のモデルASで、CPUは、Intel(R)Celeron(R)CPU G3930 @ 2.90GHz(2 CPUs)で、これがサクサク速くて、快適にノマドワークした。
おまえも出身は工場か! ってなるだろう。オレがチューリング・テストに落ちてどうするよ? 人は、脳内三次元仮想世界を言葉に落とし込む際、全部言っちゃダメで、要点だけかいつまんで言う。そうしなきゃ、相手は最後まで辛抱して聞いてくれないよね。
これも、ハードル高くない?
●三次元仮想世界から感情への変換はどうすればできるか
言葉を聞いて、三次元仮想世界に情景を描くことができれば意味が分かったこ とになるだろうか。「大学に落ちました」と聞いて、サラサラっと絵コンテを 描いて、「こんな感じでした?」と返したらどうだろう。「おお!君は意味を 理解しているねぇ」と喜んでくれるだろうか。「そうはならんだろ」と思えて こそ、意味を理解したと言えるのではあるまいか。落胆を察してこそ。
「大学に落ちた」から「落胆」に至る推論過程は、どのようになっているのだろう。意識側からみたら簡単なことのように思えるけど、これって、無意識側がむずかしい問題を解いた結果なのではなかろうか。
大学は、入学試験を受けて、合格すると入れる、とか、大学に入るとどんないいことが期待できるか、とか、いろいろな前提を利用しないと、この推論過程がつながらないだろう。
ところが、大学には属性がいっぱいある。教室があるとか、教授がいるとか、創始者の像があるとか、イチョウの木が生えてるとか。その中から、要る情報だけを選り分けて、推論の道筋を通さないとならない。これって、案外、むずかしい問題なのではなかろうか。もしかすると、フレーム問題の一例にあたるのかもしれない。
●感情とは、メモリの値でよいのか?
目の前に機械がある。スリットからお金を入れると、ピンク色のランプが点灯し、合成音声で「ありがとうございます」と言う。これを見て「おお! 機械にも感謝の気持ちが宿った!」と思うだろうか。
Pepper君には、光吉俊二氏(東京大学 特任准教授)が作った「感情エンジン」が搭載されている。つまり、作った側の立場からすると、感情を宿らせたことになっている。
しかしながら、Pepper君に向き合った人たちは、「おお! こいつには感情が宿っておる!」とは、あまりならなかったようである。
コンピュータ・プログラムにおける「変数」とは、ハードウェアで言えば、メモリ上のある番地に対応している。ある変数aに123という値を代入せよ、という命令を記述しておき、それを実行したとき、aに対応する番地のメモリにそれまで入っていた値を捨て、123という新しい値を書き込む。
ある変数のとりうる値が、0か1かの二値しかないものと取り決めておき、1がTrue(論理値の真)を表し、0がFalse(偽)を表すと取り決めておくとき、この変数を「フラグ」と呼ぶことがある。
ある変数が「怒りフラグ」を表すと取り決めておき、これの値がTrueになったとき、この機械は怒っていることにしよう、と取り決めておく。ソフトウェアで「怒り」を記述しようとしたら、それくらいしか、できることはない。
ヒトだとどうだろう。脳内にある特定の怒りニューロンがあり、こいつが発火すると、それが怒りの起爆剤になり、他のニューロンもわいわい発火して、頭から湯気が出る、という仕掛けになっているのだろうか。じゃあ、同じじゃないか。いやぁ、しかし……。
●汎用化するとは、オブジェクトを増やしていくことなのか?
田方氏は、「人間と同じような意識をコンピュータで作るには、あらゆるものをオブジェクトで作成すればいい」と述べている。これを聞いて、私は、「え? 意味ネットワークの終わらぬ旅をまたやるんですかい?」と思った。
オブジェクト指向言語においては、「クラス」が記述できるようになっている。クラスとは、オブジェクトを生成するための雛型の役割を果たす。ミケやタマを生成するために「猫クラス」を作っておけるということだ。
クラスは、プロパティのリストとメソッドのリストとからなる。プロパティとは、属性のことであり、鳴き声はニャーであるとか、触った感触はモフモフしているとかである。メソッドとは、オブジェクトに対して施すことができる操作のことであり、頭をなでるとか、抱きかかえるとか、じゃらすとか、エサをやるとかである。あるいは、オブジェクト自身の動作でもよく、鳴くとか寝るとかジャンプするとかじゃれるとかを記述してもよい。
猫クラスを定義し、ありとあらゆるプロパティとメソッドを列挙し尽くせば、それが猫という概念を理解したことに相当する、と田方氏は考えているようだ。
クラスは階層化することができるようになっている。上位クラスのプロパティやメソッドは下位のクラスへ継承できる。猫クラスの上位に哺乳類クラスを作っておけば、哺乳類に共通するプロパティやメソッドはそっちに書いておけばよい。哺乳類クラスの下位には犬クラスを作ることもできる。こうして、世界を構造化して記述することができるのである。
猫クラスだけ書いたんじゃ、猫専門 AI で終わってしまう。汎用化するためには、どうするか。いろんなクラスをじゃんじゃん定義していけばよい、と田方氏は考えているようだ。
ヒトクラス、学校クラス、電車クラス、お金クラス、天気クラス、野球クラス、座布団クラス、クジラのベーコンクラス、コインランドリークラス、水酸化ナトリウムクラスなどなど、ありとあらゆるクラスを定義していけば、世界を理解することにつながる。
ところで、第二次AIブームのとき、コンピュータに意味を理解させようとして、「意味ネットワーク」という手法が試みられた。この世のありとあらゆる情報の断片を「ナントカはカントカだ」という形式で記述していく。
「子の子は孫」、「郵便ポストは赤い」、「課長より部長が偉い」、「キリンの首は長い」、「月曜の次は火曜」、「町田は東京都」、みたいな知識をこつこつこつこつ貯めていく。
1984年から始まり、今もやってる。すでに100万以上の知識が貯め込まれている。でもまだぜんぜん足りないってんで、1億を目指すとか言っている。
「あのさぁ」って言いたくなる。「根本的なことを勘違いしてない?」。「そろそろ気づけよ」と田方氏は言う。松尾豊先生(東京大学教授)もそんなようなことを言ってた気がする。私も1000%同意だ。
「んで?」と思う。それをやめて、クラス定義の形式に切り替えると大幅に効率アップするだろうか。今度は20年ぐらいで終わるだろうか。
これをやり尽くしても、ヘッダにしかならない。プログラム本体はどう書くんだろ、という心配もある。けど、それはまた別の話だ。
●答えを早く見たい
以上、述べてきたように、意識がどんな構造や仕組みになっていると田方氏が考えているのかは、聞いてだいたい理解できたのだが、どうにも見えてこなくてもどかしいのは、それをコンピュータに実装する方法である。
しかしながら、そこをいくら聞いたとしても、フィージビリティ (実行可能性)に疑義が残り続けそうな気がする。
それよりも、ストレートに、答えが早く見たい。人間相手に自然な会話ができるAIを作りたいという、そもそもの目的に対して、できたのか、できなかったのか。
ライト兄弟が飛行機を発明した例にみるように、技術の大ブレイクスルーは、案外、素人によってもたらされることがある。飛行機を作るのは不可能だ、とする理論があった。翼の裏側に空気の分子が衝突して、作用反作用の法則で揚力が生じるのだとすると、揚力の大きさは翼の角度に比例するはずであり、それでは足りないのだ。
ところが、飛んじゃった。飛ぶ理屈は、飛んでから解明された。翼の上側と下側の空気の流速の違いにより渦が生じ、翼の角度の二乗に比例した揚力が生じるのだそうで。そんなのは、作ってからでないと発見できない。
できっこないなんて、理屈を掲げてふんぞり返っているやつは、あとで大恥をかくのだ。
だいぶ dis りまくったような気はするけど、期待はしているのだ。挑発でもなんでもなく、本心から、がんばってほしい。
【GrowHair】GrowHair@yahoo.co.jp
セーラー服仙人カメコ。アイデンティティ拡散。
http://www.growhair-jk.com/
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
編集後記(07/31)
みなさん、ご愛読ありがとうございます。デジクリは明日から8月16日(日)まで、夏季メンテナンス休暇に入ります。再開は8月17日(月)の予定です。
●稀勢の里が引退してから、大相撲中継を見なくなった。もっとも、いまテレビを見るのは昼食、夕食時のニュースだけで、他はまったく見ない。いま関心があるのは照ノ富士だけだ。大関陥落後、序二段から幕内に復帰した。照ノ富士は稀勢の里に壊された。だからわたしは、責任をとって応援しているのだ。(柴田)
●楽天モバイル続き。今の目玉キャンペーンは、「AQUOS sense3 lite」と「OPPO A5 2020」。前者は23,619円(税別)、後者は20,019円(税別)で、20,000ポイントバック。オンライン申し込みや事務手数料分のポイントもつく。
iPhoneになくて、Android機にあるといえば、「通話録音」機能。「Galaxy A7」「OPPO A5 2020」は自動録音でき、「AQUOS sense3 lite」は通話中にボタンをタップすることで可能とのこと。
が、楽天モバイルは「Rakuten Link」アプリを利用した通話料無料をうたっていて、スマホの通話機能を利用しないため、通話録音ができない。
通話機能を使っての有料発信なら可能だが、着信は「Rakuten Link」になってしまうため、毎回のログアウトやアンインストールが必要になりそう。(と書いた後に、宅配会社からの電話があって、それは通話機能側での着信であった理由不明)。
回線スピードはお昼休みに落ちる。「Rakuten Link」での通話は、品質の良いIP電話って感じで、やはり少し乱れる時がある。
他にもいろいろ書きたかったが、夏休みになるのでこのぐらいで。世の中いろいろありますが、どうぞご自愛くださいまし。(hammer.mule)
AQUOS sense3 lite
https://jp.sharp/products/aquos-sense3-lite-r/
https://network.mobile.rakuten.co.jp/product/smartphone/aquos-sense3-lite/
OPPO A5 2020
https://www.oppo.com/jp/smartphone-a5-2020/
https://network.mobile.rakuten.co.jp/product/smartphone/a5-2020/index.html
Rakuten Link
https://network.mobile.rakuten.co.jp/service/rakuten-link/
■Otakuワールドへようこそ![335]
「意識の仮想世界仮説」でコンピュータに意識が芽生えるか?[後編]
GrowHair
https://bn.dgcr.com/archives/20200731110100.html
───────────────────────────────────
前々回の前編と前回の中編の続き。
https://bn.dgcr.com/archives/20200626110100.html
https://bn.dgcr.com/archives/20200710110100.html
●人工意識はソフトウェア開発でできちゃう?
田方氏によると、人工意識を作る上で、主役を張るのは、哲学者でもなく、脳科学者でもなく、人工知能研究開発者でもなく、ソフトウェア・エンジニアである。「意識はソフトウェアで実現される」と言っている。さらに、「意識科学は、思考実験段階から、そろそろ具体的な設計段階に進むべき」とも。
つまり、人工意識を作りたいという目的に照らすと、現状の学問的アプローチはすべて方向違いであり、さっさと設計に進み、ソフトウェアを作れば実現できちゃうだろう、と言いたいようだ。これは、あまり聞かない、特殊な考え方だ。どこかネジが外れたかのような、スーパーハイパー楽観論。
第一に、哲学者ではない、という点については、私も1000%同意だ。「鳥類学者が鳥の役に立つ程度にしか、科学哲学は科学の役に立たない」(リチャード・ファインマン)。
第二に、脳科学者はどうか。脳科学の主たる目的は、脳の動作メカニズムの謎をすべて解明することにあり、人工意識を作ることではない。しかし、試しに脳的なものを作ってみて、その動作をみることで、何か知見が得られるかもしれない、という構成論的なアプローチが有効そうであれば、そこにも興味が行くであろう。また、脳の謎がすべて解明できた暁には、同等の機能を呈する装置を作ることも可能になるかもしれない。
第三に、人工知能研究開発者はどうか。究極的には、人間並みの、あるいは人間を超える知能や意識をもった汎用人工知能を作りたいと思っている。その手段は、ソフトウェア以外に考えられないと思う。
しかしながら、多くの研究開発者は、現段階の到達地点が、究極のゴールの遥か遥か手前という感覚をもっているのではないだろうか。スタートからゴールまで100メートルあるとしたら、今いるのが、だいたい10メートル地点ぐらい?
人類史20万年で進捗が10%なら、あと180万年かかる、って話ではない。ダートマス会議が開催された1956年が人工知能の起点だとすると、まだ60年ちょいしか経っていない。ディープ・ラーニングが登場して、画像認識の精度に飛躍的な進歩をもたらしたのが2012年で、たったの8年前。AlphGo が囲碁でイ・セドルを負かしたのが2016年で、4年前。AIにできることが、ブオーーーンと指数関数的に加速している。この調子でいけば、ゴールは案外近いかもしれない。
しかし、現時点で、すでに人工意識を作る素材が整っていると考える研究開発者はほぼいないと思う。そう思うなら、さっさと作っちゃえば、一番乗りになれるのだから。ひょっとして、田方氏は、なにかひらめいたのだろうか。
●内省的洞察で得た意識の仕組みをプログラムで書けば出来上がり
作りたいのは、人間を相手に、自然な会話のできるAIである。正真正銘の意識を宿すことを目的としてなく、フリが上手いだけでよいので、中身は空っぽの張りぼてでよい。とは言え、決して簡単な課題ではない。
人は、言葉を交わすとき、相手の感情を読み取ろうとしたり、意図を汲み取ろうとしたりするもので、もし、意識や感情が備わっていなかったら、まともな会話にならないはずだ。
言葉が使えることと、意識や感情が備わっていることとは、密接な関係にあると田方氏はみているようで、目的を達成するための要件として、人工意識を作ることを掲げている。
コンピュータに意識を宿らせるには、どうすればよいか。大方針として、次のように考えているようだ。まず、自分の意識のありようを内省的に洞察し、その構造がどうなっているかとか、どんな仕組みで機能しているのかを探り出す。
しかる後に、その構造や機能をコンピュータ・プログラムで記述する。プログラミング言語としては、オブジェクト指向言語が適している。そのソフトウェアを実行すれば、われわれ人間と同様に意識や感情を備え、言葉を操るようになるはずだ。一丁上がり。
7月29日(水)の時点で、田方氏のYouTube動画が66本上がっているが、95%ぐらいが、われわれの意識のありようがこうなっている、という話で占められている。その部分は、おおむね、よい。ああ、だいたいそういうふうになってる感じがするよね、ってことで、ある程度納得がいく。
仮に、その省察が100%正しいとして、ここまで意識が解明できたのなら、あとは、手を動かしさえすれば、ソフトウェアの形でコンピュータに移植できちゃうよね、って話だろうか。私の感覚だと、そこにまだ越えなきゃならない山が一山も二山もありそうにみえる。
インプリメント(実装)する方法に触れているのは、意識は3DCGで表現すればよいという話と、プログラムはオブジェクト指向言語で記述すればよい、ということぐらいだ。
この構想を聞いただけで、じゃ、ソフトウェアに落とし込むところはアンタに発注したから、よろしくね、ともし言われたら、何をどうしたらいいのか分からず、途方に暮れて固まってしまいそうだ。仕様書はどこ?
現実に実行可能な話をしているのか、途方もない夢を語っているだけなのか、判断がつかない。
●頭の中の3DCG ワールド─「意識の仮想世界仮説」
田方氏の構想の中心にあるのが「意識の仮想世界仮説」である。意識っていうのは、こういう仕組みになっているよね、というのを言い表している。
その前に、比較のため、意識のない状態というのを考えてみる。田方氏は、魚やカエルには意識がないと考えている。進化レベルがその段階にとどまっている生物は、目の前にエサがあれば、パクっと食いつくし、天敵に襲われそうになったら、ささっと逃げる。ひとつの感覚入力に対しては、行動出力がひとつに決まっており、変更が効かない。ハードワイヤーされているので、本能にしたがってしか行動できない。
試しに、スマホの画面にハエが這っている映像を映し出して、カエルに見せると、カエルは舌を素早く伸ばして捕獲しようとする。いつまででもやっている。何十回やっても、気がついて軌道修正することができない。
感覚入力と行動出力が直結しているなら、機械でも容易に実現できそうなことである。視覚クオリアが備わっている必要はなく、盲視でじゅうぶんであろう。
釣り上げられた魚は、痛そうに跳ね回るけど、その実、痛みのクオリアは備わっていない。もし、痛みから逃れるために行動を変更する機能が備わっていないのだとしたら、痛くて苦しいだけで、何の足しにもならないはずで、そんな余計なものを持たないだろう。
複数の選択肢の中から、考えて行動選択できる能力を備えるのに、意識が必要になる。考えるには、まず、自分が置かれた状況を把握しなくてはならない。
目の前にコップがあるのが見えているとき、そのコップがどこにあるかというと、自分の外にあるのではなく、脳の中にある。脳は、外界にある物体を直接見ることはできない。
コップの表面から拡散した光が、レンズとして機能する水晶体で集光され、網膜に倒立像ができる。意識は、この像を見ている。……のではない。もし、そうだったら、たいへんなことになる。網膜には、盲点があり、像の一部に欠落が生じてしまう。
また、シャッキリした像が見えているのは、視野角1°ぐらいに限られていて、周辺はボケボケである。視線をあちこちに急速に動かす「サッカード」をしていて、拾い集めた断片を継ぎはぎして、一枚の絵に仕上げている。もし、網膜像が見えていたら、真ん中以外ボケボケで、しかも、サッカードのたびに像が流れてしまう。
脳内には舞台美術さんがいて、粗が生じないように、せっせと絵を仕上げているのだ。意識はその作品を眺めている。舞台美術さんの正体は、無意識である。
それに、脳内に再現された周辺世界のコピーは、映像のような二次元世界ではなく、三次元世界である。網膜に映る像は二次元であっても、左右の目に映る像の差異を利用して両眼立体視し、奥行き情報も復元している。脳内には三次元世界を構築するのである。これも、無意識の仕事。
これを、どうやって実現しているか。それは、3DCG(三次元コンピュータ・グラフィクス)のような仕組みによってである。脳内には三次元空間が入れ物として用意されている。目で見た対象物が、それぞれ三次元オブジェクトとして、この空間の中に配置されていく。3DCGにおける3Dモデリングに相当する。
この三次元モデルをレンダリングして、視線方向に見えるはずの絵を生成する。これが、視覚クオリア。
脳内の三次元世界は、外界の三次元世界のありようをできる限り忠実に再現しようとして作られる。ここが大きくズレていたら、行動出力の結果が、思い描いていたのと合わなくなってしまうので。ここは、無意識の仕事。
脳内の三次元仮想世界は、自分の位置から放射状にみて世界がどう見えているかを描写した主観視点の像ではなく、地図のような役割を果たす、客観視点の記述である。この仮想世界の中に、自分自身をも配置することができる。これが、志向的クオリアに相当する。
さて、もし、脳内の仮想世界がひとつしかなかったら、われわれの思考は現実世界に完全に縛りつけられてしまう。想像力をはたらかせたり、もし何々が起きたらという仮定の上で思案をめぐらしたり、過去の情景を思い出したり、ということができなくなってしまう。
それなので、現実世界直結の仮想世界とは別に、自由に操作できる仮想世界を持っている。これが、「想像仮想世界」。想像仮想世界のほうは、無意識ではなく、意識がつかさどる。意識の側から、自由に物を生成して配置したり、操作したりできる。
言葉を使ってコミュニケーションすることの基本にあるのは、脳内の仮想世界のありようを言葉で表現し、それを受け取った相手は、自分の脳内に、同じ仮想世界を再現する処理の流れだ。これが成功すると、「話が通じた」ということになる。
ディープラーニングで学習したAIは、写真に写っているのが猫だと認識できるようになったけど、それは単に、平面の画像と、「猫」という記号とを結びつけたにすぎない。「猫」という記号が、あのモフモフした現実世界の生き物を指しているのだと分かっていない。つまり、「猫」という言葉の意味が分かっていない。このことを「記号接地(シンボル・グラウンディング)」ができていないという。
猫という言葉に対して、猫の三次元モデルを結びつけておくようにすれば、記号接地問題が解決したことになる。天王寺動物園で初めてシマウマを見たとき、なるほど、形が馬で、体表が縞模様で、これはどう見ても、「シマウマ」としか呼びようがないですなぁ、と納得することができる。
●魚やカエルにはクオリアがないだって?
田方氏は、魚やカエルには視覚クオリアや痛みのクオリアが宿っていないはずだと言っている。本人たちから反論される心配がないからって、言いたい放題言ってるけど。しかし、自明な話ではなく、本当のところは分からない。
ヒトは、脚気のテストでひざをコン! とやられると、脚がピッと伸びる。これは反射であり、意図的に変更することができない。だからといって、行動を選択するための思考能力がまったく備わっていないとはならない。
カエルだって、ハエを捕獲するときは、タイミングが遅れたら逃げられてしまうので、考える以前に舌が伸びるようにできている。だからといって、思考能力が備わっていないとは帰結できない。田んぼをのっそり散歩しているときなどは、頭の中に地図があって、陸のほうへ行こうか、水へ入ろうか、と考えているかもしれないではないか。
サルやネズミに視覚クオリアがあることは、実験で確認されている。ある特定のパターンが見えたとき、レバーを引くなどの特定の行動をとるようにトレーニングしておき、錯視が見えたかどうかを自己申告させるという方法を使う。
似たような方法で、コウモリが、みずから発した超音波が壁に反射して往復してくる時間から距離を測る反響定位をしているとき、聴覚ではなく、視覚クオリアが生じていることが確認できている。しかし、魚やカエルとなると、トレーニングできそうになく、同じ手が使えない。
私は、目がある生き物だったらすべて視覚クオリアを備えているであろうし、魚やカエルも痛みを感じているだろうと思っている。進化の過程で、脳が建て増し、建て増し、されてきたが、クオリアは割と古い領域だけで生成しうるのではないか。
また、せっかく目があるのに、視覚クオリアが生成されず、盲視のように情報処理しかしていなかったとしたら、生きててつまらないではないか。
探しても研究事例があまり出てこないが、こんな記事があった。
2018年01月10日 07時00分
GigaZine
「魚も痛みを感じている」という見方が研究者の間でも広がりを見せている
https://gigazine.net/news/20180110-fish-feel-pain/
●オブジェクトをどうやって分節するか
自分の意識のありようを内省的に洞察して、その構造や仕組みを探り出すとする基本方針は、いわば、客席からお芝居を見て、そのお芝居がどんなふうに見えているかを体系化しようというようなことである。主観世界がどうなっているかを、主観の側から眺めている。
そうやって抽出したエッセンスが「意識の仮想世界仮説」です、って話はたいへんよく理解できる。まあ、だいたいそんな感じになってるだろうな、と思う。
しかし、いざ、仮説にしたがって、意識をソフトウェアの形でコンピュータに実装しようとするとき、どうやって突破したらいいか困り果てる壁がみえてこないだろうか。
楽屋で何が進行しているかをちゃんと把握できていなければ、意識って作れないんじゃないの? といったことである。
そんな壁が、たくさんあるように、私にはみえる。ひとつに、オブジェクトをどうやって分節するか、がある。
マイクロソフトのMR(複合現実; Mixed Reality)製品で「Hololens」というのがある。ヘッドセットを頭に装着し、グラス越しに世界を見る。すると、見たものすべてを石に変えるのではなく、ポリゴン化する。
つまり、小さい多角形パッチをつなぎ合わせて、見えている物体の表面すべてを覆いつくしてくれる。言い換えると、自分の見ている世界の三次元形状を計測して、3DCGのモデリング・データに落とし込んでくれるのである。
見回したり移動したりして、新しい面が見えてくると、すでに取得済みのパッチワークの先にどんどんつなげてくれる。まわりを見回しながら、家の中をくまなく歩き回れば、内観の完全なデータが得られる。外観でもできる。
このデータが取れた段階で、レンダリングの計算をして、任意の視点から、見えるはずの絵を生成することが可能になる。これはまさに、頭の中に仮想三次元世界を作ったことに相当するのではあるまいか。
2017年、Nest+Visual社は、ホロレンズ向けのゲーム「JK-Bazooka」を制作して発表した。小さいセーラー服おじさんが、そこらへんをちょろちょろ走り回るので、それを狙って、指のジェスチャーでミサイルを発射する。当たると、ハートを撒き散らしながら、昇天していく。テーブルのヘリから出ないように歩くし、物陰に入れば姿が見えなくなるし、現実の三次元世界と整合している。
これはまさに、想像仮想世界も生成できているということではないか。しかし、できていないことがある。このモデルだと、世界は、一体化した、たったひとつの物体からなっている。壁、床、テーブル、椅子など、オブジェクトの切り分けができていないのである。
人と自然な会話ができるためには、まず、自分が置かれた状況を言葉で説明する能力が備わっていなくては始まらない。人間だったら、「いま、会議室にいて、白い壁にホワイトボードがかかっていて、テーブルと椅子があります」というふうに何の苦労もなく言葉で情景を描写できる。
二次元画像から被写体を認識し、「猫」とラベルづけする技術は、ディープラーニングにより実現しているので、二次元と三次元との違いはあれ、応用すればできそうな感じはする。
しかし、田方氏は、「ディープラーニングなんかやってても意味理解にはつながらない、まるで方向違いだってこと、そろそろ気がつけよ」と、けちょんけちょんにけなしている。あれだけ言っておきながら、必要不可欠な要素技術として、ちゃっかり採用しちゃうのだろうか。
●三次元仮想世界と言葉との間の相互変換はどうすればできるか
他にも壁がみえる。三次元仮想世界と言葉との間の相互変換はどうだろう。
言葉を使って意味を伝えるとはどういうことか。脳内の三次元仮想世界を人から人へとコピーすることである、という感じのことを田方氏は述べている。一方が、自分の脳内の仮想世界のありようを言葉に落とし込んで発信する。他方が、その言葉を受信して、それにしたがって、自分の脳内に仮想世界を組み立てる。
言葉に落とし込まれた時点で情報がキュッと圧縮されているので、完全な形で復元することは不可能である。しかし、だいたい一致しているとき、「話が伝わった」ことになる。
これができるためには、入力された言葉を三次元仮想世界へ変換する機能と、逆向きの変換をして言葉を出力する機能とが備わってなくてはならない。
「大学に落ちました」と聞いて、「一口に大学と言っても、北海道大学とデジタルハリウッド大学とでは姿ががらっと異なるので、何大学か言ってくれないと三次元オブジェクトが生成できません」と返したのでは、お里が知れる。お前、出身は工場だろ。
大学の正門の脇に立てられた大きなベニヤ板に、飛び飛びの自然数が昇順に印字された紙が貼りつめてあり、集まった若者たちが、手元の番号と照合して、笑ったり泣いたり茫然と立ち尽くしたりしている光景が脳内に生成できれば正解であろう。でも、やけにハードル高くない?
さて、逆に、脳内三次元仮想世界から言葉への変換はどうだろう。
本日、私は、1:57pmに自宅を出発し、最寄り駅から14:06発の電車に乗り、高田馬場駅で降りて、「磯丸水産高田馬場駅前店」に2:16pm から2:37pmまでいて、特盛うな丼の代金1,859円をANA VISAゴールドカードで決済し、ビッグボックス7階の「自遊空間」に入り、本来は、68、69、71、73番のどれかのブースに入りたかったのだが、空いてなかったため、72番の禁煙リクライニング席に入り、この席は、パソコンのディスプレイの上の棚の裏側に蛍光灯があるためまぶしくてしょうがないのを我慢し、しかし、パソコンは、Thirdwave Diginnos Co.,Ltd. のモデルASで、CPUは、Intel(R)Celeron(R)CPU G3930 @ 2.90GHz(2 CPUs)で、これがサクサク速くて、快適にノマドワークした。
おまえも出身は工場か! ってなるだろう。オレがチューリング・テストに落ちてどうするよ? 人は、脳内三次元仮想世界を言葉に落とし込む際、全部言っちゃダメで、要点だけかいつまんで言う。そうしなきゃ、相手は最後まで辛抱して聞いてくれないよね。
これも、ハードル高くない?
●三次元仮想世界から感情への変換はどうすればできるか
言葉を聞いて、三次元仮想世界に情景を描くことができれば意味が分かったこ とになるだろうか。「大学に落ちました」と聞いて、サラサラっと絵コンテを 描いて、「こんな感じでした?」と返したらどうだろう。「おお!君は意味を 理解しているねぇ」と喜んでくれるだろうか。「そうはならんだろ」と思えて こそ、意味を理解したと言えるのではあるまいか。落胆を察してこそ。
「大学に落ちた」から「落胆」に至る推論過程は、どのようになっているのだろう。意識側からみたら簡単なことのように思えるけど、これって、無意識側がむずかしい問題を解いた結果なのではなかろうか。
大学は、入学試験を受けて、合格すると入れる、とか、大学に入るとどんないいことが期待できるか、とか、いろいろな前提を利用しないと、この推論過程がつながらないだろう。
ところが、大学には属性がいっぱいある。教室があるとか、教授がいるとか、創始者の像があるとか、イチョウの木が生えてるとか。その中から、要る情報だけを選り分けて、推論の道筋を通さないとならない。これって、案外、むずかしい問題なのではなかろうか。もしかすると、フレーム問題の一例にあたるのかもしれない。
●感情とは、メモリの値でよいのか?
目の前に機械がある。スリットからお金を入れると、ピンク色のランプが点灯し、合成音声で「ありがとうございます」と言う。これを見て「おお! 機械にも感謝の気持ちが宿った!」と思うだろうか。
Pepper君には、光吉俊二氏(東京大学 特任准教授)が作った「感情エンジン」が搭載されている。つまり、作った側の立場からすると、感情を宿らせたことになっている。
しかしながら、Pepper君に向き合った人たちは、「おお! こいつには感情が宿っておる!」とは、あまりならなかったようである。
コンピュータ・プログラムにおける「変数」とは、ハードウェアで言えば、メモリ上のある番地に対応している。ある変数aに123という値を代入せよ、という命令を記述しておき、それを実行したとき、aに対応する番地のメモリにそれまで入っていた値を捨て、123という新しい値を書き込む。
ある変数のとりうる値が、0か1かの二値しかないものと取り決めておき、1がTrue(論理値の真)を表し、0がFalse(偽)を表すと取り決めておくとき、この変数を「フラグ」と呼ぶことがある。
ある変数が「怒りフラグ」を表すと取り決めておき、これの値がTrueになったとき、この機械は怒っていることにしよう、と取り決めておく。ソフトウェアで「怒り」を記述しようとしたら、それくらいしか、できることはない。
ヒトだとどうだろう。脳内にある特定の怒りニューロンがあり、こいつが発火すると、それが怒りの起爆剤になり、他のニューロンもわいわい発火して、頭から湯気が出る、という仕掛けになっているのだろうか。じゃあ、同じじゃないか。いやぁ、しかし……。
●汎用化するとは、オブジェクトを増やしていくことなのか?
田方氏は、「人間と同じような意識をコンピュータで作るには、あらゆるものをオブジェクトで作成すればいい」と述べている。これを聞いて、私は、「え? 意味ネットワークの終わらぬ旅をまたやるんですかい?」と思った。
オブジェクト指向言語においては、「クラス」が記述できるようになっている。クラスとは、オブジェクトを生成するための雛型の役割を果たす。ミケやタマを生成するために「猫クラス」を作っておけるということだ。
クラスは、プロパティのリストとメソッドのリストとからなる。プロパティとは、属性のことであり、鳴き声はニャーであるとか、触った感触はモフモフしているとかである。メソッドとは、オブジェクトに対して施すことができる操作のことであり、頭をなでるとか、抱きかかえるとか、じゃらすとか、エサをやるとかである。あるいは、オブジェクト自身の動作でもよく、鳴くとか寝るとかジャンプするとかじゃれるとかを記述してもよい。
猫クラスを定義し、ありとあらゆるプロパティとメソッドを列挙し尽くせば、それが猫という概念を理解したことに相当する、と田方氏は考えているようだ。
クラスは階層化することができるようになっている。上位クラスのプロパティやメソッドは下位のクラスへ継承できる。猫クラスの上位に哺乳類クラスを作っておけば、哺乳類に共通するプロパティやメソッドはそっちに書いておけばよい。哺乳類クラスの下位には犬クラスを作ることもできる。こうして、世界を構造化して記述することができるのである。
猫クラスだけ書いたんじゃ、猫専門 AI で終わってしまう。汎用化するためには、どうするか。いろんなクラスをじゃんじゃん定義していけばよい、と田方氏は考えているようだ。
ヒトクラス、学校クラス、電車クラス、お金クラス、天気クラス、野球クラス、座布団クラス、クジラのベーコンクラス、コインランドリークラス、水酸化ナトリウムクラスなどなど、ありとあらゆるクラスを定義していけば、世界を理解することにつながる。
ところで、第二次AIブームのとき、コンピュータに意味を理解させようとして、「意味ネットワーク」という手法が試みられた。この世のありとあらゆる情報の断片を「ナントカはカントカだ」という形式で記述していく。
「子の子は孫」、「郵便ポストは赤い」、「課長より部長が偉い」、「キリンの首は長い」、「月曜の次は火曜」、「町田は東京都」、みたいな知識をこつこつこつこつ貯めていく。
1984年から始まり、今もやってる。すでに100万以上の知識が貯め込まれている。でもまだぜんぜん足りないってんで、1億を目指すとか言っている。
「あのさぁ」って言いたくなる。「根本的なことを勘違いしてない?」。「そろそろ気づけよ」と田方氏は言う。松尾豊先生(東京大学教授)もそんなようなことを言ってた気がする。私も1000%同意だ。
「んで?」と思う。それをやめて、クラス定義の形式に切り替えると大幅に効率アップするだろうか。今度は20年ぐらいで終わるだろうか。
これをやり尽くしても、ヘッダにしかならない。プログラム本体はどう書くんだろ、という心配もある。けど、それはまた別の話だ。
●答えを早く見たい
以上、述べてきたように、意識がどんな構造や仕組みになっていると田方氏が考えているのかは、聞いてだいたい理解できたのだが、どうにも見えてこなくてもどかしいのは、それをコンピュータに実装する方法である。
しかしながら、そこをいくら聞いたとしても、フィージビリティ (実行可能性)に疑義が残り続けそうな気がする。
それよりも、ストレートに、答えが早く見たい。人間相手に自然な会話ができるAIを作りたいという、そもそもの目的に対して、できたのか、できなかったのか。
ライト兄弟が飛行機を発明した例にみるように、技術の大ブレイクスルーは、案外、素人によってもたらされることがある。飛行機を作るのは不可能だ、とする理論があった。翼の裏側に空気の分子が衝突して、作用反作用の法則で揚力が生じるのだとすると、揚力の大きさは翼の角度に比例するはずであり、それでは足りないのだ。
ところが、飛んじゃった。飛ぶ理屈は、飛んでから解明された。翼の上側と下側の空気の流速の違いにより渦が生じ、翼の角度の二乗に比例した揚力が生じるのだそうで。そんなのは、作ってからでないと発見できない。
できっこないなんて、理屈を掲げてふんぞり返っているやつは、あとで大恥をかくのだ。
だいぶ dis りまくったような気はするけど、期待はしているのだ。挑発でもなんでもなく、本心から、がんばってほしい。
【GrowHair】GrowHair@yahoo.co.jp
セーラー服仙人カメコ。アイデンティティ拡散。
http://www.growhair-jk.com/
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
編集後記(07/31)
みなさん、ご愛読ありがとうございます。デジクリは明日から8月16日(日)まで、夏季メンテナンス休暇に入ります。再開は8月17日(月)の予定です。
●稀勢の里が引退してから、大相撲中継を見なくなった。もっとも、いまテレビを見るのは昼食、夕食時のニュースだけで、他はまったく見ない。いま関心があるのは照ノ富士だけだ。大関陥落後、序二段から幕内に復帰した。照ノ富士は稀勢の里に壊された。だからわたしは、責任をとって応援しているのだ。(柴田)
●楽天モバイル続き。今の目玉キャンペーンは、「AQUOS sense3 lite」と「OPPO A5 2020」。前者は23,619円(税別)、後者は20,019円(税別)で、20,000ポイントバック。オンライン申し込みや事務手数料分のポイントもつく。
iPhoneになくて、Android機にあるといえば、「通話録音」機能。「Galaxy A7」「OPPO A5 2020」は自動録音でき、「AQUOS sense3 lite」は通話中にボタンをタップすることで可能とのこと。
が、楽天モバイルは「Rakuten Link」アプリを利用した通話料無料をうたっていて、スマホの通話機能を利用しないため、通話録音ができない。
通話機能を使っての有料発信なら可能だが、着信は「Rakuten Link」になってしまうため、毎回のログアウトやアンインストールが必要になりそう。(と書いた後に、宅配会社からの電話があって、それは通話機能側での着信であった理由不明)。
回線スピードはお昼休みに落ちる。「Rakuten Link」での通話は、品質の良いIP電話って感じで、やはり少し乱れる時がある。
他にもいろいろ書きたかったが、夏休みになるのでこのぐらいで。世の中いろいろありますが、どうぞご自愛くださいまし。(hammer.mule)
AQUOS sense3 lite
https://jp.sharp/products/aquos-sense3-lite-r/
https://network.mobile.rakuten.co.jp/product/smartphone/aquos-sense3-lite/
OPPO A5 2020
https://www.oppo.com/jp/smartphone-a5-2020/
https://network.mobile.rakuten.co.jp/product/smartphone/a5-2020/index.html
Rakuten Link
https://network.mobile.rakuten.co.jp/service/rakuten-link/