Otaku ワールドへようこそ![194]夢の技術に覚醒は要らない
── GrowHair ──

投稿:  著者:


3Dプリンタを使って拳銃を製造した男が5月8日(木)に逮捕された。

容疑者は、ネットからダウンロードした設計図をもとに独自の改良を加え、半年前に購入した3Dプリンタを使って拳銃を製造した疑いがもたれているという。押収した拳銃を発射してみたところ、厚さ2.5ミリのベニヤ板を15枚も撃ち抜くほどの威力があったという。

すでにちょっと恐ろしいことになっている3Dプリンタだが、これが究極まで進化したら、いったいどんなものが作れちゃうのだろう。




●とっても便利な未来道具

じゃーーーん!! どこでもドア!!

言うまでもなく、ドラえもんの四次元ポケットから出てくる秘密道具のひとつである。

いま、自分がいる地点に入り口ドアを設置する。ドアノブを握り、行きたい場所を告げる。すると、告げた地点に出口ドアが出現する。入り口ドアに入ると、あたかも一枚のドアを通ってひとつの部屋から別の部屋へと通り抜けたかがごとく、出口ドアから出ることができる。

これは便利だ。新幹線がいくら速くたって、東京から大阪まで2時間半はかかる。これがぱっと瞬間的に移動できちゃうのだ。東京─パリ間なんて、12時間前後の飛行時間がぱっとゼロに縮められちゃうのだ。

山歩きしていて熊に追いかけられたときには、ぱっと安全な場所へ避難することができる。病気になって動くのもしんどいとき、ぱっと病院に行ける。

お手軽なところでは、学校に遅刻しそう、ってときに使ってもいいし、ウチから近所のコンビニまで歩いていくのでさえ面倒くさいってときにも使っちゃえ。めっちゃ便利じゃん。

便利な道具、例えば、スマホでもカーナビでもいいけど、ユーザにとっては使えりゃいいんであって、動作原理については、たいていの人はあんまり深いところまで気にしませんね。ま、どこでもドアもそれでいいんですが。

なので、この先はべつに読んでいただかなくてもいっこうに構わないのですが、気になるって人にだけ、こっそり教えちゃいます。

のび太くんがドアノブを握った瞬間、どこでもドアはのび太くんをスキャンします。紙の印刷物をスキャナにかけて、PDF画像データに落とすのと同じことです。

ただし、どこでもドアの場合、のび太くんの3次元的な組成をスキャンします。大きな病院にはCTスキャナという装置が設置されていて、人体を実際に輪切りにすることなく、輪切り画像を取得しますけど、あれと同じことです。

どこでもドアの場合は、これを超高精細に実行します。分子一粒一粒のレベルまで、徹底的に。

その結果、得られるのは単なるデータです。データ量がどれほど膨大になるか、って話は、この際、脇へ置いといて。データなので、電波にのせるなどして、目的地へ転送することができます。

さて、人体を組成する材料なんて、原子レベルで見りゃ、炭素とか水素とか酸素とか、めずらしいものではありません。そもそも我々は食ったもんでできてるわけですから。そこらのスーパーで売ってるもんでいい。

一回、原子レベルまでほぐして、転送した配置図にしたがって、組み上げていけばいいわけです。つまりは3Dプリンタ。これでのび太くんのそっくりコピーのできあがり。

ものを構成する要素に分子以外に何があるというわけではなく、このレベルで精密なコピーができれば、それはのび太くんそのものです。もちろん生きてます。過去の記憶もそっくりに保持されており、性格も立ち居振る舞いもまったく同じです。

なので、周辺の人々は、出てきたのび太くんを元ののび太くんと区別しようったって、手がかりはひとつもありません。ならば区別する必要なんかなく、まったく同等とみなして、なんの不都合も生じません。

本人にとっても、過去の記憶はすっかり保持されているわけですから、どこでもドアを通って瞬間的に移動はしても、自意識はちゃんと過去から現在まで連続しています。

つまり、日常世界は微塵の波風も立つことなく、平常運転で進行していきます。

さて、仕上げは、入力元の消去です。のび太くんが二人になっては、それこそ日常世界の進行に支障を来たしますから、元は消去しなくてはなりません。

手ごろな大きさに切断して、薬液にでも浸けて、溶かしちゃえばいいわけです。炭素や水素や酸素に分解して、水は流しちゃえばいいし、炭素は適当な分子に組み上げて、植物の肥料にでも使えばいいわけです。出力側で使った材料の埋め合わせになります。

以上が動作原理なわけですが、こんな話、どうでもよかったですね。便利な道具なんだから、ユーザーは仕組みのことなんか気にせず、喜んで使えばいいわけです。私は使いませんけど。

まあ、機械ですから、たまに動作不良が起きたりすることもあるでしょう。コピー機の紙づまりみたいなことが起きて、開けてみたら、五体ばらばらで、中途半端に溶解しかかったのび太くんが出てきちゃうとか。

ありゃりゃ、さっきまで元気だったのび太くんが、こんな変わり果てた姿になっちゃって。まあしかし、完全なコピーはすでにいるわけですから、気にしなきゃいいわけです。自分だって、もう何10回となく通ってきてるわけだし。

あ、ところで、私はケータイというものをいまだかつて所有したことがないのですが、それには特に理由はありません。どうかお気になさらず。

●あなたと私はどれほど似ているか

これを読んでいるあなたは、おそらく3Dプリンタで出力した私の完全コピーではないでしょう。しかし一方、人間に化けた宇宙人ってわけでもないでしょう。

どこかが似ていて、どこかが似ていない存在。どこまで似ていて、どこから似ていないのでしょう。

いま、これを書いている私から、これを読んでいるあなたのところへ言葉が送られています。言葉を送り込むこと自体が目的なのではなく、言葉を媒介として伝えたいことが、きっとある程度は伝わっているであろうことを期待して、言葉を発信しているわけです。

それが可能であるためには、言葉以前のところで、何かを共有しているはずだという前提がないと始まりません。

あなたはまだ一度も会ったことのない、見ず知らずの他人かもしれません。けど、まさか、鼻で音を聞き、耳でにおいをかいでいるような生き物ではないということは、いちおう疑う余地がなかろうと思っています。

たぶん、基本設計や動作原理は同じ。この前提がもし揺らいでしまうと、言ってる内容が伝わってるであろうという拠りどころも、急にぐらぐらしてきます。

たとえば、私が「2時間歩いて、足が疲れた」と言ったとしましょう。もしあなたが、「私だって長時間歩いた経験はあり、その感覚はよく分かる」と思ったのなら、ちゃんと伝わっています。

もしあなたが、「私は山歩きするので2時間歩いた程度ではちっとも疲れない。けど、6時間歩けばさすがに疲れるので、普通の人なら2時間で疲れるというのも分かる」と思ったのなら、やはり伝わっています。

もしあなたが、「私以外に言葉を発する主体が少なくともひとつ存在して、その主体は、その主体が『歩く』と呼称する何らかの行為をとることができると信じていて、その行為を2時間にわたってなしたと信じていて、その結果として、その主体が『疲れる』と呼称する何らかの状態に陥ったと信じているか、あるいは少なくとも信じていると表明する言葉を発した」と思ったのなら、とうてい伝わったとは言いがたく、「いったいぜんたいあんたは、フレーム問題にトラップされた、出来損ないの人工知能かなんかですかぃ?」と思うのが関の山であろう。

涼宮ハルヒは、「ただの人間には興味ありません。この中に宇宙人、未来人、異世界人、超能力者がいたら、私のところに来なさい」と宣言している。いませんかね、そこらへんに。

いま、あなたと私が肩を並べて同じ景色を見ているとしましょう。しかし、同じ景色が同じように映っているという保証はどこにもありません。

仮に、赤と青が逆に見えていたとしましょう。外界においてひとつの物体から発せられる同一の色が、二人の脳内では異なって映っているとしたら、という仮定です。

お互い、そのことに気がつく方法ってあるでしょうか。言葉では伝達のしようがありません。私は、自分の脳内に映っているリンゴの色を、みんなが赤だと言うので、赤だと思っています。

あなたの脳には、同じリンゴの色が、私が思うところの青という色に映っているのですが、あなたはあなたで、みんながその色を赤だと言うので、その色が赤だと学習しています。

この状況はあなたの側からみても対称的になっていて、上記の文において「あなた」と「私」を入れ替えても、同一の状況を表しています。つまり、私の脳には、同じリンゴの色が、あなたが思うところの青という色に映っているのですが、私は私で、みんながその色を赤だと言うので、その色が赤だと学習しています。

どっちが正しく見えているかを区別する根拠はどこにもありません。ただ、見えてる色と、それを表す言葉との対応関係がお互いにクロスしているだけです。お互いが脳内に映っている色が同じかどうかを確認するのに、言葉をもってしようとしても、無力なのです。

では、色そのものを脳から外界に出してやって、私にはこう映ってるぞと示してやればいいでしょうか。たとえば、私が赤い絵の具を使って、リンゴは私の脳内ではこういうふうに映ってるぞ、と絵に描いて伝達すればいいでしょうか。

いやいや、あなたもまったく同じようにするでしょう。このとき、伝わったのは、リンゴの色と赤とラベルづけられた絵の具の色が同じに見えているということにすぎません。

お互い、同じ色で描かれた絵を示し合って、同意し合えます。実は赤と青とがすべて反対に見えてたなんてことに気づきようがありません。

けど、鼻で音を聞いたり、耳でにおいを嗅いだりする人がおそらくいないように、人間である以上、基本設計や動作原理はきっと同じであろうと考えられるので、赤と青が実は反対に見えているなんていうことはきっと起きていないでしょう。そう信じたいものです。

さて。「ブーバ/キキ効果」ってご存知でしょうか。ウィキペディアあたりに説明が載っているので、実際の図形はそっちを参照していただくことにして。

ふたつの図形を示して、一方が「ブーバ」という名称で他方が「キキ」という名称であるとき、どっちがどっちでしょう、と問うと、98%の人が同じほうを選ぶというもの。年齢や使用言語によらないらしい。

つまり、音と図形との間には、なんらかの緩い結びつきがはたらいていて、ほとんどの人が感覚を共有しているということです。この感覚は、経験や言語習得以前にあらかじめ備わっているものであって、みんながそう言うからと学習した結果そうなったものではありません。

しかし、逆に言う人が2%いるということもまた驚きです。ここに相反するふたつの問いがあります。「なぜ分かり合えるのか」と「なぜ分かり合えないのか」。その2%の人たちは、一見同じ人間として機能しているようにみえながら、基本設計がどこか異なっているのでしょうか。

だとしたら、赤と青が反対に見えてる人だっているかもしれない、という気がしてきます。だとしたら、この文章の意味することがちっとも伝わってなくて、人工知能みたいな解釈のしかたをしている人がいるかもしれないという気がしてきます。

フレーム問題にトラップされた人工知能って、ゲシュタルト崩壊した人と似てるかもしれない。

最近、「ブーバ/キキ」と同じようなのを発見しました。「蓮コラ」ってご存知でしょうか。あ、待って待って、すぐに検索しなくていいです。いやいや検索しちゃだめです。いいですか? 警告しましたよ。

まあ、見た瞬間、ぞわ〜〜〜っとなって、しばらく立ち直れなくなる画像だと思ってください。この蓮コラに、ぜんぜん反応しない人がいるってことを発見したのです。

みんなが「ぞわぞわな画像」って言うから、ああこれは「ぞわぞわな画像」なんだな、と学習して、同調することは可能なのですが、肝心のぞわぞわな感覚そのものはちっとも備わってなくて、別にずっと見てても平気だし、なんとも思わない、どこがどういうふうにぞわぞわなのか分からない、というのです。

ぜ〜ったい基本設計が異なっています。宇宙人が人間に化けてるに違いありません。涼宮ハルヒに突き出していいですか?

あるいは、もしかすると、種に備わったサバイバル機構なのかもしれない。人類の目の前に、蓮コラ画像のようなぞわぞわな姿の宇宙人が現れる。

みんな反射的に逃げる。ところがこの宇宙人は人類を救いに来たいい宇宙人で、逃げていった先のほうが実は行っちゃいけない方向だった。

全員そっちへ行ったら全滅しちゃう。しかし、ほんの少数でもその場にとどまる人がいれば、種としては存続できる。つまりはダイバーシティ。

そのために、ブーバ/キキを逆に言う人や、蓮コラに反応しない人が一定確率で生じるような機構が備わっているのかもしれない。

脳内に映った色の感じ、ふたつの図形の形状とブーバ/キキの名称とを結びつける感じ、蓮コラにぞわぞわっとなる感じ、この正体を「クオリア」と呼びます。ただ名前をつけて呼んでみた、ってだけであって、その正体そのものが何であるか、科学的に解明されたってわけではありません。

そもそもクオリアという概念自体がただの幻想で、そんな実体はないのかもしれません。

しかし、われわれ人類はみな基本設計が同じなのかどうか、感覚の土台の部分はみんな共有しているのか、そういう疑問は相変わらずそこに横たわったままです。科学方面から、なんらかのアプローチはできないものでしょうか。

そんな方面の研究が始まっているような、いないような。どうなんでしょ? 茂木さーん!

【GrowHair】GrowHair@yahoo.co.jp
セーラー服仙人カメコ。アイデンティティ拡散。
< http://www.growhair-jk.com/
>

コンピュータ・グラフィックス(CG)と画像処理の学会を聴講してきた。

「画像電子学会 第42回年次大会」が6月29日(日)30日(月)、早稲田大学国際会議場にて開催された。

個人的には画像のリライティング(re-lighting)技術に注目している。デジカメで撮影した一枚の画像に基づいて、被写体への光線の当たり方を修正しようという技術。写真を撮っちゃってから、撮る前の時間まで遡って、ライティングをいじってやろうという狙い。

無茶だ。いくら科学技術が進歩したところで、もともと不可能なことが可能になるわけじゃないでしょ。できたら面白いけど。

厳密な意味でリライティングを実現するためには、一枚の写真から、被写体側の実空間(背景も含めて、写ってるもの全部)の三次元形状情報と表面反射特性情報とを復元しておいてから光源情報をいじって、あらためてCGでレンダリングしなおすしかない。

何らかの先見情報を導入しない限り、数学的には不可能な話。解が一意に定まらない。6という結果を見て、それが元は1+5だったのか、2+4だったのか、3+3だったかと推測しようにも、どれもアリなので、決めようがないのである。こういうのを逆問題という。

極端な話、一枚の写真を見ただけでは、立体物を撮影したものなのか、壁に上手に描かれた書き割りを撮影したものなのか、区別がつかない。

数学を持ち出さなくたって、写真のプロの先生も言っている。元が下手な写真を Photoshop などを使ってどんなにいじったってプロ並みの写真にはなりませんよ、と。

例えば、シズル感。しずく感ではない。肉が焼ける際の「ジュージュー」という音を表す英語の擬音語 "sizzle" から来ている。意味が拡張され、一般に、食べ物の活きの良さや瑞々しさといった「おいしそうな感じ」のことを「シズル感」という。

シズル感のある写真を撮影するために、プロはライティングに工夫を凝らす。対象物の上側または片側側面に対して、すれすれの角度で正反射してカメラに至るよう、逆光の光源を設置する。

こうすると、対象物表面の凹凸によってできる陰影のコントラストが高まり、材質感が強調される。また、正反射によってできるハイライトスポットが、対象物のつや、てかり、ぬめりなどの感触を表現する。

これだけだと手前側が暗くなってシルエットみたくなってしまうので、順光光源を足してやる。いずれの光源も点光源ではなく、なるべく面積の広い面光源を用い、できれば反射光による間接照明にするか、半透明な材料を透過してきた拡散光にする。こうすることで、陰影がやわらかくなる。

2灯だけだと、ちょっと単純な感じになる場合は、アクセントにもう1灯足してやる。さらに、被写体に油を塗ってつやを出したり、絵の具で色を足してみたり。おいしそうに撮れている写真の被写体、実はとても食えたもんじゃなくなってたりする。

プロがそこまで手間をかけて写真を撮っているのは、ライティングがダメダメな写真は、あとから画像修整しても、よくなりっこないと経験上知っているからである。

ファミレスで出された料理を、光を気にすることもなくケータイのカメラでパシャッと撮っただけのお手軽写真が、美味そうに写るわけがない。

元がだめなのをどんなにいじったってよくなるわけがない。それが今までの定説。まあ、覆ったらちょっと小気味よいけど。

いきなりミックミクにされた。初音ミクの脇に球体が添えられた画像。球体は、光源の配置を分かりやすく見せるための補助物体だ。光源をぐるんぐるん動かすことにより、初音ミクと球体につく陰影が連動してぎゅんぎゅん動く様子を動画でデモしている。すげー!!!

写真に対してリライティングする先行研究はあったが、イラストを元にする場合、問題設定のハードルがいっそう高まる。反射の正しい物理モデルに基づいて陰影づけされているわけではなく、イラストを描いた人の感覚でつけられているので。

この研究では、輪郭線と陰影との両方に基づいて、各画素における被写体の法線ベクトルを推測している。陰影情報だけだと、全体が平面的になってしまう。輪郭線情報だけだと、全体がぼよっとした風船のようになってしまう。併用することで、自然な初音ミクの立体感が復元する。

あと何年か経ったら、光を気にせずテキトーに撮った不味そうな料理写真をウェブアルバムにアップロードすると、自動的にリライティングがかかって、美味そうに変換されてる、なんて時代が来るのかもしれない。楽しみだ。

他にも目のつけどころが斜め上の研究が目白押し。

正面顔と横顔の二枚のイラストから間を補って、振り向きシーンの動画を生成するとか。それって「ヤシガニ」。作画崩壊。人手・時間が足りなくてアニメのコマを描ききれず、本来、人がスムーズに動くべきシーンをたったの二枚の絵でごまかしちゃったという事件。

やらかした会社はほどなく潰れたんだっけ? このソフトを使えばアニメータ要らずというスグレもの。

動画にオノマトペを自動挿入する研究が2件。ひとつは、カーレースのシーンに合わせて「ギュイーン」とか「キュルルル」とか文字が入る。文字の大きさはボリュームに合わせて自動調整される。もうひとつは、格闘シーンで「Bang!」とか「Smack!」とか文字が入る。

写実性を追求するCGから離れ、アート性を追求するCG。画像に基づいて印象派風に変換したりクレヨン画風に変換したりするフィルタはあったが、CGのレンダリングでやったほうが、表現の幅が広がる。多方向から見た絵を一枚に押し込めちゃうキュビズム風とか。

対象物のエッセンスをぎりぎり損なわずに、ごちゃごちゃした線を徹底的に排除して、輪郭線のごく一部だけで表現する究極的にシンプルなドローイング。特定のアーティストのタッチをまねつつ、動画にしちゃったり。すんげーカッコいい!

スモークアートの生成。パイプから立ちのぼった煙が文字や動物の形になっていく。

人の正面の顔写真に基づいて、太ったときの顔と痩せたときの顔をシミュレーションで提示する。単純に横に変倍をかけるのではなく、写真から頭蓋骨の形状を推測しているので、痩せたときはちゃんと頬がこけていく。

この研究のために、何人かの被験者を引き連れて、わざわざMRIで頭蓋骨の画像を取得しに行ったというから、よくがんばった。これ、犯罪捜査に利用する狙い。犯人が太ったり痩せたりして逃亡しても許さないぞ、と。

猫の顔の認識。猫は毛色がまちまちな上に、三毛やトラなど模様が入ったりするから、顔認識のハードルは人よりも高い。

才能と労力を、すんごいどーでもいーことに浪費しちゃうことによって生じるえもいわれぬおかしみの感覚って、そうだ、コミケでよく経験するアレだ。ニッポンの学術界、いつの間にかオタクに乗っ取られてないかい?

ニッポンの技術の未来は明るい。ただし、方向がちょっと斜め上だがな。イグノーベル賞の取得大国になっていくことであろう。