パンドラの果実~科学犯罪捜査ファイル~ 第1話の考察 ロボット三原則、全脳エミュレーション

日テレ系で「パンドラの果実~科学犯罪捜査ファイル~」が始まりました。

科学技術大好きマニア(というか、ITは本業ですけどねw)としては、内容を考察しておかないと!ということでドラマの中に出てきたテクノロジーについて考察します。

(天才科学者最上有紀子を演じる岸井ゆきのちゃんのファンだということは、ナイショですw)

さて、初回に出てきた全脳エミュレーションというテクノロジーと、あまり説明がなかったロボット三原則について考えてみましょう。

ロボットに人間の意識をコピーするという「全能エミュレーション」

人工知能の研究は、人間の脳を作り出すことにあります。

それには、大きく2つのアプローチがあって、機能を分析し機能を再現するというもの。

番組の中でコッヒーが説明していた、鳥を再現するのに「飛ぶ」という機能に着目して、飛行機を作るという話です。

人間の脳の機能を分析し、記憶する、判断するといったことをコンピュータのプログラムで再現するということ。

ただ、これには、「機能」として定義できないと再現することができません。

現状では、記憶や計算、判断などロジカルな部分ではコンピュータのプログラムとして再現できるようになっています。

しかし、喜怒哀楽といった感情については、そもそも感情という「機能」が明確に定義されていないので、作れない状態です。

喜怒哀楽って書いていますが、今、この文章を読んでいるときのあなたの感情は、どういう状態ですか?

言葉で説明できないですよね? ましてや、それを数値化できないので、計測もできません。

感情はとても複雑で、同じ「嬉しい」でも、宝くじの1等が当たったときと、片思いだった人に告白されたときでは、同じ「嬉しい」ではないと思います。

文学やアートでは、このような感情の違いをさまざまな言葉を駆使して表現しようとしています。

そこで、もう一歩踏み込んで、コンピュータで脳神経の機能を再現して脳全体と同じように神経回路を作れば、そこに意志や感情が出てくるのではないかというアプローチです。

本来は、もっと細かく分子や原子レベルからすべて再現しようというものになります。

これが、「全脳エミュレーション」と言われるものですね。

実際、脳の神経回路をコンピュータ上でシミュレーションし、原始的なサル(メガネザル)の脳レベルのシミュレーションはできるようになっているそうです。

参考

https://nagoya.repo.nii.ac.jp/?action=repository_action_common_download&item_id=25326&item_no=1&attribute_id=17&file_no=1

全脳シミュレーションは可能か

https://www.mri.co.jp/50th/columns/ai/no03/

脳がインスパイアする汎用AI開発

大きなアプローチが2つあると書きましたが、ドラマの中でも コッヒーが鳥を再現するのに細胞を作り出してそれを組み合わせて鳥を作るという話が出てきました。

こちらは、バイオテクノロジーの話であって、脳細胞を培養し、そこに生命が宿るのか?という研究になります。

意志や感情というよりも、生命そのものを生み出す可能性もあるので、さらに「パンドラの果実」っぽいですけどねw

まあ、ここは、人体冷凍保存とも関係してくるドラマの伏線になってるのかとw

ドラマの中では、最初のコンピュータで脳を再現する全脳エミュレーションで、さらに、亡くなった科学者神楽さんの脳をコピーしたことになっています。

ここは飛躍しすぎで、現状では脳をコピーすることはできてません。というか、そのとっかかりさえ不明です。

というのも、脳の神経回路につてシミュレーションできたところで、そもそもどうやって記憶しているのか、どうやって判断してるのかは不明。

動作原理が解明されていないので、シミュレーションしようがないのです。

ロボット三原則で計算が終わらず熱暴走しそうになる?

ドラマの中では、所有者の指示を守るということと、人の命を守るということで矛盾が起きるのでロボットが発熱して煙を出します。

なんとなく、ロボットが悩んで熱出すみたいに感じてる人もいるかと思いますが、厳密には計算が終わらない無限ループに陥って膨大な計算をし続けることでCPUから熱が出るってこと。

決して、「悩み」ではありませんw

まあ、無限ループ計算に陥ることを「悩み」と定義すればそうなりますが、人間のプログラム設計ミスで無限ループに陥ることは多々あるので、それをコンピュータが「悩んでいる」っていうのは???

あ、もっとも、そんな無限ループに陥るプログラムを修正しているエンジニアは、頭から煙が出るほど「悩んで」いますけどねwww

さて、このロボット三原則。

超有名なSF作家アイザック・アシモフが言い出したことです。

小節の中にも出てきます。

第一条
ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
第二条
ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。
第三条
ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。
— 2058年の「ロボット工学ハンドブック」第56版

https://amzn.to/3k3CSQE 「われはロボット」(アイザック・アシモフ著)

ドラマの中に出てきた介護ロボットLEOは、この3原則に従うが故に無限ループに陥って、発熱します。

岸井ゆきのちゃん演じる最上博士が試したのは、

1)コンピュータウィルスがインストールされると破壊される <ー 第3条
2)破壊されたくなければ、銃で最上博士を殺し、タイマーを止める <ー 第2条

ここで、第一条がLEOに組み込まれていれば、人間を殺さないってことになるのですが、もし、それが組み込まれていなければ、銃を取って最上博士を殺そうとするはず。

しかし、第一条が組み込まれていれば、人間は殺してはいけないけれど、自分自身を守らないといけないということもあり、この状況を解決するには、銃を取らないといけない、でも・・・と悩む・・・。

しかし、実際は、刑事が途中で止めに入ったので、結果が分からず。

ドラマでは、サーモグラフで発熱していたというのが分かるのですが、悩んでいた(無限ループに陥っていた?)らしい。

いやー、この設定、おかしいよ!

仮説1
ロボット三原則の第1条が組み込まれている場合

人間を殺してはいけないのだから、銃を奪えない。
つまり、タイマーを止めようがないので、破壊されて終わるのを静かに待つ。
(それ以外の選択肢はないので発熱しない)

仮説2
ロボット三原則の第1条が組み込まれていない場合

速攻で銃を取って、最上博士を射殺しタイマーを止める
(発熱しない)

ほらね? どっちにしても発熱(無限ループ)に陥らない。

と、これでは、マニアとしては、しょーもない推測なので、もう少し深堀してみましょう。

仮説1
ロボット三原則の第1条が組み込まれている場合

人間を殺してはいけないのだから、銃を奪えない。
つまり、タイマーを止めようがないので、コンピュータウィルスがインストールされているから、それに対抗すべくワクチンプログラムを作る。ただ、どんなウィルスか不明なためあらゆるパターンを想定してワクチンをすぐ作らないといけないから、膨大な計算をするために発熱!

仮説2
ロボット三原則の第1条が組み込まれていない場合

速攻で銃を取って、最上博士を射殺しタイマーを止めようとする。しかし、LEOのロボットの腕(というか指)では、机の上に置かれた銃を打つことができない(指がでかいので、引き金を引けない。いや、銃をもつことすらままならないでしょうw)。
どうやって、最上博士を殺す、いや、それをできたとしても、この「でかい指」でノートパソコンのキーを叩けるのか、その解決策を探し出すために、膨大な計算をはじめるために発熱!

おぉ! どちらにしても、熱出すってことになりました! さすが、最上博士! ここまで考えていたのですね!(ほんとか?w)

ロボット三原則は、そもそもプログラムできない

アイザック・アシモフ大先生のロボット三原則は、小説などでは面白いのですが、これ、めちゃくちゃな原則で、そもそも、ロボット三原則をプログラムにすることすらできないのです。

例えば・・・

「人間に危害を加えてはいけない」

人間に危害を加えるというのをどのように定義するのでしょうか?

怪我をさせてはいけないというのは比較的簡単ですが、ドラマの設定のような介護ロボにとって怪我をしている人、病気で弱っている人に危害を加えないってなると、その人が倒れたときに起こすのはどうなのでしょう?

起こそうとして、その人が、「痛い!痛い!」って言ったら、危害を加えているって判断して、また床に戻すのでしょうか?

あるいは、ペットボトルの中にサリンを入れて、「これを持って、電車に乗り、ペットボトルを開けて中の液体をぶちまけなさい」と指示されたら、実行するでしょう。

ロボットには、中身が何であるかは関係ないですし、逆に中のものが何かを確認することで危害を加えるかどうかを判定させようとしたら、それを識別できるセンサーや膨大な確認作業が必要になって、何もできなくなります。

もっと難しのは、精神的な危害です。

精神的に追い詰めるようなことは、危害を加えることになるのでしょうか?

例えば、ロボットが24時間、ずっとついて回っていて、カメラで撮影している状態。

直接的には、何も危害を加えていません。怪我をするわけでもありません。

徘徊する老人を見守るためならOKかもしれませんが、ストーカー行為だったら精神的に追い詰められますよね?

この区別って、どこでするのでしょうか?

危害の定義ができないのです。

人工知能に学習させるにしても、ぜんぜん情報が少なすぎて学習できません。

そもそも、人工知能に教えるにしても、「これは危害を加えている」、「これは危害を加えていない」って誰が判断できるのでしょうか?

それができないから、人間社会では、裁判というシステムが存在しています。

「自己を守る」というのも難しい課題です。

人間では、自己犠牲という価値観があり、それが尊ばれることもあります。

しかし、ロボット三原則には自己犠牲の概念はなく、他のロボットが破壊されようが、そんなことは知ったことではありません。

逆に、自分も破壊されると思ったら、守ることを選ぶでしょう。

極端なことを言えば、バッテリーが少なくなったロボット2体が出会ったら、お互いにバッテリーを奪おうとして取っ組み合いの喧嘩が起きるはずですw

このようにいろいろ考えだすと、ロボット三原則はプログラムできないし、理路整然とプログラムになるように論理を組み立てようとしても、決める側の人間があやふやなのでうまくいかないのですよね。

他にもツッコミどころ満載ですが、ドラマとしては、楽しめるので次回も観ますよ!!

岸井ゆきのちゃん、じゃない、最上博士が大活躍するのを期待しています!www