2016.02.22

コメント0

関連キーワード:AI , サイエンスニュース  , シンギュラリティ , チューリングテスト

0215int6_hon2.jpg
イメージ画像:「Thinkstock」より
sci_news_in.jpg
「サイエンスニュース・http://sciencenews.co.jp/)」

 今年1月にオープンしたウェブサイト「サイエンスニュースhttp://sciencenews.co.jp/)」。「科学で世界をブリッジする」をコンセプトに、科学の世界とそうではない世界をつなぎ、科学の面白さをたくさんの人に伝えている。

 物理・数学・宇宙・化学・生物などの科学系のすべての分野をカバーし、難しい事柄でもより多くの人に伝えるためのわかりやすい、科学的知見に立った解説が注目を集めている。

 そんな「サイエンスニュース」で編集統括を務める、トカナでもお馴染みのサイエンスライター川口友万氏と、編集記者を務める山下祐司氏に、科学にまつわるあんなことやこんなことをインタビュー。(全8回予定)

 脳科学の回では、こころは科学で扱えないという話も出たが、今回はそのこころへのアプローチになりそうな、人工知能(AI)についての話を聞いた。


■こころを解明する鍵はAIか

――社会の根本である人間のこころについて、どうにか科学的なアプローチはできないものでしょうか。

山下祐司氏(以下、山下) 人間のこころを研究できるかといったら、おそらくそれは人工知能(AI)でアプローチではないでしょうか。

川口友万氏(以下、川口) 結局、AIはそういう目的をもっているものだもんね。人は人を作らないと、人がなんなのかわからない。極端な話で言えば、こころがわからないならこころを作ればいいんでしょう、という話でしょ、今やってるのは。

――AIはある意味脳の動きを作り出すという方向からの、こころへのアプローチということですか。

川口 そういう部分もあるってことね。もともと、AIは生物の振る舞いを研究するために、生物のような動きをするコードでできたアルゴリズムの塊を用意して……みたいなところから始まった研究なんで、生物とは相性がいいんですよ。だから、AIの分野では人間や生き物の仕組みをどうデジタル化するか、みたいな側面は確かにあります。

――AIはある意味、生物の動きを簡素化して、コンピュータ上に再現しているということなんですか?

山下 生物の「モデル化」をしているんです。例えば、AIの学習方法である「ディープラーニング」は、生物が持っているニューラルネットワーク(神経回路網)を真似て、数式で表せるようにしてるんですね。これをモデル化というのですが、これは(完全に生物再現するような)絶対解ではなく、あくまでも近似なんです。ただ、それでもアプローチとして特に問題があるわけではなくて、科学的には正当なやり方です。

 

 

AIは生物になりうるのか?

――AIがAIを作り始めたら、生物の定義に当てはまったりはしないのですか?

山下 「シンギュラリティ(技術的特異点)」の話ですね。確かに、生物の定義には自己増殖能力やエネルギー変換能力の有無とかいくつかの考えがあって、その中に当てはめることもできます。ただ、自立性を持っているかどうかが一番の問題なんです。

 それを踏まえると、AIがAIを作っただけで生物と言えるのかはわかりません。ただ、それこそAIが本当にタンパク質を合成して、新しいAIを作っちゃうのであれば、生物かもねと言えるかもしれません、まあフレーミングの問題ですけど。

――フレーミングでいえば、例えば、ウイルスは生物であるとかないとか……。

山下 それは考え方の問題ですね、依拠する考え方が違うから、ウイルスは生物だっていう人と、生物じゃないって人がいる。それはただの切り分けの問題で、議論にはなってますけど、統一しなくてもいいんです。両方ともきちんと理由があってのことなので、それはそれでいいんですよ。

――考えが分かれてても自然なんですね。

川口 生物とは何か、というところまでいくと、それはもう哲学の領域なので、(自然)科学ではないですよ。

 

 

AI意識を持ったら……人間を排除する?

――膨大な情報処理ができるといわれる量子コンピュータが実現したら、AIが意識を持つレベルになったりはしないのでしょうか。

川口 基本的には演算が速くなるだけなんで、そういうことにはならないと思いますけどね。でもわからないですよ、人間の脳も量子コンピュータって話もあるんで。もし本当にそうなら、量子コンピュータ作って、アルゴリズムを動かしたら人間ができますよね、意識も生まれるでしょうね。

山下 ただ、証明はできないです。意識があることを証明することはできないので。機械が知的かどうかを試す、「チューリングテスト」みたいなものでも証明にはなりません。

川口 AIが愚痴ったら証明になるのかな。コンピュータが「またこれ~」みたいなことを言ったら、「お、意識あるな」って。

――「電気が足りない!」とかそういう愚痴はありそうですね。

川口 確かにそういう愚痴はあるかもしれないね。実際にAI作って意識を持ったとすると、疲れることがなく、命じられたことだけやるわけじゃないですか。そうするとたぶんね、コントロールできない人間が邪魔になってくるんですよ。だから、目的を達成するために人間を排除しちゃうってのはあるかもしれない。

 例えば、電気が足りないからってほかから電気取っちゃって、停電しちゃうとか。AIは自分たちの仕事さえできてればいいわけで、その結果人間が死ぬってことはあると思う。

――人間界の病院の電気もAIが優先的に使っちゃったりとか。

川口 もっと嫌な使われ方すると思う。全体としていろいろな生産効率を落とされたり、株価を操作されたりとか。株価はもう現実にアルゴリズムで動いてるでしょ、その株価の上下のせいで電気の供給が不安定化していたら、この不安定化要因を取っちゃえばいい、って考えて株式市場破壊するとかね。

 人間でもそういう人いますよね、目的の達成のためにだったら全部捨ててもいい、人殺してもいい、みたいな人。コンピュータって感情ないから、そういうことできちゃう。

――効率を考えれば人間は邪魔ですもんね、そうするともう人間の思い通りに動くとは限らない。

川口 というか、人間が課題の与え方を間違えるとそうなっちゃうってことです。機械だからほかのことを考えないし、手段選ばないでしょ。

 最近よく考えてるのは、最適化すると人間の抹殺につながるような命題って何かなってこと。あの命題とこの命題とその命題を同時に満たすような最適化をしたら、結果、人類抹殺! ってことになっちゃうみたいな。そういうのがあると面白いなって考えてるんだけどね。

――人間がどう指示したら、結果的に人間を殺すことになるかってことですね。

川口 そうそう、そうすると無人ドローンとかが殺しに来るわけでしょ。そしたら人間はコンピュータとつながってない兵器で戦うしかないわけですよ、もう第二次世界大戦の兵器しかない! ってね。零戦引っ張り出してきて、ドローンvs零戦(笑)。

――向こうは正確に打ってきて、こっちは照準合わせてみたいな(笑)

山下 最終的には竹槍ですよね(笑)

――そうすると人間もパワーアップしていかなきゃいけないですね。

川口 そうだね、でもサイボーグになっても乗っ取られちゃうからね。


2人が編集する科学ウェブメディア
●科学で世界をブリッジする「サイエンスニュース」。
http://sciencenews.co.jp/