シンギュラリティという言葉は聞いたことがあるのですが、十分には理解していなくて。

「シンギュラリティは近い」という本を読まなくては、、、と思う間に時は流れて、昨年同じ著者レイ・カーツワイルの新しい本「シンギュラリティはより近く 人類とAIが融合するとき」が出されたので、そちらを読んでみました。


いやぁ、知識の量と幅の凄い方ですね。

シンギュラリティとは技術的特異点などと訳されますが、技術の進歩が人間の生物としての限界を超えてしまう地点。


今から20年後位に来そう、と。

その手前の2029年にはAIが人間の能力を超えて、逆に人間並みにアホな振りもできるようになり、人間から見たらAIか人間か見分けがつかない(これをチューリングテストというらしい)状態になるそうです。

情報テクノロジーやコンピュータの価格性能比は指数関数的に向上していることは実感として感じておりますが。

それに付随して、その他の多くの技術も発展していくために、トータルとしての技術の進化も目覚ましくなるのですね。

AIも更に超知能化。

その結果、一人一人の脳内の情報をクラウド上にコピーしたり、最終的には大脳新皮質とコンピュータとがインターフェイスで繋がれて、人間が生きている時間では学びきれない知識を瞬時に習得し、不可能なほどのスピードで思考し、脳がその能力をいかんなく拡張する時代が来ると予測していました。

もはや、全知全能の脳。

医療にもこの技術革新の波が押し寄せるので(創薬、臨床試験、手術ロボット、細胞や臓器のメンテナンス等)、ある時点から寿命は伸びだすし、皆が長生きして水や食料やエネルギーはどうするのかといえば、それも技術革新でキャパが爆増するという。

でも、技術による恩恵を受けるのは、最初は一握りの人間で全ての人が恩恵に浴するまでには時間もかかるだろうし、さまざまな問題が起きそうに思えてしまいます。


よく言われる雇用の問題とか。


新しい技術に適応し、それを使える立場にある人とそうでない人。


直感に反して、現実には技術の進歩で貧困や暴力は減ってきていると著者は説くのですが、マクロではそうであっても空間的時間的に濃淡があるように感じるのですが。


そして、述べられていたように、クラウド上に私の脳が完コピされて、私と同じように思考し意思を持つとしたら、そのコピーされた脳には人権はあるのでしょうか。


超知能AIに繋がって拡張された脳が、何か私たちに関わる決定を行った時、丸腰の私たちはそれに従えるのでしょうか?

倫理や法整備が僅か20年ほどで追いつくのでしょうか?

個人的に怖いな、と思ったのが、グレイ・グー(gray goo)問題。


ナノテクノロジーも飛躍的に進歩して、ナノロボット的なものが医療にも応用可能というのですが、それは自己複製して増殖しうるらしいのですね。そうでないと使いものにならないのでしょうか。

それだとまるでウィルスや細菌ですよね。


医療目的だけでなく、そういう技術を使って何かをするということはあり得ることですが、増殖の原資が炭素。

となると、勝手に増殖し始めると、地球上の生き物はすべからく炭素を持っているので、食料源として食い尽くされてしまうかも、という。

中央で管理すれば大丈夫とか、最初から何か弱点を仕込んでおけば大丈夫とか、先にアンチであるブルー・グー(blue goo)を広めておけば大丈夫とか書いてありましたが、本当かなぁ?


食餌からリジンを取れないと死んでしまうように遺伝子操作した筈の恐竜が島の外でも生きていたというジュラシックパーク(フィクションですが)。

ホワイトハッカーがいてもハッカーは駆逐できていませんし。

AIのリスクとして誤用悪用問題、どちらでもないけれどプログラマーの意図とは違う結果を招いてしまう問題とかあげられておりましたが、同様のことは起こらないのでしょうか?

でも、嫌だと思っても行くところに行ってしまうのですよね。

私たちはずっと、便利と効率と安全を求め続けてきていますからね。