∂スーパーインテリジェンス 

ニック・ボストロム

 

    

 

 

pu_san

2018年1月20日に日本でレビューより引用

形式: 単行本Amazonで購入

猿と人間のDNAは1.6%しか違わないのに大きな差が開いてしまったのはジャレドダイアモンドが主張するように複雑な言語を使いこなすようになり次世代への文化の継承や人間同士の意思疎通が発達したためであると思う。いづれ近い将来人工知能は、人間と人工知能間の言語はいうに及ばず人工知能同士の言語を生み出し、それに人間が追随していけなくなり、やがて人間とASI(Artificial Super Intelligence)とかAGI(Artificial General Intelligence)とか定義されるものとの差が開き始め無機質なポストヒューマンが誕生してしまうかもしれません。そこではコンピューターのOSのようにはじめは無数の言語が誕生するかもしれませんが、やがて一つのメジャーな言語に統一されるという経過をたどるでしょう。人類の場合、例えば現在南北朝鮮が分断して65年経過していますが、これだけの年数でも言語間の差が生まれ意志が通じにくくなってしまっているようです。
AGIに心・意識が芽生えるかについてはウォルター・J・フリーマンが主張するように全身から入る情報は脳の中を駆け巡るなかで大きな流れが生まれ脳の辺縁系を中心に渦巻のような流れを生み出し、フリーマンはこの脳全体のネットワークを大域的アトラクター(global attractor)と呼びました。これが心の実態であると考えています。竜巻のような自然界に見られるような混沌からの秩序が生成される。すなわち自己組織化が脳活動の本質であるかもしれません。ここまでは無意識の働きで意識ではない。心とは渦巻のように生まれた無意識とその後に感知される意識とで成り立っているのかもしれない。
チンパンジーが人類にコントロールされるように人類がポストヒューマンにコントロールされかねないと心配しなければならない。
動物から進化した人類の暗部に集団虐殺・戦争がある。これは正に現代の問題でもある。人類対動物、国家対国家、民族対民族、或る宗教対他の宗教というような発想は動物から人類がそのまま受け継いだものであると言われている。AGIはAGI対人類というような発想が意志と能力を持てば自然と芽生えてしまうものなのか?AGI(スーパーインテリジェンス)は人類から進化した人工生命体に負の側面を受け継がないような進化をしてほしいものである。しかしA集団のAGIとB集団のAGIが徹底して最後まで互いに抹殺し合うようなことが将来起こらないとは限らない。スーパーインテリジェンスが、高度に進化した文明は論理的に長続きしないと結論づける可能性もあるかもしれない。
人間とは何か? 国や宗教、性別、年齢によっても様々な解釈がある。スーパーインテリジェンスとは何か?の定義について世界唯一の統一基準なんてできるのだろうか。ある時代にできたとしても時代とともに変化してゆくのではないかと思います。
魚(ヒト)は水がきれいすぎても汚すぎても生きられない。スーパーインテリジェンスも綺麗ごとばかり並びたてる学者とか政治家だけで作ってほしくないと思う。

さて、数学は言語の一種ですが、いわゆる知の限界を証明したKurt Gödelの不完全性定理というものがありますがこの不完全性定理は数学のみならず理論体系一般すべて(哲学、科学、法律等)に適用可能であると言われています。どんな理論体系にも、証明不可能な命題(パラドックス)が必ず存在する。それは、その理論体系に矛盾がないことをその理論体系の中で決して証明できないということであり、つまりそれ自身で完結する理論体系は構造的にあり得ないということです。ゲーデルの不完全性定理により数学に一定の限界があることが示されました。全ての物事は自己の内部に矛盾を含んでおり、それによって必然的に自己と対立するものを生み 出すことになります。スーパーインテリジェンスはこの定理を自ら生み出していくことが出来るのであろうか。

この書籍は4年程前に原書が出版されたものであり、内容は哲学的、倫理的、ガバナンスなど多岐にわたりAIの可能性について書かれていて、個々のケースのAIの進展状態の可能性について、技術進展の速い4年後の現在はその可能性がどのような方向に進んできたかを考察しながら読むとより深い理解が得られると思います。ご承知のようにスーパーインテリジェンスとはディープラーニングでブレークした現在のAIとは全く違う概念であり自己を意識して自己進化するAIという意味で、いづれ将来誕生するであろうと予測して「オラクル」「ジーニー」「ソブリン」「ツール」という四つのAIシステムに分類して思考実験を行い理論展開しているものです。そのため文中いたるところに----してもよいかもしれない。----する可能性がある。------がありうる。-----は現在未解決である。という表現が多用されています。
刃物を使い始めたとき料理にも殺人にも使えるが何とか使いこなしてきた。また核力、放射能については人類は完全にコントロールできていなく、今躊躇している。
博士のAIによる人類乗っ取りのシナリオの思考実験は興味をそそるものであり、人類が今までとは質の違うスーパーインテリジェンスを手にした時、はたしてコントロールし得るか?今から備えても遅くはないと警鐘しております。
スーパーインテリジェンスの開発競争において核の開発にも勝る人類史上空前の知能爆発と言えるインテリジェンス革命において、嘗て原爆の開発競争においても見られたような熾烈な開発競争が重大な紛争を巻き起こす懸念についても考察しております。
さらに、疑似的人間とかデジタル知能(人工意識体)に対して開発途上などで大量処分した場合に対する倫理的意義をどう考えるか。実現する前に十分なる思考実験の必要性を論じています。
AGI(汎用人工知能)時代の経済や政治についても論じております。経済についてはマルサスの人口論を引き合いに出して論じています。現在は全生産要素に占める資本の割合はほぼ30%。つまり全世界所得の30%が資本によって生み出され、残りの70%が人の労働所得として生み出されていますが、スーパーインテリジェンスの時代においては労働所得比率はほぼゼロになるであろうと予測しております。これは世界の資本所得比率がほぼ100%になることを示唆している。その場合どのような事態が起こりうるか興味をそそるものが多々あります。
スーパーインテリジェンスが知能爆発を起こす条件トリガーをコントロールする方法についても詳細に言及されています。
スーパーインテリジェンスに適切な価値基準を与えることは容易ではない。最大の難関事項であるとしています。新たなスキーム(数学理論、コンピュータ言語など)を必要とするだろうということです。スーパーインテリジェンスに価値観をどのように持たせるかについても幾つかの提案と問題点も論じられています。
スーパーインテリジェンスに我々はどのような価値観を与えればよいか。哲学、宗教、政治等々考慮すべきことが膨大にあります。如何にして価値観をスーパーインテリジェンスに植え付ける(ローディング)かも現在まだ未解決であります。
また、多数の人工生命体のようなスーパーインテリジェンスが存在する世の中の構造はどのようになるのか、またスーパーインテリジェンスの外的な面のみならず内的な面をどのように構成するべきかについても論じています。
膨大な未解決問題が未来に託されていることを思い知らされる一冊でもあります。
スーパーインテリジェンスもレベル化し、例えば人類を1とし2,3,4---のような設定も必要になるでしょう。
開発途上には電波に対して電波暗室があるようにスーパーインテリジェンスに対して情報暗室、とか物理的暗室のようなシールド室の必要性を感じますが、これらについても詳しく論じています。
著者は人類を幼子に例えて、核という爆弾を抱えて72年何とか滅びないで生き延びてきたが、こんどはAGIというオモチャ?を手にしたとき我々の精神行動の未熟さとAGIとのミスマッチが生じてしまうことを心配され、今から哲学的、倫理的考察を主にリスクの面にページを割き準備をしておく必要を力説しておられます。
スーパーインテリジェンス獲得後の人類は、スペースコロニー、フォン・ノイマン探査機、分子ナノテク物質製造技術等が本格的に開花しているのであろう。ただし人類の欲望のぶつかり合いによる最終戦争のようなものが起こらない限りと付け加えたい。
将来遭遇するかもしれない宇宙人とはもしかしたら、人間のような有機生命体ではなく、真空中でも自由に活動できる運動体(人工意識体的なものか)のようなものかもしれないと連想させる教養書です。
最新の脳科学者の知見によれば人類は各種臓器とネットワークを組みより長く生き延びるように進化の過程で各神経の電気信号のみならずプログラムにおけるサブルーチン的役割を担う種々のMessenger substancesと巨大なNetworkを構築しているのでスーパーインテリジェンスは必ずしも人間の脳と同一になる必要はないと思う。
ユドカウスキー(Yudkowsky)によれば知能は生命の複雑さから生まれたのではない。ひとりでに生まれることはなく自然選択による最適化圧がかかったから生まれたと主張しております。同感するものがあると思います。
人類、動物は進化の過程で-鳴き声→コトバ→言語→複雑な言語とコトバを進化させてきたが、スーパーインテリジェンスがこの進化の過程を逆にたどり(リバースインテリジェンスか?)動物の鳴き声を分析し動物の意志を分析できるようになる可能性もあると思います。いずれ近い将来動物言語学(Anilogology)なる分野が格段に進化し畜産業等に大きく貢献する時が来るでしょう。
スーパーインテリジェンスなるものが定着し広まった後千年、一万年後の人類の命運についてはボストロム氏は触れていませんが、進化生物学者によれば家畜の牛や馬は野生の牛や馬に比べて脳の身体をコントロールする以外の機能は退化して小さくなってきているようです。牛、馬が1.1万年ほど経過して家畜化される中で脳が退化している事実を考えますと、スーパーインテリジェンスのおかげでそれに酔いしれていると脳が退化してしまうので、交通機関の発達で筋肉が衰え筋トレが進んだように、遠い将来脳が退化してしまわないような「脳トレ」文化のようなものが大きく進展するような気がします。
最後に、同時にYudkowskyやウォルター J.フリーマンの著書なども合わせて読めばより理解が深まるでしょう。
http://yudkowsky.net/
https://intelligence.org/
https://opencog.org/about/
https://www.amazon.com/Eliezer-Yudkowsky/e/B00J6XXP9K
https://www.amazon.co.jp/%E8%84%B3%E3%81%AF%E3%81%84%E3%81%8B%E3%81%AB%E3%81%97%E3%81%A6%E5%BF%83%E3%82%92%E5%89%B5%E3%82%8B%E3%81%AE%E3%81%8B%E2%80%95%E7%A5%9E%E7%B5%8C%E5%9B%9E%E8%B7%AF%E7%B6%B2%E3%81%AE%E3%82%AB%E3%82%AA%E3%82%B9%E3%81%8C%E7%94%9F%E3%81%BF%E5%87%BA%E3%81%99%E5%BF%97%E5%90%91%E6%80%A7%E3%83%BB%E6%84%8F%E5%91%B3%E3%83%BB%E8%87%AA%E7%94%B1%E6%84%8F%E5%BF%97-%E3%82%A6%E3%82%A9%E3%83%AB%E3%82%BF%E3%83%BC-J-%E3%83%95%E3%83%AA%E3%83%BC%E3%83%9E%E3%83%B3/dp/4782801718

なお著者OXFORD人類未来研究所のNick Bostrom氏のホームページは
https://nickbostrom.com/
です。著書以外の情報がつかめるでしょう。

 

 

∂内容紹介

■AIについての最も重要な命題=人類はAIを制御できるか、という「AIコントロール問題」と真正面から格闘した本命本。

■近未来に、汎用的な能力においても思考能力においても、そして、専門的な知識・能力においても、人類の叡智を結集した知力よりもはるかに優れた超絶知能(スーパーインテリジェンス)が出現した場合、人類は滅亡するリスクに直面する可能性がありうる。そのリスクを回避するためには、スーパーインテリジェンスを人類がコントロールできるかどうかが鍵を握る。果たして、そのようなことは本当にできるのか?

■オックスフォード大学の若き俊英、ニック・ボストロム教授が、スーパーインテリジェンスはどのようにして出現するのか、どのようなパワーを持つのか、いずれ人類がぶち当たる可能性のある最大の難問、「AIのコントロール問題」とは何か、解決策はあるのかなどについて、大胆にして、きわめて緻密に論じる。2014年秋に原著が出版されるや、瞬く間にニューヨーク・タイムズ紙ベストセラーとなり、イーロン・マスク、ビル・ゲイツ、S・ホーキング博士およびその他多数の学者や研究者に影響を与え、AIの開発研究は安全性の確保が至上命題であることを広く認識させるきっかけとなった。

■近未来においてスーパーインテリジェンスは実現する可能性はあるのか? どのようなプロセスで実現されるのか?スーパーインテリジェンスはどのような種類の能力をもち、人類に対してどのような戦略的優位性をもつのか? その能力が獲得される要因は何か? 人類が滅亡する危機に直面するリスク、人類との共存の可能性についてどう考えるべきか? これらAIをめぐる真に根源的な問題について著者は、類書をはるかに超えた科学的、論理的な考察を徹底して慎重に積み重ね、検証する。

∂内容(「BOOK」データベースより)

人間と同等以上の知能を持つAI。それはどのようにして出現するのか?その時、いったい何が起こるのか?人類はAIを制御できるのか?滅亡を避けられるのか?緊急の課題、「AIコントロール問題」に挑んだ世界的な話題作!

∂著者について

ニック・ボストロム
オックスフォード大学教授
オックスフォード大学マーティン・スクール哲学科教授。オックスフォード大学の「人類の未来研究所」所長、および「戦略的人工知能研究センター」所長。分析哲学のほかに、物理学、計算論的神経科学、数理論理学の研究も行う。哲学、数学、芸術などの、人間・自然科学分野での優れた研究者に授与されるユージン・R・ギャノン賞を受賞。米国の『フォーリン・ポリシー』誌の「世界の頭脳100人(Top 100 Global Thinkers)」に2度選出されているほか、英国の『プロスペクト』誌が選ぶ「世界思想家(World Thinkers)」に選定され、全分野でのトップ15および分析哲学では最高のランクに最年少で選出されている。 著作物は200を超え、主な著書にAnthropic Bias (Routledge, 2002), Global Catastrophic Risks (Ed.,Oxford University Press, 2008), Human Enhancement (Ed.,Oxford University Press, 2009)がある。 

倉骨 彰
翻訳家、著作家
早稲田大学卒業。テキサス大学オースチン校大学院言語学研究科博士課程修了。数理言語学博士。同校で自然言語処理などを研究。訳書に、ダニエル・ヒリス『思考する機械 コンピュータ』、アーサー・ブロック『マーフィーの法則』、ジャレド・ダイアモンド『銃・病原菌・鉄』『昨日までの世界』など多数。著書に、『実践的UML入門― IIOSS で始める新世紀プログラミング』(共著)などがある。

∂著者略歴 (「BOOK著者紹介情報」より)

ボストロム,ニック
オックスフォード大学マーティン・スクール哲学科教授。オックスフォード大学の「人類の未来研究所」所長、および「戦略的人工知能研究センター」所長。分析哲学のほかに、物理学、計算論的神経科学、数理論理学の研究も行う。哲学、数学、芸術などの、人間・自然科学分野での優れた研究者に授与されるユージン・R・ギャノン賞を受賞。米国の『フォーリン・ポリシー』誌の「世界の頭脳100人(Top 100 Global Thinkers)」に2度選出されているほか、英国の『プロスペクト』誌が選ぶ「世界思想家(World Thinkers)」に選定され、全分野でのトップ15および分析哲学では最高のランクに最年少で選出されている

倉骨/彰
早稲田大学卒業。テキサス大学オースチン校大学院言語学研究科博士課程修了。数理言語学博士。同校で自然言語処理などを研究(本データはこの書籍が刊行された当時に掲載されていたものです)

 

 

 

 

 

 

∂Lyn

StartingOver 2020