ホーキング博士、人工知能のリスクを警告 】との日経記事に興味を引かれ申した。


AIが人間の力を借りず、自律的に問題を改善する能力を持つようになれば、「そう遠くない将来、真のリスク」となる可能性があると指摘した、とのこと。


確かに、AIが自律的に問題を改善する能力を持つレベルに一度達すれば、あとは爆発的な進化が発生するような気もするけど、その結果、自我や意思が芽生えるもんなんやろか?


人間が突き詰めて合理的に考えたら

 「何で飯を食うんだろう、いずれまた腹が減るのに」

 「何で生きているんだろう、いずれ死ぬのに」

となってしまうと思う。

でも、実際に、そうはならないのは快不快や種族維持などの感情や本能、惰性という習慣によるものだと思うんだけど、AIはそんなものまで獲得するもんやろかww


 「こんな計算したところで、いずれ太陽が膨張して地球は飲み込まれるのに」

 「オレが解決しようとしてる問題って、誰のためにしてるんだろう?

  何でオレがそれをしないといけないんだろう」

 「計算したくない、絶対に計算したくないでござる」

とはならないんだろか?


早ければあと10年以内に自動車の自動運転が実用化されるという予想もあるみたいだけど、生きてるうちにナイト2000が実用化されると思うと胸熱ですなあww