OpenAIのお家騒動で浮き彫りに、気になる「AI過激派」の台頭と対立 | 日経クロステック(xTECH) (nikkei.com)

 

「OpenAIのお家騒動で浮き彫りに、気になる「AI過激派」の台頭と対立」(中田 敦 日経クロステック/日経コンピュータ 日経クロステック)がちょっと面白い。

 

「米OpenAI(オープンAI)で2023年11月17日(米国時間)から始まったお家騒動。本件について誰もが困惑したのは、なぜ理事会がサム・アルトマン氏をCEO(最高経営責任者)から解任したのか、理由が分からなかったことだ。謎はアルトマン氏のCEO復帰が発表された本コラムの執筆時点でも、まだ明らかになっていない。

 「理事会がサムを解任した理由は、安全性に関する意見の相違ではない。全く異なる別の理由があった」。理事会が11月19日に新しい暫定CEOに選んだ、ゲーム実況配信サービス「Twitch」の元CEOであるエメット・シア氏はX(旧ツイッター)への投稿でそう述べた。

 シア氏はこの投稿で、今回の問題については独立した調査委員会が30日以内に報告書をまとめるとした。それでもわざわざ「AI(人工知能)の安全性に関する意見の相違が原因ではない」と言及したのは、それこそがアルトマン氏の解任理由であるとの見方が外部で多かったためである。」

 

「そう推測された最大の理由は、アルトマン氏にCEO解任を告げたのがオープンAIのチーフサイエンティストであるイリヤ・サツキバー氏だったことである。このことは、アルトマン氏と共に理事会から解任されたグレッグ・ブロックマン氏(それまではオープンAIの会長兼社長だった)がXで明らかにした。」

 

「解任を告げたサツキバー氏はどんな人物?

 アルトマン氏やブロックマン氏と共に2015年にオープンAIを共同創設したサツキバー氏は、ディープラーニング(深層学習)の分野における著名な研究者。ディープラーニングの父と呼ばれるジェフリー・ヒントン氏の教え子で、ディープラーニングにGPU(画像処理半導体)を応用して大きな成果を上げたを共同開発したことや、ディープラーニングを応用した文章生成AIの先がけである「seq2seq」を共同開発したことなどで知られている。

  そのサツキバー氏が最近、熱心に取り組んでいたのがAIの安全性だ。オープンAIは2023年7月に、サツキバー氏を共同リーダーとする「スーパーアライメント(Superalignment)」チームを創設したことを発表している。AIにおけるアライメントとは、人間の意図した目標と、AIが達成する目標とを一致(アライメント)させることを意味する。」

 

「筆者が困惑したのは、アルトマン氏と理事会の対立について、「e/acc」や「EA」と呼ばれる概念や人々の対立だと捉える言説を、海外の技術者や起業家などの間で見かけたことだった。

 筆者はe/accやEAという単語を今回初めて知ったのだが、e/accは「Effective Accelerationism(効果的加速主義)」、EAは「Effective Altruism(効果的利他主義)」の略称とのこと。e/accはAIなど技術の進化を何よりも優先する人々で、最近はシリコンバレーの起業家や技術者の中にも、e/accを信奉する人々が増えているらしい。

 筆者は今回の一件を通じて、AIの安全性を重視する人々のことを、激しい言葉を使って批判する勢力が台頭していることを知った。AIの進歩と安全性は、どちらかを選ぶものではなく、両立させていくべきものである。e/accのような考え方の台頭や過激化は、AIの未来を考える上で懸念すべきものだろう。

 非営利団体として始まったオープンAIは、AIの安全性を重視してきた組織でもあった。そんな組織を率いてきたアルトマン氏も、e/acc側の論理に立つわけではないだろう。今回の騒動によって、オープンAIの理念が失われないことを祈るばかりである。」

 

 

小松 仁