長期チャートを確認すると、調整や暴落が起きる前にトレンドラインから大きく上放れていることが分かる。
下記画像の「〇 」の部分を見ると分かりやすいが、日本株は2023年辺りから日米金利差拡大による海外資金流入、新NISA、バフェットによる商社株買い増し、AIブームなどの情報が出た時ぐらいからバブル=〇が大きくなっている。
米株はコロナショック以降、明らかに大きくなっており、最近ではAIバブルやトランプトレードなどによってさらに大きくなっている。
特にナスダック総合のバブル=〇は凄まじいものがある。
これまでのところ、長期的にはまだ調整らしい動きは見られず、恐らく半年以内に調整か暴落が始まるのだろう。
日本株に関しては2024年8月に急落した場面があったが、これは主に円キャリートレードの巻き戻しによって急激な円高になり、それに伴う形で下落している。しかしその後、すぐに戻している。
(個人的にはこの時の下落は調整でも暴落でもないのではないかと思える。)
結局、バブルとは何なのかというと、それは巨額資金が流入することによって急激にリスク資産が上昇することであり、それはチャートを見てもすぐに分かる。
その流入した資金の規模や暴騰の値幅が大きいほど調整や暴落も大きくなる。
・日経225の月足チャート
https://jp.investing.com/indices/japan-ni225
・S&P500の月足チャート
https://jp.investing.com/indices/us-spx-500-chart
・ダウ平均の月足チャート
https://jp.investing.com/indices/us-30-chart
・ナスダック総合の月足チャート
https://jp.investing.com/indices/nasdaq-composite-chart
長期的に見れば日本人が特に新NISA枠で買っている海外株は決して安値圏で買っているわけではなく、ほんの少し下がっただけの局面で「大暴落したから安く買えた」などと思っている。
例えば、コロナショック時にS&P500は2200ぐらいまで急落したことがあったが、それぐらいの水準で買っていたのであれば「大暴落したから安く買えた」と言っていいのだろう。(今、その時の動きを見ると、「大暴落」という程のものではなかった)
2024年8月にS&P500は5120ぐらいまで急落したことがあったが、それぐらいの水準で買ったのに「大暴落したから安く買えた」とは言えないのではないかと思う。
その急落後に確かに株価は勢いよく上昇し、史上最高値の6100.81をつけた。
その水準で利益確定できたのであれば結果的に上手くいったことになるが、そのまま保有し続け、今後もさらに増やし続けるというのであれば、恐らく中長期的に見て天井掴みをしたことになるのだろう。
https://jp.investing.com/indices/us-spx-500-chart
よく、「インフレになるとリスク資産の価格が上がる」と言われているが、それは預貯金として銀行口座にそのまま置いておくとインフレになった分、損をするからという理屈になっている。
普通預金や定期預金でもそれなりの金利が得られるなら銀行口座に入れておいても悪くないが、大した金利収入が得られないなら株や不動産などに投資する方がいいという主張をしている。
しかし、実際にはインフレになるとリスク資産に追い風というよりは、カネ余りが直接的な要因であるはず。
中央銀行の異常低金利政策によるカネの借りやすさや紙幣増刷によるバラマキなどでカネ余りになり、ろくな投資先がない中で行き場を失った資金がリスク資産に向かっているだけなのではないかという感じがする。
リスク資産の価格上昇が顕著に見られる時というのは巨額の資金流入が起きているということなのだから、カネ余りになっていなければそれは起きないはず。
「インフレになってきたから株を買おう」と思って買っている者は普通はいない。
最近ではAI投資ブームが起きていることで特にAI向けデータセンターへの巨額投資が相次いでいるが、生成AIがまだ実用に耐えるものではない場合、その投資は失敗することになる。
「AI向けデータセンター」というものは、実体のある投資先として無理矢理持ち上げたような印象があり、まだテスト段階である未熟な技術に期待し過ぎたことによって大変な過ちを犯してしまった可能性がある。
この、虚業としての株価暴騰と、実業としてのAI向けデータセンターの両輪によって最悪のバブルになってしまったように思える。
つまり、株価は上昇し過ぎたし、生成AIは失敗することで、このバブルはドットコムバブル崩壊を遥かに超える規模になるのだろう。
その根本原因を作ったのが中央銀行であり、中央銀行による行き過ぎた緩和的姿勢がこれほどまでにバブルを巨大化させてしまった。
それは単に中央銀行による低金利政策や紙幣の増刷、民間銀行や証券会社などによる信用創造だけでなく、金利差によるキャリートレードの規模もかなり影響している。
この巨大バブルは恐らく生成AIの失敗によって崩壊する。
そうなのであれば、生成AIに積極投資してきた企業に最も警戒するべきなのだろう。
現時点での生成AIは、インターネット、半導体、OSといった重要技術ではなく、まだ役に立つ段階にはないように思える。
言ってしまえば「変なものに期待し過ぎて先走ってしまった」といった感じがしてしまう。
※ NVIDIAのCEOは1月6日(米国時間)のCESで「NVIDIA Cosmos」を発表し、「目的はクリエイティブなコンテンツの生成ではなく、AIに物理世界を理解させることです」 と説明しているが、この新技術が普及段階になるまでにどの程度の時間を要するのかについてはまだ分からない。AIは去年の時点では「ネコより劣っている」とまで言われてしまっている。
https://wired.jp/article/nvidia-cosmos-ai-helps-robots-self-driving-cars/
【参考】2024年4月2日の記事
いずれAIバブルは弾ける
エヌビディア製AI半導体を大量に購入してデータセンターを建設しているマイクロソフトやグーグル、メタやアマゾンの需要予測が現実的ではないという残念な事実が、どこかの時点で露呈することは避けられないだろう。そうなればエヌビディアのAI半導体に対する需要も急減するに違いない。
そうなれば、これらの企業の株価も暴落するだろう。生成AI市場の拡大に賭けていた投資家たちが作り出したAIバブルも弾け、米株式相場はいずれ現実に引き戻されるのではないだろうか。
事実、2000年のドットコムバブルの崩壊や、2008年の金融危機を正確に予測した著名投資家のジェレミー・グランサム氏は、今次のAIバブルがこれから弾けて景気後退をもたらすと予想する。
今のAIはネコより劣っている
また、メタのチーフAIサイエンティストであるヤン・ルカン氏は、「ディープラーニングの父」として知られるAI界の神のような存在だが、そのルカン氏はこう語っている。
「ネコは過去を思い出したり、物質界を理解できる。複雑な行動を計画し、推論することさえできる。なぜ生成AIシステムはネコのレベルにも及ばないのか。ネコは、最大級の大規模言語モデル(LLM)より優れている」
いまだ実用に耐えないにもかかわらず、生成AIの市場規模がいずれ数百兆円にも達するというナラティブ(物語)に酔うウォール街。足元のAI相場は、早晩行き詰まるように思える。
https://president.jp/articles/-/80037?page=7
【参考】2024年10月10日の記事
・マサチューセッツ工科大学の経済学者ダロン・アセモグルは、AIインフラへの投資は投資家の期待に沿わないかもしれないと警告している。
・彼によると、今後10年間でAIによって大きな影響を受ける可能性のある仕事は、全体の5%にとどまるという。
・「莫大な投資が無駄になるだろう」とアセモグルはブルームバーグに語っている。
AIインフラへの投資に注ぎ込まれている莫大な資金の大部分が水の泡になるかもしれない。
マサチューセッツ工科大学(MIT)の経済学者ダロン・アセモグル(Daron Acemoglu)はブルームバーグのインタビューで、多くの人がAIに熱狂しているが、AIはその期待に応えられない可能性があり、そうなれば「莫大な資金が無駄になるだろう」と述べている。
今後10年間でAI技術に取って代わられたり、AIに大きく依存するようになる仕事は、わずか5%に過ぎないとアセモグルは考えている。
このことは、AI技術による効率性と生産性の大幅な向上がもたらすであろう経済的利益が、少なくとも当分の間は実現しないことを示唆している。
アセモグルは「この5%から経済革命を生み出すことはないだろう」と述べている。
大きな懸念のひとつは、マイクロソフト(Microsoft)やアマゾン(Amazon)、メタ(Meta Platforms)といったクラウドコンピューティングサービスを大規模に提供する企業によるエヌビディア(Nvidia)のAI対応GPUへの大規模な投資が、それに見合った収益の急増につながらないことだ。
投資家が利益率や投資の回収期間を精査し始めれば、AIを取り巻く状況は急激に冷え込む可能性がある。
アセモグルは、AIをめぐって最終的に次の3つのシナリオがあると考えているが、どれも特に楽観的なものではない。
1. 最も楽観的なシナリオは、AIへの期待が冷め、この技術の応用がある程度定着すること。
2. AIブームは2025年に入っても続き、最終的にはドットコムバブルで起こったようなテクノロジー株の暴落を引き起こす。このシナリオでは、投資家やIT企業幹部がAIに幻滅し、「AIの春に続くAIの冬」につながる。
3. AIブームはさらに何年も続き、企業は「AIをどう活用するのかを理解せずに」人間の仕事をAIに置き換えることになる。テック企業は、最終的にAIが機能しないことに気づき、慌てて労働者を再雇用するだろう。
アセモグルは、2番目と3番目のシナリオの組み合わせが最も可能性が高いと考えている。
「ブームが熱狂的であるほど、ソフトランディングすることはなさそうだ」
https://www.businessinsider.jp/post-294571
※ 現時点ではAIの推論やトレーニングでNVIDIAのGPUしか使われていない状況になっているが、今後はASICと呼ばれる別の処理装置に置き換わると言われている。これによって「NVIDIA一強」が終焉を迎えることになり、競合他社が生成AIの半導体でシェアを獲得することになるようだ。しかし、NVIDIAは2025年1月6日(米国時間)に「人型ロボット(ヒューマノイド)、産業用ロボット、自律走行車の学習に活用できる基盤AIモデル群『NVIDIA Cosmos』」および「ヒューマノイドロボット開発を加速させる革新的な設計図『Isaac GR00T』」を発表し、今後は「クリエイティブなコンテンツの生成ではなく、AIに物理世界を理解させること」にも力を入れていくらしい。生成AI分野における「NVIDIA一強」は終わるようだが、ロボット分野における新たな取り組みによって多角的にAIを成長させていく方針を取っている。このNVIDIAのCOSMOSやIsaacがロボット市場にどの程度影響していくのかや、普及段階になるまでにどの程度時間が掛かるのかは分からないが、ロボット市場においてもNVIDIAが存在感を高めていくことに違いはないようだ。
https://wired.jp/article/nvidia-cosmos-ai-helps-robots-self-driving-cars/
https://reinforz.co.jp/bizmedia/66393/
【参考】2025年1月7日の記事
生成AI(人工知能)の開発用チップ(AIチップ)としては現在、GPU(画像処理半導体)が多用されている。AIの開発からすぐにGPUが消えるとは考えにくい。しかし2025年は、GPUの天下が終わる年になりそうだ。AI処理に特化した新たな「ASIC(特定用途向け半導体)」が続々と登場しているからだ。これはすなわち、GPUで圧倒的なシェアを誇る米エヌビディアによる1強体制の終わりも意味する。
GPUはもともとグラフィックス処理のために開発されたが、現在ではAIやシミュレーション、金融など幅広い用途に利用されている。
これに対し、AIに特化したASICが将来的には、GPUの役割の多くを置き換えていく。それを暗示するのが、暗号資産(仮想通貨)の採掘(マイニング)に使われてきたチップの変遷の歴史だ。
マイニングは、暗号資産を新たに発行する際に必要な処理。代表的な暗号資産である「ビットコイン」のマイニングには膨大な計算が必要になる。過去にはその計算をCPU(中央演算処理装置)が担っていた。しかし、CPUによる計算は効率が悪いため、マイニングに必要な計算を高速に実行できるGPUが代わりに使われるようになった。
GPUの問題点は膨大な消費電力、すなわち電力効率の悪さだ。この問題を解決するため、少ない消費電力で効率的にマイニングを行うASICが登場した。現在のビットコインのマイニングには、ほぼASICしか使われていない。
AIチップもこれと同じ歴史をたどると考えられる。AIも過去には計算をCPUで行っていた。GPUはAIの計算を高速に実行できるため、CPUに代わって使われるようになった。AI分野でもGPUの消費電力は問題になっており、いずれはASICが主流になるはずだ。
https://xtech.nikkei.com/atcl/nxt/mag/nc/18/122500464/122500005/
※ AIは非常に有望な技術ではあるが、完全なものになるまでにまだ時間が掛かる。しかし、開発企業のトップ達はもうすぐAGIが実現すると喧伝し、AIによって社会の変革が起きると主張している。このようなよくある嘘を真に受けている者がどれぐらいいるのかは分からないが、既に生成AIは多くの分野で使われてしまっており、人間側が生成AIを誤用することで致命的な問題を起こした事例が多数報告されている。恐らく、今後半年~1年以内に生成AIブームは一旦終わりを迎えることになり、早くAIを利益に繋げようとする試みはAIの信用を失う結果を招くことになるのだろう。つまり、莫大な投資資金の回収は当面不可能であることが明らかになり、AIバブルは一度崩壊することになる。その後、1~2年程度でAIが完成することもなく、かなりの歳月を要することになりそうだ。真のAGIや、100%正しい答えだけを導き出すAIを完成させるには、今のような学習方法では不可能であるはず。個人的には10~20年でそれが完成するなら、相当早く社会の大変革が起きることになると思える。これは自動運転技術についても同じことが言えるが、本当にそんなことが可能なのであれば多くの仕事が人間からAIなどに置き換わることになり、人間の仕事の在り方や社会の変化にどう対応するのかについても考えなければならない段階になる。しかし、そういった「社会の大変革」やら「~革命」といったものは起業家達が主張するほど容易に実現できることではなく、特に生成AIのような未完成且つ危険性のある技術ではなおのこと無理のある話に思える。
【参考】2025年1月3日 の記事
世界中のビジョナリーや起業家、ビッグシンカーがキーワードを掲げ、2025年の最重要パラダイムを読み解く恒例の総力特集「THE WORLD IN 2025」。プリンストン大学教授のアルヴィンド・ナラヤナンは、AIが人間社会の脅威となる未来を予測し、その原因は人間による誤用や悪用だと警告する。
OpenAIのCEO サム・アルトマンは、2027年か28年頃にはAGI(汎用人工知能)が実現すると予測している。AGIは、ほとんどのタスクで人間を凌駕する人工知能(AI)のことだ。イーロン・マスクは、その実現は2025年か26年だとして、「AIの危険性に眠れぬ日々を過ごしている」と話している。しかし、このような予測は誤りだ。現在主流のAIは、その限界が次第に明らかになってきている。そのため、ほとんどのAI研究者が、単により大きく強力なチャットボットを構築するだけでは、AGIには到達できないと考えるようになった。
それでも25年、AIは人類にとって大きな脅威となるだろう。ただし、それは人工知能が圧倒的に賢くなることに伴うリスクではなく、人間の誤用から生まれるリスクによってだ。
「誤用」のなかには、意図せずそうしてしまうことも含まれる。例えば、弁護士がAIを信頼しすぎてしまった、というようなケースだ。ChatGPTのリリース後には、「AIで問題のある裁判書類をつくった」として、数多くの弁護士が処分された。この原因は、チャットボットが証拠をねつ造しがちだということに、弁護士たちが気づいていなかったからだろう。ブリティッシュコロンビア州では、AIがつくった架空の裁判例を含む書類を裁判に出した弁護士チョン・ケが、相手方の弁護士費用を負担させられた。ニューヨーク州では、弁護士のスティーブン・シュワルツとピーター・ロドゥーカが虚偽の引用をしたとして5,000ドルの罰金を科されている。コロラド州では、弁護士のザッカライア・クラブビルがChatGPTが生成した架空の訴訟事例を使い、それを「司法実習生」のせいにしたとして、1年間の資格停止処分を受けた。こうした事例は急速に増え続けている。
意図的な悪用もある。24年1月、テイラー・スウィフトの性的なディープフェイク画像がソーシャルメディアを席巻した。こうした画像はAIツール「Microsoft Designer」で生成されたものだった。ツールには実在する人のフェイク画像を作成させないようにする防止策があったが、それはスウィフトの名前のスペルを間違えるだけで回避できてしまったのだ。マイクロソフトはツールの問題点を修正したが、テイラー・スウィフトに起きたことは氷山の一角で、同意のないディープフェイク画像が広く蔓延している。その理由の一つは、ディープフェイクを作成するオープンソースのツールが一般公開されていることだ。こうした行為を取り締まり、被害を減らそうとする動きが世界中で起きている。しかし、それがどれだけ効果的なものかは、まだわからない。
フェイクを「見分ける」ことは、さらに難しく
25年には、本物とフェイクを区別することが、さらに難しくなるだろう。AIで生成された声、テキスト、画像の精度は驚くほど高く、動画もそれに続くことになる。これによって、「嘘つきに恩恵を与えてしまう」可能性が生まれる。つまり権力者が、突きつけられた不正行為の証拠を「偽物だ」と否定し、無力化しようとする行為だ。23年には、テスラのCEOがオートパイロットの安全性を誇張していたことが事故につながった遠因ではないか、という批判が起きた。それに対してテスラは、「2016年のイーロン・マスクの動画は、ディープフェイクかもしれない」と反論した。
あるインドの政治家は、自身の政党の汚職行為を認める音声クリップを「加工されたものだ」と主張した(しかし、このうち少なくとも1個については報道機関によって、本物だと確認されている)。21年米国議会議事堂襲撃事件の被告人ふたりも、自分たちが登場する動画はディープフェイクだと主張した。結局ふたりとも有罪になっている。
一方で企業は世間の混乱をいいことに、性能が根本的に疑わしい製品を「AI」と銘打って販売している。そういった商品を信用して、それに基づいて実際の意思決定をしてしまうとなれば、深刻な事態だ。例えば、RetorioのAI採用ツールは、AIが採用面接ビデオの内容を分析し、候補者がどれだけその仕事に向いているかを予測すると主張していた。しかし、実験調査によると応募者がメガネをかけただけ、あるいは背景画像を何もない状態から本棚の画像に変更しただけで、「AIを騙せた」という。これは、AIの判断が「見た目の特徴」との相関関係に大きく依拠していることを表している。
AIはすでに、医療や教育、金融、刑事司法、保険など、人の人生を左右してしまうような、数多くの分野で使われている。例えばオランダの税務当局は、児童福祉詐欺を働いた人々をAIアルゴリズムで特定しようとした。その結果、数千人の親を誤って告発し、数万ユーロもの返還を要求することになった。結果的に、首相と内閣全員が責任を取って辞職するという事態に発展している。
2025年に顕在化するAIリスクは、AIが自発的に行動することによってではなく、人々がAIを使うことによって生じるものになるだろう。例えば、ChatGPTを弁護士が信用したケースのように、一見機能しているように見えるために過度に依存してしまうようなケースだ。あるいは、ディープフェイクや「嘘つきの恩恵」といったように、人間がAIを悪用することでも起こるだろう。そして、オランダの事例のように目的に合わない使い方をした結果、人権を踏みにじってしまう事態も発生するだろう。
こうしたリスクを軽減することは、企業、政府、社会にとってとてつもなく大きな仕事だ。SF的な事態を憂うまでもなく、事態はすでに十分、深刻なものとなっている。
https://wired.jp/article/vol55-human-misuse-will-make-artificial-intelligence-more-dangerous/
【参考】2024年11月13日 の記事
・OpenAIはAIの進化の頭打ちで戦略の転換を余儀なくされている、高品質なデータ枯渇の問題が急激に顕在化
2022年にリリースされて以来、日進月歩の進化でAIユーザーを驚かせてきたOpenAIのChatGPTですが、モデルのトレーニングに必要な高品質なデータの不足をはじめとするスケーリングの問題より、進歩が鈍化しつつあることが報じられました。
AIは高品質なデータでトレーニングすることで精度を向上させることができますが、トレーニングには大量のデータが必要になるため、特に高品質なデータは2026年にも枯渇すると予想されています。また、ウェブサイトがAI企業によるクローリングを禁止する動きを加速させたことにより、たった1年で高品質データの4分の1が使えなくなるなど、データ不足の問題は深刻化の一途をたどっています。
テクノロジー業界誌・The Informationに情報を提供したOpenAIの内部研究者によると、OpenAIの次期モデル、コードネーム「Orion」にはGPT-3からGPT-4にバージョンアップした際に見られたような大幅な性能の向上は見込めないとのこと。
そのため、Orionは「特定のタスクで確実に前モデルより優れているわけではありません」と、匿名の内部研究者は話しました。
この見方は以前からOpenAIの上層部の間に浸透していた可能性があります。2024年初頭にOpenAIを去った同社の共同設立者のイルヤ・サツキヴァー氏は、大量のデータを用いた基礎的トレーニングの手法「事前学習」のスケールアップによる成果が頭打ちになっていると、インタビューで述べています。
サツキヴァー氏はロイターの取材に「2010年代はスケーリングの時代でした。今、私たちは再び驚きと発見の時代に戻っており、誰もが次のものを求めているので、正しいものをスケーリングすることがこれまで以上に重要になっています」と話しました。
AIの進歩のボトルネックとしては、モデルを動作させるハードウェアや電力の制約などさまざまな要素がありますが、特に問題視されているのが新しくて品質の高いテキストデータの不足です。
AI企業・Epoch AIの研究部門が発表した論文では、大規模言語モデル(LLM)のトレーニングデータセットの増加率を、人間が作成して公開したテキストの残量の推定量と比較して、この問題を定量化しました。
その結果から、研究者らは「言語モデルは2026年から2032年の間に人間が作成した公開テキストのストックのほとんどを使い果たす」と結論しました。
OpenAIをはじめとするAI企業は、目前に迫りつつあるデータ枯渇問題に対処すべく、他のモデルによって作成された「合成データ」をトレーニングに使用する手法に軸足を移し始めています。
しかし、この種のデータによる再帰的な学習を何サイクルも繰り返した結果、LLMが文脈を理解する能力が失われる「モデル崩壊」が起きかねないとの議論もあります。
また、新しいデータを使ったトレーニングではなく、推論能力の向上によるAIモデルの改善に望みを託している人もいますが、最新鋭の推論モデルでさえ意図的にミスリードを招くような設問があるとあっさりとだまされてしまうことが、研究で判明しています。
The Informationのレポートを取り上げたIT系ニュースサイトのArs Technicaは、「現行のLLMのトレーニング手法が袋小路に入った場合、次のブレークスルーは専門化によってもたらされるかもしれません。Microsoftは既に、特定のタスクや問題に特化したモデル、いわゆる小規模言語モデル(SLM)で一定の成果を収めています。つまり、これまでのジェネラリスト的なLLMとは異なり、近い将来のAIはより専門的で、より的を絞った分野に焦点を当てるようになるかもしれないということです」とコメントしました。
https://gigazine.net/news/20241113-ai-openai-gpt-improvements-slows/