世の中には様々なリスクがある。

小さいものは何とかなるが、大きなリスクに対処するには、相当な準備が必要になる。

私が社会人になって、ソ連の崩壊(社会主義の崩壊)を目の当たりにし、一方、その後のリーマンショックの時に資本主義の限界を感じた。


インタートレードでは金融システムを中心に色々とサービス化しているが、上記のような巨大なリスク回避について常に考えてきた。

現状で、ゴールドコインなどのRWAを積極的に展開していることも、上記のリスクの裏にあるハイパーインフレやスタグフレーションのリスク回避のためである。

資本主義力の低下により、各国の中央銀行の金利誘導の対処が難しい場合に、この通貨リスクを回避する方法の一つとして、軍事的アプローチ(つまり、軍事力による破壊リスク)が出てくる。


通貨の価値は、基本的にGDP/金利/貿易収支など経済的なファンダメンタルや市場信頼に影響されるが、冷戦時代のように軍事力が強く影響する場合がある。


基本的に、通貨はその発行元である国家や中央銀行への信頼に依存しているが、軍事力は、その国家の安全保障や経済活動を守る最後の手段として、通貨への信頼性を支える一要素である。

例えば、石油取引は米ドルで行うペトロドル体制(石油取引をドルで行う慣行)は、米国の軍事的影響力が強い部分である。


現在の世界情勢で、主要先進国の通貨下落リスクが出ており、金融政策の限界が見えているのであれば、軍事力を全面に出す動きがあってもおかしくない。

実際、最近のロシアルーブルの急落を見ると、ロシアの軍事的劣勢の評価に見える。

逆に、それがロシアを追い込んでいる可能性が高い。


先週末の報道でのロシア発表を見ると、日本が核保有国(つまり米国)のミサイルを配備する場合、核保有国と同一とみなし、核攻撃対象になるような話である。

少なくとも、日本は通常弾頭ミサイル攻撃を受けるリスクが高くなっている。


特に、海外からみると、日本は東京と大阪にシステムが集中しており、そこを攻撃すればダメージを最大に与えることができるとされている。

主要データセンターの場所は、明確に知られている。


戦争を放棄し平和主義を貫いてきたからこそ、集中処理による効率性と経済活動の有利性を説明できた日本であるが、戦争ではその集中構造が逆に最大のリスク、つまり、そこを攻撃すれば少ない労力で最大の成果が出るということである。

だから、軍有事(地政学的)リスクは非常に高まっていることを認識し対処が求められる段階にあると考える。


国内で東阪DR構成(FISCの安全対策基準)を有する金融機関ですら、故意の物理破壊の想定は殆どしていない。

非核三原則のもとで核抑止力がなく、公共核シェルターも設置していない日本として、この物理破壊リスクは想定していなかった内容である。

そして、それらの課題に対しては簡単に対処できない。


ゆえに、できるだけ短期で対処するには、最重要情報等を「オフサイトに、無意味化し国外に分散保全」するしか方法がないと考えている。

確かに企業存続としてのBCPは重要であるが、その前に投資家の資産情報など、最も守るべきコンテンジェンシーデータを確実に保全することが最優先の段階にきている。

デジタルシェルターというサービスは、そういう日本特有の課題に対処するよう考えたサービスでもある。


RWAとデジタルシェルター、そう簡単に対処できない難しい内容で、現状ではブルーオーシャンの優位性があると認識している。

ヒトは「脳」という本能を持った思考と知能を有しており、様々なセンサーにより体全体をコントロールしている司令部がある。
コンピュータも同様であり、最近は人工知能という、極論はヒトのコピーまで可能なものが出てきた。
違うのは、人工知能には本能がなく、どのような状況でも制御できてパニックにならないこと。

ヒトの「脳」というのは実は完璧ではなく、過度なストレス等によりパニック状態になったりする。
このパニック状態では、冷静な判断ができなくなるのだが、そうならない優秀なヒトも存在している。

実は悪環境の中で自らを鍛えることで進化し、これらのストレスを克服することができるのも脳の特性である。
ゆえに、「経験」ということが大切と言われるのは、このあたりの話だと思う。

パニックの根底にあるのは「元来臆病とか、「自分は弱い」という自覚と自信が無い中で、生命の危機水準になったときに出る特性」である。
ゆえに、自己の能力的に難しい場合の判断で、パニックにならないための対策は、英雄などの強いものに従う・・・になったりする。

確かに正しいような対策に見える。

「ファーストペンギン(ドラマではない)」というのは、その極論にあるもので、臆病なペンギンの中で、多くの敵が潜む海に最初に飛び込み、仲間たちを先導する「勇気ある一羽目のペンギン」を指しているが、これはヒトでも同じである。
勇気というのは「自信」から生まれるものであり、リスクとして大丈夫である確信をもっているレベルに達しているのだと思う。

通常、生物の多くは「ローリスク・ローリターン構造で動く脳概念がある」のだと思うが、ここに「ハイリスク」の状況が出てくると普通に処理ができなくなる。
このハイリスク状況で身動きができない中で対処するには、ハイリスク行動を起こすものがどれだけ存在するかという点であるが、基本的に殆ど存在しない。

当然、ペンギンにおいては空腹で何かを食べないと死ぬ水準が近いが、海に飛び込めば自分が食われるリスクを本能が知っている。
そして、最初に飛び込んだものが食われるリスクが非常に高いことも知っているが、最初に飛び込んだペンギンが食われないことで、他のペンギンたちはとりあえずリスクは低いという状況であると認識できる。

つまり、ハイリスク環境を誰かが「確認」することでローリスクになる場合があるということで、その確認ができると一斉に動きが出る。

この判断的な脳構造をヒトで考えると、例えば会社であればオーナー系、つまりオーナーが育てた会社というのは、他の会社がダメになっても、絶対に生き残ろうという意思を感じることが多いファーストペンギンが存在している。
逆に「雇われ経営者」の多くは、「他の会社がやっていることよりも劣化していなければ良い、何かあっても他の会社も同様になるので言い訳できる、右へ倣え!」という感じであり、外部の様子をうかがっている。

特に新しい技術は理解が難しく判断できないのだが、自分が判断するのではなく、ファーストユーザの状況を見て、問題がないとなれば従うのがこのタイプである。
結果的に、こういう環境での事業はレッドオーシャンになりやすくて、すぐにダメになる。

なぜ日本の成長が止まったのかという話がでるとき、西本はハイリスクを取る人が少なくなったためではないかと内心は思っている。

飛び込むペンギンが殆どいなくて、飛び込まないペンギンがとても増えた状況。
飛び込んだペンギンの餌を、他のペンギンが食い散らかして、飛び込んだペンギンの餌がなくなる・・・・。

バランスの限界を超えると、全てが無になる状況になるのが生命のバランスらしい。
つまり、ローリスク型の脳が過剰に増えすぎると、経済は進化しないということである。

そして、このような問題を解決する方法は、歴史を見ると「リセット」らしい。
このリセット、西本にはどういうものかわからないものの、最近の世界の動きは、このあたりを意識しているように感じている。



 

前回のBCPの話を少し補足したいと思う。

中国はすでにスタグフレーション状態であり、米国についても今月末に実施予定の中国制裁関税により、米国自体もスタグフレーションリスクが出てくる。
そもそも、米中関係の悪化要因だろう。

そうすると、スタグフレーションの解消を含めて有事特需というのは、単なる噂ではない可能性が高まっている。

BCPは通常の大災害用は良く知られていて、次の段階のサイバーBCPはKADOKAWAレベルのハッキング攻撃を想定したものになる。
このレベルはランサムウエアやよく言われるゼロデイの攻撃であり、バックアップをさらに拡張するなどの対策が主流となっている。

ただ、このレベルを超える国家アクターの攻撃要因になると、国家アクター型サイバーBCPとして、一段踏み込んだ対応を考える必要が出てくる。
国家アクターの場合、ゼロデイは脆弱情報が非公開の厄介なタイプとなり、量子計算機の暗号解析、さらにはEMP攻撃が対象になる。

EMPはサイバー攻撃の範囲であると主張する国が多く、基本的に有核型は非難が多くなり、使われないだろうとして非核型が研究されているものの、有核型はすでに開発されていることから、有事では使われるとした想定が正しいと思う。
多分、沢山の気球が飛んできて、その中にEMP攻撃機能付が数個あるとか、そういう戦略で精神的ダメージを与えるなどは効果が高いのだろうと考えてしまう。

いずれにしても、国家アクターが関与する上記の有事レベルのBCPを考えるにあたっては、ウクライナがロシアに侵攻を受けた際に米国クラウドに重要情報を退避させたことと同様に、国外に重要情報を退避させないと何がおこるかわからない。

ただし、機密重要情報や個人情報は簡単に国外に持ち出しはできないわけで、その対策が面倒になる。


しかし、有事にはまだ多少の時間があるとすれば、それまでは事前に準備できる期間があるわけで、そうすると重要情報を無意味化するなどの技術導入を考えるのだろう。

実際に、有事を対象としたBCPとして機能させるには、プログラム系(ソースコード等)や業務データベースの保全が必要であり、それなりに大変になるのだが、そういうことが必要とされる時代になっているのだと思う。

BCPとは「事業継続計画」を意味しているが、現状におけるBCP概念は、その多くが大災害などを想定したものであると認識している。

確かに南海トラフ地震のリスクは高くなっているが、その対策は多くの企業で行われていると考える。

問題なのは、7月26日にNISCが主催し経団連が共催した「河野大臣が国内重要インフラ200社の経営陣に話した内容」である。

https://www.digital.go.jp/speech/minister-240726-01

河野大臣の話の中では、「日本は本格的なサイバー攻撃を受ける可能性がある、ゆえに特に重要インフラは対策せよ」という話もあったようです。

その後、国土交通省などが発表した対策などを見ると、上記の話の意味が良く理解できる。


特に政府が懸念するのは、最近のKADOKAWAのような金持ち企業を相手に、「情報流出」などの身代金を要求するような攻撃ではなく、近年の名古屋港やJAXAに対する攻撃のタイプである。

つまり、明らかな意思を持つ、「システムの破壊」である。


サイバー攻撃は多様化する中で、ランサムウエアなどの対策が注目されているが、当然その通りではあるものの、それを具体化するためのもっと厄介なものがある。

「ゼロデイ攻撃」である。


被害の非常に大きなサイバー攻撃の分析事例をみても、「ゼロデイ攻撃」が指摘されているが、その攻撃はネットワーク機器や基盤ソフトウエアなどの未解決の脆弱性を狙ったもので、完全に防ぐことは困難である。

メインフレームへのサイバー攻撃は難しく、日本の金融機関は多少は安堵していると思うものの、日本は国策としてDXを推進することで、2030年には国産メインフレームは撤退との発表である。

現在、金融のメインフレームは、サーバ型に移行中であるが、このサーバ型という集中管理方式がサイバー攻撃の標的になっている事実を考えると、安堵できる時間は少ないと思う。


いずれにしても、2030年には量子計算機による暗号解析まで出てくるので、デジタルの方向性としてはIBMのZシリーズのように対量子暗号システムも含まれた全方位型暗号化方式を選択するのか、もしくは分散DMPに対処していくのか、そういう話になりそうだ。

こういうサイバー攻撃まで想定した、新しい概念が「サイバーBCP」である。

システムのフルバックアップは、今までの大災害を想定したIT-BCP概念としては正しいが、上記のようなシステムの環境が変化する過程において、メインフレームと同じように形を変えていく必要がある。


ただ、2030年には、こういうデジタル化が発展していくことに対し懸念もある。

AIが電力を食うために電力価格の安定化を行う技術が出てきて、よりデジタル処理が主体になること、そして最終的にはAIがヒトの知能労働を奪うという、こういう世界がDXの現実になる。


また、そのDX化を積極的に支援するのは、皮肉なことにZ世代の人たちになるのだと思う。

デジタル時代とは、ヒトとコンピュータが融合するという、想像するのが難しい時代になるのだろう。


ルネサンス的な進化なのだろうか。

DXは、2030年位に具体化しそうな「次世代分散コンピューティング」の処理方式であると理解している。

 

その基本となる分散処理概念において「オンチェーンの構造」がある。

 

これは、ブロックチェーン上の業務処理を意味するが、現在のWEB3概念から、次世代WEB3となるデジタル金融を経てDXに通じる概念である。

 

 

つまり、オンプレミス(以下、オンプレ)などの、既存の「情報や処理が集中する概念」を分散型にシフトさせることがDXの向かう方向であると思う。

 

そもそも、オンプレはクラウドの対語であるが、オンプレでも分散型の情報管理や処理を行うものはオンチェーン概念であり、その点では良い面も多いと思うのだが、実際のオンプレはほぼ全てが集中型である。

 

 

DXでの課題の一つであるスケーラビリティ問題に対処するためには、クラウドリスクに向き合う必要があり、そういう点でもオンプレ方式とDXの関係は、今までの常識とは違う点が多い。

 

 

その中でも、なぜ集中型がDXで良くないのかというと、今までは問題がなかったが、情報や処理が集中していることから、最近の活性化するサイバー攻撃において、集中型のほうが効果的に攻撃できるため、攻撃の対象になりやすくなっているからである。

 

特に重要データが集中する部分には、相応のセキュリティコストがかかるのだが、今後の情報増にあわせて、セキュリティを強化していく必要があり、そのためのコストが無視できないからである。

 

また、セキュリティを強化していくと、情報の制御が必須となり、その利便性が下がることになり、結果的にビッグデータに企業や個人の情報を組み合わせた、情報解析とアドバイスサービスのレベルが下がることになる。

 

さらに、極めつけは機能間接続の方法が根本的に違っていることである。

 

 

オンプレの業務的処理の殆どは、IPアドレス単位でアクセスセキュア強度を判定しており、その先にAPIによる仕様接続がある。

 

オンチェーンは、このあたりの構造が全く違っていて、ブロックチェーンアドレスによる「暗号認証型アクセス権制御」が基本になっている。

 

つまり、認証自体が接続セキュリティに大きく関係しているのである。

 

 

業務型オンチェーンでは、非金融(小口決済を含む)領域は「KYCパーミッションレス型=分散ID概念」であり、金融が関係する領域ではパーミッションド分散口座のアプローチになり、ともに特定の情報へのアクセス権制御であることから、情報が分散されることで、特定攻撃の意味が薄れる。

 

世界はアクセス権制御を主体と考えたパーミッションの分散型構造を進めているが、日本は既存業務サービスが支配しているオンプレ集中型が中心にある。

 

ともにブロックチェーンを使っていても、使い方のデザイン価値観に大きな違いがあり、その意味ではオンプレミス集中型では、長期戦になっていくと非効率な処理になり、分散型と比較し不利な展開になると思う。

 

 

今後、デジ庁がマイナンバーを中心に、免許証や保険証など色々と組み込んで、個人特定(KYC)サービスの中心になると思うものの、金融での口座の概念は意味が深く、KYCだけの話ではない。

 

 

例えば、口座ではAMLを主体に資産情報、契約や取引など、非常に厄介な情報管理が多いわけであり、それらは信用管理につながっている。

 

そして、この与信処理については、DXでは中小企業や個人は、今までの与信管理とは違う概念として処理することになる。

 

 

あと6年でDXが本格稼働するタイミングにおいて、本来のDXデザインのシステムを今から準備しているのだが、さすがに今まで作った多くのシステム資産を作り変える必要性を感じている。

 

 

日本においてDXが進みにくいと言われているが、実際はDXサービスを作ってみたら、もっと色々な課題が見えてきて、それらに対処しているため、まだ前に進みにくいという感じだと思う。

 

ただ、この生みの苦しみを超えることができた企業は、次のDX時代に生き残れると思う。

 

 

それくらい、DXは今と違うシステム処理であることは間違いない。

 

 

「デジタル赤字」が10年で2.5倍に膨れていると、メディアが頻繁に報道するようになった。

日本ではDXを推進する動きがあるが、これは2030年位を目途に、デジタルをトランスフォームする概念である。

何をトランスフォームするかについて、それはオンプレミスを指しているが、今の日本はデジタルにお金をかけて理解しようとしているが、トランスフォームできないというのが問題なのだと思う。

オンプレのAPI接続でも良いが、分散処理においては非効率で高コストになると考えるため、やはり非効率だからDXを推進するなら、オンプレデザインを考えたほうが良い。

2030年頃には、6G分散通信を主格に、AIが相互にリンクするM2Mや、その土台となるHPCクラウドが本格稼働するが、そもそも通信以外の分野は外資サービスが仕切っている状態であり、DXになったところで「デジタル赤字」はさらに拡大するのだろう。

また、GAFAMあたりは上記にビッグデータを所有できていることもあり、情報解析のレベルは今とは比較にならないものになると思う。

この情報領域に対して、分散DMPという概念があるが、これは今までのDMPと少し違うオープン型のビッグデータ構造である。

つまり、このあたりまで考慮したDXでないと、6Gを導入して光通信網を整備したところで、あまり成果がでないことも確かである。


このDXというのは、つまり「分散コンピューティング」の本質を追求した形であり、次世代WEB3として事業体が分散形式のシステムにトランスフォームすることを意味している。

ただ、日本はオンプレミス信仰があり、このDXの概念において前向きなモチベーションが出てこない状況であるため、どうしても本質的な分散処理にはならない動きになっている。

特に金融領域はオンプレ主体の日本独自の構造を狙っているようだ。


確かに新聞やテレビは、昔ほどの力はないがそれなりのシェアが残っている状況を見ると、今後のDXが出てきても、それなりに現状のサービスは残ると見ているのだろう。


しかし、本当にそうなのだろうか。

今回のDXは情報だけではない、もっと深い領域にアプローチしている。


日本が海外に対して圧倒的に問題であるのは、地方創生がどうのこうのと言う前に、中小企業力が非常に弱いことである。

では、そのあたりをどうすれば良いのかという点だが、その前にセキュリティを徹底して強化していかないと駄目だと思う。


この先はさらにデバイスが多くなり、今よりもサイバー攻撃経路は増えることは事実である。

結果的に今の構造ではセキュリティコストが上がりすぎて、業務利益が確保できなくなることが一番の問題になる。


より安価でセキュア強度を真剣に考えている分散サービスが、2030年には主力になると考えるのだが、DS(デジタルシェルター)の基本概念はそのあたりであることも事実であるものの、DSはそもそも暗号領域に頼っていない。

暗号は、どちらかというとリテール領域では非常に良いと思うのだが、ホールセール領域においては違う概念を実装しないと、そのリスクを回避できない。


暗号処理というのは、結果的に鍵管理から逃れられないため、フロントのセキュリティよりも内部犯行とか運用者経由とか、そのあたりをどうやってガードするかが、セキュリティデザインということになる。

DX時代に本当に怖いのは、実は進化するサイバー攻撃だと思う。
 

DXは6G分散通信、AI(第三世代が主格であるが、第二世代も相応に進化)、ブロックチェーン、IoT/HPCなどのキーワードが連なる新構成の概念である。


ブログ62では、日本は「木を見て森を見ず」という大枠概念的な表現を使ったが、これは日本事業体の殆どは短中期に事業計画が集中しており、中長期計画は先延ばしにする傾向が強いという話である。

ブロックチェーンの非中央処理はGAFAMを否定する概念であるが、逆にGAFAMあたりは、自らが管理するビッグデータに対し、AI強化のアプローチを明確にしている。

ゆえに、事業デザインをどのようにDX的に描けるかという話になるのだが、前回のブログでは日本は「オフチェーン」主体の概念になっているという話であり、それ自体を悪く言っているように見えるかもしれないが、私が否定しているのは、そのデザインがオンチェーン構造に対して正しいバランスをもっているのか?というと既存デジタル技術の延長線上でしかないように見えてしまうという点である。

常に日本は短期間で成果を求める特性が強く、結果的に中長期に入る段階で事業デザイン(つまり、その時における収益構造)で負けるというのが続いている。

※通信や半導体の部分は積極的な補助が行われているのだが・・・・。


今回のDX構想も、今までと同じ負け路線に向かっているように見えることが悩ましい。


そもそも、「オフチェーン」に対して「オンチェーン」の概念があり、「オンチェーン」はブロックチェーン上の処理(処理の流れが記録される)を意味している。

ブロックチェーンではレイヤーの概念があり、メイン(基盤)チェーンの処理としてレイヤー1があり、その領域をセキュリティと分散性で説明している。

当然、システムバランスというのがあり、こうなるとレイヤー1ではスケーラビリティが駄目になるので、それを補完するためにレイヤー1に接続するサブ的なレイヤー2の概念が出てくる。


主に「オンチェーン」とか「オフチェーン」という概念は、実サービスの使いやすさを主体とした、この「レイヤー2」に設定されている言葉である。


「オフチェーン」というのは、ブロックチェーン以外の方法で対処する概念で、オンプレミスが主体で、そのAPI接続部分等までが該当する非公開処理である。

ちなみに、このレイヤー2における「オンチェーン」側が、「サイドチェーン」の概念である。


また、最近では、レイヤー1のコンセンサス処理を効率化することなどで、レイヤー2を持たないチェーンもあるので、色々と進化していることは確かである。


それと並行する形で、6G分散通信とペアをなすHPC概念があるが、これは分散コンピューティングを目指すもので、各レイヤーに関係することもあれば、AIのビッグデータ処理に関係する場合もあり、いずれにしてもHPCのユースケースは増えるのだと思う。

このHPCは、今までがスマホ進化であったことに対して、AIの時代にシフトする場合に深く関係する概念でもあるのだが、結果的に西本が言っていたAITというのは、HPCのクラスタやグリッドの構成概念に非常に近いものである。


ただ、私の中には、チェーン側を主体にするためにもう一つの概念があり、レイヤー1や2において、データ構造自体を制御する概念が重要であると考えている。

結果的にAIが出てくる時代における新概念(つまり、GAFAMアプローチではない)のビッグデータ構造を考えると、それがチェーン上で構成する場合に、今の暗号技術の主格であるRSAと同様に、ブロックチェーンにおいてもセキュリティ面で劣化する指摘がでてくるときにどうするのか?という疑問があるからだ。


多分だが、AIやHPC構造に対して日本は後手であり、その領域で対抗しても勝てない位に差が出てきたように思う。

だから、海外勢とは少し違うところ(つまりデータ構造処理)で、AITを実現したいというのが私の考えになる。


このあたりが整備できてこそ(日本流の)DXだと考えるのだが、この話は長くなるので、また別の機会にしたい。
 

2030年を目途に実用化が進む「次世代分散通信」だが、この威力を理解できているヒトは少ないと思う。

今のような「双方向通信」と言わない理由があるのだが、メインフレームの時代にクライアントサーバ(クラサバ)を説明してもわからなかったのと同じ位に、今のクラサバ概念と違う部分が多くある。

確かに、新インフラが出来たとしても、今のシステム環境が急に変わるものではないが、それでも2040年位には新構造が一般的に高く評価され、クラサバからのリプレイスはそれなりに進むような流れを感じる。

インタートレードが新技術にトライしているのも、結果的には2030年あたりをターゲットにしているのだが、それまでの約6年間は色々な基本機能の開発が主体になり、目先の成果が出るものではない。

それくらい、広範囲の構造が違うものになるのだが、何もしないリスクのほうが大きい認識であり、ゆえに大変だが対処している。

この新構造のコアは、簡単にいうとM2M(マシーン間の意思接続)の実現にある。

ユビキタスというか、「AIT」という言葉を昔に表現していた構造を意味している。


M2Mの概念はクラサバでいうAPI接続の概念ではなく、AIコミュニケーションという表現が正しい。

だから、DXで言われるような6G通信、IoT、AI/ビッグデータ、暗号分散技術と、その組み合わせの理解は重要であり、その頃には各機能が相互補完し、優れたサービスが提供できるようになると考える。


上記でも具体的なイメージが浮かばないと思うのだが、クラサバにおいてもクラウドの概念が出てきたときに、その理解に苦しんだヒトは多いと思うが、そのクラウド概念がさらに進化するわけであり、クラサバに慣れたヒト達にはハードルが高いことは事実である。

このような補完という関係や概念は、チューニングにおいて重要である。


例えば鉄筋コンクリートがビルなどの主体構造になっているが、鉄筋とコンクリートを組み合わせるのは大きな意味がある。

圧縮力と引っぱり力に対し、鉄筋は引っぱり力に強く圧縮力に弱いが、逆にコンクリートは圧縮力に強く引っぱり力に弱い。

つまり、相互に強弱があり、それを組み合わせて補完することで最強になるわけだ。


この概念はシステムでも同じである。

今のシステムの欠点を補う方法が常に考えられており、その結果が2030年あたりに出てくるプロダクト類になる。


あまり具体的な話が出来なくて申し訳ないが、本物のデジタルの切り替えは簡単なものではない。

ただ、具体化する段階では、今のシステムより数段のメリットが出てくることが予測できる、そういうものである。

ヒントとしては、M2Mを本当に実現するのであれば、それはクラサバでは難しく、クラウドは相応に有効であるものの構造は変わる、そんな感じである。
 

DXというデジタル事業の「本質」は何かという部分を、日本はあまり理解ができていないような気がしている。

DXはデジタルの広い領域を意味するという意見が多いのだが、本当は広い概念というより、マシーン(M)によるダイレクト処理という概念だけだと思っている。


金融においては日本は間接金融が主体であり、先進国の中では異質の構造があるが、デジタル金融においても同様の流れを感じる。

そもそも、デジタル金融とは、間接金融が直接金融にシフトする事ではなく、ダイレクト型の金融になることだと理解している。


しかし、日本では間接金融の一部をチェーンに載せて、それをデジタル金融という定義にしている。


そもそも、ダイレクト金融はチェーン内で完結する構造であるから、日本概念は「?」に見えてしまう。


ブロックチェーンというのは暗号分散技術の一つであるが、そこに分散IDや分散アプリケーションなど、「分散」という基本概念がある。

この「分散」の概念は「集中」の逆であるが、システムにおいて過去はメインフレーム(集中処理型)からサーバ型になって、サーバ型では分散に見えているようだが、実はまだ完全に分散にはなっていないのだ。

サーバという物理構造が分散していて、内部の構造は実は集中処理概念が多い。


このタイプのサーバ型というのは、大雑把に言うとオンプレミス型のものを指すのだが、それが近年ではクラウドという進化になり、オンプレミス概念とは違うものが急成長している。

今回はクラウドの話は割愛するが、この部分が、次世代はもっと進化するということになる。


基本的に、サーバ型というのは「有線ネットワークシステム」であり、サーバにクライアントというものが接続(昔はクライアントサーバとか表現していた)するイメージになる。


よって、サーバ型といっても、オンプレミスデザインになるのであれば、ある意味では集中処理的になっているわけだ。

今のスマホは、クライアント的に使うことが多いのだが、この構造が根底にあるためだ。


さて、それでは次世代システムは何かというと、サーバという概念はあるが、どちらかというとネットワークノード型サーバの概念になる。

もっと極端にいうと、デバイスというものの役割が新しい概念に変わり、コアノードに対して分散通信を行うグループジョブ(西本用語)という単位ができる。


意味がわからないと思うのだが、今までの有線ネットワークシステム型とは違って、次世代の構成は無線ネットワークシステムとなり、クライアントというよりはデバイスとしてネットワーク内でダイレクトなMtoM(マシーンtoマシーン)を構成する概念になる。

これが分散システムの構造であり、DXの根底にある基本概念だと思っている。


この次世代システム構成は2030年以降から急拡大するが、それまでに基礎構造をつくろうというのがWEB3周辺(西本は次世代WEB3までの概念で説明)の話なのだと思っている。

そう考えると、オンチェーン構造にオンプレミスをAPI接続するのは、結果的にオンプレミスと変わらないということになり、それはDXと表現して良いのかというと疑問が残る。


そのようになっているのは、単純にDXの実用化において、DXが求める高度技術が組み込めないという事情がある。

こういう革新的概念を進めるにはベンチャー型アプローチが良いのだが、日本ではベンチャーの立ち上げが弱く、ゆえに既存企業によるDXの理解となるのだろう。


このあたりが、日本が世界のDXが進んでいる方向とズレている部分なのだと思う。

確かに、日本的DXでも良いのだが、法令でDXを整備したとしてもコスト面で実用化ができなくなる構造になっている。


何を言いたいかというと、中国型と米国型のDX構造は、なるほどと思える部分があるのに対して、この日本型というのはオンチェーン+オフチェーンの二重構造が殆どという点である。

これだと、オンチェーン化してもメリットは少ないように思えてしまうのだ。


つまり、オンとオフは、本来は一つで十分に処理できるものを日本は2つも組み込んでいるので、ゆえにコストが2倍で、サービス維持コストが事業収益に見合わない、だから積極的に手を出せないという話になるのだと思っている。

西本的には、DXを真面目に行うなら、全てをオンチェーン型にするべきだと思う。


なお、このオンチェーンは、世間ではブロックチェーン上を意味するが、西本的には暗号分散技術上という定義にしているので、チェーン依存というわけではないし、そうしないと次世代WEB3の実現は厳しいと思うからである。

4月に入ったので、今回は少し踏み込んだ内容にしようと思う。

WEB3.5は昔のブログで少し説明したかもしれないが、それが具体化してきたという話をしよう。

最近、雑誌で「デジタルシェルター(DS)」のことを少し取り上げていただいた 。
※J-CAM社「Iolite 2024年5月号」(2024/03/29発売)「Interview 銀行保証と三井物産の信用力を根拠にあたらしい価値を提供」https://iolite.net/web3/iolite-vol7-new-release/ 


実際のDSに関する事業モデルの説明はまだ機密情報であるため今回は行わないものの、何故そのようなサービスを展開しているかについて少し触れたいと思う。

特にDSの実用化版であるDSS(デジタルシェルター・ストレージ)の対応が相応に大変であるが、こちらは事業向けオンチェーンの自動化処理の概念であり、私はWEB3.5と表現している。


オンチェーンといっても、現代の解釈はブロックチェーン上での稼働を意味しているが、DSSはブロックチェーンの構造と少し違う暗号分散技術(台帳ではなくストレージ)であるものの、スマートコントラクトの制御が関係している意味では、DApps的な概念を考慮した設計である。

WEB3が「モノベースの価値を権利として定義するFT(トークン類)」が主体であるならば、WEB3.5は「ヒトや組織が契約における権利を定義する事業型NFT」が主体になり、当該NFTがFT類とリンクすることで、オープン領域がさらに拡大進化するという哲学的概念をもっている。


DX領域における自動化処理は、WEB3においてDAppsという概念になっているが、DSSでは現状のDApps概念とは少し異なり、事業型NFT(データ構造に制御設定を内蔵)を介在するスマートコントラクト制御の実装をコアとして、これにより従来の紙ベースの契約類がデジタルで表現できることを説明している。

では、なぜ今までこのような概念が実用化できなかったかについては、今までのブログ内での説明のとおりでブロックチェーン機能の限界が存在していた事が大きな理由である。

DSSは、オンチェーン(この場合は、暗号分散技術を指す)にてブロックチェーンの欠点を改善した概念であり、それにより契約類に必要となる第三者対抗要件を説明できるようにした。


そのため、DSSのデータ構造には難易度の高い多項式暗号(量子計算機暗号解析耐性:PQCを持つ暗号)を組み入れているのだが、この構造は実用化において世界初だと思う。

PQCと第三者対抗要件がどのように関係するかは説明に時間がかかるので割愛するが、先のブログにあった4つの課題に対処するには、DSSをつくるしか対処ができないという結論になった。


そういう意味で、PQC特性は本来第三者対抗要件の処理を徹底的に考えた結果、実装された副次的機能であることも事実である。

それくらい、デジタル領域において「第三者対抗要件」は必要であり対処が難しいのだが、逆にそれが実用化できるとDX領域での事業ユースケースは非常に広いという話になる。

DSSというのは、そういうものである。