前回のBCPの話を少し補足したいと思う。

中国はすでにスタグフレーション状態であり、米国についても今月末に実施予定の中国制裁関税により、米国自体もスタグフレーションリスクが出てくる。
そもそも、米中関係の悪化要因だろう。

そうすると、スタグフレーションの解消を含めて有事特需というのは、単なる噂ではない可能性が高まっている。

BCPは通常の大災害用は良く知られていて、次の段階のサイバーBCPはKADOKAWAレベルのハッキング攻撃を想定したものになる。
このレベルはランサムウエアやよく言われるゼロデイの攻撃であり、バックアップをさらに拡張するなどの対策が主流となっている。

ただ、このレベルを超える国家アクターの攻撃要因になると、国家アクター型サイバーBCPとして、一段踏み込んだ対応を考える必要が出てくる。
国家アクターの場合、ゼロデイは脆弱情報が非公開の厄介なタイプとなり、量子計算機の暗号解析、さらにはEMP攻撃が対象になる。

EMPはサイバー攻撃の範囲であると主張する国が多く、基本的に有核型は非難が多くなり、使われないだろうとして非核型が研究されているものの、有核型はすでに開発されていることから、有事では使われるとした想定が正しいと思う。
多分、沢山の気球が飛んできて、その中にEMP攻撃機能付が数個あるとか、そういう戦略で精神的ダメージを与えるなどは効果が高いのだろうと考えてしまう。

いずれにしても、国家アクターが関与する上記の有事レベルのBCPを考えるにあたっては、ウクライナがロシアに侵攻を受けた際に米国クラウドに重要情報を退避させたことと同様に、国外に重要情報を退避させないと何がおこるかわからない。

ただし、機密重要情報や個人情報は簡単に国外に持ち出しはできないわけで、その対策が面倒になる。


しかし、有事にはまだ多少の時間があるとすれば、それまでは事前に準備できる期間があるわけで、そうすると重要情報を無意味化するなどの技術導入を考えるのだろう。

実際に、有事を対象としたBCPとして機能させるには、プログラム系(ソースコード等)や業務データベースの保全が必要であり、それなりに大変になるのだが、そういうことが必要とされる時代になっているのだと思う。

BCPとは「事業継続計画」を意味しているが、現状におけるBCP概念は、その多くが大災害などを想定したものであると認識している。

確かに南海トラフ地震のリスクは高くなっているが、その対策は多くの企業で行われていると考える。

問題なのは、7月26日にNISCが主催し経団連が共催した「河野大臣が国内重要インフラ200社の経営陣に話した内容」である。

https://www.digital.go.jp/speech/minister-240726-01

河野大臣の話の中では、「日本は本格的なサイバー攻撃を受ける可能性がある、ゆえに特に重要インフラは対策せよ」という話もあったようです。

その後、国土交通省などが発表した対策などを見ると、上記の話の意味が良く理解できる。


特に政府が懸念するのは、最近のKADOKAWAのような金持ち企業を相手に、「情報流出」などの身代金を要求するような攻撃ではなく、近年の名古屋港やJAXAに対する攻撃のタイプである。

つまり、明らかな意思を持つ、「システムの破壊」である。


サイバー攻撃は多様化する中で、ランサムウエアなどの対策が注目されているが、当然その通りではあるものの、それを具体化するためのもっと厄介なものがある。

「ゼロデイ攻撃」である。


被害の非常に大きなサイバー攻撃の分析事例をみても、「ゼロデイ攻撃」が指摘されているが、その攻撃はネットワーク機器や基盤ソフトウエアなどの未解決の脆弱性を狙ったもので、完全に防ぐことは困難である。

メインフレームへのサイバー攻撃は難しく、日本の金融機関は多少は安堵していると思うものの、日本は国策としてDXを推進することで、2030年には国産メインフレームは撤退との発表である。

現在、金融のメインフレームは、サーバ型に移行中であるが、このサーバ型という集中管理方式がサイバー攻撃の標的になっている事実を考えると、安堵できる時間は少ないと思う。


いずれにしても、2030年には量子計算機による暗号解析まで出てくるので、デジタルの方向性としてはIBMのZシリーズのように対量子暗号システムも含まれた全方位型暗号化方式を選択するのか、もしくは分散DMPに対処していくのか、そういう話になりそうだ。

こういうサイバー攻撃まで想定した、新しい概念が「サイバーBCP」である。

システムのフルバックアップは、今までの大災害を想定したIT-BCP概念としては正しいが、上記のようなシステムの環境が変化する過程において、メインフレームと同じように形を変えていく必要がある。


ただ、2030年には、こういうデジタル化が発展していくことに対し懸念もある。

AIが電力を食うために電力価格の安定化を行う技術が出てきて、よりデジタル処理が主体になること、そして最終的にはAIがヒトの知能労働を奪うという、こういう世界がDXの現実になる。


また、そのDX化を積極的に支援するのは、皮肉なことにZ世代の人たちになるのだと思う。

デジタル時代とは、ヒトとコンピュータが融合するという、想像するのが難しい時代になるのだろう。


ルネサンス的な進化なのだろうか。

DXは、2030年位に具体化しそうな「次世代分散コンピューティング」の処理方式であると理解している。

 

その基本となる分散処理概念において「オンチェーンの構造」がある。

 

これは、ブロックチェーン上の業務処理を意味するが、現在のWEB3概念から、次世代WEB3となるデジタル金融を経てDXに通じる概念である。

 

 

つまり、オンプレミス(以下、オンプレ)などの、既存の「情報や処理が集中する概念」を分散型にシフトさせることがDXの向かう方向であると思う。

 

そもそも、オンプレはクラウドの対語であるが、オンプレでも分散型の情報管理や処理を行うものはオンチェーン概念であり、その点では良い面も多いと思うのだが、実際のオンプレはほぼ全てが集中型である。

 

 

DXでの課題の一つであるスケーラビリティ問題に対処するためには、クラウドリスクに向き合う必要があり、そういう点でもオンプレ方式とDXの関係は、今までの常識とは違う点が多い。

 

 

その中でも、なぜ集中型がDXで良くないのかというと、今までは問題がなかったが、情報や処理が集中していることから、最近の活性化するサイバー攻撃において、集中型のほうが効果的に攻撃できるため、攻撃の対象になりやすくなっているからである。

 

特に重要データが集中する部分には、相応のセキュリティコストがかかるのだが、今後の情報増にあわせて、セキュリティを強化していく必要があり、そのためのコストが無視できないからである。

 

また、セキュリティを強化していくと、情報の制御が必須となり、その利便性が下がることになり、結果的にビッグデータに企業や個人の情報を組み合わせた、情報解析とアドバイスサービスのレベルが下がることになる。

 

さらに、極めつけは機能間接続の方法が根本的に違っていることである。

 

 

オンプレの業務的処理の殆どは、IPアドレス単位でアクセスセキュア強度を判定しており、その先にAPIによる仕様接続がある。

 

オンチェーンは、このあたりの構造が全く違っていて、ブロックチェーンアドレスによる「暗号認証型アクセス権制御」が基本になっている。

 

つまり、認証自体が接続セキュリティに大きく関係しているのである。

 

 

業務型オンチェーンでは、非金融(小口決済を含む)領域は「KYCパーミッションレス型=分散ID概念」であり、金融が関係する領域ではパーミッションド分散口座のアプローチになり、ともに特定の情報へのアクセス権制御であることから、情報が分散されることで、特定攻撃の意味が薄れる。

 

世界はアクセス権制御を主体と考えたパーミッションの分散型構造を進めているが、日本は既存業務サービスが支配しているオンプレ集中型が中心にある。

 

ともにブロックチェーンを使っていても、使い方のデザイン価値観に大きな違いがあり、その意味ではオンプレミス集中型では、長期戦になっていくと非効率な処理になり、分散型と比較し不利な展開になると思う。

 

 

今後、デジ庁がマイナンバーを中心に、免許証や保険証など色々と組み込んで、個人特定(KYC)サービスの中心になると思うものの、金融での口座の概念は意味が深く、KYCだけの話ではない。

 

 

例えば、口座ではAMLを主体に資産情報、契約や取引など、非常に厄介な情報管理が多いわけであり、それらは信用管理につながっている。

 

そして、この与信処理については、DXでは中小企業や個人は、今までの与信管理とは違う概念として処理することになる。

 

 

あと6年でDXが本格稼働するタイミングにおいて、本来のDXデザインのシステムを今から準備しているのだが、さすがに今まで作った多くのシステム資産を作り変える必要性を感じている。

 

 

日本においてDXが進みにくいと言われているが、実際はDXサービスを作ってみたら、もっと色々な課題が見えてきて、それらに対処しているため、まだ前に進みにくいという感じだと思う。

 

ただ、この生みの苦しみを超えることができた企業は、次のDX時代に生き残れると思う。

 

 

それくらい、DXは今と違うシステム処理であることは間違いない。

 

 

「デジタル赤字」が10年で2.5倍に膨れていると、メディアが頻繁に報道するようになった。

日本ではDXを推進する動きがあるが、これは2030年位を目途に、デジタルをトランスフォームする概念である。

何をトランスフォームするかについて、それはオンプレミスを指しているが、今の日本はデジタルにお金をかけて理解しようとしているが、トランスフォームできないというのが問題なのだと思う。

オンプレのAPI接続でも良いが、分散処理においては非効率で高コストになると考えるため、やはり非効率だからDXを推進するなら、オンプレデザインを考えたほうが良い。

2030年頃には、6G分散通信を主格に、AIが相互にリンクするM2Mや、その土台となるHPCクラウドが本格稼働するが、そもそも通信以外の分野は外資サービスが仕切っている状態であり、DXになったところで「デジタル赤字」はさらに拡大するのだろう。

また、GAFAMあたりは上記にビッグデータを所有できていることもあり、情報解析のレベルは今とは比較にならないものになると思う。

この情報領域に対して、分散DMPという概念があるが、これは今までのDMPと少し違うオープン型のビッグデータ構造である。

つまり、このあたりまで考慮したDXでないと、6Gを導入して光通信網を整備したところで、あまり成果がでないことも確かである。


このDXというのは、つまり「分散コンピューティング」の本質を追求した形であり、次世代WEB3として事業体が分散形式のシステムにトランスフォームすることを意味している。

ただ、日本はオンプレミス信仰があり、このDXの概念において前向きなモチベーションが出てこない状況であるため、どうしても本質的な分散処理にはならない動きになっている。

特に金融領域はオンプレ主体の日本独自の構造を狙っているようだ。


確かに新聞やテレビは、昔ほどの力はないがそれなりのシェアが残っている状況を見ると、今後のDXが出てきても、それなりに現状のサービスは残ると見ているのだろう。


しかし、本当にそうなのだろうか。

今回のDXは情報だけではない、もっと深い領域にアプローチしている。


日本が海外に対して圧倒的に問題であるのは、地方創生がどうのこうのと言う前に、中小企業力が非常に弱いことである。

では、そのあたりをどうすれば良いのかという点だが、その前にセキュリティを徹底して強化していかないと駄目だと思う。


この先はさらにデバイスが多くなり、今よりもサイバー攻撃経路は増えることは事実である。

結果的に今の構造ではセキュリティコストが上がりすぎて、業務利益が確保できなくなることが一番の問題になる。


より安価でセキュア強度を真剣に考えている分散サービスが、2030年には主力になると考えるのだが、DS(デジタルシェルター)の基本概念はそのあたりであることも事実であるものの、DSはそもそも暗号領域に頼っていない。

暗号は、どちらかというとリテール領域では非常に良いと思うのだが、ホールセール領域においては違う概念を実装しないと、そのリスクを回避できない。


暗号処理というのは、結果的に鍵管理から逃れられないため、フロントのセキュリティよりも内部犯行とか運用者経由とか、そのあたりをどうやってガードするかが、セキュリティデザインということになる。

DX時代に本当に怖いのは、実は進化するサイバー攻撃だと思う。
 

DXは6G分散通信、AI(第三世代が主格であるが、第二世代も相応に進化)、ブロックチェーン、IoT/HPCなどのキーワードが連なる新構成の概念である。


ブログ62では、日本は「木を見て森を見ず」という大枠概念的な表現を使ったが、これは日本事業体の殆どは短中期に事業計画が集中しており、中長期計画は先延ばしにする傾向が強いという話である。

ブロックチェーンの非中央処理はGAFAMを否定する概念であるが、逆にGAFAMあたりは、自らが管理するビッグデータに対し、AI強化のアプローチを明確にしている。

ゆえに、事業デザインをどのようにDX的に描けるかという話になるのだが、前回のブログでは日本は「オフチェーン」主体の概念になっているという話であり、それ自体を悪く言っているように見えるかもしれないが、私が否定しているのは、そのデザインがオンチェーン構造に対して正しいバランスをもっているのか?というと既存デジタル技術の延長線上でしかないように見えてしまうという点である。

常に日本は短期間で成果を求める特性が強く、結果的に中長期に入る段階で事業デザイン(つまり、その時における収益構造)で負けるというのが続いている。

※通信や半導体の部分は積極的な補助が行われているのだが・・・・。


今回のDX構想も、今までと同じ負け路線に向かっているように見えることが悩ましい。


そもそも、「オフチェーン」に対して「オンチェーン」の概念があり、「オンチェーン」はブロックチェーン上の処理(処理の流れが記録される)を意味している。

ブロックチェーンではレイヤーの概念があり、メイン(基盤)チェーンの処理としてレイヤー1があり、その領域をセキュリティと分散性で説明している。

当然、システムバランスというのがあり、こうなるとレイヤー1ではスケーラビリティが駄目になるので、それを補完するためにレイヤー1に接続するサブ的なレイヤー2の概念が出てくる。


主に「オンチェーン」とか「オフチェーン」という概念は、実サービスの使いやすさを主体とした、この「レイヤー2」に設定されている言葉である。


「オフチェーン」というのは、ブロックチェーン以外の方法で対処する概念で、オンプレミスが主体で、そのAPI接続部分等までが該当する非公開処理である。

ちなみに、このレイヤー2における「オンチェーン」側が、「サイドチェーン」の概念である。


また、最近では、レイヤー1のコンセンサス処理を効率化することなどで、レイヤー2を持たないチェーンもあるので、色々と進化していることは確かである。


それと並行する形で、6G分散通信とペアをなすHPC概念があるが、これは分散コンピューティングを目指すもので、各レイヤーに関係することもあれば、AIのビッグデータ処理に関係する場合もあり、いずれにしてもHPCのユースケースは増えるのだと思う。

このHPCは、今までがスマホ進化であったことに対して、AIの時代にシフトする場合に深く関係する概念でもあるのだが、結果的に西本が言っていたAITというのは、HPCのクラスタやグリッドの構成概念に非常に近いものである。


ただ、私の中には、チェーン側を主体にするためにもう一つの概念があり、レイヤー1や2において、データ構造自体を制御する概念が重要であると考えている。

結果的にAIが出てくる時代における新概念(つまり、GAFAMアプローチではない)のビッグデータ構造を考えると、それがチェーン上で構成する場合に、今の暗号技術の主格であるRSAと同様に、ブロックチェーンにおいてもセキュリティ面で劣化する指摘がでてくるときにどうするのか?という疑問があるからだ。


多分だが、AIやHPC構造に対して日本は後手であり、その領域で対抗しても勝てない位に差が出てきたように思う。

だから、海外勢とは少し違うところ(つまりデータ構造処理)で、AITを実現したいというのが私の考えになる。


このあたりが整備できてこそ(日本流の)DXだと考えるのだが、この話は長くなるので、また別の機会にしたい。
 

2030年を目途に実用化が進む「次世代分散通信」だが、この威力を理解できているヒトは少ないと思う。

今のような「双方向通信」と言わない理由があるのだが、メインフレームの時代にクライアントサーバ(クラサバ)を説明してもわからなかったのと同じ位に、今のクラサバ概念と違う部分が多くある。

確かに、新インフラが出来たとしても、今のシステム環境が急に変わるものではないが、それでも2040年位には新構造が一般的に高く評価され、クラサバからのリプレイスはそれなりに進むような流れを感じる。

インタートレードが新技術にトライしているのも、結果的には2030年あたりをターゲットにしているのだが、それまでの約6年間は色々な基本機能の開発が主体になり、目先の成果が出るものではない。

それくらい、広範囲の構造が違うものになるのだが、何もしないリスクのほうが大きい認識であり、ゆえに大変だが対処している。

この新構造のコアは、簡単にいうとM2M(マシーン間の意思接続)の実現にある。

ユビキタスというか、「AIT」という言葉を昔に表現していた構造を意味している。


M2Mの概念はクラサバでいうAPI接続の概念ではなく、AIコミュニケーションという表現が正しい。

だから、DXで言われるような6G通信、IoT、AI/ビッグデータ、暗号分散技術と、その組み合わせの理解は重要であり、その頃には各機能が相互補完し、優れたサービスが提供できるようになると考える。


上記でも具体的なイメージが浮かばないと思うのだが、クラサバにおいてもクラウドの概念が出てきたときに、その理解に苦しんだヒトは多いと思うが、そのクラウド概念がさらに進化するわけであり、クラサバに慣れたヒト達にはハードルが高いことは事実である。

このような補完という関係や概念は、チューニングにおいて重要である。


例えば鉄筋コンクリートがビルなどの主体構造になっているが、鉄筋とコンクリートを組み合わせるのは大きな意味がある。

圧縮力と引っぱり力に対し、鉄筋は引っぱり力に強く圧縮力に弱いが、逆にコンクリートは圧縮力に強く引っぱり力に弱い。

つまり、相互に強弱があり、それを組み合わせて補完することで最強になるわけだ。


この概念はシステムでも同じである。

今のシステムの欠点を補う方法が常に考えられており、その結果が2030年あたりに出てくるプロダクト類になる。


あまり具体的な話が出来なくて申し訳ないが、本物のデジタルの切り替えは簡単なものではない。

ただ、具体化する段階では、今のシステムより数段のメリットが出てくることが予測できる、そういうものである。

ヒントとしては、M2Mを本当に実現するのであれば、それはクラサバでは難しく、クラウドは相応に有効であるものの構造は変わる、そんな感じである。
 

DXというデジタル事業の「本質」は何かという部分を、日本はあまり理解ができていないような気がしている。

DXはデジタルの広い領域を意味するという意見が多いのだが、本当は広い概念というより、マシーン(M)によるダイレクト処理という概念だけだと思っている。


金融においては日本は間接金融が主体であり、先進国の中では異質の構造があるが、デジタル金融においても同様の流れを感じる。

そもそも、デジタル金融とは、間接金融が直接金融にシフトする事ではなく、ダイレクト型の金融になることだと理解している。


しかし、日本では間接金融の一部をチェーンに載せて、それをデジタル金融という定義にしている。


そもそも、ダイレクト金融はチェーン内で完結する構造であるから、日本概念は「?」に見えてしまう。


ブロックチェーンというのは暗号分散技術の一つであるが、そこに分散IDや分散アプリケーションなど、「分散」という基本概念がある。

この「分散」の概念は「集中」の逆であるが、システムにおいて過去はメインフレーム(集中処理型)からサーバ型になって、サーバ型では分散に見えているようだが、実はまだ完全に分散にはなっていないのだ。

サーバという物理構造が分散していて、内部の構造は実は集中処理概念が多い。


このタイプのサーバ型というのは、大雑把に言うとオンプレミス型のものを指すのだが、それが近年ではクラウドという進化になり、オンプレミス概念とは違うものが急成長している。

今回はクラウドの話は割愛するが、この部分が、次世代はもっと進化するということになる。


基本的に、サーバ型というのは「有線ネットワークシステム」であり、サーバにクライアントというものが接続(昔はクライアントサーバとか表現していた)するイメージになる。


よって、サーバ型といっても、オンプレミスデザインになるのであれば、ある意味では集中処理的になっているわけだ。

今のスマホは、クライアント的に使うことが多いのだが、この構造が根底にあるためだ。


さて、それでは次世代システムは何かというと、サーバという概念はあるが、どちらかというとネットワークノード型サーバの概念になる。

もっと極端にいうと、デバイスというものの役割が新しい概念に変わり、コアノードに対して分散通信を行うグループジョブ(西本用語)という単位ができる。


意味がわからないと思うのだが、今までの有線ネットワークシステム型とは違って、次世代の構成は無線ネットワークシステムとなり、クライアントというよりはデバイスとしてネットワーク内でダイレクトなMtoM(マシーンtoマシーン)を構成する概念になる。

これが分散システムの構造であり、DXの根底にある基本概念だと思っている。


この次世代システム構成は2030年以降から急拡大するが、それまでに基礎構造をつくろうというのがWEB3周辺(西本は次世代WEB3までの概念で説明)の話なのだと思っている。

そう考えると、オンチェーン構造にオンプレミスをAPI接続するのは、結果的にオンプレミスと変わらないということになり、それはDXと表現して良いのかというと疑問が残る。


そのようになっているのは、単純にDXの実用化において、DXが求める高度技術が組み込めないという事情がある。

こういう革新的概念を進めるにはベンチャー型アプローチが良いのだが、日本ではベンチャーの立ち上げが弱く、ゆえに既存企業によるDXの理解となるのだろう。


このあたりが、日本が世界のDXが進んでいる方向とズレている部分なのだと思う。

確かに、日本的DXでも良いのだが、法令でDXを整備したとしてもコスト面で実用化ができなくなる構造になっている。


何を言いたいかというと、中国型と米国型のDX構造は、なるほどと思える部分があるのに対して、この日本型というのはオンチェーン+オフチェーンの二重構造が殆どという点である。

これだと、オンチェーン化してもメリットは少ないように思えてしまうのだ。


つまり、オンとオフは、本来は一つで十分に処理できるものを日本は2つも組み込んでいるので、ゆえにコストが2倍で、サービス維持コストが事業収益に見合わない、だから積極的に手を出せないという話になるのだと思っている。

西本的には、DXを真面目に行うなら、全てをオンチェーン型にするべきだと思う。


なお、このオンチェーンは、世間ではブロックチェーン上を意味するが、西本的には暗号分散技術上という定義にしているので、チェーン依存というわけではないし、そうしないと次世代WEB3の実現は厳しいと思うからである。

4月に入ったので、今回は少し踏み込んだ内容にしようと思う。

WEB3.5は昔のブログで少し説明したかもしれないが、それが具体化してきたという話をしよう。

最近、雑誌で「デジタルシェルター(DS)」のことを少し取り上げていただいた 。
※J-CAM社「Iolite 2024年5月号」(2024/03/29発売)「Interview 銀行保証と三井物産の信用力を根拠にあたらしい価値を提供」https://iolite.net/web3/iolite-vol7-new-release/ 


実際のDSに関する事業モデルの説明はまだ機密情報であるため今回は行わないものの、何故そのようなサービスを展開しているかについて少し触れたいと思う。

特にDSの実用化版であるDSS(デジタルシェルター・ストレージ)の対応が相応に大変であるが、こちらは事業向けオンチェーンの自動化処理の概念であり、私はWEB3.5と表現している。


オンチェーンといっても、現代の解釈はブロックチェーン上での稼働を意味しているが、DSSはブロックチェーンの構造と少し違う暗号分散技術(台帳ではなくストレージ)であるものの、スマートコントラクトの制御が関係している意味では、DApps的な概念を考慮した設計である。

WEB3が「モノベースの価値を権利として定義するFT(トークン類)」が主体であるならば、WEB3.5は「ヒトや組織が契約における権利を定義する事業型NFT」が主体になり、当該NFTがFT類とリンクすることで、オープン領域がさらに拡大進化するという哲学的概念をもっている。


DX領域における自動化処理は、WEB3においてDAppsという概念になっているが、DSSでは現状のDApps概念とは少し異なり、事業型NFT(データ構造に制御設定を内蔵)を介在するスマートコントラクト制御の実装をコアとして、これにより従来の紙ベースの契約類がデジタルで表現できることを説明している。

では、なぜ今までこのような概念が実用化できなかったかについては、今までのブログ内での説明のとおりでブロックチェーン機能の限界が存在していた事が大きな理由である。

DSSは、オンチェーン(この場合は、暗号分散技術を指す)にてブロックチェーンの欠点を改善した概念であり、それにより契約類に必要となる第三者対抗要件を説明できるようにした。


そのため、DSSのデータ構造には難易度の高い多項式暗号(量子計算機暗号解析耐性:PQCを持つ暗号)を組み入れているのだが、この構造は実用化において世界初だと思う。

PQCと第三者対抗要件がどのように関係するかは説明に時間がかかるので割愛するが、先のブログにあった4つの課題に対処するには、DSSをつくるしか対処ができないという結論になった。


そういう意味で、PQC特性は本来第三者対抗要件の処理を徹底的に考えた結果、実装された副次的機能であることも事実である。

それくらい、デジタル領域において「第三者対抗要件」は必要であり対処が難しいのだが、逆にそれが実用化できるとDX領域での事業ユースケースは非常に広いという話になる。

DSSというのは、そういうものである。
 

DXのメインであるオープンの概念について、日本は対応が遅い状況に見えますが、世界的に見ても対応が難しいエリアがあります。

海外の場合は、対応できる部分(つまり小口領域)から先行するのですが、日本は重箱の隅をつついてしまい、なかなか進まないというところです。

さて、難しいエリアとは何かというと、いくつかあるものの大きくは以下の4つくらいが気になります。

 ①大口の金融領域で、これは量子計算機の暗号解析による攻撃が想定されるもので、現状は問題ないものの数年後には有効な手段がないため、下手に構築できない。

 ②個人情報のオンチェーン管理で、ブロックチェーンは台帳(チェーンが切れない)でありデータベースではないことから、個人情報の削除要求を満たせない。

 ③現状では先行開発や実際の利用におけるコストが収益モデルを超えていることより、サービス化に踏み切れない。

 ④セキュアと利便性は相反する関係にあるが、オープン型ゆえにセキュア側に重点を置いていることで、利便性が悪くなっているサービスが多い。


誤解のないように説明しますが、上記の①~④は期待ハズレのように見えますが、実はその大きなメリットを考えると、現状では問題ではあるものの、数年後には対処できていることで、いずれにしても世界はオープン化を進める方向にあることは確かだと考えます。

少なくとも、この1年でのオンチェーン領域の進化は素晴らしいものがあり、各段に良くなっていることも事実です。


とりあえず、上記の①~④に対応する必要があり、それは近い将来に解決できると考えている次第です。

ただ、現状では収益が得られない中で、大変な作業であることも事実であり、こういう先駆者はどれだけ我慢できるかが勝負所なのでしょう。


このあたりが対処できれば、政府が力説する「デジタル資本主義」の概念が実現できるわけで、それにより「リテール」と「ホールセール」のデータ領域における新事業概念が具体化することになり、結果的に第四次産業の経済循環が動き出すことになるのです。


また時間のあるときに、話題にしたいと思います。
 

前回、「セカンドフィンテック」の話をしました。

「フィンテック」の「ファースト」段階は「仮想」領域の話ですが、「セカンド」段階は「現実」世界の話です。

ある意味、「ファースト」段階は「実害の出るセカンド」の実用化の前(確認)段階だと認識しています。

近年、「ファースト領域」が整備されてきたことで、「セカンド領域」も少し動いてきたように思います。

この「セカンド領域」について、前回は「オンチェーンデータ事業」に関し少し触れました。


日本はそもそも事業の形というのが「集中的に行うことで効率化する」概念だと理解しています。


「総合商社」「総合家電」等々「総合=集中的な概念」が色々とありますが、「金融」も銀行や証券という枠は違うものの、基本的には「集中」概念が多く残っています。

過去形になるのですが、例えば「手数料系の統一」であり、「中央(政府)の指示に従う金融」という概念がありました。


「護送船団方式」とか言っていた方法です。


その他では、証券取引所なども日本は注文集中型です。


この「集中」や、それに対する「分散」は良い面と悪い面が背反しているのですが、それではデータに関してはどうでしょうか。


欧米はGAFAMのようにデータはそれなりに集中させていて、「ビッグデータ」という概念を持っています。

しかし、日本は「総合」事業など、政府組織や企業は1つの団体が大きくなり、縦割り社会となっていることから、データがそこから出ていきません。


つまり、日本では「データ」だけが逆に「分散」していて、「ビッグデータ」にはならないのです。

ただしくは、「ビッグデータ」は「集中データ」のことですが、データを管理している技術は暗号分散にシフトしてきているのです。

簡単に言いますと、日本は暗号分散技術が弱くて、データ事業も遅れ始めているということになります。


結果的に、今後に期待されている「ビッグデータ事業(AIによる解析などによる産業の発展)」が遅れる結果になっているように思います。


「データ事業」について、オープンの概念として考えると、処理は分散へ、データは分散管理していてもサービス的には「集中」させているということを理解すべきなのです。


特に、このオープンの段階では、企業情報よりも個人情報の処理に重点が置かれてきます。

個人情報というのは、情報の中でも規制が最大レベルのものですから、簡単に管理することができません。

その中で、WEB3では個人認証という概念が進み始めています。


WEB3を言うのであれば、SSI/DID/VC、このあたり(個人認証)の概念を最初に理解しないと駄目です。

逆に言うと、このあたりまでは今の段階では対処できるということです。


しかし、これは個人情報をオフチェーンで管理し、その結果をオンチェーンで使うということであり、全てをオンチェーン化する構想の中では非効率であることは確かです。

個人情報をブロックチェーン等で管理できないことは、以前にも話題にしましたが、「情報を管理しているブロック」のチェーンが切れないため、個人情報の削除要求に対処出来ないためです。


ブロックチェーンは「台帳」であって「データベース」ではないのです。

しかし、この「台帳」を少し「データベース」のような処理にできれば、それは個人情報が扱えるようになるのです。

この技術がとても難しくて、世界でも実用化レベルにはなっていないと思います。


こうなると、ブロックチェーンの技術を使った、新しい暗号分散技術になるということであり、このあたりが「セカンドフィンテック」になると考えます。


もう少し簡単にいうと、個人情報をオンチェーンで管理できれば、企業や個人が持つ情報がオープンの世界に出てくるわけです。

この、「情報を売る」ことによるマネーの獲得ロジックが裏にあるため、モチベーションがサービスに出てくるためです。

サービスというのは、何等かのモチベーションが無いと駄目なのです。


こうなると、企業などが隠していたデータが表面に出てきて、オープン的なビッグデータが出来るわけです。


このあたりが、日本ではやらないといけない話だと思うのです。


ただ、内容が個人情報なだけに、オープン化する時に、個人特定情報を該当データから外して活用する概念はまだ良いとしても、それでは解析情報自体が弱くなる(この理由は別の時に説明します)ため、その問題を解決するには、個人そのものの情報を提供することも必要になります。

ここが技術的に難しくなるのです。

つまり、企業が管理する個人情報ではなくて、それを個人に戻して個人が自分の情報を管理し、個人の意思でオープン化する、こういうところです。

そういう重要情報を個人が簡単に管理できないと、このあたりの対応は難しいのです。


それでは、そのような個人情報が売れるというニーズがあるのかというと、実はとても「ある」のです。

詳細は別の時に話しますが、ビッグデータ事業の本質が理解できると納得するはずです。


本来、個人の重要情報が、利用制限をかけて広がらない形とした情報で、それが10万円で売れるなら売るヒトが出てくると思うのです。

そして、そんな情報が10万円の価値があるかについては、確かに需給関係で10円程度の弱い情報価値しかないものが多いと思うのですが、まれに重要な情報があります。


このあたり、10万円は簡単に超える価値があったりしますので、そういう情報の検索を含め、取引を行うという概念が出てくるわけです。


昔から、西本はトークン類についてはリアルアセットを考えてきて、まず「ステーブル型のゴールドコイン」を認可していただきました。

FT型RWAです。


これを作るのはとても大変でした。

流出リスクへの対処は当然として、コイン型ですから発行権を奪われるリスクの排除を徹底したわけです。


この時から、量子計算機による暗号解読攻撃リスクを回避するなどの方法を考えてきたのですが、こういう「データ保全」の実用化を真剣に取り組んでいるわけです。


この技術が「個人情報を守る」という事業領域のサービスに繋がっているのですが、上記のFTサービスに対して、このリアル価値を持つ情報などのNFT型RWAの実現が見えてきて、それがこの先数年以内に出てくると考えています。

このNFT型RWAが、今のNFTマーケットとは違う形で、もう一つの非常に重要なNFTマーケットに成長していくと思います。

次世代のNFTは、実はビッグデータ事業そのものであり、それがセカンドフィンテックなのだと考えます。


それでは、次の話題は、この先に金融機関はどうすれば良いのかのヒントに触れたいと思います。

銀行や証券、信託あたりのリテール系は、オープン技術の先進事業体が稼働してくると非常に厳しい環境になると思うのです。

証券では手数料ゼロという動きですが、実はそんなレベルの話ではなくて、もっと厳しくなりますし、そのように世界が動いているので、日本でも一部の金融機関が準備をしているのです。

そういうところを、多くの金融機関が理解していないことも事実かと。