アカウンタビリティ

実は、とにかく知的な刺激に飢えていて、
頻繁に企業セミナーに参加している。
先日、○○○証券と○○○監査法人が協賛となり
開催していた Innovation Field 2017 という
セミナーに参加してみた。
 
開催場所は・・・
六本木ヒルズ、
森タワー高層階(49F)のアカデミーヒルズ。
街ですれ違う人々がみんな麗しく見えるのは幻想か・・・
ヒルズ、そして都会の快晴の冬空の下、
気分はすこぶる良い。
ラウンジから見下ろす東京の景色は圧巻。
東京湾から千葉まで。
高層のタワービルディングは湾岸側に多くそびえ
建っているのがわかる。
 
セミナーでは、日産自動車取締役の志賀さんや
IBM取締役でクラウド事業本部長の三澤さんの講演から始まり、
その深く洞察のある内容もさることながら、
堂々たる話しぶりにはとても感銘を受けた。
自信に満ちた態度や表情で人前で話す。
今度から真似してみよ。
イメージ 1
さて、午後の最後のセミナーは、
「AIと金融・株式市場」という、
○○○証券と○○大学の共同セッションに
参加したあとの私自身の気づき。
 
セッション内容は、
近年、急速な広がりを見せるFintech、
特に、先端的技術が駆使される株式・金融市場に
焦点を当て、AIを活用した取引や非伝統的手段による
データの活用などの最新事例を紹介しつつ
課題や今後の見通しについて多角的な視点から
討論を行うというもの。
 
その中では、
「株式会社お金のデザイン」という会社の事業内容が、
今後の資産運用サービスや金融のあり方を変えて
いくかもしれない可能性を感じて興味をそそられた。
 
そして、この会社を調べてみると、
取締役会長が谷家衛さん!ライフネット生命の創業にも
かかわった人じゃないですか!
以前から、ビジネスモデルを変えるほどの新規事業を
発掘して挑戦する鋭く目利きの利く起業家だな~と思う。
 
ところで、書きたかったことは「説明責任」について。
最近、AIやFintechという言葉を聞かない日はないのだが、
今日の大きな気付きは、AIのアカウンタビリティについてだ。
 
IBMのAI(ワトソン)について語られるとき、
ディープラーニングとか機械学習という話題があがるが、
たとえば、従来はファンドマネージャーの仕事であった
株価予測や株式投資という職務は、AIに任せてしまえば
少しづつAIの能力が向上、成長して、人間よりも遥かに
優秀な投資パフォーマンスをあげることができるであろう
という話になっている。
 
だが、一方、AIに依存することによって業務処理の内容が
ブラックボックス化してしまうことは、説明責任という
観点から考えてみると、いわばトレードオフの問題を秘め
ているのだ。
 
かなり前になるが、200億円程の顧客の資産を預かり、
国内株式の運用を担当するファンドマネージャーの職に
少しの間、就いていたことがある。
 
自分の資産を運用するデイトレーダーなどは、
勘とはまでは言わないが、自分が値上がりしそう
だと思う銘柄の株を選択して自由に売買することが
できるし、その結果責任を自分で負うだけで済む。
 
しかし、機関投資家としてのファンドマネージャーは、
顧客から預かった大事な保有資産の運用を行っており、
その運用の結果責任とともにその運用方針についての
説明責任、つまりアカウンタビリティが厳格に求められる。
 
たとえば、現在までの世界の経済情勢や為替の推移、
そして政治情勢などの経済ファンダメンタルズの説明から、
その個別企業の業績の推移や新規事業分野への取り組み、
そして、研究開発への取組み状況などを踏まえたうえで、
なぜ、その企業銘柄に、どのくらいの金額を投資して、
いつごろまでにどのくらいの回収見込みであるのか、
そして決算期までには、どのくらいのリターンが得られる
見込みなのかという途方もない説明責任が生じるものだ。
 
アカウンタビリティは、
(企業の)説明責任とも訳される言葉で、
社会の合意や理解を得るために、事業活動や業務内容に
ついて対外的に説明するための倫理責任のこと。
広義においては、経営者が株主や顧客、従業員といった
ステークホルダーに対して、経営方針や資金の使途、
財務情報などについて報告、納得を得るための責務一般
を指す。
 
ただし、狭義においては、
株主総会などにおける会計説明責任という意味合いでも
使われる。財務会計において企業は財務諸表を作成して
財務状況や企業情報などを報告するが、前提として、
これらは相手(株主など)に理解・納得してもらえるもの
でなければならない。
 
資産運用をAIで行った場合、
どのように説明責任を果たすのであろうか?
おそらく、資産運用が成功している間は
大きな問題が起きないのかもしれない。
しかし、何かの不測の事態により、一旦、AIによる
成功方程式が崩れ、予測に反してうまくいかなかった時、
その説明責任を求められるのは必至だ。
 
だが、ある側面では人間を遥かに凌駕する
能力を持つAIの力を過信して業務を行った場合、
その業務の遂行過程の根拠説明を人間が行うことは
極めて困難なように思う。

いや、それどころか、
もしAIに説明させることができても、それは人間が
理解することができない内容なのであろう。
 
近い将来、AIの行う業務において問題が発生した時、
どのような説明責任と結果責任を果たすことができる
のであろうか?このあたりの社会制度や法整備に関しては
今のところ議論されておらず、バランスを欠いている。
 
現在の社会の潮流は、多くの人が得体の知れない
"AI"の活用方法だけに注目し、盲目的にその価値に
考えを巡らせている。まるで過度な期待と不安のバブルを
膨らませているようだ。AIの活用について、
より積極的なアカウンタビリティに関する論議の
盛り上がりを期待したい。