映像の世紀バタフライエフェクト「巨大事故 夢と安全のジレンマ」 | 日々是本日

日々是本日

bookudakoji の本ブログ

 4月8日に放送されたNHK映像の世紀バタフライエフェクト「巨大事故 夢と安全のジレンマ」を観た。

 

【NHK+】配信期限:4月15日午後10時44分

タイタニック号の沈没、ドイツの飛行船ヒンデンブルク号の爆発、583人の犠牲者を出し、航空機史上最悪の事故と呼ばれる「テネリフェの悲劇」、スペースシャトル・チャレンジャー号の爆発事故。未知への挑戦を続ける中で、巨大事故が何度も引き起こされてきた。そして人間は同じ過ちを繰り返さないために原因を究明し、安全を目指す闘いを続けてきた。私たちは巨大事故の悲劇とどのように向き合い、乗り越えようとしてきたのか。

※上記の公式サイトより引用

 

 NHK映像の世紀バタフライエフェクトは2022年4月からスタートした、映像の世紀シリーズの新企画番組である。

 新企画であるバタフライエフェクトの趣旨は、個々の出来事の連鎖が予期しない結果をもたらすという観点で、起こった後だからこそ関連していたことがわかる個々の出来事を取り上げるというものである。

 この番組は歴史的事実を中心とした内容なのでこのブログでは殆ど取り上げないのだが、今回はまず映像で見ておくだけで意味があると感じたので、ブログ記事にすることにした。

 

 番組の紹介が目的の記事なので、本文は短い。(笑)

 

 

以下、本題

 番組ではまず、あまりにも有名なタイタニック号の事故の話から始まり、ドイツの飛行船ヒンデンブルク号の爆発事故、その後の幾つかの航空機事故、スペースシャトルの爆発事故と続いて、お約束の原発事故の話になる。

 

 番組全体45分の内、最初から40分弱の間、これらの巨大自己の実際の映像とその原因と対策の話が延々続いていく。

 

 観ていると個々の事故についての感想はもちろんあったが、巨大事故がこんなにも脈々と起こっている事実を映像で振り返るという体験そのものに一番の意味があると思われた。

 

 そして、最後の五分の主な内容はこうであった。

 

 ドイツは2011年に原発を完全に稼働停止にした。

 

 一方、フィンランドでは最初から事故は起こるものとして設計するフェイルセーフという考え方で、オルキルオト原発が建設された。

 

 アメリカでは1万人を収容できる旅客船が就航した。

 

 航路はAIが決めるという。

 

 AIによる自動運転も実用化され始めているが、事故も起こっている。

 

 民間の宇宙開発企業であるスペースXは巨大ロケットの着陸実験に何度も失敗しているが、開発を進め続けている。

 

 スペースXのCEOであるイーロン・マスクのインタビュー映像での言葉はこうであった。

 

多くの人は、科学技術は黙っていても進歩すると思っているかもしれませんが、それは間違いです。

多くの人が熱心に働き、始めて技術は進歩していくのです。

技術は放っておくと劣化していくだけなのです。

 

 最後は、日航機墜落事故の現場である御巣鷹山をドキュメンタリー作家・柳田邦男が慰霊に訪れる映像で終わる。

 

 ナレーションによって朗読されたのは、柳田邦男「『人間の時代』への眼差し」からの下記の引用であった。

 

科学技術の発展は人間にとって大きな大きな福利をもたらす。

プラスの面がある一方で、個人や社会に損害を与えるマイナスの面が必ずといってよいほどある。

本来主人公であるべき人間にとって、科学技術はどうあらねばならないかを原点に帰って考えるべき時期ではなかろうか。

 

▼柳田邦男「人間の時代への眼差し」講談社1994

 

「人間の時代」への眼差し (講談社文庫)

 

 番組の最後でイーロン・マスクの言葉と柳田邦男の言葉を取り上げたのは、技術開発は人間が行っていくものであるということを前提としながらも、劣化しないように発展さてせいくべきという推進派の意見と、科学技術のあり方を考え直すべきという慎重派の意見を対比的に提示する意図だろう。

 

 柳田の科学技術のあり方を考え直すべきというのは一般論として実に真っ当であるが、言われ続けてきている一般論でもあるので、ここでは個人的に思ったことを幾つか挙げておきたい。

 

 まず、事故というものは規模の大小によらず起こるものであり、事故に対してその原因と真摯に向き合う姿勢が、日頃から必要だろう。

 

 こう思う理由の一つは、畑村洋太郎さんの失敗の研究を思い出したからである。

 

▼畑村洋太郎「失敗学のすすめ」講談社2000/講談社文庫2005

 

失敗学のすすめ (講談社文庫)

 

 尚、畑村さんが立ち上げた失敗学会のサイトにはこんなデータベースもある。

 

 

 次に思うのは、フェイルセーフという考え方で設計してもAIを導入しても、事故の起こる確率はゼロにはならないし、想定外のこともやはり起こるだろうということである。

 

 そして更に、技術開発は止まらないだろうと考えると、開発した技術は管理されねばならないが、これを行うのもまた人間であるという点が憂慮される。

 

 やはり恐ろしいのは人間である。


 科学技術よりも人間である。
 

 恐ろしいのは科学技術そのものではなく人間である、ということを肝に命じるべきである。

 それ故、一番強く思ったのは「科学技術はどうあるべきという」ことよりも先に、「人間はどうあるべきか」を考える時期なのではないかということであった。