水中カメラマンのデスクワークな日々
ブログの更新が疎かになっていますが、

X や instagram や facebook の方はできるだけ頻繁に更新するようにしています。

フォロー頂けると幸いです。


https://x.com/satoagg


https://www.instagram.com/sato.aqua_geo_graphic/


https://www.facebook.com/SATO.Hiroshi.0614

1 | 2 | 3 | 4 | 5 | 最初次のページへ >>

3D VR180 撮影用途を前提としたアクションカムの広角設定での画角比較

私の 3D VR180 映像は、主に GoProのようなアクションカムを2台並べて撮影します。 

 

アクションカムの他、

Panasonic Lumix GH5+GH6、

SONY α6100+6400 

の小型ミラーレス一眼を2台並べて撮影する事もありますが、 機動力を重視し使用頻度は、アクションカム2台をジンバルに乗せて撮る事が圧倒的に多いです。 

 

使用するアクションカムは、2025年12月の時点では、 

昼間の撮影では、

MAX レンズ2.0を付けた GoPro HERO 13 Black、 

夜間の撮影では、今月から 

DJI Osmo Action6 

をメインに使用しています。 

 

今回は、3D VR180 撮影用途を前提としたアクションカムの広角設定での画角比較をまとめてみました。

 

GoPro HERO 13 BlackにMAX レンズ2.0をただ付けた状態にすると、ほぼ全周180度の円周魚眼レンズのよう映像が撮れます。 

(実際は180度より少し広い)

 

MAX レンズを付けない GoPro Hero 13 の Wide(8:7)の画角は次画像の黄色枠です。

(背景画像は比較用に Maxレンズを付けたGoPro13の画角画像)

 

 

DJI Osmo Action6 の 1:1アスペクト比の「広角」の画角は次画像の黄色枠です。

 

 

「超広角」ではなく「広角」を使用するのは、ジャイロデータが保存されるのが「広角」のみだからです。(詳細は後述)

 

ちなみに、夜間撮影に強いとされる Insta360 ACE Pro2のFreeFrameモードでの画角は次画像の黄色枠です。

4:3記録なので、幅はAction6とほぼ同等ですが、上下が多少カットされます。

 

 

私が今まで夜間撮影用に使用していた Insta360 ACE Pro の FreeFrameモードでの画角は次画像の黄色枠です。

ACE Pro2 よりは狭い画角になります。

 

 

DJI Osmo Action6 には、GoProのMAXレンズのような FOVブーストレンズという超広角レンズがあります。

ただ、残念な事にFOVブーストレンズを付けると、1:1の正方画像の設定はできなくなり、16:9の縦長画像もしくは横長画像のどちらかの設定しかできなくなるようです。

 

夜間撮影専用の用途と割り切れば、通常の「広角」設定でも実用上あまり問題は無いともいえます。

ただ、もう1点残念な事は、ジャイロデータが保存されるのが「広角」のみ、

つまり「超広角」設定ではジャイロデータが保存されないのです。

 

VR180用途を考えれば「広角」よりは「超広角」で使用したいのです。

 

私がジャイロデータ保存に拘るのは、手振れ補正アプリの「Gyroflow 」を使用したい為、

 

Action6には RockSteadyという手振れ補正機能が付いていますが、3D 用に2台並べて撮ったAction6のRockSteadyを有効にした映像で 3D化作業を行うと、時間経過により微妙な映像のずれが不規則に発生しています。

 

Action6のRockSteadyを無効にし「Gyroflow 」で手振れ補正した映像では、時間経過による映像のずれがほとんどありません。

 

このような事から、「超広角」でもジャイロデータ保存に対応してもらいたいと思うのです。

 

今回は、アクションカム2台並べての 3D VR180 撮影機材の話でしたが、

360度カメラを2台並べても 3D VR180撮影を行う事も可能です。

 

少なくとも360度カメラであれば、片眼180円周の画角は確保できます。

 

ただ、現状、私が360度カメラを利用する事に躊躇している理由は、

 

・60fpsや50fpsのフレームレートに対応していない(30fpsまで)

・暗所性能がまだ満足できるレベルではない

 

この2点がクリアできれば、360度カメラを利用した 3D VR180撮影を考えたいと思います。

 

--------------------------------------------------------------------------

 

DJI OsmoAction6 による 3D VR180 の YouTube再生リスト

 

https://www.youtube.com/playlist?list=PLXQ7YvwPKMWVgvscTrsZ0TXSTmfTWupsu

 

 

VRゴーグルでのVR視聴ではYouTubeは画質が酷いのでDEOVRがお勧めです。

 

https://deovr.com/channel/aquageographic

 

-------------------------------------------------------------------------- 

ブログの更新が疎かになっていますが、
X や instagram や facebook の方はできるだけ頻繁に更新するようにしています。
フォロー頂けると幸いです。
https://x.com/satoagg
https://www.instagram.com/sato.aqua_geo_graphic/
https://www.facebook.com/SATO.Hiroshi.0614

2025年秋:最近のVRカメラ(主に 3D VR180 )について思う事

久しぶりのブログ更新です。
最近のVRカメラ(主に 3D VR180 )について、私なりに思う事を、まとめてみました。

(独り言です)

2025年現在 プロフェッショナルな用途を前提としたハイエンド 3D VR180 カメラとして


Blackmagic URSA Cine Immersive
https://www.blackmagicdesign.com/jp/products/blackmagicursacineimmersive

Canon EOS VR SYSTEM
https://personal.canon.jp/product/camera/rf/rf-lensworld/vr-lens

があります。

 

昔から DVCPRO HD、RED ONE 、RED EPIC を使ってきた私としては、

このクラスの3D VR180 カメラを是非導入したい所ですが、

導入に躊躇する懸念点がいくつかあります。

 

 

【1】レンズを傷つけてしまった時の対処法

 

180度、360度、いずれのVRカメラのレンズは、球状の前玉が向き出しになる構造です。

保護フィルターを付ける事もできず、レンズフードもありません。

ちょっとした不注意でレンズを傷つけてしまうリスクが非常に高いのです。

 

ここ10年間で、私は GoProに付けた Maxレンズ、Lumix GH5 / GH6 に付けた円周魚眼レンズ

を全部あわせると 約10個位レンズを傷付けてしまい使用不能にしています。

幸い、比較的安価なレンズなので最小限の損失で済むのが救いです。

 

このような苦い経験があるので、ロケでは、予備の交換レンズを必ず持参します。

 

では、Blackmagic URSAやCanon EOS VR SYSTEMではどうでしょう?

 

Blackmagic URSAはレンズ交換できません。

レンズを傷付けてしまったら本体毎修理に出し、数週間使用できず、修理代もおそらく高額です。

 

Canon EOS VR SYSTEMでは、レンズを傷付けてしまったら、レンズを交換すれば済みます。

ただ、高価なレンズを予備としてもう一台購入しなければなりません。

レンタル店で借りる事もできますが対応できるレンタル店は決して多くありません。

 

私としては、レンズの前玉だけでもユーザーが現場で交換できるシステムにして欲しいのです。

 

360度カメラですが、Insta360 X5  や GoPro MAX2 は、レンズの前玉をユーザーが交換できるシステムになっています。

 

 

【2】3D カメラとしての 3Dレンズのキャリブレーション(補正)

 

Blackmagic URSAやCanon EOS VR SYSTEMで、レンズの前玉をユーザーが交換できるシステムにできない理由が

3Dレンズのキャリブレーション(補正)の問題があるからだと私は思っています。

 

私は3D VR180の撮影は2台のカメラ(GoPro、Lumix GH5 / GH6 など)をリグを組み並べて撮る方法で行っていますが、

どんなに細心の注意を払い正確に2台のカメラを並べたつもりでも、かならずズレが生じます。

 

そしてそのズレを、今は Adobe After EffectsのVRコンバーターというエフェクトで調整しています。

 

パン/チルト/ローの回転方向のずれを、0.1度単位(場合によっては0.01度単位)の僅かのずれを調整します。

平行方向(X軸、Y軸)のずれも、1ピクセル単位で調整します。

 

つまり、3Dレンズのキャリブレーション(補正)は、

「物理的な位置と方向合わせ」+「ソフトウェアによる調整」

この2通りの合わせ技で、かなり繊細な調整が必要です。

 

Blackmagic URSAやCanon EOS VR SYSTEMでも、「ソフトウェアによる調整」機能は付いているようです。

ただレンズの「物理的な位置と方向合わせ」の調整をユーザー側で行う事はできないようです。

 

大量生産による工業製品には、部品のバラツキ、組み立て精度のバラツキで、必ず製品毎による個体差(物理的なズレ)が生じてしまいます。

精度を上げて個体差を少なくする事は可能性ですが、それがコストとして積み上がり高額な製品になってしまいます。

 

また長年使用し続ける過程で生じる「経年変化」も見逃せません。

購入当初の精度が長年使用し続ける過程で次第に精度が落ちて行くのも工業製品の宿命です。

 

製品毎の個体差によるバラツキや経年変化による精度の低下も、

有効な「3Dレンズのキャリブレーション(補正)」が可能であれば常に良好な状態を保つ事ができます。

 

ただ、そこまでに至るには、メーカーとしての長年のノウハウの蓄積が必要です。

 

360度カメラは、多くのカメラメーカーから発売になっていますが、 3D VR180 カメラが360度カメラほど各社から発売にならない、(または、かつて販売していたのに後続の新製品が出てこない)のは、有効な「3Dレンズのキャリブレーション(補正)」の技術的な敷居が高いのも原因ではないでしょうか?

 

 

【3】ジャイロセンサー → ジャイロデータ による振動/揺れ補正

 

現在、アクションカムや多くの360度カメラには、ジャイロセンサー(カメラの動き、傾き、回転などを検出するための慣性センサー)が搭載され安定した映像が撮れるようになっています。

 

私が使用している GoPro Hero 13 Blackにも搭載されています。

 

Blackmagic URSAやCanon EOSにはジャイロセンサーは搭載されていません。

 

最近は、ジンバルを使用する事で、どんなカメラでも安定した動画を撮れるようになりましたが、大画面で上映し細部をチェックしてみると、ジンバルだけでは、充分にブレや特にこまかな振動が抑えきれません。

 

Blackmagic URSAは、ジンバルに乗せるには大きすぎ適しません。

 

Canon EOS は、ジンバルで使用できますが、それでも抑えきれなかったブレのスタビライズ処理は、ソフトウェアによる映像の解析による補正になります。

 

私の経験から、スタビライズ処理はソフトウェアによる映像の解析による補正よりジャイロデータによる補正の方が数段優れているように思います。

 

VRヘッドセットでの視聴では、ほんの少しのブレや振動で不快感を与えてしまうので、ジャイロよる補正機能は必須だと私は思います。

 

【4】扱いやすい動画収録フォーマットへの対応

 

VRカメラに限らず、最近のプロフェッショナルな用途を前提としたハイエンド機種では、動画のRAWデータ収録が当たり前のようになってきました。

 

私も RED ONE,RED EPIC を長年使用してきたので、動画のRAWデータ収録のメリットは充分理解できます。

 

ただ、RAWデータでしか収録できないという事のデメリットもあります

 

Blackmagic URSAはRAWデータ収録のみ、Canon EOSも、8K 60PはRAWデータ収録のみ

 

RAWデータ収録は、圧縮率の設定次第ですが、記憶容量が大きくなります。

パソコンでのRAW動画処理も負荷が大きく処理時間がかかります

特にVRの場合、最低でも8K、今後は 12K、16K と高解像度化が進むと記憶容量/処理時間ともに大きな負担となります。

 

時間とコストがかけられるVR映像作品であればRAWデータ収録のメリットを発揮できますが、

時間とコストをかけずに、スピーディーにVR映像作品を公開したい場合ではデメリットになります。

 

 私が現在 3D VR180 撮影でメインに使用している GoPro Hero 13 Black は、

10bitのLogプロファイル  H.265(HEVC)形式での動画収録ですが、

ファイルサイズも小さく、パソコンで動画処理の負荷も軽く、かと言って、クォリティーが特に劣るというわけではありません。

元々の高感度に弱いという欠点はありますが、これは記録方式の欠点ではありません。

 

強いて気になるH.265(HEVC)形式での動画収録の欠点は、「森の中を流れる渓流/滝」といったような、木々の葉っぱの描写+複雑な水の流れ、映像のデータ量が膨大になる映像に関しては、圧縮による映像の破綻が気になります。

 

ただ、オリジナルの撮影素材では、RAWデータの方が破綻の無い綺麗な映像であったとしても、

最終的な完パケ作品が  H.265(HEVC)やAV1で圧縮されてしまうので、完パケ作品を見る限り、その差はほとんど無くなってしまいます。

 

このように考えると、動画のRAWデータ収録は、ここぞという場面で使用できればよく、多くの場面ではH.265(HEVC)収録で、負担が少なく快適な運用ができる方がありがたいと私は思います。

 

 

以上、3D VR180 カメラに関して、私が思っている事ですが、今後、新製品が発売になった時は、この点に関しては慎重に吟味して購入するかどうかを決めたいと思います。

 

--------------------------------------------------------------------------

ブログの更新が疎かになっていますが、
X や instagram や facebook の方はできるだけ頻繁に更新するようにしています。

フォロー頂けると幸いです。

https://x.com/satoagg
https://www.instagram.com/sato.aqua_geo_graphic/
https://www.facebook.com/SATO.Hiroshi.0614

超立体視3D VR180 花火映像の撮影

最近の弊社は、3D VR180 映像の撮影を積極的に行っています。

2024年時点でのVRコンテンツのマーケットは、まだまだ小さく、ニッチな市場ですが、少しずつですがニッチな分野から広がっている気配を感じます。

そして、イベントや展示会での映像ショウのイベントでは昨年(2023年)頃から「イーマーシブ(没入)」がキーワードとしてトレンドなり、イーマーシブ(没入)映像ショウが完全に主流になっています。

 昨年ラスベガスにオープンした巨大球体LEDアリーナ「スフィア/Sphere」や日本でもLEDドームを採用したプラネタリム/ドームシアターが登場するといった時代の流れから、 イーマーシブ(没入)映像のニーズはVRに限らず拡大しているのは確実です。

実写でのイーマーシブ(没入)映像として、インパクトがある映像は、「天を見上げる映像」があります。

夜空の星を見上げるプラネタリムはその代表ですが、「花火」はさらにインパクトの強い「天を見上げる映像」です。

プラネタリム/ドームシアターでの上映を意識した花火の撮影は、かれこれ10年近く行っていて、これはビジネスにもなっているのですが、2年前からは、3D 立体視を意識した花火の撮影を行っています。

通常の3Dカメラで遠景の花火を撮影しても、視差があまり生じず平面的な映像になってしまいます。 そこで、2台のカメラを約5m~10m離して設定し撮影する事で、遠景の花火でも視差を生じさせ立体的に撮影する事ができます。



※上の画像は、GoPro Hero 11 Black を2台離して設置した様子です。約7~8m離してそれぞれ三脚に固定しています。 GoProを通常の状態で長時間連続撮影すると熱暴走してしまう為、本体電池を抜いて外部電源のみ、ヒートシンクを張り付け、小型扇風機で風を当て空冷し2時間以上の連続撮影を可能にしました。

超立体3D 花火をVRゴーグルで視聴する事で、花火が球体状に開く様子がよくわかります。

2台のカメラを約5m~10m離して設定する場合、カメラの向きを正確に合わせる必要があるのですが、 実際はかなり適当に合わせるだけでも後処理でなんとかできます。

VR映像である事のメリットは、「球体に描写される映像」である点です。つまり、カメラの向きがずれていても、球体を回転させれば向きを合わせる事ができるわけです。 具体的にどのような編集作業になるか? に関しては以前書いた記事を参照ください。

https://ameblo.jp/satoagg/entry-12857871130.html

「球体を回転させれば向きを合わせる事ができる」には、撮影レンズが魚眼レンズでなければなりません。

魚眼レンズの射影方式には4つの方式があります。

●等距離射影(equidistance projection)
●立体射影(stereographic projecton)
●等立体角射影(equisolid angle projection)
●正射影(orthogonal projection)



VR映像の撮影に向いている魚眼レンズの射影方式は、等距離射影(equidistance projection)です。

市販されている魚眼レンズの射影方式はどの方式なのか?は、情報が公開されていないものも多くなかなか分からないのですが、実際にVRの編集作業を行っていく過程で、等距離射影方式なのか?そうではないのか?くらいの差はわかってきます。

GoPro HERO 用の Max Mod レンズは、おそらく等距離射影方式です。

私が Panasonic Lumix GH5やGH6、Sony α6000シリーズでよく使用する Meike 6.5mm は等距離射影方式では無いようです。

でも、Meike 6.5mm で撮影した映像でも、10度くらいの差であれば、実用上あまり問題なく補正できているように感じます。

花火の 3D VR180 撮影でも Meike 6.5mm レンズは良く使用します。

さて、3D VR180の映像コンテンツですが、現状は VRヘッドセットで視聴する事が、一番手っ取り早い方法です。

ここをもう1歩進めて、ドームシアターのような大きなスクリーンに3D上映できる事がビジネス化には重要だと考えます。

実際、3D上映可能なドームシアターを備えたプラネタリウム/科学館は、日本に5館くらいあるそうです。

ペーパードームのような移動式簡易ドームスクリーンでも、3D上映可能です。

最近は、裸眼3Dディスプレイが各社から登場しています。

大型スクーリンにするのはコストがかかりそうですが、裸眼3D視聴が可能なドームディスプレイができれば3D VR180 コンテンツが活用できる場が広がります。

「超立体視 3D 花火」はその時の3Dキラーコンテンツになると期待しています。



Youtube、DEOVR、Meta Quest TV に ここ2年間に撮影した「超立体視 3D 花火」動画を以下にリストアップしました。

超立体視 3D 花火再生リスト
https://www.youtube.com/playlist?list=PLXQ7YvwPKMWVWa3ct-B2aLNHrthDmKOoZ

DEOVR
https://deovr.com/channel/aquageographic

Meta Quest TV
https://creator.oculus.com/community/116702404647474/

Adobe After Effects による 3D VR180 映像の最適化作業手順

3DのVR180の実写を撮影したい場合、3D VR180 専用カメラで撮影する方法と独立したカメラを2台横に並べて撮影する方法の2通りの方法があります。

 

2024年6月の時点では、私は「独立したカメラを2台横に並べて撮影する方法」で撮影しています。

 

この方法で注意しなければならない点は、

 

【1】2台のカメラの位置と方向を正確に揃え確実に固定しなければならない点
【2】2台のカメラによる映像を正確に同期させなければならない点


の2つが重要になります。

 

【2】に関しては、映像編集ソフトでタイムラインを拡大して作業すれば1フレーム単位で2つの映像を揃える事は比較的簡単です。

 

やっかいのは【1】の方です。


カメラの位置と方向を正確に揃えて固定したつもりでも、実際の映像をチェックすると僅かにずれているものです。

 

僅かなずれであっても、そのまま 3D VR180 映像に仕上げ、VRヘッドマウントディスプレイで視聴すると、目に強い違和感を感じ、いわゆる”VR酔い”を引き起こしてしまいます。

 

この”僅かなずれ”を3D VR180 映像編集の前にしっかり修正する最適化作業が3DのVR180映像のコンテンツ制作には重要になります。

 

ここでは、Adobe After Effectsを用いた 3D VR180 映像の最適化作業手順を要点を絞って解説します。

 

(※ Adobe After Effectsは、普通の映像編集ソフトとは少し異なり、映像の合成や特殊な加工を行うソフトなので、操作方法がやや特殊で難解な部分があります。ここでは、Adobe After Effectsの基本操作はできる事を前提として、要点のみを解説します。)

 

ちなみに、VR映像(3D VR180 や 360VR)編集ソフトでは「 Mistika VR https://www.sgo.es/mistika-vr/」がVR業界では定番ソフトです。

 

VRに特化したソフトなので、ここで紹介するAdobe After Effectsで行うより簡単に作業できるものと思います。

ただ、サブスク料金が少し高め(毎月1万円程度)です。

 

Adobeのサブスク料金も高めですが、Adobe製品全てが含まれていて長年Adobe製品を使い続けている人にとってはAdobe After Effectsで最適化作業を行う事の方が現実的です。

 

 

さて、本題に入ります。

かわりやすい例として下図のような図形の被写体を 左右横になれべた2台のカメラで撮影したとします。

 

上図の中心が2台のカメラの中間になるよう配置して撮影すると、左のカメラでは下図のようになります。


濃い青色はレンズに近い手前の被写体
薄い青色は無限遠のの被写体

 

右のカメラでは下図のようになります。
濃い赤色はレンズに近い手前の被写体
薄い赤色は無限遠のの被写体

 

編集ソフト上で横にならべると下図のように

 

左右の映像を重ねて表示すると下図のように
そして、これはあくまでも、2台のカメラの位置と方向が完璧に一致した理想的な状態です。

 

上図は理想的な場合で、実際に2台のカメラで撮影した映像を After Effects に読み込み重ねて表示すると多くの場合、下図のようにズレが生じています。


下図のような状態から上図の理想的な状態に修正する事が最適化作業で、以下はその手順です。

 

After Effects で行う最初のステップを説明します。(下図を拡大して順次該当箇所を確認してください。)

 

(1)左右ぞれぞれの映像素材(4096px X 4096 px)を読み込みます。

 

(2)読み込んだ左右ぞれぞれの映像素材(4096px X 4096 px)から左右それぞれのコンポジションを2つ新規作成します。

 

(3)新規作成した左右それぞれのコンポジションからさらに左右それぞれのコンポジションを2つ新規作成します。(これがポイントです)

 

(4)(3)で作成したコンポジション2つを重ねてコンポジションを新規作成します。(下図の状態)

 

(5)上下のレイヤーに分かれた左右のコンポジションに、エフェクトメニューから「イマーシブ > VRコンバーター」を適用します。

 

(6)「VRコンバーター」の詳細メニューから「入力:魚眼レンズ(フルドーム)」「出力:魚眼レンズ(フルドーム)」をセットします。

 

(7)上のレイヤーの透明度を50%にする事で、左右の映像の重なり具合が確認できます。

 

(8)左右の映像の重なり具合が確認しながら ズレ を修正するポイントは、
VRコンバーターの詳細メニューにある「カメラビューの方向を再設定」の「パン、チルト、ロー」の数値です。
±0.1単位(時には 0.05単位)の数字を入力しながらズレを調整します。

 

(9)「パン、チルト、ロー」の調整は慣れるまでかなり大変な作業です。が、コツがわかってくるとかなりテキパキと作業できるようになります。

 

(10)「パン、チルト、ロー」は、「球体を回転させる」をイメージする事が重要です。
パンでは、中心付近の手前では大きく右へ回転しても、奥では左へ、上下の端ではほとんど動きません。
チルトでは、中心付近の手前では大きく上下しても、左右の端では動きません。

 

 修正を行う上での注目ポイントは

 ●無限遠の被写体は、左右の映像がほぼ一致して重なる

 ●中心付近の水平は、左右の映像がほぼ一致する

(11)「パン、チルト、ロー」の調整だけでは、ズレが調整しきれません。
チルトによる左右の端付近、パンによる上下の端付近が、ズレている場合は「トランスフォーム」で位置を調整します。

 

(12)「トランスフォーム」で位置を調整する時に重要なのは、手順(2)で一番最初に作成した左右のコンポジションの「トランスフォーム」を調整しなければなりません。(下図)

 

(13)実際の映像では、このサンプル図形のようにズレ具合をはっきり確認できないので、映像の歪み具合が左右でかなり違う違和感でしかわかりません。「パン、チルト、ロー」の調整で歪み具合の違和感を感じる場合は、「トランスフォーム」の調整との組み合わせで違和感を取り除く事が重要です。
 

「トランスフォーム」の修正を行う必要がある場合の注目ポイントは、

●チルトの調整により中心付近の水平を合わせても両端の高さに差が生じる場合

●パンの調整により中心付近の垂直方向の直線を合わせても上下端に歪みが生じる場合

 

(8)~(13)の作業を地道に繰り返し行いながら左右の映像のズレを修正し、理想的な状態(下図)に近づけます。

 

(14)ズレ修正が完了したら、作業を行ったコンポジションを複製し、左右それぞれ別のコンポジションを作成します。

 

(15)(14)で作成した左右のコンポジションから、新規に左右のコンポジションを作成します。(ここがポイント)

 

(16)(15)で作成した左右のコンポジションの設定メニューを開き、サイズを 8192 px 4096 px に変更します。(ここがポイント)

 

(17)(16)でサイズを 8192 px 4096 px に変更した左右のコンポジションに「VRコンバーター」を適用します。

 

(18)「VRコンバーター」の詳細メニューから「入力:魚眼レンズ(フルドーム)」「出力:正距円筒 2:1」をセットします。(下図)

 

左と右、それぞれのコンポジションで、上記(17)(18)を行い下図のように正距円筒図法(エクイレクタングラー)に変換します。

(19)正距円筒図法(エクイレクタングラー)に変換した左右のコンポジションを重ね新規コンポジションを作成します。

(20)レイヤーに重なった左右のコンポジションのトランスフォームの位置座標を 左(2048,2048)、右(6144,2048)にセットする事で、3D VR180 のフォーマットになります。(下図)

(21)書き出しメニューから、Aobe Media Encoder 、 HEVC(h.265) 8K VRビデオ(立体視-並列、上下左右の視界180度) に設定し書き出す事で、3D VR180 のメタデータが書き込まれた VR映像が完成します。

 

【世界初スクープ】海岸の潮だまり(タイドプール)で「アズマヒキガエル」の集団産卵 (伊豆大島)

伊豆大島は、ロケでよく出かける島で、ダイビングはもちろん、日本ジオパークに認定されている火山島なので陸撮/空撮だけを目的に行く事もあります。

この冬は「椿まつり」の撮影で既に2回ロケに行っています。

「椿まつり」の期間中、伊豆大島の海の中ではイワシの「サーディンラン」と呼ばれる大きな出来事があります。

イワシの大群、それも超大群、海の中がイワシの壁に覆われる、ピーク時には島周辺のダイビングポイントのどこを潜ってイワシの壁、というくらいの超大群が近年の1月下旬から2月に見られるようになりました。

ただ、今年は群れの規模が小さくダイビングではなかなか会えないとの情報を事前に聞いていました。

群れの規模が小さいとはいえ、出現している場所では、港内や海岸の潮だまり(タイドプール)にイワシが迷い込み、網ですくって採っているとの話です。

このような話を聞いていたので、伊豆大島へ到着した当日、今まで行った事がなかった海岸へでかけた時、意識して潮だまり (タイドプール)を見て回りました。

すると、何かあまり聞きなれない生き物の鳴き声が聞こえてきました。

鳴き声の方へ行ってみると、なんと 潮だまり(タイドプール)で蛙が集団産卵をしているのです。

蛙は「アズマヒキガエル」で、通常は淡水の池・沼や水溜まりで集団産卵します。

ちなみに、アズマヒキガエルは日本固有亜種ですが、元々は伊豆大島には生息していなく、伊豆大島では外来種です。

  伊豆大島は若い火山島であり、頻繁に噴火を繰り返しているため地表は火山灰やスコリアに覆われており、雨が降ってもすぐに地中に染み込んでしまい伊豆大島には川や湖がありません。
  (川のようなものはあっても普段は水が流れていません)

つまり、 淡水の池・沼 ・   水溜まりが無い伊豆大島のアズマヒキガエルは海岸の潮だまり(タイドプール)で産卵するという環境に適応する進化をした?!という事です。

伊豆大島では アズマヒキガエルの  潮だまり(タイドプール)での集団産卵は、誰でも知っている常識なのか?

  と、最初は疑問に思ったのですが、その後、 伊豆大島在住のガイド(ダイビング/ジオパーク)さん達から情報を集めた所、誰も知りませんでした。

私が偶然発見したアズマヒキガエルの 潮だまり(タイドプール)で集団産卵は伊豆大島でも今まで誰の目に留まらなかった出来事だったようです。



以下は、あくまでも私の個人的な推測です。

アズマヒキガエルが産卵を行っていた 潮だまり (タイドプール)は、100%の海水ではなく、雨水や湧水による淡水で塩分がかなり薄められた「汽水」ではないかと推測します。

周辺の地形をよく見ると山側には深い亀裂の谷があり、 潮だまり  (タイドプール)は、砂浜の海岸に扇状に流れ込んだ溶岩の中心付近にあります。

 
(リンク先の映像を見て確認してみて下さい)

また大潮の満潮時でも潮位はこの 潮だまり  まで上がってきません。

  伊豆大島の海岸には至る所に 潮だまり  (タイドプール)が存在しますが、雨水や湧水で塩分が薄められた「汽水」の潮どまりは極めて希少で、 この希少な 潮だまり  のみにアズマヒキガエルが産卵で集まるので、今まで人の目に触れる事もなかったのだと推測します。

アズマヒキガエルの繁殖期は2月というマリンレジャーのオフシーズンなのでなおさら人の目に触れにくい時期です。

  通常(関東地方での)アズマヒキガエルの産卵は、2月の暖かい日の夕方から夜の時間帯、期間は2~3日程度のようです。

  しかし、今回伊豆大島で観察したアズマヒキガエルの産卵は昼間の時間帯、期間も1週間以上観察されています。

この辺りも含めて、伊豆大島のアズマヒキガエルならではの習性をもっと深く解明すると面白いのでは?と思っています。

動画を Youtubeにアップしました。

1 | 2 | 3 | 4 | 5 | 最初次のページへ >>