p.137 Shading normal
Shading normal は geometry normal と違う.shading normal は物理的な意味がないので,これを使うとおかしなことが起きるという意味である.確かに bump map などの normal を使っても,その下のgeometry とは関係がない.
p.140 Figure 5.1
屈折する物体中の明るさは外から入る明るさをスケールする必要がある.これは気がつかなかった.確かに屈折によって水中では光がある意味,密集している.それはエネルギが密集しているという意味である.したがって,それを考慮に入れないとエネルギの計算がおかしくなる.通常,光がある媒体に入り,そして出てくると,入る場合には密集が起こるが,出る場合にはその反対の作用が起こるので問題はないが,この図のように水中で何かをする,例えば,水中にカメラを入れるとかの場合には問題がある.
p.168 D3 and Equation 5.30
p.168 の D3 と式 5.30 は不明である.どなたかわかる方がいらっしゃたら教えて下さい.
p.88 式 3.6.3 の notation
式 3.6.3 には d! という演算子らしきものがある.d! \cos \theta d\phi のように使われている.微分演算子のようだが,知り合いに尋ねても,Web を調べてもわからなかった.
p.122 particle tracing 式 4.32
この alpha の更新方法は,謎のq_{i+i}という項がある.f はprojected solid angle で,p_{i+1}は BSDF の近似というので問題はないが,この q_{i+i} というのは何だろう.
これは図1 の状況を示している.sampling は Russian roulette で停止,sample が決まる.しかし,直感的にはもし,sample したら,そちらの方をより重要視するのは自然である.なぜなら,sample した方がしないよりもより多くの情報を入手しているはずだからである.そこで,sample した確率分の1 でweight を置く.
図1: Sampling weight $\frac{1}{q_{i+1}}$. (1) terminate sampling by probability $p$, (2) bounce probability is $(1-p)$. Because, the sample value is better than nothing, the case (2) is respected by $\frac{1}{1-p}$, that is $\frac{1}{q_{i+1}}$.
たとえば,0.5の確率で停止するのならば,1/0.5= 2.0 の weightをかける.1/3の確率で停止するのならば,1/(1-1/3) = 3/2 の weight をかける.停止しないならば,1/(1-0) = 1 なのでそのままである.常に停止するならば,bounce がないので bounce にかける重みもない.
さて直感の話をしたが,直感が常にいいとは限らないので多少証明しておくべきだろう.以下は友人の Leo に聞いたこの重みでも unbias にならない証明の概要である.以前の blog で unbias とは真の値との差の expectation (期待値)が0 であるということを説明した.図1における expectation は真の値を Q として
である.しかし,sample 値 s_1 は terminate してしまったので 0 である.これが真の値 Q になるには,sample 値 s_2] に重みalpha があるとして
すると,alpha = 1/(1-p)
を補償することで bias を避けることができる.
式 3.6.3 には d! という演算子らしきものがある.d! \cos \theta d\phi のように使われている.微分演算子のようだが,知り合いに尋ねても,Web を調べてもわからなかった.
p.122 particle tracing 式 4.32
この alpha の更新方法は,謎のq_{i+i}という項がある.f はprojected solid angle で,p_{i+1}は BSDF の近似というので問題はないが,この q_{i+i} というのは何だろう.
これは図1 の状況を示している.sampling は Russian roulette で停止,sample が決まる.しかし,直感的にはもし,sample したら,そちらの方をより重要視するのは自然である.なぜなら,sample した方がしないよりもより多くの情報を入手しているはずだからである.そこで,sample した確率分の1 でweight を置く.
図1: Sampling weight $\frac{1}{q_{i+1}}$. (1) terminate sampling by probability $p$, (2) bounce probability is $(1-p)$. Because, the sample value is better than nothing, the case (2) is respected by $\frac{1}{1-p}$, that is $\frac{1}{q_{i+1}}$.
たとえば,0.5の確率で停止するのならば,1/0.5= 2.0 の weightをかける.1/3の確率で停止するのならば,1/(1-1/3) = 3/2 の weight をかける.停止しないならば,1/(1-0) = 1 なのでそのままである.常に停止するならば,bounce がないので bounce にかける重みもない.
さて直感の話をしたが,直感が常にいいとは限らないので多少証明しておくべきだろう.以下は友人の Leo に聞いたこの重みでも unbias にならない証明の概要である.以前の blog で unbias とは真の値との差の expectation (期待値)が0 であるということを説明した.図1における expectation は真の値を Q として
である.しかし,sample 値 s_1 は terminate してしまったので 0 である.これが真の値 Q になるには,sample 値 s_2] に重みalpha があるとして
すると,alpha = 1/(1-p)
を補償することで bias を避けることができる.
今月の Communications of the ACM に五十嵐先生の記事があった.
http://doi.acm.org/10.1145/1785414.1785436
この記事は五十嵐先生の研究の履歴が概要できてとてもいい.私がどうこう言うのもおこがましいですが,五十嵐先生の研究はデモが楽しく,実用的 で,solid な基礎技術を開発しているところがすばらしいと思う.彼の夢のある研究というのが人を魅きつけるのはよくわかる.私も魅きつけられてしまう.しかし,私は ひねくれているせいか,彼の技術的に洗練されていく論文, なぜかあんまり目立たない感じはするが,こういうのができたらいいなという後の技術的に洗練されていく論文が,私は好きである.たとえば,Teddy に対する SmoothTeddy がそうだ.ここでは interactive な sketch system を実用的に使う上で重要な mesh refinement に関して論じている.こういう使えるシステムにするための技術的な貢献があること,が素敵だなあと思うところである.
http://doi.acm.org/10.1145/1785414.1785436
この記事は五十嵐先生の研究の履歴が概要できてとてもいい.私がどうこう言うのもおこがましいですが,五十嵐先生の研究はデモが楽しく,実用的 で,solid な基礎技術を開発しているところがすばらしいと思う.彼の夢のある研究というのが人を魅きつけるのはよくわかる.私も魅きつけられてしまう.しかし,私は ひねくれているせいか,彼の技術的に洗練されていく論文, なぜかあんまり目立たない感じはするが,こういうのができたらいいなという後の技術的に洗練されていく論文が,私は好きである.たとえば,Teddy に対する SmoothTeddy がそうだ.ここでは interactive な sketch system を実用的に使う上で重要な mesh refinement に関して論じている.こういう使えるシステムにするための技術的な貢献があること,が素敵だなあと思うところである.
