エントロピー
エンタルピーっていうのもあるよね。次元が違うやつ
エントロピーといえば「乱雑さ、でたらめさの尺度」であったり、「情報の多様さを表す尺度」だったり(ここら辺の表現も随分曖昧ですが)します。
エントロピー(情報寄り)についてちょっと調べていたんですが、
「モノが散乱している部屋はエントロピーが大きい」
とか
「ばらばらに並べられたカードは情報量が0で、整頓されたカードは情報量がある」
とか
え?そんなんだったっけ?
自分も理解してる訳じゃないので大それた事は言えませんが、少なくとも「モノが散乱している部屋はエントロピーが大きい」ってのはおかしいと思うんだけど・・・
そんなマクロの話だっけ?確かにエントロピーの変化はマクロの状態にも影響するんだけどさ。
うちの教授が正しければ、上の内容はおかしいはず(正しければだけど)
量子力学の時に言ってた気がする
情報量によって情報を定量化できる尺度が出来た訳ですが、情報のもつセマンティックスは情報量だけでは議論できないみたいです。
クロード・シャノンは凄いなぁ~