恥ずかしながら、マクロをうまく組めません。
全行検証するのが面倒なので、抽出する方法と最初のデータ10個くらいを検証するかに留まっています。
そこで、マクロを書くにあたり、もう一度、ロジックを整理してみた。
Logic of 244
Start from
row=2:245=1 or -1
row=3:246=1 or -1
dici:row3,row4,row5,row6:1 or -1
col3=mktdata(row3,2 to 6)
dicirow7=dicirow3=dicimktdata(row3,dicicol)
dicirow8=dicirow4=dicimaktdata(row4,dicicol)
Culculate every244times to dicirow(nextrow) as former logic
From here I need
dicirow(row,fixedcol)->Necesary
formerdicirow(row,fixedcol)->If possible
If dicirow has fixed dicirow goes to formerdicirow for remember the culculated data
上のロジックは、前回のブログのとおり、244営業日で最良の売り買いの組み合わせを245日目とし、次に、第2営業日のデータから、244日後(=245日まで)で最良の売り買いの組み合わせから246日目を算出することを記載したもの。
また、これらの計算により得られたデータを別配列(ここではformerdici(row,fixedcol)にあたります)、に記録するというものです。
英語で記載した理由は、
毎度、日本語ー英語の変換が面倒だったこと
英語で表記することにより、マクロが書きやすいと思ったこと
ただし、日本語を英訳できない場面が多いのが欠点
これは、「英語の勉強ができる」とポジティブに考えていて、あまり苦痛になってない。
翻訳する時間を費やすという点では、翻訳する方が効率悪いと思うけれど、これは気持ちの持ちようかなと思っている。
過去に書いた文章を見てみると、固かったり、砕けていたり、ふざけていたり、とその時々の自分の心理状態が見え隠れしています。
今週発表されたChatGP-4oは、世の中を大きく変える革新的な技術だと思っています。
ちなみに、ChatGP-4o の「o」はomniのことで全部という意味だそうです。つまり、これまでの音声認識に、視覚認識を加えたという意味です。
人間は、外部情報の取得方法の90%以上を視覚に頼っており、これまでの聴覚による会話、AlexaやSiriで実現していた機能を大きく拡張した技術のようです。
発表を見た中でこれは革新的だと思ったのが、目が見えない人が目の前の映像をその人にほとんど遅滞なく音声で伝えられるということだ。人間の目はごまかせても、機械の眼はごまかせないということになる。
皆さんは、経験したことがあるかもしれないが、テレビのリモコンの赤外線(?)は、人間の目には見えなくても、カメラを当して見えるんですよ。
ChatGPTを使えば、「思案中」案件が解決できるとは思うのですが、考える過程を楽しんでいるので、AIでの回答(解答ではない)は必要ないと思っています。
人間の意地かも