現在は色々な事が出来るようになっていますが、確実に2000年代や2010年代よりも便利な時代になっています。

 

 特に、コンピューターを使った作業だと個人レベルでも様々な事が出来るようになっていますが、意図した挙動をする物を作る場合にも出来ることが増えています。

 

 当然、こうした作業は 【 製造分野 】 ですから、学習しなければ解らない事ですし、知識の総数が作れる物の選択肢の総数と比例しますから、知識の総数を増やす事で出来る事の総数も増加します。

 

 コンピュターを使った物の中には、コンセプトが時代を先取りし過ぎていて過ぎてその時代のテクノロジーが追い付いていなかった物も多く存在しますが、AIの分野なども過去と現在では全く違いますが、この分野の始まりは、1950年代にイギリスのアラン・チューリングの記した【 計算と機械と人間 】の中で登場します。この著書の中で、 【 機械は考えることが出来るのか? 】 と言う問い化怪我されています。

 

 このアプローチは非常に面白いのですが、この思考と言う内容が、【 論理 】 だとするならば、論理ゲートで可能なのでコンピューターではなく電気工作で可能ですし、演算であれば、この論理ゲートの組み合わせで作れる 【 加算器 】 で行う事が出来ます。つまり、この時に加算が出来るという事は、数値が存在する訳ですが、電気信号の1bitが存在すれば、二進数が作れるので数値を作る事が出来ます。つまり、デコーダーを通せば日常使っている十進数を作れます。

 

 つまり、幾何で存在する物を数値と言う記号を用いて判断する事で人は 【 集合 】 を扱えるようにしている訳ですが、集合の対比をした場合、そこには差異が存在するので、その差異を判断する必要があります。その時の数値の大小は比較によって行う事になりますが、比較器を用意するとそうした判定も行えます。電気工作だと、2つの入力を用意しえてその電圧の差で動作するコンパレーターと言うパーツが存在しますが、これも条件分岐における 【 比較演算子 】 と同じものになります。

 

 つまり、思考を 【 判断して結果を出す 】 と言う条件で考えた場合、解度の規模が少し大きくなってしまいますが、電気工作レベルでも出来るようになっていますから、1980年代以降だと個人の電気工作でもそうした事が出来るようになっていました。

 

 判定における論理ゲートについては、

 

 ■ マインクラフトとプログラミング

 

の中で触れていますが小学校3年生の理科で登場する閉回路内の直流と交流の仕組みですが、電池の有無と発光パターンの状態を見ると、

 

■ AND回路(論理積)          

 

■ OR回路(論理積)            

 

と同じ状態になっています。また、この構造をタクトスイッチに置き換えて

 

 

 

のようにするとAND(論理積)とOR(論理和)になります。結果を見た時に、入力Aと入力Bの相関関係が乗算の結果になっているのか加算の結果になっているのかで名称がついています。

 

 論理ゲートは、

 

 

の3つがあるとこの組み合わせで全ての判定が可能になるので、この3つの組み合わせから別の判定をする物を作る事が出来ます。

 

 判断をする場合、論理ゲートを回路内に実装しなく得てはなりませんが、半導体がない時代たとこの代用品を使う必要があるのでリレーで計算機が作られていた時代もあります。

 

 リレーは電磁石で接点お切り替えをするものになりますが、マインクラフトだと

 

 ■ マイクラとプログラミング(2)

 

の中でも登場している

 

 

の右側のレバーのついたピストンの部分がリレーと同じ考え方の物になります。このように接点の移動で動作する物がリレーになりますが、現実世界でもこうした 【 物理的な接点の切り替え 】 が行われる構造の物が使用されていた時代もあります。

 

 流石に、これだと遅いので、電子パーツを使った物が登場しますが、後に半導体の登場でトランジスタが作れるようになるので、もっと簡素な構造でそれを実現できるようになりました。

 

 高校の普通科の物理のカリキュラムでも半導体が登場しますが、N型とP型の片方の半導体を用意して、もう片方の半導体で挟んだ物がトランジスタでN型とP型が存在している訳ですが、この2枚だけを組み合わせた物がダイオートになります。

 

 論理ゲートについてはブレッドボード上でも作れるのですが、トランジスタを使うと先程の3種の基本となる論理ゲートを作る事が出来ます。トランジスタでの論理ゲートの実装については、

 

 ■ 理科と知識の拡張 【 EDUCATION 】

の中で紹介していますが、

 

 

■ AND回路(論理積)          

 

■ OR回路(論理和)           

 

■ NOT回路(論理否定)         

 

のようにすると回路を組むことができます。高校のカリキュラムだと、 【 トランジスタはスイッチとして使う事が出来る 】 事も学習することになりますから、その仕様から、回路内のスイッチの部分をトランジスタに置き換えるだけで論理ゲートを作る事が出来ます。

 

 現在は電気工作レベルの物でも電圧の変化や通電の状態によって判断をする事が出来るようになっているので、そう言った機能を回路内に配置する事が出来るようになっていますから、現在では 【 機械が判断をする機能を持つ 】 と言う事も特に珍しい事ではなくなっています。

 

 AIの芯かは1990年代のディープブルーが当時のチェスの世界チャンピオンに勝利したことが有名ですが、その後ビッグデータが利用可能になり機械学習なども行われるようになっていますが、そうした物が登場した当初は施設でしかこう言った物は動作しませんでした。

 

 これがコンピュ―ターの歴史になりますが、現在は、規模によってはニューラルネットワークやビッグデータも個人のPCのサイズの物で使用できるようになっています。こうした変化は、初期のコンピューターであるエニアックよりも高性能な電卓が手のひらサイズで動くようになったのと同じですが、チェスの世界王者に勝利したディープブルーの倍精度の性能も現在のワークステーション用のGPU1枚でそれを上回る性能を出せる時代なので、現在と過去では全く出来ることが違っています。

 

 このように 【 コンピューターが考える 】 と言う条件で動作する事も1960年代だと特殊な事に思えていたのかもしれませんが、1990年代では別段特別な事ではなくなっていました。

 

 AIと言う分野は、思考し動作するという条件ですから、ゲームとの相性が良く、ボードゲームの思考ルーチンには向いている仕様になっています。ゲームで使用できるものとして1960年代に

 

   推論

   探求

 

と言う物が存在しますが、

 

■ 推論                  

 

   人間の思考工程を記号で表現し実行しようと

    する事

 

 

■ 探求                  

 

   人間の思考工程を記号で表現し実行しようと

    する事

 

物になります。ちなみに、1966年にMITのジョセフ・ワイゼンバウム氏によって開発された自然言語処理プログラムのELIZA(イライザ)が登場しますが、この時代に自然言語を扱える物が登場し舞ています。現在のチャットボットなども自然言語を使用していますが、その起源になるようなツールがこの時代登場しています。

 

 1980年代にエキスパートシステムが登場しています。これは、

 

■ エキスパートシステム         

 

   人工知能に専門家のような【知識】をルールと

    して教え込み、問題解決させようとする技術

 

 

になりますが、ECサイトの評価システムのような物ですから実用性のある物と言えます。とは言ってもこうしたシステムも運用してみると限界が見えてきます。

 

■ エキスパートシステムの欠点1    

 

   当時のコンピューターには必要な情報を自ら

    収集して蓄積する術がないため、手動で「一

    般常識」レベルの膨大な知識をコンピュータ

    ーに記述する必要があった。

 

■ エキスパートシステムの欠点2    

 

   当時のコンピューターは例外処理や矛盾した

    ルールに対応できなかったため、実際に活用

    可能な知識量は特定の領域の情報などに限定

    する必要があった。

 

ので、知識を付けるだけでも膨大な作業が必要で、判断においても出来ない処理が存在していたので、機能を限定する必要が存在するという問題がありました。

 

 1993年以降にはボードゲームの処理をスーパーコンピューターを用いて行うAIが登場しますが、この分野では、1960年代にはチェスでアマチュアを破り、1980年代後半にはディープ・ソートがトッププロを倒すまでに成長していたわけですが、1997年にディープブルーがチェスの世界王者を倒しています。ディープブルーでは、 【 全幅検索 】 を用い差処理が行われていますが、圧倒的な計算慮能力を用いてチェスで勝利しています。

 

■ 全幅検索               

 

   可能性のある局面を片っ端から計算検討する

    アプローチ

 

この時代以降のAIですが、現在でも耳にする

 

   機械学習

   ビッグデータ

   強化学習

 

が登場します。AIで判断をする場合、データの中から傾向を得ようと思った場合、科学的な実験と同じでサンプル数が多いほど精度は上がります。(過学習になると傾向が偏るのでこの辺りの調整が必要になりますが...。)

 

 これと同じようにAIに学習をさせる場合には巨大なデータを扱う事になりますが、この時に厖大なデータを用意して学習させることでAIの知識を付ける方法が機械学習になります。

 

■ ビッグデータ              

 

   従来のデータベース管理システムなどでは、

    

      記録   

      保管

      解析

 

    が困難な膨大なデータ群

 

 

■ ビッグデータ              

 

   コンピューターが大量のデータを学習し、

    

      分類

      予測

 

    などのタスクを遂行する

 

      アルゴリズム

      モデル

 

    を自動的に構築する技術のこと

 

 

これが、教師あり学習や教師無学習などにみられる機械学習になりますが、規模を小さくすると個人ようのゲーミングPCでも処理が出来るものになりますが、何をする物なのかをビッグデータと比較すると小さなデータ(ですが、データ量自体は結構膨大です。)を用いて実行することはできるので、どう言った物なのかを知ることはできます。

 

 機械学習では、人が特徴量を定義して予測や推論の精度を上げていましたが、【 深層学習(ディープラーニング) 】 のように脳の神経回路を模した物の階層を増やしたものになりますが、そう言った技法も登場しています。

 

■ 深層学習(ディープラーニング)     

 

   脳の神経回路のしくみを模したニューラル

    ネットワークを多層に重ねることで、学習

    能力を高めた機械学習の手法の一つ

 

 

現在は、こう言った物も個人向けのコンピューターでも体験できるようになっていますが、深層学習は階層が深くなるので、階層の浅いニューラルネットワークだと個人のPCでも現実的な時間で処理できる構成も増えて居ます。

 

 こうした処理ですが、2010年辺りだとGPUを使ってもかなり厳しい状態で2000年代だとほぼ不可能な状態ですから、時代と共に個人で扱えるものも大きく変化しています。

 

 

ンピューターと思考         

 

 PCを使った場合、条件分岐があるので判断はできるのですが、データを元に判定を行って考える場合には、その仕組みを実装する必要があります。この時に使用するのが解析学の知識になります。AI関連の学習をコーディングを行って使用する際には、基礎部分で大学1~2年生で学習する

 

    線形代数

    微分・積分学

 

などが必要になりますし、これとは別に

 

    確率統計学

 

の知識が必要になります。また、

 

    単回帰分析と重回帰分析

 

なども必要になります。また、AIは、目的によって必要となる知識が異なるので、基礎としてこうした物を学習した状態で土台を作り、そこに拡張として必要な知識を追加する事になります。

 

 

 率統計               

 

 確率統計は、


    確率

    統計

 

を扱う事になりますが、これは何か?と言うと

 

    不確定な物を判断する為の物

 

になります。

 

■ 確率                

 

 確率については、

 

■ 確率                  

 

   ある事象の起こり易さの度合い

 

になりますが、このカリキュラムだと、中学校受験をする場合だと学習する事になりますし、通常の自治体が運用している校区で通う事になる中学校(注:日本の小学校や中学校の場合、基礎自治体の財源で運用されています。その為、税制で考えると国に納税する国税ではなく地方自治体に納付する地方税を財源として運用されています。ちなみに東京都も国税で運用されている訳ではなく都の納税で運用されているので首都であっても財源は都の財源なので地方税になります。と言う事は、国内の46都道府県の個別の地域の広域自治体や市町村のような基礎自治体も地方税によって運用されている事になります。ちなみに、公立高校の場合、都道府県のような広域自治体なので、都道府県の運用になっていると思います。なので、多くの広域自治体が県なので、効率だと県立高校などになっていると思います。大学だと国立のはずですから基本的に管轄が異なり、運用する財源も違います。)でも確率については 【 中学校2年生の数学 】 で学習する事になりますから、 【 結果が解らないが、発生の可否の比率の違いを事象から判断する 】 事が出来るようになります。

 

 基本的に確率は分数なので、

 

 

 

物事の発生する事象をAとした場合、この時の確立をP(A)とした時に

 

■ 確率の公式               

 

   事象 : A

   確率 : P(A)

 

  としたとき、

  で示す事が出来る。

 

この時に 分子に対しては、【 同様に確からしい 】 ものをカウントします。これは、 【 生じる割合がが等しい 】 と言う事になりますが、コイントスだと1/2なので表と裏の出る確率は同じなので、【 確率は一緒 】 になります。
 

 確率を扱っているので、【 ○○の確立 】と書くと無理があるので、 【 同様に確からしい 】 という言葉を使います。

 

  この条件で考えると、【 全ての事象の中の発生する事象の数 】で判断するのでサイコロやコイントスのように完全に分かれた物であれば、判断しやすくなります。つまり、コインだと表か裏以外だとノーカウントと言う条件で考えると、発生する事象は表か裏になりますから、2つのパターンのうちの1つだけ発生するので確率は1/2とかるので50%になります。

 

 さいころの場合、立方体ですから6面なので、6つの事象の発生する可能性がありますが、面が上に来る事を前提で考えると、その中の1つだけが発生するので、確率は1/6になります。

 

 では、6面体の中の2の数が2つになった場合、面の数が6つで2の出る条件が倍になっているので、1/6の条件が2つあるので2/6になるので2の出る確率は1/3になります。この条件を見てもらうと、【 6面体を振って上に面が来る確率 】自体が変わっていないので、分母が6と言う条件が一致しています。ただし、目の数が違っているのでその中で2の発生する可能性だけが増えて居るので、1/6で2が出る確率が2倍に泣ているので1/3で出るようになっています。サイコロやコイントスは乱数でどれが出るかを扱う時に使用する道具なのですが、確率が完全な自然の乱数のように散らばっている場合、常に1/6で分布する事になりますが、先程のように2の数を増やした場合には乱数の重みが変わっているので、他の目は1/6なのに、2だけ1/3で出るようになっています。これは抽選確率と同じ物になりますが、抽選の場合、クジの確立としてアタリの数を調整して上位の章になるほど数を減らして調整しますが、この方法が乱数の重みの調整になります。

 

 コーディングを行って乱数で処理をする場合、最初に偏りを調べる必要がありますが、乱数に重みを付けることで抽選確率を変えることができます。

 

 マインクラフトでは、サバイバルのワールドでもレッドストーンのブロックを使う事が出来ますが、JAVA版で乱数を使う場合には、

 

    ドロッパー

    ディスペンサー(レッドストーン発射装置)

 

のアイテムのストック数とスロットの場所で乱数の重みが違っているので、抽選確率を指定できます。その為、射出されるアイテムを仕分け機で判定してその仕分け機を通る時のレッドストーン信号を引っ張ってくることで回路の動作をさせることが出来るので、乱数で別の回路が動くような構造にする事が出来ます。

 

 統合版については、

 

■ 乱数発生器                 

 

を作ると1/3の確立で乱数を発生させることが出来るのですが、この時の発生する乱数の確立が同様に確からしい値になります。

 

 では、同じ1/3の回路も出力の1/3から分岐させて1/3にすると、確率は1/9になるので、

 

■ 1~9の値を発生させる乱数発生器     

 

のような物を作る事が出来ます。これが分母の変化になりますが、発生する乱数は1つなので、同様に確からしい値として乱数が発生し、その確率になっています。

 

 抽選のように確率自体が均一ではなく、乱数に重みを付けた場合には、【 設定として確立が指定されている 】ので条件が変わってきますが、抽選機の中に番号の入った球を入れてその番号の範囲を決めて等級を指定して確率を設けると抽選で球が出る確率は、全数の中の1つと言う条件ですし、数値が選ばれる確率も全く同じですが、当選確率は乱数の重みを付けてあるので、全数の中の抽選確率と言う数値になります。

 

 こうした乱数についても乱数発生器を分岐させて乱数の総数を増やして出力する分母を増やすと事象の発生する総数を増やす事が出来るので、通常の乱数を散らす事が出来ますが、先程のサイコロの目の事例のように同一の結果になるグループを増やすと確率が変わります。その為、レッドストーン回路の場合だと配線を束ねると確率が変わるので、

 

■ 乱数の重みを変えた物          

 

を作る事が出来ます。また、乱数を使うと

 

■ 複数の乱数を同時に発生させた事例    

 

のような事もできますが、複数の条件が一致しなけエバならないような条件で乱数でそれがなかなか揃わないような状態にする場合には、乱数発生器を複数用意するだけでその状態にすることができます。

 

■ 統計                 

 

 統計については、

 

■ 統計                  

 

   集団を数量的に理解する

 

 

事になりますが、この時に代表値を使います。この中に出てくるものだと、小学校でも学習する平均値もありますが、現在は、データと活用が義務教育に含まれているので、中学校では数年前まで高校で行っていたようなカリキュラムも学習する事になっています。なので、四分位や箱ひげ図なども登場しますから、これとは異なるデータについても学習します。代表値には、

 

   平均値

   中央値

   最頻値

 

がありますが、グラフによっては偏っているので平均値と最頻値がズレている事もあります。例えば、約温報酬などが無駄に所得を上げている場合だと、他の人の所得がひっくても平均年収が多く見える場合があります。その為、実際の状態は少ない人数の大きな数値を見るのではなく最頻値と言う分布の総数が多い場所からの山の変化を見ることになります。

 

 データを見る時には、分布の山の差が出てしまうので、これを【 分散 】 で判断します。これはデータから平均値を引いた物をデータの総数で割った物を使いますが、これを行う事でデータの差分を足した物を分子とした平均値を出す事が出来ます。分散の場合、少ない数値から平均値を引くとマイナスになるので、データから平均値を引いた物を二乗する事で符号を打ち消す事が出来ます。すると正の数の加算の形にできるので分散の値が平均値に対してどれだけ違っているのかを見ることができます。

 

 この時に使用するのが 【 σ2 】になります。そして、この時の分散の値は小数点数になるので、 σ2 ≒ 解 のような表記になります。つまり、イコールではなく、小数点数を切り上げたおおよその数を使う時に使用するリアルイコールで値を示す事になります。

 

 分散を計算できた場合、差の平均値を出す事が出来ますが、ズレの状態を知ろうと思うと、 【 標準偏差 】 を出す事になります。ちなみに、

 

   分  散 : σ2

   標準偏差 : σ

 

なので

で導き出す事が出来ます。

 

 

■ 関係性               

 

 データを出す場合、2つの事象を用意して分布図を出すとその相関に関するデータを撮る事が出来ます。データの流れを見ると、グラフ自体が右が肩上がりか右肩下がりの状態に分かれることがあります。この状態には呼び名があって

 

   右肩上がりの分布 : 正の相関

   右肩下がりの分布 : 負の相関

 

と言います。この場合、

 

   正の相関 : 片方が高い場合、もう片方も高い

   負の相関 : 片方が高い場合、もう片方が低い

 

と言う物になります。二軸で条件を並べてデータを撮ると相関関係が見えてきますが、これは、

 

確定した条件で発生している因果関係とは異なる場合がある

 

ので相関関係だけでは何段出来ない事例があります。

 

 つまり、条件aと条件bに相関関係があったとしても、実は、その条件が成立している場合には、条件cと言う別の要因が存在する場合があります。このように外的要因によってその相関が出来ているような状態を疑似相関と言いますが、データを見ると相関関係がありそうなものでも分布図のデータだけでは因果関係が見えてこない物や本質と異なる条件を導き出してしまう事もあります。

 

 例えば、清涼飲料水やアイスクリームの売り上げと熱中症の発症率をグラフにして、これが正の相関があった場合、誰がどう考えても、アイスクリームや清涼飲料水が売れているから熱中症が増えて居るとはならないはずです。これは、単に気温が高いだけであり、その結果、前述のような物が上昇している訳です。と言う事は、この条件での相関は個別の事象と気温上昇になりますが、アイスクリームや清涼飲料水の売り上げと熱中症の発症率でグラフを作ると無意味な相関関係のグラフが出来上がります。このような状態が疑似相関になります。

 

 データを見る時に本当にそのグラフに正確なデータが存在しているのか?を確認する必要がありますが、相関関係も外的要因で別の条件が成立している場合もありますから、データのとり方が怪しい場合、外的要因でその二つの事象が成立しているだけの場合もあるので、正しい知識を持たないと間違ったグラフの内容を鵜呑みにする事になります。

 

 疑似相関に関しては、【 風が吹けば桶屋が儲かる 】 と言うような経済用語がありますが、これもこの二者には相関関係はありませんが、因果関係によって条件aと条件bが成立する事象になります。つまり、この事例では始点と終点が決まっている訳ですが、この場合、発生する事象が存在しその因果関係や相関関係によって最終的な結果に行きついている訳ですが、プログラミング言語を用いてコードを書くのもそう言った仕組みを作る作業になりますから、思考の方法は全く同じになります。

 

 あと、確率についてですが、

 

   常に初期化がかかる物

   抽選によって抽選対象の数自体が変わる物

 

では確率は違てきます。当然ですが、5つのクジがあって、1にんが引くと4つになるような物だと、一人が引いた後のクジの分母は変わってしまいますから、外れくじを除外せずに抽選をするような条件だと5枚のクジでアタリを引く確率を考えると1/5になると思いますが、クジが消去される条件だと、その人がくじを引く瞬間の総数その物が変わっているので当たる確率が同じになる事はありません。5枚のクジを引く際に5人が並んだ場合、1つづつ久慈が減るk十を考えると

 

   最初の人  : クジの総数は5枚

   2人目の人 : クジの総数は4枚

   3人目の人 : クジの総数は3枚

   4人目の人 : クジの総数は2枚

   5人目の人 : クジの総数は1枚 

 

ですから、最後の人まで辺りが出なかった場合だと一番最後の人が確率が高くなりますが、 【 アタリの消失リスク 】 が後になるほど高くなります。その場合、

 

   現時点での総数

   アタリの消失の有無

 

の2つで判断する事になりますが、確率が均一化する条件が成立するんは 【 宝くじなどのような後日抽選のような物 】 でしかないので 【 ギャンブル的な抽選結果が後で解る物に限定される 】 訳です。

 

 つまり、【 くじびき 】 のようにくじ自体が減っていく条件だと後日抽選のような物とはシステムそのものが異なるので、抽選対象の総数が変わらない物の場合だと総数が変わらないので確率は固定されますが、神社のおみくじのように乱数の重みを付けた状態で数値の指定をした状態での総数が存在するものであったとしても 【 確率は総数に対する発生する事象の比率 】 なので、 【 総数が変われば確率が変わる 】 と言うごく自然な内容が発生します。その為、

 

   アタリが存在する場合、総数が減るほど当選確率は

    高くなる

 

と言うのはどの条件でも同じですが、

 

 

   アタリが出た後(もしくは空くじ)だと当たらない

 

   おみくじなどのように総数自体が変化する物の場合

    最初の人と後の人で抽選確率が異なる

 

わけです。つまり、こうした数値がなくなる形の抽選の場合だと、

 

   先に引くとアタリがなくなる確率は低くなるが、

    当然確率は低くなる

 

   後に引くとアタリがなくなる確率は高くなるが、

    当然確率は高くなる

    

ので、くじ引きをした際の当選確率はが最初の人と後の人で均一になるような事はありません。

 

 つまり、これが成立する抽選の場合、コンピューターで乱数を使って数値を出すような抽選方法や、抽選機に玉を戻して確率の均一化(総数を戻すような初期化が発生する場合)に限定されますから、全ての事象で確率が均一化される訳ではありません。

 

 確率の場合、初期の思考として

 

   コイントス

   サイコロ

 

のように 【 最大値が常に定数化した物 】 を使って学習しますが、この辺りも小学校の算数を学ぶ際に定数を使いますが、これは、【 部品の基礎知識 】を得る為の物なのでそうなっています。義務教育で学んだ物を数学Iでは深掘りして更に自由度の高い内容や難しい処理をもう少し簡素に扱う為の方法を学習しますが、 【 式が複雑になる状態を簡素に記述する方法 】 なども基礎の拡張で扱えるようになります。

 

 基本的に小学校では統計学が登場し、中学校だと様々なデータの見方を学びますが、状況の判断は現実世界において感覚器官で判断している幾何の変化と同じなので、この状態変化の整合性使用する為に幾何学を学習します。これが、【 状況の整合性を示すもの 】 になりますが、統計学自体がグラフを使うので幾何学と代数学を使う物になりますから、基本的に幾何学と代数学の商法が必要になりますし、通常の自治体が運用している中学校で学ぶ文科省の学習指導要領に沿った内容ですらそんな感じになっていて 【 前の世紀からそうなっている 】 ので、数年前からいきなり難しくなった教育制度改革によるカリキュラムとは異なる前の世紀と言う太古の昔ですら、義務教育のカリキュラムだとそう言った仕様になっているので、日本の義務教育で当たり前に存在していたカリキュラムを受けて育った場合17世紀から存在している解析学も当然のように学習している事になります。

 

 飢餓額の場合、証明や図形の一致を示す合同などもありますが、代数学ではなく集合と論理でもベン図を使って幾何で判定を考えたり、記述で複雑な判定を作るk十になりますが、中学校で登場する照明も 【 状態から判断材料を用意して解析をし結果を導き出す作業 】 ですから、思考や解析の一種ですし、そもそも数学自体が 【 計算する物ではなく、思考や判断をする為の手段 】 なので、 【 計算 】 と言う代数学の一部を全てだと思って物事に臨むとストレージにデータを貯めるだけで終わってしまうので、物は揃えたが使い方が解らないというかなり酷い状態になってい舞います。とりあえず、システムを考えた時に、演算処理はCPUなどの処理が出来る物を使うので、まかり間違ってもストレージコントローラーに演算処理を任せることはありませんから、ヒトと言うシステムが存在した時にストレージコントローラーの強化をしてストレージへのアクセスだけ速いマイコン制御の何かになってもアルゴリズムの実行が出来るようにはなりませんからそうならない為の知識や能力の追加になります。

 

 義務教育でも関数を幾何寄りに使うカリキュラムで

 

   関数ノグラフのデータの塊から図形を導き出

    して面積を出す

 

    (多角形の変域を作りその中のデータの

     総数を導き出す)

 

   グラフから面を作成して、指定した軸を中

    心に回転させた時の図形の体積を出す

 

    (二変数関数上のデータの総数を出す

 

 

ような物が存在していますが、この時の処理も順番があるので、処理の流れは項でデータを縛った時のような加算式の構造と同じ 【 逐次処理 】 になります。その為、小学校でもアルゴリズムを使って処理をしなければならない物が登場していますが、数学の場合、しょうがっこレベルから数式だけ計算できればどうにかなるような物ではなくなっています。

 

 このように処理の流れも含めてアルゴリズムとして実装してそれを実行できるようにしておかないと対処できない物も多いのですが、その処理の内容が進学するほどに複雑になっています。

 

 その為、 【 処理の構造 】 を理解した上でどう言った流れで演算処理をしていくのか?と言う 【 工程 】 も含めて理解していく事になりますから、基本的に中学校のカリキュラムだとこの 【 アルゴリズムの実装と実行 】 で対処する事になります。この時に使用するデータがあるので、データをストレージに格納しておく必要がありますが、数学だと

 

   頻繁に登場する定数

   公式

   法則性(幾何分野も含む)

 

をデータとして何に使えるのかを関連付けして記憶し、呼び出して使用できるようにしておく必要があります。

 

 この条件で考えると、【 丸覚えだけで対処できるような分野ではない 】 ので 【 アルゴリズムの実装と実行 】 もできないと対処できないわけです。

 

 また、幾何の分野では処理の組み合わせが登場しますが、この内容も 【 項の組み合わせ 】 と同じ考え方ですから、 【 処理の結果に対して次の処理を実装する 】 という流れになります。

 

 そう考えると、コイントスたサイコロの目のような定数の確立は確率の基礎となる挙動なので、増減問別のアルゴリズムを包含しない法則性になります。つまり、重力加速度の公式が理想空間を使っているのと同じ状態になります。当然、この法則に空間上の物理法則の変化を追加する事で空間上のシミュレーションが行えるようになりますが、これと同様に、総数の変化と言う数値指定型のループ処理で総数が0に向かって消失するデクリメントな処理が含まれたものだと確率の法則性に対して環境による変化を追加して考えることになります。

 

 このように、現実世界では、複数の恒等式が孫座敷い連動して動作している訳ですが、中学校の数学のカリキュラムでも、個別のカリキュラムの内容を組み合わせて使用している物もあります。

 

 つまり、その個別の処理を 【 モジュール 】 として考えて扱った場合、プログラミング言語で処理自体を関数として外部に出して分けた時と同じように処理の内容の整理をする事が出来ます。そうすると、 【 既存の知識や実装機能 】 と 【 新しい処理 】 に分けることが出来ると思いますが、こうした解析を行うと、工程の中で何が解る部分で何が新規に追加された物なのかが判断出来る為、不足分の学習に取り組むことができます。そして、その状態が終わった後にアルゴリズムを再確認して実行してちゃんとそのカリキュラムの内容と同じ結果になるように計算や判断や処理が出来るようになっていれば、その能力を取得した事になります。

 

 確率や抽出や並び替えのような物には計算方法がありますが、これは物理方程式と同じで、【 状態変化を含まない場合 】 の計算方法になります。その為、実際に使う時にはシミュレーターのように環境に存在する要素を追加して計算をする事になりますが、この時の 【 複数の処理を工程に基づいて処理をする 】 必要が出てきます。これがアルゴリズムになりますが、こうした処理も算数や数学のカリキュラムの中で登場するので、それに対処する方法を学ぶこともできます。

 

 複数の数s機の組み合わせと言うのはダイナミクスを使う場合には当たり前に使用する事なので、現実に近いシミュレーターを動かす時にはごく当たり前に存在している処理になります。この辺りの関連性を考えて複数の処理が組み合わさった物を見るのと、漠然とそう言ったカリキュラムがあるので行うだけだと全く意味合いが異なる訳ですが、基本的に数学で登場している

 

   アリゴリズム

   複数の処理が組み合わさった物

 

については、思考や判断で必須な物になりますし、構造物を作る場合やそれを運用する際に発生しそうな問題点の洗い出しには必須の物になります。義務教育の知識の拡張が高校数学になりますが、教育制度改革以降の数学の内容は結構難しくなっているので、現在の中学校のカリキュラムだと座標の概念をベクターグラフィックに置き換えて考えてもそのまま使えるものですし、座標軸の向きが二変数関数のグラフと同じBlenderを使った場合だと、立体の取り扱いについても理解しやすい状態になっています。

 

 数学の処理自体がプログラミングと関連付けて考えると理解を深めやすい状態になっていますし、グラフィックを扱う上でも軸回転での体積を出すものが登場しているので、空間座標に触れる事が出来るようになっています。ちなみに、この空間座標の考え方ですが、高校の数学でベクトルを扱う際に座標平面で動く幾何ベクトルと、3DCGの概念そのものの空間で使用する幾何ベクトルが登場しますが、二変数関数のグラフで形を作る時に使用するベクトルの概念も立体形状に対応した状態で使用できるようになっています。

 

 現在は、コンピューターを使ったカリキュラムがあるので、数学の解析学や幾何学の分野だと動きを含めた状態で図形の変化などを体験できるのでかなりいい時代になっていますが、3DCGのような空間も座標軸を増やせば作れる事も義務教育で体験できますし、高校のカリキュラムだと、テクスチャを割り当てる時に使用するUV空間を適応する際に使用するポリゴンの表層部分やボリュームを使用する際に用意する外積や内積についても学習しますし、ポリゴンの表面の向きを示す法線も登場しますから、グラフィックと言う点で見ても数学の部分だけでもかなり関連した物が多く登場します。

 

 中学校ではグラフを使って切片による軸移動の概念を学習しますが、高校ではこれに加えて

 

   軸移動

   軸回転

 

を学習する事になります。また、複素数平面はラプラス変換で使用するので制御工学でも使用しますが、逆ラプラス変換をする際には三角関数を使うので、その相互変換で使用する基本的な知識も学べるようになっています。こうした知識もあくまでも理想空間上の物理法則と同じで 【 構造を構築する為の部品 】 なので、これを組み合わせて使う事になりますが、この辺りも基礎の拡張で対応し、その新しい知識の拡張で対応するような仕組みになっています。

 

 現在の数学のカリキュラムは情報Iと連動できるものになっていますが、グラフィックやインタラクティブなコンテンツを作る上で 【 表示 】 や 【 動作の実装 】 をする際にも使えるものが多く、高校の知識はそうした物の基礎的な物が多く用意されているので、グラフィックやゲームで使う数学の本を見ると教科書で登場する物が多く存在していると思います。

 

 とりあえず、訳も分からずに無駄と言うのは無知でも出来る事ですが、多くの場合、そう言った内容は単なる妄言なので、世の中において無駄な知識と言う物は殆どなく、技術体系として確立された物は有用性があるため残っているので、個人の思い付きとは全く異なるレベルで有用性のある物ばかりであり、世の中において使用されている物の方が多いです。