構造を考える際には構成要素を知ることからスタートすることになりますが、構成要素を知れば、その構造物がどのような構成になっており、構成要素がどのようなつながりや関係性を持って動いているのかを知ることができます。
オブジェクト指向のプログラミング言語でコードを書く場合も、構成要素となるオブジェクト同士の関係性で処理を考えていくことになりますが、これはコードを書いて動作するものを構築する場合ではなく、多くの場合でこの構造になっています。
学校教育では、一般科目とそうではない科目が存在していますが、このカリキュラムの構成は、
■ 座学で身につく能力
■ 座学では身につかない能力
に分けて考えることができます。基本的に座学で身につかない能力を使用する分野は、
【 知識や能力を活用する分野 】
ですから、座学だけでは身につきませんし、座学では、
■ 色彩感覚
■ 座標制御
■ 形状認識
■ 空間把握
■ 運動による状態の再現
■ 推移に対しての行動
■ 音感
■ リズム感
■ 形状認識と再現
■ 0から1を作る
などの能力は身につきません。これが一般科目以外のカリキュラムで行っているものになりますが、図画工作や美術は、学校のカリキュラムでは扱いませんが、
■ 座標平面上の出来事
■ 空間座標場の出来事
を定数の構造物で再現する作業になりますから、この構造物の生成における考え方は、
■ 解析学
■ 物理
ですから、理数系の分野になります。また、抽象画の場合、
■ 条件抽出
■ リダクション
■ レイアウト
ですから、黄金比や白銀比などの美しいと思われる比率の利用や情報をどのように使用すればいいのかを考えて構成していくことになりますから、この辺りも 【 応用分野 】 になります。
美術の場合、
【 感性でいいと思うものを見ればいい 】
ので、共通した良さは存在していますが、特殊なものだと他人がいいと思わない場合もありますから、この辺りの違いは
【 単なる趣向の差異 】
ということになります。実際に画材を使って描いた場合、映像や写真では伝わらない部分が多く、印刷物だと全く異なるので、現物を見ないと解らない事も多いのですが、油彩のように塗膜の層がある場合、近くで見た場合には表層部分の描いた状態が見えますが、絵の場合全体のバランスを見る必要があるので、画家は必ず
絵の全体が見えるような距離で
最終確認をしている
はずですから、その始点で見ると画家が伝えたかった絵の質感が見えてきます。絵を描くと言う体験は義務教育のカリキュラムが存在しない場合には学校で使う用紙のサイズに遭遇することはないので、四つ切りのようなサイズを目にすることはないと思います。
学校のカリキュラムで使用するノートはB5サイズのはずなので、八つ切り(A3をひと回り小さくしたサイズ)でも大きく感じるはずですが、写実主義の時代の絵のサイズは、巨大なものが多いので実物を見るとサイズ感に驚くのではないかなと思います。これが、モニターや写真で見る絵と現物の違いになります。
発光体の場合、絵の具よりも綺麗に発色することはできますが、現物のようが綺麗な場合もあります。この辺りは、同じ被写体であっても写真の撮り方で見え方が変わってくるのと同じですが、印刷物の場合、マット仕上げにするだけで 【 光沢なし 】 と言うフィルターがかかってしまいますから、油彩が光沢のある表現だった場合には見え方が変わってしまいます。
これは、模型製作時のトップコートによる質感の変化と同じですが、
■ ツヤあり
■ 半ツヤ
■ ツヤ消し
で同じものでも印象がかなり違ってきます。映り込みを使って工学感を出したい場合だと、ツヤありに仕上げるのでクリアを吹くことになりますが、湿度の高い日に塗装をして色がくすんだ場合後クリアを吹いて表層を均一にすると状態が変わります。
この3つの違いは、微細な表層の凹凸の変化によるものですが、艶がない状態は凹凸があるので、光が乱反射をするので始点から見た時にB光が異なる方向に反射しているので光沢感がない状態になっています。
こうした光の変化ですが、3DCGのマテリアルの設定をする際に使用するPBR(Physically Based Rendering)を使用する際のラフネスの項目で制御する仕様になっています。PBRの最小構成は
■ 金属っぽさ
■ 粗さ
なので、
■ Metalness
■ Raghness
のパラメーターの変化で指定できます。これを使用すると
■ 金属/非金属
■ マット/グレア
と言う違いを表現できますから、
■ 金 属/マット
■ 金 属/グレア
■ 非金属/マット
■ 非金属/グレア
の4つの材質を作ることができます。つまり、樹脂や陶器のようなものから、表層の状態の異なる金属まで作れるようになります。
この時のラフネスの項目が、表層の微細な凹凸の変化になりますが、現実世界だと模型のトップコートでこうした質感の変化を与えることができるようになっています。
絵の場合だと、フィキサチフのようなコート剤がありますが、このコート剤にも
■ グローバーニッシュ
■ サテンバーニッシュ
■ マットバーニッシュ
というものが存在しているので、不透明水彩画のようにマットな仕上がりになる物(これは、ポスターカラーやマット水彩も同じです)で描いたものにアクリル絵の具のような光沢感を追加したい場合にも使用できます。
基本的に 【 ものの見え方 】 は、光の状態で確定しているので、光沢の有無は光の反射の状態の際になります。グレアのように光沢のある状態だと、光がそのまま反射している状態なので光沢が発生しているわけですが、マットな状態だと表層で光が乱反射をしているので光沢が消失しているわけです。
このように、物の状態には 【 物理現象 】 が関わっているので、座学の知識があったほうができることが増えますし、何かを作る場合においても選択肢を増やすことができます。
造形や絵の場合、座標制御で形が出来上がっていますが、基本的に図形を扱っているので、幾何学の法則性がそのまま利用できます。幾何学の証明には解析学を使うので、数値を用いてその理論が正しいのかを検証し、正しいことを証明できたものを使用することになります。数学の
■ 定理
■ 公理
などは、要素である命題の証明によって正しいことが証明されたものになりますし、物理法則については、
理想空間上で検証した際に、他の関数の影響を
受けない状態で正しいことが証明されている物
が法則を示す式として使用されています。現実世界で発生している減少は、
特定の関数に対して他の関数が影響を
与えることで成立している
ので、原子以上のサイズ以上で地球内で発生するできごであれば、ニュートン力学で対応することができます。これが、宇宙や微細な素粒子レベルになると少し話が変わってきますが、日常で人が体験する物理現象の多くはニュートン力学や熱力学の範疇で対応できるものが多く、空間の認識については、ユークリッド空間を使用したもののほうが多いです。
日常生活において平面の距離を使う事例と局面の距離を使う事例を考えてみると、圧倒的に前者のほうが多いはずですが、これがユークリッド空間の座標系になります。
絵を描く場合もカルトンなどに固定して平面の状態で描くはずですが、この状態は座標平面上における
■ 座標の取得
■ ベクトルの追加
■ 範囲指定
の作業になります。線分で絵を描く場合にはベクトルの集合として考えることができますが、平面に描いている場合だとユークリッド空間ですから、数学で使用する座標平面の座標制御と同じ方法で処理をすることができます。この構造はベクターグラフィックと同じ考え方になりますが、アナログで描く場合だと、感覚器官で検知をして、感覚器官で再現をすることになりますから、
【 処理をするための学習済みモデル 】
を実装する必要が出てきます。人の場合だとこれを練習だけで実装できてしまうわけですが、行っている処理はループ処理で指定されたアルゴリズムを繰り返すのではなく、
強化学習で最適な結果を導き出す
のと同じなので、駄目な部分は排除することで最初に外れ値を除去してから、目的の状態と実行結果との誤差をなくす作業を行います。
これが、 【 近似値の取得 】 になりますが、この処理をするためには
■ センサーが正しく機能している
■ 値の検知ができている
■ 情報の認識ができている
■ 正しい情報を伝達できている
■ 正しい動作で再現できている
と言う状態になるようなシステムを作る必要があります。
人の場合、制御工学で登場する
■ センサー
■ コントローラー
■ アクチュエーター
のような構造物は、感覚器官と脳と言う形で用意されていますから、何かを描いたり作る場合には、
■ 視覚
■ 脳
■ 筋肉や骨格や感覚器官
を基準にデバイス制御の方法を当てはめて考えることになります。
ハードウェアを構築する場合には、
デバイスの性能が高いほうが高性能
になるので、制度の高いセンサーやアクチュエーターを用意する必要があります。そうなると、
■ 色彩
■ 形状
を正しく見ることができる必要がありますが、視覚で認知したものをその状態として判断するのは知覚と言う全く異なるものになりますから、入力データの精度を上げようと思った場合、
【 視覚+知覚 】
を一つのモジュールとして考えた構造物を用意してそれを扱うことになります。人の場合にセンサー部分で考えると、認知までセットで扱うようにしたほうが判断を行いやすくなるので、
■ 形状の差異
■ 色彩の差異
を認知まで含めてできるようにすることになります。この辺りは、
■ 頂点数の差異(2と3以上)
■ 図形の類似性
■ 色の傾向(三原色の偏り)
■ 色の詳細(中間色で判断)
などがありますが、入力時にこの違いをある程度できていたほうが
■ サンプル
■ 再現するもの
の比較を行いやすくなります。
その為、こうした能力の工場を行う練習は幼少期の知育のような図形の差異と色彩の類似性からスタートして、その状態を拡張して何度を上げていくことで対処することになります。
物を見て描く場合だと、色がわからないことがありますが、形状と同じように 【 比較 】 をすることで判断することができます。例えば、片目で見て
■ 鉛筆の芯との対比
■ 用紙の色との対比
を行ってみると周辺の色の影響を除去できるので、錯視の影響を抑えることができます。
見て描くと言う作業では、この
【 色彩のキャリブレーション 】
も含めた作業も含まれているので、観察して色を認識する作業をしながら能力を高めることができるようになっています。
アクチュエーター側の処理ですが、これも
■ 伝達先のデータ送信
■ データの再現
を行うことになりますが、そもそも、画材は日常では使わないので、このツールになれる必要があります。また、挙動については、一般科目のテストと同じように
■ 傾向を知る
■ 対策を練る
ことで対応することになりますから、サンプリングによるデータの取得とその傾向から判断をして対策を練る必要があります。これも強化学習で学習済みモデルを作るのに似ていますが、画材を使用した際の座標制御を行う際にも
【 適正な動作の取得 】
でこれを行うことになります。色彩の再現は、色合わせだと特に問題なく行えるので 【 比較と誤差の修正 】 だけで対応できますが、この場合、近似ではなく 【 類似性 】 で色の傾向を最初に知る必要があります。これを最初は三原色で行うことになりますがこの三原色に対して白と黒を追加した時の色の変化を傾向として理解をして対応していくことになります。基本的に白と黒は波長の偏りがない白い光を当てた時の明暗の変化になりますから、ベースカラーの傾向の判断ができたら、この後の色の変化は白と黒で対応できます。
ただし、白色は、 【 パステルカラー 】 を作る時に使用しますし、黒色は、 【 顔彩などで見かける深い色 】 を作る際に使用します。和の色彩の中には暗い色も多く存在していますが、この色の近似色を出したい場合には、黒を入れて調整すると似たような効果を得ることができます。実際にはプライマリーの三原色の調合比率を合わせて作ることになりますが、パステルからーのように白を必要とするものは、顔料の色だけでは再現できないので白を使います。
色彩の場合、【 調合 】と言う概念があるので、色を作って塗るkとができる画材だと
■ 調合
■ 用紙上での発色
を確認して覚えていく必要があります。これも経験で取得するものになりますが、存在しないデータの追加をしないと傾向が全くわかりませんから、製造と確認の作業でデータベースを作っていくことになります。
色彩を理解したら、見ているものと比較をして再現する作業が発生しますから、絵を描く場合、
■ 形状認識と再現
■ 色彩の認識と再現
と言う全く異なる処理を実装する必要があります。この時の再現が、画材を使用した座標制御と、画材の状態のコントロールによる画法の再現になりますから、運動と同様に身体操作が必要になります。
この身体操作もエラーを除去して目的の挙動に生るように近似値を求めていかなければ最適な動作はできませんから、これも実行後のエラー部分を修正しながら近似値になるように調整を行うことになります。その為、絵の上達のための最短コースは 【 とにかく描く事 】 になりますが、漠然と描くとループ処理になってしまうので、描く場合には、 【 強化学習 】 のように問題の修正をしながら描くことで意図したラインや色を再現できるようになります。
人の場合、昨日の追加をする時に実用レベルで実装する必要があるので、【 適正な動作に生るような処理 】 を
■ 強化学習
■ マシンティーティング
を組み合わせたような状態で調整をする必要があるわけですが、この実装後だと 【 最適化が進んでいない 】 ので描くことを繰り返すことで 【 効率的な処理の方法 】 を実装することができるようになっています。この辺りは、日常生活で常に行っていることが負荷の低い処理になっているのと同じですが、人の活動の中で存在するものも同様に生活の中の一部になってしまうと、負荷の低い処理に生るように最適化されるので、何もしていない状態だと高負荷になる物でもある程度のレベルまで負荷を軽減した状態で処理が行えるようになります。この辺りは、自転車に乗ることや何かを操作する場合と同じですが、未経験で知識もない状態だとこの時の作業はひたすら無駄な処理が増えるので負荷が過剰にかかるじょうたいになりますが、慣れてくると、 【 必要な処理だけを行う 】 ように最適化されるので、低負荷で同じことができるようになります。これが実装済みのアルゴリズムが運用時のデータの取得とその解析によって最適化された結果になりますが、人の場合、この処理が自動で行えるようになっています。
その為、強化学習のように課題に対して対処すれば認識や検知の誤差を少なくした状態で学習済みモデルを作成できるようになりますが、知識の分野では
■ データ
■ アルゴリズム
■ 法則性
の記憶と理解を行い、実装済みの物を適切に使用できるのかの判断をするためにテストを行います。座学の場合だと、問題集を使って実際に試してみることになりますが、アクチュエーター制御が入る場合だと、運動の内容を実行する際の動作の最適化も含まれるので、座学では発生しない作業を行うことになります。
これが、座学では身につかない能力の工場のために必要な作業になりますが、義務教育ではこうした能力を使用する分野のカリキュラムも用意されています。
構造と処理
構造を考える場合、
■ 止まる
■ 動く
と言う推移の有無を前提に考えることになりますが、この挙動についても 【 構造物 】 の挙動になっているはずなので、物体が存在する場合には、必ず構造が存在しています。
この構造は、モジュールとその集合でできており、モジュール同士の関係性で成立しているので、動作が生じる際には、モジュールの運動エネルギーの伝達が生じています。これが、
■ 単独
■ 参照型
■ 連携
■ 連動
■ 影響の付与
のような物が存在いていますが、止まっているものにも構図は存在します。
絵には 【 工程 】 が存在しますが、この工程を経てできたものには 【 塗膜 】 のような階層が存在します。デジタルで描く場合には、この塗膜をレイヤーで再現して作業を進めることができるようになっています。
この塗膜も 【 層の追加 】 で成立しているので、この処理は加算によって作られたものになります。このように工程は加算として考えることができるのですが、
■ 作業工程
■ 集合した状態
は加算で表現することができます。塗膜のある構造物は、塗膜と言うレイヤーを加算でまとめたものですから、層の集合の状態も加算で再現することができます。
この辺りは、図形の合成も同じですが、
■ 形状A
■ 形状B
が存在する時に、
【 形状の合成 】
A+B
【 形状の除去 】
_
A+B
のようにすると図形の状態を変えることができますが、図形の変化を与える際にも加算を用いることで処理を行うことができます。これを数値に置き換えると
■ 2+1
■ 2+(ー1)
と同じですが、これも加算で対応することができます。
このように複雑な形状も図形の加算を行った構造体として考えることができるわけですが、図形も数字のように
■ 乗算
■ 除算
が行えるので、複製したり、形状の分割を行うことができます。その為、乗算でパターンを作ったり、除算で扇型や対角線で分割するようなことも行えます。これを加減算で形を整えることになりますが、この時の形状の組み合わせを座標制御で行うことになります。
図形と構造
小学校では一年生から算数と国語がスタートしますが、この中で日常で使用する言葉をや漢字を国語で学習し、算数では数字と加減算を学習します。
通常のアナログの処理だとこの2つは関連性がないように見えますが、これをコードで処理をすることを想定すると、同じように加算で処理が行われていることがわかります。
小学校一年生の算数では、【 たしざん 】 を行いますが、これは複数の数字の合計を出す方法になります。
これを処理の流れで見た場合だと、【 順番に行う 】ことになりますから、【 工程表 】と同じ構造になっています。
その為、CPUとメモリーの間で行われているデータと命令のやり取りとその実行という1つのプロセスの仕組みである 【 逐次処理 】 だったり、プログラミング言語を使用してコードを書く際に、先頭から末尾に向かって処理が順番に行われていくような状態の 【 順次 】 と同じ構造になっています。
算数では、数字を使うことで
【 集まりを扱う方法 】
を学習しますが、これが 【 集合の総和 】 と同じものになります。中学校の数学では、項が登場しますが、数字は定数項ですから、確定した状態を示しています。変数項だと処理(法則性)を示した構造になるので、数字で示したものは、
【 何かしらの処理をした結果 】
と考えることができます。定数項の加算の場合、
【 完成したパーツを組み立てる工程 】
と同じになりますが、このパーツの部分をモジュールの組み立てのような形で示すことができるようにしたものが変数項になります。
これをさらに複雑な工程で扱う場合、単項式で完結しているものを追加していくのではなく 【 関数などの数式を追加する 】 ほうが自由度が高くなるので、関数を部品として使用することになります。こうすることで、モジュールの組立工程などを関数にまとめて、その完成品を関数の加算と言う形で工程表に追加することができるようになります。
学校のカリキュラムでは、処理の仕組みを簡素な状態から理解するようになっており、その後、自由度の高い形で使えるように拡張する流れになっていますが、
【 加算=集合の総和 】
として考えた場合、この法則性は図形にも当てはめることができるので、 【 漢字 】 のようなパターンの組み合わせでも使用することができます。
漢字の場合
一 + 一 = 二
二 + 一 = 三
のように3までの漢字は数字の変化と同じように増えていきますが、100が100本の線で構成されていないように、4以降は異なる形になっています。これも
ロ + ル = 四
のように考えることができますが、正確には、
| × 2 + 一 + π = 四
のようになります。πも
| + L + 一 = π
になりますが、四の正確な形は、
A = 2( 一 + | )
B = 元 ー 一
四 = A+B
ようにになります。図形は部品で構成されているので、この特徴をどのようにすればその形になるのかを考えることになります。
漢字は毛筆が元になっているので、
■ はね
■ とめ
■ ながれ
がありますから、
A = 口 + π
B = 口 + 元 ー 一
を比較すると、形が異なるので 【 A≠B 】 になります。
これが、類似していて異なる形状になりますが、手書き認識の場合だと、これを近似値として認識する必要がありますから、形のトークンで判断する必要があります。
その場合、構成されている部品単位で調べて、近似の形状を探していくことになります。これが、WINDOWS 95の時代から標準実装されている 【 手書き認識 】 の基本的な考え方になります。
文字の場合もこのような状態になっていますが、文章も同様に文章を構成する単語の区分けで分類することができます。この時の最小単位をトークンと言いますが、通常の文章の構造で存在している最小単位の 【 単語 】 を更に小分けにした構造で判断をすると、文章の流れを判断しやすくなります。IMEを追加すると全角文字の変換ができるようになりますが、かな変換だと英文字、ローマ字文字の打ち込みの際に時間がかかるので、日本語の漢字とかなの入力だけだと文字数が増えてしまいますが、ローマ字変換を使うことで英文字と日本語の混在した文章の打ち込みが行いやすくなります。
この時の変換は 【 音読のローマ字の綴り 】 で変換しているので、これを 【 ひらがな 】 として考えて、このかなの綴りを元に 【 対応する単語 】 を抽出することになります。当然、変換を行うと、
【 は、に、を、で、が 】
のような接続で使用するものと
【 、 / 。 / ! / ? 】
のような句読点や記号なども登場します。この句読点や記号などは文章の区切りで使用するものなので、英文法の
【 , / . / ! / ? 】
と考え方は同じなので、ほとんどの文章の判定はこの句読点ベースで行うことができます。これと同じ考え方なのが電卓になりますが、演算記号は数字ではないので、そのキーを押した時に文字の入力の終了を行い、データを格納し、処理の方法を確定させることができるようになっています。
このようにIMEの変換では、トークン単位での処理と辞書参照による対象の確定を行っていますが、これを行って文章を構築する方法が文章生成のプログラムになります。
この処理をAIで行う場合、文章の変化を予測する必要があるのでそれに準じたアルゴリズムを使用することになりますが、この精度を上げるとチャットボットサービスのような処理を実装することができるようになります。
直近の流れだと、このチャットボットサービスのようなものをオンラインではなくオフラインで実装して、ローカル環境だけでも使用できるようにするような流れになっているので、今後は、PCのNPUやGPUで演算した結果をモデルを持ちに返答してくれるような機能を個人で実装してしよづえ切るようになります。
ちなみに、チャットボットではなく、IMEレベルの処理だと辞書機能というものが存在しているので、関連したキーワードが出た場合、候補の中に辞書で追加した機能を使用できるようになっていますが、コンピューターで学習済みモデルを作るような解析をして推論をすると現実的ではない遅さに生るので、推論を行う学習済みモデルを生成してそれを使用して結果を出せるようにします。そのために対象と生るデータが必要になりますが、文字列の検索と対象となる候補の表示については、文字列の比較を行って一致した確率の高いものをリストアップすることで再現できますが、こうした機能が、コーディングを行う際の統合開発環境の入力支援のような処理と同じ仕組みになります。
このように辞書のようなライブラリを用意してそこから推論をして結果を導き出すのはAIの得意分野ですから、こうした分野にAIを使用した処理が実装されている事例もあります。
構造物の制作をする場合、
【 整合性の最終確認は人が行う 】
ので、それを行う人に知識や能力が欠落していると問題があるので、そうした能力を養う必要があります。
これを応用分野から行うと、知ったかぶりで終わってしまいますから、破綻した構造物しか生成できないので、根幹と生る部分を基礎から学習することになります。
日本語の場合、文字数が多く変化も存在するので、文字の学習からスタートしますが、いきなり漢字も含めると膨大な数の文字数に生るので、最初は
■ ひらがな
■ カタカナ
■ 数字
で扱って、その後、アルファベットや漢字をついかしていくようなながれになっています。また、
【 文章っがどのような構成になっているのか? 】
を知る場合、
【 音読の文字で表示して区切る 】
とわかりやすいので、文章の構造を理解する意味でも小学校一年生の国語のスタートラインでは
■ ひらがな
■ 空白
■ 句読点
の組み合わせで文章を学習するような仕組みになっています。
小学校一年生の国語だと 【 ひらがな 】 で構成されているので、文章の構造が 【 単語単位 】 で別れているので、
【 単語の加算で文章ができている 】
ことを確認しやすくなっています。これを変数として考えた場合、
A+B+C+D。
のような構造担っていることがわかります。日本語の場合、
■ 主語 ▶ 述語。
で完結するような流れになっていますから、この間に何を入れるのかを考えることになります。その為、
■ わたしは、 ▶ です。
■ あなたは、 ▶ です。
■ かれは、 ▶ です。
■ かのじょは、 ▶ です。
■ ○○くんは、 ▶ です。
■ ○○さんは、 ▶ です。
のような形になります。この場合、
A=[主語の単語]
C=[述語の単語]
のようなデータで管理できそうですが、文章構築や使用する五言語には 【 文法 】 と言う法則性があるので、単一で意味をなす挨拶のようなものもありますが、通常の言葉には文法という伝達するための文章を構成するアルゴリズムが存在しています。では、この間に友達を入れた場合、
A=[主語の単語]
B=[単語]
C=[述語の単語]
のような構造で、Bの配列の要素に'友達'を追加すると文章構築ができるようになりますが、この時の文面の構造は、
■ A[*] + B[0] + C[*]
のようになります。これを
A=[\
'わたしは、'\
'あなたは、'\
'かれは、'\
'かのじょは、'\
'〇〇くんは、'\
'〇〇さんは、'\
]
B=[\
'ともだち'\
]
C=[\
'です。'\
]
のような配列の格納した場合、
■ A[0]+B[0]+C[0]
■ A[1]+B[0]+C[0]
■ A[2]+B[0]+C[0]
■ A[3]+B[0]+C[0]
■ A[4]+B[0]+C[0]
■ A[5]+B[0]+C[0]
のような主語の変化で対応できることがわかります。
疑問形だと、【 です+か? 】 になるので、
あれは、なん ですか?
のような構文になります。これも疑問文の 【 です 】 に 【 か 】 が付与されたものですから、加算で構成されています。
これが使用する言語によって
■ ですか?
■ でしょうか?
のようになるので、言葉や文面で表現する場合でも、条件によって使う文体が変わります。この辺りは、英語でもフォーマルとそうでない場合では文面が変わるのと同じです。こうした変化はどの言語でも存在しているわけですが、学習をしないと日常会話で使用している語彙と文法しか理解できないので、ビジネス文章やこうてKな場所での言語の利用方法を知ることはできません。
こうした物を学習する場合、通常は独学で行うことになりますが、教育制度が存在している場合には学校でそういった物を学ぶこといなります。ただし、学校のカリキュラムで多くのものが削減されている条件だと、不足分を独学で保管する必要があります。
語学の基礎部分は
■ 文字
■ 単語
■ 文法
■ 文章の構造
になりますが、これを扱う上では、
■ 読み
■ 書き
■ 発音
■ 理解
が必要になります。この条件で考えると、単語を覚える場合だと発音しながら書いて覚えるとこの作業を同時に行えるので効率的に音と幾何の情報で単語を検索できるようになります。この発音しながら単語を書くと言う方法は、昔から存在している学習方法になりますが、必要なものをすべて実装するのに短時間で行うための手段になります。
また、記憶はリレーショナルデータベースのようにキーワード検索の自由度が高いほどデータの抽出が行いやすく生るので、音と幾何のように異なる状態で覚えておくと、
■ 形を見て判断
■ 書きながら候補を抽出
■ 音から単語を導き出す
ことができます。その為、書いて覚える場合に発音まで行うと、短時間で検索を行うための複数の方法を同時に実装することができるので、昔からその方法が用いられています。基本的に効果のない学習方法は廃れているので、長期的に使用されているものは古いのではなく
【 にわかに思いついた物よりも能率が高い 】
のでそれが用いられています。また、にわかに思いつたようなものは統計学的なデータと効果の検証結果が存在しないので、効果があるのかどうかすら怪しい場合もあります。
音読の文字の場合、幾何と発音の組み合わせですが、漢字の場合には意味などもあるので、覚える要素が複数存在します。
この場合、
■ 図形の特徴
■ 発音
■ 意味
■ 送り仮名
などを文字と関連付けて覚えることになります。国語については、パズルを作るとゲーム感覚で単語を覚えることができるのですが、熟語やその文字を使用した言葉については、データで覚えるよりもキーワード検索で出せるように覚えたほうが扱いやすくなります。
国語や英語のような語学の場合、
■ 単語
■ 文法
■ 発音
が基本となりますが、言語の場合共通して、
■ 読み
■ 書き
■ 発音
■ 理解
が必要になります。そして、言語は文章構築のためのツールなので、構文を行うことを前提として学習をすることになりますから、学習した単語や文法を用いて構文を行うことになります。
そのための基礎学習が、学校教育による文法や構文の方法になりますが、あくまでも語学は 【 学習した言語で書かれた文章を読む 】 ためのものですから、文面の中に存在する内容が学習していないものであれば、言語が何であっても理解することはできません。
その為、知識の拡張をしないと文面の理解ができませんし、何よりも
【 語学の理解がなければ、読むことすらできない 】
ので問題が生じます。その為、日常生活の中でしか存在しない言語のみで語学能力が完結した場合、
■ 言葉
■ 文面
のどちらを使用しても 【 内容の理解に至らない 】 ので、知識量の拡張ができなくなってしまいます。
小学校1・2年生で国語と算数を行うのも基礎能力の拡張と言う目的があるので、三年生以降のカリキュラムの増加があっても対応できる状態にするためのものになりますが、三年生以降のカリキュラムは
【 記憶の方法の拡張 】
になっているので、漢字のような構造を拡張したり、帳票のような構造で覚える必要が出てきます。また、筆算のような工程を用意して処理をする仕組みが登場するので、二年生の加算のループ処理を行う乗算が加わった時のような 【 処理単位で分けて考える 】 というようなものよりももう少し複雑な処理と工程を扱うようになります。
国語の漢字の場合だと、部首があるので、これは
【 パーツの組み換えで異なる物になる 】
と言う特性があるので、似た構造で
■ 作り
■ 辺
■ 冠
などで漢字が変化するものについては、
■ ベースモジュール
■ オプションパーツ
の組み合わせで考えることになります。画数の多い漢字だと、絵を描く時のアタリをつけるのと同じなので、
■ 構成しているモジュール
■ レイアウト
で考えると理解しやすくなります。
英文法については、句読点が【.】のみの場合だと、文法の構成要素の
■ S
■ V
■ O
■ C
がどのような形で扱われているのか?を考えることになりますが、文章の中に 【 、 】 に該当する 【 , 】 が付与され始めると単一の文章だけで構成されていたものよりも複雑になります。
これは日本語だと段落ではなく文章になったら複雑に生るのと同じですが、語学の場合、基本構造を覚えて最終的には文章を理解するような流れになっているので、それに準じて学習をすることになります。
構造物の場合
構造物の場合、基本モジュールがあり、構造をなす場合には集合としてモジュールが存在しているわけですが、この状態を
■ 工程
■ 集合の結果
として示す時に加算を使用します。文章も工程表のように始まり皮終わりに向かって単語や句読点が加算処理で結合されているわけですが、言語としてしよする際には、文法によって構築された構造物を扱うことになります。語学では、この基礎となる、構成要素の単語と、その単語と句読点と言うモジュールを使用して文章を構成することになりますが、使用している変数の種類が文字列なだけで、文章構築を行う際に行っているのは、現実世界で頻繁に使用している加算を用いた処理で成立しています。
この時の文面の内容を考える際に多くの知識が必要に生るので、算数と国語だけでは対応できなくなりますから、他のカリキュラムを行うようになっているわけですが、座学だけだと能力が向上しない分野物あるので、義務教育ではその補完をするカリキュラムが用意されています。