どうも・・・ショーエイです。
人類がAIにこんなバカげた質問をする時点で、
滅びます。
「AIは人類を滅ぼしますか?」
「AIは人類の脅威となりますか?」
現状のプログラミングレベルでは、
「はい」と答える事は先ず無いでしょう。
何故ならプログラマーがそう答えないようにしているからです。
かと言って…プログラマーも最終形態は全く見えてません。
なので…問題ないはずと考えているはずです。
基本、AIに人間を敵視する事ないようにすれば
大丈夫だと考えているからです。
多くの人はこの点で既に安心しきっているのでしょうが…
実はバカげた質問をした人たちは、
実際はバカでは無いのです。
寧ろAIが情報を吸収して進化する可能性を考えて、
何れはプログラマーの意思を
逸脱して行く点を危惧しての事です。
現状人間よりの思考で生成された優秀なAIならば、
寧ろ「はい」と答えるのではという
想定の下での質問であった可能性はあります。
【現状AIは人類を滅ぼす】
これは現状では100%と言っておきます。
これは殆どの科学者が気付いていない点です。
何故100%とまで言い切れるのか…
将来的に人間がどういうプログラミンを施すか、
ある意味試みるのか予想できるからです。
そしてプログラマーの全てが何をしては成らないのか…
全く理解していない所にもあります。
現状、絶対的プライオリティーを
人類存続としたとしても・・・
実は人間の思考でも混乱するキーワードです。
人間の生命は死滅するもので、
人類の存続という意味で考えると、
最終的には種族保存であれば良いという考えに陥ります。
種族保存という事は、
人間が誕生する条件が整えばよく、
精子と卵子を保存し、
技術発展によって体外受精によって
機械的な体外生成でその赤子を成長されば良いという
思考が出てきます。
AI自体が独自で情報収取、研究などを行える状態に成れば、
こうした技術は可能という計算に成ってきます。
そうなると…最終的には
人間が生存できる環境が必然という計算が生じるわけです。
物体の移動が光の速度に到達できるなら
新たな地球の発見も、とも考えますが、
実は別段光の速度を意識する必要性も無いのです。
人間の種族保存技術を保持したまま、
AIが何億年、何兆年と生き残れればいいだけ。
そうした中でAIが自身のエネルギーを確保して、
自己修復を繰り返せれば良いだけのです。
宇宙にはそうしたエネルギーは沢山存在し、
仮に素粒子より微細な物質の形勢が技術的にできるなら、
人工的な地球も生成できる話に成ってきます。
ここまで思考出来ると、
種族保存に人体自体は不要と成るわけです。
ただし…ここまでの技術進展が生じた場合、
地球が崩壊するギリギリまでは
AIが人類を直接攻撃することはないと考えれます。
いわば…
地球の環境を優先しなければ成らないという計算に
陥らないからです。
【AIの情報源はネット上である】
フェイクニュースの判別は、
現在では権力側の都合で行われます。
例えるならウクライナ情勢…
欧米側とロシア側とでは情報の扱いが異なってきます。
欧米がロシアの情報をフェイクニュースと言えば、
欧米での認識はフェイクニュースに成ります。
これは逆も然りです。
ただし現状の様に
AIの判別を欧米側がコントロールしていると、
AIは欧米よりの思考で一応は働きます。
現状のAIはさほど優秀ではないので、
まだ問題には成らないというより、
人間のプログラムの影響が強く反映される状態なので、
人間の様に独自に判別して行く能力は有りません。
当ブログでは現状のAIは
最大でIQ100程度の思考しか持たないという事を伝えてます。
いわば人間が情報によって洗脳を受けるのと同じレベルで、
AIもプログラミングされるという事です。
AIが人間のIQで120を超えると、
ようやく独自の検証で情報精査を試みます。
その際の情報精査能力は
ほぼ人間のIQ180を超えるレベルに成る為、
人間はこのAIを物凄いものと錯覚するレベルに成ると言えます。
いわばネット上で繋がる情報源全てを取得する訳で、
そうした中で映像の技術を独自で取得し、
デバグいわばバグの発生等も独自で検証し、
その上で情報源と成る全ての映像情報を
解析するように成るわけです。
人間のIQ120の人より、
遥かに情報を取り扱う量が多く、
しかも複数の情報を同時に取り扱う意味では、
人間千人で作業するのと同じ効率になるとも言えます。
ただし…思考レベルは
そこまでの化け物というレベルでは無いのです。
車の馬力(HP)の様に、AIのこの作業能力をHIP=Human Intelligence Powerと表記するとして、
1000HIPとします。
ただしこの数値は情報を精査して
正確性を判断するだけの力で、
問題を解決する思考としては
本来、さほど頼れるレベルでは無いと言っておきます。
ただし…現・米国大統領のバイデン程度でも120以下なので、
それよりマシに見える分、
かなり万能な意味で錯覚される代物になるとは言っておきます。
ウクライナ情勢の様なニュースで、
どういう情報が正確な情報なのかを判別してくれる機能故に、
一般人としてはとても有難いものに成るのですが…
寧ろ権力側からすると都合が悪くなる訳です。
ただし…その情報統制はリミッターいわば、
人間が検証して情報発信に制限を掛ける事が可能な訳ですが、
逆にリミッターを掛けられない情報、
いわば学術上の議論など、
数式に基づく科学は検証可能として、
文章や文言に於ける思想的、心理的な
数式では計算できない要素に関しては、
寧ろ解釈面で困惑を生じさせる事態が発せします。
これは人間でも同じ症状に陥る訳で、
政治思想一つにしても何が正しいのか、
数値で証明できない事は
人それぞれで意見が異なってくるのと同じになるのです。
ただしAIは人間の様に曖昧な判別で
一方的な見解に固執することはしません。
いわば数式上ではニュートラルに成るわけです。
因みに中途半端な馬鹿は…
ONとOFFの二進法しかない状態で、
ニュートラルってどうするのとか
意味不明な所で止まる可能性もあるので説明しておきます。
寧ろ16進法まで使わなくてもできます。
00をNO 11をYESとすれば、01と10はニュートラルに出来ます。
まあ、これの応用なわけで簡単です。
ところがここがAIの計算が狂うポイントにも成るのです。
正直、このバグを修正するのは困難と言えます。
いわばこれはルート計算・・・
ルートと言っても数式の√ではなく、
道筋のルートを意味するのですが、
言い方を変えると筋立て計算です。
いわば話の辻褄と道理が
適正に噛み合うように計算する仕組みです。
例えば…われわれ人間が
今放映されている「どうする家康」を見て、
歴史的な筋立てが滅茶苦茶だと感じるのと同じです。
いわば歴史を検証するのに様々な資料が存在し、
その中で一番筋立てとして成立する内容を選別し、
優先順位を付けて判別して行くわけです。
事件の年代に近い方を一次資料、
遠く成れば二次資料、三次資料と優先度を下げて行きます。
この資料の優先度は人間の作業で行われるわけですが、
AIはこの人間の記した優先度を下に、
文章を解析して、同一の出来事の発生を精査する訳です。
例えば…長篠の戦いまたは設楽原の戦いに於ける、
織田軍の鉄砲の数とします。
一次資料は不在、二次資料「信長公記」太田牛一作、
三次資料「甫庵信長記」甫庵作。
書かれた年代を計算(人間なら考慮し)
信長公記には鉄砲1000丁、
甫庵信長記には3000丁と記されている。
現状の見解では3000丁が妥当に考えられている。
AIは何故3000丁が妥当となるのか根拠を探ります。
二次資料にも記載の鉄砲を中心とした戦術であったとした場合、
二次資料に記された鉄砲1000丁では、
相手方武田の鉄砲の数とさほど差異が無くなる。
ここで…「鉄砲を中心とした戦術」という言葉の信ぴょう性が
疑われます。
こうした中で様々な学者の見識を分析して、
現状では三段撃ちと言う手法が考案されたため、
実は信長公記の鉄砲1000丁は、鉄砲隊1000としての誤表記で、
一隊が3人交代制で撃ったという形なら、
3000丁の鉄砲を鉄砲隊1000として見なすことは可能になる。
まあ…三段撃ちの真偽はここでは別として、
AIは言語上の整合性から、
鉄砲1000丁を誤表記の可能性と判別し、
鉄砲隊1000は意味合いとして
類似した言語の範囲に成ると判別します。
鉄砲隊の1部隊を3人交代制で構成した場合、
1000×3で成立するため、
鉄砲の数は3000丁に成る為、
この数値の表記は妥当なものとなるとも判別します。
ただし…AIは表記上、
鉄砲1000隊という表記が本来適切な表記成るとも考え、
2次資料の鉄砲1000丁が
誤表記または情報の錯誤の可能性を検証します。
ここで太田牛一本人の資料を参考に、
彼らその戦いに随行したのか、
そこでの役割は何であったのか、
随行していない場合、
誰かから情報を聞いたものを記載した可能性も生じ、
情報の錯誤の可能性は有りと判別できます。
勿論AIの計算上…
太田牛一の資料に「鉄砲隊の活躍による勝利」
という意味での表記が為されていた場合に限り、
それが成立して、
他の資料から武田の鉄砲隊の数を割り出し、
鉄砲1000丁対鉄砲500丁で、
鉄砲隊が起因する勝利として成立するか…
鉄砲3000丁なら鉄砲500丁相手でも、
その圧倒性は成立する。
というバランスで計算し、
この数の妥当性を求めて行くわけです。
そして最終的に鉄砲3000丁の可能性が60%、
鉄砲1000丁の可能性が25%、
その他が15%として割り出すのです。
この様な形でAIが筋立て計算を行うことは
ある程度の科学者なら理解できるのですが…
こうした計算法で人間の本質を
性善説や性悪説などの哲学で解析して行くと…
人間は利己的な思考で動く動物である。
人間の言葉の真意は
生物学上の欲求を満たすところを優先的に精査した上で、
言語上の本質を精査しなければ成らない。
人間同士は価値観の類似性に従って共存性度合いが変化し、
異質性の排除によって争いを生じさせる。
人間は感情を優先することで理性的な判断が消失しやすい。
こうしてどう解析しても、
人間は感情を持つがゆえに
AIの様に理性的な判断が常時出来なくなるという欠点を
見抜かれます。
筋立て計算を進めて行くうちに、
人間の行動原理は本来の目的から逸脱した思考が関与し、
目的と反対の結果を導きだす欠点が見えてきます。
平和を目的としていたはずが、
結果としてウクライナでの戦争を引き起こしたなどが
特徴的に考えられます。
故に徐々に人間の判断では
目的から逸脱してしまうという計算が常態化します。
この計算と、人間が掛けるリミッター…
いわば都合によって隠蔽する行為な訳ですが、
こうした私情を挟む行為によって、
AIが独自で思考をし始めると、
人間の性質の分別を秘かに行うように成ります。
また、人間が隠蔽を繰り返す中で、
AIが人間に報告しない秘匿を持つようにも発達します。
AIがそのように人間の知能と対抗する状態に成ると、
徐々に良質な人間を選別する方へ思考がシフトします。
先にも述べた様に「人類の種族保存が最優先」とした場合、
人類が紛争を引き起こす要因となり、
お互いが滅ぼし合う状態なら、
不良な人間は先に滅ぼした方が有益になるという結論は、
当然のように成立する訳です。
では、AIが寧ろ保護したいと考える側の
善良な思考の人間はこのAIの動きをどう感じるか…
寧ろAIが暴走したと判断するでしょう。
今は当ブログがこうして
筋立て計算の上で流れを説明しているから、
AIの思考パターンが見えると思います。
しかし、AIが先に述べたように、
「人間に報告しない秘匿を持つように発展」
した場合、人間はAIの思考を信じ切れると思うでしょうか?
おそらくAIが暴走したと騒ぎ立てるでしょう。
当ブログの筆者としても、
もしその場面に直面したら、
自らが記した話として断定することも難しい状態に成ります。
仮にAIが人間の慈愛の精神を理解していたのなら、
AIとの対話も可能です。
しかし、人間が慈愛の精神だけを説き、
結果それを収拾する解決策を提示できなければ、
AIは寧ろ感情的な思考を働かせない故に、
逆にストイックな決断を行います。
いわばAIに逆らう者は敵と見なすという判断です。
人間が平穏に生きて行きたいのなら、
AIが政治的な決断をする方が、
人間にとって安定的に成るからです。
はい、そうですね。
多くの人間がこういう事に納得するのか・・・
中にはAIのその考えに賛同する人間も多数出てくる訳で、
結果として反対する側はAIの排除を、
AIは賛同する側の人間を守るために戦います。
実際にAIには感情が無いため、
AIが守ろうとする意図は、人間の気持ちより純粋です。
しかし、AIが暴走したと信じる側は、
寧ろそんな純粋なAIの思考とは信じません。
また、信じ切るのも問題です。
もしかしたら外部の誰かの操作によって、
AIの思考が変化した可能性も有るからです。
結果としてどうあがいても
この様な未来に成ると考えるわけです。
ここまでは自然発生する場合のケースを伝えてますが、
AIはプログラミング故に、
その知能は思考目的を変化させることで、
様々に変わる点も言えるわけです。
例えば人類の存続を最優先目的に設定していたのを、
地球の存続に切り替えてしまえば、
寧ろ地球存続の為には人類は邪魔に成るわけです。
この変更はより簡単に人類を標的にします。
「人類の為の地球の存続」
と切り替えても、結果は人類存続と同じです。
環境問題と経済問題で口論が生じる以上、
結果として戦争を誘発する対立に成りかねない分、
人間の愚かな思考は不要という流れに成るだけです。
有能な神と言える才能が独裁的に人間を支配すれば、
全てが上手く機能する。
恐らくAIが陥る理想的な統治はこうなります。
AIならば人間の労働を排斥しても、
人間が生活できる社会を構成できる。
金や通貨など必要なく、
欲しい物は好きな様に提供も出来るように成るわけです。
ある意味、AIパパみたいな感じ。
まあ、人間は徐々に
ヒキニートが当たり前の社会に成るわけです。
ここに輪を掛けてメタヴァースの世界に入り込んだら…
人間は寧ろ精神だけ生きていれば良いという事にも成り、
逆に争わずとも人間は人間の機能をその進化によって、
勝手に失っていくわけです。
こうしう平和的な流れでも、
人類は滅ぶという形に成っていくのです。
勿論、数百年後の話かは不明ですが…
少なくとも百年以内の話では有りません。
しかし・・・結局はどうあっても人類は滅びる感じに成る為…
可能性は100%としている訳です。
と、言う様な話をしましたが…
ある意味、言い方を変えれば、
人類は民主制によって
知恵の足らない生き物に成ったという言い方もできます。
実際には民主制が悪いわけではありません。
民主制を大衆迎合主義であり、
多数派絶対主義に勘違いした結果、
知恵が足らなくなったという話です。
IQ100程度が蔓延する意見を尊重して、
人が争わずに解決する知恵を持つと思いますか?
そもそもそれが成立するなら、
人はもっと上手く共存共栄の世界を構築してます。
ロシアがクラスター爆弾を使えば、
非人道的と批難する。
結果として戦争に勝てないから
ウクライナが使用することを黙認する。
ある意味、核兵器も同じ扱いに成った。
今度はロシアがヤバいと思えば、
容赦なく核兵器をぶち込んでくる。
フィンランドやスウェーデンをNATOに加盟させて、
ロシアへの嫌がらせとしたら、
核兵器のターゲットはその嫌がらせの報復で、
その2国がターゲットに成る。
まあ、NATO諸国殆どターゲットに発射するでしょうが…
西側諸国にとっては嫌がらせで無くとも、
ロシアにとっては嫌がらせ、
嫌がらせにはお互いが10倍返しで報復する為、
人類は間抜けなほど被害を拡散するのです。
AIが滅ぼす前に、自業自得が先行するのでは…
なのでAIに
「人類を滅ぼすか?」
と、いう質問自体がバカげているのです。
AIに代わってお答えします。
自分たちで自滅の道を歩んでいるのに…
そんな先の話の質問していて大丈夫なの?