学生時代に詰めこみ一夜漬けすると、冗談でこれ以上覚えたら前の覚えたことを忘れるといった話題があった。えーあいことAI学習では覚えたことをクリアして0から再構築するようなので過去の人間が重大性のある事例と思うことを、あまり参考にしない模様だ!
つまり人間の少ない情報から予測する女性も好きな占いとか傾向の把握、経済や株式の上がり下がりなどの未来予測はAIではあまり得意ではない
そういうことだと、えーあいの意見は参考に出来ても、実用性に足りないように思える。
良く言われるものが言語ののAI翻訳には、最終的に人間の判断が足りないと意味をなさない様だし、自転車の初期にはブレーキはなく足で止めていたという、スピードの出過ぎや下りや坂道では危ないだろうなととの人の判断でブレーキが作られた、まあある意味車も同じだろう、今やブレーキのない車はないと思う。
例えば道具を作るとき心配性の人間がいたから多少の安全性を人間が見込んで作ったし、福島の原発は、完全破壊されなかったし、地震の予想に、津波の大きな影響を。過小予測していたとも言えるけど、今回は何とかなった、先々の自体に対してのケース参考に機械は破壊的忘却-完全忘却をしてしまう、AIでは安全性は少なくなってしまうみたいだし数字は温かみがないのは真実だ、人が何事も心配して安全性を組み込むことはは120%,や200%でもそう無駄なことではない。もしも後からの責任問題をAIに、負わせ過ぎるるようになったら人間の存在価値は少なくなってしまう何処の国にでも居る政治家の答弁のように、現場の人間が加減上限を決めてやらないとAIも、結局判断が付かないと思うのだか、いかがだろう!?。