おはようございます。
YouTuber オタク教授の岡田さんが、過激な本音はAIがすべてみつけて分類して、就職などでふるいにかけるから今すぐつぶやくの辞めて過去のものも消してくださいと言っとんしゃったです。
駄目な人、どれくらい駄目な人かをAIが分類するんだそうです。
ただ、それ、岡田さん目線の思考法だと思います。
AIが高性能になればなるほど、AIはヒトのおかした罪について、違法性を細やかに数えられるようになると思います。たとえばオレは人を殺したぞという発言がなくても人殺しをやったひと、逆にいえばオレは人を殺したと発言したけど実際は詩的表現にとどまり人殺しをやっていないひと、この区別もついていくようになるでしょう。
だからどんな発言でその人がどれだけ駄目な人か、なんて浅い判断をしていくとしたらそれは駄目なAIのやることで。やはり人間のもつ倫理観で、長い目も短気もあるのだから、それすらもAIが模倣していくと普通に推理したら、逆に過激な本音を呟ける人のほうがクリエイティブ、という、まぁそれは結果的総合的に、ですよ?そういう判断をなされる場合もあると思うんですよ。勿論、過激な本音を呟くフリーライダーって判断をなされる場合もあるでしょう。
重要なのは、デジタルデータすべてが紐づけされていくとしたら、AIによって探知されつづけていくのだとしたらです。ドライブレコーダや街の監視カメラ、とにかくありとあらゆる監視網によってヒトビトの価値というか、妥当性が推察されていくのであるから、発言と行動の一貫性、発言と行動の背反性、そういったものも見抜かれていくと思って間違いないと思います。
最終的には人間が良くも悪くも変わりうるということ、ヒトの可能性についてAIは買わざるを得なくなるのだから、時間の経過とか読まれている数…影響力とか、そういったものも考慮せざるを得なくなります。
タスクにこたえる精確性ではAIがヒトを超越していくでしょうけれど、タスクを拵える可能性でAIがヒトを超えることはまず無いはずなので、あまりAIを格差社会の促進剤みたいにとらえないほうがいいですよ。
監視したことによるタスクの変化すら、監視する側は考えなくてはならんのですから。
那向