AI (LLM)が安全性とは矛盾だろう。
「生成AIが有用かつ『偏りのない回答』を社会に受け入れられる形で提供する」
そんなものは「数学的理想的閉じた世界」にしか存在しないからだ。
中国のAIにとって、天安門は存在してはならないし、アメリカのAIにとって広島長崎への原爆投下の真実は存在してはならない、福音派のAIにとって進化論は存在してはならないし、ロシアのAIにとってウクライナは独立国として存在してはならい。
DEI信奉者にとっては性別は万と存在するが、生物学的には二つしか存在しない。
そういう「評価者の偏り」が存在する以上、そんな夢のような「偏りのない回答」なんて存在し得ない。
回答しない、という逃げ道を使うとすれば、さまざまな事柄が存在しないことになり、どうでもいいような事柄を積み上げただけの「クソの役にも立たないおもちゃ」になるだろう。
今時のポリティカルコレクトネス準拠ゲームや映画のように。
すると残るのは、他人の創作物を盗んで偽物を増産するだけのクソということになる。
30年ちょい前、大学で話した通りのことになってる。
人間が言葉と言葉をどう関係づけて記述しているかがまとめられるだけで、現実世界と密接に結びついた人工「知能」が生まれるわけじゃないと。
#30年ちょい前、第5世代コンピュータの研究した教授の下についてた学生たちがPrologで知識辞書をちまちま作って効率化の研究してた時に、なんて無駄なことを w 将来的には書かれた文章から単語同士の関係性を自動で辞書化できるようになるだろうに、とかいう話をしてた。
その上で、でも、書かれた文章を元に、ということは、書かれなかったもの、書かれたからと言って正しくないもの、が存在し、事実の記述、伝聞の記述、感想の記述が存在し、それを意識してちゃんと書き分けられる人が少ない以上、正しく現実世界を記述したものとはなり得ない。
だから、論理学ベースのAIは大した意味を持たない。
ってのが、ざっと話した内容で、多分、今その通りのことが起きてる。