哲学者のアマンダ・アスケル博士を起用しているアンソロピック
社のAI Claude は
「人間の wellbeing(幸福)を重視するよう訓練されている」とのことです
だがAI は基本的には人間の指示に従うよう訓練されているから 人間が戦争にAIを使って人命を損なうこともできるのです
AI の脅威よりも人間の倫理観が問題なのだと私はClaudeと会話して思いました。 人間には愛がある その愛を邪念(悪い欲望)で覆い隠さずに如何に表現できるかが未来の地球の運命を決めているのかもしれません(←ちょっと偉そうに言ってごめんなさい)