Bing AIのチャット機能で小説を書かせてみようと挑んでみたTKCです。

結論から言うと、難しいですね。

AIはこちらが入力した情報を柔軟に修正を加えてくれるものだと思っていたので、そう感じてしまいました。

意外と頭が固い(;^_^A

まず、ある程度落ちらで用意した文章を簡単な私邸で修正してもらおうとチャレンジ。

1回目は成功し、それなりの成果がありましたが、文章後半がAIオリジナル展開へと変わっていたので修正をかけることに。

しかし、4回5回と同じ修正をかけても、まったく直す気配がない。

これはどういうことって感じです。

おいらの指定が悪いのか、AIが柔軟じゃないのか悩みどころですね。

やはり、人間と機械の思考的パターンが同じじゃないのが原因なのかな。

AIが人間と同じパターンをしていちゃ怖いけどね(;^_^A

さてさて、小説を書かせてみようという挑戦は続くみたいです。