こんにちは。
つまらない記事です~。
AIをほぼ毎日使っていての感想になります。
私の使い方は、単なる質問ではありません。
それならグーグルで間に合います。
しかもグーグルなら、サイトに直接行けて、そのサイトが信頼できるものかどうか分かるので。
AIが拾ってきた情報って、勝手に作られたものもあるのです。
勝手に作ってしまうパターンと、誤情報を拾ってくるパターン。
AIの最大の欠点は、間違っているということが認識できないこと。
これを克服できないと、人間に完全に取って代わることはないな、と思います。
ここが恐ろしいところ。
ChatGPTはその典型。
なんなら、医学論文まで勝手にタイトルや著者名、どういうところで発表されたか、まで作ってしまうことも。
調べたら、全く実在しない論文だったりするのです。
それを改良した形の、perplexityというAIも使っています。
ナードっぽくなるのですが、このAIはChatGPTも関わっているので、完全に独立したものではありません。
違いは、どこから引用してきたのかがハッキリしていて、表示してくれること。
じゃあ、こっちを使えばいいじゃない、と思いますよね?
残念ながら、文章力がChatGPTに比べるとまだまだのうえに、指示をかなり詳細に出さないと質問を誤解することが多いのです。
例えば「5つの違うパターンを出力してください」と指示すると、ChatGPTは完璧にこなします。
でも、perplexityは、最初の二つを違ったものを出した後、他の三つは全く同じだったり、最初の二つの言葉を入れ替えただけだったり。
「5つの全く違うパターンを出力してください」、と指示すると従ってくれます。
ただ、普通の人がどういう指示を出したら正しい出力をしてくれるのかなんて、分かりませんよね?
そこで、今話題なのが ”プロンプトエンジニア” という職業なのです。
エンジニアとはいうけれど、文系でもできます。
私は仕事上AIに最適な指示を出さないといけないので、実質このプロンプトエンジニアと似たようなことを。
ちなみに、AIが書いた文章は、すぐに分かります。
ボキャブラリーが少ないので、同じ言葉を繰り返すし、文末表現のバラエティーに乏しいのです。
そして、長い文章は相当の細かい指示を出さないとムリ。
ただ、こういう欠点が問題にならない分野では、人間に置き換わるでしょう。
時々アップデートしてみます。