AIはマインドマップを認識できるのか試してみた | なおくんの考えるネタ帳☆



AIはマインドマップを認識できるのか試してみた



皆さん、こんにちは。AI研究家のなおくんです。 今回は「AIはマインドマップの画像を認識できるのか」ということについて実験をしてみました。


AIにマインドマップを認識させることができるのか、チャット型AIを使って試してみたのです。マインドマップとは、アイデアやコンセプトを視覚的に表現したものです。手書きのマインドマップ(記事冒頭の画像)をAIに読み込んでみました。


使用したAIはGoogleのGeminiとMicrosoftのCopilotです。これらはユーザーがアップロードした画像について質問できる機能があります。この機能を使い、マインドマップの写真をアップロードし、「この画像にはどのようなことが書いてありますか?」と質問してみました。


結果から言うと、両方とも一応認識できたものの、精度に差がありました。Geminiの方がCopilotよりも正確に読み取れていました。しかし、完璧には読み取れませんでした。


まずはGeminiの結果を見てみましょう。 タイトルが「果物」で、イチゴ、メロン、キウイ、バナナの好きが書かれていると認識しています。なぜか「スイカ」の項目は認識されていませんでした。また 「子供が好きな果物と嫌いな果物」と、書かれていない情報が付け加えられています。


一方のCopilotは、文字の誤認識が多く、またこの画像がマインドマップであることを認識していない様子でした。ただなんとなくマインドマップらしきものと認識しているような感じはありました。


続いて、GeminiにPlantUML形式でマインドマップを出力するよう指示しました。 すると、ほぼ正確にコード化されていましたが、「スイカ」の項目は無視され、一部に勝手な文が付け加えられていました。


手書きのマインドマップをAIが完璧に読み取れるわけではありませんが、一定の認識はできることが分かりました。 特にGeminiは、マインドマップの構造をわりとちゃんと認識できました。手書きの雑なメモをデジタル化するという点ではかなり優秀だと思います。


ただし、認識ミスや書かれていない情報が付加されるリスクもあります。AIの画像認識能力には課題が残されています。ただし、今後の技術進歩により今後の改善が期待できるでしょう。


AIはマインドマップを認識できるのか試してみた(LISTENで聴く)