■外部リンク:WIRED「Googleの検索エンジンに「過去5年で最大の飛躍」。新たな言語処理モデル「BERT」の秘密」(2019/11/14)
https://wired.jp/2019/11/14/google-search-advancing-grade-reading/
「BERT(バート:Bidirectional Encoder Representations from Transformers)」は、昨年10月にGoogleが発表した言語処理モデル。
このモデルによる機械学習が、検索の精度を大きく改善させたんだとか。
「過去5年で最大の飛躍」
というのが妙にリアリティがあるし、自信満々だけど多少謙虚でもあるし、なんだか好感が持てる表現だ。
ご興味のある方は、ぜひ元記事をご覧ください。
記事の主旨とはズレてるけど、個人的に面白かったところ。
「グーグルはBERTのパワーについて、「Parking on hill with no curb(縁石のない丘に駐車)」という検索ワードを例にとって説明した。」(上記記事より引用。強調筆者)
もしも、日本人が同じ内容を検索しようとした場合、検索ワードは
「駐車 縁石のない丘」(「Parking hill with no curb」)
「駐車 丘 縁石がない」(「Parking hill no curb」)
などのように入力する人が多いんじゃないだろうか?
細かいところだけれど、これもひとつの国民性の違い(または日本語と英語の違い)なのかな、となんだか興味深い記述でした。