■外部リンク:WIREDGoogleの検索エンジンに「過去5年で最大の飛躍」。新たな言語処理モデル「BERT」の秘密(2019/11/14)

https://wired.jp/2019/11/14/google-search-advancing-grade-reading/

 

BERTバート:Bidirectional Encoder Representations from Transformers)」は、昨年10月にGoogleが発表した言語処理モデル。

このモデルによる機械学習が、検索の精度を大きく改善させたんだとか。

「過去5年で最大の飛躍」

というのが妙にリアリティがあるし、自信満々だけど多少謙虚でもあるし、なんだか好感が持てる表現だ。

ご興味のある方は、ぜひ元記事をご覧ください。

 

記事の主旨とはズレてるけど、個人的に面白かったところ。

「グーグルはBERTのパワーについて、「Parking on hill with no curb(縁石のない丘に駐車)」という検索ワードを例にとって説明した。」(上記記事より引用。強調筆者)

もしも、日本人が同じ内容を検索しようとした場合、検索ワードは

 

「駐車 縁石のない丘」「Parking hill with no curb」

「駐車 丘 縁石がない」「Parking hill no curb」

 

などのように入力する人が多いんじゃないだろうか?

細かいところだけれど、これもひとつの国民性の違い(または日本語と英語の違い)なのかな、となんだか興味深い記述でした。