昼休みです。
午前は自然言語処理のword2vecの学習でした。
シンプルなskip-gramモデルでポートフォリオのネタも作成です!!
入力層の単語をそれぞれベクトル数値に変換しクエリとの関連性というか類似性がある単語TOP5を出力しました!!
コーパスサイズが110くらいしかないのでイテレーションが増えると途中から精度がやや落ちているようです。
もう少し大規模なデータならフィットしそうですね。
さて、午後イチで面談があります。
ぐーたらします。笑
昼休みです。
午前は自然言語処理のword2vecの学習でした。
シンプルなskip-gramモデルでポートフォリオのネタも作成です!!
入力層の単語をそれぞれベクトル数値に変換しクエリとの関連性というか類似性がある単語TOP5を出力しました!!
コーパスサイズが110くらいしかないのでイテレーションが増えると途中から精度がやや落ちているようです。
もう少し大規模なデータならフィットしそうですね。
さて、午後イチで面談があります。
ぐーたらします。笑