めもめも 17 gpt-2 bert rinna、日本語に特化した「GPT-2」「BERT」事前学習モデルを無償公開 75ギガバイトのデータを最大45日間で学習 | Ledge.ai元女子高生AI「りんな」などで知られるrinna株式会社は8月25日、製品開発のための実験過程で、日本語に特化した「GPT-2」と「BERT」の事前学習モデルを開発したと発表。事前学習モデルとその学習を再現できるソースコードを、GitHubとHuggingFaceにMITライセンスのオープンソースで公開する。ledge.ai
rinna、日本語に特化した「GPT-2」「BERT」事前学習モデルを無償公開 75ギガバイトのデータを最大45日間で学習 | Ledge.ai元女子高生AI「りんな」などで知られるrinna株式会社は8月25日、製品開発のための実験過程で、日本語に特化した「GPT-2」と「BERT」の事前学習モデルを開発したと発表。事前学習モデルとその学習を再現できるソースコードを、GitHubとHuggingFaceにMITライセンスのオープンソースで公開する。ledge.ai