<数値目標>
https://www.youtube.com/watch?v=GAlv_aVMdIU&list=PLrWxcegPNiyj-M05glrorpUrXekNDKejm&index=4
HSK1~2#2~#4 背了三十四分钟单词。
https://www.youtube.com/watch?v=BswKkdHdsy0
グンちゃんの中国歩き,十六分钟。
https://www.youtube.com/watch?v=BJ1PAzc50Gs
毎日中国語の阿波連,学习二十二分钟频道。
https://www.youtube.com/watch?v=g99Rwdfz7F0&list=PLZI8vVTxzS7k7jbSknCDOssrgqGpd3BCS&index=8
誰でも簡単!ネイティブ中国語専門チャンネル8h32min~9h26min 做一个小时听写。
https://www.youtube.com/watch?v=DeptCjoCwYA
关于贵州 二十三分钟。
https://www.youtube.com/watch?v=m8I8Uv04AJg
誰でも簡単!ネイティブ中国語専門チャンネル,0~44min, 做一个小时作文和听写。
https://www.youtube.com/watch?v=93VZUEQE5xk
【完全版1~1200】HSK5,1h53min~2h1min,背了半小时单词。一共四个小时五分钟!
运动:一堂Salsa课 (计划)
<今朝のWorld Newsから>
イギリスBBC:英国労働党復活。/イスラエルによりレバノン爆撃で戦争拡大必至?
シンガポールCAN:スリランカ左派政権、経済危機に向かう。
韓国KBS:金融所得税導入廃止?
中国CCTV:金利低下など大規模金融緩和で経済刺激。
中国上海:金融緩和と資金放出は今後も続く可能性。/日本との外相会談>王毅外相に注目。
中国香港:預金準備率0.5%低下>1兆元市場に放出>経済刺激<住宅ローン金利低下。/邦人保護と原発処理水の批判交差。
タイMCOT:洪水被害拡大<温暖化
ベトナムVTV:国家主席、モディー首相と会談。/レバノンのベトナム人避難対策。
オーストラリアABC:インフレ抑制>4.3%金利維持>住宅ローンで苦しむ。/ドイツ、オクトーバーフェスでノンアルコールビール人気。
カタール、アルジャジーラ:イスラエルはレバノン空爆限定的と声明>戦争拡大に否定的?
<世界ふれあい街歩き>
火曜の午前は時を重ねるチェコ、プラハ。
チェコには行ったことがない。というか、東欧自体何処にも行ったことがない。西欧、北欧、南欧には何度か機会があったが、東欧は一度もない。これから行く機会があるだろうか?![]()
![]()
<仇日動画>
だから、世界のジャーナリストを一堂に集めて、論より証拠のSNSに流れるリアルタイムの「仇日」動画を見せたらいいのだ。 もう遅いけどね!
今はかなり減っている。直ちに反撃しないでどうする‼️ 本当に日本の政治家は無能‼️
趁热打铁 とはこのこと
24日分:
明らかな反日動画8%とかなり低下。
ニュートラル(抗日動画)10%
無関係82%
しかも、今は731に変わったみたいだ。
上の動画は微妙、ニュートラルと言うのが私の判断。どうでしょう? 暫くWeChatのチャンネルを継続精査してみよう。
前回の福島処理水の時は9/6から
9/26迄。反日動画の氾濫は三週間程続いた。今回はもっと長いかも?
しかも今回ほど内容も酷くもない。段々エスカレートするのは日中関係の悪化からか?
まだ、宗像本は終わってないけど。並行して読んだAI関連本を忘れないうちに、まとめておく。
『生成AI』6
論文の中で考案されたものは「自己注意Self attention」と呼ばれる仕組みだとか。これは入力された全ての単語の「相互関係性」をもとに重み付けする仕組み。p123
それ以前は時系列に沿って、確率論的に計算していたものを、相互の関係性を元にする方法に変えた。
翌年2018年には論文チームの所属するGoogleでBERTと呼ばれる言語システムを開発した。これはBidirectional Encode Repressentations from Transformerの略から来た。
そしてBERTに大量のweb上の電子化テキストを学習させた。方法は(伏字)を入れて、全体の文脈から予測させ。そのあと正解を入力させてパラメーターを調整する?方法(この理解が正しいか自信なし)p126
これにより従来の正解率60%から88%にまで跳ね上がったとか。 確かに画像解析より劣るが、それでも9割の正解率は十分に高く、人の言語能力並みとされたとか。p127
その結果、2019年にはChatGPT2が、2020年にはChatGPT3が誕生した。この3のパラメーターは1,800億にも昇る。BERTが当初10億程度だったのに比べ膨大だ。p130
このChatGPT3の学習したテキストの中にはコンピュータープログラムが含まれていたため(どちらも文字コードには変わらない)GPT3はコンピューターコードも出力し始めたらしい。これにはOpenAIの研究者も驚いたとか。p132
だから、今ではコンピューターコードすら、スマホアプリすら、自動でかけるのだ。政治資金アプリが100万円程度でできるとしたのも、満更思いつきではないだろう。何故しない!
こんなサイトもある。
こうした大規模言語モデルの開発にはスパコン並みの計算資源を学習で使うことになるので、膨大な資金〜5億ドル程度が必要。これは米国の一部の企業、OpeAI, Google, Microsoftなどに限られるとも。p136






