みなさま、こんばんわ🌜
今日の名古屋は良いお天気で暑い1日でした🌞
1 | 再び名古屋国際会議場へ |
---|
本日も、名古屋国際会議場へ行きました。
同会議場もこれで2日目です。
会議場の裏手にあった白い騎馬像👆👆👆
すごい大きかったです👀
この騎馬像は「スフォルツァ騎馬像」という名前で、15世紀にレオナルド・ダ・ヴィンチが設計し途中まで制作したものの、材料の銅が不足して完成させることができなかった騎馬像を再現した像とのことでした。
600年の時を超えて、21世紀に蘇った幻の像です。
2 | AI実践 特別講座 『持込PCで学ぶはじめてのDeep Learning体験』 |
---|
本日のお目当ての講座がこちら👆👆👆
AI実践 特別講座 『持込PCで学ぶはじめてのDeep Learning体験』です。
講座を担当してくださるのは、山梨大学の 西﨑博光教授 です😃👏👏👏
西﨑先生は、
- 音声言語情報処理
- AI
- Deep Learning
の専門家です。
6時間(お昼休憩を入れて実質5時間)の充実した講座でした😃
様々なことを学ばせていただきました。
![]() |
Deep Learning とは |
---|
Deep Learning は深層学習ともいい、2012年から広がってきました。
Deep Learning は境界(クラス)をわけるのが得意です。
更に、Deep Learning は「分類(認識)器」を学習するだけでなく、特徴量を取り出してくれる装置でもあり、人間が設定しなくても良いために、ものすごいスピードで様々なことを学習してくれます。
ChatGPTの登場などにより、今急速にブレイクスルーが起きています。
2015年ぐらいから、世界中のAIベンダーが機械学習ライブラリを無償公開しています。
1日30~40本の論文がアップされており、開発競争が激化しています。
![]() |
現在の開発はほぼ Python |
---|
現在の Deep Learning の開発は、ほぼ Python だけで作られているとのことが多いとのこと。
ただ、Python は言語としては処理速度が遅いため、C++やRaspberry Pi(ラズベリーパイ)を使って実装されているそうです。
私は2週間ほど前から Python の勉強を始めたばかりですが、Python を勉強していて良かったと思いました😊️
![]() |
ニューラルネットワーク(NN) |
---|
ニューラルネットワークとは、人間の脳を模して作られた装置で、1970年代から開発が進められてきました。
Deep Learning が得意なクラス分類の精度を上げるためには欠かせない装置です。
最近はハードウェアの性能が上がり、ハードウェアがニューラルネットワークに近づいてきたため、実用化が進んでいます。
![]() |
Google Colaboratory |
---|
一連の説明をお聞きした後、今度は各自 Google Colaboratory を起動させ、実践学習に進みました。
Google Colaboratory はこんな感じでした👆👆👆
講座で利用させていただいたコードは非公開なので、私が入力した画像を公開させていただきました(笑)
TensorFlow という機械学習モデルを使って、Google Colaboratory で実際に入力をして、プログラムを動かしてみました。
数字を識別するプログラムや、2つの数字を組み合わせて確率を計算するプログラム、音声を認識するプログラムなどを実際に動かしてみました。
![]() |
音声言語情報処理 |
---|
言語モデルを発展させたものが音声モデルで、音声の識別は音声を音声波形の図形に変換したものを使って、解析するとのことでした。
音声モデルは画像分析と同じ方法で解析するので、画像モデルともつながっています。
私はカウンセリング・アプリを作るために、音声情報処理に進みたいと考えています。
音声情報処理に向けて、画像モデルや言語モデルなど、様々なことを勉強する必要があると思いました。
![]() |
訓練がうまくいかないときのコツ |
---|
講座の最後に、西﨑先生からニッチな「機械訓練がうまくいかないときのコツ」を特別に教えていただきました。
1. 過学習
過学習とは、訓練データに対しては低い損失・⾼い精度を誇る一方で、検証・テストデータに対してはうまく適応できない学習状態のことを言います。
過学習に陥らないようにすることが大事とのことです。
TensorFlowなどで訓練をグラフで見える化し、グラフで訓練がうまくいっているかどうかを確認することが大事とのことです。
2. Optimizerを1/10にする(デフォルトは0.001 ➡ 0.0001に変更)
Optimizerとは、訓練の最適化アルゴリズムのことです。
訓練がうまくいかないときには、Optimizer を1/10にする方法があります。
デフォルトが 0.001 なので、1/10の 0.0001 にすればうまくいくことがあるとのことです。
うまくいかないときは、手動で色々と試す必要があるんですね。
3. L2正規化
NN(ニューラルネットワーク)では、隠れ値があります。
エッジ(ブランチ)の w を2乗して計算した場合に、損失が大きくなりすぎることを防ぐために、L2正規化を行う方法があります。
4. DropOut
ノードの情報を意図的にドロップ(脱落)させる方法です。
ランダムに情報をドロップさせるため、同じデータでも違うデータが入っていると見せかけることができる方法です。
Deep Learning をするためには大量の情報が必要ですが、活用できる情報は限られているため、こうやってデータを水増しして何とかうまくやりくりしているんですね😉
5. データ拡張
NN(ニューラルネットワーク)にはたくさんのデータが必要ですが、訓練に使えるデータを大量に集めるには、お金と人手がかかります。
お金がなくて、少ししかデータを集められなかった場合に、「オリジナル画像の1部を切り取る」「拡大する」「反転する」などして画像を加工し、コンピュータに同じ画像を違う画像だと認識させて、画像データを水増しする方法もあります。
6. 転移学習
転移学習とは、「学習済みのモデルに対して、全く別のデータセットを使ってモデルパラメータを再チューニングすること」です。
学習モデルをイチから作るのはめっちゃ大変です。
でも、誰かが作り上げ、既に完成した精度の高いモデルの最後だけを切り取り、最後に自分が分析したいモデルをつなぎ合わせるだけならば、手間も時間も少なく、良いモデルが手に入ります❗
機械学習はお金や人手、資本がなくても、知恵と工夫で乗り切れる分野であることがわかりました。
私にすごく向いているような気がしました😃
![]() |
西﨑先生とお名刺交換 |
---|
最後に、西﨑先生とお名刺を交換させていただきました。
西﨑先生に音声言語情報処理について質問させていただくと、
「音声言語情報処理はあまり本が出ていません。
まずはインターネットでやりたいことを調べて、自分で手を動かしながら勉強していくのが近道。」
と教えていただきました。
充実の講座で、大変勉強になりました😄
貴重な学びの機会をいただき、誠にありがとうございました。
講座に参加するために、名古屋に来て良かったです🥰
3 | オアシス21 |
---|
講座を終えてクタクタになってホテルに戻ってきた後、ホテルの近くに 名古屋タワー があることがわかりました。
せっかくなので、行ってみることにしました。
19時頃、名古屋タワーに行ってみると、「夜の入館は19時30分から」と教えていただきました。
入館時刻まで、周りを散策することにしました。
名古屋タワーの周辺をウロウロしていると、不思議な建物を発見しました👀
オアシス21 という建物だそうです。
オアシス21の真下は地下空間になっていて、地上からのぞき込むと、サッカーコートが見えました。
オアシス21の天井部分は登れるようになっていて、エレベーターで天井部分の上に出てみると、水が流れる屋上庭園に出ました。
流れる水が涼しくて、たくさんの市民の方が屋上庭園をそぞろ歩きをされていました。
4 | 名古屋タワー |
---|
夜の入館時刻になったので、名古屋タワーに行ってみました。
展望台フロアの様子👆👆👆
窓からの夜景がキレイでした✨
窓にシャボン玉や花火などの映像が映って、目を楽しませてくれました。
名古屋タワーは展望台フロアから階段を上って、その上のスカイ・バルコニーに出られるようになっていました。
バルコニーに出てみると、風が吹いていて涼しく良い気分でした。
バルコニーからの夜景もキレイでした✨
バルコニーに置いてあったバランスボールに座って、しばらくボーっと名古屋の夜景を眺めていました。
夜景を眺めながら、
「名古屋に来て良かった。
得るものが大きかった。」
と思いました。
明日は名古屋最終日です。
明日1日、名古屋を楽しみます🎵
最後までお読みいただき、ありがとうございました😄
また来てね~😄👋