当ブログにアクセスいただきありがとうございます🙇

 

今日は急に出社になった!えーん

だからなのか、いつもより早く目が覚めてしまって、思い切って早朝勉強晴れ
朝の静けさの中でノートを開くと、少しだけ気分が整う気がする。ニヤリ

 

📝 使用教材と📗今日の学習内容 

  • 学習時間:3:30〜5:00

  • 使用教材:深層学習シラバス、最強テキスト、スッキリわかる

  • 学習範囲:「ロジスティック回帰」の章

  • 分からないところはChatGPTに質問、暗記メーカーに登録(でも復習はまだ💦)

 

  💡 理解できたこと

  • ロジスティック回帰はなんとなく掴めた。
    入力から出た値をS字カーブ(シグモイド関数)で0〜1に変換して、
    その値を確率として扱う――という考え方は理解できた。
    「2クラスを確率で分類する」という感覚もイメージできた気がする。

 

  ❌ 混乱しているところ

  • ソフトマックス回帰がどうもつかめない…滝汗
    「3クラス以上の分類に使う」と書いてあるけれど、
    テキストによって式や説明が少し違っていて、読むほど混乱中。
    特に「出力が確率で合計1になる」と言われても、
    どうやってそうなるのか、まだピンときていないえーん

 

  🔁 明日の作戦

  • チャッピーに「ロジスティックとソフトマックスの関係」を
    もう一度聞いて整理する。

  • テキストの例題を読み直して、「式の形」ではなく
    「やりたいこと」に注目してみる。

  • 「確率の合計が1になる」という部分を図で確認して理解したい。

 

  🌼 今日のまとめ(ひとこと)

ロジスティック回帰までは“ふんわり理解”できたけれど、
ソフトマックス回帰は“ふんわりすらしていない”状態笑い泣き
でも、ここがちゃんと分かれば次の「分類モデル」の理解が一気に楽になるはず。。。

焦らず、明日はゆっくり“もう一度かみ砕く日”にします💪

 


 

出社すると、なんだか気持ちがそわそわして集中できないガーン
やっぱり在宅のほうが落ち着くなぁ…ショボーン
今日は早く帰ってお風呂にゆっくり浸かって、
頭の中の“ソフトマックスもやもや”をリセットしよう♨️