当ブログにアクセスいただきありがとうございます🙇
今日は急に出社になった!![]()
だからなのか、いつもより早く目が覚めてしまって、思い切って早朝勉強![]()
朝の静けさの中でノートを開くと、少しだけ気分が整う気がする。![]()
📝 使用教材と📗今日の学習内容
-
学習時間:3:30〜5:00
-
使用教材:深層学習シラバス、最強テキスト、スッキリわかる
-
学習範囲:「ロジスティック回帰」の章
-
分からないところはChatGPTに質問、暗記メーカーに登録(でも復習はまだ💦)
💡 理解できたこと
-
ロジスティック回帰はなんとなく掴めた。
入力から出た値をS字カーブ(シグモイド関数)で0〜1に変換して、
その値を確率として扱う――という考え方は理解できた。
「2クラスを確率で分類する」という感覚もイメージできた気がする。
❌ 混乱しているところ
- ソフトマックス回帰がどうもつかめない…

「3クラス以上の分類に使う」と書いてあるけれど、
テキストによって式や説明が少し違っていて、読むほど混乱中。
特に「出力が確率で合計1になる」と言われても、
どうやってそうなるのか、まだピンときていない
🔁 明日の作戦
-
チャッピーに「ロジスティックとソフトマックスの関係」を
もう一度聞いて整理する。 -
テキストの例題を読み直して、「式の形」ではなく
「やりたいこと」に注目してみる。 -
「確率の合計が1になる」という部分を図で確認して理解したい。
🌼 今日のまとめ(ひとこと)
ロジスティック回帰までは“ふんわり理解”できたけれど、
ソフトマックス回帰は“ふんわりすらしていない”状態![]()
でも、ここがちゃんと分かれば次の「分類モデル」の理解が一気に楽になるはず。。。
焦らず、明日はゆっくり“もう一度かみ砕く日”にします💪
出社すると、なんだか気持ちがそわそわして集中できない![]()
やっぱり在宅のほうが落ち着くなぁ…![]()
今日は早く帰ってお風呂にゆっくり浸かって、
頭の中の“ソフトマックスもやもや”をリセットしよう♨️