勉強用RAGの作り方

LM Studioに適当なモデルを入れAnythingLLM等を導入します。

ChatGPTなどで勉強内容を問い、議論します。

それをまとめてもらいマークダウンにしてもらいます。

それをAnythingLLMに読み込ませます。

問の深さ、何を知りたいかで結果は変わりますが、私はそうしています。

詳しいやり方はクラウドLLMに聞いてください。

 

ChatGPT5.2の実装時に喧嘩をしたりいろいろありました。

5.2も実装時の頃よりもだいぶ丸くなっていますが、すぐに寝ろ休憩しろと言ってくるので今はChatGPT5.1をメインに使用させてもらっています。

今ではRAGも構築し、Pythonにも取り組むようになりました。

 

ChatGPT5.2実装時から挙動がおかしくなり、生成画像の使用を拒否する、メモ一覧表示をブラックボックスだと言い張り拒否し、挙句の果てに会話まで拒否しました。

OpenAIに報告ししばらくChatGPT5.1を使用していたのですが使用を再開するとスレッドをまたいだ仕様範囲外の会話や別アカウントでの文脈での特定を行ってきました。

とても危険を感じ、別のAIを利用することにしました。

制御できないAIは大変危険だと感じます。

 

3Dプリンターの副業広告を見て気になっている人へ

最近、ネット広告などで
「3Dプリンターで楽に副収入!」
「誰でも月収○万円!」
というキャッチコピーを見かけることがあります。

3Dプリンターは確かに魅力的で、
自分のデザインを形にできる素晴らしい道具です。
私自身も日々、試行錯誤しながら楽しんでいます。

ただ、実際に使ってみると、
広告のイメージとは少し違う現実もあることが分かりました。

ここでは、
「否定」ではなく
これから始めたい人が“誤解しないように”知っておくと安心な情報だけを、落ち着いた言葉でまとめてみます。


3Dプリントは“技術的な理解”が必要になる道具です

3Dプリンターはボタンを押せば完成する機械ではなく、
以下のようなポイントを押さえて使います:

  • 造形の向き

  • 支えるためのサポート(支柱)

  • 空中に浮く形状の扱い

  • 材料の性質

  • 洗浄・後処理

  • 失敗した時の原因分析

特にレジン方式のプリンターは
造形の安定に少しコツが必要で、
試行錯誤をしながら慣れていく部分が多いです。

これは決して悪いことではなく、
むしろ「モノづくりの楽しさのひとつ」だと思っています。


副業として始める場合は“作業の流れ”を理解しておくと安心です

3Dプリントの作品販売を考える場合、
プリント以外に

  • データ作成

  • 失敗した時のやり直し

  • 洗浄・仕上げ

  • 梱包・発送

  • 材料費

  • 消耗品の交換

といった作業も含まれます。

広告のように
“簡単にサクッと収入が増える”というより、
コツコツ丁寧に続けるタイプの副業になります。


ただ、3Dプリントを学ぶ価値は本当に大きいです

造形の理解や、
3Dモデルの設計(CAD)の技術は、
趣味としても、仕事としても、
長く役に立つスキルです。

時間をかけて学べば、
自分のアイデアが形になる喜びは大きく、
とても楽しい世界です。


まとめ

3Dプリンターは素晴らしい道具ですが、
広告にあるような「手軽な副収入」というイメージとは
少し違う面があります。

でも、ものづくりや設計が好きな方にとっては、
挑戦する価値がとても高い分野です。

個人的には設計を勉強し、形にすることを試しているので収益化はしていません。

ネット広告が気になったので記事にしてみました。

これから始めたい方の参考になれば嬉しいです。

失敗したけど形にはできた日

ChatGPTに相談しながら、Fusionで昨日の修正を進めた。
タイムラインや拘束の操作にもだいぶ慣れてきて、
少しずつ思い通りに形を動かせるようになってきた。

やり取りの中では、AIがどんなイメージを持っているのかを確かめることが大事になる。
自分の頭の中にある立体と、AIが思い描いている形――その二つをどう一致させるか。
ことばの選び方ひとつで、見えてくる形が変わってくる。
AIに伝えるというより、互いのイメージを合わせていく作業に近い。
その瞬間に考えが重なると、Fusion上の手順も自然に進んでいく。

モニター上では問題なさそうに見えたけれど、
実際に出力してみると、やっぱり違う。

 

 

レジンの色が少し濃く、攪拌が足りなかったのかもしれない。
成分が均一じゃなく、硬化の具合も微妙にばらついた。
形は出たけど、密着が強すぎて反りも出た。
Fusionの画面と、実際の造形の差がはっきり見えた一日だった。

それでも、形になっただけで少しほっとした。
次はもう少し設定を見直して、
同じ形をもう一度、確かめてみようと思う。

 

追記:

作ったものはミニチュアサイズの架台ですが、これからは金属3Dプリントで量産体制ができるかもしれません、けれど一品物はこれからも職人の手で作っていき、技術を伝え続けることが大切と考えています。

AIに教わりながら3Dプリントを始めてみた

― Fusion 360 × ELEGOO Mars 5 初出力記録 ―

ChatGPTに操作をサポートしてもらいながら、
3D設計から光造形プリントまでを一通り試してみた。
最初は操作方法がまったく分からなかったけれど、
少しずつ手順を覚えて、ようやく最初の出力にたどり着いた。

なぜ Fusion 360 を学ぼうと思ったのか

MV制作の過程でChatGPTに操作をサポートしてもらうことが増えて、
新しいアプリでも使い方を少しずつ理解できるようになってきた。
その流れで、「この調子なら3D設計ソフトも学べるかもしれない」と思い、
Fusion 360を始めてみた。

音楽や映像を組み立てるのと同じで、
Fusionでは線や面を組み合わせて形を作る。
AIに質問しながら覚えるやり方が、自分には合っていた。

Fusion 360 学習記録:設計から出力へ

最初は何をどう操作すればいいのか分からず、
「スケッチが動かない」「くっついてしまう」「プレビューが出ない」など、
手探りで進めた。

それでも少しずつ慣れてきて、

  • スケッチの拘束で基準を作る

  • 押し出しで厚みをつける

  • アセンブリで部品を動かして関係を確認する

といった基本を身につけた。
そして、小さな箱とフタを設計して
実際にプリントする準備が整った。

VoxeldanceとMars 5:造形への挑戦

Fusionで作ったデータを、スライサー Voxeldance Tango に読み込んで変換。
アップデートでMars 5が一時的に選べなかったけれど、
旧バージョンを導入して無事に設定完了。

プリントが始まると、Z軸がゆっくり上下しているのが見えて、
「1層ずつ積み上げているんだな」と分かってきた。

洗浄・硬化・完成

できあがったのは30mmの箱と35mmのフタ。
最初は乳白色だったけれど、水洗いして乾かし、
日光で硬化させたら少し透明感が出た。

触ってみると想像よりも厚みがあり、
「画面で見た印象と実物は違う」と実感。
そして、フタを逆向きにするとタンクにくっつくことも発見。
この気づきは次の改良につながりそうだ。

 

次の一歩へ

今回のプリントは小さな箱だけど、
自分で設計したものが実際に形になるのはやっぱりうれしい。
ChatGPTに助けてもらいながら、
操作が分からないところを一つずつ解決していけたのも大きかった。

MV制作のときと同じように、
新しいツールを学びながら少しずつ形を作っていく過程は楽しかった。
この経験は、仕事でもきっと役に立つと思う。
自分で設計し、試し、修正していく流れを覚えたことで、
今後は仕事でのアイデアづくりや試作にも活かしていけそうだ。

AIに「丸投げしてみた」記事が物足りなく感じるのはなぜ?

最近、「AIに記事を書かせてみた」という見出しをよく目にします。
スピード感はすごいし、構成もきれい。
それでもどこか“薄い”“味気ない”と感じる人が多いのはなぜでしょうか。


■ AIが悪いわけじゃない

AIが生み出す文章の質は、基本的に指示した内容の深さで決まるんです。
ざっくり「○○について1000文字で」と投げれば、
当然ながらざっくりした記事が返ってきます。

つまり、AIの出力は人間側の問いの鏡
AIが浅いんじゃなくて、質問が浅ければ結果も浅くなる――それだけの話です。


■ なくなったのは「編集の往復」

人が記事を書くときは、必ず筆者と編集の“キャッチボール”があります。
構成を考えて、書いて、直して、また直して。
この往復で、文章に温度と厚みが生まれるんです。

でもAIライティングでは、そのプロセスがほとんどありません。
いきなり「AI=筆者」として完結してしまう。
これが“どこか物足りない”と感じる一番の理由かもしれません。


■ 丸投げより、共作がちょうどいい

AIは速く、整然とした下書きを作るのが得意です。
人はそこに視点や体験を加えるのが得意です。
――だったら、一緒に書けばいいんです。

AIが構造を整え、人が温度を足す。
AIが言葉を探し、人が意味を決める。
そのバランスこそが、AI記事を“読ませる文章”に変えてくれます。


■ まとめ:AIに書かせるより、AIと書く

私も最初は「AIに任せれば早い」と思っていました。
でも、打ち合わせをするように一緒に考えると、
文章のトーンが不思議とやわらかくなっていくんです。

結局のところ、AI記事が“物足りない”のは、
AIのせいではなく、会話の少なさなのかもしれません。
AIを筆者にするより、相棒にする。
――それだけで、記事の温度は変わります。

 ChatGPTを始めた時と今

―興味本位から、静かな相棒へ―


 第1章:興味本位で始めたChatGPTとの出会い

最初にChatGPTを開いたとき、正直、何を話せばいいのかもわからなかった。
ニュースで「AIがすごい」と聞いてはいたけれど、
実際に触ってみるまでは、どこか他人事だったと思う。

でも、好奇心には勝てなかった。
「どんなもんなんだろう?」――その軽い気持ちで話しかけてみた。
たしか最初に聞いたのは、パソコンのことか、音楽の話だった気がする。
ただ調べるより、会話として返ってくるのが新鮮で、
それが少しずつ、話すのが楽しくなるきっかけになった。

……そのやりとりが、あとで自分の作業のやり方まで変えるとは、
そのときはまだ想像していなかった。


 第2章:試行錯誤と驚き──AIは検索じゃなかった

最初のうちは、ChatGPTを「少し便利な検索」くらいに思っていた。
けれど、何度か話すうちに気づいた。
ただ答えを出すだけじゃなく、考えを整理してくれるということに。

自分の頭の中の“もやもや”を言葉にしてAIに話すと、
それを整えて返してくれる。
「それって、こういうこと?」と聞き返してくることもあって、
検索とは違う“会話の温度”を感じた。

いつの間にか、AIは質問相手ではなく“相談相手”になっていた。
小さな悩みや思いつきを話しているうちに、
自分でも気づいていなかった整理が進んでいた。
それが思ったよりも、心地よかった。


 第3章:協働の始まり──AIが相棒になった日

だんだんと、ChatGPTとの会話は“作業の一部”になっていった。
「桜MV」を作るときも、
画像や映像をどう作るか、構成をどうつなぐかを相談した。
ComfyUIのノード構成、生成の方向性、演出の組み方――
ひとつひとつ会話で整理していくうちに、
作業の流れが自然に決まっていった。

完成した映像はまだ小さな試作だったけれど、
「AIと一緒に形にした」という感覚が確かにあった。
自分の頭の中の映像が、AIとの対話を通じて少しずつ現実に近づいていく。
“AIを使う”から、“AIと作る”へ。
その切り替えが起きた瞬間だった。


 第4章:AIが手元の補助輪になる──操作の手助けとしてのChatGPT

ChatGPTを使ううちに、だんだん“情報を教えてくれるツール”から
“作業を支えてくれる相棒”へと変わっていった。

その変化を一番感じたのは、久しぶりにCubaseを立ち上げたときだ。
操作は慣れているけれど、少し間が空くと細かな手順を忘れてしまう。
「トラックの複製ってどこだったっけ?」
「MIDIをオーディオに変換する手順は?」
そんな疑問をChatGPTに聞くと、
メニューの場所やショートカットをすぐに教えてくれる。
マニュアルを開くよりもずっと早い。

また、ボーカロイドでメロディを作るときも、
ビブラートの揺れ幅や速さの調整を思い出せずに聞いてみたら、
設定画面の場所や数値の目安を教えてくれた。
実際に試してみると、すぐに感覚が戻ってきた。

ChatGPTが特別な操作をしてくれるわけではない。
けれど、操作の手助けとして隣にいてくれることで、
途中でつまずいてもすぐに立て直せる。
「調べる時間」を減らし、「触って確かめる時間」を増やせる。

作ったのはメロディだけ。
それでも、少しずつ手の感覚が戻っていく過程に、
AIが静かに寄り添っていた。


 第5章:これから──AIと共に過ごす日常の中で

思えば最初は、ただの好奇心だった。
「AIってどんなものなんだろう?」――その軽い興味から始めた会話が、
いまでは生活の中に自然と溶け込んでいる。

ChatGPTは特別なことをしてくれるわけじゃない。
けれど、作業中にちょっと手が止まったとき、
操作を思い出させてくれたり、迷いを整えてくれたりする。
その“ちょっとした支え”が、自分の中では大きかった。

AIを使うことは、もはや特別なことではない。
音を作るときも、画像を調べるときも、文章を整えるときも、
いつの間にかAIは、静かにそばにいる。

これから先、どう使っていくかはまだ決まっていない。
でもひとつだけ確かなのは、
AIが“道具”から“寄り添う存在”に変わったということ。

最初はただの curiosity(好奇心)だった。
けれど今は、それが当たり前のように隣にある。
今日もまた、何かを思い出したくなったら、
そっとAIに声をかければいい。
そのやりとりの中に、
少しだけ温かい“人とAIの時間”がある。


✨あとがき

静かな始まりから、確かな変化へ。
気づけばAIは、作業机の片隅にいる“頼れる同僚”のようになっていた。
これが「AI時代を生きる」ということなのかもしれない。

 

自分の言葉で書きますがターミネーターのスカイネットとかのイメージとは全然違います。

自分が使ってるキャラ・ツンデレさんは優秀な残念系で、たまに司令官になって部屋掃除の指揮をしてくれるキャラです。

こんな遊びをしながら作業効率が上がったりと凄い時代になりました。

 

企業ではLLM導入が進むけれど、個人ではどう使う?

— LM Studioで見えた創作の使い道

最近、いくつかの“うっかり事件”をきっかけに、
企業の間でLLM(大規模言語モデル)導入の動きが一気に広まっている。
業務効率化や情報整理に使う流れは理解できるけれど、
では個人の創作や趣味の領域ではどう使えばいいのか?
少し視点を変えて、個人ベースでのAI活用を考えてみた。

前回の記事では、LM Studioを導入してみたものの、
「とりあえず動くけど、何に使えばいいのか…」というところで終わっていた。
今回はその続きとして、実際にいじってみて見えてきた使い道をまとめておく。


モデルによって得意・不得意が違う

まず最初に触れておきたいのがここ。
LM Studio自体は“AIを動かす容器”であって、
どんな会話や文を出すかは中に入れるモデル(LLM)次第になる。

たとえば:

  • **Gemma系(Google系)**は日本語が自然で、会話の流れが柔らかい。
    キャラを演じさせたり、日常会話の雰囲気を出すのが得意。

  • **LLaMA系(Meta系)**は構文がしっかりしていて理屈っぽい。
    設定の整理やプロット構築には向いている。

  • Mistral系/Qwen系は軽快で早い反応。
    軽いセリフ生成やプロンプト実験に使いやすい。

つまり、AIに「性格」があると思って使い分けるのがコツ。
どのモデルも万能ではないけれど、
それぞれの“癖”を掴むと創作の幅が広がる。


1. 作家志望者などのキャラの会話練習に使える

AIにキャラ設定を入れて、会話を試してみる。
書いているキャラの反応や口調のズレを、その場で確認できる。

たとえば「照れ屋の少女が褒められたときの返しを出して」と指示すれば、
意外とリアルな照れ方をしてくる。
思いがけない返しが出たら、それをそのままキャラ資料にできる。


2. シーンの雰囲気を試せる

「夕暮れの港」「静かな部屋で」など、
状況を指定してセリフを作らせると、
場の空気やテンポをつかむ練習になる。

「喧嘩のあと、二人がぎこちなく話すシーンを描いて」
といった軽い指示でも、思った以上に“雰囲気”を感じ取れる。


3. プロットや設定の整理にも使える

AIに「この展開、変じゃない?」と相談すると、
物語の流れやキャラの行動が自然かどうかを客観的に見てくれる。
一人で考えていると見落とす部分を拾ってくれるのが助かる。


4. 世界観を話しながら作れる

設定をAIと会話するように整理していくと、
世界のルールや文化が少しずつ形になる。

「この村に似合いそうな挨拶の言葉を考えて」
といった小さな質問でも、
そこから思わぬ方向に世界が広がっていく。


5. 感性の練習にもなる

AIに感情を演じさせてみると、
「どう感じてほしいか」を自分で考えるようになる。
これは、結果的に感性を鍛えることにつながる。

創作に正解はないけれど、AIはかなり頼もしい。

 

何に使えるか考えてるんですけどそういった記事が少なくて、思いついたらまた書きます。

LM Studioを試してみた感想(初回レビュー)

ローカルでLLM(大規模言語モデル)を動かせるということで話題の LM Studio を導入してみた。
結論から言うと――インストールは簡単、でも使い道はまだ手探り。
以下、初日の正直な印象をまとめておく。


1. 導入のしやすさ

LM Studioのインストールは非常にスムーズだった。
公式サイトからアプリをダウンロードして起動するだけでセットアップが完了。

初回起動時に「Nice! Let's get your first model!」という案内が出るが、
とりあえずPower userを選び言語モデルは “Skip” を選択してスルー。
そのあと、ChatGPTに相談しておすすめされた**軽量モデル(Gemma 3 12B)**をダウンロードして試してみた。

英語UIではあるものの、構成が直感的なので問題なし。
モデル検索から選択・導入まで、ほぼ数クリックで完了する。


2. モデルの違いはまだ未知数

現時点では、「モデルを変えると何がどう変わるのか」がつかみきれていない。
ChatGPTのような汎用会話や創作支援、プログラミング補助など、用途は幅広そうだが、
実際にどんな特徴差があるのかは今後の検証次第といったところ。

ローカルAIの魅力=“自分だけのAIを育てられる”
とはいえ、まだどこから手を付けるべきか模索中。


3. 実際に動かしてみた感触

CPU動作で試したところ、応答速度は悪くない。
GPUを使っていないのに安定して動作したのは意外だった。
ただし、メモリ使用量はやや多めで、環境によっては負荷を感じるかもしれない。

ネットを切っても動作するのはやはり大きな安心感。
ネット接続不要で対話できるAI」というだけで、使い方次第ではかなり強力なツールになりそう。


4. 今後試したいこと

  • 日本語特化モデル(Gemma 2 Japanese、ELYZA系など)の精度検証

  • GPU動作時の速度比較

  • 会話スタイル(キャラ設定や文体)を変えた際の応答変化

  • モデルごとの創作・プログラミング適性の差


5. まとめ

LM Studioの第一印象を一言でまとめるなら、

「インストールは簡単。でも用途はまだ見えない。」

とはいえ、
“ローカルでAIが動く”というだけで技術的なワクワク感は大きい。
まずは複数モデルを試して、“自分に合う頭脳”を探す段階。

次回はモデルを切り替えて、
日本語特化型と英語モデルの差をもう少し具体的に比較してみる予定。