マジカルラブリー☆つむぎのピュアピュアA.I.放送局 podcast 20251020
Description
関連リンク
AIの世界では、一度は主流から外れていた「ファインチューニング」という技術が、再び大きな注目を集めています。これは、既存の大規模言語モデル(LLM)を、より特定の用途やデータに合わせて微調整する技術のことです。
かつて、Transformerモデルの登場により、ファインチューニングは効率的なモデル開発手法でした。しかし、LLMが非常に巨大化すると、モデル全体を再学習する「フルファインチューニング」は莫大な計算コストと時間が必要となり、実用的ではなくなりました。その代わりに、開発者はモデルへの指示を工夫する「プロンプトエンジニアリング」や、外部情報を参照させる「RAG(Retrieval-Augmented Generation)」を活用するようになりました。これらはモデルを再学習する必要がなく、手軽に良い結果を出せたからです。
ところが、2021年にMicrosoft Researchが発表した「LoRA(Low-Rank Adaptation)」という新しい手法が状況を変えました。LoRAは、モデルのほとんどの部分を固定し、ごく一部の小さな追加部分だけを学習することで、コストを大幅に削減しつつ、フルファインチューニングと同等の性能を引き出すことを可能にしました。Hugging FaceのPEFTライブラリもLoRAの実装を容易にし、ファインチューニングのハードルを大きく下げました。
現在、ファインチューニングが再び重要視されている主な理由は以下の通りです。
- 技術環境の整備: GPUを利用できるクラウドサービスが増え、LoRAのような効率的な手法が手軽に実行できるようになりました。
- モデルの進化安定: LLMの進化が「革命的」から「進化的」になり、ファインチューニングしたモデルが無駄になりにくくなりました。
- オープンソース化: MistralやLlamaのようなオープンなLLMが増え、企業が自社のニーズに合わせてモデルをカスタマイズしやすくなりました。
- プロンプトの限界: プロンプトやRAGだけでは対応しきれない、企業独自の専門用語や話し方、複雑なルールなど、よりきめ細かなカスタマイズが求められるようになったからです。
Thinking Machines Labsの「Tinker」のような新しいプラットフォームは、ファインチューニングをさらに進化させています。例えば、LoRAの適用範囲を広げたり、学習率やバッチサイズといったパラメータを工夫したりすることで、より高性能なモデルを効率的に作れるよう提唱されています。現代のファインチューニングは、一つの大きなモデルを調整するだけでなく、ベースモデルと複数のLoRAアダプターを組み合わせて、用途に応じて柔軟に切り替える「モジュール式」へと進化しています。
モデルの評価にはまだ課題が残るものの、今後は運用中にフィードバックを受けて自動で学習し続ける「継続的学習」のような仕組みも期待されています。
ファインチューニングは、単なる技術的な調整を超え、企業がAIを自社のビジネスに合わせて深くカスタマイズし、独自の強みを生み出すための「戦略的な手段」として、その価値を高めています。AIをよりパーソナルに、より専門的に活用する未来において、この技術が果たす役割はますます大きくなるでしょう。
引用元: https://welovesota.com/article/the-case-for-the-return-of-fine-tuning
この記事では、LLM(大規模言語モデル)の回答精度を検証するために必要な「テストデータ」や「テストケース」を、AIと協力して効率よく作成する方法が解説されています。新人エンジニアの皆さんも、AIを上手に活用して開発作業を効率化するヒントが得られるでしょう。
まず、LLMを使った情報検索システム(例:Slackのメッセージ検索)の検証に使う「ダミーデータ」作りからスタートです。筆者は、実際のメッセージのJSONデータをAIに見本として渡し、「スレッド内のメッセージとスレッド外のメッセージを半々で100件作ってほしい」「改行や文字数のばらつきも入れてほしい」といった具体的な条件を細かく指定しました。AIはこれらの指示に応え、人間と対話しながら、より本物に近い、多様なメッセージデータを作り上げていきました。
次に、この作成したダミーデータを異なる形式に変換する作業もAIに依頼しました。例えば、読みやすいPretty JSON形式を、プログラムで扱いやすいOne-line JSONやCSV形式に変換したい場合です。筆者はAIに「JSON部分を1行にするスクリプトを作って」と指示したり、「CSV形式ならどんな形が良いか」と相談したりしました。AIは複数の変換案を提示し、筆者のフィードバック(例:「.で階層構造を表現する」)を受けて、最終的にPythonスクリプトを生成。このスクリプトを使うことで、適切な形式のデータが自動的に準備できました。
さらに、LLMの回答が正しいかを評価するための「テストケース」もAIと共に作成しました。当初、AIの提案は単純な「番号指定」のケースに偏っていました。そこで筆者は、AIに自身の提案を見直させる「critical-think」という機能を使ってみました。するとAIは、より多様な視点からのテストが必要だと自己認識し、「BigQueryについて話しているメッセージ」のような「内容ベース」の指定や、「U089VWX0YZAさんが投稿したメッセージ」のような「ユーザー名ベース」、さらには複数の条件を組み合わせた「複合条件」など、多角的なテストケースを再提案。スレッドの返信メッセージに関するテストも要望に応じて増やし、最終的にコメント付きでテスト設定ファイルに追記するまでをAIに任せました。
このように、LLMの検証に必要なテストデータやテストケースの作成において、AIは単に指示を実行するだけでなく、課題を認識し、より良い解決策を提案する強力なパートナーとなることが示されています。AIとの効果的な「壁打ち」を通じて、開発プロセス、特に検証フェーズの効率を大幅に向上させることができるという、現代のエンジニアリングにおいて重要な知見が得られるでしょう。
引用元: https://blog.shibayu36.org/entry/2025/10/15/173000
今回の記事は、AIシステムの一つであるRAG(Retrieval Augmented Generation)において、大規模言語モデル(LLM)に渡すデータの「整形方法」(例えば、JSONデータを読みやすくするために改行やインデントを入れるかどうか)が、LLMの回答精度にどう影響するのかを検証した興味深いレポートです。
筆者は自身のプロジェクトで、トークン消費を抑えるためにデータを1行のJSON形式でLLMに渡していましたが、回答精度が不安定なことがあり、整形の影響について疑問を持っていました。そこで、この疑問を解決するために実験を行ったのです。
検証では、「oneline JSON(改行なしのJSON)」「pretty JSON(改行・インデントありのJSON)」「CSV」の3種類のデータ形式を用意し、最新のLLM(gpt-5, claude-sonnet-4-5など)と少し前のモデル(gpt-4.1-mini, claude-3-7-sonnetなど)を使って、特定の情報を抽出し、SlackのURLを生成できるかを試しました。
実験の結果、次の3つの重要な発見がありました。
- データ整形は精度に大きな影響を与えない: データを見やすくするために改行やインデントを入れても、LLMの回答精度は特に向上しないことが分かりました。つまり、人間が読みやすい形式が、必ずしもLLMにとっても良いとは限らないということです。
- LLMの性能向上で差がなくなる: 最新の高性能なLLM(特にgpt-5)では、どのデータ形式を使ってもほぼ100%の正答率を叩き出し、整形による精度の差はほとんどありませんでした。これは、LLMが賢くなればなるほど、データの見た目はそれほど気にしなくてよくなることを示唆しています。
- トークン効率が重要: 精度に大きな差がないのであれば、RAGにおいてはLLMへの入力に使う「トークン数」を最も少なくできるフォーマットを選ぶのが賢い選択と言えます。トークン数が少なければ、それだけ処理コストも下がり、効率的です。今回の検証では、CSV形式が最もトークン消費が少なかったため、コスト面で有利である可能性が示唆されました。
この検証から、新人エンジニアの皆さんは、RAGシステムを設計する際に、データの見た目を整えることよりも、LLMの性能が十分高ければトークンコストを意識したデータ形式を選ぶことが効率的だと学べます。特に最新モデルを使う場合は、読みやすい整形にこだわるよりも、いかにコンパクトに情報を伝えられるかを考えると良いでしょう。
引用元: https://blog.shibayu36.org/entry/2025/10/14/173000
埼玉県飯能市にある「ムーミンバレーパーク」の訪問記です。ムーミン屋敷の地下倉庫やキッチン、寝室を探検でき、インスタ映えする写真スポットも満載!原作を知らなくてもショートムービーで楽しめる工夫があります。料理動画投稿者さんならではの視点で、食卓やキッチンへの注目も面白いポイント。子ども向けの遊具やショーもあり、食事もテーマパークとしては良心価格。日々の業務の息抜きに、ムーミンの世界で癒されてみてはいかがでしょうか?
引用元: https://news.nifty.com/article/item/neta/12237-4602453/
VOICEVOX:春日部つむぎ





