Discover株式会社ずんだもん技術室AI放送局株式会社ずんだもん技術室AI放送局 podcast 20241120
株式会社ずんだもん技術室AI放送局 podcast 20241120

株式会社ずんだもん技術室AI放送局 podcast 20241120

Update: 2024-11-19
Share

Description

関連リンク





マイクロソフトは、AIアシスタント「Copilot」の提供範囲を世界中に拡大しました。Copilotは、仕事と私生活の両方で利用でき、画像作成、メール対応、文章作成支援、会議内容の確認など、様々なタスクを支援します。



今回の発表では、個人向けと組織向けにCopilotの提供オプションが拡大されました。個人向けには、Copilot Proのサブスクリプションが提供され、上位モデルへの優先アクセス、Microsoft 365アプリでのAI機能強化、高度な画像生成・編集機能、Copilot GPT Builderへのアクセスなどが含まれます。Copilot Proは、iOS/Androidアプリでの1ヶ月無料トライアルも提供されます。また、無料のMicrosoft 365 WebアプリでもCopilotが利用可能になります(デスクトップアプリ利用にはMicrosoft 365 PersonalまたはFamilyサブスクリプションが必要)。Copilot GPT Builderを使うと、個々のニーズに合わせたCopilotを作成することもできます。



組織向けには、「Copilot for Microsoft 365」が、様々な規模と業種の企業に提供されます。Word、Excel、PowerPoint、Outlook、Teamsなど、主要なMicrosoft 365アプリと統合されており、ビジネスデータに基づいたカスタマイズも可能です。エンタープライズレベルのセキュリティ、プライバシー、コンプライアンスにも対応しています。既にFortune 100企業の40%がCopilot for Microsoft 365を早期導入プログラムを通じて利用しており、導入ペースは従来のMicrosoft 365スイートよりも速いとのことです。



つまり、今回のアップデートにより、個人ユーザーはより高度なAI機能を気軽に利用できるようになり、企業は業務効率化と生産性向上を図ることが期待できます。Copilotは、様々なデバイスで利用可能で、多言語にも対応しているため、世界中のユーザーにとってより身近な存在となるでしょう。 ただし、デスクトップアプリでのCopilot利用にはMicrosoft 365のサブスクリプションが必要な点に注意が必要です。また、機能の一部は言語やアプリによって制限がある可能性があります。詳細については、マイクロソフトの公式ウェブサイトを参照ください。



引用元: https://news.microsoft.com/ja-jp/2024/03/15/240315-bringing-copilot-to-more-customers-worldwide-across-life-and-work/





この文章は、はてなブックマークに投稿された「コードレビューでよくお願いする、コメントの追加のパターン7選」という記事へのコメントと、その記事への反応をまとめたものです。 記事自体はZennに公開されており、Go言語のコードレビューにおいて、コメントを追加する重要性と具体的なパターン7選を解説しているようです(詳細は不明)。



はてなブックマークのコメント欄では、多くのエンジニアが自身の経験を共有しています。 主な意見としては、




  • コードだけでは理解できない部分には必ずコメントを追加するべきという意見が多数を占めています。レビューで質問が出た時点で、コードだけでは情報が不足していたと認識すべきとのことです。

  • コメントはコードと同様に管理する必要があるという指摘もあります。コードの修正とコメントの更新がずれると、かえって混乱を招くためです。

  • 「コードを見ればわかる」という考えは危険であるという意見も出ています。これは認知バイアスの一種であり、コードの可読性を高め、誰でも理解できるよう努めるべきだとされています。

  • コメントの追加をルール化するのは非推奨です。ルール化によって形式的なコメントが増え、本質的な理解を阻害する可能性があるためです。

  • 番号を付けて説明するコメントは、修正時に更新が忘れられがちであるという懸念も示されています。



これらのコメントは、新人エンジニアにとって、コードレビューにおけるコメントの重要性と、質の高いコメントを書くための注意点を知る上で非常に参考になります。 単にコードを動作させるだけでなく、他者にも理解しやすいコードを書くこと、そしてコメントを適切に活用することで、チーム開発における生産性向上に繋がることを示唆しています。 記事の詳細な内容については、Zennの記事を参照する必要があります。



引用元: https://b.hatena.ne.jp/entry/s/zenn.dev/mixi/articles/9ca5a84b73144c





この記事は、OpenAIのDevDay 2024で発表された「蒸留(Model Distillation)」機能を用いたLLMアプリケーションのコスト削減手法について解説しています。蒸留とは、大規模言語モデル(LLM)の出力を用いて、より小型で安価なモデルを学習させる技術です。従来、LLMのコスト削減はキャッシュによる再利用や、自社データを用いた安価なモデルの開発・ファインチューニングに限定されていましたが、OpenAIのModel Distillationにより、高価なモデルと同等の性能を、安価なモデルで実現できるようになりました。



OpenAIのダッシュボード上で簡単に操作できるModel Distillationは、高価なモデル(例: GPT-4o)の出力を利用して、安価なモデル(例: GPT-4o-mini)をファインチューニングします。 記事では、GPT-4oとファインチューニング済みのGPT-4o-miniの料金を比較し、後者のコストが大幅に削減されていることを示しています(例: GPT-4oの約1/10)。



ただし、蒸留によって得られるモデルは、元の高価なモデルの性能を超えることはありません。そのため、蒸留を行う前に、プロンプトエンジニアリングによって高精度な出力を得られるよう、上位モデルを最適化しておく必要があります。 蒸留は、既に十分な精度が確認されているプロンプトを、より安価に運用するための技術と捉えるべきです。



Model Distillationの具体的な手順は、以下の通りです。




  1. データ蓄積: store: true オプションを指定してChat Completions APIを使用し、30日間保存可能な入出力データを蓄積します。メタデータを用いて、プロンプト名やバージョン管理情報などを記録することで、後の評価やファインチューニングを容易にします。

  2. ベースライン確立: 大小両方のモデルで蓄積したデータ(の一部)を評価し、蒸留後のモデルの性能を比較するための基準を設けます。OpenAIのダッシュボードでは、事実性、意味の類似性、カスタムプロンプトなど、様々な評価指標が利用可能です。

  3. ファインチューニング: OpenAIのダッシュボード上で、蓄積したデータを用いて、小型モデルをファインチューニングします。

  4. 性能評価: 2.で用いたテストデータを用いて、ファインチューニングされたモデルを評価し、元の高価なモデルとの性能差を確認します。



記事では、データ蓄積、評価、ファインチューニング、評価という一連の流れを図解付きで詳細に説明しており、新人エンジニアでも理解しやすいように工夫されています。 ただし、LangSmithなどの外部ツールを利用した高度なプロンプト管理や、詳細なファインチューニングパラメータの設定などは、本要約では省略しています。 コスト削減効果を最大化するためには、利用頻度の高いプロンプトから優先的に蒸留を行うべきであると結論付けています。 最後に、OpenAI以外の企業も同様の蒸留機能を提供する可能性を示唆し、積極的に活用するよう促しています。



引用元: https://zenn.dev/pharmax/articles/f4ae12a91cca45





(株式会社ずんだもんは架空の登場組織です)

Comments 
loading
In Channel
loading
00:00
00:00
1.0x

0.5x

0.8x

1.0x

1.25x

1.5x

2.0x

3.0x

Sleep Timer

Off

End of Episode

5 Minutes

10 Minutes

15 Minutes

30 Minutes

45 Minutes

60 Minutes

120 Minutes

株式会社ずんだもん技術室AI放送局 podcast 20241120

株式会社ずんだもん技術室AI放送局 podcast 20241120

株式会社ずんだもん技術室AI放送局