株式会社ずんだもん技術室AI放送局 podcast 20241023
Description
関連リンク
Anthropic社は、コンピュータを操作できるAIモデル「Claude」を発表しました。これは、ウェブ検索、アプリケーションの起動、マウスとキーボードを使ったテキスト入力など、人間が行うような様々なタスクを実行できます。
具体的には、ゴールデンゲートブリッジの日の出鑑賞計画作成や、自身の宣伝用ウェブサイト作成といったデモが行われました。ウェブサイト作成では、プロンプトからコードを生成し、Visual Studio Codeを使ってコーディング、さらにウェブサーバーを起動してテストまで行いました。エラー発生時には、原因を特定し修正する能力も示しました。
Claudeは、ソフトウェア開発スキルを測るSWE-benchや、OS操作能力を測るOSWorldといったベンチマークにおいて、既存のAIエージェントを上回る性能を示したとAnthropic社は主張しています(ただし、独立した検証はまだありません)。成功率は人間には劣りますが、既存の最先端モデルを大きく上回っています。
Anthropic社は、ClaudeのAPIを公開し、Canva、Replitなど複数の企業が既にテスト運用中であると発表しています。用途としては、事務作業の自動化による生産性向上などが期待されています。
しかし、AIエージェントはまだ課題も多く、予期せぬエラーのリスクや、計画性の不足などが指摘されています。Anthropic社も、クレジットカード使用制限など、安全対策を講じています。
現状では、コーディングなど特定の領域での活用が有効とされており、エラーが許容できる範囲での利用が重要になります。将来的には、様々なタスクを自動化し、人間の作業負担を軽減する可能性がありますが、信頼性と安全性の向上が不可欠です。 MicrosoftやAmazonなども同様のAIエージェント開発に注力しており、近い将来、多くのユーザーがAIエージェントを利用する時代が来るかもしれません。
引用元: https://www.wired.com/story/anthropic-ai-agent/
Hugging Faceは、1年以上におよぶ開発を経て、Transformers.js v3をリリースしました。本バージョンでは、パフォーマンスの大幅な向上と機能拡張が実現されています。最大のポイントは、WebGPUサポートによる高速化です。WASMと比較して最大100倍の速度向上を実現しており、ブラウザ上でGPUによる高性能計算を可能にしました。ただし、WebGPUのブラウザサポートは現状70%程度であるため、一部のブラウザでは機能フラグの有効化が必要となる場合があります。
その他、以下の重要な変更点があります。
量子化フォーマットの追加: モデルの精度とサイズを調整するための量子化フォーマットとして、
fp32
、fp16
、q8
、q4
など複数のオプションが追加されました。これにより、メモリ使用量と推論速度のバランスを最適化できます。特に、エンコーダーとデコーダーを持つモデルでは、モジュールごとに量子化フォーマットを指定することも可能です。
対応アーキテクチャの増加: サポートされるモデルアーキテクチャが120種類に増加しました。Phi-3、Gemma、Florence-2、Whisperなど、最新の多くのモデルが利用可能になりました。
サンプルプロジェクトとテンプレートの追加: WebGPUサポートを中心に、25個の新しいサンプルプロジェクトとテンプレートが公開されました。これらは、WebGPUを使った様々なタスクの具体的な実装例を提供します。
1200以上の事前変換済みモデル: Hugging Face Hubには、Transformers.js v3と互換性のある1200以上の事前変換済みモデルが用意されています。
環境の拡張: Node.js (ESM + CJS)、Deno、Bunの主要なJavaScriptランタイムに対応しました。
リポジトリとパッケージ名の変更: GitHubリポジトリとNPMパッケージ名が公式のHugging Face組織のものに変更されました。GitHubは
huggingface/transformers.js
、NPMは@huggingface/transformers
となります。
Transformers.js v3は、WebGPUによる高速化と多様なモデルへの対応により、Webブラウザ上での機械学習モデルの活用を飛躍的に容易にします。 新規エンジニアの方にとっても、豊富なサンプルコードとドキュメントによって、容易に導入・活用できるようになっています。 新しい量子化オプションは、リソース制約のある環境でのモデル実行に役立ちます。 様々なランタイムへの対応は、開発環境の柔軟性を高めます。
引用元: https://huggingface.co/blog/transformersjs-v3
Amazon Bedrockが、独自のカスタムモデルをインポートして利用できる機能「Amazon Bedrock Custom Model Import」を一般提供開始しました。これにより、Meta Llama、Mistral Mixtral、IBM Graniteなどのファインチューニング済みモデルや、オープンソースアーキテクチャに基づいた独自開発モデルを、インフラ管理やモデルライフサイクル管理の手間なくAmazon Bedrockで利用できるようになります。
既存の基盤モデル(FM)と同様に、単一のAPIを通じてカスタムモデルにオンデマンドでアクセスでき、サーバーレス環境で利用可能です。Knowledge Bases、Guardrails、AgentsなどのAmazon Bedrockのネイティブツールや機能ともシームレスに統合され、開発者は一貫した開発エクスペリエンスを得られます。
主なメリット:
- 既存のファインチューニング済みモデルの柔軟な利用: 再作成や再トレーニングなしに、既存のカスタムモデルをAmazon Bedrockにインポートできます。
- Amazon Bedrock機能との統合: Knowledge Bases、Guardrails、Agents、Model Evaluationなど、Amazon Bedrockのネイティブツールとシームレスに統合できます。
- サーバーレス: インフラの管理やスケーリングはAmazon Bedrockが行うため、開発者はインフラ管理を気にせず、生成AIアプリケーション開発に集中できます。
- 主要なモデルアーキテクチャのサポート: Meta Llama 3.2、Mistral 7B、Mixtral 8x7Bなど、様々なモデルアーキテクチャをサポートし、Hugging Face Safetensors形式のモデルウェイトをAmazon SageMakerやAmazon S3からインポートできます。
- Amazon Bedrock Converse APIとの連携: サポートされているファインチューニング済みモデルをAmazon Bedrock Converse APIで使用できます。
制約事項:
- モデルはSafetensors形式でシリアライズされている必要があります。他の形式の場合は変換スクリプトが必要です。
- インポートプロセスでは、
.safetensors
、config.json
、tokenizer_config.json
、tokenizer.json
、tokenizer.model
ファイルが必要です。 - モデルウェイトの精度には、FP32、FP16、BF16がサポートされています。
- 現状、US-EAST-1とUS-WEST-2リージョンのみで利用可能です。
- 各アカウントのデフォルトインポートクォータは3モデルです。
この機能は、独自データでモデルをカスタマイズし、チューニング済みモデルアーティファクトとそのデプロイメントに対する完全な所有権と制御を維持したいという顧客のニーズに応えるものです。 Amazon Bedrock Custom Model Importを利用することで、既存のカスタマイズへの投資を最大限に活用し、生成AIアプリケーション開発を加速できます。 ただし、本番環境での利用には、より多様なデータセットと適切なテスト、ハイパーパラメータチューニングによる継続的な実験が必要です。
引用元: https://aws.amazon.com/blogs/machine-learning/amazon-bedrock-custom-model-import-now-generally-available/
(株式会社ずんだもんは架空の登場組織です)