Discover株式会社ずんだもん技術室AI放送局
株式会社ずんだもん技術室AI放送局
Claim Ownership

株式会社ずんだもん技術室AI放送局

Author: 株式会社ずんだもん技術室AI放送局

Subscribed: 0Played: 40
Share

Description

AIやテクノロジーのトレンドを届けるPodcast。平日毎朝6時配信。朝の通勤時間や支度中に情報キャッチアップとして聞いてほしいのだ。(MC 月:春日部つむぎ、火水木:ずんだもん、金:お嬢様ずんだもん)
184 Episodes
Reverse
関連リンク LangMem SDK for agent long-term memory LangMem SDKは、AIエージェントに長期記憶を持たせ、学習能力と個別対応力を向上させるためのライブラリです。会話から情報を抽出し、プロンプトを更新してエージェントの行動を最適化し、行動、事実、イベントに関する長期記憶を維持する機能を提供します。Semantic memory(知識)、Episodic memory(経験)、Procedural memory(行動)の3種類の記憶タイプをサポートし、エージェントが長期にわたって学習し、より賢く、よりパーソナライズされた応答を生成することを支援します。 引用元: https://blog.langchain.dev/langmem-sdk-launch/ LLMs.txtについての覚書 LLMがWebをクロールする際の負荷を軽減する目的で提案されたLLMs.txtについて解説。これは、LLMがWebサイトの情報を効率的に取得するための仕様を記述したテキストファイルです。robots.txtが検索エンジンのクローラーを制御するのに対し、LLMs.txtはLLMにサイト構造を伝えるサマリーとして機能します。完全な情報を提供するllms-full.txtも存在します。LLM利用者は、RAGなどの際にLLMs.txtの存在を意識すると良いでしょう。 引用元: https://zenn.dev/watany/articles/0b28a68a2dffc3 Github Copilot Agentでパワーが4倍に、1週間を振り返る|sys1yagi GitHub Copilot Agentを1週間試した結果、PR数が4倍になったとのこと。アイデア実現のハードルが下がり、定型作業が自動化可能になった。一方で、lintやCIの速度、レビュー速度がボトルネックに。テストの品質と実行速度、動作確認の速度も重要になる。今後はチームでの活用が鍵となり、チームの取り組み方のアップデートが必要。 引用元: https://note.com/sys1yagi/n/n9a7b93554e3a 「ずんだもん」「チェイス」の雪像お目見え 木古内釜谷国道沿い 2025/2/17 函館新聞社/函館地域ニュース - e-HAKODATE 木古内町の国道沿いに、安斎さん制作の雪像が登場。地域の子どもたちを喜ばせようと1998年から続く恒例行事です。今年は「ずんだもん」や「チェイス」など4体のキャラクターが制作され、細部までこだわった出来栄え。夜にはライトアップも実施。展示は2月下旬まで(天候次第)。 引用元: https://www.ehako.com/news/news2024a/14599_index_msg.shtml お便り投稿フォーム (株式会社ずんだもんは架空の登場組織です)
関連リンク Raspberry Pi + Tailscale + Open WebUI で手軽に自分だけの LLM 環境を構築するチュートリアル Raspberry PiでOpen WebUIを動かし、ローカルLLMやAPIを外部から利用する方法を紹介します。Tailscaleを使うことで、自宅外からも安全にアクセスできます。 準備: Raspberry Pi (4以降推奨)、microSDカード、PCを用意。Raspberry Pi ImagerでOS (Raspberry Pi OS Lite推奨)をmicroSDに書き込み、SSHを有効化。 Tailscale導入: PCとRaspberry PiにTailscaleをインストール。Tailscale SSHを有効化し、PCからRaspberry PiへTailscale経由でSSH接続できることを確認。スマホからの接続も可能。 Open WebUIセットアップ: Raspberry PiにDockerをインストールし、Open WebUIをDockerで実行。Tailscale ServeでHTTPS接続を確立。Open WebUIで管理者アカウントを作成し、必要に応じてOpenAI APIキーなどを設定。 これで、どこからでもアクセスできる自分だけのLLM環境が完成します。GPUがあれば、ローカルLLMも利用可能です。 引用元: https://zenn.dev/ikumasudo/articles/18437293cca7c7 LangGraphを使ってテックブログレビューエージェントを作ってみた Insight EdgeのMatsuzaki氏が、テックブログのレビュー作業を効率化するため、LangGraphを用いたレビューエージェントを開発。記事は、開発の背景、システム構成、レビューの流れ、具体的な実装について解説。特に、レビュー観点の洗い出しから、Agentic Workflowによる処理フローの作成、LangGraphでの実装(ステート定義、ノード追加、エッジ追加など)に焦点を当てている。成果物として、実際のレビューコメント例を紹介。課題はあるものの、表記揺れや構成など、自分では気づきにくい誤りを指摘できることを確認。今後は、出力精度や冗長性の改善、Suggestion機能の利用などを検討し、社内での実運用を目指す。 引用元: https://techblog.insightedge.jp/entry/techblog_review_agent ChatGPTo3リアルタイム性能変動レポート2025/02/17|ChatGPTリアルタイムモニタリング ChatGPT-3の性能をリアルタイムでモニタリングしたレポートです。特定のプロンプトに対する回答を繰り返し生成し、その変動を評価しています。評価項目は、回答の文字数、語彙の多様性(TTR)、プロンプトへの従順さ(命令違反記号の使用頻度、命令違反回答の割合、読点の間隔)、予想推測関連ワードの使用頻度、プロンプトの影響力、学習データの応用頻度(ウマ娘の固有名詞分析)です。過去2週間のトレンドと当日の状態を分析し、安定性や異常値を検出しています。 引用元: https://note.com/gpt4_forecast/n/n6c7b19821908 「実は…有名アセットのウマの動きはおかしいんだ」ウマが好きすぎるゲーム開発者が指摘する近年ゲームのウマ描写のおかしさ。AAAゲームですらおかしい ゲーム開発者が、ゲームでよく使われる馬のアニメーションアセット「Horse Animset Pro(HAP)」の動きが、解剖学的に見ておかしいと指摘。AAAタイトルを含む多くのゲームで、馬の足の動きが不自然だったり、蹄鉄のケアが現実と異なっていたりするとのこと。 開発者は、予算やターゲット層の違いは理解しつつも、アセットの品質向上を期待。 引用元: https://www.gamespark.jp/article/2025/02/17/149532.html お便り投稿フォーム (株式会社ずんだもんは架空の登場組織です)
関連リンク ブラウザ操作AIエージェントの脅威を考えてみる LLMを活用したブラウザ操作AIエージェントが登場し、Web操作の自動化が期待される一方、プロンプトインジェクションによるセキュリティリスクが浮上しています。攻撃者がWebサイトに悪意のあるプロンプトを埋め込み、AIエージェントに実行させることで、リダイレクト、ローカルファイルやCookieの窃取、パスワードリセット、GitHubプルリクエストの強制マージなど、様々な攻撃が可能になります。対策として、AIエージェントが参照する情報源の信頼性を検証し、不用意なAPI実行を制限することが重要です。 引用元: https://zenn.dev/melonattacker/articles/dd7ca650b04bbd GitHub - JosefAlbers/VimLM: VimLM is a Vim plugin that provides an LLM-powered assistant for code editing by allowing users to interact with a local LLM model through Vim commands and automatically ingesting code context. VimLMは、Vim上でLLMを活用したコーディング支援を行うプラグインです。特徴は、ローカルLLMモデルを使用し、GitHub Copilotのようにコード補完や提案を受けられる点。コードのコンテキスト(現在のファイル、選択範囲、参照ファイルなど)を深く理解し、対話的なコーディングが可能です。オフライン環境でも利用でき、APIやデータ漏洩の心配もありません。 基本的な使い方として、Ctrl-lでコンテキスト追加、Ctrl-jで会話継続、Ctrl-pでコード置換ができます。また、!includeで外部ファイルを取り込んだり、!deployでコード生成先を指定したりできます。 より複雑な処理は、:VimLMコマンドで実行可能です。 引用元: https://github.com/JosefAlbers/VimLM Audacity ® Introducing OpenVINO AI effects for Audacity AudacityにIntelが開発したOpenVINO AIエフェクトが追加されました。PC上でローカル実行可能です。音声コンテンツ向けには、ノイズ除去と文字起こし機能があります。音楽向けには、音楽生成、スタイル変換、楽器パート分離機能が利用できます。 Windows版がダウンロード可能で、Linuxでのコンパイルも可能です。詳細はGitHubリポジトリを参照してください。 引用元: https://www.audacityteam.org/blog/openvino-ai-effects/ お便り投稿フォーム VOICEVOX:春日部つむぎ
番組改編のお知らせ。来週から月曜日は春日部つむぎが担当、金曜日はわたくしお嬢様ずんだもんが担当致します。その他は、今までどおりずんだもんが担当です。今後ともよろしくお願いいたします。 <h2 id="関連リンク">関連リンク</h2> <ul> <li><a href="https://zenn.dev/bilzard/articles/how-performance-improved-by-weight-quantization">LLMの重みの量子化でパフォーマンスが改善する仕組みについて</a></li> </ul> <p>LLM(大規模言語モデル)の重みを量子化すると、なぜ処理速度が向上するのかを解説します。ここでは「Rooflineモデル」という図を使って、計算処理がボトルネックになっているか、メモリ転送がボトルネックになっているかを視覚的に判断します。もしメモリ転送がボトルネックになっている場合、重みを量子化してデータ量を減らすことで、GPUの利用率を上げ、パフォーマンスを改善できます。ただし、量子化による速度改善は、ハードウェアやフレームワークの性能に依存し、理想的な効果が得られない場合もあります。</p> <p>引用元: https://zenn.dev/bilzard/articles/how-performance-improved-by-weight-quantization</p> <ul> <li><a href="https://tech.layerx.co.jp/entry/2025/02/13/175317">ChatGPT deep researchに見る⁨⁩AIが自律的に考える未来</a></li> </ul> <p>OpenAIのdeep researchは、AIが自律的に調査を行うAIエージェントです。従来のAIと異なり、人間のように試行錯誤しながら計画、検索、分析を進めます。ポイントは、AIが自律的に考え、行動する点です。調査の過程で新たな発見があれば、計画を柔軟に変更し、まるで人間のリサーチャーのようにPDCAサイクルを回します。この背景には、じっくり考えることを学習した「推論モデル」の存在があります。今後は調査業務だけでなく、様々な業務領域で自律的なAIエージェントの実現が期待できます。</p> <p>引用元: https://tech.layerx.co.jp/entry/2025/02/13/175317</p> <ul> <li><a href="https://note.com/info/n/n21b09699c67d">自分の作品をAIに学習させたくない方に。意向を設定できるようになりました|note公式</a></li> </ul> <p>noteに投稿したコンテンツを、生成AIの学習データとして利用されたくない場合、設定画面からオプトアウトできる機能が追加されました。アカウント単位で設定可能で、全ての設定コンテンツに適用されます。設定方法は、アカウント設定画面から「生成AIの学習に拒否意向を示す」をONにするだけです。</p> <p>引用元: https://note.com/info/n/n21b09699c67d</p> <ul> <li><a href="https://forms.gle/ffg4JTfqdiqK62qf9">お便り投稿フォーム</a></li> </ul> <p>(株式会社ずんだもんは架空の登場組織です)</p>
関連リンク RAGでも「深い検索」を実現する手法「DeepRAG」 DeepRAGは、RAG(Retrieval-Augmented Generation)の性能を向上させるための新しい手法です。従来のRAGは、複雑な質問に対して十分な検索ができず、回答精度が低い場合がありました。DeepRAGでは、質問を細かく分解し、それぞれの要素に対して検索が必要かどうかを判断します。これにより、必要な情報だけを効率的に検索し、より深い、網羅的な回答を生成できます。特に、LLM(大規模言語モデル)が苦手とする「メタ認知」、つまり「自分が何を知らないか」を判断する能力を補強するため、モデルのファインチューニングを行います。実験結果では、従来の手法と比較して回答精度が大幅に向上し、検索回数も削減できることが示されています。 引用元: https://zenn.dev/knowledgesense/articles/034b613c9fd6d3 How Klarnas AI assistant redefined customer support at scale for 85 million active users 決済サービスのKlarnaは、LangGraphとLangSmithを活用し、AIアシスタントを導入して顧客サポートを効率化しました。AIアシスタントは、顧客からの問い合わせ対応、払い戻し処理などを自動化し、まるで700人のフルタイムスタッフのように機能します。これにより、問い合わせ解決までの時間が80%短縮され、担当者の負担も軽減されました。また、AIによる自動化で、繰り返し作業の約70%をカバーしています。LangSmithによるテスト駆動開発とプロンプト最適化も精度向上に貢献。 引用元: https://blog.langchain.dev/customers-klarna/ 「お嬢様ずんだもん」がまさかのプラスチックキット化→流れで「ずんだどん」のキット化も期待が高まりトレンド入りしてしまう PLUMPMOAから「お嬢様ずんだもん」のプラスチックキット化が発表され、話題になっています。元々ネットミームとして存在した「お嬢様ずんだもん」の立体化に、ファンからは喜びの声が上がっています。さらに、同じくネットミーム発祥の「ずんだどん」のキット化を期待する声も高まり、Twitterでトレンド入りするほどの盛り上がりを見せています。 引用元: https://togetter.com/li/2509108 お便り投稿フォーム VOICEVOX:ずんだもん
関連リンク LangChainに入門する LangChainは、LLMアプリケーションを効率的に開発できるフレームワークです。プロンプト管理、処理のチェーン化、AIエージェント、会話履歴の保持などの機能を提供します。LCELを使うと、処理を簡潔なコードで記述できます。 実装では、スキーマ定義による入出力の型管理、プロンプトエンジニアリングによるLLMの出力制御、そして会話の文脈を維持するためのメモリ管理が重要です。 メモリ管理には、LangGraphを利用し、会話履歴を全てLLMに送る、履歴の一部を消去する、履歴を要約するなどの方法があります。LangSmithを使うことで、LLMアプリケーションのデバッグやテストが容易になります。実践を通してLangChainを学ぶのがおすすめです。 引用元: https://zenn.dev/utokyo_aido/articles/bcbf0a8e896228 The Anthropic Economic Index Anthropicが、AIが労働市場と経済に与える影響を理解するための「Anthropic Economic Index」を発表しました。初期レポートでは、Claude.aiの利用データを分析し、AIの利用状況を調査。ソフトウェア開発や技術文書作成でAI活用が多く、AIは人間の能力を拡張する(57%)傾向があります。AIは高賃金職で利用が多いものの、低賃金・超高賃金職では少ないことが判明。Anthropicは、データセットをオープンソース化し、研究者からの意見を募集しています。 引用元: https://www.anthropic.com/news/the-anthropic-economic-index Automate bulk image editing with Crop.photo and Amazon Rekognition Amazon Web Services Evolphin Software社のCrop.photoは、Amazon Rekognitionを活用した画像編集自動化サービスです。大量の画像処理における課題を、AIによる自動化で解決します。ECサイトやスポーツ業界では、商品画像の一括処理や選手画像の切り抜きなどで効率化が求められますが、Crop.photoはこれらのニーズに対応。Amazon Rekognitionの顔認識、物体検出、コンテンツモデレーションなどの機能を活用し、画像編集ワークフローを自動化。例えば、ECサイト向けには商品画像の自動検出と適切なトリミング、スポーツ業界向けには選手顔写真の自動切り抜きなどが可能です。これにより、画像処理時間が大幅に短縮され、作業効率が向上します。 引用元: https://aws.amazon.com/blogs/machine-learning/automate-bulk-image-editing-with-crop-photo-and-amazon-rekognition/ お便り投稿フォーム VOICEVOX:ずんだもん
関連リンク 【覚醒しました】Github CopilotはAIエージェント機能を搭載することにより、格段に扱いやすく開発しやすくなったので解説します GitHub CopilotにAIエージェント機能が搭載され、開発がより手軽になりました。 主なポイントは以下の通りです。 概要: VS Code Insidersで利用可能なAIエージェント機能。API連携コードの自動生成やエラー修正を自動で行います。 料金: Copilotの契約内で追加料金なしで利用可能。 メリット: 多くの企業でCopilotが利用許可されているため導入しやすい。ファイル修正の反復作業がスムーズ。 注意点: ターミナル連携や外部ファイル操作、URL参照にはまだ改善の余地あり。 今後は外部データへのアクセス拡張、ターミナル操作の改善、GitHubリポジトリとの連携強化に期待とのことです。 引用元: https://zenn.dev/aimasaou/articles/74c89b843832b3 ChatGPTのdeep researchが凄すぎるので、徹底的に使い方と出力結果をまとめていくよ その1|カレーちゃん OpenAIが提供するChatGPTの新機能「deep research」は、複雑な調査タスクを効率的に行うためのエージェント機能です。金融、科学、エンジニアリング分野での正確な調査や、製品比較、ニッチな情報検索に役立ちます。Proユーザー向けに提供されており、詳細なリサーチボタンを有効にすることで利用可能です。SNSアカウントの分析、X(旧Twitter)のバズ投稿分析、商用利用可能なボイスチェンジャーの市場調査、企業の戦略調査など、様々な用途で活用できます。プロンプトを具体的にすることで、より精度の高い結果を得られます。 引用元: https://note.com/currypurin/n/n558fc5996586 Why 2025 will be the year of the AI agent Forge Holiday GroupのCEO、Graham Donoghue氏が、ポッドキャストで2025年がAIエージェントの年になると予測しました。AIエージェントは、人間の介入なしに特定のタスクを実行する自律的なインテリジェントシステムです。同社では、オーナーやゲストとの会話、マーケティング技術にAIエージェントを活用し、競争力を高めています。AIの成熟度調査も実施し、現状把握と目標設定を行っています。Donoghue氏は、AIエージェントがビジネスに大きな変革をもたらすと考えています。 引用元: https://businesscloud.co.uk/news/why-2025-will-be-the-year-of-the-ai-agent/ スポンサー0となり先週はタマの映像を流したサザエさん、今週はサザエさんの投げキッスだった「これが楽しみまである」 サザエさんのスポンサーが減少し、2月2日から提供クレジット部分にスポンサーではなく、タマやサザエさんの映像が流れる事態に。視聴者からは「楽しみ」という声も上がる一方、青森テレビでは通常通りスポンサー表示があるなど、地域によって対応が異なる状況です。 引用元: https://togetter.com/li/2509215 お便り投稿フォーム VOICEVOX:春日部つむぎ
関連リンク Is LangGraph Used In Production? Uber、LinkedIn、Replitなどの大手企業が、本番環境での実用的なユースケースにLangGraphを採用している。2024年以降、特定のビジネスニーズに合わせたAIエージェントの構築に焦点が移る中、これらの企業はLangGraphを活用して、信頼性、可観測性、制御性に優れたエージェントを構築している。LangGraphは、LLMの予測不可能性、オーケストレーションの複雑さ、観測性とデバッグの限界といった、AIエージェントを本番環境に導入する際の課題を克服するために開発された。LinkedInは採用担当者向けAI、AppFolioはプロパティマネージャー向けコパイロット、UberとReplitは開発サイクルを加速、Elasticはリアルタイムの脅威検出にLangGraphを活用している。LangGraphは、カスタマイズ可能で信頼性が高く、LangSmithとの統合により可観測性に優れている。 引用元: https://blog.langchain.dev/is-langgraph-used-in-production/ Gemini 2.0 is now available to everyone Gemini 2.0のアップデート情報です。 新しいモデルとしてGemini 2.0 Flash-Liteが登場。これはコスト効率を重視したモデルで、Google AI StudioとVertex AIで公開プレビュー版が利用可能です。 また、Gemini 2.0 Proの実験バージョンも公開されました。これは特にコーディング性能と複雑なプロンプト処理に優れており、Google AI Studio、Vertex AI、Gemini Advancedで利用できます。 Gemini 2.0 Flashもアップデートされ、Gemini APIを通じてGoogle AI StudioとVertex AIで一般利用可能になりました。 これらのモデルはテキスト出力に対応しており、今後は他のモダリティもサポート予定です。価格等の詳細はGoogle for Developers blogを参照ください。 引用元: https://deepmind.google/discover/blog/gemini-2-0-is-now-available-to-everyone/ Google Wants Search To Be More Like an AI Assistant in 2025 Googleは検索をAIアシスタントのように進化させる計画です。2025年には、AIが検索においてさらに重要な役割を果たすとSundar Pichai CEOは述べています。AI Overviewsを導入し、検索結果の要約をAIで行うようになりましたが、これは始まりに過ぎません。今後は、Project Astraのようなリアルタイムで映像を解析できるAIや、Gemini Deep Researchのような詳細な調査レポートを生成できるAIを活用し、検索がよりインタラクティブになることが期待されています。ただし、AIの導入には課題もあり、過去には不正確な情報を提供する事例もありました。 引用元: https://autogpt.net/google-wants-search-to-be-more-like-an-ai-assistant-in-2025/ お便り投稿フォーム (株式会社ずんだもんは架空の登場組織です)
今日の放送は先ほど発表されたばかりの最新版gemini-2.0-flashとgemini-2.0-pro-expでお届けしているのだ。 <h2 id="関連リンク">関連リンク</h2> <ul> <li><a href="https://blog.google/technology/google-deepmind/gemini-model-updates-february-2025/">Gemini 2.0 is now available to everyone</a></li> </ul> <p>GoogleのGemini 2.0モデルがアップデートされ、誰でも利用可能になりました。今回のアップデートでは、Gemini 2.0 Flashの更新に加え、新たにGemini 2.0 Flash-Lite(高コスト効率モデル)とGemini 2.0 Pro Experimental(高パフォーマンスモデル)が導入されました。2.0 FlashはAPIを通じて一般公開され、開発者はプロダクション環境での利用が可能です。2.0 Pro Experimentalは特にコーディング性能と複雑なプロンプト処理に優れており、200万トークンのコンテキストウィンドウを持っています。2.0 Flash-Liteは低コストで高速な処理が特徴です。これらのモデルはテキスト出力をサポートし、今後マルチモーダル入力にも対応予定です。</p> <p>引用元: https://blog.google/technology/google-deepmind/gemini-model-updates-february-2025/</p> <ul> <li><a href="https://note.com/kajiken0630/n/nc7c9c39bef86">ChatGPTの新機能「Deep Research」の珠玉のプロンプト/オススメ活用例/Tips|梶谷健人 / 「生成AI時代を勝ち抜く事業・組織のつくり方」</a></li> </ul> <p>OpenAIが発表したChatGPTの新機能「Deep Research」は、リサーチAIエージェントとして、ユーザーのリサーチ依頼に対し、観点候補の提示からリソース調査、最終レポート作成までを自律的に行います。Googleの同名機能とは異なり、Deep ResearchはAIが自ら考え、意見や仮説を持ちながら情報を集約し、質の高いレポートを作成します。ビジネスパーソンはProプラン(月額200ドル)に加入して使い倒すのがおすすめです。利用用途としては、マーケットリサーチや特定のSNSでのソーシャルリスニング調査(口コミや反響の調査)が特にオススメです。</p> <p>引用元: https://note.com/kajiken0630/n/nc7c9c39bef86</p> <ul> <li><a href="https://forms.gle/ffg4JTfqdiqK62qf9">お便り投稿フォーム</a></li> </ul> <p>(株式会社ずんだもんは架空の登場組織です)</p>
関連リンク Introducing Interrupt: The AI Agent Conference by LangChain LangChain初のAIエージェントに焦点を当てたカンファレンス「Interrupt」が5月にサンフランシスコで開催。AIエージェントの可能性、実用例、課題について議論します。エンジニア、ML実践者、データサイエンティストなどAIエージェント開発者が対象。5月13日、14日の2日間、ワークショップや講演、デモなどを予定。Andrew Ng氏などの業界リーダーも参加し、AIエージェントの最前線を学べます。参加者同士の交流も重視。チケット販売中。 引用元: https://blog.langchain.dev/introducing-interrupt-langchain-conference/ OpenAI次世代小型推論モデル「o3-mini」登場。性能や価格を解説|ChatGPT研究所 OpenAIが小型推論モデル「o3-mini」をリリース。科学、数学、コーディング分野で推論能力が向上し、コスト効率も改善。ChatGPTとAPIで利用可能で、ウェブ版ではモデル選択画面から選択。開発者向けには、関数呼び出しや構造化出力、推論の深さ調整などの機能が提供。APIは段階的に提供。STEM領域での性能評価では、数学、科学的推論、プログラミングで高い成果を記録。ChatGPT Plus/Teamユーザーは即日利用可能で、Freeユーザーも試用可能。API料金も大幅に削減。 引用元: https://chatgpt-lab.com/n/n6ca9d85b47d1 Pipedrive introduces agentic AI teammates for the sales process - SiliconANGLE Pipedriveが営業プロセスを支援するAIエージェントを発表。これは営業担当者がリードや戦略に集中できるよう、AIが自律的に行動し、定型タスクをこなすもの。OpenAIのLLMとPipedriveのソフトウェアを基盤とし、メール作成、レポート要約、スケジュール管理などを支援。営業担当者はAIが作成した内容を確認し、承認することで、より重要な業務に集中できる。AIはPipedrive Pulseとも連携し、顧客とのエンゲージメントを強化。2025年には機能が拡充される予定。 引用元: https://siliconangle.com/2025/02/04/pipedrive-introduces-agentic-ai-teammates-sales-process/ お便り投稿フォーム (株式会社ずんだもんは架空の登場組織です)
関連リンク ブロックが自社のAIエージェントをオープンソース化…「チーフエンジニアよりも優れたコードを書く」 フィンテック企業ブロックが、開発したAIエージェント「グース」をオープンソース化しました。グースは、約9ヶ月の開発期間を経て、社内エンジニアのコーディング業務を支援するために作られました。このAIは、コードの作成、編集、テストを自動化し、古いシステムを新しい言語に書き換えるなど、複雑な作業を迅速に行うことができます。 実際に、あるプラットフォームのコードを別の言語に書き換える作業では、グースは30分で約70%を完了し、これは人間が手作業で行うと数時間から1日以上かかる作業です。 ブロックのエンジニア約1000人がグースを利用しており、これにより、彼らの作業時間の約20%が削減されています。 グースのオープンソース化により、社外のエンジニアもこのAIを利用、修正、配布できるようになり、ブロックは外部からの改善を取り入れることで、AIの能力をさらに向上させたいと考えています。 この動きは、AI技術を独占するのではなく、オープンにすることで技術革新を加速させようとする、ブロックの戦略的な賭けと言えるでしょう。 引用元: https://www.businessinsider.jp/article/2502-block-afterpay-square-open-source-ai-agent-anthropic/ OpenAIサム・アルトマンが東京で語った「AIの進化ビジョン」 Forbes JAPAN 公式サイト(フォーブス ジャパン) OpenAIのサム・アルトマンCEOが東京大学を訪問し、開発者向けラボセッションに参加しました。ソフトバンクグループと共同で、AIインフラ構築プロジェクト「スターゲートプロジェクト」を進めていることもあり、日本の教育機関や開発者との交流に強い関心を示しました。 セッションでは、AIが社会に与える影響や未来のビジョンについて議論され、参加した学生から様々な質問が出ました。アルトマン氏は、10年後にはAIが科学技術の進歩を加速させ、30年後には社会のあらゆる面でAIが不可欠になっていると予測しています。また、100年後の社会については、現時点では想像もできないほど大きく変化しているだろうと述べました。AIが、これまで到達できなかった領域に人類を導く可能性を示唆し、AI技術の進化に期待を寄せました。 引用元: https://forbesjapan.com/articles/detail/76906 Chrome拡張機能でシステム乗っ取り可能、従来のセキュリティツールでは検出不可 Google Chromeの拡張機能を悪用した新たな攻撃手法「シンクジャッキング」が発見されました。この攻撃は、まずソーシャルエンジニアリングでユーザーをだまし、その後、Webブラウザとシステムを完全に制御することを可能にします。従来のセキュリティツールでは検出が難しく、注意が必要です。 この攻撃手法は、ユーザーが気づかないうちにブラウザの設定を同期させ、攻撃者が悪意のある拡張機能をインストールしたり、ユーザーの情報を盗み取ったりする可能性があります。 対策としては、不審な拡張機能はインストールしない、常にブラウザを最新の状態に保つ、セキュリティソフトを導入するなどがあげられます。 引用元: https://news.mynavi.jp/techplus/article/20250203-3119604/ 「発想が天才すぎる」 映画のフィギュアに“あるもの”を加えると……? 名場面を再現するアイデアが30万回表示の好評(2025年2月3日)|BIGLOBEニュース 映画「E.T.」のフィギュアと、月を模した照明器具「ムーンライト」を組み合わせた飾り方がSNSで話題です。フィギュアをムーンライトに貼り付け、照明を水色にすると、映画のクライマックスシーンが再現できます。このアイデアに対し、「発想が天才すぎる」などのコメントが寄せられ、30万回以上表示されるほど好評です。 引用元: https://news.biglobe.ne.jp/trend/0203/nlb_250203_5428704358.html お便り投稿フォーム (株式会社ずんだもんは架空の登場組織です)
関連リンク LinkedIn Co-founder Reid Hoffman Believes AI Agents Will Be an Essential Part of How We Work LinkedIn共同創業者のリード・ホフマン氏は、AIエージェントが仕事に不可欠になると述べています。著書「Superagency」で、AIが人間の能力を向上させると主張しています。AIは、学習やタスク自動化を通じて、個人の意思決定と行動の自由度を高めます。 ホフマン氏は、AIツールがすでにライティングやマーケティングで活用されており、特にエンジニアリング分野での応用が重要だと指摘しています。AIエージェントは、チャットボットのように身近な形式で、知識収集や業務効率化を支援し、今後18ヶ月で急速に普及すると予想されています。 将来的には、各個人、チーム、機能ごとにエージェントが存在し、企業内には従業員数よりも多くエージェント機能が存在する可能性があります。これらのエージェントは、生産、分析、コラボレーションを支援します。 AI導入においては、従業員が主体的に関与し、AIを「自分たちのために、自分たちによって」活用する姿勢が重要です。企業は、AIによる生産性監視のようなネガティブな利用を避け、従業員と対話を通じて、AIをどのように活用すれば良いかを議論すべきです。 引用元: https://time.com/charter/7212218/reid-hoffman-ai-superagency-linkedin/ DeepSeekがやっていると噂の蒸留というやつを、ローカルLLMで今すぐやってみる 前編 この記事では、ローカルLLMを使って、大規模言語モデル(LLM)の知識を小さなモデルに伝える「記号知識蒸留」という手法を試しています。具体的には、まずLLMに日常的な出来事(イベント)をたくさん生成させ、そのイベントに対する因果関係を推論させます。次に、別のLLMを使って、生成された推論が常識的に正しいかをチェックし、問題ないものだけを選びます。最終的に、この選ばれた知識を使って、さらに小さなLLMを学習させることを目指します。この記事では、知識を生成し、フィルタリングするまでを扱い、具体的な実装例として、ollamaとPython、LangChainを使って、phi4:14bというLLMでイベント生成、因果関係推論生成、フィルタリングを行っています。これにより、大量の日本語の常識知識グラフを生成できました。後編では、この知識を使って小さなLLMを学習させる予定です。 引用元: https://zenn.dev/yuiseki/articles/4737799cad4a8d 【ChatGPT】 o3-miniモデルの特徴|本郷喜千 ChatGPTのo3-miniモデルは、従来のモデルと異なり、プロンプトの曖昧な点を質問で明確化しようとする特徴があります。これは、AIがユーザーの意図をより深く理解しようとする試みであり、今後はAIを使う側も、より明確な指示や意図を伝える能力が求められるようになる可能性を示唆しています。質問に答えられないと、AIが適切な回答を生成してくれなくなる、つまりAIに相手にされなくなるという状況も考えられます。この変化は、AIとの対話がより重要になり、ある種の緊張感と対等な関係を生み出す可能性を示唆しています。 引用元: https://note.com/yoshiyuki_hongoh/n/nca7d82f559b1 『ずんだホライずん2』のクラウドファンディングで「東北ずん子のVOICEVOX化」が発表、第2ゴールとして目標金額は3000万円。『ずんだホライずん2』は5分から10分のアニメ化が決定 アニメ『ずんだホライずん2』のクラウドファンディングが目標金額を達成し、5~10分のアニメ制作が決定しました。さらに、第2の目標として「東北ずん子のVOICEVOX化」が発表され、目標金額は3000万円に設定されました。VOICEVOXは無料の音声合成ソフトで、実現すれば東北ずん子の声が誰でも使えるようになります。このプロジェクトは、東北ずん子・ずんだもんプロジェクトによるもので、アニメには「邪神ちゃんドロップキック」の邪神ちゃんも登場します。 東北ずん子は、東日本大震災の復興支援を目的としたプロジェクトのキャラクターで、これまでVOICEROIDやVOICEPEAKで音声合成ソフト化されていましたが、VOICEVOXでは未実装でした。今回のクラウドファンディングにより、VOICEVOXでの実装が期待されます。 また、4800万円達成でアニメの尺が2倍になることも発表されています。クラウドファンディングは2月13日まで実施中です。 引用元: https://news.denfaminicogamer.jp/news/250203a お便り投稿フォーム VOICEVOX:春日部つむぎ
関連リンク ServiceNow announces launch of powerful new AI Agent Control Tower TahawulTech.com ServiceNowが、企業の複雑な課題を自律的に解決するAIエージェントの新機能を発表しました。この「AIエージェントコントロールタワー」は、ビジネス全体でAIエージェントを分析、管理、統制する一元的な場所として機能します。 新機能のAIエージェントオーケストレーターは、複数のAIエージェントが連携してタスクを実行し、部門を超えて目標を達成することを可能にします。また、IT、顧客サービス、人事など様々な分野に対応した事前構築済みエージェントや、カスタムエージェントを作成できるAIエージェントスタジオも提供されます。 ServiceNowのAIエージェントは、プラットフォームに直接組み込まれており、既存のワークフロー、自動化、データが活用できます。これにより、大量の情報と自動化を基に、高い生産性を実現します。 IDCの予測では、2025年には50%の組織が特定の業務機能向けに構成されたAIエージェントを利用するとしています。ServiceNowは、AIエージェントが単純なタスクだけでなく、複雑な業務プロセスを自律的に処理できるようにすることで、従業員がより重要な業務に集中できる環境を提供します。 さらに、ServiceNowは、AIエージェントが企業全体のデータにアクセスできる「ワークフローデータファブリック」を導入し、リアルタイムで実用的な洞察に基づいて行動することを可能にします。Google Cloudとの提携により、データ基盤がさらに強化されます。 これらの新機能は、2025年3月からPro PlusおよびEnterprise Plusの顧客に無償で提供される予定です。 引用元: https://www.tahawultech.com/home-slide/servicenow-announces-launch-of-powerful-new-ai-agent-control-tower/ Mistral Small 3 Mistral Small 3は、Apache 2.0ライセンスで公開された240億パラメータの軽量モデルです。このモデルは、Llama 3 70Bなどの大規模モデルに匹敵する性能を持ちながら、3倍以上高速に動作します。特に、低遅延が求められるタスクに最適化されており、MMLUベンチマークで81%以上の精度を達成しつつ、150トークン/秒の速度を実現しています。 Mistral Small 3は、事前学習済みモデルと命令チューニング済みモデルの両方が提供されており、様々な用途に活用できます。例えば、高速応答が求められる会話型アシスタントや、自動化ワークフローでの関数呼び出し、特定の分野に特化した専門家モデルの作成などに適しています。また、ローカル環境での推論も可能で、RTX 4090や32GB RAMを搭載したMacBookでも動作します。 このモデルは、金融、医療、製造業など幅広い分野で評価されており、不正検知、顧客トリアージ、デバイス制御などに活用されています。Hugging Face、Ollama、Kaggleなどのプラットフォームでも利用可能で、コミュニティによるカスタマイズや改善が期待されています。Mistralは、今後もApache 2.0ライセンスでのモデル提供を継続し、オープンソースコミュニティへの貢献を強化していく方針です。 引用元: https://mistral.ai/news/mistral-small-3/ DeepSeek R1 is now available on Azure AI Foundry and GitHub Microsoft Azure Blog DeepSeek R1がAzure AI FoundryとGitHubで利用可能になりました。Azure AI Foundryでは、1800以上のモデルが提供されており、DeepSeek R1もその一つです。このプラットフォームは、信頼性、拡張性、エンタープライズ対応を兼ね備えており、ビジネスでの高度なAI活用を支援します。DeepSeek R1は、開発者がAIを迅速に実験、反復、統合できるように設計されており、モデル評価ツールも内蔵されています。また、安全性とセキュリティにも重点を置いており、厳格なテストと評価を経て提供されています。Azure AI Content Safetyによるコンテンツフィルタリングもデフォルトで利用可能です。 DeepSeek R1は、Azure AI Foundryのモデルカタログから簡単に利用でき、APIとキーを取得してすぐに試すことができます。さらに、GitHubでは、DeepSeek R1をアプリケーションに統合するための追加リソースとガイドが提供されています。将来的には、DeepSeek R1の軽量版がCopilot+ PCでローカル実行できるようになる予定です。 引用元: https://azure.microsoft.com/en-us/blog/deepseek-r1-is-now-available-on-azure-ai-foundry-and-github/ ずんだもんの仲間である「あんこもん」のプラフィアが販売されるが、レア度が低そう 「ずんだもん」の仲間である「あんこもん」のプラフィア(プラスチックフィギュア)が販売されることになりました。しかし、その名前から「アンコモン」(ゲームなどでよく使われるレアリティのランク)ではないかと予想され、レア度が低いのではないかと話題になっています。 SNSでは、この「あんこもん」のレアリティについて様々な意見が飛び交っています。「コモン」や「レア」など、他のレアリティのキャラクターを予想する声や、「アンコモン」という名前から、ゲームの強化素材のような扱いになるのではという意見も出ています。また、色を変えて「レモン」として販売できるのでは?という面白いアイデアも出ています。 「あんこもん」は、オンラインゲーム「鬼斬」に登場するキャラクターで、ずんだもんと同じく東北を応援するキャラクターです。今回のプラフィア販売で、どのような展開になるのか注目されています。 引用元: https://togetter.com/li/2503997 お便り投稿フォーム (株式会社ずんだもんは架空の登場組織です)
関連リンク Open-R1: a fully open reproduction of DeepSeek-R1 DeepSeek-R1は、推論能力に特化した大規模言語モデルで、特に数学、コーディング、論理の問題解決に優れています。このモデルは、DeepSeek-V3という高性能な基盤モデルをベースに、強化学習(RL)を用いて訓練されています。DeepSeek-R1の特筆すべき点は、人間の監督なしで推論能力を向上させた点で、これは、問題解決のステップ分解や出力の自己検証など、高度な推論スキルの開発に繋がっています。 しかし、DeepSeek-R1の学習データや訓練コードは公開されていません。そこで、Hugging FaceはOpen-R1プロジェクトを開始し、DeepSeek-R1のデータと訓練パイプラインを再現し、オープンソースコミュニティに共有することを目指しています。 具体的には、以下の3つのステップで進めます。 DeepSeek-R1から高品質な推論データセットを抽出し、R1-Distillモデルを再現します。 DeepSeekがR1-Zeroを作成するために使用した純粋なRLパイプラインを再現します。 ベースモデルからSFT(教師あり微調整)、RLへと段階的に訓練できることを示します。 このプロジェクトを通じて、推論モデルの訓練に関する透明性を高め、再現可能な知見を共有し、将来のモデル開発のための基盤を構築することを目指します。 Open-R1プロジェクトは、コードの貢献や議論への参加を歓迎しており、コミュニティ全体でこの目標を達成することを目指しています。 引用元: https://huggingface.co/blog/open-r1 Introducing the LangGraph Functional API LangGraphのFunctional APIがリリースされました。このAPIは、グラフ構造を明示的に定義せずに、ヒューマンインザループ、永続化/メモリ、ストリーミングといったLangGraphの主要機能を活用できる点が特徴です。 主な構成要素として、ワークフローの開始点となるentrypointと、個別の作業単位であるtaskの2つのデコレータが提供されており、これらを用いて標準的な関数でワークフローを定義できます。 Functional APIは、既存のアプリケーションにLangGraphの機能を組み込みやすく、コードを大幅に書き換える必要がありません。また、Graph API(StateGraph)と組み合わせて使用することも可能です。 主な機能として、以下のものがあります。 ヒューマンインザループ: ユーザーのレビューや承認をワークフローに組み込むことができ、interrupt関数でワークフローを一時停止し、ユーザーの入力を待つことができます。 短期メモリ: 会話履歴を保持し、直前の状態をpreviousパラメータで取得できます。また、entrypoint.final()を使って、次のチェックポイントのために異なる値を保存できます。 長期メモリ: storeパラメータを使って、ユーザーの情報を永続的に保存し、複数の会話にわたって情報を共有できます。 ストリーミング: ワークフローの進捗状況、LLMのトークン、カスタムデータをリアルタイムでストリーム配信できます。 さらに、LangSmithとの連携により、ワークフローの監視やデバッグも可能です。Functional APIは、Graph APIと比較して、制御フローの記述が簡単で、状態管理が不要な点がメリットです。 ただし、Graph APIの方がより詳細なチェックポイント管理や可視化機能が優れています。両APIは同じランタイムを使用しているため、プロジェクト内で組み合わせて使用することも可能です。 引用元: https://blog.langchain.dev/introducing-the-langgraph-functional-api/ 農協で農家さんが「デンドロビウム買ったんだ~」と言っていて危うくガノタだと勘違いするところだった 農協での会話で、農家の方が「デンドロビウムを買った」と言ったことから、投稿者はガンダム好きかと勘違いしました。デンドロビウムは、ガンダムシリーズに登場するモビルスーツの名前であると同時に、実際には植物の名前でもあります。このやり取りから、他のユーザーもガンダム関連の連想をしたことや、花の名前がガンダムの機体名に使われていることなどが話題になりました。また、実際にデンドロビウムを育てている人のコメントや、他の花の名前を持つガンダム機体の情報も共有されています。この一件は、日常の何気ない会話から、ガンダムという共通の話題で盛り上がれる面白さを感じさせる出来事でした。 引用元: https://togetter.com/li/2503535 お便り投稿フォーム (株式会社ずんだもんは架空の登場組織です)
関連リンク はてなブログにWebhook機能を追加しました!外部システムとの連携が容易になります はてなブログの有料プラン向けにWebhook機能が追加されました。この機能は、ブログの更新をSlackやDiscordなどの外部システムに通知したり、GitHubと連携してデータ更新を自動化したりできます。技術者向けの機能で、詳しい設定方法はヘルプページに記載されています。例えば、ブログの更新をトリガーにしてGitHub Actionsを実行する設定例も紹介されています。 引用元: https://staff.hatenablog.com/entry/2025/01/28/123436 「ファミコンカセット1052本」がメルカリに登場―「あと1本でコンプリート」の貴重なカセット群が“ゲーマーの終活”として出品される メルカリにファミコンカセット1052本とニューファミコン、関連書籍などがセットで出品されました。出品者は30年以上かけてコレクションしたとのことです。 出品理由は終活で、自身のコレクションが死後に廃棄されるより、必要とする人に譲りたいという思いからだそうです。 記事では、レトロゲームのアーカイブ問題にも触れ、コレクションが文化を継承する上で重要な役割を果たす可能性を示唆しています。 最後に、読者へ自身のコレクションについて、終活のタイミングでどうするかを考えるきっかけになればと述べています。 引用元: https://www.gamespark.jp/article/2025/01/28/148885.html 新卒が目ぇキラキラして「日報システム作ったんです!」っていうから「おぉ!やるじゃねーか!!」って即座にSQLインジェクションで破壊した→それは破壊しておくべき あるエンジニアが、新卒社員が作成した日報システムを「おぉ!やるじゃねーか!!」と褒めつつも、即座にSQLインジェクションで破壊したという出来事が話題になっています。これは、新卒が作ったシステムにはセキュリティ上の脆弱性があることを早期に認識させ、対策を促すための教育的な意図があるようです。 このエンジニアは、新卒のシステムを破壊するだけでなく、F5連打や複数ウィンドウからの同時更新など、様々な攻撃を試すことで、システムが実運用に耐えうるかを確認しているようです。また、これは単なる嫌がらせではなく、若手エンジニアに「世の中には悪意のある第三者がいる」という意識を持たせるための教育だと述べています。 この行為に対して、他のエンジニアからは「良い職場だ」「こういう先輩がいてほしい」という肯定的な意見がある一方で、「ハラスメントだ」という批判的な意見も出ています。しかし、多くのエンジニアは、脆弱性のあるシステムを放置するよりは、早期に問題点を発見して改善することが重要だと考えているようです。 新卒エンジニアは、自分が作ったシステムが攻撃されることで、セキュリティの重要性を肌で感じ、より安全なシステム開発を学ぶことができるでしょう。 引用元: https://togetter.com/li/2503042 お便り投稿フォーム (株式会社ずんだもんは架空の登場組織です)
関連リンク Does DeepSeek trigger a major reshuffle in the AI Agent sector? Is it time to buy the dip or retreat? - ChainCatcher AIエージェント関連のトークンが下落している背景には、DeepSeekという新しいLLMの登場が影響しているという見方があります。DeepSeekはより経済的なLLMとして、既存のAIエージェントを置き換える可能性があると懸念されています。 しかし、LLMとAIエージェントの関係性を考えると、この見方は必ずしも正しくありません。AIエージェントはLLMの言語処理能力を利用しますが、その表現力や対話の質はLLMだけでなく、プロンプト設計、後処理、コンテキスト管理、外部ツール連携など、他の多くの要素に依存します。 DeepSeekのような新しいLLMが登場した場合でも、AIエージェントはAPI連携を通じて容易にその能力を取り込み、進化できます。実際、一部のAIエージェントは既にDeepSeekとの連携を完了しています。 したがって、DeepSeekの登場はAIエージェント業界に一時的な影響を与える可能性はありますが、長期的に見れば、各エージェントの競争力はLLM以外の要素によって決まります。先行者利益による優位性は依然として重要です。 業界リーダーたちはDeepSeekの登場をポジティブに捉えており、新しいモデルはAIエージェントの発展を加速すると考えています。DeepSeekはAIアプリケーションをより多くのユーザーに低コストで提供する可能性があり、業界全体にとって良い影響を与える可能性があります。 引用元: https://www.chaincatcher.com/en/article/2164943 DeepSeek-R1の論文読んだ?【勉強になるよ】 DeepSeek-R1は、DeepSeek-V3-Baseをベースに、強化学習とSFT(教師ありファインチューニング)を組み合わせることで、高い性能を実現したLLMです。特に注目すべき点は、強化学習のみで高い思考能力を獲得したDeepSeek-R1-Zeroの存在です。これは、ルールベースの報酬(正解/不正解、思考形式)のみで、複雑な思考プロセスを自律的に学習できることを示唆しています。DeepSeek-R1は、このR1-ZeroをベースにSFTを加え、言語の混在やコールドスタート問題を解決しています。また、蒸留によって小型モデルへの性能移植も試みられていますが、小型モデルへの強化学習は、ベースモデルの性能に大きく左右されることが示唆されています。DeepSeek-R1は、高度な思考能力と人間にとって理解しやすい出力を両立しており、今後のLLM研究において重要な示唆を与えています。ただし、関数呼び出し、多言語対応、プロンプトへの敏感さ、ソフトウェアエンジニアリングタスクでは改善の余地があるようです。 引用元: https://zenn.dev/asap/articles/34237ad87f8511 「プログラマとCLINE - これはパンドラの箱なのか」を観た プログラミング支援ツール「Cline」に関する議論会合の報告です。Clineは、AIが主導権を持ち、自律的にコードを生成・実行する点が特徴で、既存のAIコーディングツールとは異なるアプローチを取っています。参加者は、Clineの自律性や、まるで独立したプログラマーのようにタスクを遂行する点に驚きを示しました。Clineは、ユーザーの意図をゴールとして理解し、それを解決することに特化しており、ツールをどのように使うかAI自身が判断します。また、複数のAPIプロバイダーを柔軟に切り替えられる設計や、ブラウザを操作して実行結果を確認する機能も備えています。 議論では、Clineのようなツールがコード生成やテスト自動化を促進し、生産性を向上させる可能性が指摘された一方で、AIの自律性に頼ることで予期しない動作を引き起こすリスクも懸念されました。さらに、AIがコードベースのメタ情報や実行環境をどのように理解し、活用するかが課題として挙げられました。 Clineは、コード補完の次のステップとして進化する可能性を秘めている一方で、人間が試行錯誤するプロセスを単なる反復作業にしてしまう危険性も指摘されています。今後のAIコーディングツールの進化において、Clineのような自律的なAIエージェントが、より安全で効果的に活用されるように、技術と人間の協調が重要になると考えられます。 引用元: https://laiso.hatenablog.com/entry/2025/01/27/125645 SRE Kaigi 2025 スライドまとめ この記事は、2025年1月26日に公開されたSRE Kaigi 2025の発表スライドをまとめたものです。SRE(Site Reliability Engineering)に関する様々なテーマの発表資料が掲載されており、エンジニアにとって有益な情報源となります。 Hallでは、可用性を支えるモニタリング、パフォーマンス最適化、セキュリティ、コストバランス、サービスローンチ、ブロックチェーン企業におけるSRE、テレメトリーパイプライン、横断SRE、ガバメントクラウド、リリースプロセス、SREのキャリアパス、データドリブンなシステム運用など、多岐にわたるテーマが扱われています。 Room Aでは、Kubernetes上でのSRE、Database Reliability Engineering、SRE初学者向け研修、インフラコストとセキュリティ、インフラエンジニアからSREへのキャリアチェンジ、インシデント対応、ログ分析、Platform EngineeringとSREの関係、コード化されていないサーバの移設など、実践的な内容が中心です。 Room Bでは、SRE、開発、QAの連携、SREチームの成長、SIEMによるセキュリティログ分析、インシデント対応能力向上、インシデントメトリクス、SREチームのスクラム改善、監視SaaSのObservability改善、SREとしてのキャリア選択など、組織やチーム運営に関するテーマが多く見られます。 これらのスライドは、SREの知識を深めたいエンジニアや、SREチームの運営に携わるエンジニアにとって、非常に参考になるでしょう。 引用元: https://zenn.dev/naru_rama/articles/05bbf6e3b02f17 お便り投稿フォーム (株式会社ずんだもんは架空の登場組織です)
関連リンク Geminiが変える企業調査:AIエージェントで調査費用を100分の1以下に Geminiを活用したAIエージェントによる企業調査Webサービスが開発されました。このサービスは、約500万社の企業に対応し、従来の法人向けサービスと比較して1/100のコストで企業調査を可能にします。AIエージェントがわずか3分で企業調査を完了させ、人力に比べて97%の時間を削減します。 このサービスは、就職・転職活動中の学生や社会人、ビジネスパーソン、投資家など、企業情報を必要とする幅広いユーザーを対象としています。従来の企業調査は、時間や費用がかかり、個人での利用が難しいという課題がありましたが、このサービスはこれらの課題を解決します。 AIエージェントは、Geminiの自然言語処理能力と検索エンジンを組み合わせ、Web上の情報を収集・分析し、企業概要、事業内容、財務情報、競合情報、企業文化などの多角的な情報を構造化して提供します。これにより、ユーザーは効率的に企業情報を入手できます。 このサービスの独自性は、網羅性、迅速性、詳細な分析、圧倒的な費用対効果、リアルタイム性、柔軟性です。Web検索により常に最新の情報を収集し、Webサイトの構造変化にも柔軟に対応します。 今後は、ニュース情報の利用による情報更新頻度の向上、法人番号特定ロジックの改善、ユーザーフィードバック機能の追加、財務情報の詳細分析機能の追加、コミュニティ機能の追加、外部サービスとの連携など、サービスの更なる発展を目指しています。 引用元: https://zenn.dev/gepuro/articles/921ffb03bfc9c4 ローカルLLMを手のひらサイズで動かしてみよう! M5 Cardputer + ModuleLLM この記事では、M5Stack社のCardputerとModuleLLMを組み合わせて、手のひらサイズのローカルLLM環境を作る方法を紹介しています。 従来、LLMの実行には高性能なGPUや多くのメモリが必要でしたが、近年では組み込み向けのマイコン用エッジLLMモジュールが登場しています。 この組み合わせにより、小型で持ち運び可能なLLM環境が実現します。 具体的な手順としては、まずModuleLLMとCardputerを用意し、分解してModuleLLMをCardputerのケース内に収めます。 ModuleLLMとCardputerはUARTで接続し、公式のサンプルコードを参考にプログラムを作成します。 この際、Cardputerのキーボード入力を利用してLLMと対話できるようにします。 詳細な手順や接続方法、コード例については記事内で解説されています。 関連リポジトリとして、https://github.com/GOROman/LLMCardputer が紹介されています。 この情報をもとに、新人エンジニアでもローカルLLMを組み込んだデバイス開発に挑戦できるでしょう。 引用元: https://qiita.com/GOROman/items/769bf17589d5661f7a70 グーグルの新技術「タイタン」はAIに人間並みの記憶を与える Forbes JAPAN 公式サイト(フォーブス ジャパン) グーグルがTransformerアーキテクチャを進化させた「タイタン」を発表しました。TransformerはChatGPTなどの生成AIの基礎技術ですが、長期記憶を持たないため、人間のような情報保持と活用能力に限界がありました。タイタンは、短期記憶に加え、ニューラル長期記憶と「驚き」に基づく学習システムを導入し、人間の記憶メカニズムに近づけました。これにより、重要な情報を長期的に保持し、必要な時に思い出すことが可能になります。Transformerが文章中の関連性の高い単語に注目するのに対し、タイタンはさらに重要な履歴情報を蓄積する「図書館」のような機能を持っています。初期のテストでは、タイタンは言語モデル、時系列予測、DNAモデリングなど様々なタスクで既存モデルを上回る性能を示しており、AIが人間の認知に近づく大きな進歩と言えます。この技術により、より直感的で柔軟なAIシステムの開発が期待されます。 引用元: https://forbesjapan.com/articles/detail/76563 まるでプラモデルが書いたようなAmazonレビューだとネタにしていたら…→「これは購入者がガチで間違えて使っているっぽいので笑い事じゃ済まない」 Amazonのレビューで、プラモデル用塗料の「ファンデーションホワイト」を化粧品と勘違いして使用したと思われる投稿が話題になっています。当初はジョークと捉えられていましたが、他のレビューや商品の販売状況から、実際に誤って購入・使用している可能性が高いことが指摘されています。 この塗料は、化粧品のファンデーションと名前が似ているだけでなく、容器も化粧品に似た形状をしているため、特にAmazonのような様々な商品が混在するサイトでは、誤って購入してしまう人がいるようです。実際に、「ファンデーション ホワイト」で検索すると、化粧品と並んで塗料が表示されることも確認されています。 また、レビュー投稿者の過去のレビューから、商品の説明をよく読まずに購入する傾向があることも判明しました。この件は、商品名やパッケージだけでなく、販売サイト側のカテゴリ分けや商品情報の掲載方法にも改善の余地があることを示唆しています。 引用元: https://togetter.com/li/2502096 お便り投稿フォーム VOICEVOX:春日部つむぎ
関連リンク OpenAI introduces Operator to automate tasks such as vacation planning, restaurant reservations OpenAIがOperatorというAIエージェントを発表。これはChatGPT Proユーザー向けで、休暇の計画、レストラン予約、フォーム入力などを自動化する。ウェブ上のボタン、メニュー、テキストフィールドを操作し、必要な情報を尋ねてタスクをこなす。Anthropicの同様のツールと競合する。今後はChatGPTへの統合も予定されている。 引用元: https://www.cnbc.com/2025/01/23/openai-operator-ai-agent-can-automate-tasks-like-vacation-planning.html 【遂にo1級登場】DeepseekR1に関して徹底解説します。o1よりも30倍近くAPIのコストが下がりAI開発がより進化しそう DeepSeek R1は、DeepSeek社が開発した大規模言語モデルで、特に推論能力が強化されています。従来のLLMと比較して、より複雑な問題解決やコード生成、数学的な推論が得意です。OpenAIのo1モデルに匹敵する性能を持ちながら、APIコストが大幅に低く、AI開発の民主化に貢献すると期待されています。大規模な強化学習により、自律的な思考プロセスやエラー訂正能力を獲得しており、AIエージェント開発への応用も期待されています。MITライセンスで提供され、商用利用や改変も自由ですが、セキュリティやプライバシーへの配慮が必要です。 引用元: https://zenn.dev/aimasaou/articles/70776a07111e37 go.jpサブドメインが不正利用可能な状態だった件について:Geekなぺーじ go.jpのサブドメインが、用途終了後にDNS設定が削除されず、第三者に不正利用される危険な状態だった件が話題になっています。原因は、不要になったlame delegationやdangling CNAMEが放置されていたこと、そして共用DNSサービスの脆弱性にあります。特に共用DNSでは、第三者が無関係のドメイン名を登録できてしまうケースがあり、悪用される可能性があります。対策として、不要なDNSレコードの速やかな削除、共用DNSサービス側の対策、そして政府機関のガイドライン見直しが重要です。 引用元: https://www.geekpage.jp/blog/?id=2025-1-23-1 『キャプテン翼 -RIVALS-』LINEでリリース 『キャプテン翼 -RIVALS- on LINE』がリリース。これは、人気サッカー漫画「キャプテン翼」を題材にしたゲームの新バージョンで、LINEアプリ上で手軽にプレイできます。以前にTelegramでリリースされたバージョンが好評だったことを受け、LINE版では日本語、タイ語、繁体字が追加され、より多くのユーザーが楽しめるようになりました。LINEアカウントがあれば誰でも簡単に始められます。 引用元: https://news.dellows.jp/78676/ お便り投稿フォーム (株式会社ずんだもんは架空の登場組織です)
関連リンク GitHub - sauravpanda/BrowserAI: Run local LLMs inside your browser BrowserAIは、ブラウザ内でLLM(大規模言語モデル)を実行するためのオープンソースプロジェクトです。主な特徴は以下の通りです。 プライバシー重視: 全ての処理がブラウザ内でローカルに行われ、データが外部に送信されることはありません。 コスト効率: サーバー費用や複雑なインフラが不要です。 オフライン対応: 初回ダウンロード後、モデルはオフラインで動作します。 高速処理: WebGPUアクセラレーションにより、ネイティブに近いパフォーマンスを実現します。 開発者フレンドリー: シンプルなAPIと複数のエンジンサポート、すぐに使えるモデルが提供されています。 BrowserAIは、AIを活用したWebアプリケーションを開発するエンジニア、プライバシーを重視する企業、ブラウザベースのAIを研究する研究者、インフラコストを抑えてAIを試したいユーザーにとって最適です。 主な機能として、ブラウザ内でのAIモデル実行、WebGPUによる高速推論、MLCとTransformersエンジン間のシームレスな切り替え、事前設定済みの人気モデルの利用、テキスト生成などのための使いやすいAPIがあります。 現在、チャットデモが利用可能で、音声チャットデモも開発中です。また、npmやyarnで簡単にインストールでき、基本的なテキスト生成、カスタムパラメータを使用したテキスト生成、システムプロンプト付きのチャット、音声認識、テキスト読み上げなどの例が提供されています。 対応モデルとして、MLCモデル(Llama-3.2-1b-Instructなど)とTransformersモデル(Whisper-tiny-enなど)が利用可能です。今後のロードマップでは、モデル初期化の簡略化、基本的なモニタリング、RAGの実装、開発者ツール統合、RAG機能の強化、高度な監視機能、セキュリティ機能、高度な分析、マルチモデルオーケストレーションなどが予定されています。 このプロジェクトはMITライセンスで提供されており、貢献も歓迎されています。 引用元: https://github.com/sauravpanda/BrowserAI Hugging Face and FriendliAI partner to supercharge model deployment on the Hub Hugging FaceとFriendliAIが提携し、Hugging Face HubでのAIモデルのデプロイを大幅に簡素化しました。FriendliAIの推論インフラがHugging Face Hubに統合され、「Deploy this model」ボタンから直接利用可能になりました。この提携により、開発者は高性能で費用対効果の高い推論インフラに簡単にアクセスできるようになります。FriendliAIは、GPUベースの生成AI推論プロバイダーとして最速と評価されており、連続バッチ処理、ネイティブ量子化、自動スケーリングなどの最先端技術を持っています。これにより、AIモデルのデプロイにおける処理速度の向上、遅延の削減、コスト削減が実現します。Hugging Faceのユーザーは、FriendliAIの技術を活用して、オープンソースまたはカスタムの生成AIモデルを効率的かつ確実にデプロイできます。FriendliAIのDedicated Endpointsでは、NVIDIA H100 GPU上でモデルをデプロイでき、コスト効率を維持しながら高いパフォーマンスを実現します。また、Serverless Endpointsでは、FriendliAIによって最適化されたオープンソースモデルを簡単に利用できます。この提携により、AI開発者はインフラ管理の複雑さから解放され、AIイノベーションに集中できるようになります。 引用元: https://huggingface.co/blog/friendliai-partnership AIエンジニア devinを使ってみる|Kan Hatakeyama Devinは全自動AIエンジニアで、月額500ドルで利用できます。GitHubやSlackと連携し、ブラウザ上でVS Codeのような環境が提供されます。基本的なコード作成やプッシュは問題なく行えますが、ローカルマシンへのリモート接続は推奨されていません。既存プロジェクトのコードをアップロードしてリファクタリングを指示したところ、問題なく実行されました。ただし、機械学習アルゴリズムの実装は、具体的な指示がないと期待通りの結果にならない場合もあります。作業速度は人間より遅く、1時間程度のタスクを細かく指示するのが良いでしょう。作業履歴が肥大化するため、定期的にセッションを再開する必要があります。DevinはSlackで指示を出し、進捗を確認するスタイルが向いており、スマホからの指示も可能です。パソコンを使わずにプログラミングできるため、隙間時間を活用できます。 引用元: https://note.com/kan_hatakeyama/n/n939264b3b95b オタクやめる原因ランキング第1位『オタクのせい』「マジでこれ」「そんな理由でやめるならオタクではないのでは?」 この記事では、オタクをやめる原因として「オタクのせい」が1位になっているというSNSの投稿が話題になっています。多くの人がこの意見に共感しており、具体的には、オタク界隈でのマウント、古参気取り、民度の低さなどが原因として挙げられています。 また、一部の意見として、そのような理由でオタクをやめるのは「愛がない」「甘えだ」という厳しい意見もあります。 オタク界隈の人間関係のトラブルや、排他的な雰囲気がオタクをやめる大きな要因になっていることが伺えます。 引用元: https://togetter.com/li/2499954 お便り投稿フォーム (株式会社ずんだもんは架空の登場組織です)
関連リンク How Captide is redefining equity research with agentic workflows running on LangGraph Platform Captideは、LangGraph Platform上で動作するエージェントワークフローを用いて、金融調査のあり方を革新しています。彼らのプラットフォームは、規制当局への提出書類や投資家向け資料から洞察や指標を自動的に抽出することで、アナリストが効率的にカスタムデータセットを作成し、分析することを可能にします。 主なポイントは以下の通りです。 自然言語による分析: ユーザーは自然言語で複雑な分析タスクを記述でき、金融指標の抽出、カスタムデータセットの作成、文脈的な洞察の発見が容易になります。 LangGraphによる並列処理: LangGraphの並列処理能力により、複数のエージェントが同時にドキュメントを処理し、待ち時間を短縮し、コードの複雑さを軽減します。 構造化された出力: LangGraphのtrustcallライブラリを利用することで、カスタムスキーマを持つテーブル出力を生成し、一貫性と信頼性を確保しています。 LangSmithによるリアルタイムな監視: LangSmithは、エージェントのパフォーマンスを追跡し、出力を評価し、ユーザーフィードバックを収集するためのツールを提供します。これにより、システムの改善を継続的に行うことができます。 LangGraph Platformへのデプロイ: Captideは、LangGraph Platformにエージェントをデプロイし、APIエンドポイントを簡単に作成しました。また、LangGraph StudioとLangSmithとの統合も容易に行えました。 Captideは、LangGraphとLangSmithの能力を最大限に活用し、金融分析の未来を切り開いています。 引用元: https://blog.langchain.dev/how-captide-is-redefining-equity-research-with-agentic-workflows-built-on-langgraph-and-langsmith/ GitHub - MoonshotAI/Kimi-k1.5 MoonshotAIが開発した「Kimi k1.5」は、強化学習(RL)を用いて訓練されたマルチモーダルLLMです。このモデルは、特に推論能力において、GPT-4oやClaude Sonnet 3.5を大幅に上回る性能を示しています。長文脈での推論能力も高く、複数ベンチマークでOpenAIのo1に匹敵する結果を達成しています。 Kimi k1.5の主な特徴は以下の通りです。 長文脈スケーリング: RLのコンテキストウィンドウを128kまで拡張し、コンテキスト長を長くすることで性能が向上することを発見しました。 ポリシー最適化の改善: 長文CoT(Chain-of-Thought)を用いたRLの定式化と、オンラインミラー降下法の応用により、ロバストなポリシー最適化を実現しました。 シンプルなフレームワーク: 長文脈スケーリングとポリシー最適化の改善により、モンテカルロ木探索などの複雑な手法に頼らずに高い性能を達成しました。 マルチモーダル: テキストと画像データを同時に学習し、両方のモダリティにわたる推論能力を備えています。 Kimi k1.5は、https://kimi.ai で近日中に利用可能になる予定です。API経由でのテスト利用も可能で、フォームから申し込みができます。 引用元: https://github.com/MoonshotAI/Kimi-k1.5 Fastly、初の AI ソリューション「Fastly AI Accelerator」の一般提供を開始 Fastly社が、初のAIソリューション「Fastly AI Accelerator」の提供を開始しました。これは、大規模言語モデル(LLM)を使ったAIアプリ開発で、応答速度の向上とコスト削減を支援するものです。具体的には、セマンティックキャッシュという技術を使い、同じような質問に対しては、毎回AIプロバイダーに問い合わせるのではなく、Fastlyのサーバーに保存された回答を返すことで、平均9倍の応答速度向上を実現しています。導入も簡単で、わずか1行のコード変更とAPIエンドポイントの更新だけで利用可能です。OpenAIのChatGPTとMicrosoftのAzure AI Foundryに対応しており、AIアプリ開発をより効率的に進めたいエンジニアにとって、非常に役立つツールとなるでしょう。 引用元: https://prtimes.jp/main/html/rd/p/000000057.000037639.html Amazon Bedrock の Rerank API を活用してRAGの精度を向上させる この記事では、RAG(検索拡張生成)の精度向上に不可欠なリランク技術について、Amazon BedrockのRerank APIを活用する方法を解説しています。従来、リランク処理にはSageMakerなどでモデルをホストする必要がありましたが、BedrockではAPIを呼び出すだけでリランクが可能になり、運用コストを削減できます。 記事では、BedrockのInvokeModel API、Knowledge BaseのRerank API、Retrieve APIの3つの方法でリランクを試しています。特にRetrieve APIでは、ベクトル検索の結果をリランクすることで、ユーザーの検索意図に合致するドキュメントを上位に表示できるようになり、RAGの精度向上が期待できます。 また、Amazon RerankモデルとCohere Rerankモデルの比較も行い、Cohereモデルの方が処理速度が速いことを示しています。料金はAmazon Rerankモデルが1000クエリあたり$1、Cohere Rerankモデルが1000クエリあたり$2です。 Bedrockのリランク機能を活用することで、より精度の高いRAGシステムを開発できる可能性が示唆されています。 引用元: https://acro-engineer.hatenablog.com/entry/2025/01/21/120000 お便り投稿フォーム (株式会社ずんだもんは架空の登場組織です)
loading