Discover名古屋ではたらく社長のITニュースポッドキャスト
名古屋ではたらく社長のITニュースポッドキャスト
Claim Ownership

名古屋ではたらく社長のITニュースポッドキャスト

Author: ikuo suzuki

Subscribed: 2Played: 13
Share

Description

システムサーバーの社長である鈴木生雄が気になるITニュースをピックアップして数分のコンテンツとしてお届けする番組です。主に取り上げるニュースはAI、半導体、ビッグテック企業です。
747 Episodes
Reverse
ラスベガスで開催中の世界最大級のクラウドイベント「AWS re:Invent 2025」から、業界の勢力図を塗り替えるかもしれない巨大な発表がありました。AWSは、エージェント機能に特化した次世代の基盤モデル「Amazon Nova 2」を発表しました。これまでAWSは、AnthropicやMetaなど他社の優秀なモデルを取り揃える「デパート戦略」をとってきましたが、ここにきて自社ブランドの「Amazon Nova」を主力として前面に押し出し、本気で勝負をかけてきました。今回の目玉は、なんといっても「Agentic AI(エージェントAI)」へのシフトです。従来のAIが「質問に答える賢い辞書」だとすれば、Nova 2は「仕事を任せられる部下」として設計されています。特に注目すべきは、今回プレビュー公開された「Nova 2 Omni」です。このモデルは、目(カメラ)と耳(マイク)を持っており、ビデオ映像や音声をリアルタイムで理解しながら、自然な会話を行うことができます。例えば、工場のラインをカメラで見せながら、「この部品の取り付け方は合っている?」と聞けば、即座にアドバイスをくれるような使い方が可能になります。さらにAWSは、企業がAIを使うだけでなく「作る」ための環境も整えました。新サービス「Nova Forge」を使えば、企業はNovaモデルをベースに、自社の機密データを混ぜ合わせて、世界に一つだけの「自社専用Nova」をトレーニングすることができます。これは、セキュリティと独自性を重視する大企業にとって、非常に魅力的な選択肢となります。また、マット・ガーマンCEOは基調講演で「未来は開発者のものだ」と語り、開発者の負担を減らすための自律型エージェント「Kiro」なども披露しました。インフラ(チップ)、モデル(Nova)、そして応用(エージェント)の全てを垂直統合で提供できるAWSの強みが、いよいよ遺憾なく発揮され始めたと言えるでしょう。2026年、企業AIの主戦場は「チャット」から「エージェント」へと完全に移行しそうです。
ラスベガスで開催されている「AWS re:Invent 2025」から、AIインフラの勢力図を塗り替えるかもしれない大きなニュースが飛び込んできました。AWSは12月2日、自社開発の最新AIチップ「Trainium3」を搭載した「UltraServer」の一般提供を開始したと発表しました。これは単なる新製品の発表ではなく、AI半導体で独走を続けるNVIDIAに対する、AWSからの明確な挑戦状と言えるでしょう。今回発表されたTrainium3は、AWSとして初めて最先端の3nmプロセス技術を採用しています。その性能は驚くべきもので、前世代のTrainium2と比較して計算能力は約4倍、電力効率も40%向上しています。しかし、真の驚きはチップ単体ではなく、それらを束ねた「UltraServer」というシステムにあります。1つのサーバー筐体に144個ものチップを詰め込み、それらを専用のネットワークで高速に接続することで、あたかも一つの巨大な脳のように振る舞うことができます。これは、NVIDIAがBlackwell世代で推進している大規模なサーバー構成に真っ向から対抗するスペックです。この巨大なパワーを誰が使うのかというと、その筆頭が「Claude」でおなじみのAnthropicです。AWSとAnthropicは「Project Rainier」と呼ばれる壮大な計画を進めており、最終的には数十万個規模のTrainiumチップを連結した、世界最大級のAI計算クラスターを構築しようとしています。Anthropicのようなトッププレイヤーが、NVIDIA製GPUだけでなくAWS製チップを主力として採用し始めたことは、市場に「GPU以外の選択肢」が実用的であることを証明する大きな意味を持ちます。また、技術的な観点で見逃せないのが「液冷」へのシフトです。Trainium3のような高性能チップは発熱量も凄まじく、もはや従来の空調ファンでは冷やしきれません。AWSはデータセンターの設備自体を刷新し、液体を使って効率的に熱を逃がす仕組みを導入しています。これは、AI開発が単なるソフトウェアの戦いから、電気と熱をどう制御するかという物理的なインフラ戦争のフェーズに入ったことを象徴しています。コストと性能のバランスを武器に、AWSがAIインフラの「第2の標準」としての地位を確立できるのか、2026年に向けて目が離せません。
生成AI業界にまた一つ、大きな地殻変動が起きました。Anthropicは2025年12月2日、高速JavaScriptランタイム「Bun」を買収したことを発表しました。これは2021年の創業以来、同社にとって初の企業買収となります。この買収劇の裏には、Anthropicが放つAIコーディングツール「Claude Code」の驚異的な成功があります。2025年5月に一般公開されたばかりのClaude Codeは、わずか半年後の11月時点で、ARR(年間経常収益)が10億ドル(約1500億円)を突破するという、エンタープライズ・ソフトウェア史上でも類を見ない爆発的な成長を記録しました。NetflixやSpotify、Salesforceといった巨大企業がこぞって導入を進めており、開発現場の「デファクトスタンダード」を塗り替えつつあります。では、なぜAI企業のAnthropicが、JavaScriptの実行環境であるBunを必要としたのでしょうか。その答えは「垂直統合」にあります。Claude Codeのような自律型エージェントは、単にコードを書くだけでなく、テストを実行し、エラーを修正し、デプロイまで行います。このプロセスを高速かつ安定して回すためには、AIモデルだけでなく、コードが実際に動く「足回り(ランタイム)」の制御が不可欠です。Bunは、既存のNode.jsよりも圧倒的に高速な起動と処理速度を誇ります。AnthropicはBunを自社に取り込むことで、Claude Codeが生成したコードの実行速度を劇的に向上させ、ユーザーの待ち時間を短縮し、より複雑なタスクを短時間で完遂できる環境を整えようとしています。これは、ハードウェアとソフトを統合して体験を高めるAppleのような戦略を、AI開発ツールの世界で実践しようとする動きとも言えます。なお、Bunの創業者であるJarred Sumner氏はAnthropicに参画しますが、Bun自体は今後もオープンソースとして維持され、MITライセンスの下で開発が継続されるとのことです。Microsoft傘下のGitHub Copilotや、OpenAIの動向に対し、Anthropicは「AI×ランタイム」という独自の武器で対抗軸を鮮明にしました。
ラスベガスで開催中の年次イベント「AWS re:Invent 2025」から、開発者の働き方を根本から変えるかもしれない注目の発表が飛び込んできました。AWSは、開発チームの一員として機能する自律型AIエージェント、「Kiro autonomous agent」を発表しました。これまでもAIによるコーディング支援ツールは存在しましたが、Kiroは一線を画します。従来のツールが「人間が書くコードを補完する」ものだとすれば、Kiroは「タスクを丸ごと任せられる新人エンジニア」のような存在です。例えば、JiraのチケットやSlackでの会話からタスクの内容を理解し、GitHub上の複数のリポジトリを横断してコードを修正、テストの実行までを自律的に行います。特筆すべきは、Kiroが持つ「学習能力」です。これまでのAIはセッションが終われば記憶がリセットされていましたが、Kiroは「永続的記憶」を持っています。もしプルリクエストのレビューで、人間の先輩エンジニアから「このプロジェクトではこのエラー処理パターンを使ってね」と指摘された場合、Kiroはそのフィードバックを記憶します。そして、次回のタスクからは言われなくてもそのルールを守るようになるのです。AWSのマット・ガーマンCEOは「Agents are the new cloud(エージェントこそが新しいクラウドだ)」と宣言し、Kiroだけでなく、セキュリティ監視を行う「AWS Security Agent」や、障害対応を行う「AWS DevOps Agent」も同時に発表しました。これらは「Frontier Agents」と呼ばれ、人間が寝ている間もシステムを守り、育て続ける新たな労働力として定義されています。開発者は今後、コードを一行一行書く作業から、これら優秀なエージェントたちに指示を出し、その成果物を監督する「マネージャー」のような役割へとシフトしていくのかもしれません。
「AIの民主化」を掲げるフランスのMistral AIが、またしても業界の常識を覆す一手を打ちました。同社は2025年12月2日、次世代モデルファミリー「Mistral 3」を正式にリリースしました。最大の注目点は、最上位モデルである「Mistral Large 3」までもが、商用利用可能なApache 2.0ライセンスの「オープンウェイト」として公開されたことです。Mistral Large 3は、総パラメータ数が6750億という超巨大モデルですが、MoE(Mixture of Experts)アーキテクチャを採用しており、推論時に実際に稼働するのはそのうちの410億パラメータのみです。これにより、GPT-4クラスの性能を維持しながら、推論コストと遅延を劇的に抑えることに成功しています。NVIDIAとの緊密な連携により最新GPU「H200」に最適化されており、AWSやAzureといった主要クラウドでも即日利用可能となりました。また、今回はデータセンター向けだけでなく、PCやスマートフォンなどの端末内で動作する「エッジAI」への野心も見せました。同時に発表された「Ministral 3」シリーズは、30億から140億パラメータという軽量サイズで、ネット接続なしでも高度な推論やマルチモーダル処理(画像認識など)を可能にします。OpenAIやGoogleがモデルの中身をブラックボックス化する「クローズド戦略」を採る中で、Mistral AIは「高性能なモデルを誰でも手元で動かせる」という選択肢を提供し続けています。企業の機密データを社外に出さずに最高峰のAIを使いたいというニーズに対し、Mistral 3はまさに決定打となる可能性を秘めています。
iPhoneの生みの親であるAppleが、AI戦略の抜本的な見直しを迫られています。Bloombergなどの報道によると、長年AI部門を率いてきたジョン・ジャナンドレア氏が退任し、後任としてGoogleとMicrosoftの両社でAI開発の中枢を担ったアマル・スブラマニヤ氏を招聘することが明らかになりました。この人事の背景にあるのは、Appleが直面している「AI開発の苦戦」です。2024年に華々しく発表された「Apple Intelligence」ですが、市場の反応は芳しいものばかりではありませんでした。特に、目玉機能となるはずだった「新生Siri」の開発は難航を極めています。当初期待されていたような、複雑な文脈を理解しアプリを横断して操作する機能の実装は遅れに遅れ、完全なリリースは2026年の春までずれ込む見通しです。BBCなどのメディアからは、AIが生成したニュース要約に事実誤認が含まれているといった精度の問題も指摘されており、品質に厳格なAppleとしては異例の事態が続いていました。そこで白羽の矢が立ったのが、スブラマニヤ氏です。彼はGoogleで対話型AI「Gemini」のエンジニアリング責任者を務め、その後Microsoftに移籍してAI戦略を支えた、いわば「ライバルの手の内を知り尽くした人物」です。Appleはこれまで、純粋培養の自社文化を大切にしてきましたが、ここに来て外部の、それも直接的な競合他社のトップエンジニアに舵取りを委ねるという決断は、彼らの危機感の表れと言えるでしょう。今後は組織構造も変わり、スブラマニヤ氏はソフトウェアエンジニアリング担当のクレイグ・フェデリギ氏の直属となります。これは、AIを単なる研究対象としてではなく、iOSやmacOSといった製品に直結する機能として、よりスピーディーに実装していくための布陣です。「プライバシー重視」というAppleの哲学を守りながら、周回遅れと言われるAI競争でどう巻き返しを図るのか。2026年はAppleにとって、真価が問われる一年になりそうです。
本日は、世界最大級のコンサルティングファームAccentureと、生成AIの王者OpenAIが手を組んで推進している、企業のAI導入における新しい潮流について解説します。 これまで多くの企業がChatGPTなどの生成AIを導入してきましたが、その多くは「メールの下書き作成」や「議事録の要約」といった、個人の作業効率化に留まっていました。しかし、AccentureとOpenAIが目指しているのは、その先にある「企業の業務プロセスそのものの変革」です。その鍵となるのが、Accentureが展開する「AI Refinery(AI精製所)」というプラットフォーム構想です。 原油がそのままでは車の燃料にならないのと同じように、OpenAIが提供する強力なAIモデルも、そのままでは企業の複雑な業務にはフィットしません。そこでAccentureは、この「Refinery」という環境を用意し、顧客企業が持つ膨大な社内データを使ってOpenAIのモデルをカスタマイズ(精製)するプロセスを支援しています。特に注目すべきは、単に質問に答えるだけのAIから、自律的に仕事をする「エージェント型AI」へのシフトです。 例えば、マーケティング部門であれば、AIエージェントが市場データを分析し、キャンペーンの立案からコンテンツの生成、さらには効果測定までを自律的に行います。金融機関であれば、無数のコンプライアンス規定を学習したAIが、融資の審査プロセスを人間と協調して進めます。Accentureは、こうした「働くAI」を構築するためのツール群や、NVIDIAと連携した強力な計算基盤を提供することで、企業が抱える「AIをどう業務に組み込めばいいか分からない」という悩みを解決しようとしています。OpenAIにとってAccentureは、自社の技術を大企業の「現場」に定着させるための最強のパートナーであり、AccentureにとってもOpenAIの進化するモデルは、コンサルティングサービスの質を根本から変える武器となります。 「とりあえず導入してみた」というフェーズが終わり、2025年は「自社専用のAIを育て、経営の武器にする」という、より本質的な競争が始まろうとしています。
本日は、日本のAI開発における歴史的な一日となるかもしれません。2025年12月2日、株式会社Preferred Networks(PFN)の「PLaMo翻訳」が、デジタル庁の運用するガバメントAI環境「源内(Gen-nai)」において正式に利用開始されました。これまで、政府や自治体が利用するAIといえば、OpenAIなどの海外勢が主流でした。しかし、今回採用された「PLaMo翻訳」は、PFNが独自に開発した純国産のモデルです。このモデルの強みは、なんといっても「日本語の解像度」にあります。海外製AIに見られるような不自然な言い回しや、専門用語の誤訳を極限まで減らし、行政文書のような硬い文章でも、文脈を損なわずに正確に翻訳できる点が評価されました。これが霞が関のインフラとして組み込まれたことは、日本のスタートアップ技術が国家のセキュリティ基準をクリアし、実務レベルで海外巨大テック企業と競合できることを証明したと言えます。また、PFNにとってこのニュースは、単なる「官公庁への導入事例」以上の意味を持ちます。実は先週の11月27日、PFNは創業以来の大きな体制変更を行いました。長年CEOを務めた西川徹氏が会長に退き、代わってCTOとして技術を牽引してきた岡野原大輔氏が新社長に就任したのです。 「技術の天才」として知られる岡野原氏がトップに立った直後のこの発表は、PFNが「研究開発」のフェーズから、技術を社会実装し、国のインフラさえも支える「実業」のフェーズへと完全に移行したことを象徴しています。MN-Coreという独自のAI半導体を持ち、その上で動くPLaMoという独自の頭脳を持つPFN。ハードとソフトの両方を握る彼らが、日本の「デジタル主権」を取り戻すための切り札として、政府の中枢で動き始めました。
未上場のテクノロジー企業として、今最も注目を集めているDatabricksが、驚異的な数字を叩き出そうとしています。The Informationの報道によると、同社は現在、新たな資金調達に向けた協議を行っており、その企業価値はなんと1,340億ドル、日本円にして約20兆円に達する見込みです。これは単に「すごい金額だ」という話では終わりません。この数字は、ライバルである上場企業Snowflakeの時価総額を大きく上回るものであり、データインフラ市場の王者が交代しつつあることを象徴しています。 Databricksの好調を支えているのは、間違いなく「生成AI」の波です。企業がAIモデルを開発・運用するためには、大量のデータを整理し、高速に処理する基盤が必要です。Databricksはこのニーズに対し、データの保管からAIモデルの学習までを一気通貫で行えるプラットフォームを提供することで、今年だけで売上予測を二度も上方修正し、前年比55%増という驚異的な成長を見込んでいます。しかし、この急成長には「痛み」も伴っています。投資家向けの説明資料によると、同社の粗利益率は当初の計画である77%から74%へと低下する見通しです。 なぜ売上が伸びているのに利益率が下がるのでしょうか? それは、AIを動かすための「燃料代」が高すぎるからです。顧客がAIを使えば使うほど、Databricks側が負担するクラウドインフラやGPUのコストが膨れ上がり、利益を削ってしまうのです。これはDatabricksに限らず、現在のAI企業すべてが抱える共通の課題と言えるでしょう。それでも、投資家たちがこの巨額評価を正当化するのは、Databricksが「次の時代のOS」になる可能性を秘めているからです。かつてPCの時代にMicrosoftが覇権を握ったように、AIの時代には「データとAIを最も効率よく扱える基盤」が全ての中心になります。 「利益率の低下」という成長痛を抱えながらも、ライバルを突き放し、前人未到の規模でのIPO(新規株式公開)へと突き進むDatabricks。その動向は、2025年のテック市場最大の関心事となりそうです。
本日は、AI業界にとってある意味で「信仰の揺らぎ」とも言える大きなニュースを取り上げます。The Informationの報道によると、かつてOpenAIでGPTシリーズの開発を主導し、「モデルは大きければ大きいほど賢くなる」という“スケール則”を誰よりも信じていたイリヤ・サツケヴァー氏が、その考えを大きく転換させたようです。イリヤ氏は現在、自身の新会社SSIで安全な超知能の開発に取り組んでいますが、周囲に対し「単に巨大なデータセンターを作って事前学習の規模を拡大するだけでは、もうこれ以上の劇的な進化は望めない」という趣旨の発言をしていると報じられました。 これは衝撃的です。なぜなら、彼こそが「もっとデータを!もっとGPUを!」と叫び続け、今の生成AIブームの基礎を作った張本人だからです。その彼が、「従来のやり方(事前学習の拡大)はプラトー(高原状態)に達した」と認めたことになります。背景には、良質な学習データの枯渇や、電力・コストの限界があります。では、AIの進化は止まってしまうのでしょうか? そうではありません。イリヤ氏や、OpenAIの最新動向(o1モデルなど)が示しているのは、「知識の詰め込み」から「思考力の強化」へのシフトです。これを「Test-time Compute(推論時計算)」と呼びます。 これまでのAIは、試験前に教科書を丸暗記する(事前学習)ことに全力を注いでいました。しかし、これからのAIは、試験中にじっくり時間をかけて問題を解く(推論時計算)能力を伸ばす方向に進むのです。「ただ大きくすればいい時代」は終わり、これからは「どう賢く考えさせるか」という、より人間的な知能の質が問われる時代に入ったと言えるでしょう。イリヤ氏の転向は、その新しい時代の幕開けを告げる象徴的な出来事です。
本日は、The Informationが報じたスクープを起点に、米中半導体戦争の最前線で起きている「奇妙なねじれ現象」について解説します。 記事によれば、TikTokを運営する中国のByteDanceは、2025年を通じて猛烈な勢いでNvidia製のAIチップを買い集めていました。その背景には、「規制がさらに強化される前に、とにかく在庫を確保したい」という強烈な飢餓感があります。しかし今、中国のテック企業は「アメリカからの攻撃」と「自国からの圧力」という、二つの壁に挟まれ、身動きが取れなくなっています。 一つ目の壁は、アメリカによる執拗な輸出規制と摘発です。実はつい先日、マレーシアやタイを経由してNvidiaの高性能チップを中国へ密輸しようとしたグループが、米司法省によって起訴されました。これにより、いわゆる「地下ルート」のリスクが極限まで高まっています。一方で、トランプ政権下での通商交渉の一環として、逆に最新の「H200」チップの輸出を許可するのではないかという観測も浮上しており、現場は混乱の極みにあります。二つ目の壁は、皮肉なことに中国政府自身です。報道によれば、中国の規制当局はByteDanceなどの国内企業に対し、「Nvidiaチップの購入を止め、Huaweiなどの国産チップを使うように」と強い圧力をかけています。 しかし、現場のエンジニアの本音は違います。「HuaweiのAscend 910Cは確かに進化した。でも、NvidiaのCUDAエコシステムから離れるコストが高すぎる」──これが彼らの偽らざる心境です。つまり、中国企業は「性能のNvidia」を喉から手が出るほど欲しいのに、アメリカからは売ってもらえず、自国からは買うなと言われる、まさに四面楚歌の状態に陥っているのです。それでもなお、裏ルートを使ってでも、あるいは政府に隠れてでもNvidiaチップを求める動きが止まないという事実は、AI開発において「ハードウェアの質」がいかに決定的な差を生むかを如実に物語っています。2025年の年末、この「いたちごっこ」は、技術と政治の狭間でさらに激化していきそうです。
中国のテクノロジー業界で、長年続いた「序列」が崩れようとしています。TikTokの親会社であるByteDanceが、中国クラウド市場の絶対王者であるAlibabaに対して、AIインフラ領域で猛烈な攻勢を仕掛けているのです。The Informationの報道によれば、ByteDanceはその豊富な資金力と技術力を武器に、AI開発を行うスタートアップや企業の取り込みを加速させています。これまで中国のクラウドといえば、Alibaba Cloudが圧倒的なシェアを持っていました。しかし、生成AIのブームが到来し、ゲームのルールが変わりました。企業が求めているのは、単なるデータの保管場所ではなく、AIモデルを動かすための「安くて速いGPUパワー」だからです。ここでByteDanceが強みを発揮します。彼らはTikTokや中国版のDouyinを運営するために、世界でもトップクラスの規模でNVIDIA製のGPUを買い集め、極限まで効率化された運用ノウハウを持っています。ByteDanceの戦略は、彼らのクラウドブランド「Volcengine(火山引擎)」を通じて、この巨大な計算資源を競合他社よりも圧倒的に安い価格で提供することです。実際、彼らの主力AIモデル「Doubao」は、競合を戦慄させるほどの低価格設定で市場に投入され、瞬く間に多くの開発者を引き寄せました。「Doubaoを使うなら、最適化されたVolcengineで動かすのが一番」という導線を作ることで、Alibabaの顧客基盤を切り崩しているのです。Alibabaも黙ってはいません。価格を引き下げ、自社のAIモデル「Qwen」とクラウドの統合を強化して対抗しています。しかし、ByteDanceは「アルゴリズムの会社」として、AIの扱いにかけては一日の長があります。アプリで培った「AIを実用化して収益を生むノウハウ」ごと企業に提供するByteDanceのアプローチは、AI活用に悩む企業にとって非常に魅力的に映ります。かつてEコマースのインフラとして成長したAlibabaと、動画アルゴリズムのインフラとして成長したByteDance。AIという新しい時代のOSを巡るこの覇権争いは、中国市場だけでなく、世界のAIクラウドの勢力図にも影響を与える可能性があります。
「翌日配送」の常識を作ったAmazonが、今度は「数十分」の世界を取り戻すために動き出しました。The Informationの報道によると、Amazonは米国で、食料品や日用品を最短30分程度で届ける新しい超高速配送サービスの計画を進めています。かつてAmazonには「Prime Now」という即配サービスがありましたが、これをメインのアプリに統合した経緯があります。なぜ今、再びこの領域に注力するのでしょうか。その背景には、InstacartやDoorDash、Uber Eatsといった「ギグ・エコノミー型」プラットフォームの脅威的な進化があります。 これらのサービスは、当初はレストランの食事やスーパーの生鮮食品を運ぶだけでしたが、現在では洗剤から充電ケーブル、化粧品に至るまで、あらゆるものを「今すぐ」届けるインフラに変貌しています。消費者が「明日でいいや」と思うものはAmazonで買いますが、「今すぐ欲しい」と思う電池や牛乳はDoorDashで頼む──この行動様式の定着により、Amazonは最も購買頻度の高い「日常の接点」をライバルに奪われつつあるのです。報道によれば、Amazonの新しいサービスは、同社が所有する高級スーパー「Whole Foods Market」の店舗網や、都市部に配置された物流拠点を活用すると見られています。巨大倉庫からトラックで運ぶ従来のモデルではなく、消費者の生活圏に食い込んだ小型拠点(MFC)から、機動力のある配送網を使って一気に届ける戦略です。これは単なるスピード競争ではありません。顧客がアプリを開く回数、つまり「マインドシェア」を巡る戦いです。もしAmazonがこの即配領域で覇権を握り返せなければ、Eコマースの帝王としての地位が揺らぎかねない。そんな危機感が、この巨人を再び「超即配」という泥臭く激しい戦場へと駆り立てているようです。
ラスベガスで開催中のAWS re:Invent 2025から、また一つきな臭い、しかしビジネスとしては非常に興味深いニュースが入ってきました。The Informationの報道によると、AWSは提携先であるAnthropicとの関係が複雑化する中で、新たな自社製AIモデルの準備を着々と進めているようです。状況を整理しましょう。AmazonはAnthropicに対し、総額80億ドル(約1兆2000億円)規模の巨額出資を行っています。本来であれば、Anthropicの最新モデル「Claude 4.5」をAWS上で独占的に提供し、「AWSを使えば最高のAIが使える」とアピールするのが定石です。実際、Claude 4.5はBedrock上で利用可能です。 しかし、Amazonはそれだけでは満足していません。彼らは「家主(プラットフォーム)」であると同時に、「店子(モデル開発者)」としても最強の座を狙っているのです。報道によれば、AWSは昨年発表した自社モデル「Amazon Nova」シリーズの後継、あるいはさらに上位となる新しいモデル群の開発を加速させています。その狙いは明確で、AnthropicのClaudeに頼らずとも、自社のモデルだけで顧客のあらゆるニーズ──特に高度な推論やエージェントタスク──を満たせるようにすることです。 これには「利益率」という切実な理由があります。顧客がClaudeを使えば、売上の一部はAnthropicに流れますが、Novaを使ってもらえれば、その収益はすべてAmazonのものになります。しかも、自社チップ「Trainium」で自社モデルを動かすのが、原価的にも最も効率が良いのです。一方のAnthropicにとっては、たまったものではありません。最大の出資者であり、インフラの提供者でもあるAmazonが、同じプラットフォーム上で安価かつ高性能な競合製品をぶつけてくるわけですから、まさに「飼い犬に手を噛まれる」ならぬ「大家に商売を邪魔される」状態です。 MicrosoftとOpenAIの間にも似たような緊張感はありますが、Amazonのアプローチはより露骨に「自前主義」への回帰を示唆しています。この新しいモデルがリリースされたとき、AWSとAnthropicの蜜月関係がどう変化するのか、あるいは維持されるのか。2026年のAI業界を占う大きな試金石となりそうです。
シリコンバレーで、歴史は繰り返すと言いますが、これほど皮肉な展開も珍しいかもしれません。The Informationの報道によると、OpenAIのサム・アルトマンCEOが社内会議で「コード・レッド(緊急事態)」を宣言しました。かつてGoogleがChatGPTの登場に慌てふためいて発令したこの言葉を、今度はOpenAI自身が使うことになったのです。事の発端は、中国のAI企業「DeepSeek」の猛烈な追い上げです。 以前のエピソードでも触れましたが、Android版ChatGPTのアプリ内から「広告表示」に関するプログラムコードが見つかり、OpenAIがいよいよ無料ユーザー向けに広告ビジネスを始めるのではないかと噂されていました。しかし、今回の報道によると、その広告導入計画は無期限で延期、あるいは凍結されたようです。なぜでしょうか? 理由はシンプルで、「今、広告を出したらユーザーが逃げるから」です。 DeepSeekの最新モデルは、GPT-4に匹敵する性能を持ちながら、非常に安価、あるいは無料で利用できます。もしChatGPTが画面に広告を出し始めれば、ユーザーは「邪魔だな」と感じ、広告がなく高性能なDeepSeekへと雪崩を打って流出してしまうでしょう。サム・アルトマンはこの「チャーン(解約・離脱)」のリスクを深刻に捉え、目先の収益化よりも、まずは「ユーザーをつなぎ止めること」と「圧倒的な製品力を見せつけること」に舵を切りました。昨年末に行われた怒涛のリリースラッシュ「12 Days of OpenAI」も、この危機感の表れだったと言えます。なりふり構わず新機能を連発することで、「やはり本家はすごい」という印象を植え付けようとしたわけです。 王者が守りに入るのではなく、挑戦者の影に怯えて広告計画さえも引っ込める。2025年のAI業界は、私たちが想像していた「OpenAI一強」の未来とは全く違う、泥臭く激しい総力戦の様相を呈してきました。
ゲーム業界の歴史に残る、驚くべきニュースが飛び込んできました。長年、激しいライバル関係にあったEpic GamesとUnityが、なんと戦略的パートナーシップを締結したのです。2025年11月、両社は「オープンで相互運用可能な未来」を目指し、互いの強みを融合させることを発表しました。この提携の目玉は、大きく分けて二つあります。 一つ目は、「Unityで作ったゲームをFortniteの中で公開できるようになる」という点です。これまでFortniteのエコシステムに参加するには、Epic製のUnreal Engineを使う必要がありましたが、今後は使い慣れたUnityを使って、5億人以上のユーザーがいる巨大な経済圏へアクセスできるようになります。これはUnityの開発者にとって、計り知れないチャンスとなります。二つ目は、逆に「Unityの商用ツールがUnreal Engineをサポートする」という点です。Unityが持つ強力な課金管理や運営ツールが、Unreal Engineで作られたゲームでも使えるようになります。つまり、技術的にはUnrealを使いつつ、ビジネス周りはUnityのソリューションで固める、という「いいとこ取り」が可能になるわけです。なぜ、これまで犬猿の仲と思われていた両社が手を組んだのでしょうか。 Epicのティム・スウィーニーCEOは、「Webの黎明期と同じように、オープンなメタバースを築くには企業間の協力が不可欠だ」と語っています。その背景には、AppleやGoogleといった巨大プラットフォームが課す「手数料」や「閉鎖的なルール(ウォールド・ガーデン)」への対抗意識が見え隠れします。ゲームエンジン同士で争って消耗するよりも、手を組んで開発者の自由度を高め、より大きな「オープン・メタバース」市場を作ろうという決断に至ったのでしょう。開発者にとっては「エンジンの壁」がなくなり、プレイヤーにとっては「遊べるコンテンツ」が爆発的に増える。この歴史的な握手は、ゲーム業界全体の景色をガラリと変える転換点になりそうです。
AI半導体の王者Nvidiaが、自動運転の未来を切り拓くための重要な「武器」を、世界中の研究者に向けて開放しました。12月1日、Nvidiaは自動運転研究に特化した新しいAIモデル「Alpamayo-R1」と、物理シミュレーション基盤「Cosmos」を発表しました。これまで独自の技術をブラックボックス化して囲い込むことが多かった自動運転業界において、Nvidiaがあえて「オープンソース」として最先端モデルを公開した意図はどこにあるのでしょうか。まず、目玉となるのが「Alpamayo-R1」です。これは単に道路上の車や人を検知するだけのAIではありません。「VLA(Vision-Language-Action)」と呼ばれる新しいタイプのモデルで、人間が運転中に頭の中で行っているような「思考」を再現します。例えば、「前方のトラックがハザードを点灯して停車しているから、対向車が来ないタイミングを見計らって追い越そう」といった複雑な文脈理解と判断(Reasoning)を行い、それを実行動に移すことができます。Nvidiaはこのモデルを公開することで、まだ完全には実現されていない「レベル4自動運転」のブレイクスルーを業界全体で起こそうとしています。そして、そのAlpamayoを賢く育てるための環境が「Cosmos」です。自動運転AIを鍛えるには、事故が起きそうな危険な状況のデータが大量に必要ですが、実車で事故を起こすわけにはいきません。そこでCosmosの出番です。このモデルは、現実世界の物理法則を深く理解しており、まるでビデオゲームの最高画質を超えるようなリアリティで、雨の日の交差点や飛び出し事故といったシチュエーションを動画として生成できます。開発者はこの仮想世界の中で、AlpamayoのようなAIを安全に、かつ無限に訓練することができるのです。Nvidiaはこの戦略により、自社のGPUとソフトウェアを、自動運転開発における「共通言語」にしようとしています。Uberなどの大手プレイヤーも既にNvidiaのエコシステム上で開発を進めており、今回のオープン化によって、大学の研究室からスタートアップまで、誰もがNvidiaの基準で自動運転AIを作れるようになります。ハードウェアを売る会社から、知能のインフラを提供する会社へ。Nvidiaの支配力は、道路の上でもさらに強固なものになりそうです。
ラスベガスで開催中のAWS re:Invent 2025から、非常に驚きのある、そして業界の転換点とも言えるニュースが飛び込んできました。あの「クラウドの巨人」AWSが、競合であるGoogle Cloudと手を組み、両社のクラウドを直接つなぐ新サービス「AWS Interconnect - multicloud」を発表したのです。これまで、AWSといえば「All-in on AWS」、つまりすべてのシステムをAWSに集約することを推奨する姿勢が目立っていました。他社のクラウドとつなぐことは技術的には可能でしたが、複雑なVPN設定や、物理的なデータセンターでの回線引き込みなど、数週間かかる面倒な手続きが必要でした。いわば、AWSは「高い城壁」の中にユーザーを囲い込む戦略をとっていたわけです。しかし、今回の発表はその城壁に自ら扉を作ったようなものです。 新しい「AWS Interconnect」を使えば、エンジニアは管理画面から数回クリックするだけで、AWSとGoogle Cloudの間に高速な専用線を開通させることができます。これまでは物理的な作業を含んで数週間かかっていた開通作業が、なんと「数分」で完了するというのですから、現場のエンジニアにとっては魔法のような話です。なぜ今、AWSは競合との接続を容易にしたのでしょうか? 背景には「AI」と「障害対策」という二つの切実な事情があります。現在、AI開発の現場では「データはAWSにあるが、学習に使いたい特定のAIモデルはGoogleにある」といった状況が日常茶飯事です。データを自由に、高速に移動させたいという顧客の熱烈な要望を無視できなくなったのです。 また、今年10月に発生した大規模なクラウド障害も影響しているでしょう。一つのクラウドに依存するリスクを避けるため、複数のクラウドを併用する「マルチクラウド」が企業の当たり前の選択肢となり、AWSもその現実を受け入れ、インフラとしての利便性を取る道を選んだと言えます。なお、現在はGoogle Cloudとの接続がメインですが、2026年にはMicrosoft Azureとの接続も計画されています。クラウド事業者が互いに敵対する時代から、ユーザーのために協力し合う「相互接続」の時代へ。今回のニュースは、その象徴的な出来事として長く記憶されることになるでしょう。
今回は、画像生成AIの世界に現れた、小さくてもとてつもなく器用なニューカマーについてお話ししましょう。アリババの国際研究チームであるAIDC-AIが、Hugging Faceで「Ovis-Image-7B」という新しいモデルを公開しました。皆さん、画像生成AIを使っていて「惜しい!」と思ったことはありませんか? 例えば、「カフェの看板を描いて」と頼んだとき、絵は完璧におしゃれなカフェなのに、看板に書かれている文字が、まるで宇宙語のような謎の記号になってしまっている……そんな経験です。実は、これまでのAIにとって、画像の中に正しいスペルで文字を書くというのは、非常に難しい課題でした。ところが、今回登場した「Ovis-Image-7B」は、まさにその弱点を克服するために生まれてきました。このモデル、名前に「7B」とある通り、パラメータ数は70億と、業界の基準で見ればかなりコンパクトなサイズです。一般的にAIは、脳みそであるパラメータが大きいほど賢いとされていますが、このOvisは違います。その小さな体で、なんとあのGPT-4oのような超巨大モデルに匹敵するほど、「正確に文字を描く」ことができるんです。なぜそんなことが可能になったのでしょうか。その秘密は「構造的埋め込み(Structural Embedding)」という独自の技術にあります。従来のAIが画像を「色の集まり」としてぼんやり捉えていたのに対し、Ovisは画像を、まるで文章を読むように「意味のある構造」として捉えます。これにより、「この位置に、このフォントで、正確に『SALE』と書く」といった指示を、驚くほど忠実に実行できるようになったのです。これが普及すれば、例えば飲食店のメニュー表や、イベントのポスター、Webサイトのバナー広告などが、デザイナーでなくとも一瞬で作れるようになります。しかも、軽量なモデルなので、巨大なサーバーを用意しなくても、手元の高性能なPCでサクサク動かせる未来もすぐそこに来ています。「文字が書けない」という画像生成AIの長年の悩みが、このコンパクトな巨人によって解決されようとしています。クリエイティブの敷居がまた一つ下がりそうですね。
2025年も残すところあと1ヶ月となった今日、12月1日。中国のAI企業DeepSeekが、またしても業界を震撼させるニュースを投下しました。Hugging Faceで公開されたのは、彼らの最新シリーズ「DeepSeek-V3.2」。その中でも特に注目すべきは、「Speciale(スペチアーレ)」と名付けられた特別版の存在です。この「DeepSeek-V3.2-Speciale」が掲げたベンチマーク結果は衝撃的です。なんと、OpenAIの「GPT-5」を上回り、Googleの「Gemini-3.0-Pro」と対等に渡り合える推論能力を持っているというのです。特に、今年の国際数学オリンピック(IMO)と国際情報オリンピック(IOI)の両方で「金メダル」相当の成績を叩き出したとされており、その論理的思考力は、もはや人間のトップ層すらも凌駕しつつあります。技術的なブレイクスルーの鍵は、「DSA(DeepSeek Sparse Attention)」と呼ばれる新しいアーキテクチャにあります。これは、膨大なデータの中から必要な情報だけを効率よく拾い上げる技術で、これによって長い文脈を理解する際の計算コストを劇的に下げつつ、精度を維持することに成功しました。しかし、このSpecialeには非常にユニークな「割り切り」があります。それは、「ツール機能を持たない」ということです。最近のAIは、Web検索をしたり、コードを実行したりと「手足」を使う方向に進化していますが、このSpecialeはあえてその機能を削ぎ落とし、ひたすら「脳みそ」の深さを追求しました。DeepSeekのモデルカードには「深層推論タスク専用であり、ツール呼び出し機能はサポートしていない」と明記されています。つまり、DeepSeekは「何でもできる便利屋」ではなく、「部屋に籠もって難問を解く天才数学者」のようなAIを世界に公開したわけです。米国勢が汎用性を目指す中で、あえて「純粋思考」に特化して性能競争を挑む中国勢。この年末、AIの覇権争いは新たなフェーズに入ったと言えるでしょう。
loading
Comments