Discover名古屋ではたらく社長のITニュースポッドキャスト
名古屋ではたらく社長のITニュースポッドキャスト
Claim Ownership

名古屋ではたらく社長のITニュースポッドキャスト

Author: ikuo suzuki

Subscribed: 2Played: 13
Share

Description

システムサーバーの社長である鈴木生雄が気になるITニュースをピックアップして数分のコンテンツとしてお届けする番組です。主に取り上げるニュースはAI、半導体、ビッグテック企業です。
851 Episodes
Reverse
2026年1月13日、Google Researchから医療AIの未来を左右する重要な発表がありました。オープンソースの医療用AIモデル「MedGemma」がバージョン1.5へと進化し、さらに医療専用の「耳」を持つ「MedASR」が登場したのです。まず、目玉となる「MedGemma 1.5」ですが、これまでの医療AIとは決定的に違う点があります。それは「3次元の眼」を手に入れたことです。従来のAIの多くは、レントゲン写真のような2次元の画像の解析は得意でしたが、CTスキャンやMRIといった「立体のボリュームデータ」を扱うのは計算量が膨大すぎて苦手としていました。 しかし、今回のMedGemma 1.5は、数百枚の断層画像を一度に読み込み、「患者の肺のこの部分に異常の兆候がある」といった診断支援が可能になりました。Googleによると、MRIの病変分類の精度は前モデルから14%も向上しているといいます。さらに驚くべきは、この高性能なAIが「40億パラメータ(4B)」という、比較的コンパクトなサイズで提供される点です。これは何を意味するかというと、巨大なGoogleのデータセンターを使わなくても、病院の中にあるサーバーや高性能なPCで動かせるということです。 医療現場では「患者のデータを外部に出したくない」というセキュリティへの懸念が常にあります。院内で完結する「オンデバイスAI」として動くMedGemma 1.5は、このプライバシー問題を解決する切り札となり得ます。一方、「MedASR」の登場も業界に波紋を広げています。 医療現場の音声入力といえば、長らくMicrosoft傘下のNuance(ニュアンス)社が圧倒的なシェアを持っていました。しかし、Googleはここに「オープンモデル」で殴り込みをかけた形です。 公開されたデータによると、MedASRはOpenAIの「Whisper large-v3」と比較して、胸部X線の読影レポート作成時のエラー率が58%も低かったとのこと。専門用語が飛び交う医療現場において、汎用品ではなく「特化型」の強みを見せつけました。Googleにはすでに、クラウド経由で提供する超高性能な「Med-PaLM 2」というAIがありますが、今回あえて「軽量・オープン・院内で動く」モデルを強化してきた点に、彼らの戦略が見えます。 「最高性能はクラウドで、実用的な解析は現場のPCで」。このハイブリッドなアプローチが、2026年の医療ITの標準になっていくかもしれません。
「AIの進化は歓迎する。だが、その電気代をおばあちゃんの年金から払わせるわけにはいかない」──そんなトランプ大統領の強いメッセージが、シリコンバレーを揺るがしています。2026年1月13日、トランプ大統領はSNSへの投稿で、Microsoftをはじめとする巨大テック企業に対し、データセンターの電力料金に関する「大幅な変更」を今週中にも実施させると宣言しました。背景にあるのは、AIデータセンターによる凄まじい電力消費と、それが一般家庭に与える影響です。ChatGPTのような大規模言語モデルを動かすには膨大な電力と冷却水が必要で、これらを支えるために全米の電力網は悲鳴を上げています。一部の地域では、データセンターへの供給を優先した結果、あるいはインフラ整備コストが転嫁された結果、一般家庭の電気代や水道代が上昇するという懸念が現実のものとなりつつあります。トランプ政権はこれまで、「AIにおける米国の優位性」を維持するために、データセンター建設の規制緩和を推し進めてきました。しかし、中間選挙を控えた今、有権者の生活費高騰を放置することはできません。そこで白羽の矢が立ったのが、AIブームの筆頭格であるMicrosoftです。具体的な「変更」の中身はまだ明らかにされていませんが、一般の送電網に負担をかけないよう、企業側が自前で発電所を用意するか、あるいは一般家庭とは明確に区別された「プレミアム料金」を支払う形になると予想されます。トランプ氏は「彼らは自分たちで支払うべきだ(pay for it themselves)」と明言しており、テック企業にとってはコスト構造を見直す大きな転換点となるでしょう。Microsoftがこの要求を呑めば、AmazonやGoogleといった他のハイパースケーラーも追随せざるを得ません。AI開発競争はこれまで「速さ」と「賢さ」の勝負でしたが、これからは「いかに地域社会に迷惑をかけずに電気を確保するか」という、より政治的な能力が問われるフェーズに入ったと言えそうです。
OpenAIが医療分野への進出を発表した直後、今度はAnthropicが大きな一手を打ちました。2026年のJ.P.モルガン・ヘルスケア・カンファレンスに合わせて発表されたのは、「Claude for Healthcare」およびライフサイエンス向け機能の大幅な拡張です。これまでも医療現場でのAI活用は進んでいましたが、今回の発表で特筆すべきは「つながる力」です。新しいClaudeは、単に医学知識を答えるだけでなく、実際の医療データベースと直接コネクトします。 例えば、米国の公的医療保険であるCMSのデータベースや、病名分類の国際規格であるICD-10、さらにはPubMedのような論文データベースにアクセスし、医師が保険請求の事前承認を行う際の書類作成を自動化したり、最新の臨床試験データに基づいた治療方針の提案を行ったりすることが可能になります。また、私たち一般の患者にとっても大きな変化があります。米国の「Claude Pro」ユーザーなどは、自分のApple HealthやウェアラブルデバイスのデータをClaudeに連携できるようになります。これにより、「最近の心拍数の変動と、先週の血液検査の結果を照らし合わせて、気をつけるべきことを教えて」といった、極めてパーソナルで具体的な健康相談が可能になるのです。もちろん、ここで一番の懸念となるのはプライバシーですが、Anthropicは「データはモデルの学習には使われない」と明言しており、HIPAA準拠の堅牢なセキュリティを売りにしています。 すでに製薬大手のPfizerでは、Claudeを導入して研究者の単純作業を劇的に減らし、新薬開発のスピードアップに成功しています。 「ChatGPT Health」と「Claude for Healthcare」。2026年は、この二つの巨頭が、私たちの健康と医療の在り方を根本から変えていく「医療AI元年」として記憶されることになるでしょう。
2026年のCESで、エネルギー業界の未来を左右するかもしれない、ある「最強のタッグ」が発表されました。核融合スタートアップの雄であるCommonwealth Fusion Systems(CFS)が、AIの王者NVIDIA、そして産業オートメーションの巨人Siemensと手を組み、核融合炉の「デジタルツイン」を構築すると宣言したのです。核融合発電は「地上の太陽」とも呼ばれ、夢のエネルギーとされていますが、実現へのハードルは極めて高いことで知られています。1億度を超えるプラズマを制御し、マイナス253度の極低温で磁石を稼働させる──そんな極限環境での実験は、一回一回が巨額のコストと時間を要する「一発勝負」になりがちです。そこで彼らが考えたのが、「デジタル空間にもう一つの核融合炉(デジタルツイン)を作ってしまおう」という発想です。 Siemensが持つ設計・エンジニアリングの膨大なデータを、NVIDIAの「Omniverse」というプラットフォーム上で統合し、物理法則に基づいた完璧なシミュレーション環境を構築します。これにより、CFSのボブ・マムガードCEOいわく、「数年かかる手作業の実験を、数週間の仮想最適化に短縮できる」ようになるそうです。失敗が許されない核融合炉の建設において、このスピードアップは革命的と言えます。また、今回のニュースはデジタルの話だけではありません。CFSは同時に、マサチューセッツ州で建設中の実証炉SPARCに、最初の「高温超伝導磁石」を設置したことも発表しました。この磁石は一つで24トンもあり、航空母艦を持ち上げられるほどの磁力を持っています。これを最終的に18個並べて、プラズマを閉じ込める檻を作るわけです。 デジタルで実験を繰り返し、リアルで着実に建設を進める。この「原子(リアル)」と「ビット(デジタル)」の両輪が噛み合ったことで、2030年代初頭の商用化というゴールが、いよいよ現実味を帯びてきました。
モバイル業界における「ベルリンの壁」が、ついに崩れたのかもしれません。2026年1月12日、長年のライバルであるAppleとGoogleが、AI分野における複数年の包括的提携という、歴史的な共同声明を発表しました。このニュースの核心は、iPhoneの中枢である「Apple Intelligence」と「Siri」の次世代基盤として、Googleの「Gemini」が正式採用されたという点です。Appleは声明の中で、「慎重な評価の結果、GoogleのAI技術が私たちの基盤モデルにとって最も有能であると判断した」と明記しています。これは、自前主義を貫いてきたAppleが、AIという最重要技術において事実上、Googleの優位性を認めたことを意味し、業界に衝撃を与えています。具体的には、今年後半にアップデートされる新しいSiriは、GeminiのモデルとGoogleのクラウド技術をベースに構築されます。これにより、文脈理解や複雑なタスク処理能力が飛躍的に向上することが期待されます。ここで懸念されるのがプライバシーですが、両社は「Private Cloud Compute」の仕組みを維持することを強調しています。つまり、処理能力としてGoogleの“筋肉”を使いつつ、データの制御権という“神経”はAppleが握り続ける、という巧みな棲み分けです。この提携の背景には、先行するOpenAIへの対抗意識も見え隠れします。AppleはこれまでChatGPTとの連携を進めてきましたが、OSの根幹に関わる「基盤モデル」のパートナーとしてGoogleを選んだことで、OpenAIは最大の顧客チャネルの一つにおいて、主役の座を追われる形となります。検索エンジンでの提携に続き、AIでも「Google × Apple」という最強のタッグが成立したことで、2026年のテクノロジー業界の勢力図は完全に塗り替わろうとしています。
「AIとチャットする」という時代が、いよいよ終わりを告げようとしているのかもしれません。Anthropicは2026年1月12日、AIがあなたのPCの中で直接仕事をしてくれる新機能「Cowork」を、macOS版Claudeアプリのユーザー向けに公開しました。これまで、私たちはAIに何かを頼むとき、ファイルをアップロードして「これを要約して」とお願いし、出来上がったテキストをコピーして自分のワードファイルに貼り付ける……といった作業をしていました。しかし、この「Cowork」は違います。 例えば、領収書の画像が散乱したフォルダをClaudeに見せて、「これを整理して経費精算書を作っておいて」と頼むだけでいいのです。Claudeは自律的にフォルダの中身を読み取り、ファイル名を日付順にリネームし、Excelファイルを作成して金額を入力する──これら一連の作業を、まるで隣の席にいる優秀なアシスタントのように完遂してくれます。この機能の裏側には、実はエンジニア界隈で熱狂的な支持を集めていた「Claude Code」という技術があります。これはプログラマーが「バグを直して」と言うだけで、AIが勝手にコードを修正してくれるツールでしたが、Coworkはいわばその「一般ビジネスパーソン版」です。黒い画面(ターミナル)を使わなくても、誰もがこの強力な自律型AIの恩恵を受けられるようになったのです。もちろん、AIが勝手にファイルをいじることへの不安もあるでしょう。そのため、Coworkは指定したフォルダ以外には一切触れない「サンドボックス」構造になっており、重要なファイルを削除するような大きな操作の前には必ず人間に許可を求めるよう設計されています。 競合のOpenAIも「Operator」という同様のエージェント機能を準備していると噂されていますが、Anthropicは「Claude Code」での実績を武器に、一足先に「AIをデスクトップに住まわせる」という未来を現実にしました。 これからは、面倒な事務作業はすべて「彼」に任せて、私たちは人間にしかできない創造的な仕事に集中する──そんな働き方が当たり前になる日が来たのかもしれません。
今週末、AI業界と数学界を揺るがすニュースが飛び込んできました。Neel Somani氏が、最新のAIモデル「GPT-5.2 Pro」を用いて、長年の未解決問題であった「エルデシュ問題 #397」の証明に成功したのです。この問題は、二項係数に関する特定の方程式に無限の解が存在するかどうかを問うものでした。GPT-5.2 Proはこの難問に対し、単に答えを出しただけではありません。検証ツール「Harmonic」と連携することで、AIが生成した証明を数学的検証言語「Lean」で記述し、論理的な穴がない状態にまで仕上げたのです。そして、このAIによる証明を正式に「受理」したのが、現代最高の数学者の一人、テレンス・タオ氏です。2025年10月に話題になったGPT-5の事例では、既存の文献を見つけ出しただけというオチがありましたが、今回のケースについてタオ氏は「AIによるオリジナルの証明である」と認めています。ただし、タオ氏は冷静な分析も加えています。今回解かれた問題は、標準的な手法で解決可能な「低い枝の果実(low hanging fruit)」であり、数学的な深いブレイクスルーではないとしています。実際、GPT-5.2は競技数学レベルでは77%の正答率を誇りますが、未知の洞察を要する研究レベルの課題ではまだ25%程度の成功率にとどまるとのことです。しかし、これは知識労働における歴史的な転換点と言えます。AIが「パタンマッチング」を超え、自律的に論理を組み立てる「推論・証明」のフェーズに入ったことを意味するからです。今後6〜12ヶ月の間に、残る660以上のエルデシュ問題に対して、GoogleやAnthropicの競合モデルを含めたAIたちがどのように挑んでいくのか、そしてそれが契約実務やエンジニアリングといったビジネス領域にどう波及していくのか、非常に楽しみな展開となりました。
「これからは、AIがあなたのお財布を持って、買い物に出かけるようになります」──そんな未来がいよいよ現実味を帯びてきました。Googleは2026年1月11日、AIエージェントがWeb上のあらゆるECサイトでスムーズに商取引を行うための新しいプロトコルを発表しました。これまでも、AIにおすすめの商品を聞くことはできました。しかし、「それを買っておいて」と頼むと、AIは途端に困った顔(……はしませんが、挙動不審に)なっていました。なぜなら、Amazon、楽天、Shopifyで作られた個人店など、サイトごとにログイン方法も、カートの仕組みも、決済の手順もバラバラだったからです。AIにとって、最後の「購入ボタンを押す」ハードルは非常に高かったのです。今回Googleが発表したプロトコルは、この複雑な手続きを標準化するものです。Googleが持つ圧倒的な商品データベース「Shopping Graph」と連携し、AIエージェントは商品の在庫確認から、配送先住所の入力、そして決済処理までを、統一された「共通言語」で行えるようになります。これにより、ユーザーは「来週のキャンプ用に、4人用のテントと寝袋を予算5万円以内で揃えておいて」と一言伝えるだけで、AIが複数のサイトを横断して最安値の組み合わせを探し、それぞれのサイトで決済まで完了させることが可能になります。周辺情報として見逃せないのが、競合の動きです。実はOpenAIも同様の「Agentic Commerce Protocol」を提唱しており、Shopifyなどと連携を進めていました。しかし、Googleには「検索」という圧倒的な入り口と、すでに数多くのECサイトと連携しているShopping Graphという資産があります。 Googleはこのプロトコルをオープンにし、自社のGeminiだけでなく、他社のAIエージェントにも開放する姿勢を見せています。これは、AIコマースのインフラをGoogle基準で統一してしまおうという、同社の強い意志の表れと言えるでしょう。店舗側にとっても、このプロトコルに対応することで、人間の客だけでなく、24時間365日働き続ける「AIの客」を呼び込めるようになります。ECサイトは今後、「人間が見て楽しいデザイン」だけでなく、「AIが読みやすい構造」であることが求められる時代になりそうです。
Web開発の現場で「これがないと仕事にならない」と言われるほど普及しているツール、Tailwind CSS。その開発元が、実は存続の危機に瀕していたことをご存知でしょうか。今回は、AI時代のオープンソースビジネスが直面した「不都合な真実」と、そこから生まれた新たな連帯の物語について解説します。事の発端は2026年1月初旬、Tailwind CSSの開発元であるTailwind Labsが、エンジニアリングチームの75%を解雇するという衝撃的なニュースでした。 なぜ、これほど人気のあるツールが経営難に陥ったのか。CEOのアダム・ワッサン氏が明かした理由は、あまりにも現代的で、皮肉なものでした。「AIの台頭」です。これまで、開発者たちはTailwind CSSの公式サイトにあるドキュメント(説明書)を見ながらコードを書いていました。運営側は、そのサイトへのアクセスを基盤に、有料のテンプレートやUIキットを販売して収益を得ていたのです。 しかし、ChatGPTやClaudeといった生成AIが優秀になりすぎました。開発者がAIに「いい感じのデザインのコードを書いて」と頼めば、AIはTailwindのドキュメントを学習した知識を使って、完璧なコードを提示してくれます。その結果、誰も公式サイトを見に行かなくなり、収益モデルが崩壊してしまったのです。「自分たちのツールはかつてないほど使われているのに、ビジネスは死につつある」。このアダム氏の悲痛な告白は、瞬く間にテック業界を駆け巡りました。しかし、ここからドラマが動きます。この窮状を知ったシリコンバレーの企業たちが、次々と「私たちが支える」と名乗りを上げたのです。 真っ先に手を挙げたのは、皮肉にもAI開発環境を提供する「Google AI Studio」でした。製品責任者のローガン・キルパトリック氏は即座にX(旧Twitter)でスポンサー就任を宣言。AIによって危機に陥ったOSSを、AIプラットフォームが資金面で支えるという、象徴的な構図が生まれました。この動きに呼応するように、バックエンドサービスの「Supabase」や、コンテンツ販売の「Gumroad」、人気ポッドキャストの「Syntax」など、多くの企業がスポンサーに加わりました。アダム氏は「過去24時間のサポートに圧倒されている」と感謝を述べ、組織のスリム化と新たな支援によって、経営自体は安定を取り戻したと報告しています。今回の出来事は、AIが既存のビジネスモデルを破壊する恐ろしさと、それを補うコミュニティの絆の強さの両方を示しました。「AIが知識をタダ乗りする」という構造的な問題は解決していませんが、エコシステム全体で重要なツールを守ろうとする動きは、これからのOSSの在り方に一つの希望の光を灯したと言えるでしょう。
インターネットの「自由」と「規制」を巡る戦いが、イタリアで新たな局面を迎えました。イタリアの通信規制当局AGCOMは、米ITインフラ大手のCloudflareに対し、約1420万ユーロ、日本円にしておよそ26億円の罰金を科したと発表しました。事の発端は、イタリアが国を挙げて取り組んでいる海賊版対策です。サッカーなどのスポーツ中継を違法に配信するサイトを撲滅するため、イタリア政府は「Piracy Shield(パイラシー・シールド)」と呼ばれるシステムを導入しています。これは、違法サイトが見つかると、インターネット接続業者に対して「30分以内」にそのアクセスを遮断させるという非常に強力な仕組みです。AGCOMはCloudflareに対し、同社が提供するDNSサービス「1.1.1.1」においても、これらの違法サイトへのアクセスをブロックするよう命じました。しかし、Cloudflareはこの要求を拒否し続けてきました。 Cloudflare側の主張は明確です。「DNSリゾルバはインターネットの電話帳のようなものであり、特定の番号への通話を遮断するような検閲機能を持つべきではない」というものです。さらに、マシュー・プリンスCEOは「イタリアでの売上が800万ドル程度しかないのに、全世界の売上を基準に罰金を計算するのは不当だ」と強く反発。自身のX(旧Twitter)で「イタリア国外のユーザーが何を見るかまで、イタリア政府が決める権利はない」と述べ、サービス自体のイタリア撤退すら示唆しています。このニュースは単なる一企業の罰金問題にとどまりません。技術者やプライバシー擁護派からは、特定の国がグローバルなDNSシステムの挙動をコントロールしようとすることへの懸念の声が上がっています。一方で、コンテンツ産業側からは、Cloudflareのようなプラットフォーマーが隠れ蓑になって海賊版被害が拡大しているという批判も根強くあります。イーロン・マスク氏もCloudflare支持を表明するなど、テック業界全体を巻き込んだ論争に発展しつつあるこの問題。欧州で強まるネット規制と、米国テック企業の自由を重んじる文化の衝突として、今後の裁判の行方が注目されます。
「AIの進化を止めるのは、計算能力ではなく“電気”かもしれない」──そんな懸念に対する一つの回答が、今日発表された大型投資です。OpenAIとソフトバンクグループが、米国の再生可能エネルギー企業「SB Energy Global」に対し、共同で10億ドル(約1500億円)を出資することが明らかになりました。Bloombergによると、この巨額資金の使い道は非常に明確です。OpenAIが進める超巨大スーパーコンピュータ計画「Stargate」への電力供給です。「Stargate」は、将来のAGI(汎用人工知能)を実現するために不可欠とされるプロジェクトですが、最大の課題はその消費電力でした。計画では最終的に5ギガワット、つまり原子力発電所5基分という途方もない電力が必要とされています。これほどの負荷を既存の送電網にかければ、地域の停電を招きかねません。そこで白羽の矢が立ったのが、ソフトバンクグループのSB Energyです。同社はテキサス州やカリフォルニア州ですでに大規模な太陽光発電所を運営しており、Googleなどとも取引実績があります。今回の出資により、SB EnergyはStargate専用の太陽光パネルと蓄電池を大量に配備し、いわば「データセンターのための専用発電所」を構築することになります。孫正義氏は以前から「AI革命には半導体とエネルギーの両輪が必要だ」と語ってきましたが、今回の動きでそのパズルが完成に近づきました。傘下のArmや自社開発チップ「イザナギ」で“頭脳”を作り、SB Energyでその“食料(電気)”を賄う。ソフトバンクはAIインフラのすべてを垂直統合で支える立ち位置を確立しようとしています。OpenAIにとっても、サム・アルトマンCEOが以前から警告していた「エネルギー不足」を、最も信頼できるパートナーと共に解消へ向かわせる決定的な一手となります。シリコンバレーの競争は、ついにコードを書く速さだけでなく、土地と太陽を確保する速さの勝負になってきたようです。
2026年1月9日、香港証券取引所は熱狂に包まれました。中国の生成AIユニコーン「MiniMax」がついに上場を果たし、その株価は公開価格の2倍近くまで急騰するという、近年稀に見るロケットスタートを切ったからです。前日に上場した競合のZhipu AI(智譜AI)が堅実な滑り出しだったのに対し、MiniMaxへの市場の反応は「熱狂」そのものでした。一般投資家向けの申し込み倍率は1800倍を超えたと報じられており、投資家がいかにこの「エンタメAIの雄」に飢えていたかが分かります。なぜ、これほど注目されたのでしょうか。最大の要因は、MiniMaxが単なる技術屋ではなく、「稼げるAI」を証明しつつある点にあります。彼らの主力アプリ「Hailuo(海螺)」は、動画生成やキャラクター対話機能を通じて、中国国内だけでなく海外ユーザーの心も掴んでいます。実際、収益の7割近くが海外からというデータもあり、内需頼みではないグローバルな競争力が評価されました。また、株主構成もユニークです。AlibabaやTencentといった巨大テック企業に加え、あの『原神』で知られるゲーム会社miHoYoが初期から強力にバックアップしています。ゲームとAI、つまり「没入感のあるコンテンツ」を作ることへの執念が、投資家の期待値を押し上げました。もちろん、財務諸表を見れば、研究開発費による赤字はまだ続いています。しかし、米国による半導体規制という逆風の中で、中国のAI企業がこれだけの評価額でIPOを成功させた事実は、業界全体にとって大きな自信となるでしょう。2026年は、中国AI企業が研究室から飛び出し、資本市場で真価を問われる「実利の年」になりそうです。
Googleが公式ブログで宣言した通り、Gmailはいよいよ本格的な「Gemini時代」へと突入しました。これは単なる機能追加ではなく、私たちが20年間続けてきた「メールボックスを開いて、読んで、返信する」というルーティンそのものを再定義するアップデートです。最大の変化は、PC版Gmailの右側に常駐するようになった「Geminiサイドパネル」です。これまでは、過去のメールを探すために検索窓にキーワードを打ち込み、大量の検索結果から目視で目的のメールを探す必要がありました。しかしこれからは、サイドパネルのGeminiに「先週のプロジェクトXに関するメールから、未解決の課題をリストアップして」と頼むだけで済みます。Geminiはスレッドを横断して読み込み、要点をまとめ、アクションアイテムを提示してくれます。モバイル版の進化も見逃せません。スマホで長文のメールを受け取った際、画面上部の「要約」ボタンをタップすれば、Geminiが瞬時に内容をサマライズしてくれます。さらに「Contextual Smart Reply」機能を使えば、相手のメールの内容を踏まえた、驚くほど自然な返信案を数パターン提示してくれます。私たちはそれを編集して送信ボタンを押すだけ。移動中のメール処理速度が劇的に向上します。そして、この統合の真価は「Googleエコシステム全体」との連携にあります。Gmailのサイドパネルから、Google Driveにある資料を参照したり、メールの内容を基にGoogleカレンダーへ予定を入れたりといった操作が、アプリを切り替えることなくシームレスに行えます。MicrosoftのCopilotがOutlookとOfficeを連携させているのと同様に、GoogleはWorkspace全体のデータをGeminiという一つの窓口で繋げようとしています。「メールを処理する時間」を人生から削減し、より創造的な業務に時間を割く。Geminiが搭載された新しいGmailは、そのための強力なパートナーとなるでしょう。
AIの進化において「速度」は単なる利便性ではなく、新たな可能性を切り拓く鍵になります。ウェハスケールチップで知られる米Cerebras Systemsが、中国Zhipu AIの最新モデル「GLM-4.7」のサポートを開始したというニュースが入ってきました。これまでもCerebrasは、MetaのLlamaシリーズなどを驚異的なスピードで動かしてきましたが、今回サポートされた「GLM-4.7」は、特にプログラミングや複雑な推論に強いモデルです。通常、これほど巨大なモデル(3550億パラメータ)を動かすには重厚なGPUクラスタが必要で、回答が返ってくるのにもそれなりの時間がかかります。しかし、Cerebrasのプラットフォーム上では、このGLM-4.7が「毎秒1000トークン」を超える速度で動作します。これは、人間が目で追うのが不可能なほどの速さでテキストが生成されることを意味します。GPUベースの一般的なクラウドサービスと比較しても、桁違いのスピードです。なぜこの速度が重要なのでしょうか? それは、AIを使ったソフトウェア開発──いわゆる「コーディングエージェント」の体験を劇的に変えるからです。 開発者がAIに複雑なプログラムを書かせる際、AIはコードを書き、テストし、エラーが出れば修正するという試行錯誤を繰り返します。推論速度が速ければ、この「思考と修正のループ」を一瞬で回すことができ、AIは人間がコーヒーを一口飲む間に何十通りものパターンを検証し、最適なコードを提示できるようになります。「GLM-4.7」は、コーディング性能のベンチマークで高いスコアを記録しており、Cerebrasの圧倒的な速度と組み合わさることで、開発者の強力なパートナーになると期待されています。米国の最先端ハードウェアの上で、中国の最先端ソフトウェアが動く。技術の世界では、国境を超えたこうした「適材適所」の統合が、ユーザーに最大の利益をもたらすことがよくあります。
昨日の日経新聞に、非常に感慨深いニュースが載っていましたね。ソフトバンクグループ傘下の英Armが、AIデータセンター向けのCPU市場で、ついにシェア5割に達したというのです。少し前まで「Armといえばスマホの会社」というイメージでしたが、ここ数年でその姿は劇的に変わりました。AWSやMicrosoftといった巨大クラウド事業者が、自社専用のチップをこぞってArmベースで開発し始めたことが大きな要因です。IntelやAMDといった長年の巨人を相手に、わずか5年余りでシェアの半分を奪うというのは、まさに歴史的な転換点と言えるでしょう。この躍進の背景にあるのは、やはり「省電力」です。AIの普及でデータセンターの電力消費が社会問題になる中、Armの「少ない電力で高い処理能力を出す」という強みが、時代の要請と合致したんですね。2025年10月に発表されたMeta(メタ)との提携も、この流れを決定づける大きな一手となりました。しかし、孫正義氏が見ているのは、もっと先の未来のようです。記事によると、Armは設計図を売るだけでなく、自社ブランドの半導体「イザナギチップ」の開発に乗り出します。ここで注目したいのが、ソフトバンクグループの一連の動きです。2024年に買収したAIチップ企業のGraphcore(グラフコア)に加え、サーバー向けCPUを手掛けるAmpere Computing(アンペア)も傘下に収めました。これにより、設計図(Arm)、AIアクセラレータ(Graphcore)、サーバーCPU(Ampere)という、AIインフラに必要な駒が全て手元に揃ったことになります。かつて孫氏が「囲碁で言えば50手先の布石」と語ったビジョンが、垂直統合型のAI半導体メーカーとして、いよいよ現実の形になりつつあります。もちろん、自社でチップを作ることは、これまでの顧客と競合するリスクも孕んでいます。それでも「AIにオールインする」という孫氏の覚悟が、Armを新たなステージへと押し上げているようですね。
ついに、OpenAIが「医療」の聖域に本格的な一歩を踏み出しました。OpenAIは2026年1月7日、新機能「ChatGPT Health」を発表し、ユーザーの健康データをAIが直接サポートするサービスの提供を開始しました。これまでもChatGPTに健康相談をするユーザーは多く、週に2億3000万人以上が何らかのウェルネスに関する質問をしていたと言われています。しかし、これまでのChatGPTはあくまで一般的な知識を返すだけでした。今回発表された「ChatGPT Health」が画期的なのは、皆さんの手元にあるiPhoneの「ヘルスケア(Apple Health)」や、食事管理アプリの「MyFitnessPal」、さらには医療機関の電子カルテデータと安全に連携できる点です。例えば、健康診断の結果PDFを読み込ませて「この数値が高いと何が悪いの?」と聞くだけでなく、日々の歩数や睡眠データと照らし合わせて、「最近運動不足だから血糖値のリスクが上がっていますよ」といった、あなた個人のデータに基づいた具体的なアドバイスがもらえるようになるわけです。ここで一番気になるのはプライバシーですよね。「自分の病歴がAIの学習に使われてしまうのではないか」という不安です。OpenAIもそこは徹底しており、ChatGPT Health内での会話やアップロードされたデータは、AIモデルのトレーニングには一切使用されないと明言しています。また、開発には260名以上の医師が参加し、60万回以上のフィードバックを経て安全性を高めているとのことです。市場の視点で見ると、これはGoogleが進める「Fitbit × Gemini」の医療AI戦略への強力な対抗馬となります。欧州などプライバシー規制の厳しい地域ではまだ提供されませんが、まずは米国などのユーザー向けにウェイトリストが公開されました。 かつて「検索」して調べていた病気の症状を、これからは「自分のデータを知っているAI」に相談する。そんな“かかりつけAI”の時代が、いよいよ現実のものとなりそうです。
2026年のCES、ラスベガスの会場は、ある一言によって静まり返り、そして即座に市場を揺り動かしました。NVIDIAのジェンスン・ファンCEOが次世代チップ「Rubin(ルービン)」の技術詳細を語る中で放った、「データセンターにチラー(冷却装置)はもはや不要になる」という発言です。この発言の背景には、データセンターの「熱」を巡る技術的なパラダイムシフトがあります。従来のAIデータセンターでは、発熱するGPUを冷やすために、チラーと呼ばれる巨大な冷凍機を使って水を10度前後までキンキンに冷やし、それをサーバーに循環させる必要がありました。これには莫大な電力が必要です。しかし、今回発表された「Rubin」プラットフォームは、45度という「お風呂のお湯」よりも熱い温水での冷却動作を前提に設計されています。半導体自体が熱に強くなり、冷却システムが「Direct Liquid Cooling(直接液冷)」に最適化されたことで、わざわざ電気を使って水を冷やさなくとも、屋外の空気で水を冷ます「ドライクーラー」だけで十分に熱を処理できるようになったのです。この技術革新は、データセンターの建設コストと運用コストを劇的に下げる「福音」ですが、既存の空調機器メーカーにとっては「悪夢」です。これまで必須とされていた高価なチラーが不要になるため、米国の空調大手ジョンソン・コントロールズやモディーン、そして日本のダイキン工業といった関連銘柄が軒並み急落するという事態を招きました。一方で、AIの進化は止まりません。「Rubin」のような超高性能チップが稼働すれば、そこで処理されるデータ量は爆発的に増大します。そのデータを保存するための「記憶装置(ストレージ)」の需要も跳ね上がるという連想から、NANDフラッシュメモリを手掛ける米サンディスクや日本のキオクシアの株価は逆に急騰しています。ジェンスン・ファン氏のたった一声で、不要になる産業と、新たに必要とされる産業が残酷なまでに選別された今回のCES。AIインフラの主役が「冷却」から「効率」へと完全にシフトした瞬間を、私たちは目撃したのかもしれません。
2026年の幕開けを告げるテクノロジーの祭典「CES 2026」にて、NVIDIAのジェンスン・フアンCEOがまたしても業界を揺るがす発表を行いました。それが、自律走行車の開発を根本から変える新プラットフォーム「Alpamayo(アルパマヨ)」です。これまで、自動運転AIの開発における最大の課題は「ブラックボックス化」でした。AIが急ブレーキを踏んだとき、それが誤作動なのか、人間には見えない危険を察知したのか、エンジニアですら即座には判断できないことが多かったのです。しかし、今回発表されたAlpamayoは違います。Alpamayoの中核となるAIモデルは、人間のように「推論」を行います。Web検索による周辺情報によると、このシステムは「VLAモデル」と呼ばれる技術を採用しており、カメラの映像を見て「子供がボールを追って飛び出す可能性があるため、減速して左に寄る」といった具合に、判断のプロセスを言語化することができます。これを「Chain-of-Thought(思考の連鎖)」と呼びますが、クルマが自分の運転理由を人間に説明できるようになることで、安全性と信頼性が劇的に向上すると期待されています。フアンCEOはこの進化を「物理AIにおけるChatGPTの瞬間」と表現しました。生成AIが言葉を操れるようになったように、自動運転車が物理世界の理屈を理解し始めたのです。さらに驚くべきは、NVIDIAがこの強力なモデルやシミュレータ、そして1700時間分もの走行データをオープンソースとして公開した点です。これには、開発リソースで劣るスタートアップや、独自OSの開発に苦戦する従来の自動車メーカーをNVIDIAのエコシステムに巻き込む狙いがあります。すでにメルセデス・ベンツが次期車種での採用を決めており、日本の自動車メーカーにとっても、この「配布された最強の脳」をどう使いこなすかが、2026年の競争優位を左右することになりそうです。
2026年、日本のIT業界の盟主がついに「開発の自動化」へ大きく舵を切りました。NTTデータグループが、今年度中にシステム開発のほぼ全工程を生成AIに担わせる「AIネーティブ開発」を本格導入すると発表しました。これまでのAI活用といえば、プログラマーがコードを書くのをAIが横から手助けする「副操縦士(コパイロット)」のような関係が主流でした。しかし、今回NTTデータが目指すのは、AIが「主操縦士」となり、人間はその監督に回るという完全な主従逆転です。具体的には、顧客が「こんなシステムが欲しい」と要望を投げると、AIがそれを分析して設計図なしでいきなりプログラムを書き上げます。人間が行うのは、AIが作ったものが正しいかどうかの「点検」や、微調整の指示出しだけ。これにより、従来のような詳細な設計書を作る膨大な時間をカットし、開発効率を2030年までに5割向上させる計画です。Web検索による周辺情報によると、この動きは世界的なトレンドとも合致します。米調査会社ガートナーは、2026年の戦略的技術として「AIによるソフトウェアエンジニアリング」を挙げており、エンジニアの役割が「コーディング(書くこと)」から、AIエージェントを指揮する「オーケストレーション(指揮すること)」に変わると予測しています。また、クラウド最大手のAWSも、自然言語だけでアプリを作れる「AWS App Studio」のようなサービスをいち早く投入し、開発の民主化を加速させています。しかし、この変革は業界にとって「痛み」も伴います。日本のSIer(システムインテグレータ)業界は長らく、エンジニアの頭数と作業時間を切り売りする「人月商売」で収益を上げてきました。AIが瞬時に仕事を終わらせてしまう時代において、時間を売るビジネスモデルは崩壊し、これからは「どれだけの価値を生み出したか」で対価が決まる成果報酬型への転換を迫られることになるでしょう。2026年は、日本のIT業界にとって「労働集約型モデル」からの脱却元年となるのか、それとも現場の混乱が深まるのか。NTTデータの巨大な実験に、全業界の視線が注がれています。
2026年、スマートフォン市場におけるAI戦争は新たな局面を迎えています。The Informationの記事や周辺の業界動向によると、GoogleとSamsungのパートナーシップが、Appleに対して決定的な「構造的優位」を築きつつあることが鮮明になってきました。昨年末から今年にかけて、Appleは自社のAI機能「Apple Intelligence」の展開遅延に苦しんでいます。完全な機能実装が2026年中にずれ込む中、Googleはこの隙を見逃しませんでした。長年のパートナーであるSamsungとタッグを組み、最新鋭のAIモデル「Gemini 3」を、Samsungのフラッグシップ機であるGalaxyシリーズに深く統合させたのです。この提携の最大の強みは「スピードと規模」です。Samsungは自社開発のチップ「Exynos 2600」で端末側の処理能力を底上げし、Googleはそこに最高峰のAIモデルを供給する。この分業により、Android陣営は「ハードウェアとソフトウェアの融合」という、かつてAppleが独占していたお家芸を、より速いサイクルで実現してしまいました。さらに重要なのが「データ」です。Samsungが世界中に抱える数億人のユーザーが、日々Geminiを利用することで、GoogleのAIはAppleが追いつけないほどの速度で学習し、進化を続けています。記事では、Appleが独自モデルにこだわりつつも、結局はGoogle Geminiなどの他社モデルを取り込まざるを得ない状況(ハイブリッド戦略)に追い込まれている点も指摘されています。2026年は、iPhoneが「ただの便利なスマートフォン」に留まるのか、それとも巻き返すのか。対するAndroid陣営は、GoogleとSamsungという二人の巨人が背中を預け合うことで、盤石のAIエコシステムを完成させようとしています。
loading
Comments