
こんにちは、キクです。
本記事では、僕が今週読んだIT系のニュースについて「振り返り」と「まとめ」を目的として整理していきます。
本記事の内容
- 記事1:デル、Gaudi 3 PCIe アクセラレーター搭載「Dell PowerEdge XE7740」サーバ提供開始
- 記事2:AIの「フェッチャー」と「クローラー」がWebインフラに負荷 ファストリーが警鐘
- 記事3:自社データセンターの廃止 そのリスクとベストプラクティスを解説
- 記事4:「犬猿の仲」だったIBMと富士通のパートナーシップが意味すること
- 記事5:なぜ“SSD全盛”時代でも「HDD」どころか「テープ」まで消えないのか
- 記事6:モルゲンロット、九州エリアでコンテナ型データセンターの稼働を開始
- 記事7:NVIDIAがOpenAIに最大1,000億ドル(約15兆円)を出資、企業価値は5,000億ドルへ
- 記事8:NVIDIA フアンCEO「この投資は始まりに過ぎない」 OpenAIへの1000億ドル投資の狙い
- 記事9:OpenAIがスターゲート拡大、米国内で5カ所のデータセンター新拠点
- 記事10:MCデジタル・リアルティ、NRT12データセンターで水冷設備の試験運用を実施
- 記事11:「AIデータセンター・ブーム」で非テック企業も株価爆上がり。1年で50%上昇、史上最高値更新…注目すべき分野と企業(海外)
- 記事12:Broadcomが「第二形態」へ “脱VMware勢”を横目に同社が打ち出す戦略は?
- 記事13:【Copilot】GPT-5実装で“大進化”──知らないと損する「プロンプト」の“新常識”
記事1:デル、Gaudi 3 PCIe アクセラレーター搭載「Dell PowerEdge XE7740」サーバ提供開始

デルは、インテル Gaudi 3 アクセラレーターを最大8基まで搭載可能なAI向けサーバ「PowerEdge XE7740」を発表した
高密度かつ柔軟な構成により、多様なAIワークロードへの対応力とデータセンターとの高い親和性を備えている
製品の概要
「PowerEdge XE7740」は、高い拡張性とアクセラレーション性能を持つ4Uラックマウント型サーバである
- PowerEdge Rシリーズの統合性とXEシリーズの性能・拡張性を融合
- 最大8基のダブルワイドPCIeアクセラレーターを搭載可能
- Gaudi 3を用いた高速AI処理向けに最適化
アクセラレーター構成とネットワーク
高帯域・高効率なネットワーク設計によりAI性能を最大限に引き出す
- 4基×2グループ構成でブリッジ接続に対応
- RoCE v2により最大1200GB/sのスループットを実現
- 8つのフルハイトPCIeスロットとOCPモジュールによる柔軟なネットワーク設計
冷却と電力設計
既存データセンター環境での運用性と効率性を重視した設計となっている
- 「Dell Smart Cooling」により空冷ラックへのシームレスな統合を実現
- 最大10kWラックにも対応し、追加の電力・冷却設備投資を不要とする
- 高密度設計でも高パフォーマンスと信頼性を両立
AIワークロード対応力
多様な業界のAIユースケースを想定した高度なワークロード適応性を持つ
- LLMの推論やファインチューニング、画像・音声認識などに対応
- 医療・金融・小売などの分野でリアルタイム処理に貢献
- PyTorchやHugging Faceとの統合により柔軟なAI開発環境を提供
おわりに
PowerEdge XE7740は、次世代AIインフラに求められる高性能・高密度・高効率の要件を満たすサーバである
Gaudi 3の性能を引き出す柔軟な構成と、既存環境との親和性を両立した設計により、エンタープライズAIの実運用を強力に支える製品であると言える
デル、Gaudi 3 PCIe アクセラレーター搭載「Dell PowerEdge XE7740」サーバ提供開始
記事2:AIの「フェッチャー」と「クローラー」がWebインフラに負荷 ファストリーが警鐘

WebトラフィックにおけるAI botの存在感が高まる中、特に「フェッチャーbot」や「クローラーbot」がWebインフラに重大な負荷を与えていることが明らかになった
ファストリーはこの状況に対し、悪意がないbotであってもDDoS攻撃に近い影響を及ぼす可能性があると警鐘を鳴らしている
AI botの内訳
AI botトラフィックの大部分は「クローラーbot」が占めている
- AI bot全体の約80%がクローラーによるトラフィック
- Metaのクローラーが52%で最多
- Googleが23%、OpenAIが20%と続く
フェッチャーbotの負荷
フェッチャーbotはリアルタイムでコンテンツ取得を行うため、高頻度アクセスが発生する
- ChatGPTなどが利用するフェッチャーbotが全体の約20%を占める
- 1分間あたり3万9000件以上のリクエストを送信
- Webサーバやネットワーク帯域に大きな負荷をかける
Webインフラへのリスク
AI botによるトラフィックは無意識のうちにWebインフラを圧迫しうる
- DDoS攻撃と似た影響を与える可能性がある
- 悪意のないbotでも大量アクセスによりサービス障害を招く懸念
- AIトラフィックの管理が今後の重要課題に
おわりに
AIサービスの普及により、クローラーbotやフェッチャーbotがWebインフラに新たな負荷要因となっている
これらは悪意を持たないトラフィックであっても、DDoSと同様のインフラ圧迫を引き起こすリスクがあるため、適切な管理体制と対応策の整備が急務である
AIの「フェッチャー」と「クローラー」がWebインフラに負荷 ファストリーが警鐘
記事3:自社データセンターの廃止 そのリスクとベストプラクティスを解説

企業におけるクラウド移行が進む中で、老朽化した自社データセンターの廃止は避けられない課題となっている
だが、廃止には多くのリスクと高度な専門性が伴うため、慎重な対応が求められる
データセンター廃止が迫られる背景
企業の戦略やコスト最適化の観点から、老朽化した施設の廃止が加速している
- クラウドやコロケーションの導入により、自社データセンターの役割が変化
- ガートナーは「廃止数が新設数の2倍に達する」と予測
- 統合や移行によって施設が陳腐化
- 専門人材の不足がリスクを増加させている
リスク評価と保護策の重要性
廃止に伴う業務影響を最小限にするには、包括的なリスク評価と事前対策が不可欠である
- 廃止目標と経営層の要件を結びつける必要がある
- 物理・デジタル双方の脆弱性を洗い出すことが鍵
- 緊急対応が必要な分野を優先的に特定
- クラウドやオフサイトのバックアップ確保が重要
- 企業のレジリエンス(回復力)強化につながる
求められる専門スキルと対応力
データサニタイゼーションや法令遵守など、特化した知識が必要とされる
- データ消去には専用装置やフォレンジック検証の知識が必要
- GDPRやWEEEなど規制対応力が求められる
- 監査に備えた詳細な文書作成スキルも重要
- プロジェクト管理やステークホルダー対応の能力も必要
- 配線や電源などインフラ面の専門知識も不可欠
- 有害物質処理には環境規制への理解が求められる
- 社内で賄えない場合は外部コンサルの活用が推奨される
コンプライアンス体制の整備
複雑な規制対応を乗り越えるには、専任チームによる継続的な監視体制が不可欠である
- コンプライアンスタスクフォースの設置が推奨される
- 法務との連携で法的リスクを軽減
- チェックリストによる自己点検と定期監査の実施
- 規制違反への迅速な是正行動が求められる
- 倫理的な姿勢を社内外に示す意義もある
日本における廃止の課題
国内ではデータセンターの稼働率が依然として高く、人材不足が障壁となっている
- 国内企業の7割が自社DCを運用中で老朽化が進行
- 意思決定に多くのステークホルダーが関与し複雑化
- IT人材不足により進行が困難なケースが多い
- 部門横断型タスクフォースの設置が必要
- IT資産の棚卸しが技術的負債の削減にも貢献
- 実行段階では各種コンプライアンス基準の遵守が必須
おわりに
データセンターの廃止は単なる設備撤去ではなく、企業全体を巻き込む戦略的なプロジェクトである
リスク評価からスキル確保、法的対応まで多岐にわたる課題を乗り越えるには、綿密な準備と横断的な協力体制が不可欠である
特に日本では、老朽化と人材不足が重なり、計画的な廃止を困難にしている現状がある
成功に導くには、段階的な対応と外部知見の積極的な活用が鍵となる
自社データセンターの廃止 そのリスクとベストプラクティスを解説
記事4:「犬猿の仲」だったIBMと富士通のパートナーシップが意味すること

長年「犬猿の仲」とされたIBMと富士通が、協業に向けた検討を開始した
この歴史的ともいえるパートナーシップの背景には、エージェンティックAIの登場による新たなIT基盤を巡る主導権争いが見え隠れする
協業の背景と対談の様子
トップ同士の親交から生まれた今回の協業検討は、社会貢献をキーワードにスタートした。
- 富士通の時田社長と日本IBMの山口社長がThink Japanで対談
- 両者の就任時期やSE出身という共通点が背景に
- 富士通の歴史や社会貢献の想いが語られた
協業検討の3領域
協業の検討対象は、今後のエンタープライズITの中核ともいえる3領域に及ぶ
1. AI分野
- 業種:業務特化型のAI開発と統合AI基盤の構築を検討
- 日本語LLMやAIガバナンス、AIオーケストレーションなどを融合
2. ハイブリッドクラウド分野
- モダナイゼーションやFinOpsの推進
- 自動化と法規制順守を前提としたシステム環境構築に向けた連携
3. ヘルスケア分野
- 医療データ利活用を見据えたデータプラットフォーム連携
- AI活用による社会課題解決の実現を目指す
両社の狙いと今後
本協業は、単なる一企業間の共創に留まらず、エージェンティックAIを軸にした次世代基盤の主導権争いを示唆している
- 日本ではSIやITサービスベンダーが主導権を握る可能性もある
- 山口氏は「主導権を握る意図はない」と語る一方で、明らかな構造変化の中で動いている
- IBMもAI分野で再び存在感を高めつつあり、富士通との連携によって影響力を強化できる可能性がある
おわりに
IBMと富士通という“かつての宿敵”が手を組むという出来事は、単なる驚きや和解の象徴では終わらない
今後のエージェンティックAI時代を見据え、エンタープライズIT基盤の主導権を巡る競争が激化する中、両社が連携する意味は極めて大きい
クラウドベンダー優位とされる状況に対抗し、日本企業の視点で社会課題解決に資する新たなモデルの創出を狙う姿勢が感じられる
真の勝負は、今後の協業の具体化と成果にかかっている
「犬猿の仲」だったIBMと富士通のパートナーシップが意味すること
記事5:なぜ“SSD全盛”時代でも「HDD」どころか「テープ」まで消えないのか

SSDは性能面で優れているが、HDDおよびテープがいまだに残っている理由と用途の使い分けが明らかになる
SSD vs HDD の使い分け
高速性や耐久性からSSDはクリティカルな用途で採用されがちだが、HDDにもコスト面で優位性がある
- 金融取引、航空予約、リアルタイム分析など、アクセス頻度の高い業務ではSSDが選ばれる
- 逆に、ウォームデータやコールドデータ、メディアライブラリなどアクセス頻度が低い用途ではHDDを使う方がコスト効率が高い
- AIではSSDでトレーニング・推論処理を高速化し、HDDは大規模な生データの保管やデータレイク用途に利用される
各デバイスの価格感
デバイス | 単価(1TBあたり) | 特徴 |
---|---|---|
HDD(SATA) | 約3,000〜5,000円/TB | 安価・大容量向き |
SSD(SATA) | 約10,000〜15,000円/TB | 一般PC向け・高速 |
SSD(NVMe) | 約12,000〜20,000円/TB | より高速だが高価 |
- HDDはSSDの約1/3〜1/5程度のコスト
- 大容量になるほど差が広がる傾向
例えば 20TB のHDDが 6万円前後なのに対し、同容量のSSDは 25万〜30万円程度になることも
テープストレージの役割とメリット
テープはSSD/HDDが苦手とする長期保存やセキュリティ保護で有効である
- オフラインで保管でき、ランサムウェアなど攻撃リスクを低減できる
- LTO規格(例:LTO‑9)で圧縮時に45TBといった大容量を持ち、コールドストレージ用途に適している
- 書き込みを一度行い複数回読み出す用途(WORM)や暗号化にも対応可能
テープの制約
大容量保管に強い反面、即時アクセス性や導入コストでの限界も残る
- リニアアクセス方式でランダムアクセスが遅く必要なデータの取り出しに時間がかかる
- 機器(ドライブ、ライブラリ)の設置および維持コストが初期にかかる
- データの読み書きが遅いため、アクセス頻度の高い用途には不向き
テクノロジーとコストのトレードオフ
組織は性能・速度・耐久性・コストを総合的に見てメディアを選ぶ
- QLC型SSDなどが容量効率を向上させているが、依然として単価はHDDより高めである
- HDDは容量当たりコストにおいてはSSDを圧倒するケースが多い
- テープは最も低コストで大容量保存に適しており、電力消費や維持管理面でも有利なことが多い
おわりに
SSD、HDD、テープそれぞれが長所と短所を持つため、用途やアクセス頻度・予算・セキュリティ要件によって最適な組み合わせを選択するのが現実的である
SSDは高速応答性や耐久性が求められるミッションクリティカル用途に適し、HDDは大量データ保存にコスト効率の良い選択肢であり、テープはアーカイブやオフライン保存、災害・攻撃耐性を重視する用途で依然として重要である
今後はQLC SSDの容量拡張や価格低下が進む中で、HDDおよびテープがどこまでその役割を維持・変化させられるかが鍵となる
なぜ“SSD全盛”時代でも「HDD」どころか「テープ」まで消えないのか
記事6:モルゲンロット、九州エリアでコンテナ型データセンターの稼働を開始

モルゲンロットがミライト・ワンと連携し、九州エリアにてAI向けコンテナ型データセンターの運用を開始した
再生可能エネルギーの活用とGPU高密度設計が特徴である
建設と役割分担
施設の建設では、モルゲンロットとミライト・ワンがそれぞれ専門領域を分担している
- モルゲンロット:サーバー構築とGPU調達を担当
- ミライト・ワン:コンテナ型設備の設計・組み上げを担当
- 2025年3月の業務提携を経て、設計から保守までのワンストップ提供体制を構築
使用GPUと構成
施設にはNVIDIAの最新GPUが60基搭載されている
- NVIDIA HGX H100およびNVIDIA L40Sを採用
- 合計60基のGPUを実装し、AI処理に最適化された構成
- 用途に応じて高性能推論やトレーニングに対応可能
再生可能エネルギーの活用
持続可能性にも配慮した設計となっている
- 太陽光発電による再生可能エネルギーを使用
- 電力は地産地消型で供給
- 環境負荷を抑えたサステナブルなデータセンター運用を実現
今後の展開
モルゲンロットは本モデルをさらに拡大していく意向を示している
- これまでの運用実績を背景に、他地域および海外展開を視野
- 需要拡大に応じた柔軟な展開が可能なコンテナ型モデルを強みに
- GPU需要と再エネシフトに対応するインフラとして注目される
おわりに
モルゲンロットとミライト・ワンの協業により、GPU高密度・再エネ活用・迅速な構築を可能とするコンテナ型データセンターが誕生した
今後のスケール展開や地方分散型AIインフラとしての価値も注目される
AI需要と脱炭素の両立を見据えた本モデルは、次世代DCの一つのあり方を示している
モルゲンロット、九州エリアでコンテナ型データセンターの稼働を開始
記事7:NVIDIAがOpenAIに最大1,000億ドル(約15兆円)を出資、企業価値は5,000億ドルへ

NVIDIAが生成AI大手OpenAIに対し、最大1,000億ドル(約15兆円)を出資する戦略的提携を発表した
インフラ供給を通じた実利も伴う、大型投資案件となっている
出資の概要と金額規模
今回の出資は、異例の規模であり業界全体に大きな影響を与えるとみられる
- 最大で1,000億ドル、日本円で約15兆円をコミット
- 2025年9月時点のOpenAIの企業価値は5,000億ドル(約75兆円)に急成長
- NVIDIAは当初100億ドルの出資予定だったが、段階的に規模を拡大
共同プロジェクトと戦略的な狙い
単なる資金提供にとどまらず、NVIDIAにとっても重要なパートナーシップ強化となる
- Microsoft、Oracle、SoftBankなどと連携した「スターゲートプロジェクト」のインフラ整備を支援
- 出資によりOpenAIはNVIDIA製チップの優先確保が可能に
- NVIDIAにとってもチップ販売増につながる利益構造
OpenAIの株式構造と今後の展望
今回の出資はOpenAIの資本力強化と企業価値のさらなる向上につながる見通し
- 従業員向けのセカンダリー株式売却として100億ドル相当が許可されている
- Microsoftの出資比率約20%は現時点で維持されている
- 将来的なIPOを視野に入れる中、NVIDIAが影響力を強める可能性
おわりに
NVIDIAによる1,000億ドル規模の出資は、OpenAIの成長加速だけでなく、NVIDIA自身のビジネス基盤強化も兼ねた極めて戦略的な動きである
AIチップを軸にした巨大エコシステム形成が進む中で、資本関係も複雑化し、OpenAIをめぐる主導権争いが新たな局面を迎えている
Microsoft一強体制が揺らぎ、NVIDIAを含めた二極構造への移行が始まる可能性もある
NVIDIAがOpenAIに最大1,000億ドル(約15兆円)を出資、企業価値は5,000億ドルへ
記事8:NVIDIA フアンCEO「この投資は始まりに過ぎない」 OpenAIへの1000億ドル投資の狙い
OpenAIとの提携によってNVIDIAが構想するAIインフラ拡大戦略の全貌が明らかになった
数百万GPU規模で進める世界最大級のAI基盤構築は、今後のAI社会における土台を形成する動きとして注目されている
背景
OpenAIとNVIDIAはAIインフラ分野で大規模提携を発表し、次世代AIの計算需要に備えた設備投資を進めている
- 2025年9月、OpenAIとNVIDIAが戦略的パートナーシップを発表
- 提携の柱は、10ギガワット以上のGPUベースAIインフラの共同構築
- 数千万基規模のGPUを用いた世界最大級のデータセンター群を整備予定
提携の規模と目的
段階的に最大1000億ドルを投資し、生成AIと推論の需要に耐えるインフラを整える計画である
- 新たなGPUプラットフォーム「Vera Rubin」を含む大規模システムを導入予定
- OpenAI CEO アルトマン氏「NVIDIA以外にこの規模に対応できる企業はない」
- このインフラはAIモデル開発・性能強化・収益創出の基盤とされている
インフラ構築の狙いと必要性
世界的に推論・生成処理が拡大する中、インフラの整備が喫緊の課題とされている
- OpenAIは週7億人以上のアクティブユーザーを抱えるAI基盤へと成長
- エージェントAIやマルチモーダル推論の普及を支えるには莫大な演算能力が必要
- 「知能1単位あたりのコストは低下、応用範囲は拡大中」とアルトマン氏が強調
今後の展望と影響
この提携はAIの実用化を促進し、個人や企業の技術進化を支える重要な礎となる
- 初期1ギガワット分のシステムは2026年後半に稼働予定
- プレジデントのブロックマン氏は「DGXサーバー以来の協力関係の進化」と表現
- フアンCEO「これは始まりに過ぎず、AIインフラ拡張の第一歩にすぎない」
おわりに
NVIDIAとOpenAIの戦略的提携は、AI産業における新たなマイルストーンである
数百万GPU規模のインフラ構築により、技術革新のスピードを加速させ、医療・教育・研究などの分野における課題解決を後押しする可能性を秘めている
AIの民主化と産業化のために、演算資源というボトルネックを根本から打破する試みが始まったといえる
NVIDIA フアンCEO「この投資は始まりに過ぎない」 OpenAIへの1000億ドル投資の狙い
記事9:OpenAIがスターゲート拡大、米国内で5カ所のデータセンター新拠点

OpenAIは、ChatGPTを支えるAIインフラ拡充のため、米国内に大規模なデータセンター建設を進めている
オラクルやソフトバンクGと提携し、5000億ドル規模のプロジェクト「スターゲート」に取り組む
新たな建設計画
AI処理能力向上のため、新たに5拠点を追加する
- テキサス、ニューメキシコ、オハイオに拠点を設置
- 最終的な発電能力は7ギガワットに達する見通し
- 一部の都市全体をカバーする規模の電力インフラ
スターゲートの進展
共同構想「スターゲート」の初のデータセンター建設が進行中
- テキサス州アビリーンで記者会見を実施
- オラクルとの共同構想でAIデータセンター開発が進行
- OpenAI、Oracle、SoftBank Gの3社連携で実現
各拠点の役割と規模
各地の拠点が今後のインフラを支える基盤となる
- シャクルフォード郡など3拠点で5.5ギガワットを見込む
- アビリーン近郊でも600メガワットの拡張を計画
- ミラム郡やローズタウンの拠点はSBGと共同で1.5ギガワットの初期容量
経営陣のコメント
各社のCEOがプロジェクトの重要性を強調
- OpenAIサム・アルトマンCEO:「全力でインフラ整備を進める」
- オラクル共同CEO:「単独では不可能。連携が不可欠」
- SBエナジーもテキサス施設の電力供給に参画
おわりに
OpenAIは今後数年にわたり、AIインフラ拡大に向けて積極的な投資を続けていく構えである
スターゲート構想を通じ、米国内のAI需要に応える巨大な計算基盤を構築しようとしている
ソフトバンクGやオラクルなどとの協業体制を強化し、分散型データセンターの整備を推進していることは、世界的なAI競争における優位性確保に直結する
OpenAIがスターゲート拡大、米国内で5カ所のデータセンター新拠点
記事10:MCデジタル・リアルティ、NRT12データセンターで水冷設備の試験運用を実施

水冷化が進むデータセンター業界において、MCデジタル・リアルティが新たな試験運用を実施した
高負荷なAIサーバー対応に向けた動きが本格化している
試験運用の概要
同社はNRT12データセンター内で水冷設備の試験環境を公開した
- ニデック製の大型In-Row型CDU(Coolant Distribution Unit)を導入
- 1500kW規模の冷却能力を想定
- 模擬負荷を用いたヒートロードテストを2週間かけて実施
- 2N構成により冗長性の検証も実施
水冷設備の構成と工夫
空冷と水冷が混在する現状に対応するため、In-Row CDUとIn-Rack CDUを併用している
- In-Rack CDUがチップに近い冷却を担い、冷媒で受けた熱を冷却液に伝達
- In-Row CDUが冷却液を30℃前後に保ち、結露を防止
- 冷却液の一次冷却により安定した運用が可能
将来の展開と柔軟性
2026年1月より水冷サーバー対応のコロケーション提供を計画している
- 複数ラックの冷却を1台で担える大容量CDUが導入済み
- ラック追加のみで運用開始可能な構造に整備済み
- 引き合い次第では短期間で水冷対応コロケーションの本格稼働が可能
おわりに
MCデジタル・リアルティのNRT12データセンターは、水冷対応の次世代インフラ整備に向けた重要な試金石となる
AIサーバーの普及に伴い、空冷とのハイブリッド環境や温度管理の最適化がますます重要となる中、In-Row CDUとIn-Rack CDUの併用によって柔軟な冷却戦略が構築されつつある
2026年の水冷コロケーション提供開始に向けて、同社の先行投資と実証は、今後のデータセンター設計に対しても大きな示唆を与えるものである
MCデジタル・リアルティ、NRT12データセンターで水冷設備の試験運用を実施
記事11:「AIデータセンター・ブーム」で非テック企業も株価爆上がり。1年で50%上昇、史上最高値更新…注目すべき分野と企業(海外)

AIインフラ開発が進む中、データセンター関連の産業にも投資が集中し、非テック企業の株価が急上昇している
今後数年でインフラ需要が拡大し続ける中、冷却・電源・建設関連など多様な分野に注目が集まっている
データセンター市場の成長予測
AI化の加速によりデータセンターへの投資が拡大している
- 2024年の市場規模は約4060億ドル
- 2028年には約9390億ドル(約138兆円)に達する見通し
- 投資の最大84%がAIサーバー向けになると予測
非テック産業も恩恵を享受
冷却や電源といったインフラ分野が高成長を見込む
- インフラ投資は年率19%で成長し、2028年に1470億ドル規模に
- 冷却・電力設備が2大投資領域
- テック以外の産業もAIブームの波に乗る構図
シュナイダー・バーティブの存在感
電力・冷却インフラ分野で高い市場シェアを持つ企業が急成長中
- シュナイダーエレクトリックは世界シェア21%、GAFAやNVIDIAと提携
- バーティブは液冷技術で成長、株価は1年で50%以上上昇
- 液冷投資は年率60%で成長し、インフラ領域で最速の伸び
発電設備への投資拡大
バックアップ電源も重要インフラとして存在感を増している
- キャタピラーがシェア42%で首位、株価は史上最高値を記録
- カミンズ(24%)、ロールス・ロイス(21%)も続く
- 天然ガス発電や代替エネルギーも視野に、GEバーノバとの契約も登場
おわりに
AIデータセンター市場の急成長は、IT産業にとどまらず、建設・冷却・電力など多分野に波及している
とりわけ液冷技術や発電設備など、これまで目立たなかった産業分野が急速に注目を集めており、株式市場でも高い評価を受けている
保守的な意思決定が多いインフラ領域においては、技術力と実績に裏打ちされた既存企業の競争優位性が今後さらに強まる可能性がある
「AIデータセンター・ブーム」で非テック企業も株価爆上がり。1年で50%上昇、史上最高値更新…注目すべき分野と企業(海外)
記事12:Broadcomが「第二形態」へ “脱VMware勢”を横目に同社が打ち出す戦略は?

BroadcomはVMwareの買収から2年を経て、「第二形態」とも言える新たな戦略フェーズに入った
サブスクリプションモデルへの転換とAI需要の追い風を受け、事業の成長を加速させている
背景
Broadcomは2023年にVMwareを買収し、統合の第2フェーズへと移行した
- VMwareの上位顧客1万社の9割以上がVMware Cloud Foundation(VCF)へ移行
- 旧来の永久ライセンスは廃止され、サブスクリプション型モデルへ移行
- AT&Tとのライセンス契約を巡る訴訟は2024年11月に和解
成長の要因
AIとクラウドの波を活かし、大幅な売上成長を実現
- 2025年第3四半期の売上は前年同期比22%増の160億ドル
- VMwareを含むインフラ系ソフトウェア部門の売上は68億ドル(全体の43%)
- VCFを核とした新製品群への注力が成長を後押し
VCFを軸にしたポートフォリオ
製品の統合とバンドル化によって差別化を図る
- VMware Cloud Foundation 9.0の一般提供を開始
- 数千あったVMware製品を数個の大型バンドルに統合
- サブスクリプションへの一本化で管理を簡素化
企業へのアプローチ
顧客層ごとに戦略を分けてVCF普及を進める
- 上位顧客に加え、中規模顧客層への対応を検討中
- Walmartなど大型顧客を獲得し、グローバルな展開を支援
- ハードウェアのコモディティ化によって顧客の投資負担を軽減
AI分野での展望
AI需要を背景にハイパースケーラーとの取引を拡大
- 7大クラウド/AIサービス事業者のうち4社と契約
- 第4四半期にはAIとVMwareの成長で売上24%増を見込む
- 今後2年間の焦点は、VCF導入企業の投資利益をいかに最大化するかにある
おわりに
BroadcomはVMwareの買収後、サブスクリプション型クラウドサービス「VCF」への全面移行を進めることで、収益性と事業効率の向上を図っている
AI需要の増加も追い風となり、ハイパースケーラーとの大型契約を通じてインフラ市場での存在感をさらに強めている
Broadcomが「第二形態」へ “脱VMware勢”を横目に同社が打ち出す戦略は?
記事13:【Copilot】GPT-5実装で“大進化”──知らないと損する「プロンプト」の“新常識”

OpenAIのGPT‑5がMicrosoftのCopilotに即時実装され、業務利用のスタイルが大きく変わり始めている
従来の単純な補助ツールとは異なり、自律的に業務を進行する「戦略的パートナー」としての役割が期待される中、プロンプト設計にも新たな常識が求められている
Copilotの進化
GPT‑5導入により、Copilotは従来の補助役から、より“自律的”な働き手へと進化しつつある
- 従来は「要約して」「箇条書きで」などの細かい手順を指示するプロンプトが主流だった
- GPT‑5搭載後は、Copilotにゴールや条件、品質基準を伝えるだけで、段取り・処理の流れを自律的に構築可能になった
- Copilotは処理内容に応じてモデル(高速処理モデル/高度推論モデル)を切り替える「リアルタイムルーター」機能を備える
- 複雑な業務であっても内部で最適なプランを立てながら実行できるようになる可能性を持つ
プロンプトの新常識
GPT‑5時代のプロンプト設計は、指示型から課題設定型へとシフトしている
- 従来:手順を細かく記述する方法が多かった
- 新方式:ゴール・制約・品質を明示し、自己チェックを促すよう命令する例)「経営層向け提案」「3分で意思決定可能」「ROI/リスク/実行ステップ必須」「500字以内」「専門用語は最小化」「自己チェック機能付き」
注意点と運用姿勢
Copilotの導入はスタート地点であり、継続的な見直しが不可欠である
- GPT‑5導入により、数ヶ月前のベストプラクティスが陳腐化することもある
- プロンプトの最適解は進化とともに変化しうる
- モデルのアップデートに追随する運用体制や教育が重要
- Copilotを単なるツールで終わらせず、戦略的パートナーとして活用する姿勢が肝要
おわりに
GPT‑5導入によってCopilotは、単なる“指示に答える助手”から、“目標を理解し自律的に動くパートナー”へと深化する可能性を得た
プロンプト設計も、従来の手順指示型から、目的・条件・評価軸を示す課題設定型へと役割を変える
変化の速いAI領域においては、「導入して終わり」ではなく、継続的にプロンプト設計や運用方針を見直す体制こそが差を生む
Copilotとの共創を目指し、目標を明確に設定し、AI活用を戦略化できる組織が、次代の勝者となるだろう
【Copilot】GPT-5実装で“大進化”──知らないと損する「プロンプト」の“新常識”