【情報収集】今週読んだTech記事#15

こんにちは、キクです。

本記事では、僕が今週読んだIT系のニュースについて「振り返り」と「まとめ」を目的として整理していきます。

期間:2025年9月22日 (月) 〜 9月26日 (金)

本記事の内容

注意事項

本記事は、日々のITニュースを自身の学習や情報収集の習慣付けとしてまとめたものです。

内容には要約の過程で誤解や事実と異なる点が含まれる可能性があります。

あくまで個人的な記録としてご覧いただき、情報の正確性や網羅性については保証いたしかねますので、ご了承ください。

記事1:デル、Gaudi 3 PCIe アクセラレーター搭載「Dell PowerEdge XE7740」サーバ提供開始

※イメージ画像であり、実態とは関係ありません

デルは、インテル Gaudi 3 アクセラレーターを最大8基まで搭載可能なAI向けサーバ「PowerEdge XE7740」を発表した

高密度かつ柔軟な構成により、多様なAIワークロードへの対応力とデータセンターとの高い親和性を備えている

製品の概要

「PowerEdge XE7740」は、高い拡張性とアクセラレーション性能を持つ4Uラックマウント型サーバである

  • PowerEdge Rシリーズの統合性とXEシリーズの性能・拡張性を融合
  • 最大8基のダブルワイドPCIeアクセラレーターを搭載可能
  • Gaudi 3を用いた高速AI処理向けに最適化
アクセラレーター構成とネットワーク

高帯域・高効率なネットワーク設計によりAI性能を最大限に引き出す

  • 4基×2グループ構成でブリッジ接続に対応
  • RoCE v2により最大1200GB/sのスループットを実現
  • 8つのフルハイトPCIeスロットとOCPモジュールによる柔軟なネットワーク設計
冷却と電力設計

既存データセンター環境での運用性と効率性を重視した設計となっている

  • 「Dell Smart Cooling」により空冷ラックへのシームレスな統合を実現
  • 最大10kWラックにも対応し、追加の電力・冷却設備投資を不要とする
  • 高密度設計でも高パフォーマンスと信頼性を両立
AIワークロード対応力

多様な業界のAIユースケースを想定した高度なワークロード適応性を持つ

  • LLMの推論やファインチューニング、画像・音声認識などに対応
  • 医療・金融・小売などの分野でリアルタイム処理に貢献
  • PyTorchやHugging Faceとの統合により柔軟なAI開発環境を提供
おわりに

PowerEdge XE7740は、次世代AIインフラに求められる高性能・高密度・高効率の要件を満たすサーバである

Gaudi 3の性能を引き出す柔軟な構成と、既存環境との親和性を両立した設計により、エンタープライズAIの実運用を強力に支える製品であると言える

用語メモ

Gaudi 3

Intel製のAI向けアクセラレーター

コスト効率と高帯域通信を特徴とする

RoCE v2

イーサネット上でRDMA通信を実現するプロトコル

低遅延・高帯域な通信が可能

OCPモジュール

Open Compute Project仕様のネットワークモジュール

柔軟なNIC構成に寄与

ファインチューニング

既存モデルに対して目的特化型の追加学習を行う手法

記事2:AIの「フェッチャー」と「クローラー」がWebインフラに負荷 ファストリーが警鐘

※イメージ画像であり、実態とは関係ありません

WebトラフィックにおけるAI botの存在感が高まる中、特に「フェッチャーbot」や「クローラーbot」がWebインフラに重大な負荷を与えていることが明らかになった

ファストリーはこの状況に対し、悪意がないbotであってもDDoS攻撃に近い影響を及ぼす可能性があると警鐘を鳴らしている

AI botの内訳

AI botトラフィックの大部分は「クローラーbot」が占めている

  • AI bot全体の約80%がクローラーによるトラフィック
  • Metaのクローラーが52%で最多
  • Googleが23%、OpenAIが20%と続く
フェッチャーbotの負荷

フェッチャーbotはリアルタイムでコンテンツ取得を行うため、高頻度アクセスが発生する

  • ChatGPTなどが利用するフェッチャーbotが全体の約20%を占める
  • 1分間あたり3万9000件以上のリクエストを送信
  • Webサーバやネットワーク帯域に大きな負荷をかける
Webインフラへのリスク

AI botによるトラフィックは無意識のうちにWebインフラを圧迫しうる

  • DDoS攻撃と似た影響を与える可能性がある
  • 悪意のないbotでも大量アクセスによりサービス障害を招く懸念
  • AIトラフィックの管理が今後の重要課題に
おわりに

AIサービスの普及により、クローラーbotやフェッチャーbotがWebインフラに新たな負荷要因となっている

これらは悪意を持たないトラフィックであっても、DDoSと同様のインフラ圧迫を引き起こすリスクがあるため、適切な管理体制と対応策の整備が急務である

用語メモ

クローラーbot

Webサイトの情報収集を目的として自動巡回するbot

フェッチャーbot

AIサービスがユーザーの要求に応じてリアルタイムで情報取得を行うbot

DDoS攻撃

分散型サービス拒否攻撃

大量のリクエストでサーバやネットワークを麻痺させる手法

ファストリー(Fastly

米国のCDN(コンテンツ配信ネットワーク)企業

Webトラフィック分析にも取り組んでいる

記事3:自社データセンターの廃止 そのリスクとベストプラクティスを解説

※イメージ画像であり、実態とは関係ありません

企業におけるクラウド移行が進む中で、老朽化した自社データセンターの廃止は避けられない課題となっている

だが、廃止には多くのリスクと高度な専門性が伴うため、慎重な対応が求められる

データセンター廃止が迫られる背景

企業の戦略やコスト最適化の観点から、老朽化した施設の廃止が加速している

  • クラウドやコロケーションの導入により、自社データセンターの役割が変化
  • ガートナーは「廃止数が新設数の2倍に達する」と予測
  • 統合や移行によって施設が陳腐化
  • 専門人材の不足がリスクを増加させている
リスク評価と保護策の重要性

廃止に伴う業務影響を最小限にするには、包括的なリスク評価と事前対策が不可欠である

  • 廃止目標と経営層の要件を結びつける必要がある
  • 物理・デジタル双方の脆弱性を洗い出すことが鍵
  • 緊急対応が必要な分野を優先的に特定
  • クラウドやオフサイトのバックアップ確保が重要
  • 企業のレジリエンス(回復力)強化につながる
求められる専門スキルと対応力

データサニタイゼーションや法令遵守など、特化した知識が必要とされる

  • データ消去には専用装置やフォレンジック検証の知識が必要
  • GDPRやWEEEなど規制対応力が求められる
  • 監査に備えた詳細な文書作成スキルも重要
  • プロジェクト管理やステークホルダー対応の能力も必要
  • 配線や電源などインフラ面の専門知識も不可欠
  • 有害物質処理には環境規制への理解が求められる
  • 社内で賄えない場合は外部コンサルの活用が推奨される
コンプライアンス体制の整備

複雑な規制対応を乗り越えるには、専任チームによる継続的な監視体制が不可欠である

  • コンプライアンスタスクフォースの設置が推奨される
  • 法務との連携で法的リスクを軽減
  • チェックリストによる自己点検と定期監査の実施
  • 規制違反への迅速な是正行動が求められる
  • 倫理的な姿勢を社内外に示す意義もある
日本における廃止の課題

国内ではデータセンターの稼働率が依然として高く、人材不足が障壁となっている

  • 国内企業の7割が自社DCを運用中で老朽化が進行
  • 意思決定に多くのステークホルダーが関与し複雑化
  • IT人材不足により進行が困難なケースが多い
  • 部門横断型タスクフォースの設置が必要
  • IT資産の棚卸しが技術的負債の削減にも貢献
  • 実行段階では各種コンプライアンス基準の遵守が必須
おわりに

データセンターの廃止は単なる設備撤去ではなく、企業全体を巻き込む戦略的なプロジェクトである

リスク評価からスキル確保、法的対応まで多岐にわたる課題を乗り越えるには、綿密な準備と横断的な協力体制が不可欠である

特に日本では、老朽化と人材不足が重なり、計画的な廃止を困難にしている現状がある

成功に導くには、段階的な対応と外部知見の積極的な活用が鍵となる

用語メモ

GDPR

EUの個人データ保護に関する規則で、企業はデータの適正な扱いを義務付けられる

WEEE指令

電子機器廃棄物に関するEUの環境規制

CoC(Chain-of-Custody

データや資産の管理責任の連続性を保証する手法

フォレンジック検証

データが完全に消去されたかを技術的に検証するプロセス

ADEC

データ適正消去実行証明制度

日本国内でのデータ消去認証スキーム

ISO 27001/14001

それぞれ情報セキュリティ・環境管理の国際規格

記事4:「犬猿の仲」だったIBMと富士通のパートナーシップが意味すること

※イメージ画像であり、実態とは関係ありません

長年「犬猿の仲」とされたIBMと富士通が、協業に向けた検討を開始した

この歴史的ともいえるパートナーシップの背景には、エージェンティックAIの登場による新たなIT基盤を巡る主導権争いが見え隠れする

協業の背景と対談の様子

トップ同士の親交から生まれた今回の協業検討は、社会貢献をキーワードにスタートした。

  • 富士通の時田社長と日本IBMの山口社長がThink Japanで対談
  • 両者の就任時期やSE出身という共通点が背景に
  • 富士通の歴史や社会貢献の想いが語られた
協業検討の3領域

協業の検討対象は、今後のエンタープライズITの中核ともいえる3領域に及ぶ

1. AI分野

  • 業種:業務特化型のAI開発と統合AI基盤の構築を検討
  • 日本語LLMやAIガバナンス、AIオーケストレーションなどを融合

2. ハイブリッドクラウド分野

  • モダナイゼーションやFinOpsの推進
  • 自動化と法規制順守を前提としたシステム環境構築に向けた連携

3. ヘルスケア分野

  • 医療データ利活用を見据えたデータプラットフォーム連携
  • AI活用による社会課題解決の実現を目指す
両社の狙いと今後

本協業は、単なる一企業間の共創に留まらず、エージェンティックAIを軸にした次世代基盤の主導権争いを示唆している

  • 日本ではSIやITサービスベンダーが主導権を握る可能性もある
  • 山口氏は「主導権を握る意図はない」と語る一方で、明らかな構造変化の中で動いている
  • IBMもAI分野で再び存在感を高めつつあり、富士通との連携によって影響力を強化できる可能性がある
おわりに

IBMと富士通という“かつての宿敵”が手を組むという出来事は、単なる驚きや和解の象徴では終わらない

今後のエージェンティックAI時代を見据え、エンタープライズIT基盤の主導権を巡る競争が激化する中、両社が連携する意味は極めて大きい

クラウドベンダー優位とされる状況に対抗し、日本企業の視点で社会課題解決に資する新たなモデルの創出を狙う姿勢が感じられる

真の勝負は、今後の協業の具体化と成果にかかっている

用語メモ

エージェンティックAI

複数のAIエージェントを組み合わせ、指示に基づき業務を自律的に処理するAIシステム

FinOps

クラウドリソースの費用対効果を最大化するための運用と財務の融合フレームワーク

記事5:なぜ“SSD全盛”時代でも「HDD」どころか「テープ」まで消えないのか

※イメージ画像であり、実態とは関係ありません

SSDは性能面で優れているが、HDDおよびテープがいまだに残っている理由と用途の使い分けが明らかになる

SSD vs HDD の使い分け

高速性や耐久性からSSDはクリティカルな用途で採用されがちだが、HDDにもコスト面で優位性がある

  • 金融取引、航空予約、リアルタイム分析など、アクセス頻度の高い業務ではSSDが選ばれる
  • 逆に、ウォームデータやコールドデータ、メディアライブラリなどアクセス頻度が低い用途ではHDDを使う方がコスト効率が高い
  • AIではSSDでトレーニング・推論処理を高速化し、HDDは大規模な生データの保管やデータレイク用途に利用される

各デバイスの価格感

デバイス単価(1TBあたり)特徴
HDD(SATA)約3,000〜5,000円/TB安価・大容量向き
SSD(SATA)約10,000〜15,000円/TB一般PC向け・高速
SSD(NVMe)約12,000〜20,000円/TBより高速だが高価
  • HDDはSSDの約1/3〜1/5程度のコスト
  • 大容量になるほど差が広がる傾向
    例えば 20TB のHDDが 6万円前後なのに対し、同容量のSSDは 25万〜30万円程度になることも
テープストレージの役割とメリット

テープはSSD/HDDが苦手とする長期保存やセキュリティ保護で有効である

  • オフラインで保管でき、ランサムウェアなど攻撃リスクを低減できる
  • LTO規格(例:LTO‑9)で圧縮時に45TBといった大容量を持ち、コールドストレージ用途に適している
  • 書き込みを一度行い複数回読み出す用途(WORM)や暗号化にも対応可能
テープの制約

大容量保管に強い反面、即時アクセス性や導入コストでの限界も残る

  • リニアアクセス方式でランダムアクセスが遅く必要なデータの取り出しに時間がかかる
  • 機器(ドライブ、ライブラリ)の設置および維持コストが初期にかかる
  • データの読み書きが遅いため、アクセス頻度の高い用途には不向き
テクノロジーとコストのトレードオフ

組織は性能・速度・耐久性・コストを総合的に見てメディアを選ぶ

  • QLC型SSDなどが容量効率を向上させているが、依然として単価はHDDより高めである
  • HDDは容量当たりコストにおいてはSSDを圧倒するケースが多い
  • テープは最も低コストで大容量保存に適しており、電力消費や維持管理面でも有利なことが多い
おわりに

SSD、HDD、テープそれぞれが長所と短所を持つため、用途やアクセス頻度・予算・セキュリティ要件によって最適な組み合わせを選択するのが現実的である

SSDは高速応答性や耐久性が求められるミッションクリティカル用途に適し、HDDは大量データ保存にコスト効率の良い選択肢であり、テープはアーカイブやオフライン保存、災害・攻撃耐性を重視する用途で依然として重要である

今後はQLC SSDの容量拡張や価格低下が進む中で、HDDおよびテープがどこまでその役割を維持・変化させられるかが鍵となる

用語メモ

QLC SSD

1セルに4ビット情報を持たせたSSD

容量効率は高いが書き換え耐久性や速度で劣ることがある

LTO(Linear Tape‑Open

テープストレージの産業標準規格

大容量・圧縮対応・暗号化機能を備える

WORM(Write Once Read Many

一度書き込んだら改ざんできないように読み取りだけ可能な方式

アーカイブ用途で重視される

コールドデータ/ウォームデータ

アクセス頻度が低いデータを「コールド」、中程度を「ウォーム」と呼び、保存コストや性能要件で保存メディアを分ける考え方

記事6:モルゲンロット、九州エリアでコンテナ型データセンターの稼働を開始

※イメージ画像であり、実態とは関係ありません

モルゲンロットがミライト・ワンと連携し、九州エリアにてAI向けコンテナ型データセンターの運用を開始した

再生可能エネルギーの活用とGPU高密度設計が特徴である

建設と役割分担

施設の建設では、モルゲンロットとミライト・ワンがそれぞれ専門領域を分担している

  • モルゲンロット:サーバー構築とGPU調達を担当
  • ミライト・ワン:コンテナ型設備の設計・組み上げを担当
  • 2025年3月の業務提携を経て、設計から保守までのワンストップ提供体制を構築
使用GPUと構成

施設にはNVIDIAの最新GPUが60基搭載されている

  • NVIDIA HGX H100およびNVIDIA L40Sを採用
  • 合計60基のGPUを実装し、AI処理に最適化された構成
  • 用途に応じて高性能推論やトレーニングに対応可能
再生可能エネルギーの活用

持続可能性にも配慮した設計となっている

  • 太陽光発電による再生可能エネルギーを使用
  • 電力は地産地消型で供給
  • 環境負荷を抑えたサステナブルなデータセンター運用を実現
今後の展開

モルゲンロットは本モデルをさらに拡大していく意向を示している

  • これまでの運用実績を背景に、他地域および海外展開を視野
  • 需要拡大に応じた柔軟な展開が可能なコンテナ型モデルを強みに
  • GPU需要と再エネシフトに対応するインフラとして注目される
おわりに

モルゲンロットとミライト・ワンの協業により、GPU高密度・再エネ活用・迅速な構築を可能とするコンテナ型データセンターが誕生した

今後のスケール展開や地方分散型AIインフラとしての価値も注目される

AI需要と脱炭素の両立を見据えた本モデルは、次世代DCの一つのあり方を示している

用語メモ

コンテナ型データセンター

輸送可能なコンテナ内にサーバー群を収容した可搬型データセンター

迅速な展開と拡張が可能

HGX H100

NVIDIAのHopperアーキテクチャに基づく高性能GPUシステム

AIトレーニングに最適化

L40S

NVIDIAのGPUで、生成AIやグラフィック処理にも対応する多目的モデル

地産地消型再エネ

発電と消費を同地域内で完結させることで送電ロスを減らし、地域のエネルギー自給率向上にも寄与するモデル

記事7:NVIDIAがOpenAIに最大1,000億ドル(約15兆円)を出資、企業価値は5,000億ドルへ

※イメージ画像であり、実態とは関係ありません

NVIDIAが生成AI大手OpenAIに対し、最大1,000億ドル(約15兆円)を出資する戦略的提携を発表した

インフラ供給を通じた実利も伴う、大型投資案件となっている

出資の概要と金額規模

今回の出資は、異例の規模であり業界全体に大きな影響を与えるとみられる

  • 最大で1,000億ドル、日本円で約15兆円をコミット
  • 2025年9月時点のOpenAIの企業価値は5,000億ドル(約75兆円)に急成長
  • NVIDIAは当初100億ドルの出資予定だったが、段階的に規模を拡大
共同プロジェクトと戦略的な狙い

単なる資金提供にとどまらず、NVIDIAにとっても重要なパートナーシップ強化となる

  • Microsoft、Oracle、SoftBankなどと連携した「スターゲートプロジェクト」のインフラ整備を支援
  • 出資によりOpenAIはNVIDIA製チップの優先確保が可能に
  • NVIDIAにとってもチップ販売増につながる利益構造
OpenAIの株式構造と今後の展望

今回の出資はOpenAIの資本力強化と企業価値のさらなる向上につながる見通し

  • 従業員向けのセカンダリー株式売却として100億ドル相当が許可されている
  • Microsoftの出資比率約20%は現時点で維持されている
  • 将来的なIPOを視野に入れる中、NVIDIAが影響力を強める可能性
おわりに

NVIDIAによる1,000億ドル規模の出資は、OpenAIの成長加速だけでなく、NVIDIA自身のビジネス基盤強化も兼ねた極めて戦略的な動きである

AIチップを軸にした巨大エコシステム形成が進む中で、資本関係も複雑化し、OpenAIをめぐる主導権争いが新たな局面を迎えている

Microsoft一強体制が揺らぎ、NVIDIAを含めた二極構造への移行が始まる可能性もある

用語メモ

NVIDIA

AI用GPUの世界最大手

近年は生成AI関連の需要急増で業績を伸ばす

OpenAI

ChatGPTを開発する米国のAI研究機関兼企業

現在は営利型の有限営利会社(LP)としてMicrosoftなどから出資を受けている

セカンダリー株式

従業員などが保有する株式を売却する際の取引

未上場企業でも流動性を確保する手段として活用される

スターゲートプロジェクト

OpenAI関連インフラ整備を目的に、大手IT企業が連携して進めている次世代AIクラスタ構築計画

記事8:NVIDIA フアンCEO「この投資は始まりに過ぎない」 OpenAIへの1000億ドル投資の狙い

OpenAIとの提携によってNVIDIAが構想するAIインフラ拡大戦略の全貌が明らかになった

数百万GPU規模で進める世界最大級のAI基盤構築は、今後のAI社会における土台を形成する動きとして注目されている

背景

OpenAIとNVIDIAはAIインフラ分野で大規模提携を発表し、次世代AIの計算需要に備えた設備投資を進めている

  • 2025年9月、OpenAIとNVIDIAが戦略的パートナーシップを発表
  • 提携の柱は、10ギガワット以上のGPUベースAIインフラの共同構築
  • 数千万基規模のGPUを用いた世界最大級のデータセンター群を整備予定
提携の規模と目的

段階的に最大1000億ドルを投資し、生成AIと推論の需要に耐えるインフラを整える計画である

  • 新たなGPUプラットフォーム「Vera Rubin」を含む大規模システムを導入予定
  • OpenAI CEO アルトマン氏「NVIDIA以外にこの規模に対応できる企業はない」
  • このインフラはAIモデル開発・性能強化・収益創出の基盤とされている
インフラ構築の狙いと必要性

世界的に推論・生成処理が拡大する中、インフラの整備が喫緊の課題とされている

  • OpenAIは週7億人以上のアクティブユーザーを抱えるAI基盤へと成長
  • エージェントAIやマルチモーダル推論の普及を支えるには莫大な演算能力が必要
  • 「知能1単位あたりのコストは低下、応用範囲は拡大中」とアルトマン氏が強調
今後の展望と影響

この提携はAIの実用化を促進し、個人や企業の技術進化を支える重要な礎となる

  • 初期1ギガワット分のシステムは2026年後半に稼働予定
  • プレジデントのブロックマン氏は「DGXサーバー以来の協力関係の進化」と表現
  • フアンCEO「これは始まりに過ぎず、AIインフラ拡張の第一歩にすぎない」
おわりに

NVIDIAとOpenAIの戦略的提携は、AI産業における新たなマイルストーンである

数百万GPU規模のインフラ構築により、技術革新のスピードを加速させ、医療・教育・研究などの分野における課題解決を後押しする可能性を秘めている

AIの民主化と産業化のために、演算資源というボトルネックを根本から打破する試みが始まったといえる

用語メモ

Vera Rubin

NVIDIAが新たに発表したGPUプラットフォームの名称

天文学者ヴェラ・ルービンにちなんで名付けられたと考えられる

10ギガワット(GW

1GW = 10億ワット

データセンターの電力規模としては極めて大きく、世界最大級の水準

NVIDIA DGX

NVIDIA製のハイエンドAIコンピューティングサーバ

OpenAIとの協業はこの初期モデルの導入から始まった

サム・アルトマン

OpenAIのCEO

ChatGPTなどの開発を主導する人物として知られる

ジェン・スン・フアン(Jensen Huang

NVIDIAの創業者兼CEO

AI・GPU分野のリーダー的存在

記事9:OpenAIがスターゲート拡大、米国内で5カ所のデータセンター新拠点

※イメージ画像であり、実態とは関係ありません

OpenAIは、ChatGPTを支えるAIインフラ拡充のため、米国内に大規模なデータセンター建設を進めている

オラクルやソフトバンクGと提携し、5000億ドル規模のプロジェクト「スターゲート」に取り組む

新たな建設計画

AI処理能力向上のため、新たに5拠点を追加する

  • テキサス、ニューメキシコ、オハイオに拠点を設置
  • 最終的な発電能力は7ギガワットに達する見通し
  • 一部の都市全体をカバーする規模の電力インフラ
スターゲートの進展

共同構想「スターゲート」の初のデータセンター建設が進行中

  • テキサス州アビリーンで記者会見を実施
  • オラクルとの共同構想でAIデータセンター開発が進行
  • OpenAI、Oracle、SoftBank Gの3社連携で実現
各拠点の役割と規模

各地の拠点が今後のインフラを支える基盤となる

  • シャクルフォード郡など3拠点で5.5ギガワットを見込む
  • アビリーン近郊でも600メガワットの拡張を計画
  • ミラム郡やローズタウンの拠点はSBGと共同で1.5ギガワットの初期容量
経営陣のコメント

各社のCEOがプロジェクトの重要性を強調

  • OpenAIサム・アルトマンCEO:「全力でインフラ整備を進める」
  • オラクル共同CEO:「単独では不可能。連携が不可欠」
  • SBエナジーもテキサス施設の電力供給に参画
おわりに

OpenAIは今後数年にわたり、AIインフラ拡大に向けて積極的な投資を続けていく構えである

スターゲート構想を通じ、米国内のAI需要に応える巨大な計算基盤を構築しようとしている

ソフトバンクGやオラクルなどとの協業体制を強化し、分散型データセンターの整備を推進していることは、世界的なAI競争における優位性確保に直結する

用語メモ

スターゲート

OpenAI、Oracle、SoftBank GによるAIインフラ共同プロジェクト

ギガワット

電力の単位で、7GWは原子力発電所7基分に相当する規模

記事10:MCデジタル・リアルティ、NRT12データセンターで水冷設備の試験運用を実施

※イメージ画像であり、実態とは関係ありません

水冷化が進むデータセンター業界において、MCデジタル・リアルティが新たな試験運用を実施した

高負荷なAIサーバー対応に向けた動きが本格化している

試験運用の概要

同社はNRT12データセンター内で水冷設備の試験環境を公開した

  • ニデック製の大型In-Row型CDU(Coolant Distribution Unit)を導入
  • 1500kW規模の冷却能力を想定
  • 模擬負荷を用いたヒートロードテストを2週間かけて実施
  • 2N構成により冗長性の検証も実施
水冷設備の構成と工夫

空冷と水冷が混在する現状に対応するため、In-Row CDUとIn-Rack CDUを併用している

  • In-Rack CDUがチップに近い冷却を担い、冷媒で受けた熱を冷却液に伝達
  • In-Row CDUが冷却液を30℃前後に保ち、結露を防止
  • 冷却液の一次冷却により安定した運用が可能
将来の展開と柔軟性

2026年1月より水冷サーバー対応のコロケーション提供を計画している

  • 複数ラックの冷却を1台で担える大容量CDUが導入済み
  • ラック追加のみで運用開始可能な構造に整備済み
  • 引き合い次第では短期間で水冷対応コロケーションの本格稼働が可能
おわりに

MCデジタル・リアルティのNRT12データセンターは、水冷対応の次世代インフラ整備に向けた重要な試金石となる

AIサーバーの普及に伴い、空冷とのハイブリッド環境や温度管理の最適化がますます重要となる中、In-Row CDUとIn-Rack CDUの併用によって柔軟な冷却戦略が構築されつつある

2026年の水冷コロケーション提供開始に向けて、同社の先行投資と実証は、今後のデータセンター設計に対しても大きな示唆を与えるものである

用語メモ

CDU(Coolant Distribution Unit

冷却液をサーバーへ循環させる装置

In-Rack型

ラック内に設置されるCDUで、チップに近接した冷却を担う

In-Row型

サーバー列(Row)に並列配置されるCDUで、複数ラックに冷却液を供給

2N構成

完全な冗長性を確保する構成

1系統が停止してももう1系統が機能することで可用性を確保する

記事11:「AIデータセンター・ブーム」で非テック企業も株価爆上がり。1年で50%上昇、史上最高値更新…注目すべき分野と企業(海外)

※イメージ画像であり、実態とは関係ありません

AIインフラ開発が進む中、データセンター関連の産業にも投資が集中し、非テック企業の株価が急上昇している

今後数年でインフラ需要が拡大し続ける中、冷却・電源・建設関連など多様な分野に注目が集まっている

データセンター市場の成長予測

AI化の加速によりデータセンターへの投資が拡大している

  • 2024年の市場規模は約4060億ドル
  • 2028年には約9390億ドル(約138兆円)に達する見通し
  • 投資の最大84%がAIサーバー向けになると予測
非テック産業も恩恵を享受

冷却や電源といったインフラ分野が高成長を見込む

  • インフラ投資は年率19%で成長し、2028年に1470億ドル規模に
  • 冷却・電力設備が2大投資領域
  • テック以外の産業もAIブームの波に乗る構図
シュナイダー・バーティブの存在感

電力・冷却インフラ分野で高い市場シェアを持つ企業が急成長中

  • シュナイダーエレクトリックは世界シェア21%、GAFAやNVIDIAと提携
  • バーティブは液冷技術で成長、株価は1年で50%以上上昇
  • 液冷投資は年率60%で成長し、インフラ領域で最速の伸び
発電設備への投資拡大

バックアップ電源も重要インフラとして存在感を増している

  • キャタピラーがシェア42%で首位、株価は史上最高値を記録
  • カミンズ(24%)、ロールス・ロイス(21%)も続く
  • 天然ガス発電や代替エネルギーも視野に、GEバーノバとの契約も登場
おわりに

AIデータセンター市場の急成長は、IT産業にとどまらず、建設・冷却・電力など多分野に波及している

とりわけ液冷技術や発電設備など、これまで目立たなかった産業分野が急速に注目を集めており、株式市場でも高い評価を受けている

保守的な意思決定が多いインフラ領域においては、技術力と実績に裏打ちされた既存企業の競争優位性が今後さらに強まる可能性がある

用語メモ

AIサーバー

AI処理に最適化された高性能コンピュータ群

液冷技術

冷却液でチップを直接冷やす方式

空冷に代わる省エネ・高効率手法

Infratech(インフラ×テクノロジー

データセンター構築を支える産業群を指す新興概念

シュナイダーエレクトリック

フランスのエネルギー管理大手企業

キャタピラー

米国の重機・発電設備メーカーで、データセンター向けにも多く供給

GEバーノバ

GE傘下の発電機関連事業部門

天然ガス発電機などを提供

記事12:Broadcomが「第二形態」へ “脱VMware勢”を横目に同社が打ち出す戦略は?

※イメージ画像であり、実態とは関係ありません

BroadcomはVMwareの買収から2年を経て、「第二形態」とも言える新たな戦略フェーズに入った

サブスクリプションモデルへの転換とAI需要の追い風を受け、事業の成長を加速させている

背景

Broadcomは2023年にVMwareを買収し、統合の第2フェーズへと移行した

  • VMwareの上位顧客1万社の9割以上がVMware Cloud Foundation(VCF)へ移行
  • 旧来の永久ライセンスは廃止され、サブスクリプション型モデルへ移行
  • AT&Tとのライセンス契約を巡る訴訟は2024年11月に和解
成長の要因

AIとクラウドの波を活かし、大幅な売上成長を実現

  • 2025年第3四半期の売上は前年同期比22%増の160億ドル
  • VMwareを含むインフラ系ソフトウェア部門の売上は68億ドル(全体の43%)
  • VCFを核とした新製品群への注力が成長を後押し
VCFを軸にしたポートフォリオ

製品の統合とバンドル化によって差別化を図る

  • VMware Cloud Foundation 9.0の一般提供を開始
  • 数千あったVMware製品を数個の大型バンドルに統合
  • サブスクリプションへの一本化で管理を簡素化
企業へのアプローチ

顧客層ごとに戦略を分けてVCF普及を進める

  • 上位顧客に加え、中規模顧客層への対応を検討中
  • Walmartなど大型顧客を獲得し、グローバルな展開を支援
  • ハードウェアのコモディティ化によって顧客の投資負担を軽減
AI分野での展望

AI需要を背景にハイパースケーラーとの取引を拡大

  • 7大クラウド/AIサービス事業者のうち4社と契約
  • 第4四半期にはAIとVMwareの成長で売上24%増を見込む
  • 今後2年間の焦点は、VCF導入企業の投資利益をいかに最大化するかにある
おわりに

BroadcomはVMwareの買収後、サブスクリプション型クラウドサービス「VCF」への全面移行を進めることで、収益性と事業効率の向上を図っている

AI需要の増加も追い風となり、ハイパースケーラーとの大型契約を通じてインフラ市場での存在感をさらに強めている

用語メモ

VCF(VMware Cloud Foundation

VMwareのクラウド基盤製品で、コンピュート、ストレージ、ネットワークを一体化したプライベートクラウドソリューション

サブスクリプション型ライセンス

従来の一括購入型ではなく、一定期間ごとに料金を支払う利用モデル

コモディティ化

差別化が難しくなり、汎用品として扱われる状態

コスト削減や標準化が進む

ハイパースケーラー

大規模なクラウドインフラを運用する企業

例:Amazon、Google、Microsoftなど

記事13:【Copilot】GPT-5実装で“大進化”──知らないと損する「プロンプト」の“新常識”

※イメージ画像であり、実態とは関係ありません

OpenAIのGPT‑5がMicrosoftのCopilotに即時実装され、業務利用のスタイルが大きく変わり始めている

従来の単純な補助ツールとは異なり、自律的に業務を進行する「戦略的パートナー」としての役割が期待される中、プロンプト設計にも新たな常識が求められている

Copilotの進化

GPT‑5導入により、Copilotは従来の補助役から、より“自律的”な働き手へと進化しつつある

  • 従来は「要約して」「箇条書きで」などの細かい手順を指示するプロンプトが主流だった
  • GPT‑5搭載後は、Copilotにゴールや条件、品質基準を伝えるだけで、段取り・処理の流れを自律的に構築可能になった
  • Copilotは処理内容に応じてモデル(高速処理モデル/高度推論モデル)を切り替える「リアルタイムルーター」機能を備える
  • 複雑な業務であっても内部で最適なプランを立てながら実行できるようになる可能性を持つ
プロンプトの新常識

GPT‑5時代のプロンプト設計は、指示型から課題設定型へとシフトしている

  • 従来:手順を細かく記述する方法が多かった
  • 新方式:ゴール・制約・品質を明示し、自己チェックを促すよう命令する例)「経営層向け提案」「3分で意思決定可能」「ROI/リスク/実行ステップ必須」「500字以内」「専門用語は最小化」「自己チェック機能付き」
注意点と運用姿勢

Copilotの導入はスタート地点であり、継続的な見直しが不可欠である

  • GPT‑5導入により、数ヶ月前のベストプラクティスが陳腐化することもある
  • プロンプトの最適解は進化とともに変化しうる
  • モデルのアップデートに追随する運用体制や教育が重要
  • Copilotを単なるツールで終わらせず、戦略的パートナーとして活用する姿勢が肝要
おわりに

GPT‑5導入によってCopilotは、単なる“指示に答える助手”から、“目標を理解し自律的に動くパートナー”へと深化する可能性を得た

プロンプト設計も、従来の手順指示型から、目的・条件・評価軸を示す課題設定型へと役割を変える

変化の速いAI領域においては、「導入して終わり」ではなく、継続的にプロンプト設計や運用方針を見直す体制こそが差を生む

Copilotとの共創を目指し、目標を明確に設定し、AI活用を戦略化できる組織が、次代の勝者となるだろう

用語メモ

リアルタイムルーター

Copilotが内部でタスクに適したAIモデルを選び、出力を切り替える機構

課題設定型プロンプト

ゴールや制約、品質基準を指定し、AIに判断させる指示方式

自己チェック

出力後に自ら内容を評価し、不足があれば改良を加えるように促す機構

-情報収集
-,