
こんにちは、キクです。
本記事は、今朝(2025年8月25日)僕が気になった「最近のIT関連ニュース記事」について、ざっくり整理していきます。
本記事の内容
記事1:ハイレゾ、廃校を活用したGPUデータセンター「玄海町データセンター」を開設
ハイレゾが新たにGPUデータセンターを佐賀県に開設した
廃校を再活用し、AIインフラと地域の持続可能な発展を両立する試みである
玄海町における新データセンターの概要
旧有徳小学校を改装し、GPU専用のデータセンターとして再活用した
- 佐賀県玄海町の旧有徳小学校(2015年廃校)を利用
- 床面積は約2089㎡
- NVIDIA RTX A4000を120台搭載
- 自治体の休眠資産を活用し、地域活性と事業性の両立を図る
過去の拠点展開と今回の位置づけ
今回の玄海町は、同社の複数ある拠点の中で新たな展開地域となる
- 2019年:石川県志賀町にて事業開始
- 2022年:志賀町第2データセンターを開設
- 2024年:香川県高松市にも子会社を通じて拠点展開
- 今回の佐賀県はそれらに続く新規拠点となる
持続可能性と地方創生を重視した方針
テクノロジーと地域資源の融合を通じ、社会課題にも対応する姿勢を示す
- 地方の未活用資産(廃校)を再利用
- AI開発に必要な計算力を提供しつつ、地域経済にも寄与
- 日本が「AI計算力が世界で一番安い国」になることを目指す
おわりに
ハイレゾの玄海町データセンターは、廃校をGPUデータセンターへと転換することで、地方資産の再活用とAIインフラ整備を同時に進める取り組みである
地域とテクノロジーの融合により、持続可能な社会を実現しようとする意図が明確である
用語メモ
ハイレゾ
GPUクラウド「GPUSOROBAN」を運営する日本企業
NVIDIA RTX A4000
ミッドレンジのプロフェッショナル向けGPU
主にAIやレンダリング向け
廃校活用
少子化に伴う公共施設の余剰を、企業が再利用する動きの一例
ハイレゾ、廃校を活用したGPUデータセンター「玄海町データセンター」を開設
記事2:「NVIDIAとも組むし、自社でも作る」GoogleのAI戦略に学ぶ“賢い一手”
GoogleはAI活用を“実験”から“実装”へと導く中で、NVIDIAとの連携と自社ハードウェア開発を両立させる戦略を進めている
ROIを意識したAI活用へのシフト
企業のAI導入が実験段階から本番運用段階へと移行しつつあることをGoogleは明言する
- AIの活用目的が「試す」から「事業価値の創出」へ変化
- ROI重視の企業が増加し、AIの業務組み込みが加速
- 一方で、全ての企業が成功しているわけではない
NVIDIA連携と自社TPU開発の両立
GoogleのAI戦略の中核には、外部連携と独自技術の併存がある
- NVIDIAのBlackwell GPUを使った「Google Distributed Cloud」を構築
- 隔離環境でもGeminiを利用可能にし、高セキュリティ分野に対応
- 自社開発のTPUは推論処理で高効率を実現し、Google AIサービスを支える
- AIモデルの推論コストは学習コストより長期的に重視される傾向
Kubernetesを巡る構造的な再考
AIワークロードの特性が、インフラの標準構造に変化を促している
- GPUやTPU活用におけるKubernetesの適応方針が議論中
- 既存構造の拡張か、根本的な再設計かは今後の判断次第
- 当面はGKEの機能拡張により対応していく方針
Vertex AIによる管理性と進化支援
AIモデルの運用負荷を軽減し、モデル更新への追随を支援する
- 複数のAIモデルを一元管理し、移行を支援
- Gemini 1.5から2.5などのバージョン間の互換性も評価機能でサポート
- プロンプト移行ツールも提供し、ユーザー負担を軽減
AIエージェントと新たな課題
自律的に動くAIエージェントの進化と、それに伴う統制上の懸念がある
- Vertex AI Agent BuilderやADKにより、開発を簡素化
- ガバナンス上の課題として、権限管理の複雑さが浮上
- 進化の本質は「状況判断+複数ツールの統合処理」への能力獲得
おわりに
GoogleはAI戦略において、NVIDIAとの連携と自社TPUの開発を両立させることで、幅広いユーザーニーズに対応している
AIの実用段階への移行が進む中、KubernetesやAIエージェントの進化にも注力し、インフラからアプリケーション層まで包括的な支援を提供している
用語メモ
Gemini
Googleが開発した大規模言語モデル
TPU(Tensor Processing Unit)
Googleが開発したAI向け専用プロセッサ
Blackwell
NVIDIAの次世代AI向けGPUアーキテクチャ
Vertex AI
Google CloudのAIモデル開発・運用統合プラットフォーム
GKE(Google Kubernetes Engine)
Googleが提供するマネージドKubernetes環境
AIエージェント
自律的に意思決定・実行を行うAIシステム
「NVIDIAとも組むし、自社でも作る」GoogleのAI戦略に学ぶ“賢い一手”
記事3:スパコン「富岳NEXT」、NVIDIAが開発に参加 同社のGPUと富士通のCPUを連携 “世界最高”のAI性能目指す
スーパーコンピュータ「富岳NEXT」の開発にNVIDIAが参加し、AIとHPCを融合した次世代の計算基盤を構築する動きが本格化している
富岳NEXTの開発体制
理化学研究所(理研)が主導する富岳NEXTの開発に、NVIDIAがGPU設計で正式に参画した
- 富士通はCPUとシステム全体の設計を担当
- NVIDIAはGPUアーキテクチャの設計を担う
- 2030年の稼働を目指して、三者協力体制で開発が進行中
次世代CPUとGPUの接続構想
富岳NEXTではCPUとGPUの緊密な連携によって大幅な性能向上が図られる
- CPUは「FUJITSU-MONAKA-X(仮称)」を採用予定
- GPUとの接続には次世代高速インターフェースを導入予定
- 富岳比で5倍以上のハードウェア性能を目指す
AIとシミュレーションの融合
ソフトウェア面ではAIを活用し、より効率的な演算処理を可能にする技術が導入される
- AIがシミュレーション結果を予測する「サロゲートモデル」を採用
- 演算の精度を使い分けて電力消費を抑える「混合精度演算」を導入
- アプリケーション実行性能は最大で10〜20倍向上の見込み
AI-HPCプラットフォームの実現目標
単なるスパコンの高性能化にとどまらず、AIとHPCを統合した新しいプラットフォームを構築する
- 消費電力は富岳と同等(約40MW)で性能は最大100倍を目指す
- AI処理能力の飛躍的な向上により、科学研究分野でのAI活用を促進
- シミュレーションとAIの高度な連携により、汎用性の高い計算基盤を実現
おわりに
富岳NEXTは、従来のシミュレーション中心のスーパーコンピュータに、AI処理性能を加えた「AI-HPCプラットフォーム」を実現するプロジェクトである
富士通のCPUとNVIDIAのGPUを高度に連携させ、AI活用とエネルギー効率の両立を図りながら、アプリケーション性能の飛躍的な向上と日本の計算インフラの革新を目指している
用語メモ
富岳
理研と富士通が共同開発した現行のスーパーコンピュータ
富岳NEXT
富岳の後継機で、2030年ごろの稼働を予定
サロゲートモデル
AIを用いてシミュレーションの予測を代替する手法
混合精度演算
処理に応じて精度を変えることで効率化を図る演算技術
AI-HPC
AIと高性能計算を統合した次世代計算プラットフォームの概念
スパコン「富岳NEXT」、NVIDIAが開発に参加 同社のGPUと富士通のCPUを連携 “世界最高”のAI性能目指す