【情報収集】今週読んだTech記事#11

こんにちは、キクです。

本記事では、僕が今週読んだIT系のニュースについて「振り返り」と「まとめ」を目的として整理していきます。

期間:2025年8月18日 (月) 〜 8月22日 (金)

注意事項

本記事は、日々のITニュースを自身の学習や情報収集の習慣付けとしてまとめたものです。

内容には要約の過程で誤解や事実と異なる点が含まれる可能性があります。

あくまで個人的な記録としてご覧いただき、情報の正確性や網羅性については保証いたしかねますので、ご了承ください。

日々の収集録

本記事でご紹介する記事とは別で朝イチ情報収集習慣として今週整理した記事も紹介させてください。

2025年8月18日(月):【情報収集】ITネタほぼ日収集録#28

読んだ記事
  • 【保存版】今やるべきAIリスク対策「8カ条」はこれ!失敗しない「超実践ステップ」
  • AnthropicのClaude、有害な会話を自ら終了する機能を試験導入 “AIの福祉”研究の一環
  • UFS 4.1対応の車載向けフラッシュメモリをサンプル出荷、最大1TBまで展開
  • 約9カ月間故障ゼロのHDDモデルが判明 Backblazeが2025年第2四半期のHDD故障率を発表

2025年8月19日(火):【情報収集】ITネタほぼ日収集録#29

読んだ記事
  • ソフトバンク、北海道苫小牧市と福岡県糸島市に海底ケーブル陸揚げ拠点を新設へ
  • さくらインターネット、ベアメタル型GPUクラウドサービス「高火力 PHY」でB200プランを提供開始
  • ソフトバンクグループがIntelの普通株式を20億ドルで取得へ 「AI革命」の推進を目的に
  • 「GPT-5」、「親しみやすさ」が復活するも不満の声が続出
  • 全国で「データセンター」の建設が続くのはなぜ?電力消費に問題はない?
  • エクイニクス、次世代原子力と燃料電池供給企業と提携--AIデータセンターへの電力確保

2025年8月20日(水):【情報収集】ITネタほぼ日収集録#30

読んだ記事
  • ゲットワークス、「NVIDIA GPU Blackwell B200」搭載サーバーを運用開始
  • OpenAIの「生成AIブラウザー」が巨大IT企業に与えるインパクト。グーグルChromeは複雑な立場
  • DropboxやXはなぜ「脱クラウド」「オンプレミス回帰」に踏み切ったのか?
  • Tellus、衛星データ活用AIモデルの開発や検証に必要なものをワンパッケージで提供
  • HDDなき未来を見据える「Pure Storage」の次世代ストレージ構想は何がすごい?

2025年8月21日(木):なし

2025年8月22日(金):なし

ITニュース系

記事1:AI活用は進んでる? サーバを操作できる新拠点に行ってみた

企業がAIを定着させるには、基盤構築の難易度の高さや電力・冷却の課題など、従来の仮想化インフラとは異なる多くの障壁があった

この課題解決のため、SB C&S、IDCフロンティア、NVIDIAが連携し、「C&S AI INNOVATION FACTORY」が2025年7月に開設された

設置背景と狙い

SB C&SおよびIDCフロンティアは、PoC(概念実証)や技術検証が困難な企業向けに、AI基盤の事前体験環境を提供する拠点として本サービスを設置した

東京都府中にあるIDCフロンティアのデータセンターが選ばれたのは、高負荷対応の電力供給や冷却設備が整っているためである

提供設備

施設には以下のAIインフラが常設されている

  • 「NVIDIA DGX H200」および「NVIDIA AI Enterprise」ソフトウェア
  • 「NVIDIA Quantum‑2 QM9700」「Spectrum‑4 SN5600」スイッチ
  • 「DDN ES400NVX2」ストレージ

これらにより、販売パートナーがAI基盤を構築しつつ動作確認を可能にしている

提供サービス内容

本ファクトリーは、以下のサービスを主体として提供している

  • デモツアー:ハードウェア設置場所の見学を通して理解促進
  • ハンズオン:構築からAIモデル開発まで、ステップ型トレーニングを実施
  • リモート機器貸し出し:大量GPUリソースを遠隔利用可能とし、導入ハードルを低減
  • 共創プラットフォーム:パートナーやベンダーとソリューション検証・創出の場を提供
インフラの特長

府中データセンターは1ラックあたりの高電力対応とリアドア型空調など、高負荷GPUサーバーに適したインフラを備える

こうした環境は、創薬や大規模言語モデル(LLM)の開発などにも活用されてきた実績がある

まとめ

「C&S AI INNOVATION FACTORY」は、企業が直面するAIインフラ構築の障壁を取り除くための検証・体験拠点である

高度なインフラと実機体験を通じて、AI導入の第一歩を後押しするとともに、パートナーと共創する未来志向のモデルである

用語メモ

SB C&S

ソフトバンクグループのITディストリビューターであり、AI周辺インフラを一括提供する戦略を展開

IDCフロンティア

SBグループのデータセンター事業会社

多数の高集積施設を展開

PoC(概念実証)

提案前に実機で機能や性能を確認する試験環境

リアドア型空調

サーバーの背面に設置し、効率的に高排熱を処理する方式

DGX H200

GPUアクセラレーティッドなAIサーバー製品

記事2:Vantageがテキサス州に1.4GW規模のデータセンターキャンパスを計画

※イメージ画像です

Vantage Data Centersが、テキサス州に大規模なデータセンターキャンパス「Frontier」の建設計画を発表した

これにより、同社はアメリカ南部でのプレゼンスを一段と強化し、超大容量施設の新たなマイルストーンを打ち立てようとしている

新キャンパス「Frontier」の概要

Vantageがシャックルフォード郡に建設を進める「Frontier」は、同社史上最大規模のプロジェクトとなる

  • テキサス州アビリーン北東部に位置する
  • 敷地面積は1,200エーカー(約4.9平方キロメートル)
  • 全体で1.4GWの電力供給能力を持つ
  • 建設はすでに始まっており、初棟の完成は2026年後半を予定
施設構成と設備スペック

キャンパスには高密度ラックを備えた大規模な施設が10棟建設される計画である

  • 総面積は約370万平方フィート(約34万3,741平方メートル)
  • ラックあたりの電力密度は250kW以上
  • 高集積なAI/クラウド用途に対応できる仕様とされる
  • 将来的な需要増にも柔軟に対応可能なスケーラブル設計
経済的・戦略的意義

同プロジェクトはVantageにとって米国南部における重要拠点となる見込みである

  • 総投資額は250億ドルを超えるとされている
  • 地域経済への雇用創出効果も期待されている
  • テキサス州は再生可能エネルギーの活用が進む戦略的立地
まとめ

Vantageの新たなデータセンターキャンパス「Frontier」は、規模・投資額・性能いずれを取っても前例のない巨大施設となる見込みである

AI時代に向けた高密度・大規模なデジタルインフラの整備が、アメリカ南部で加速していることを象徴する事例である

用語メモ

Vantage Data Centers

北米、ヨーロッパ、アジアなどで大規模データセンターを展開する企業

1.4GW

発電所1基に匹敵する大容量

データセンターとしては超大規模

アビリーン

テキサス州中部の都市

広大な土地と電力供給の安定性が魅力

エーカー

1エーカーは約4,047平方メートル

250kWラック

高性能GPUやAI処理向けの超高密度コンピューティング環境に対応する仕様

記事3:デル・テクノロジーズ、新たな非構造化データエンジンなど「Dell AI Data Platform」の機能強化を発表

デル・テクノロジーズは、AI時代のデータ処理に対応するため「Dell AI Data Platform」の機能強化を発表した

非構造化データを扱う新エンジンを中核とし、AIワークロード全体の効率化と高度化を支援する構成となっている

AIライフサイクル全体の支援強化

新しいDell AI Data Platformは、AI導入の実験段階から本番展開までを一貫して支援する

  • データの取り込みから推論・検索までを統合的にカバー
  • 自動化されたデータ準備により開発を迅速化
  • 高品質なエンタープライズデータをAIエージェントに接続可能
  • NVIDIAとの連携で検証済みのGPUソリューションを提供
新しい非構造化データエンジンの特徴

Elasticとの協業によって実現した非構造化データエンジンは、AIアプリケーション強化の中核を担う

  • リアルタイムで安全な非構造化データアクセスを提供
  • ベクトル検索、セマンティック検索、ハイブリッド検索に対応
  • GPUアクセラレーションにより高パフォーマンスを実現
  • 他のストレージ・SQLエンジンと統合して機能を拡張
新GPUサーバーとの連携による効果

最新GPUを搭載したDell PowerEdgeサーバーとの組み合わせで即時導入可能なAI基盤を提供する

  • NVIDIA RTX PRO 6000 Blackwell Server Editionを搭載
  • AI推論モデル(NemotronやCosmos)にも対応
  • PowerEdge R7725は2U初のリファレンス準拠GPUサーバー
  • 大規模かつ複雑なAIワークロードへの対応が可能
まとめ

Dell AI Data Platformの強化は、非構造化データ活用の高度化とAIワークロードの本格展開を可能にする

ElasticやNVIDIAとの協業により、企業は信頼性の高いターンキー型AIインフラを短期間で導入できる環境を得られる

用語メモ

非構造化データ

テキスト、画像、動画などの構造を持たないデータ

ベクトル検索

意味の近さに基づく検索方式、生成AIで多用される

セマンティック検索

単語の意味を理解して関連情報を探す検索手法

GPUアクセラレーション

演算処理をGPUで高速化する技術

Dell PowerEdge

Dellのエンタープライズ向け高性能サーバーシリーズ

NVIDIA RTX PRO 6000 Blackwell

最新の企業向け高性能GPUモデル

記事4:毎秒1億パケットを超える「超帯域幅消費型DDoS攻撃」が急増 「ランサムDDoS攻撃」の報告数も増加

Cloudflareが最新のDDoS脅威レポートを公開し、DDoS攻撃の規模と頻度が過去最大に達したことを明らかにした

超帯域幅型攻撃やランサムDDoSが急増し、組織や個人にとって重要なセキュリティ課題となっている

DDoS攻撃の規模と増加傾向

2025年第2四半期にはDDoS攻撃の規模・件数ともに過去最大を記録した

  • ピーク時は7.3Tbps/4.8Bppsの攻撃を観測
  • 1億ppsを超える超帯域幅型攻撃は前期比592%増加
  • 1Tbps/1Bpps超の攻撃も前期比2倍に増加
  • 全体の攻撃件数は前年同期比で44%増加
HTTP DDoSとL3/L4攻撃の動向

HTTP層とネットワーク層でのDDoS攻撃の傾向に違いがみられる

  • HTTP DDoSは410万件(前期比9%増、前年同期比129%増)
  • L3/L4 DDoSは320万件(前期比81%減)
  • HTTP DDoSの71%は既知のボットネット由来
  • 主要発信元はインドネシア、シンガポール、香港、アルゼンチン
新たな攻撃手法とマルウェアの変化

DDoS攻撃手法が多様化し、新たなプロトコル悪用も確認された

  • Miraiの比率は18%→2%へ大幅減少
  • RIPv1やRDPを悪用するDDoS攻撃が新たに確認
  • Teeworlds DDoS攻撃などゲーム系標的も出現
ランサムDDoSの増加と標的業界

金銭目的のDDoS攻撃と、その被害の業種が明確化している

  • RDDoS報告は前期比68%、前年同期比6%増加
  • 標的業界トップは「通信事業者」、次いで「インターネットセクター」
  • VPNFilterやFodchaなど他のボットネットの国内被害も継続
まとめ

DDoS攻撃は件数・規模ともに激化しており、単なる一時的な脅威にとどまらない

攻撃の手法が高度化し、ランサム型も増加する中、あらゆる組織がトラフィック監視体制と迅速な対応手順を整える必要がある

用語メモ

DDoS(分散型サービス妨害)攻撃

多数のコンピュータを使い標的に過剰な負荷をかける攻撃

Tbps/Bpps

それぞれテラビット毎秒/ビリオンパケット毎秒の略

HTTP DDoS

Webサーバを対象にしたアプリケーション層攻撃

L3/L4 DDoS

ネットワーク層を狙った攻撃

例:DNSフラッド、SYNフラッド

RDDoS(ランサムDDoS)

攻撃を止める代わりに金銭を要求する手法

RIPv1

古いルーティングプロトコル、脆弱性を悪用されやすい

Fodcha

IoT機器を狙った新興ボットネット型マルウェア

記事5:データセンターネットワークをAIワークロードに最適化するには

AIインフラ導入に伴い、企業はネットワーク最適化を再考する必要がある

特にGPUクラスタの接続においては、高帯域・低遅延の構成が求められる

Gartnerはそのための具体策と注意点を提示している

GPU接続に必要な相互接続技術の選定

イーサネット、InfiniBand、NVLinkなどの選択と組み合わせが重要になる

  • InfiniBandやNVLinkだけに頼らず、用途に応じた組み合わせが可能
  • 数千基規模のGPUクラスタにはイーサネットが推奨される
  • イーサネットは性能・信頼性の両立と運用性で優れる
  • 誤解として「InfiniBandだけが最適」という見方があるが必ずしも正しくない
AIワークロードに特化したネットワーク設計

AI処理と従来処理の混在はリソース競合を生み、効率低下につながる

  • リーフ/スパイン型の従来構成はAIには最適でない場合がある
  • 「ノイジーネイバー」問題で処理性能が低下するリスクあり
  • AI向けには専用スイッチとホップ数最小構成が推奨される
  • ネットワークスイッチはAI導入全体コストの15%以下に抑えられるため専用化すべき
具体的な最適化の推奨事項

AI対応ネットワーク構築における基本方針をGartnerが提示している

  • GPU接続には専用の物理スイッチを使う
  • スイッチ台数は最小限(理想的には1〜2台)に抑える
  • バックプレーンのオーバーサブスクリプションを防ぐ
  • 400Gbps以上の高帯域インターフェースを使用する
  • 汎用ネットワークとGPU専用ネットワークの分離が必要
500基以上のGPUには専用ファブリックを構築

GPU台数に応じた構成の見直しが必要になる

  • 500基未満:1~2台のスイッチで対応可能
  • 500基以上:AI向けのレールベース設計やファブリック型の採用が推奨される
  • 専用構成でトポロジーを柔軟に選べる(メッシュ型、ドラゴンフライなど)
ベンダー認定構成の活用によるリスク低減

GPUとネットワークの相互運用性確保には共同検証された構成が有効

  • ハードウェアとソフトウェアの整合性がとれた設計が重要
  • ベンダーが共同認定したガイドに従うことで導入リスクが低減
  • MTTR(平均修復時間)の短縮にも寄与
まとめ

AIワークロードを安定して高速に処理するには、従来のデータセンターネットワークを見直す必要がある

ネットワークトポロジーの最適化、専用スイッチの導入、ベンダー認定構成の活用が鍵となる

用語メモ

InfiniBand

高帯域・低遅延の相互接続技術でHPC分野に強い

NVLink

NVIDIAが提供するGPU間高速接続技術

ノイジーネイバー

共有リソース上で一部処理が他を妨げる現象

バックプレーン

スイッチ内部の通信帯域

ここが詰まると性能劣化につながる

レールベース設計

効率的なGPU配置と接続を実現するための構成方式

MTTR(Mean Time To Repair)

障害からの平均復旧時間

-情報収集
-,