
こんにちは、キクです。
本記事では、僕が今週読んだIT系のニュースについて「振り返り」と「まとめ」を目的として整理していきます。
本記事の内容
日々の収集録

本記事でご紹介する記事とは別で朝イチ情報収集習慣として今週整理した記事も紹介させてください。
読んだ記事
- さくらインターネット、生成AI向けクラウドサービス「高火力 VRT」の「NVIDIA H100」搭載プランを正式版として提供開始
- ゲットワークスとBBIXが協業、コンテナデータセンターへのOCX拠点の設置、共同の販売施策などを展開
- 企業向けLLM市場でAnthropicが急伸--OpenAIを引き離して首位に
- NTT、AIで問い合わせ対応における熟練者の判断プロセスを抽出する技術を開発
- 50Gbpsの光回線サービスに向けたフィールド実証、CCJグループのCTYとCNS
- 日本のNICTが達成、インターネット速度の世界記録。12万年の音楽を1秒でダウンロード
- 「中国製半導体が市場を奪う」米NVIDIAの輸出空白が招いた誤算、H20代替品続々投入
- 水素を活用しデータセンターを運用 世界初の実証事業が山口・周南市でスタート
読んだ記事
- NTT東西、最大10Gbpsの回線に対応するマネージドVPNサービス「フレッツ・VPN アドバンス」を発表
- 「Firefox」アドオン開発者を狙うフィッシングメールが横行 ~Mozillaが注意喚起
- Google、同時に多くのアイデアを考えられる「Gemini 2.5 Deep Think」
- 10ギガの超高速ネット回線契約でも“激遅”! 見落としがちな3つの落とし穴とは?
- ここにきてLLMに“新たなリスク”判明か? 米Anthropicが指摘する「潜在学習」とは何か
- ランサムウェアにサーバ障害、VMware費用増――Veeamユーザーはどう対処した?
読んだ記事
- 米Anthropic、AIモデル「Claude Opus 4.1」を発表 Opus 4のアップグレード版 ほぼ全性能が向上
- OpenAI、オープンソースのAIモデル「gpt-oss」発表 性能は“o4-mini”に匹敵 軽量版含む2種類を公開
- AIモデル「Grok 4」騒動で露呈した“ルールなき進化”の危ない末路
- 時価総額4兆ドル「エヌビディア」の躍進はいつまで続くのか 未来を左右する「データセンター」「トランプ」「中国」
- HDDの進化がデータセンターのTCOを最小化する理由
- 顧客のシステム主権の確保を支援したい――、NTTデータ、KVMベースの仮想化基盤管理サービス「Prossione Virtualization 1.0」を提供開始
読んだ記事
- ダイキン、AIデータセンターの冷却システムを手がける米Dynamic Data Centers Solutions社の買収に基本合意
- OpenAI、「GPT-5」を8月8日(金)午前2時発表へ--ChatGPTの性能向上に期待
- マイクロンのSSDはAIデータパイプラインをフルカバー、世界初PCIe Gen6対応品も
- 1年間でイギリスの年間消費量の半分の水が「消える」...AIがもたらす深刻な水不足に備えよ
- 「リストアしたら中身が○○?」 ランサムウェア暗号化で起きた“怖い話”
ITニュース系
記事1:HBM8で64TB/sへ、次世代HBMロードマップの全貌とAI半導体の未来像:単なるメモリから「計算する頭脳」への進化

AIの性能向上に不可欠なHBM(高帯域幅メモリ)は、もはや単なる記憶装置ではなく「計算する頭脳」へと進化している
韓国科学技術院(KAIST)が示したHBMのロードマップは、2040年までのAI時代の中核技術としての変貌を描いている
HBM進化の3大トレンド
HBMはAIの本質的ニーズに応じて以下の方向へ進化する
- 帯域幅と容量の飛躍的向上:HBM8では帯域64TB/s、容量240GBを目指す
- ニアメモリコンピューティング:HBMに処理機能を持たせGPUの負荷を軽減
- 冷却・パッケージング革新:液浸冷却やガラスインターポーザなど技術進展
HBM4:システム半導体への変貌
制御用ロジックを顧客仕様にカスタマイズする「カスタムベースダイ」により、HBMは受動部品から能動的な半導体へと進化する
- 帯域幅:2.0〜2.5TB/s
- 容量:最大48GB
- 冷却:D2C液冷
- 初採用製品:NVIDIA Rubin、AMD Instinct MI400
HBM5:熱との戦いと設計変革
液浸冷却やCu-to-Cu接合が導入され、放熱と信号伝送の限界突破が図られる
- 帯域幅:4.0TB/s
- 容量:80GB
- 冷却:液浸冷却、サーマルビア
- 想定採用:NVIDIA Feynman
HBM6:実装技術が主役に
マルチタワー構造やガラスインターポーザ導入で、容量・帯域のスケーリングを継続
- 帯域幅:8.0TB/s
- 容量:最大120GB
- 特徴:ガラスインターポーザ、バンプレス接合
HBM7:異種メモリ統合と埋め込み冷却
NANDやLPDDRとの統合により、HBMはメモリ全体を統合管理する「階層の支配者」に
- 帯域幅:24TB/s
- 容量:最大192GB
- 特徴:HBFやLPDDRとの統合、メモリマネジメントロジック、埋め込み冷却
HBM8と未来:演算の中心へ
HBMはGPUと一体化し、データ発生地点で処理を完結させる「HBMセントリック」時代へ
- 帯域幅:64TB/s
- 容量:最大240GB
- 特徴:両面インターポーザ、同軸TSV、光通信、完全3D統合
AIによる設計革命
HBMの複雑化に対応するため、設計工程にもAIが活用される
AIは配線配置、冷却構造、TSV設計などを最適化し、設計速度と性能を飛躍的に向上させる
まとめ
HBMは記憶装置から演算中枢へと進化し、AI時代におけるコンピューティングの構造そのものを変革している
設計・実装・冷却・制御のあらゆる分野が革新の波に包まれ、HBMはAIスケーリングの新たな法則を創出する存在となる
用語メモ
ベースダイ
HBMの最下層に位置するロジック制御用の半導体
ニアメモリコンピューティング
メモリ側で処理を行い演算器の負荷を軽減する技術
D2C(Direct-To-Chip)
冷却液を直接チップに当てる冷却方式
ガラスインターポーザ
信号損失や反りが少ない新素材の基板
TSV(Through Silicon Via)
チップ垂直方向の配線技術
HBF(High-Bandwidth Flash)
HBMに積層される高速フラッシュメモリ
HBMセントリック
HBMを演算・管理の中心に据える新アーキテクチャ
HBM8で64TB/sへ、次世代HBMロードマップの全貌とAI半導体の未来像:単なるメモリから「計算する頭脳」への進化
記事2:GMOインターネット、「GMO GPUクラウド」のNVIDIA B300搭載サービスを2025年度内に提供

GMOインターネットは、次世代GPU「NVIDIA B300」を搭載したクラウドサービスを2025年度内に提供開始する
これにより、先端AIワークロードに対応可能な高性能計算基盤を国内から提供する体制を強化する
新サービスの概要
NVIDIAの最新GPU「Blackwell Ultra(B300)」を搭載したクラウドサービスを新たに展開する
- NVIDIA B300搭載サーバー25台(GPU計200基)を調達
- 国内初の商用サービスの1つとして提供
- 2025年度内から順次提供開始
ベアメタルとソフトウェアの特徴
先端AI用途に最適化されたベアメタル構成とソフトウェアを組み合わせる
- ベアメタルサーバーによる高性能な処理基盤
- NVIDIA Spectrum-X イーサネットネットワークを採用
- NVIDIA AI Enterprise ソフトウェアプラットフォームも含まれる
主なユースケース
多様なAI処理に対応し、特に生成AIと大規模学習に強みを持つ
- 大規模言語モデルの学習とファインチューニング
- 推論処理およびリーズニングの高速化
- コンピュータビジョン向け大規模データ処理
国内展開の狙い
日本国内から安定的に最先端AI向けインフラを提供する体制を確立
- 生成AIやLLM、画像生成、ロボティクスなどに対応
- 先端GPUを用いた国内提供により企業の研究・開発を支援
まとめ
GMOインターネットは、NVIDIA B300を軸とした新たなGPUクラウドサービスで、国内企業のAI研究開発を支えるインフラ基盤を強化する
ベアメタル提供や最適化ソフトウェアの導入により、生成AIを含む先進分野において高い処理能力と柔軟性を提供する
用語メモ
NVIDIA B300
Blackwellアーキテクチャをベースとした次世代GPU
NVIDIA Spectrum-X
高帯域かつ低遅延なAI向けイーサネットソリューション
NVIDIA AI Enterprise
NVIDIAが提供するAI開発向けソフトウェア群
GMOインターネット、「GMO GPUクラウド」のNVIDIA B300搭載サービスを2025年度内に提供
記事3:ChatGPTに「学習モード」が登場 新たな教育支援の形を模索

OpenAIはChatGPTに「学習モード」という新機能を追加し、AIを活用した教育支援の可能性を広げている
学習科学の知見を取り入れた設計で、より深い理解を促す仕組みが特徴である
学習モードの概要
ユーザーの思考を促すことで、受け身でない学びを実現する機能
- すぐに答えを示さず、問いかけやヒントを段階的に提示
- ユーザーのスキルや目標に応じてパーソナライズされる
- 複雑なトピックもセクションごとに整理して提示
主な特徴
教育的効果を高めるための多様な機能を搭載
- ソクラテス式問答法で学生の思考を導く
- スキルレベルに応じた問題構成とレッスン設計
- 理解度チェックを通じた進捗確認と個別フィードバック
- 会話中に学習モードのオン/オフが可能
教育現場での活用
大学生を中心に、宿題や試験対策など幅広いシーンで活用を想定
- 初期テストでは「分かりやすさ」「個別対応」への評価が高い
- 教師や研究者と連携し、認知負荷や好奇心を意識した設計
- 実行可能なフィードバックの提供を重視
今後の展望
さらなる進化に向けた機能強化も計画中
- 視覚的な情報提示による理解促進
- 会話を超えた学習目標と進捗の追跡
- より細かいパーソナライズの実現
まとめ
ChatGPTの学習モードは、単なる答えの提示ではなく、ユーザーの理解を深めることに焦点を当てた設計が特長である
今後も教育機関との連携を通じて、AIが学習成果に与える実証研究や機能強化が進められる見込みである
用語メモ
ソクラテス式問答法
対話によって相手に考えさせる教育手法
SCALEイニシアチブ
スタンフォード大学による教育機会改革プロジェクト
ChatGPT Edu
教育機関向けに提供されるChatGPTの特別プラン
ChatGPTに「学習モード」が登場 新たな教育支援の形を模索
記事4:BIOSに隠れて常駐する高度な新型マルウェア「Shade BIOS」の脅威

BIOS上で動作し、OSに依存せず活動する新種マルウェア「Shade BIOS」の存在が明らかになった
従来のUEFIマルウェアを超える潜伏性を持ち、検出は極めて困難とされる
Shade BIOSの特徴
Shade BIOSはBIOS環境を維持したままマルウェアを動作させる仕組みを持つ
- OSが起動した後も、BIOS領域を保持し続ける
- UEFIが渡すメモリマップを改ざんし、BIOS機能を維持
- OSのAPIに頼らず、BIOSのI/Oプロトコルでファイル処理などを実行
- 独自のメモリ管理やデバイス制御機構を搭載し、OSから隔離された環境を形成
検出が困難な理由
OSレベルのセキュリティ製品をすり抜ける構造を持つ
- EDRやXDRなど、OS上の検知システムでは発見困難
- ファイルや通信をOSに依存せず実行可能
- 従来のUEFIマルウェアと異なり、改変やフック処理が不要で実装が簡易
松尾氏の発表内容
Black Hat USA 2025にて、Shade BIOSの仕組みと検出手法を発表予定
- BIOS常駐型マルウェアの動作構造を解説
- 手動でメモリをダンプしコードを解析する検出手法を紹介
- オープンソースツール「Kraftdinner」による実演も予定
まとめ
Shade BIOSは、従来のマルウェア検知手法では対応できない新たな脅威である
BIOSというOS外部の環境を悪用することで、より深く潜伏し、広範囲のシステムに影響を及ぼす可能性がある
今後はハードウェア層を含む新たなセキュリティ対策が必要となるだろう
用語メモ
BIOS
OS起動前に動作する基本的なファームウェア層
UEFI
BIOSの後継として広く採用されるファームウェア仕様
EDR/XDR
エンドポイントや全体を対象とした検知・応答システム
Kraftdinner
メモリダンプやコード解析に使われるオープンソースツール
BIOSに隠れて常駐する高度な新型マルウェア「Shade BIOS」の脅威
記事5:VMware旧ユーザーに届いた「最後通告」が問う“一律では語れないリスク”の正体

VMwareの永久ライセンスユーザーに対して、Broadcomが利用停止通告を送付している
企業は今後の仮想化基盤の維持方針を再考せざるを得なくなっている
Broadcomからの「最後通告」
永久ライセンス利用者に対して厳しい内容の通知が届き始めた
- サポート契約終了後のアップデートやパッチの即時削除を要求
- ライセンス監査や損害賠償請求の可能性にも言及
- サブスクリプションモデルへの強制移行が狙いとみられる
技術的リスクは環境に依存
すべてのサポート外環境が同じリスクを抱えているわけではない
- バージョン、導入形態、管理状況により影響は大きく異なる
- 厳重に管理された安定環境では、リスクは限定的
- マルチテナントやオープンな構成ではリスクが高まる
サポートなし=即危険とは限らない
セキュリティは構成管理や運用体制にも依存する
- パッチ適用の有無よりも、設定ミスや運用体制の方がリスクになりやすい
- プロアクティブな脆弱性管理や緩和策がより重要
- 旧バージョンであっても、構成と監視体制が堅牢ならば高い安全性を維持できる
サードパーティーサポートの台頭
第三者のサポートサービスが現実的な選択肢として注目されている
- 自社のスケジュールでの移行が可能となる柔軟性
- 予測不能な変更やコストの高騰を回避可能
- 安定性とコントロール性を保ちながら長期運用を継続できる
戦略的リスクの本質
問題は「誰がインフラの未来を決めるのか」である
- ライセンスや監査、契約モデルをベンダーが支配し始めている
- 企業のインフラ戦略が外部に依存するリスクが拡大
- 真に重要なのは「自社が選べる状態を保つこと」である
まとめ
Broadcomによる停止通告は、VMwareの“所有モデル”の終焉を象徴している
企業にとって最も現実的な道は、信頼できるサポート体制を通じて、技術的リスクと戦略的柔軟性の両立を図ることである
用語メモ
vSphere
VMware製の代表的なサーバ仮想化ソフトウェア
サブスクリプションモデル
使用期間に応じて料金を支払う契約形態
サードパーティーサポート
VMware社以外による保守・技術支援サービス
VMware旧ユーザーに届いた「最後通告」が問う“一律では語れないリスク”の正体
記事6:HPEとNVIDIAがタッグを組む真の狙い「AIファクトリー」構想とは

HPEはNVIDIAと連携し、企業のAIインフラ構築とパートナー企業支援を目的とした「AIファクトリー」構想を発表した
AIの実用化を加速するための新たな取り組みが進められている
AIファクトリーの概要
HPEとNVIDIAが協力して展開するAIインフラ製品群
- NVIDIAの最新GPUアーキテクチャ「Blackwell」を採用
- HPE製サーバを基盤とし、業界横断でのAI活用を支援
- オンプレ型の従量課金サービス「HPE GreenLake」にAIエージェント機能を統合
AIエージェントによる自動化支援
大規模言語モデルを活用し、業務の自律的処理を実現
- AIエージェントにより企業内作業の効率化・自動化が可能
- 生成AIと組み合わせることで生産性向上と社会的変革が期待される
- 導入にはインフラ整備とデータ整備が必須とHPE CEOが強調
パートナー企業への支援強化
AI導入を担う販売・SIerに向けた教育と情報提供を拡充
- AIエージェントの導入・設計・実装方法をパートナーにレクチャー
- ユーザーからの問い合わせ対応能力を強化する支援体制を構築
- NVIDIAと連携し、トレンド共有・資料作成を行う育成プログラムを展開
まとめ
HPEとNVIDIAは、AI時代における企業の競争力を支える基盤として「AIファクトリー」を打ち出し、AI活用に必要なインフラと支援体制を包括的に提供しようとしている
Blackwellベースの高性能サーバや、従量課金型のGreenLakeサービス、そしてAIエージェントの導入支援など、多層的なアプローチにより、企業のAI導入障壁を取り除く構えである
また、技術支援の手が届きにくい販売パートナーやSIerに対しても教育と育成プログラムを通じて支援を強化しており、エコシステム全体でAIの裾野を広げようとしている
HPEにとって、これは単なる製品提供ではなく、顧客とパートナーの双方を巻き込んだ「AI活用の共創体制」を築く戦略的ステップといえる
用語メモ
HPE(Hewlett Packard Enterprise)
企業向けIT製品とサービスを提供するアメリカの企業
NVIDIA
GPUの開発で知られるアメリカの半導体メーカー
Blackwell
NVIDIAが発表した最新のGPUアーキテクチャ、AI処理に最適化
AIファクトリー
AIインフラ構築のための製品群を指すHPEの新コンセプト
HPE GreenLake
HPEのクラウドライクなオンプレミス型ITサービスモデル
AIエージェント
LLMを活用した自律的な業務処理システム
HPEとNVIDIAがタッグを組む真の狙い「AIファクトリー」構想とは