【情報収集】今週読んだTech記事#18

こんにちは、キクです。

本記事では、僕が今週読んだIT系のニュースについて「振り返り」と「まとめ」を目的として整理していきます。

期間:2025年10月13日 (月) 〜 10月17日 (金)

注意事項

本記事は、日々のITニュースを自身の学習や情報収集の習慣付けとしてまとめたものです。

内容には要約の過程で誤解や事実と異なる点が含まれる可能性があります。

あくまで個人的な記録としてご覧いただき、情報の正確性や網羅性については保証いたしかねますので、ご了承ください。

記事1:データセンター向けIT機器の世界市場、AIサーバーの需要拡大などを受け2031年度には188兆円規模に~富士キメラ総研調査

※イメージ画像であり、実態とは関係ありません

生成AIの普及が追い風となり、データセンター向けIT機器市場が急成長している

富士キメラ総研の調査によると、2031年度には市場規模が188兆円に達する見込みだ

AIサーバーと半導体の需要拡大

AIサーバーの需要増加が市場全体を牽引している

  • AIアクセラレーターチップやHBM搭載DRAMが大きく伸びている
  • 高性能化や広帯域化により単価が上昇し、市場規模を拡大
  • 2027年以降は学習用AIサーバー投資が落ち着く一方、推論用AIサーバーへの投資が本格化
冷却・記録・通信関連の拡大

AI処理の高密度化により、周辺分野の機器にも成長が波及している

  • 液冷や液浸などの冷却技術が拡大、PFAS代替開発も進展
  • AIサーバー用途でSSD需要が急伸、容量増と単価上昇で市場拡大
  • 光トランシーバーやAOCなどの通信機器がインフラ投資を背景に成長
材料や基板、地域事情も成長要因

AI化に伴う材料や地域要素も市場拡大を支えている

  • サーバー用高多層基板がAIアクセラレータ向け中心に採用拡大
  • 低誘電材料の採用や高層化による単価上昇も影響
  • 中国では自国製チップの性能限界により、数で性能を補う傾向が強まる
おわりに

データセンターを取り巻く機器市場は、AIサーバーの高性能化と周辺技術の進化により今後も堅調に拡大すると見られる

ただし、AI開発の収益性や電力制約といった課題にも直面しており、ハードウェア単体でなく、効率性や運用最適化も含めた総合的な成長戦略が問われるフェーズに入ってきている

用語メモ

AIアクセラレーターチップ
  • AI計算専用に設計された集積回路で、GPUや専用ASICが含まれる
HBM(High Bandwidth Memory
  • 高帯域幅メモリ
  • 従来のDRAMよりもデータ転送速度が高くAI用途に適する
PFAS
  • 有機フッ素化合物の一種
  • 冷却材に使用されてきたが、環境負荷低減のため代替技術の開発が進んでいる
AOC(Active Optical Cable
  • 電気信号を光信号に変換して通信を行うケーブル
  • 高速・長距離通信に用いられる

記事2:NVIDIA製GPUドライバーに8件の脆弱性、最大深刻度は「High」

※イメージ画像であり、実態とは関係ありません

NVIDIAのGPUドライバーに複数の脆弱性が見つかり、最新版への更新が推奨されている

Linux版を中心に深刻な問題が報告されており、影響範囲は広い

影響範囲と深刻度

今回の脆弱性はWindowsとLinux両方に及び、特にLinux版に集中している

  • CVSSスコアは最大8.2(High)に分類
  • 特権昇格、DoS、情報漏洩などのリスクが存在
  • AI関連機能「Project G-Assist」にも影響
主な脆弱性の内容

技術的な欠陥が複数報告されており、攻撃手段も多様化している

  • use after freeやNULLポインター逆参照などが含まれる
  • 競合状態による特権昇格の問題も複数存在
  • 一部はコード実行やデータ改竄の恐れもある
対応方法と推奨策

最新版ドライバーへの更新で対処可能であり、早期対応が望ましい

  • GeForce利用者はv581.42以降に更新が必要
  • NVIDIAアプリ経由のアップデートも可能
  • VGPUソフトウェアの修正も配布済み
おわりに

NVIDIA製GPUは個人のゲーミング用途だけでなく、業務用ワークステーションやAIインフラなど幅広い分野で使用されているため、今回の脆弱性は非常に多くのシステムに影響を及ぼす可能性がある

特にLinux環境では複数の深刻な問題が報告されており、セキュリティ対策が後手に回ると被害が拡大するおそれがある

今後もNVIDIAドライバーに関する脆弱性情報には敏感に反応し、継続的なアップデート体制を整えることが求められる

用語メモ

CVSS
  • 脆弱性の深刻度を数値化する国際的指標
DoS(Denial of Service
  • 意図的にシステムを使えなくする攻撃手法
use after free
  • 解放済みのメモリを使用することで発生する不具合
NULLポインター逆参照
  • 無効なメモリ参照によって異常動作を引き起こす現象
Project G-Assist
  • NVIDIAが提供するAIアシスタント機能
  • ゲーミング環境に特化した機能を持つ

記事3:Googleの「Opal」が日本上陸 AIミニアプリ開発を“ノーコード化”

※イメージ画像であり、実態とは関係ありません

GoogleがAI活用を一般層にも広げる新たなツール「Opal」を日本を含む複数国で展開した

自然言語とビジュアル操作の融合により、誰でも直感的にAIアプリを作れる環境が整いつつある

Opalの概要と特徴

OpalはノーコードでAIアプリを構築できるGoogleの新ツールで、自然言語入力とビジュアル設計を組み合わせて使う

  • 特定目的の小規模AIアプリを構築可能
  • プロンプトやAIモデルを組み合わせたワークフローを視覚的に生成
  • テンプレートギャラリーからの活用やリミックスも容易
  • 作成したアプリはGoogleアカウント経由で共有可能
日本を含む提供国の拡大

Opalは米国以外にも15カ国に展開され、日本もその対象に含まれた

  • 新たに追加された国は日本、韓国、インドなど15カ国
  • Googleは早期採用者の成功事例を踏まえてグローバル展開を決定
  • 各国のクリエーターが短期間で多様なAIミニアプリを開発
機能強化ポイント

ユーザーからのフィードバックに基づき、Opalの操作性と信頼性が大きく向上した

  • ワークフローのステップ実行やエラー表示などのデバッグ機能を改善
  • 並列処理の導入で複雑な処理も高速実行
  • 全体的な処理速度と応答性が大幅に向上
おわりに

Opalの登場により、これまで技術的なハードルが高かったAIアプリ開発が、より幅広いユーザーにとって身近なものになりつつある

ノーコードによる開発環境の整備は、企業だけでなく教育現場や個人の創作活動にも新たな可能性をもたらすだろう

今後、ユーザーの活用事例が増えることで、Opalの影響力はさらに拡大していくと考えられる

用語メモ

ノーコード
  • プログラミングなしでアプリを構築できる開発手法
ワークフロー
  • 処理の流れを段階的に定義した仕組み
リミックス
  • 既存のものを編集・再構成して再利用すること

記事4:HDDでAIはもう動かない? “100TB超えSSD”が必要になる理由

※イメージ画像であり、実態とは関係ありません

AIのモデルと学習データ量が飛躍的に増加しており、従来のHDD中心ストレージ構成では限界が近付きつつある

100TB超SSDの必要性が浮上している背景を整理する

AI時代にSSDが不可欠な理由

HDDでは応答性と速度面でAI用途を支えきれないため、SSDが主役になるとされる理由がある

  • AIモデルの学習には巨大データセットを高速に読み書きする能力が求められる
  • HDDはシーク遅延が大きく、レイテンシがボトルネックになりやすい
  • SSDはHDDより高密度・高速であり、不得手な部分を補える
大容量SSDの技術進展とロードマップ

ベンダー各社が100TB級SSDの実現に向けてロードマップを描いている

  • Sandiskは2026年前半に128TB/256TBモデルを投入予定と発表
  • 将来的には512TBや1PB級SSDも視野に入れている
  • 大容量化には多層ダイ積層やパッケージ化技術が鍵となる
SSDとHDDの階層構成とコストモデル

AIシステムでは、SSDとHDDを使い分けてストレージ階層を構築する設計が主流になりつつある

  • 高頻度アクセスデータはSSDに、低頻度データはHDDに格納する階層構成
  • QLC SSDを中間層として導入するケースも増加
  • SSD導入はラック効率・電力効率・冷却コスト低減にもつながる
おわりに

AIシステムにおけるストレージ戦略は、単に容量を増やすことではなく、応答性能・効率性・階層構成の最適化が問われる段階に入っている

HDDだけでは対応困難な局面が増えており、100TB超のSSD導入とストレージアーキテクチャの刷新は、多くの企業にとって避けられない選択肢となるだろう

用語メモ

QLC(Quad-Level Cell
  • 1セルあたり4ビットを格納するNAND型フラッシュ方式
  • 容量密度は高いが耐久性は低め
TLC(Triple-Level Cell
  • 1セルあたり3ビット方式
  • 耐久性と性能のバランスが良い
ダイ積層
  • 複数のメモリチップを垂直に積む技術
  • 大容量化に貢献
PB(ペタバイト
  • 1,024テラバイトに相当する容量単位
EDSFF(Enterprise and Data Center SSD Form Factor
  • データセンター向けSSDの標準フォームファクター

記事5:アサヒグループホールディングスへのサイバー攻撃 製造業が学ぶべき教訓とは

※イメージ画像であり、実態とは関係ありません

アサヒグループHDがランサムウェア攻撃を受け、製造停止や情報流出の可能性が明らかになった

製造業が備えるべきセキュリティ教訓が浮かび上がっている

攻撃の内容と対処状況

攻撃集団「Qilin」が犯行声明を出し、アサヒGHDはシステム遮断や復旧対応を順次進めている

  • 約9,000件/27GBのファイル流出を主張(契約書、予算、従業員情報等含む)
  • 障害発生後、該当システムの遮断措置を実施
  • 工場6カ所の一部製造が再開されたことが報告されている
  • 流出データの内容と範囲は現在も調査中
製造業に特有の脆弱性とリスク構造

製造業はレガシー設備・サプライチェーン構成・稼働優先とのトレードオフが複雑に絡む

  • 複数サプライヤーとの接続や装置の多様性により攻撃経路が増える
  • 老朽化したインフラは最新防御技術導入が遅れがち
  • 一部システム・施設を停止せざるを得ないと、全体の生産が止まりうる
  • 侵害がサプライチェーンに拡散し、被害が連鎖するリスク
求められる回復力と防御戦略

被害を抑え、事業継続を可能にする体制が製造業では不可欠となる

  • 攻撃予測・耐久性・迅速復旧の能力(サイバー回復力)を整える必要あり
  • 隔離クラスタやネットワーク分割(マイクロセグメンテーション)の導入
  • 継続的なセキュリティ強化と脆弱性監査の実施
  • 事前演習や障害発生時対応シナリオの整備
おわりに

今回の事案は単なる情報流出以上の警鐘を鳴らしている

製造業は「稼働優先」から「防御と回復力併存」の体制に移行すべき段階に差し掛かっている

サプライチェーンを含めた全体設計の見直しと、事業を止めないセキュリティ体制の早期構築が必要である

用語メモ

ランサムウェア
  • 身代金を要求するマルウェア
  • データ暗号化などで業務阻害を引き起こす
サイバー回復力(Cyber Resilience
  • 攻撃に耐える能力、被害から迅速に回復する能力
マイクロセグメンテーション
  • ネットワークを細分化し、攻撃の横展開を防ぐ技術
遮断措置
  • 侵入されたシステムをネットワークから隔離して被害拡大を防ぐ対応

記事6:インテル、データセンター向けAI用半導体を来年発売へ

※イメージ画像であり、実態とは関係ありません

インテルがデータセンター向けAI用GPU「クレセント・アイランド」を来年に発売予定と発表した

AI用途向け推論性能とコストパフォーマンスの両立を目指す動きだ

GPUの目指す性能と設計

インテルは推論処理を最適化し、AI用途に適した設計を施すとしている

  • データセンター向けAI用GPUとして、推論処理で最高のコストパフォーマンスを実現する設計
  • 「クレセント・アイランド」の名称で展開予定
  • 従来の消費者向けGPU設計をベースにしている点が特徴
スペックと競合比較

予告された仕様には、既存製品との比較で見える課題と戦略が含まれている

  • 記憶容量は160GBと発表
  • HBMを搭載するAMD/NVIDIA製品に比べて帯域性能は低めとの観測
  • 製造プロセスや詳細仕様は未公表
戦略的背景と意義

AI半導体分野で遅れを取っていたインテルが巻き返しを図る一歩と位置付けられる

  • 長らくAI用半導体分野で後れを取っていたインテルの復興戦略
  • CEOらはAI事業の再始動を公言済み
  • 数十億ドル規模の売上を見込む市場参入を狙う
おわりに

クレセント・アイランドの投入は、AI向け半導体競争におけるインテルの再挑戦を象徴するものだ

現時点では仕様面に不透明な点も多いが、推論向け最適化、コスト重視設計といった方向性は明確である

市場投入後の性能評価と、AMD/NVIDIAとの競争力の差異が注目されるだろう

用語メモ

HBM(High Bandwidth Memory
  • 高帯域を実現するメモリ技術
  • AI用途で採用されることが多い
推論(Inference
  • AIモデルが学習済みモデルを使って予測などを実行する処理
消費者向けGPU設計
  • ゲームや描画用途に最適化されたGPU設計
  • データセンター用途にそのまま使うと限界がある
製造プロセス
  • 半導体製造時の微細化技術
  • プロセスが新しくなるほど高性能化・省電力化が期待される

記事7:東芝、2027年に40TBクラスHDD製品化へ--磁気ディスクを12枚実装

※イメージ画像であり、実態とは関係ありません

東芝は12枚の磁気ディスクを3.5型HDDに収める技術を確立し、2027年に40TBクラスHDDの製品化を目指すと発表した

データセンターのストレージ需要増加を背景に、さらなる大容量化を狙う

技術検証の成果

現行サイズのままディスク枚数を増やす設計に成功した

  • 従来の10枚構成から12枚へと拡張
  • フォームファクターは標準的な3.5型を維持
  • 東芝の小型化技術や構造解析ノウハウが貢献
基板素材の変更とその効果

ディスク増加に伴い、素材の見直しで高密度と信頼性を両立した

  • アルミ製からガラス製メディアに変更
  • 薄型化と高耐久性を両立
  • 面内精度や機械的安定性も向上
記録技術との組み合わせ

現行技術と将来技術の双方を視野に入れた設計が進む

  • 2027年製品はMAMRとの併用を想定
  • 将来的にはHAMRとの組み合わせも視野
  • 次世代HDD技術への布石と位置付けられる
おわりに

東芝の今回の技術は、HDDの物理的制約を打破する一歩となる

フォームファクターを維持したままディスク数を増加させることで、データセンター向け大容量ニーズに応える戦略が明確だ

今後、HAMRとの統合により、さらに50TB超の実現も現実味を帯びてくる可能性がある

用語メモ

3.5型HDD
  • 標準的なサイズのHDDで、主にサーバやデスクトップ向けに利用される
MAMR(Microwave-Assisted Magnetic Recording
  • マイクロ波を使って記録密度を高める磁気記録技術
HAMR(Heat-Assisted Magnetic Recording
  • 熱を使って記録領域を狭め、さらなる高密度化を目指す次世代技術
ガラス基板メディア
  • 従来より薄く、高精度・高耐久な記録ディスク素材

記事8:シュナイダーエレクトリックの液体冷却ソリューション、チップで発生した熱を外気に排出するまでの全ての領域をカバー

※イメージ画像であり、実態とは関係ありません

シュナイダーエレクトリックは、買収したモチベア社の技術を取り入れ、チップから外気までを一貫して冷却できる液体冷却ソリューションを展開している

DLC方式を軸に、空冷との共存や国内事情に合わせた柔軟な対応で、AI時代の冷却需要に応える構え

買収による強化と展望

モチベア買収により、冷却領域の全体をカバーする製品ラインアップが整った

  • チップからチラーまでの「Chip to Chiller」対応を実現
  • DLC方式を中心に、CDUやHDUなどを揃えた包括的構成
  • 新規建設・既存施設改修いずれにも導入可能な柔軟性
HDUによる国内市場への最適化

国内データセンター事情に対応するため、HDUの導入も視野に

  • 水を引き込めない空冷環境でも水冷サーバーを利用可能
  • PUE改善には貢献しないが、防水工事不要などの利点あり
  • 国内顧客のニーズに応じてポートフォリオに追加
空冷ソリューションとの共存戦略

液冷だけでなく、空冷機器のニーズも着実に高まっている

  • DLC方式でも一部コンポーネントの空冷が不可欠
  • リアドア空調機「ChilledDoor」などで空冷を補完
  • 空冷と電源機器を組み合わせたリファレンスデザインを提供
おわりに

AI対応の高密度サーバーが普及する中、シュナイダーエレクトリックは液冷と空冷の両軸を組み合わせた柔軟なインフラ提案を推進している

買収を通じて得たモチベアの技術と実績により、既存施設の制約を超えて導入可能な構成を提供し、冷却課題の解決を強力に後押ししている

用語メモ

Chip to Chiller
  • チップからチラー(冷却装置)まで、熱を処理する全領域
DLC(Direct Liquid Cooling
  • 冷却液をチップに直接接触させて冷却する方式
CDU(Coolant Distribution Unit
  • 冷却液の温度や流量を制御するユニット
HDU(Heat Dissipation Unit
  • 空冷設備で冷却液を冷やす装置
  • 水を使えない施設向け
PUE(Power Usage Effectiveness
  • データセンターの電力効率を示す指標

記事9:AI時代の巨大データセンター その“食欲”はどこまで許されるのか?

※イメージ画像であり、実態とは関係ありません

AIの急速な普及に伴い、データセンターが求める土地と電力の規模が大きくなっている

近年のデータセンターがどれほどの資源を必要としているのかを、具体的な数値を通じて見ていく

電力需要の急増

データセンターの消費電力は近年急増しており、その主因はAIの普及にある

  • 1990年代は1~2MW規模だったが、現在は40MW以上も珍しくない
  • McKinseyによると、1ラックあたりの電力密度は2022年に8kW、2024年には17kW、2027年には30kWに達する見込み
  • 施設内には高電圧設備や変電所の導入も進んでいる
土地の使用規模

データセンターの規模拡大により、必要とされる土地面積も大きくなっている

  • 一般的なデータセンターでも40エーカー(約16万㎡)を占有
  • 全世界に約1万件のデータセンターが存在しており、総土地利用は約40万エーカーと推定
  • AI特化型データセンターでは最低200エーカー、関連施設込みで1000エーカー超もあり得る
おわりに

AI時代のデータセンターは、かつてないほどの電力と土地を必要としている

この傾向は今後も続くと考えられ、インフラ整備やエネルギー政策にも影響を及ぼす可能性がある

技術の進化と持続可能性の両立が、これからの課題となる

用語メモ

エーカー
  • 面積の単位
  • 1エーカーは約4,050㎡
ラックあたり電力密度
  • サーバーラック1本あたりの平均電力使用量を示す指標で、設計の目安になる

-情報収集
-,