【情報収集】ITネタほぼ日収集録#25

こんにちは、キクです。

本記事は、今朝(2025年8月11日)僕が気になった「最近のIT関連ニュース記事」について、ざっくり整理していきます。

注意事項

本記事は、日々のITニュースを自身の学習や情報収集の習慣付けとしてまとめたものです。

内容には要約の過程で誤解や事実と異なる点が含まれる可能性があります。

あくまで個人的な記録としてご覧いただき、情報の正確性や網羅性については保証いたしかねますので、ご了承ください。

記事1:AIデータセンターに必要とされる設計・製品とは、シュナイダーエレクトリックのニルパ・チャンダー氏に聞く

AI活用の拡大に伴い、データセンターは従来とは異なる要件と課題に直面している

シュナイダーエレクトリックは、NVIDIAとの協業や新製品の投入を通じて、電力効率と持続可能性を両立する設計やソリューションを提案している

AIデータセンターの新たな要件

AI化により必要電力は従来比で最大10倍に拡大し、設計基準も未整備な状況

  • 高密度サーバー化で給電・冷却能力が大幅増
  • 標準化不足で構築や改修のコスト見積もりが困難
  • NVIDIAと共同開発のリファレンスデザインで迅速なプロジェクト推進を支援
GPU進化とインフラ連携

GPU性能向上はインフラの仕様に影響するため、ベンダー連携が不可欠

  • 物理インフラは容易に改変できないため将来対応力が必要
  • NVIDIAと技術提携し、AIインフラ革新を長期的に推進
電力と冷却の一貫アプローチ

「Grid to Chip, Chip to Chiller」で電力供給から冷却まで包括的に対応

  • Grid to Chip:受変電設備、UPS、バスダクト、ラックマウントPDU
  • Galaxy VXL UPS:業界比52%省スペース、コンテナDC対応
  • Chip to Chiller:DLC液冷ベンダーMotivair買収で冷却ポートフォリオを強化
DCIMとデジタルツイン活用

物理設備だけでなく運用最適化のための管理・設計支援も展開

  • EcoStruxure IT:マルチベンダー対応のDCIMソリューション
  • NVIDIAとETAP連携で電力効率を最適化するデジタルツインを開発
  • インフラ損失低減で3.6%、処理効率向上で14.4%、計17%の消費電力削減を見込む
まとめ

AIデータセンターは、急速な技術革新と膨大な電力需要への適応が不可欠であり、標準化されていない現状では構築・運用の難易度が高い

シュナイダーエレクトリックは、電力供給から冷却、運用管理までを一貫してカバーする製品群と、NVIDIAなどのパートナー連携により、効率性・信頼性・持続可能性の同時向上を目指している

これにより、将来のGPU進化やエネルギー制約にも対応可能な柔軟性を備えたデータセンターの実現を支援している

用語メモ

リファレンスデザイン

検証済みの設計資料で、構築や改修の指針となる

DCIM(Data Center Infrastructure Management)

データセンターの物理インフラを管理するシステム

デジタルツイン

現実の設備や環境を仮想的に再現し、設計・運用の最適化に活用する技術

DLC(Direct Liquid Cooling)

サーバー部品に直接冷却液を循環させる冷却方式

記事2:GPT-5が公開されたが、このAIは明らかに汎用人工知能でも人工超知能でもない

GPT-5が正式に公開され、その進化と限界が注目されている

性能や利便性は向上しているが、汎用人工知能(AGI)や人工超知能(ASI)には至っていない

OpenAIは新たなアーキテクチャや自動モデル選択機能を導入し、コーディングや文章生成など多方面での改善を図った

GPT-5の概要と位置づけ

GPT-5はOpenAIの最新フラッグシップモデルであり、複数のサブモデルを統合するラップアラウンド構造を採用している

日常利用から高度な推論まで幅広く対応可能だが、AGIやASIには到達していない

  • 高性能・高速のハイスループットモデルと高度推論モデルを自動選択
  • 従来モデル(GPT-4o等)より知能・精度が向上
  • 有料プランで利用制限緩和やPro版アクセス可能
ラップアラウンド構造の利点と課題

統合モデルが利用目的に応じて最適なサブモデルを自動選択する仕組みは利便性を高めるが、必ずしも最適解を保証するわけではない

  • モデル選択の負担軽減
  • 誤ったモデル選択による品質低下やコスト増の可能性
  • 利用者が選択の不適切さに気づかないリスク
思考時間と処理最適化

依頼内容に応じた自動的な処理時間設定が導入されたが、最適化の精度やコストへの影響は未知数である

  • 適切な処理時間の判断は従来困難
  • 長時間化によるコスト増や応答遅延の懸念
性能向上と機能強化

ベンチマークスコアは高水準で、特にコーディングや文章生成能力が強化された

  • デバッグやフロントエンド作成の精度向上
  • 詩や物語生成など文章構成力の改善
  • AGIに不可欠な自己学習機能は未搭載
正直さ・ハルシネーション抑制

事実性の向上や虚偽回答の減少が報告されているが、完全な排除には至っていない

  • 事実無根の応答発生率が低下
  • 不要な絵文字や過剰な同調の削減
  • 依然として誤情報発生の可能性あり
まとめ

GPT-5は利便性や精度の面で大幅な改善を遂げ、日常的な生成AI利用の質を高める存在である

一方で、AGIやASIという最終目標にはまだ距離があり、その実現には既存の枠組みを超えた新たなアプローチが必要とされる

今回の進化は確かな一歩だが、到達点ではない

用語メモ

AGI(汎用人工知能)

人間並みの幅広い知的能力を持つAIの概念

ASI(人工超知能)

人間の知能をはるかに超える仮想的なAIの概念

ラップアラウンド構造

複数モデルを統合し、自動で最適なモデルを選択する仕組み

記事3:次世代AI「GPT-5」の実力は? ChatGPTで使ってみた 旧モデル「GPT-4o」「o3」と使用感を比較

次世代AIモデル「GPT-5」が登場し、旧モデル「GPT-4o」や「o3」と比較して大幅に性能が向上した

レスポンス速度、コーディング性能、医療相談対応、文章生成力など多方面で改善が見られる

GPT-5の概要と提供形態

GPT-5はChatGPTの新たなフラッグシップモデルで、無料ユーザーを含む全個人ユーザーに提供されている

複数モデルを内包し、用途に応じた選択が可能

  • 即応型の「main」、長考型の「thinking」、有料Pro限定の「GPT-5 Pro」
  • API提供も同日開始
  • 旧モデルのGPT-4oやo3を置き換え
レスポンス速度の向上

従来モデルと比較して回答速度が短縮され、体感的な使いやすさが向上している

  • main:GPT-4oの約13秒 → 約11秒
  • thinking:o3の約29秒 → 約13秒
  • SNS上でも速度向上の声多数
コーディング性能の進化

短い指示で高度なUIや機能を備えたアプリやゲームを生成可能になった

  • 一文の指示で見栄えの良い「スター・ドッジ」ゲームを生成
  • 追加機能(シューティング)も迅速実装
  • SWE-benchスコア74.9%(GPT-4o:30.8%、o3:69.1%)
  • UI構築性能がo3比で70%向上
医療相談での応答改善

症状に応じた追加質問や詳細分析を行い、対話を通じて助言の精度を高める

  • 原因・受診目安・自宅対応策を整理して提示
  • 詳細質問により原因特定を補助
  • 医療専門家の代替ではなく補助ツールとして利用を推奨
文章生成能力の強化

文学的表現から日常文書まで、高い表現力と構成力を両立

  • 300字小説で情景描写や感情表現を高精度に生成
  • 詩や自由形式でも形式維持と表現の明確さを両立
  • 日常的な文書作成支援にも応用可能
まとめ

GPT-5は速度・精度・表現力のすべてで大幅な進化を遂げ、ChatGPTの実用性を高める存在となった

コーディングや創作から医療相談まで幅広く対応でき、日常利用から専門分野まで活用の幅が広がる

一方で、医療や高度判断では依然として専門家の関与が必要であり、補助的利用が望ましい

今後は市場での競合状況や利用事例の広がりによって、その価値がさらに明確になるだろう

用語メモ

SWE-bench

ソフトウェア修正やバグ修正能力を評価するベンチマーク指標

リーズニングモデル

複雑な推論や長時間の思考を必要とする処理に特化したAIモデル

API

アプリケーション同士が機能やデータをやり取りするための仕組み

記事4:AIインフラ「InfraWaves」がシリーズAで20億円を追加調達、中国LLM競争を支える“縁の下の力持ち”

中国のAIインフラ企業「基流科技(InfraWaves)」がシリーズA追加ラウンドで約20億円を調達した

大規模コンピューティングクラスター構築の経験を活かし、中国のLLM競争を支える存在として注目されている

資金調達の概要

シリーズAの追加ラウンドで約1億元(約20億円)を調達し、主要投資家にはFortera CapitalとGuofang Innovationが参加

  • 調達額は約1億元(約20億円)
  • Fortera CapitalとGuofang Innovationが主導
企業の背景と事業内容

2023年2月に清華大学のNISLからスピンアウトし、分散処理と通信技術に特化したAIインフラを提供

  • 数万枚規模のGPUカードを用いたコンピューティングクラスター構築実績
  • Zhipu AIや商湯科技、通信事業者、地方国有企業などにサービス提供
市場環境と競合状況

中国のAIインフラ市場には複数のスタートアップや大手企業が参入し、生成AIの普及とともに社会基盤化が進んでいる

  • 競合企業:SiliconFlow、Infinigence AI、アリババクラウド、ファーウェイクラウド、Volcano Engineなど
  • AIインフラは水道、電力、インターネットに次ぐ新たな社会基盤へ
技術的強みと効果

RoCE技術を活用した独自ネットワーク構築ソリューションによりコスト削減とリードタイム短縮を実現

  • 顧客コストを40%削減
  • 構築期間を数カ月から数週間に短縮
  • LLM基盤モデルの迅速なアップデートを支援
まとめ

基流科技は、高度な分散処理と通信技術を武器に中国の生成AI基盤を支える重要な存在となっている

今回の資金調達でさらなるインフラ拡充が可能となり、競争の激しいAIインフラ市場での影響力強化が期待される

生成AIの成長とともに、同社の技術はLLM開発や社会基盤整備の加速に寄与する可能性が高い

用語メモ

RoCE(RDMA over Converged Ethernet)

Ethernet上でRDMA通信を可能にする技術で、高速・低遅延なデータ転送を実現

NISL(網絡与信息安全実験室)

清華大学のネットワークと情報セキュリティを研究する実験室

記事5:生成AIがついに実戦投入 革新的なマルウェア「LAMEHUG」のヤバイ手口

生成AIを直接攻撃フェーズに組み込んだ新型マルウェア「LAMEHUG」が確認された

従来の間接利用から一歩進んだ手口で、検知回避の新たな試みとして注目されている

攻撃概要と特徴

今回の事例はウクライナのCERT-UAが報告し、ロシア系サイバー諜報グループ「Pawn Storm」によるものと推定されている

  • 攻撃コードを本体に持たず、Hugging Faceの公開API経由で生成AIモデルにプロンプトを送信し、攻撃用コマンドを生成
  • 標的型メールにZIP添付を使用し、PDFアイコン偽装の.lnkファイルを実行させる手口
  • 実行後はデコイ表示の裏でシステム情報収集やファイル窃取を行い、乗っ取った正規サイトにアップロード
生成AI悪用の狙いと効果

生成AI活用により、従来のパターンマッチング型検知を回避することを目的としている

  • 外部AIサービス利用のため、攻撃コードを持たない状態で活動開始
  • ランダム性を抑えた出力やコマンド限定応答など、安定性確保のためのプロンプト設計を実施
  • 有効なAPIトークン28個を埋め込み、複数のアクセス手段を確保
リスクと限界

現時点では実証実験的要素が強く、攻撃者にとっての直接的メリットは限定的

  • 外部アクセスは不審挙動として検知される可能性がある
  • 生成結果が必ずしも意図通りにならないリスク
  • ただし有効性が確認されれば模倣攻撃の拡大が予想される
防御側の対応ポイント

従来の検知方法に依存せず、振る舞い分析や通信監視を強化する必要がある

  • .lnkファイルを悪用した偽装手口への警戒
  • 生成AIによるコード生成を検知するための新たな監視手法の導入
  • 外部サーバとの通信内容や振る舞いの異常検知を組み合わせた多層防御
まとめ

LAMEHUGは、生成AIを攻撃フェーズに取り込むという新たなアプローチを示した事例である

現段階では試験的要素が強いが、今後の発展次第で検知回避能力が大幅に向上する可能性がある

防御側はパターン検知依存から脱却し、通信・振る舞い監視を軸とした対策へのシフトが求められる

こうした攻撃手法は他の攻撃者にも広がる恐れがあるため、早期からの監視強化と教育が重要になる

用語メモ

CERT-UA

ウクライナのコンピュータセキュリティインシデント対応チーム

Pawn Storm

ロシア系とされるサイバー諜報グループで、国家規模の作戦関与が疑われる組織

Hugging Face

機械学習モデルの共有や利用が可能なAIプラットフォーム

RoCE(RDMA over Converged Ethernet)

イーサネット経由でRDMA通信を行うためのプロトコル

記事6:SANDISK、256TBの大容量SSD。データセンター向け

256TBの大容量を実現するエンタープライズ向けSSD「SANDISK UltraQLC 256TB NVMe SSD」が発表された

データ集約型ワークロードに対応し、速度・電力効率・耐久性を兼ね備えた設計となっている

製品概要

サンディスクが発表したエンタープライズ向け大容量SSDの特徴

  • 容量256TB、U.2フォームファクタは2026年前半、その他フォームファクタは2026年後半提供予定
  • BiCS8 QLC CBA NANDフラッシュとカスタムコントローラを採用
  • 実行速度と電力効率に優れ、総所有コスト削減を目指す設計
主要技術

高容量・高性能・高効率を支える技術群

  • Direct Write QLC:SLCバッファを排除し、直接書き込みを実現
  • BiCS8 2Tb QLCダイ:ダイサイズを維持しつつストレージ密度を2倍に向上
  • UltraQLC電力最適化:同等電力で最大10%性能向上
  • マルチコアコントローラ:大容量でも高スループットと耐久性を確保
  • データ保持プロファイル:信頼性やアクセス性向上と消費電力削減を両立
まとめ

SANDISK UltraQLC 256TB NVMe SSDは、データセンターや大規模分析環境など、大容量と高効率を両立したストレージが求められる現場に適した製品である

2026年の提供開始に向け、データ集約型ワークロードの処理能力とコスト効率を大幅に向上させる可能性がある

用語メモ

フォームファクタ

主に電子機器やその部品の物理的な形状や寸法、配置などを規定する規格のこと

NVMe(Non-Volatile Memory Express)

SSDの性能を引き出すための高速インターフェース規格

U.2

主にサーバやワークステーション向けのSSD接続規格

2.5インチドライブ形状を持ちつつPCIe接続を可能にするインターフェース規格

QLC(Quad-Level Cell)

1セルに4ビットのデータを保存するフラッシュメモリ方式で、大容量化に有利だが書き換え耐久性は低下しやすい

BiCS8

キオクシアとウエスタンデジタルが共同開発する3D NANDフラッシュの第8世代技術

-情報収集
-,