【情報収集】今週読んだTech記事#6

2025年7月20日

こんにちは、キクです。

本記事では、僕が今週読んだIT系のニュースについて「振り返り」と「まとめ」を目的として整理していきます。

期間:2025年7月14日 (月) 〜 7月18日 (金)

注意事項

要約ミスにより一部事実と異なる情報が含まれる場合があります。

本記事を書くことは僕自身が情報収集を習慣化するという目的も兼ねており、各記事の関連性や正確性を保証するものではない点についてご了承ください。

日々の収集録

本記事でご紹介する記事とは別で朝イチ情報収集習慣として今週整理した記事も紹介させてください。

2025年7月14日(月):【情報収集】日々のITネタ収集録#8

読んだ記事
  • ファミマ「AI発注」導入 週6時間の業務削減
  • IoTのミッシングピースをAIで埋めていく――、ソラコム、年次カンファレンスを前にビジョンおよびプラットフォーム戦略を刷新
  • リコージャパン、Q&A集と社内ドキュメント両方の情報を基に回答できるAIチャットボット
  • xAI、Grokの“恐ろしい行動”について謝罪し、原因と対策を説明
  • TLSの仕様差を悪用した中間者攻撃「Opossum攻撃」に要注意 研究者らが発見
  • 「敵はどこにいるか分からない」北朝鮮のIT技術者詐欺に米国人のスパイが加担

2025年7月15日(火):【情報収集】日々のITネタ収集録#9

読んだ記事
  • 「Claude Code」がWindowsに対応 WSL不要で使えるように
  • LINEヤフー、生成AI活用を義務化「任意の会議は出席せず、AI議事録で把握」など
  • NECが説く「AIエージェントが特に役立つ“2つの領域”」とは
  • ハッキング大会でVMwareの脆弱性が露呈 ESXiでは“初の侵害報告”も
  • Team Group、自己データ破壊機能を備えた産業向けSSD
  • NTT Com、ゲットワークス、NTTPCの3社が業務提携、AI時代のコンテナ型データセンター構築など目指す
  • AI推論チップのGroqが欧州データセンター開設 “スピード”でNVIDIAに挑む
  • ChatGPT一強に変化の兆し? 生成AIの伸び率トップは「Gemini」【日本リサーチセンター調べ】
  • NSSOLと日鉄テックスエンジ、デジタル製造業領域でのIT/OT統合ソリューションの共同開発を推進

2025年7月16日(水):【情報収集】日々のITネタ収集録#10

読んだ記事
  • AMDの「Instinct MI350シリーズ」は競合NVIDIAよりもワッパに優れるAIドリブンなGPU 今後の展開にも注目
  • 東芝デジタルソリューションズ、クラウド型AI-OCRサービス「AI OCR Synchro+」を提供開始
  • Gigabyte G893-ZX1-AAX2 AMD Instinct MI325X Server Review
  • Apple、米サプライチェーン強化目指し国内レアアース企業に5億ドル
  • 怪しいドメイン名には特徴がある SANSが新たな評価指標を発表
  • なぜAWSストレージのうち「Amazon EBS」だけで“異常な浪費”が発生する?
  • 社員に“学び直してほしい”スキル 2位「セキュリティ」、1位は?
  • うちもRAGをやりたい!どうやって進めればいいか詳しく教えて

2025年7月17日(木):【情報収集】日々のITネタ収集録#11

読んだ記事
  • AWSジャパン、2025年度の中堅・中小企業向け事業戦略を発表
  • ChillStack、生成AI利用環境のセキュリティを高めるサービス「Stena AI」
  • M.2 NVMe SSDを簡単に複製/消去できる直挿しクレードル
  • 「人間がプログラミングする時代、もう終わる」 孫正義氏の将来像 SBG社員も「最終的にはやらない」
  • やっぱり訴えられたソフトウェアの「闇利用」VMwareがシーメンスを痛烈非難
  • 「VMwareからの移行、今計画しなければ手遅れに」――Gartnerの警告
  • 「SaaSはもう限界」 急成長SaaSが、AIエージェント企業に大転換──その“深刻な危機感”

2025年7月18日(金):なし

ITニュース系

記事1:「AIと言えばGPU」一択ではない CPUでAIが動く時代のサーバインフラ

生成AIの拡大により、GPUを前提としたインフラの考え方が広がっているが、最新のCPU進化により、AI推論における選択肢が広がっている

特にコストと性能のバランスを重視する観点から、CPUでのAI活用が注目されている

サーバインフラにおける選択肢の多様化

企業のIT要件は多様化しており、クラウドとオンプレミスを適切に選択する必要がある

  • 高性能GPUは便利だがコストが高いため、選定が課題
  • CPUでもAI処理が可能になり、オンプレミス運用の可能性も拡大
  • インフラ選定には、パフォーマンス・コスト・セキュリティの総合判断が必要
CPUの進化とAIインフラ構築

最新CPU「Intel Xeon 6」により、AI処理がCPU単体でも現実的になっている

  • CPUベースのインフラでもTCO(総所有コスト)を大幅に削減可能
  • Xeon 6はAIアクセラレーター(AMX)を内蔵し、推論処理に強い
  • 同じ処理でもラック数が3分の1になるなど高集約性を実現
Eコア/Pコアによる柔軟な運用

Xeon 6は用途に応じた2種のコアを搭載し、運用効率を向上させている

  • Pコアは高性能処理向け、Eコアは低消費電力・高集約向け
  • マイクロサービスやWebアプリなどにEコアが最適
  • 冷却効率・CO2排出削減にも貢献
セキュリティ強化機能の搭載

Xeon 6はハードウェアレベルで高度なセキュリティ機能を提供している

  • Intel SGXやTDXにより、機密データをアプリやVMから隔離
  • 将来の量子コンピュータに備えた耐量子暗号も視野に
GPUからAIアクセラレーターへの移行

AI処理に最適化されたアクセラレーターの台頭により、選択肢が拡大している

  • GPUは高精度演算に強いが、AI推論には過剰な機能も多い
  • AIアクセラレーター(例:Intel Gaudi 3)は推論に特化し、コスト効率に優れる
  • 小規模なLLMや画像分類などにはCPU+アクセラレーターで十分
RAGとCPU活用の可能性

検索拡張生成(RAG)のような新技術においても、CPUでの対応が現実的になっている

  • ベクトル検索などRAG処理はXeon 6+AMXで効率的に実行可能
  • 推論のみならCPUでも実用的、GPUを使わない構成も可能
  • 実証例として、映像ログ検索におけるRAG活用を紹介
コストパフォーマンスとAIの民主化

AI導入においては、コスト効率と技術のオープン性も重要視されている

  • Intel Gaudi 3はIBM Cloudでも採用され、25~40%のコスト効率を実現
  • PCIe形状でも提供され、多様なサーバ構成に対応
  • オープン・エコシステムによるAI活用の広がりを推進
まとめ

AI=GPUという固定観念を見直し、CPUやAIアクセラレーターなど多様な選択肢を組み合わせることで、コストと性能のバランスを最適化できる時代が来ている

特に推論処理ではCPUの活用が現実的な選択肢となり、サーバインフラ構築において柔軟性が高まっている

インテルの取り組みは、AIの民主化と現場適用の加速を支えるものとして注目される

用語メモ

TCO(Total Cost of Ownership)

設備の導入から運用、廃棄までにかかる全体費用

マイクロサービス

機能を細分化したサービス単位で構築するソフトウェア構造

SGX(Software Guard Extensions)

セキュアな領域でアプリを動作させる技術

TDX(Trust Domain Extensions)

仮想環境でのデータ隔離を行う技術

Gaudi

Intel製のAI処理専用ハードウェア

RAG(Retrieval-Augmented Generation)

検索+生成で高精度な回答を実現する技術

PCIe(Peripheral Component Interconnect Express)

高性能な拡張カード接続規格

記事2:経産省、楽天の生成AI開発を支援 “長期記憶”で複雑な日本語文脈に対応するLLM構築へ

生成AI時代に向け、楽天が日本語特化のLLM開発を加速

楽天が経産省支援で日本語LLMを開発

楽天は、経済産業省とNEDOによる支援事業「GENIAC」第3期に採択され、日本語に特化した大規模言語モデル(LLM)の開発に本格着手する

  • 2024年3月からLLMの研究を進めており、既に「Rakuten AI 2.0」を発表済み
  • 今回は長文・複雑な日本語文脈を扱えるLLMの開発が目的
  • モデルは約4~5兆トークンのオープンテキストデータを学習し、OSSモデルに匹敵または上回る性能を目指す
新技術でパーソナライズにも対応

今回のモデルは、長期的な会話記憶や個人向け応答にも対応する新機能を搭載予定

  • 応答時に利用できる情報量を増やすメモリ拡張技術を採用
  • 会話履歴を記憶し、より個人に最適化された応答が可能に
  • 長文処理・AIエージェントのパーソナライズ性向上を見込む
GENIACプロジェクトの概要

GENIACは、国内の生成AI技術開発を支援する官民プロジェクト

  • 計算資源や知見共有のための開発者コミュニティなどを提供
  • 2024年2月に第1期、10月に第2期を実施
  • 第3期は2025年3月から公募開始、楽天は今回その対象に選ばれた
まとめ

楽天は経産省の支援を受け、日本語に特化したLLMの開発を本格化させる

長文や複雑な文脈への対応、個別最適化応答など、実用的な進化を目指す

国の支援プログラムGENIACを活用し、今後の生成AIの発展と活用基盤強化に貢献しようとしている

用語メモ

Rakuten AI 2.0

楽天が開発したMixture of Experts技術を用いたLLM

Mixture of Experts(MoE)

特定のタスクに応じて一部のモデルだけを動かし計算効率を高める技術

AIエージェント

ユーザーの指示や文脈に基づいてタスクを実行する自律型AI

GENIAC(Generative AI Accelerator Challenge)

経産省とNEDOが支援するAI研究支援プロジェクト

NEDO

新エネルギー・産業技術総合開発機構

日本の産業技術支援機関

記事3:AI時代の電力需要と環境配慮を両立する日立のデータセンター事業の全容

※画像はイメージであり、実物とは関係ありません

データセンターの役割が多様化し、環境・地域・経済の全てに配慮するインフラとしての機能が求められている

日立はその課題にどう応えているのか、同社の「グリーンデータセンター構想」に注目する

急増する需要と課題

デジタル化・AI普及に伴いデータセンターへの需要が拡大し、建設計画が加速している

  • AIの計算処理に必要なGPUサーバの導入が急増
  • 大都市周辺の用地価格や建設費、人件費が高騰
  • 電力・冷却設備の需要拡大による送配電網不足
  • 欧米のクラウド事業者を意識したサステナビリティ対応が不可欠
グリーンデータセンター構想の中核

日立は「環境配慮型データセンター」実現に向けて、2つの柱を打ち出している

  • One Hitachiによるトータルインテグレーション
  • パートナー企業と連携するパートナーエコシステムの構築
トータルインテグレーションの詳細

日立のOT(制御技術)とIT(情報技術)を統合し、建設から運用まで一貫対応する

  • 設備機器(変圧器、UPSなど)とITソリューションを一体で提供
  • AIを活用した資産管理「HMAX」やクラウド運用支援「HARC」などを活用
  • 高効率冷却・省エネ技術・グリーン目標「環境イノベーション2050」も導入
パートナーエコシステムによる共創

業界横断で技術や知見を持つ企業と連携し、ソリューションを柔軟に拡張する

  • 新技術を取り入れるためにM&Aや連携を強化
  • ポートフォリオを他社技術で補完し、顧客価値を最大化
次世代インフラの社会的意義

AI・クラウド普及に伴い電力需要が倍増する中、環境への影響とどう向き合うかが鍵となる

  • 地域ごとに最適なグリーン電力の選定
  • 電力供給・冷却・レジリエンス機能までを備える社会インフラを構想
  • 社会経済の持続性と成長を支えるデジタル基盤を目指す
まとめ

日立は、社会的責任を果たしつつ持続可能なデータセンターのあり方を追求している

グループ内の総合力と外部との連携を通じて、建設・運用の課題を解決し、次世代の社会基盤となる「グリーンデータセンター」の実現を目指している

用語メモ

サステナビリティ

持続可能性

CO₂削減や再生可能エネルギー活用を重視する概念

One Hitachi

グループの各部門が連携して提供する総合ソリューション

HMAX

AI活用による資産管理サービス

HARC

クラウド運用の信頼性と効率を向上させる支援サービス

M&A

企業の合併・買収

新技術や市場参入を目的とする

レジリエンス

災害などの有事にも継続的に機能する強靭性

Lumada

日立のデータ利活用ソリューション群

記事4:サービスとしてのストレージ「STaaS」とは? 主要3種類を比較

企業がデータ保存を効率的に行うために注目されているのが「STaaS(Storage as a Service)」である。STaaSには3つのタイプがあり、特徴や適した用途が異なる

それぞれの概要を理解することが、自社に合った選択につながる

STaaSの3つのタイプ

STaaSには、パブリッククラウド、プライベートクラウド、コロケーションサービスという3種類がある

それぞれの特徴を整理する

1. パブリッククラウド

共有インフラを使って提供されるSTaaS

拡張性に優れ、従量課金型で柔軟に容量調整が可能

コストを抑えたプランも存在する

2. プライベートクラウド

特定企業向けの専用インフラで構成されるSTaaS。

制御性やセキュリティ面に優れるが、容量や契約期間に制限がある場合も多い。

3. コロケーションサービス

ベンダーが設置した設備をインターネット経由で利用する形式

低遅延やコスト効率に優れ、バックアップや複製機能も備えるが、ネットワーク料金が発生する

まとめ

STaaSは、企業のニーズや重視するポイント(コスト、制御性、可用性など)に応じて適切なタイプを選ぶことが重要である

パブリック、プライベート、コロケーションという3つの形式には、それぞれに異なる長所と制約があるため、用途や運用方針を明確にした上で選定を進める必要がある

用語メモ

Amazon S3

AWSが提供する代表的なパブリッククラウド型オブジェクトストレージ

コロケーション

データセンターなどの共用施設に機器を設置する形態

スナップショット

システムやデータの特定時点の状態を保存する技術

データレプリケーション

データを別の場所に複製して保持すること

記事5:NVIDIAを追うAMD、「2番手のマーケティング」の手腕

AI半導体市場でNVIDIAを追うAMDの戦略に注目が集まっている

かつてIntelに挑んだ経験を持つ同社は、再び“2番手のマーケティング”でNVIDIAに迫ろうとしている

Intel時代の経験を活かした2番手戦略

AMDは1990年代、x86 CPU市場でIntelに挑戦していた

  • 当初は「25%安いIntel互換品」として厳しい立場にあった
  • 独自開発のAthlon(K7)で性能を逆転し、マーケティング方針も刷新
  • サーバー市場でもSun Microsystemsとの協業でHPやDELLへの採用を拡大
  • 結果としてx86 CPU市場をIntelと二分する地位を築いた
NVIDIAに挑む新たな局面

AMDはNVIDIAのAI半導体分野にターゲットを切り替えた

  • 生成AIブームを背景に、NVIDIAは急成長し市場を支配
  • AMDはGPU・AI分野で後れを取っていたが、巻き返しを狙う
  • 決算発表前に株価が上昇し、期待が高まっている
市場構造と競争環境の変化

現在のNVIDIA市場独占は以前のIntel支配とは異なる状況

  • 市場規模が大きく成長中であり、競争環境も複雑化
  • 製造はTSMCが独占的に受託し、競合各社はファブレス構造
  • 大手IT企業は独自半導体を開発中で、競争の軸も多様化している
顧客との関係性の変化と懸念

NVIDIAは自社製品を自ら出資するクラウド企業に優先供給

  • CoreWeaveがBlackwell Ultra搭載サービスを発表
  • 顧客と競合する構図が発生し始めている
  • Intelがかつて「Intel Inside」キャンペーンで批判を受けた構図に類似
AMDの独自戦略と強み

AMDはオープンな開発環境や価格競争力を武器に差別化

  • 独自開発のROCmでCUDAに対抗
  • 高単価なAI半導体市場では、AMDにも十分な利益余地がある
  • MetaやMicrosoftなど大手と提携を進め、OpenAIとも協業構想を発表
まとめ

AMDは「2番手のマーケティング」を再び武器に、今度はNVIDIAに挑んでいる

過去にIntelに挑んだ時とは市場の構造も競争環境も異なるが、顧客主導でのエコシステム構築や価格戦略においてチャンスはある

今後の成否は、製品開発の実行力と市場ニーズへの対応力にかかっている

用語メモ

x86

Intelが提唱したCPUアーキテクチャ

Athlon(K7)

AMDが初めて本格的にIntelに対抗できたCPU製品

Sun Microsystems

高性能サーバーを提供していた米企業(現在はOracle傘下)

Opteron

AMDがサーバー市場向けに開発したCPUシリーズ

NVIDIA

GPU(画像処理装置)分野のリーダー企業

近年はAI半導体でも中心的存在

TSMC

世界最大の半導体受託製造企業

ファブレス

自社で製造を持たない設計専業の半導体企業

CoreWeave

NVIDIAが出資するクラウドサービス企業

Blackwell Ultra

NVIDIAの最新AI半導体チップ

Intel Inside

Intel製CPU搭載PCであることを示すブランド戦略

顧客との主導権争いにもつながった

CUDA

NVIDIAのGPU専用の開発環境

閉鎖的なエコシステムを構築

ROCm

AMDのオープンソースなGPU計算プラットフォーム

Meta(旧Facebook)/ Microsoft / OpenAI

いずれもAI開発の中核を担う巨大IT企業

記事6:AI時代を支える次世代データセンターの未来、高効率大容量の電源システムとは

※画像はイメージであり、実物とは関係ありません

AIの急速な普及により、データセンターでは電力供給と配電効率の高度化が求められている

特にGPUサーバの高密度化により、従来の方式では対応できない課題が顕在化している

GPUサーバは従来の10倍以上の電力を消費

AI対応GPUサーバは、従来の業務用サーバと比較して1桁〜2桁大きな電力を消費する

  • 業務用サーバ:約200W以下
  • 水冷GPUサーバ:約5kW/台、最大82kW/ラック
  • 空冷GPUサーバ:約65kW/ラック
  • 単相電源では供給に限界があるため、三相電源の採用が進む
  • 電源コネクタは高温対応のC21タイプが主流になりつつある
AIデータセンターの電源供給方式の変化

サーバラックへの給電方式も高効率・高柔軟性を求めて進化している

  • ケーブル方式:一般的だが柔軟性・効率に課題
  • ラック型分電盤方式:整然としているが拡張性がやや低い
  • バスダクト方式:高出力かつ損失の少ない主流方式
  • ラック電力容量の変化に合わせてプラグインユニットで柔軟対応可能
  • シュナイダーエレクトリックは1000A対応製品やスライド式構造を提供
UPS効率と電力損失の最小化

高電力需要と環境負荷軽減の両立にはUPSと配電効率の最適化が不可欠である

  • 大容量UPSは損失率が低くても実損失が大きくなりやすい
  • モジュラー型UPSでスケーラブルな構成にし、将来的な拡張に対応
  • 三相4線400V/230V方式によりトランスを排除し損失を低減
  • リチウムイオン電池の採用で長寿命・省スペース化を実現
  • コンテナ型データセンター向けにUPSの小型・高密度化も進展
まとめ

生成AI時代のインフラ要件は急速に進化しており、電力供給システムも大容量・高効率・柔軟性が求められている

UPSやPDUなどの基本装置の見直しや配電方式の最適化が、次世代データセンターの鍵となる

用語メモ

PDU(Power Distribution Unit)

ラック内で電源を各機器に分配する装置

C13/C19/C21

電源ケーブルの国際規格C21は高温環境向け

三相電源

3本の電力線で大電力を効率よく供給できる商用電力方式

バスダクト方式

導体を金属ダクトに収めて電力を供給する方式

シュナイダーエレクトリック

電力インフラ分野の大手企業

UPS(Uninterruptible Power Supply)

無停電電源装置

瞬時停電や電圧変動に備える機器

三相4線400V/230V

トランスレスで効率的な配電が可能な方式

TCO(Total Cost of Ownership)

初期費用だけでなく運用費用も含めた総所有コスト

-情報収集
-,