【情報収集】今週読んだTech記事#4

2025年7月6日

こんにちは、キクです。

本記事では、僕が今週読んだIT系のニュースについて「振り返り」と「まとめ」を目的として整理していきます。

期間:2025年6月30日 (月) 〜 7月4日 (金)

注意事項

要約ミスにより一部事実と異なる情報が含まれる場合があります。

本記事を書くことは僕自身が情報収集を習慣化するという目的も兼ねており、各記事の関連性や正確性を保証するものではない点についてご了承ください。

日々の収集録

本記事でご紹介する記事とは別で朝イチ情報収集習慣として今週整理した記事も紹介させてください。

※7月3日から始めた新たな取り組みになります!

2025年7月3日(木):【情報収集】日々のITネタ収集録#1

読んだ記事

  • AWSが日本に2兆円投資する理由 大規模イベントで語られた未来の姿
  • なぜ金融システムでは大規模な障害が起きるのか? 金融庁が分析レポート公開
  • カンタス航空にサイバー攻撃 顧客データに影響
  • Sudoに深刻な脆弱性 chroot機能に潜むリスクに要注意
  • “米国一強”のAI時代にこそ考えたい、インフラ選びの「第二の視点」とは

2025年7月4日(金):【情報収集】日々のITネタ収集録#2

読んだ記事

  • スマホゲーム「D4DJ」、ライブイベントのキービジュアルに生成AI利用 SNSの反応受け明らかに
  • チャットAIに“感情を共有”できる人は64.9%、「親友」「母」を上回る 電通調査
  • AIの明日は「失望」or「希望」?──Appleとサム・アルトマンの“2つの未来予測” その意味を考える
  • みどりの窓口、対面販売を将来AIに JR東日本社長が方針「お待たせしない駅空間に」
  • 政府、サイバー防御の人材育成で新構想 官民交流を推進、民間の対策評価で提案も
  • Arm搭載AI半導体の迅速な開発を支援、OKIアイディエス

ITニュース系

記事1:AIが人間の仕事を“奪って”も給与が増えるのは、なぜなのか

AI導入が従業員の給与にどのような影響を与えるのかについて、PwCの調査からポジティブな側面が明らかになった

AIによって仕事が減っても、給与が上がる理由を探る

AI導入で給与が上がる理由

AIは業務効率を高め、企業の収益を向上させることで従業員の給与にも良い影響を与える可能性がある

  • 生産性の向上により、1人当たりの成果が増える
  • 組織の利益が拡大し、従業員報酬に回せる余地が生まれる
PwCの調査レポート概要

世界的な求人データから、AI導入の影響を分析した調査が発表された

  • 約10億件の求人広告を対象に調査
  • AI活用が進む業種では、売上・利益・給与が向上傾向
ソフトウェア業界の好例

AI導入による給与増加が特に顕著な業界として、ソフトウェア業界が挙げられている

  • 自動化と効率化で人材の生産性が向上
  • 従業員1人あたりの収益性が増加傾向
求められる新しいスキル

AIを使いこなすためには、技術的知識だけでなく柔軟な思考も重要になる

  • ツール操作の経験
  • 出力の理解と活用
  • 人間ならではの判断力や付加価値を加える能力
教育とアクセスの重要性

スキル格差を防ぐため、社会全体での対応が求められている

  • 教育や技術訓練の提供が不可欠
  • 誰もがAIの恩恵を受けられるようにする取り組みが重要

備忘録

PwCとは

正式名称:PricewaterhouseCoopers

設立:1998年(Price WaterhouseとCoopers & Lybrandの合併により誕生)

本部所在地:イギリス・ロンドン

主な事業内容

  • 監査・保証業務(アシュアランス)
  • 税務サービス(タックス)
  • 経営コンサルティング(アドバイザリー)

特徴:世界4大会計事務所(Big4)の一角。他にはDeloitte、EY、KPMGがある

記事2:なぜあえてオンプレミス? Gemini新モデルで浮上するAIの“クラウド離れ”

生成AI活用のトレンドがクラウドからオンプレミスへ移行しつつある現状を示す

Geminiのオンプレミス対応が示すGoogleの戦略

Googleは大規模言語モデル「Gemini」をオンプレミスで提供する計画を明らかにした

  • 「Google Distributed Cloud(GDC)」を通じてGemini 2.5 Pro以降のモデルが導入される予定
  • 厳格なセキュリティ要件を持つ環境でも利用可能で、NVIDIAの最新GPU「Blackwell」も搭載予定
クラウドベースAIからオンプレミスへの関心の高まり

一部企業ではクラウドのセキュリティやコスト面に課題を感じ、オンプレミスやプライベートクラウドへと回帰する動きがある

  • BroadcomによるVMware買収後の戦略転換なども、この流れに影響している
  • セキュリティやプライバシー重視の企業にとって、オンプレミス導入は現実的な選択肢となっている
DockerのローカルAI実行機能とその意義

DockerはAIモデルをローカルで実行できる環境を整備し、企業のオンプレミスAI活用を支援している

  • 「Docker Model Runner」により、Gemma 3やLlama 3といったSLMがローカルデプロイ可能
  • 継続的デリバリーや外部AIサービスとの連携も強化していく方針
オンプレミスを選ぶ企業の現実的な理由

クラウド経由のAI利用はコストや通信遅延の課題があるため、既存インフラの活用にメリットを感じる企業も多い

  • 全面移行は難しいものの、重要なデータは手元に残す「ハイブリッド型」が現実的な運用とされる
社内データとAIモデルの統合が鍵となる

AIモデルの選定よりも、企業が保有するデータにアクセスできるかが成功の鍵となる

  • 独自データを活用できれば、より高度な生成AIの開発が可能となる
Googleが展開するAIエージェント連携戦略

Googleはエージェント同士の連携を視野に、検索AIエージェントや通信プロトコルの標準化を進めている

  • 「Agentspace」や「Agent2Agent(A2A)」の取り組みをオープンソースで推進中
  • 他にもAnthropicの「MCP」やLangChainが関わる「AGNTCY」など、複数プロジェクトが進行中
複数AIエージェントの協調が今後の課題

複数エージェントが異なる回答を返す状況で、どの答えを信頼するかが課題となる

  • 実際の企業活用例としては、SalesforceやSlackなど複数システムを横断的に連携させた運用が始まっている
  • 今後は、複数エージェントが協調して業務を一貫して担う仕組みが求められていく

生成AI活用は、クラウドからオンプレミスへの移行という新たな段階に入りつつある

GoogleのGemini展開や業界全体の標準化の動きからは、企業が自社のデータ環境やセキュリティ要件に合わせてAIインフラを選択する時代が到来していることが読み取れる

今後は、AIエージェント同士の連携やデータ統合が成功の鍵を握るだろう

記事3:米AI規制の「10年間停止」で議論が過熱 メリットを享受するのは誰?

米政府によるAI規制10年間停止案をめぐって、各方面の意見が交錯している

AI規制を巡る現状と連邦法案の内容

米国では州ごとに独自のAI規制法が進む一方、連邦政府は統一的なルールを模索している

  • コロラド州やカリフォルニア州などが独自のAI規制法を制定済み
  • トランプ政権下、AI技術の安全性に関する大統領令「14110」を撤回
  • 2025年5月、州によるAI規制を10年間禁じる法案「One Big Beautiful Bill」が下院を通過
法案提出の背景と意図

AI企業の混乱を回避し、全米で一貫した枠組みを目指す動きが背景にある

  • AI関連法案はわずか5か月間で1000件以上提出されている
  • 法案内容が各州ごとに異なり、企業にとって対応が困難
  • 連邦レベルで明確な指針を作ることを目的としている
政党間での立場の違い

共和党と民主党で、AI規制のあり方について考え方が大きく異なる

  • 共和党は一貫した規制枠組みを支持し、州規制の乱立を懸念
  • 民主党は「企業寄りすぎる」として、規制停止に強く反対
  • プライバシー保護や消費者への責任を企業任せにする点を問題視
業界団体・専門家の見解

業界関係者と研究機関は、それぞれ異なる観点から法案を評価している

  • 米商工会議所は「機会重視で柔軟な規制を」と主張
  • EUのAI法を「成長の阻害要因」として批判
  • AI Now Instituteは「連邦政府は10年以上、効果的な規制に失敗」と批判
  • ディープフェイク対策などでは、州の動きの方が迅速との見方も

AI規制の「10年間停止」案は、規制の一貫性と企業の成長促進を図る一方、消費者保護の観点からは疑問視されている

今後、国家と州、企業、消費者のバランスをどう取るかが焦点となる

記事4:エージェンティックAIの台頭で2030年へ加速するAIサーバー市場

ABI Researchの最新レポートは、AIサーバー市場が2030年までに急成長する見通しを示している

特に推論用途やエージェンティックAIの拡大が鍵とされる

AIサーバー市場の成長見通し

推論とファインチューニングの需要がAIサーバー市場を牽引

  • 2030年までに世界市場は5,230億米ドル超へ拡大予測
  • エージェンティックAIと推論ワークロードが新たな成長軸
  • 政策や企業戦略への影響が大きいと指摘
クラウド大手による積極的な投資

ハイパースケーラー各社のCAPEX拡大が市場を押し上げる

  • Microsoft、Google、Amazonが2025年も二桁増の投資を継続
  • NVIDIA Hopper世代GPUやMI300シリーズの採用が進行
  • 液浸冷却DC建設がグローバルに加速
  • 2025年のCAPEXは前年比10%以上増、総額3,500億米ドルに
フロンティア学習の限界と新潮流

費用対効果の低下がフロンティア学習の減速を引き起こす

  • 最先端大規模モデル構築は2026年以降鈍化見通し
  • 代わってファインチューニングとエージェンティックAIが拡大
  • 推論ワークロード市場は2030年に1,450億米ドル規模に
  • ROI重視でモデルの用途特化が進む傾向
GPU特化クラウドの台頭とOEMの連携

GPU専業クラウド「ネオクラウド」の台頭が著しい

  • CoreWeaveはGoogleやOpenAIと大型契約を締結
  • CAPEXが前年比3倍の2,000億円超に到達見込み
  • IPO後の増資を背景にGPU確保競争で優位に立つ戦略
  • Dell、HPE、Supermicroなどがホワイトボックス供給を強化
  • 中小ベンダーも設計受託でプレゼンス拡大
輸出規制と地産地消の促進

先端GPUの輸出規制が地域展開と市場分散を促進する

  • 中国向け規制強化で需給に不確実性
  • ASEAN、インド、中東でDC誘致競争が活発化
  • 法規制対応やローカライズ設計が日本企業の競争力の鍵
今後の展望と成長シナリオ

AIサーバー市場は学習から推論・運用フェーズへ移行していく

  • フロンティア学習を起点に、ファインチューニングとエージェンティックAIが主流に
  • 成熟に向けてグラデーション的な成長が予想される

AIサーバー市場は、生成AIブーム後も推論やエージェント活用の需要によって拡大が続く見込みである

フロンティア学習に依存しない方向へと舵を切る動きが顕在化し、インフラ投資と技術選定の戦略的判断が企業競争力を左右する時代が始まっている

備忘録

NVIDIA Hopper世代とは

NVIDIAが開発した次世代のデータセンター向けGPUアーキテクチャ

全世代のAmpereの後継

アーキテクチャ変遷:Volta → Turing → Ampere → Hopper → Blackwell

AI学習・推論に最適

  • 特に大規模な言語モデル(LLM)や生成AIのトレーニング・推論に適している
  • FP8のサポートにより、従来よりも低精度・高速な推論処理が可能

セキュリティ機能

  • Confidential Computingに対応し、仮想マシン内での暗号化処理を可能にしている

データセンター向け設計

  • NVSwitchと組み合わせたNVIDIA DGX H100HGX H100サーバで使用される
  • 巨大なGPUクラスタ構築に対応

主な用途

  • 大規模AIモデルの学習(例:ChatGPT、BERT、GPT-4など)
  • 科学技術計算(分子シミュレーション、気候モデルなど)
  • デジタルツインやロボティクスのシミュレーション
  • データセンターの仮想化およびセキュアなAIインフラ構築

Myメモ

A100などA始まりの製品はAmpere、H100やH200などH始まりの製品はHopper、B100やB200などB始まりの製品はBlackwellというような関係性

CAPEXとは

Capital Expenditure(資本的支出)

企業が長期的な資産を取得・改善するために使う支出を指す

学習系

記事1:LLM、どれを使えばいいの? 性能を評価するための「ベンチマーク」とは

LLM(大規模言語モデル)の性能を正しく理解し、最適なモデルを選ぶには、ベンチマークによる評価が不可欠である

LLMのベンチマークとは

LLMの能力を客観的に評価するための標準化されたテスト手法である

  • タスク実行能力を基準にLLMを数値評価する
  • 推論、読解、文章要約、コーディングなど多様な能力を測定
  • ソフトウェアの速度や消費電力ではなく「問題解決能力」が評価対象
ベンチマークの実施手順

ベンチマークは、段階を踏んで実施される

1. セットアップ

読解、数学、プログラミングなどのデータセットを用意する

2. テスト実行

  • ゼロショット:例示なしでタスクを実行
  • フューショット:いくつかの例を提示してタスクを実行
  • ファインチューニング:特定用途向けに調整されたモデルを使用

3. 採点

以下の指標でスコアを算出

  • Accuracy(正解率)
  • Recall(再現率)
  • Perplexity(困惑度)
評価できる能力の具体例

ベンチマークでは、実用的な知能の一部も評価される

  • 代名詞の主語特定、論理的推論、常識的アドバイスの精度など
  • 「牛乳を常温で何分まで置いてよいか」といった常識判断も対象
採点に関する課題と工夫

正確な比較のためには、採点方法にも工夫が必要である

  • 数学や選択式など、正答が明確な形式が好まれる
  • 採点の公平性確保のため、テスト内容は非公開とされることもある
  • 内容を学習されることでの「過学習」を防ぐための措置
ベンチマーク実行の技術的手法

実行にはプログラムやAPIの利用が一般的である

  • Pythonなどのスクリプトがよく使われる
  • データベースから問題を読み取り、LLMにAPI経由で送信
出力のランダム性とその制御

LLMの特性である出力のばらつきには対応が求められる

  • Temperatureやシード値の設定により再現性を高める
  • ChatGPTなど多くのLLMがランダム性の制御機能を提供
  • 複数回の実行結果から平均値・中央値を取るのも有効

記事2:今すぐLLMを比較したい 性能が一目で分かる「リーダーボード」はどれ?

さまざまなLLMの性能を評価するリーダーボードが公開されており、比較検討の指標として活用できる

主なリーダーボード

Hugging Faceのリーダーボード

LLMを対象にした性能比較ランキングを複数掲載

  • Big Benchmarks Collection
  • Chatbot Arena LLM Leaderboard
  • OpenVLM Leaderboard
  • GAIA Leaderboard

Vellumの「LLM Leaderboard」

Vocifyが運営

最新LLMベンチマークの性能を比較

  • SWE-bench:GitHubのIssueをもとに、LLMの問題解決能力を測定
  • Berkeley Function-Calling Leaderboard:LLMがサードパーティーツールをどれだけ正確に使えるかを評価
  • LiveBench:推論・言語理解・コーディングなど6分野17タスクでLLMの性能を測定
  • Humanity's Last Exam:CAISとScale AIが提供。AIの限界を人間の高度知識で試す
ベンチマークの制約

LLMベンチマークには評価対象外の要素も多く、用途に応じた判断が求められる

  • 実務で必要な3D画像処理やコードのリファクタリングなどは対象外
  • Python以外の言語や、CI/CD連携などの実用的課題も評価されにくい
  • レイテンシ、セキュリティ、運用面の違いも反映されにくい
  • LLMの感情的知性や誠実さといった人間的要素も測定困難
AIエージェントの評価は発展途上

自律的に行動するAIエージェントのベンチマークはまだ信頼性が確立されていない。

  • 代表的なベンチマークは「MARL-eval」(2022年)、「Sotopia-π」(2024年)
  • 実環境での挙動や安全性評価は今後の課題
選定は組織ごとに

最終的なLLM選定は、評価スコアだけでなく組織のニーズや課題に応じた判断が必要

  • LLMの特性と用途を照らし合わせて多面的に評価すべき
  • 誰が、いつ、何に使うのかを考慮した導入が重要

記事3:いまさら聞けない「仮想マシン」の仕組みと「ハイパーバイザー」の役割

仮想マシン(VM)は依然として企業のITインフラに欠かせない技術であり、その中核を成す「ハイパーバイザー」の理解は重要である

仮想マシン(VM)とは

物理コンピュータの機能をソフトウェアで再現した仮想的なマシンである

  • ユーザーは物理マシンと同様にアプリケーションを使用できる
  • ゲストOSはホストマシンのOSと独立して動作可能
  • 複数のVMが同時に1台の物理サーバ上で動作できる
VMの特徴と利点

VMは物理的な制約を超えて効率的なリソース運用を可能にする

  • 各VMは論理的に分離されており、安全性と柔軟性が高い
  • 必要に応じてリソースの再割り当ても可能
  • アプリのテストや更新も他VMに影響を与えず実施できる
ハイパーバイザーの役割

ハイパーバイザーは物理リソースを仮想化し、VMに配分する中核的なソフトウェアである

  • CPU、メモリ、ストレージ、ネットワークなどを抽象化
  • 各VMの要件に応じてリソースプールから配分
  • 異なるOSのVMを同時に稼働可能にする基盤
タイプ1ハイパーバイザー

物理サーバ上で直接動作し、高性能である

  • 別名「ベアメタルハイパーバイザー」
  • OSを介さず直接ハードウェア上で稼働
  • VMware vSphere、Microsoft Hyper-V などが代表例
タイプ2ハイパーバイザー

ホストOSの上で動作し、主に開発やテスト用に使われる

  • 別名「ホスト型ハイパーバイザー」
  • OS上でアプリケーションのように動作
  • Oracle VirtualBox、VMware Workstation Pro などが例
プロセスVM

特定のアプリケーションのために一時的に作成される仮想環境である

  • プログラムの起動と終了に合わせて作成/削除される
  • 例:Java仮想マシン(JVM)、共通言語ランタイム(CLR)
システムVM

完全なOS環境を持つ仮想マシンで、一般的な仮想化の中心となる存在である

  • ゲストOSを含み、アプリやサービスを実行可能
  • 物理マシンと同様の機能を提供
  • VMware vSphereやHyper-Vで稼働するVMが該当

記事4:“サーバ管理地獄”から早く抜け出そう 「インフラ自動化」の基本と重要性

人手によるITインフラ管理の限界を解消する手段として「インフラ自動化」が注目されている

インフラ自動化とは何か

インフラ自動化は、ITインフラの構築・運用・監視をツールで自動化する取り組み

  • 対象はオンプレミスやクラウドのサーバ、PC、ネットワーク、OS、データベースなど広範
  • 従来は手動作業が主流で、非効率でミスの原因にもなっていた
  • 自動化により作業の効率化、人的ミスの削減、コストの最適化が期待される
なぜインフラ自動化が重要なのか

ITインフラが複雑化・大規模化する中で、効率的な運用を可能にするのが自動化

  • 小規模環境では手動でも対応可能だが、多くの企業では限界がある
  • 複数のPC、仮想サーバ、ネットワークが絡む構成では自動化が不可欠
インフラ自動化で大切なこと
  • 単なるツール導入ではなく、事前のルール・ポリシー設計が肝心
  • タスクに応じた自動化ルールを定義し、ツールに落とし込む必要がある
代表的なインフラ自動化の活用例

以下は自動化によって省力化できる代表的な4分野

サーバプロビジョニング

  • IaCツールにより、複数台のサーバ構成を同一手順で自動展開
  • 構成ファイルに基づき、ソフトウェアの自動インストールも可能

ソフトウェア更新

  • 異なるソフトの更新を一括自動化し、手動作業や漏れを削減
  • ポリシーに沿って、古いソフトを検出し自動アップデート

アプリケーションデプロイ

  • Kubernetesなどを用いて、アプリの自動配置・実行が可能
  • 対象サーバの選定も自動化され、作業が大幅に簡略化される

ネットワーク監視と対応

  • 通信異常を自動で検出し、特定エンドポイントをブロックするなどの対処が可能
  • 障害時の迅速対応とサービス継続性の確保に役立つ

ITインフラが複雑化する現代において、インフラ自動化は業務効率化と安定運用の鍵を握る

適切なツール選定と運用ルールの整備によって、大幅な省力化と信頼性向上が期待できる

-情報収集
-,