【情報収集】日々のITネタ収集録#7

こんにちは、キクです。

本記事は、僕が今日(2025年7月11日)の朝時点で気になった「最近のIT関連ニュース記事」について、ざっくり要約して書いていきます。

注意事項

要約ミスにより一部事実と異なる情報が含まれる場合があります。

本記事を書くことは僕自身が情報収集を習慣化するという目的も兼ねており、各記事の関連性や正確性を保証するものではない点についてご了承ください。

記事1:OracleとAWS、Oracle DatabaseサービスをAWS内で利用できる「Oracle Database@AWS」を一般提供開始

OracleとAWSは、Oracle DatabaseサービスをAWS上で利用できる「Oracle Database@AWS」の一般提供を開始した

Oracle Database@AWSの概要

AWS上に構築されたOracle Cloud Infrastructure(OCI)の専用環境を通じて、Oracleのデータベースサービスを利用可能にした

  • 提供対象:Oracle Exadata Database Service、Oracle Autonomous Database
  • 対応バージョン:Oracle Database 23ai(AIベクトル機能搭載)
ゼロETLによるデータ統合

AWSの分析サービスとOracle Database間の統合をゼロETLで実現

  • 複雑なデータパイプライン構築が不要
  • データフローの効率化により、AIや機械学習の活用が容易になる
クラウド移行と可用性の強化

Oracle Zero Downtime Migrationなどの移行ツールにより、クラウド移行を迅速化

  • Oracle RACに対応し、可用性ゾーンをまたいだ冗長性を確保
  • Amazon S3と連携してバックアップやディザスタリカバリも可能
AWSの統合環境で運用が容易に

AWSの標準ツールで一元的に管理が可能

  • 管理:AWS CLI、API、CloudWatchなどに対応
  • 統合:IAM、VPC Lattice、EventBridgeなどAWSネイティブサービスと連携
ライセンスと調達面での柔軟性

AWS Marketplace経由で簡単に導入でき、Oracleライセンスの持ち込み(BYOL)も可能

  • Oracle Support Rewards(OSR)などの特典にも対応
アプリケーションの支援

Oracle製エンタープライズアプリケーションにも広く対応

対象例:Oracle E-Business Suite、PeopleSoft、JD Edwards など

AIベクトル検索対応

Oracle Database 23aiにより、概念ベースの検索をサポート

単語やピクセル、数値ではなく「意味」に基づく検索が可能に

提供リージョン

現時点では米国東部(バージニア北部)、米国西部(オレゴン)で利用可能

今後、東京を含む20リージョンへ拡大予定(大阪、ロンドン、シンガポールなど)

まとめ

Oracle Database@AWSは、エンタープライズ向けに設計された柔軟なデータベース運用基盤であり、AWSユーザーに対して高可用性・高性能なOracleワークロードの新たな選択肢を提供する

記事2:日本IBMが「IBM Power11」を発表、「AI時代における真のエンタープライズサーバー」とアピール

IBMはエンタープライズ向けサーバー「Power11」を発表し、7月25日から全モデルを同時提供開始する

Power11の位置づけと提供形態

Power11は、ハイエンドからエントリークラスまでをカバーするサーバーシリーズ

  • 提供モデル:オンプレミス(各クラス)+クラウド版(Power Virtual Server)
  • エッジサーバーは2026年に登場予定
Power11の主要特徴

AI時代に最適化された次世代サーバーとして、以下の3つの機能が強調された

  • ゼロダウンタイム:自動化により計画停止を不要に
  • 高速なサイバー検知:Power Cyber Vaultにより1分以内でランサムウェアを検出
  • AI統合:業務スループットを5倍に向上するAI処理能力
性能・構成における革新点

高効率で高性能な設計が随所に導入された

  • 消費電力最適化:業務負荷に応じて電力制御を行う新アルゴリズムを搭載
  • 新パッケージ技術:2.5Dスタックコンデンサにより電圧ノイズを除去
  • Resource Groups機能:ワークロード分離によりVM干渉を最小化
チップとメモリの技術進化

チップの製造・構成面でも大きく刷新された

  • 7nmプロセス、スタックキャパシタ、インターポーザー採用
  • DDR5採用によりメモリ帯域幅が従来比3倍に
  • チップ性能:単体で15~25%、全体で30~45%向上、データ転送速度も最大50%向上
AI対応と新アクセラレータ

AI推論に特化した新しいハードウェアが導入予定

  • IBM Spyreアクセラレーター:AI推論に最適化(10~12月に対応開始予定)
Powerシリーズの進化と今後

過去のシリーズ機能を踏襲・強化し、長期のロードマップも明示

  • Power8:ビッグデータ対応
  • Power9:OpenShift対応
  • Power10:AI推論エンジン搭載
  • Power11:上記すべてを包含し、AI・セキュリティ・可用性を強化
  • Power Next +2:次世代開発も既にスタート
事業戦略(販売/パートナー/人材)

エンタープライズ領域での成長を支える戦略も進行中

  • 販売戦略:COBOL、SAP、Oracleユーザーの移行を支援
  • パートナー戦略:ISVとの連携強化、200のDXソリューションをSaaS化
  • 人材戦略:IBM i/AIX/Linux技術者の拡充、若手育成とリスキリング支援(IBM i RiSINGなど)
まとめ

IBM Power11は、高可用性・高効率・高度なAI対応を兼ね備えた、企業向け最新サーバーである

ゼロダウンタイム、リアルタイムセキュリティ、AI統合など、次世代のIT基盤としての条件を備えており、Powerシリーズの進化を象徴する製品となっている

記事3:大人でも「新しいニューロン」は生まれるのか? AIで78歳までの脳組織を解析 Science誌で発表

ヒトの成人脳でも新しい神経細胞(ニューロン)が生まれ続けている可能性が、最新研究によって明らかになった

研究の背景と目的

海馬は記憶や感情に関わる重要な脳領域であり、動物実験では成体でも新しいニューロンが生成されることが確認されていた

  • ヒトでも同様の現象があるかは長らく不明
  • 技術的制約により証拠が得られていなかった
研究手法と解析技術

スウェーデンの研究チームが最先端技術を用いて解析を実施した

  • 対象:0歳〜78歳までのヒトの海馬サンプル
  • 技術:単一核RNAシーケンシングで個々の細胞の遺伝子発現を詳細に解析
  • 幼少期サンプルでは全ての発達段階の神経前駆細胞を確認
AIと抗体を組み合わせた検出

機械学習とバイオマーカーを組み合わせて成人でも神経新生を確認

  • 使用マーカー:細胞増殖を示すKi67
  • 結果:成人の海馬にも増殖する神経前駆細胞を発見
  • 類似性:マウスやブタの前駆細胞と共通の特徴
  • 局在:海馬内の「歯状回」に集中
意義と今後の応用

この成果は成人脳の可塑性(柔軟性)に関する理解を深める重要な証拠となる

  • 記憶や学習、感情制御の理解に貢献
  • アルツハイマー病やうつ病などの治療法開発にも可能性あり
まとめ

この研究は、「大人になっても脳に新しいニューロンが生まれる可能性がある」という仮説に強力な裏付けを与えたものであり、脳科学や神経疾患研究に新たな道を拓くものである

記事4:YouTube、AI生成コンテンツを「収益化の対象外」に その裏にある3つの意図

YouTubeがAI生成コンテンツを収益化の対象外とする新方針を打ち出した

その背景には、単なるコンテンツ管理以上の3つの戦略的な意図がある

新方針の概要

YouTubeは7月15日より、AIによって大量に自動生成されたコンテンツ(AI音声解説やAI画像のスライドショーなど)を収益化対象から除外する

  • 「人的な創意工夫」や「独自性」の欠如が基準
  • Veo3、Sora、Runwayなどのツールによる量産が問題視される
    • Veo3:高品質で映画のような映像を生成するGoogleの次世代ビデオ生成AI
    • Sora:自然な動きと物理的整合性を重視した、テキストから映像を生成するAIモデル
    • Runway:誰でも簡単に映像編集・生成ができる、商用向けのクリエイティブAIプラットフォーム
意図①:プラットフォームのコストと広告価値を守る

AI生成による動画量産は、コストや広告環境に悪影響を及ぼす

  • ストレージ・エネルギーコストが急増
  • 品質の低いコンテンツが広告効果を損なう
  • 結果として、ユーザーの離脱や広告価値の低下につながる
意図②:AI学習データの「汚染」を防ぐ

Google傘下のDeepMindは、YouTube動画をAI学習に使用している

  • 質の低いAI生成コンテンツがAI学習対象になると、再帰的に「データ汚染」が起きるリスク
  • プラットフォーム品質の維持は、AI研究にも直結している
意図③:創造性の本質を問う姿勢

YouTubeは、単なる形式ではなく「創作への人の関与」の有無を重視している

  • AI活用は否定せず、「中身の質」を重視
  • 今後はAI使用の申告制度など、透明性の向上が求められる
  • 「人間らしさ」や個性がコンテンツ価値の源泉になる
まとめ

YouTubeの新方針は、AIの利用を一律に否定するものではなく、あくまで人間の創造性を中心に据えるという姿勢の表れである

他のプラットフォームにも波及する可能性があり、AI時代におけるクリエイターの役割がより重要になっていく

記事5:AIモデル「Grok 4」登場、イーロン・マスク氏のxAIから Google・OpenAIの最新モデル上回る性能

イーロン・マスク氏が率いるxAIが、次世代AIモデル「Grok 4」を発表した

前モデルから大幅に性能が強化され、GoogleやOpenAIの最新モデルを上回る結果を複数のベンチマークで示している

Grok 4の基本仕様

Grok 4は「リーズニング(推論)」に特化したAIモデルで、複雑なタスクを処理する能力が強化されている

  • コンテキストウィンドウは25万6000トークン
  • 高性能版「Grok 4 heavy」は複数解を並行して生成し、最適な回答を選出
他社モデルとの比較で優位性

xAIは、Grok 4が他社の先端モデルより高性能であると主張している。

  • HLE(Humanity's Last Exam)ベンチマークでは、Grok 4が38.6%、Grok 4 heavyが44.4%を記録
  • 一方、OpenAI「o3」は24.9%、Google「Gemini 2.5 Pro」は26.9%
マスク氏の主張と提供形態

イーロン・マスク氏は「Grok 4は世界で最も賢いAI」と語る

  • 「大学博士号レベルよりも優れている」と評価
  • 提供形態はXプレミアムプラス会員とSuperGrok会員向け
  • API利用料金:入力100万トークンあたり0.75ドル、出力は15ドル
  • Grok 4 heavyは月額300ドルの「SuperGrok Heavy」向けに提供
今後の開発計画

xAIはGrokシリーズの展開を拡大していく計画を示した

  • コーディング特化型モデルを数週間以内に提供予定
  • 9月:マルチモーダルAIエージェント公開予定
  • 10月:動画生成モデルを発表予定
まとめ

xAIのGrok 4は、推論能力を重視した構成により、OpenAIやGoogleの先端モデルを上回る性能を発揮している

今後はコード生成やマルチモーダル、動画生成などの分野でもさらなる展開が予定されており、マスク氏のAI戦略の中心となる存在として注目される

備忘録

コンテキストウィンドとは

AIが一度に処理・保持できる「入力+出力の合計トークン数」の上限

AIは入力された文脈(文章・会話など)を理解しながら返答するが、すべてを無限に記憶できるわけではない

そこで、「今この瞬間に意識している文脈の範囲=ウィンドウ」として一定数のトークンしか扱えない

記事6:ゲーム開発者100人超に聞く「今使っているパブリッククラウド」 選定時に重視することは?

ゲーム開発現場におけるクラウド利用の実態が明らかになった

クラウドエースが行った調査によると、エンジニアは用途や課題に応じて多様なクラウドを選定している

利用中のクラウドサービス

ゲーム開発において最も使われているクラウドは以下の通り(複数回答)

  • AWS:50.0%
  • Google Cloud:46.1%
  • Microsoft Azure:40.2%
  • Oracle Cloud Infrastructure:16.0%
  • Alibaba Cloud:15.0%
  • IBM Cloud、Tencent Cloud:14.0%

クラウドエースは、選定の背景として「リソース調達だけでなく、データ活用や開発効率も重視されている」と分析している

直面している技術課題

現場で挙がった主な課題は以下の通り

  • 急激なトラフィック増加への対応:47.3%
  • コスト最適化:35.2%
  • 大規模データの処理と分析:34.1%
重視されるクラウドの機能・特性

クラウド選定において特に重視されている点は次の通り

  • 自動スケーリングの柔軟性:48.8%
  • グローバルネットワークの品質と到達性:45.3%
  • 可視化されたコスト管理ツール:40.7%
まとめ

ゲーム開発では、スケーラビリティやコスト、ネットワーク品質が重視されている

大手3クラウドが高いシェアを占めつつも、多様な選択肢が存在していることが分かる

クラウドは単なるリソース提供にとどまらず、開発全体の戦略に組み込まれている点が特徴である

記事7:ローカルLLM実行アプリ「LM Studio」業務利用を無料化 商用ライセンス不要に

ローカルで大規模言語モデル(LLM)を実行できる「LM Studio」が、企業利用でも無料で使えるようになった

これにより、業務でのLLM活用が一層身近になると期待される

業務利用の無料化
  • 提供元の米Element Labsは、7月8日に商用ライセンス取得の必要性を廃止
  • これまでは企業利用にライセンス申請が必要だったが、今後は連絡不要で利用可能
  • 個人利用は以前から無料だった
LM Studioの概要
  • ユーザーのマシン上でLLMを実行できるアプリケーション
  • 2023年5月にローンチし、現在までに数百万ダウンロードを記録
  • すでに数十の企業に導入実績あり
無料化の背景と狙い
  • 多くのユーザーが個人利用から業務利用へ拡大したいと希望
  • 商用ライセンスがその障壁となっていたため、手続きを廃止
  • 「家庭でも職場でもローカルAIにアクセスしやすくする」という目的を掲げている
今後の有償プラン
  • 高度な機能(シングルサインオン、MCP制御など)は引き続きエンタープライズプランで対応
  • 7月後半には、成果物をチーム内で共有できる「Teamsプラン」も登場予定
まとめ

LM Studioの商用利用が無料化されたことで、企業でも手軽にローカルLLMを導入できる環境が整った

AI活用のハードルが下がることで、現場レベルでの業務改善やセキュアなAI活用が一層加速すると見られる

記事8:サプライチェーンセキュリティ強化を阻む最大障壁とは? SecurityScorecard調査

世界中の企業がサプライチェーンにおけるサイバーリスクを重大な懸念事項として認識している

一方で、現場では依然として多くの課題が残されていることが明らかになった

調査の概要

調査の対象と背景を紹介している

  • 調査名:2025年サプライチェーンサイバーセキュリティトレンド調査
  • 実施:SecurityScorecard
  • 対象:売上高2億〜50億ドル超のグローバル企業に所属するセキュリティ責任者546人
主な調査結果

企業が経験している具体的なインシデント状況を示している

  • 88%の回答者がサプライチェーンに関するサイバーリスクに懸念
  • 70%超の組織が、サードパーティー由来の重大なサイバーインシデントを過去1年で少なくとも1件経験
  • 5%の組織では10件以上のインシデントを経験
N次サプライチェーンの可視化不足

複雑化するサプライチェーンの把握状況に関する課題が示されている

  • 自社のN次サプライチェーンの半数以上を把握できている組織は全体の50%未満
  • 79%の組織ではN次サプライチェーン全体の半分以下しかセキュリティ対策の対象になっていない
  • サプライチェーンセキュリティにインシデント対応体制を取り入れているのは26%のみ
最大の障壁と構造的なリスク

課題の本質やリスク構造の非対称性について説明している

  • 情報過多と脅威の優先順位付けの困難さを、約40%の回答者が「最大の障壁」と認識
  • 一部ベンダーが広範なインフラを支える現状で、単一の脆弱性が全体に波及するリスクがある
  • 防御は全体を守る必要があるが、攻撃者は1点突破で済むという非対称な構造が明確に
専門家の見解

調査結果を受けた専門家の警鐘と提案が述べられている

  • 現在の対策は受動的であり、定点評価やチェックリスト頼みでは脅威に対応できない
  • 必要なのは、能動的・継続的な監視と即応を可能にする体制への転換
推奨される対策

SecurityScorecardが提示した実践的な対策案をまとめている

  • 脅威インテリジェンスの統合:リアルタイムで兆候を検知するため、リスク管理と情報収集を統合
  • 専用のインシデント対応体制の確立:責任の明確化と継続的な改善が求められる
  • ベンダー階層化とリスク優先付け:リスクの高い依存関係を明確化し、対策の優先順位を設定
  • レジリエンス文化と部門横断的な連携:調達・法務・経営層を巻き込んだ体制構築が重要
まとめ

サプライチェーンを狙った攻撃は日常的な脅威となっており、従来型の対応では不十分である

能動的な監視と組織全体の横断的な対応体制が今後のリスク管理の鍵となる

記事9:太陽光発電へのサイバー攻撃で大規模停電は可能? 技術的脅威の実態と検証可能性

太陽光発電システムに対するサイバー攻撃が懸念されているが、実際に大規模停電を引き起こすような脅威は現実的なのか、技術的視点から検証が行われた

隠し通信機能の実在可能性

中国製パワコンに隠された通信機能があるという噂の真偽を検証している

  • 技術的には、Wi-FiやBluetooth機能を非公開で組み込むことは可能
  • しかし、機器が電波を発する限り、電波暗室での測定により必ず検出可能
  • 日本では、電波法に基づく認証でこうした検査が義務付けられており、実質的に検出不可な機能は存在し得ない
セキュリティリスクの分類と誤解

問題の本質を見誤らないために、セキュリティリスクを明確に区分する必要がある

  • ハードウェアレベル:悪意ある設計やファームウェアの脆弱性
  • 通信レベル:不正アクセス、盗聴、改ざん
  • 運用レベル:パスワード管理、アップデート未実施、アクセス権設定ミス
  • これらが混在して議論されることで、本質が見えづらくなっている
考えられる攻撃シナリオ

実際に起こり得る攻撃方法を3つに分けて検討している

シナリオ1:近距離からの無線アクセス

物理的な接近が必要であり、「サイバー攻撃」というより「不法侵入」に近い

シナリオ2:インターネット経由の攻撃

世界中からアクセス可能であり、最も現実的な脅威

シナリオ3:メーカーによるバックドア操作

メーカーが保持するマスター権限を悪用される可能性があるが、これは国籍を問わず共通の問題

大規模停電の現実性

サイバー攻撃による大規模停電の可能性を、電力需給の観点から具体的に分析している

  • 停電を起こすには500万kW以上の停止が必要(東京電力の予備率より)
  • 太陽光発電は供給タイミングが限定的(晴天の日中かつ休日など)
  • 一斉停止を実現するには高度な同時多発的攻撃が必要で、現実的には困難
より現実的な脅威

大規模停電よりも、現実的に警戒すべき攻撃パターンを示している

  • 個別の発電所を狙った停止・改ざん
  • 発電データや設備情報の窃取
  • 復旧と引き換えのランサムウェア攻撃
  • いずれも一般的なITシステムと共通する脅威であり、過度な恐怖より正しい対策が重要
まとめ

太陽光発電へのサイバー攻撃で大規模停電を引き起こすシナリオは、技術的・物理的制約から見て実現可能性が低い

一方で、個別発電所への侵入やデータ窃取といった現実的リスクへの対処が求められており、過剰な警戒ではなく冷静かつ正確なリスク評価が重要である

記事10:AIデータセンターは2029年にサーバ1台の電力が1MW超へ、システム構成はどうなる

AIの進化とともに急速に電力需要が高まる中、AIデータセンターの電源システムがどのように変化していくのか

インフィニオンテクノロジーズ ジャパンの発表をもとに整理する

AIによる電力需要の急拡大

生成AIの登場がAIデータセンターの電力消費を急増させている

  • GPU1台あたりの消費電力は1kWを超え、今後2kW超に
  • 2022年時点で全世界の電力の2%を消費していたが、2030年には7%に上昇見込み
  • GPT-3は1300MWh、GPT-4は5万MWhを消費し、CO2排出量も大幅に増加
インフィニオンの取り組みと成長戦略

電力供給の課題はインフィニオンにとって新たなビジネスチャンスとなっている

  • AIサーバ/データセンター関連売上は2025年に約6億ユーロ、2年内に10億ユーロ見込み
  • 製品で電力効率を8~10%改善、電力密度を30~60%向上可能
  • 年間2200万トンのCO2削減ポテンシャルあり
AIサーバラックの電源構成と今後の変化

AIサーバ1ラック当たりの電力供給量が急増し、構成の見直しが進められている

  • 現在:PSU→IBC→VRMの3段階変換(50V→12V→1V未満)
  • 将来:PSUは3相化・400V/800V高電圧化、Power Side Racksへ分離
  • 高電圧IBC→低電圧IBC→VRMという多段構成へ進化
各電力ユニットの技術動向

AIデータセンターに使われる電源ユニットごとに性能向上が求められている

  • PSU:12kW対応の1相/3相を開発中
  • BBU:現在12kW、将来的に25kW超を目指しGaN導入も視野
  • IBC:50V降圧タイプに加え、高電圧対応モデルも開発中
  • VRM:垂直型供給で効率向上、損失最大3%に抑制
2029年以降に1MW超時代へ

AIサーバラック1台で1MWを超える電力が求められる未来が見えている

  • 再エネ活用のためグリッド直結や直流配電への対応が必要
  • 双方向変換のSST、DC遮断のSCCBなどが鍵技術に
  • SSTには2.3kV対応SiCパワーモジュール、SCCBにはJFETタイプSiCが使用される予定
ハイブリッドアーキテクチャの採用

高性能AIデータセンター実現には、最適なパワー半導体の組み合わせが不可欠となる

  • Si(汎用)+GaN(高速スイッチ)+SiC(高耐圧)を組み合わせて最適化
  • 各ユニットに最適な素材を活用し、性能・密度・信頼性を確保
まとめ

AIデータセンターの電力需要は今後ますます拡大し、2029年には1ラック1MWの時代が訪れる

これに対応するため、電源構成は高電圧・高密度化が進み、GaNやSiCなどの次世代パワー半導体が鍵を握る

最適な構成と高効率な電力供給体制の整備が、AI社会のインフラを支える重要なテーマとなる

備忘録

電力の3段階変換について
段階コンポーネント名役割電圧変換一般的な物理配置
第1段階PSU(Power Supply Unit)AC(交流)をDC(直流)に変換し、50Vなどの中間バス電圧に変換するAC → DC(例:200V AC → 48〜54V DC)ラックやサーバシャーシの背面や下部に搭載(抜き差し可能なモジュール)
第2段階IBC(Intermediate Bus Converter)中間バス電圧(48V〜54Vなど)を12Vの安定したDCに変換する50V前後 → 12Vサーバ筐体の中(マザーボード上、もしくは基板のどこか)に実装
第3段階VRM(Voltage Regulator Module)最終的にGPUやCPUが直接使用する超低電圧を供給12V → 1V未満(例:0.8V、0.9Vなど)各CPU/GPUのすぐ近くのマザーボード上に実装

PSU(Power Supply Unit)

  • ラックやシャーシ全体に供給する最上位の電源装置
  • 商用電源(AC100V/200Vなど)を**直流の中間電圧(48V〜54Vなど)**に変換
  • 最近では高効率・高出力のPSUが求められる(1 PSUで3〜5kW供給など)

IBC(Intermediate Bus Converter)

  • 中間バス電圧(48Vなど)を12Vに変換
  • 複数のI/OやVRMに効率よく電力を供給するための中間変換ステージ
  • ここで電力の分配がより細かく行われる
  • よく「DC-DCコンバータ」とも呼ばれる

VRMVRM(Voltage Regulator Module)

  • 最も細かく繊細な電圧変換
  • GPUやCPUに1V未満の正確な電圧を供給
  • この精度が性能・安定性・消費電力に大きく影響する
  • 動的に電圧を制御する(DVFS: Dynamic Voltage and Frequency Scaling)

-情報収集
-,