
こんにちは、キクです。
本記事は、僕が今日(2025年7月10日)の朝時点で気になった「最近のIT関連ニュース記事」について、ざっくり要約して書いていきます。
本記事の内容
- 記事1:Microsoftが7月の月例パッチ公開、危険度の高い脆弱性を含む130件を修正
- 記事2:IIJ、利用者の手間を削減しつつ脱PPAPを実現できる「mxHERO with IIJ」
- 記事3:Denodo、生成AIで高度な分析を可能にする新機能「Denodo DeepQuery」を発表
- 記事4:NTT、再学習なしで特化型AIの基盤モデルを乗り換え可能に “カスタマイズ”引き継ぐ新技術
- 記事5:AI検索「Felo」開発元、総額15億円の資金調達 人員拡大、韓国・台湾への展開も
- 記事6:日本の個人の生成AI利用率は27% 中国81%、米国69%と大きな差 情報通信白書
- 記事7:「RAGの精度がイマイチ」なら試してみるべき“改善のヒント”はこれだ
- 記事8:Ooredoo、カタールでAIクラウドを開始
記事1:Microsoftが7月の月例パッチ公開、危険度の高い脆弱性を含む130件を修正
マイクロソフトは7月の月例パッチを公開し、130件の脆弱性を修正した
その中には、重大度の高い「緊急」レベルの脆弱性も含まれており、ユーザーや企業には速やかな対応が求められる
対象ソフトと修正範囲
広範囲なソフトウェアに対して修正が適用された
- 修正対象:Windows(11/10/Server)、Remote Desktop client、Office、SharePoint、Microsoft SQL Server、Visual Studio、Microsoft Azure
- 修正件数:CVEベースで130件、そのうち「緊急」レベルが14件
- 特にWindowsとOfficeに関する影響が大きい
公開前に情報が出回った脆弱性
一部の脆弱性は、更新プログラムの提供前に情報が一般公開されている
CVE-2025-49719(Microsoft SQL Serverの情報漏えい)
- 公開前に詳細が判明していたため、悪用リスクが高まっていた
- Microsoftは特に早期のパッチ適用を呼びかけている
特に危険な脆弱性:NEGOEX関連
リモートコード実行のリスクがある深刻な脆弱性が含まれている
CVE-2025-47981(SPNEGO NEGOEXの脆弱性)
- CVSS基本値:9.8(極めて高い)
- 認証不要・ユーザー操作不要で悪用可能なため、重大なリスクとされる
- 現時点で悪用事例は確認されていないが、企業に対し早急なリスク評価と対策を推奨
まとめ
今回の月例パッチでは、システム全体に影響を与えかねない重大な脆弱性が多数修正されている
特に、事前に情報が漏れていたものや、悪用が容易な脆弱性は注意が必要であり、企業やユーザーは早急に適用対応を進めるべきである
Microsoftが7月の月例パッチ公開、危険度の高い脆弱性を含む130件を修正
記事2:IIJ、利用者の手間を削減しつつ脱PPAPを実現できる「mxHERO with IIJ」
IIJは、メール添付ファイルを安全かつ効率的に送信できる新ソリューション「mxHERO with IIJ」を発表した
これは、脱PPAPの流れを支援し、ファイル共有の安全性と利便性を同時に高めるものである
PPAP廃止に向けた背景
従来のファイル送信手法にセキュリティ上の懸念がある
- パスワード付きzipファイル(PPAP)は、ウイルススキャンをすり抜けるリスクがある
- 誤送信時にパスワード解析で開封される恐れもある
- 官民ともに「脱PPAP」の動きが拡大中
mxHERO with IIJの概要
オンラインストレージとメールを連携し、手間なく安全なファイル共有を実現する
- 利用者が添付ファイル付きメールを送信すると、ファイルが自動的にBoxやOneDriveへ保存
- メール本文には共有リンクが自動挿入される
- 利用者は手動でアップロードやリンク生成をする必要がない
誤送信対策の強化
送信後でもリスクを最小化できる機能が備わっている
- 誤送信時には送信者側でリンクを無効化可能
- 相手がファイルにアクセスする前に閲覧を防ぐことができる
IIJ製品との連携
IIJの既存サービスと連携し、セキュリティ全体を強化する
- 「IIJセキュアMXサービス」と併用可能
- フィッシング対策やマルウェア対策の効果も期待できる
まとめ
「mxHERO with IIJ」は、煩雑だった脱PPAPの運用を簡素化し、メール送信業務の安全性と効率性を両立させるソリューションである
今後、企業におけるファイル共有の新しい標準となる可能性がある
IIJ、利用者の手間を削減しつつ脱PPAPを実現できる「mxHERO with IIJ」
記事3:Denodo、生成AIで高度な分析を可能にする新機能「Denodo DeepQuery」を発表
Denodoは、従来の生成AIでは対応困難だった複雑なビジネス課題にも対応可能な新機能「Denodo DeepQuery」を発表した
これはリアルタイムデータに基づいた高度な分析と推論を実現するものである
DeepQueryの概要
生成AIに深い調査・統合・説明能力を付与する新機能である
- 既存の言い換えにとどまらず、多角的かつ構造的な回答を提示
- 管理された企業データと外部データを横断的に活用
- ビジネスの現場で生じる複雑でオープンエンドな課題に対応
可能となる分析
従来のRAGやチャットAIでは難しかった分析領域にも踏み込む
- 例:「資金流出の急増理由は?」「地域別の顧客維持率の変動要因は?」
- 数日かかる分析を、数分で構造化された回答として提示
- ライブデータに接続し、専門家レベルの推論を自動で適用
外部データとの統合
企業データだけでなく、多様な外部データも取り込んで分析の精度を高める
- 公開情報、外部アプリ、取引先データなどを活用
- ユーザーはより深い状況理解が可能となる
開発と組み込み
AI開発者やチームにとっての柔軟な拡張性も確保されている
- Denodo Platformのコンポーネントとして提供
- 独自エージェントやアプリケーションに統合しやすい設計
- 当初はDenodo AI SDKへの組み込みとして設計されていた
MCP(Model Context Protocol)対応
オープンなAIエージェント連携にも対応する
- Denodo AI SDKはMCP準拠クライアントとの統合が可能
- オープンスタンダードに準拠した信頼性の高いデータ基盤を提供
まとめ
Denodo DeepQueryは、従来の生成AIの限界を超え、部門横断的かつリアルタイムな高度分析を可能にする画期的な機能である
AIエージェントの能力を一段と引き上げ、より実用的かつ信頼性の高いデータ活用を企業にもたらす
Denodo、生成AIで高度な分析を可能にする新機能「Denodo DeepQuery」を発表
記事4:NTT、再学習なしで特化型AIの基盤モデルを乗り換え可能に “カスタマイズ”引き継ぐ新技術
NTTは、特化型AIにおいて再学習なしで基盤モデルを乗り換え可能とする新技術「ポータブルチューニング」を開発した
これにより、AI運用におけるコストの大幅削減が期待される
技術の概要
ポータブルチューニングは、基盤モデルと独立した「報酬モデル」によって特化AIの出力を調整する技術である
- 基盤モデルのサイズや構造が異なっても適用可能
- 再学習なしでカスタマイズ結果(出力調整)を引き継げる
- 報酬モデルは初回のみ調整が必要で、その後のモデル更新は不要
従来の課題
特化AIを長期運用するには、基盤モデル更新のたびに再学習が必要だった。
- カスタマイズに毎回コストと手間が発生
- 構造が異なる基盤モデルには適応が困難
解決のポイント
報酬モデルの導入によって、以下が実現された
- 特定タスクへの出力補正が独立モジュール化
- 異なる基盤モデル間でも高い性能を維持
- 出力補正を報酬モデルに委ねることで再学習を回避
技術的背景
本技術は、2024年に発表された「学習転移」技術をベースに開発された
- 学習転移はニューラルネットワークの対称性に基づいてモデル変更を支援
- ただし、追加学習が必要で構造の違いに弱いという課題があった
今後の展開
本成果は、2025年7月に開催される国際会議「ICML 2025」で発表される予定
- 高頻度でモデル更新が求められる企業にとって有用
- 基盤モデルの最新化と特化タスクの維持を両立可能
まとめ
NTTの「ポータブルチューニング」は、AI特化モデルの再学習不要化を実現する画期的な技術である
組織固有のAIカスタマイズを柔軟かつ低コストに維持できるため、生成AI活用の持続的な推進に大きく貢献することが期待される
NTT、再学習なしで特化型AIの基盤モデルを乗り換え可能に “カスタマイズ”引き継ぐ新技術
記事5:AI検索「Felo」開発元、総額15億円の資金調達 人員拡大、韓国・台湾への展開も
AI検索サービス「Felo Search」の開発元であるFeloが、海外投資家を中心に約15億円を調達し、アジア展開と開発体制の強化を進めている
Felo Searchとは
Felo Searchは、LLM(大規模言語モデル)を活用したチャット型Web検索サービスである
- 多言語対応(特に日本語・アジア言語に強み)
- LLMを活用して高精度な回答を提供
- チャット形式で直感的に利用可能
資金調達の概要
シリーズAラウンドで約15億円(1000万ドル)を調達した
- 出資元:インドのPeak XV Partners、韓国のMirae AssetのVC部門など
- 調達目的:研究・開発人材の採用、サービス開発強化、アジア地域への展開
今後の展開
今回の資金により、事業拡大と技術研究が進められる
- 企業向けAI検索サービスやAIエージェントの開発を強化
- 韓国・台湾市場への展開を予定
- AIによる業務効率化・知的作業支援に注力
企業向けサービス
2025年5月には「Felo Enterprise」をリリースしている
- AIエージェントによるレポート分析・作成を支援
- 法人利用に特化した機能とUIを搭載
まとめ
Feloは、日本発のAI検索スタートアップとして、グローバル展開と技術深化を図っている
多言語対応のLLM検索サービスとAIエージェント技術を軸に、アジアを中心とした市場での存在感を強めていくと見られる
AI検索「Felo」開発元、総額15億円の資金調達 人員拡大、韓国・台湾への展開も
記事6:日本の個人の生成AI利用率は27% 中国81%、米国69%と大きな差 情報通信白書
総務省の情報通信白書によって、日本の生成AI利用が他国に比べて大きく遅れている実態が明らかになった
企業における生成AI活用方針の策定状況
企業の生成AI活用方針策定率には国別で大きな差がある
- 日本:約50%
- 中国・米国・ドイツ:約90%
- 日本国内では大企業で約56%、中小企業では約34%にとどまる
個人の生成AI利用経験
日本の生成AI利用率は2023年度からは大きく伸びたものの、他国と比較すると大きな差がある
- 日本:26.7%(2023年度比で約3倍の伸び)
- 中国:81.2%
- 米国:68.8%
- ドイツ:59.2%
年代別の利用率
世代間での利用格差も顕著である
- 20代:44.7%
- 40代:29.6%
- 30代:23.8%
- 50代:19.9%
- 60代:15.5%
利用しない理由
利用が進まない背景には、明確な障壁が存在する
- 「生活や業務に必要ない」:4割超
- 「使い方がわからない」:4割近く
- 白書では、利用ハードルの高さを指摘
まとめ
日本では生成AIの企業・個人利用が拡大しつつあるものの、他国と比べて導入率は依然として低く、特に中小企業や高齢層において課題が残る
今後は利便性の啓発と学習機会の提供が鍵となる
日本の個人の生成AI利用率は27% 中国81%、米国69%と大きな差 情報通信白書
記事7:「RAGの精度がイマイチ」なら試してみるべき“改善のヒント”はこれだ
生成AIの検索精度を左右するRAG(検索拡張生成)は、設計・運用次第で効果に大きな差が出る
精度の鍵を握る「エンベディング」
文書やクエリをベクトル化するプロセスがRAG精度の基盤となる
- 密(dense)モデルとスパース(sparse)モデルがある
- ハイブリッド方式(例:Splade、ColBERT)も有効
- 次元数の高いベクトルは精度向上に寄与するが、計算コストが高い
- クエリと文書は同一エンベディングモデルで処理する必要あり
- 専門性の高い用途ではファインチューニングが効果的
適切な情報取得に不可欠な「ベクトル検索」
類似度に基づく情報検索で、キーワードでは拾えない意味的な一致を得る
- 検索に使われるのはANN(近似最近傍探索)
- 主な手法:HNSW、DiskANN、ScaNN
- 類似度評価には「コサイン距離」や「ユークリッド距離」を使用
- 検索結果はtop-kで絞り込むが、重要情報の取りこぼしに注意
結果をより精密に整える「リランクモデル」
文脈の差異をより適切に評価するためのステップが必要となる
- 検索結果を再評価して並べ替えるリランクモデルを活用
- 代表例:Cohere Rerank、BGE、Janus AI、Elastic Rerank
- 処理遅延が課題だが、スコア付けにより可視化にも活用可能
継続的に精度を見極める「評価と監視」
RAG運用には出力の品質管理とセキュリティ対策が求められる
- 別のLLMで出力の品質評価を行う手法が有効
- ユーザーフィードバックに基づく改善も重要
- セキュリティ対策としてルールベースのフィルタリングを活用
- 各コンポーネントのコストや性能を可視化する仕組みが必要
まとめ
RAGの精度が出ない原因は、エンベディング、検索、リランク、評価体制と多岐にわたる
各段階での最適化と継続的な監視が、実用レベルの生成AIを支える鍵となる
「RAGの精度がイマイチ」なら試してみるべき“改善のヒント”はこれだ
記事8:Ooredoo、カタールでAIクラウドを開始
Ooredooがカタール国内において、Nvidia Hopper GPUを基盤としたAIクラウドの提供を開始した
Nvidia Hopper GPUを基盤にAIクラウド提供
カタールの通信会社Ooredooが、新たにAIクラウドサービスを開始した
- Nvidia Hopper GPUをベースに構築
- データセンターはカタール国内に設置
- 搭載GPUの詳細(H100/H200の別や数量)は未公開
顧客のデジタル化を支援する狙い
OoredooのCEOは、世界水準のAIインフラを国内導入できたことを強調した
- 顧客の野心を現実のソリューションに変えるための支援
- Nvidiaとの連携により、広範なAI利用を促進
- 経済成長と市民体験の向上、地域のデジタルリーダーとしての地位確立を目指す
Nvidia AI Enterpriseにも対応
OoredooはNvidiaのパートナーとして、同社のAI Enterpriseプラットフォームへの顧客アクセスも提供する
データセンターはSyntysが運営
このAIクラウド基盤は、現地プロバイダーSyntysにより運用される
- Syntysは2025年3月にOoredooから独立
- Iron Mountainからの出資を受けて設立
- 運用するデータセンターの詳細は非公開だが、Ooredoo時代は5カ国で26拠点を保有
- DataCenterMapには、ドーハに4つのOoredooデータセンターが掲載
インフラ拡大計画も
Syntysは設立時、10億ドルの初期資本で120MW超の容量を目指す計画を掲げていたが、詳細な進捗は公表されていない
まとめ
OoredooによるAIクラウドの開始は、Nvidiaとの連携による国内AI利活用の促進と、カタールのデジタル主導型成長戦略を後押しする動きである