
こんにちは、キクです。
本記事は、僕が今日(2025年7月16日)の朝時点で気になった「最近のIT関連ニュース記事」について、ざっくり整理していきます。
本記事の内容
- 記事1:AMDの「Instinct MI350シリーズ」は競合NVIDIAよりもワッパに優れるAIドリブンなGPU 今後の展開にも注目
- 記事2:東芝デジタルソリューションズ、クラウド型AI-OCRサービス「AI OCR Synchro+」を提供開始
- 記事3:Gigabyte G893-ZX1-AAX2 AMD Instinct MI325X Server Review
- 記事4:Apple、米サプライチェーン強化目指し国内レアアース企業に5億ドル
- 記事5:怪しいドメイン名には特徴がある SANSが新たな評価指標を発表
- 記事6:なぜAWSストレージのうち「Amazon EBS」だけで“異常な浪費”が発生する?
- 記事7:社員に“学び直してほしい”スキル 2位「セキュリティ」、1位は?
- 記事8:うちもRAGをやりたい!どうやって進めればいいか詳しく教えて
記事1:AMDの「Instinct MI350シリーズ」は競合NVIDIAよりもワッパに優れるAIドリブンなGPU 今後の展開にも注目
AI時代の加速にともない、GPU市場でもエネルギー効率と演算性能の両立が重要なテーマとなっている
AMDは新アーキテクチャ「CDNA 4」を採用したInstinct MI350シリーズで、NVIDIAに対抗しうる性能を実現した
CDNA 4アーキテクチャの全体像
Instinct MI350シリーズは、AI演算に特化したCDNA 4アーキテクチャを採用している
- 1GPUダイあたり36基の演算ユニット(CU)を搭載し、うち32基が有効
- ACEやHQDによる非同期ジョブ管理で並列性を向上
- 3Dグラフィックス処理には非対応で、GPGPU(Compute Shader)用途に特化
CUの改良とメモリ強化
演算性能と共有メモリの容量を拡張し、AI処理に最適化されている
- LDS(共有メモリ)を64KBから160KBに増加
- L2キャッシュに非コヒーレントデータを保持可能に
- キャッシュ保持の最適化により無駄なメモリアクセスを低減
マトリックスコアによる低精度演算の強化
AI向け演算に重要な低精度行列処理を重視した設計となっている
- FP64性能は前世代比でやや抑制されたが、FP16以下は約2倍に強化
- MI355XでFP32最大157.3TFLOPS、FP16で最大2.5PFLOPSを実現
- Tensor処理のようなAI演算において、NVIDIAと同等以上の性能
OCP最新フォーマットへの対応
次世代AIデータの圧縮・伝送効率を高める新規格にも柔軟に対応している
- OCP規格のFP8形式(MXFP8など)を新たにサポート
- 圧縮効率よりもダイナミックレンジ保持を優先
競合:NVIDIA Blackwellとの比較
AMDは性能とワットパフォーマンスの両立でNVIDIAに真っ向勝負を挑んでいる
- FP8/FP4/BF16演算ではNVIDIA B200に匹敵または上回る性能
- GPU単体での演算性能は同等
- コストパフォーマンスで最大40%優位とアピール
Infinity Fabric/Infinity Cacheの進化
内部接続とメモリ階層にも工夫を凝らしている
- フルメッシュから簡略化した2.5D接続方式へ
- IOD間通信の帯域は5.5TB/sに向上
- 256MBのInfinity Cacheは128個のバンク構成で並列性を強化
演算・メモリパーティショニング
柔軟なモード切替で、トレーニングと推論の両方に対応する
- XCDを1~8基単位で分割・結合可能(SPX/CPX)
- メモリはNPS1(共有)/NPS2(分割)の2モードを搭載
- パーティション切替にはGPU再起動が必要
今後の展開とロードマップ
AMDはMI350シリーズを皮切りに、さらに高性能な次世代製品の投入を計画している
- MI350シリーズは2025年第3四半期に出荷予定
- MI400シリーズは2026年に登場予定で、メモリ容量432GB・帯域19.6TB/s
- MI500シリーズも2027年に予定されており、開発は順調とみられる
まとめ
Instinct MI350シリーズは、高精度と低精度演算のバランスを備えたAI向けGPUである
NVIDIAに匹敵する性能を発揮しながら、価格面でも優位性を打ち出す
今後のAIサーバー市場における有力な選択肢となり得る
特にコストや電力効率を重視する導入層にとって、注目すべき製品群である
AMDの「Instinct MI350シリーズ」は競合NVIDIAよりもワッパに優れるAIドリブンなGPU 今後の展開にも注目
記事2:東芝デジタルソリューションズ、クラウド型AI-OCRサービス「AI OCR Synchro+」を提供開始
東芝デジタルソリューションズは、従来のOCR技術に最新AIを組み合わせた新サービス「AI OCR Synchro+」を発表した
文字認識精度や利便性の向上を図り、さまざまな企業の業務効率化を支援する
後継サービスとしての位置付け
従来提供されていた「AI OCR文字認識サービス」の後継として登場
- 2020年から蓄積してきたOCR技術を活用
- 最新のAIと統合することで認識・表解析の精度を強化
読み取り対応項目の拡充
実運用でのニーズに基づき、新たな読み取り項目に対応
- 「支払期限」「支払方法」の自動抽出が可能に
- 「日付印」認識も新たにサポート(納入済み通知書類などを想定)
チェック機能による業務効率化
読み取り結果の妥当性確認機能を搭載
- 規定値の範囲にあるかを自動チェック
- 誤りの訂正や確認作業の負担を軽減
新たな料金メニューで幅広いニーズに対応
小規模利用やPoCにも対応可能な新メニューを用意
- 「スモール 基本プラン」:月1万項目まで/月額3万円(帳票500枚換算)
- 「トライアル 基本プラン」:1カ月限定/同上内容
まとめ
「AI OCR Synchro+」は、実運用でのニーズに対応した精度強化と、柔軟な料金体系によってOCR導入のハードルを下げるサービスである
業務の省力化やPoC導入のしやすさなどから、今後さまざまな業種での利用が広がる可能性がある
東芝デジタルソリューションズ、クラウド型AI-OCRサービス「AI OCR Synchro+」を提供開始
記事3:Gigabyte G893-ZX1-AAX2 AMD Instinct MI325X Server Review
Gigabyte G893-ZX1-AAX2は、AMDの最新AI GPU「Instinct MI325X」を8基搭載した8Uサーバー
192コアのEPYC CPUを2基備え、巨大なAIワークロードに対応する設計となっている
構成と設計
大規模AI処理に必要な電力・冷却・拡張性をすべて網羅
- 8Uサイズ(加速器/電源に6U、CPUトレイに2U)
- AMD Instinct MI325X ×8(1基あたり最大1kW)
- AMD EPYC 9965(192コア)×2で合計384コア
- DDR5メモリスロット×24(最大3TB以上も可能)
- 合計16スロットのPCIe Gen5 x16スロット(GPU・NIC向け)
ストレージと拡張性
フロントとリアにU.2 NVMeスロット、PCIe拡張モジュールを装備
- U.2 NVMeベイ×8
- PCIe拡張スロット×8(NIC用)
- BroadcomのPCIeスイッチ(PEX89104×4、PEX89048×2)でトポロジを構築
冷却と電源
空冷ながら高密度設計、12基の3kW電源で冗長構成
- ホットスワップ対応ファンモジュール多数
- 電源ユニット×12(A+B電源冗長)
- Idle状態でもGPUが1kW以上消費、全体では12kW超の使用電力を記録
管理機能
BMCはASPEED AST2600搭載で、業界標準のMegaRAC SP-Xを採用
HTML5 iKVM、センサーモニタリングなどフル機能搭載
性能と用途
AIモデル推論に最適化されたGPU密集サーバー
- LLama3.1やDeepseek-R1での推論にて良好な性能を確認
- ROCm 7以前の環境でのテストにもかかわらず、他機と同等のスコア
- CPU性能も同社2Uリファレンス機と比較して十分に高性能
設計思想と狙い
GPU中心の構成
CPUやメモリはGPUにデータを供給する役割
- East-West(GPU間)・North-South(外部接続)通信を明確に分離
- NVIDIA対抗のAMD AIサーバーとして設計され、2TBのHBM3Eを搭載可能
まとめ
Gigabyte G893-ZX1-AAX2は、AI時代を見据えた超高性能なGPUサーバーであり、AMD Instinct MI325XとEPYC 9965を中心に構成された密度・電力・通信のすべてを極限まで引き上げた設計が特徴である
PCIeスイッチによるトポロジ制御や冗長電源など、エンタープライズ用途にも十分対応可能であり、NVIDIA中心の市場に対抗するAMD陣営のフラッグシップとして注目される製品といえる
Gigabyte G893-ZX1-AAX2 AMD Instinct MI325X Server Review
記事4:Apple、米サプライチェーン強化目指し国内レアアース企業に5億ドル
Appleは米国の製造基盤強化を目的として、レアアース磁石の国内生産体制の構築に乗り出す
MP Materialsとの契約内容
Apple製品向けに米国内での供給体制を確保
- MP Materialsと総額5億ドル(約780億円)の複数年契約を締結
- テキサス州フォートワースの「Independence」施設で磁石を製造
- Apple製品専用のネオジム磁石製造ラインを工場内に構築予定
再資源化にも対応
使用済み製品からレアアースを再利用する体制も整備
- カリフォルニア州マウンテンパスに再生ラインを設立
- 電子機器や産業廃棄物からレアアースを回収し再利用
背景と狙い
米国サプライチェーンの強化と環境配慮が狙い
- 米国内唯一の統合型レアアース企業と連携
- レアアースの中国依存低減と資源循環型社会の構築を見据える
まとめ
Appleは、レアアース素材の米国調達を強化することで、製品供給の安定化と環境負荷低減の両立を図る
MP Materialsとの契約により、国内での磁石製造および再資源化体制が整うことになり、同社の「米国に5000億ドル投資」計画の一環として象徴的な取り組みとなる
Apple、米サプライチェーン強化目指し国内レアアース企業に5億ドル
記事5:怪しいドメイン名には特徴がある SANSが新たな評価指標を発表
SANS Instituteは、不審なドメインをスコア化して検出・分析する新たな仕組みを導入した
新フィードの概要
新規登録ドメインとTLS証明書ログを活用
- ICANNのゾーンデータサービスと証明書トランスペアレンシーログを基盤とする
- 国別ドメインの情報はTLSログで補完
- 1日あたり約25万件の新規ドメイン情報を収集
不審なドメインの特徴
特定の文字列や形式に注目しスコア化
- ドメインが非常に短い/長い
- ランダムな文字列の多さ(エントロピー)
- 数字やハイフンの頻出
- 異言語の混在
- 「bank」「login」などのキーワード、ブランド名の含有
スコア化と提供形式
優先順位を付けてドメインを分析可能に
- 不審度に応じてスコアを割り当て
- 日次レポートとして提供、API経由でも参照可能
- 現在は試験運用中で、アルゴリズムの改善が継続される予定
背景と目的
旧システムの課題を克服する独自構築へ
- かつての無償フィード依存から脱却
- 新方式で持続可能なスクリーニング体制を構築
- 研究やセキュリティ対策のデータソースとしても有用
まとめ
SANSの新たな取り組みは、ドメインの挙動や文字構成に基づいて不審度を可視化するもので、透明性と柔軟性の両立が特徴である
今後の改良や外部からのフィードバックを受けながら、インターネット上の脅威をより効率的に検出できる体制が期待されている
怪しいドメイン名には特徴がある SANSが新たな評価指標を発表
記事6:なぜAWSストレージのうち「Amazon EBS」だけで“異常な浪費”が発生する?
AWSのブロックストレージ「Amazon EBS」で発生しやすい“浪費”の構造と、それを抑える新しい最適化手法が紹介されている
EBSの浪費構造
実使用率は低く、70%がムダになることも
- 多くの企業が必要以上の容量をプロビジョニング
- 実際の使用率は10~30%にとどまるケースが多い
- Kubernetesと連携した際は特に予測が困難
見積もり困難な理由
DAS的構造により個別見積もりが必要
- EBSはEC2と1対1で接続されるDAS型のストレージ
- FSxなどの共有ストレージとは異なり柔軟性に欠ける
- 可用性重視で過剰割り当てが起きやすい
スケールダウンの困難さ
容量を減らすには再構成が必要
- 容量拡張(スケールアップ)は容易
- 容量縮小(スケールダウン)はボリュームの再作成と再接続が必要
- 実質的には“ストレージ移行”と同等の手間が発生
Datafyのアプローチ
EBSの仮想統合と動的管理で無駄を削減
- 独自エージェントで使用状況を分析・再構成
- 適切サイズの複数ボリュームに自動分割・統合
- ストレージを仮想的に1つのボリュームとして提供
コスト構造とメリット
20%の手数料でも全体の支出は大幅減
- Datafyのストレージにかかるのは利用量+20%
- 無駄なプロビジョニングがなくなるためトータルは安価に
- 成果が出なければ料金は発生しない保証付き
まとめ
Amazon EBSは柔軟なストレージである一方で、過剰プロビジョニングによりコストが膨らみやすい構造を持つ
Datafyの仕組みは、この無駄を自動的に最適化し、コストを抑える現実的な手段として注目されている
特に動的なワークロードを持つ環境では、有効な選択肢となりうる
なぜAWSストレージのうち「Amazon EBS」だけで“異常な浪費”が発生する?
記事7:社員に“学び直してほしい”スキル 2位「セキュリティ」、1位は?
企業のリスキリング施策が広がる中、注目されているスキルや課題が明らかになった
リスキリングの実施状況
取り組み企業は増加傾向にある
- 「実施した」企業は44.5%(前年比+2.8pt)
- 大企業は64.6%、中小・スタートアップは38.3%
- 製造業は特に高く、66.0%に上昇
重視されるスキル
1位は「AI活用」、続くのは「セキュリティ」
- 1位:AI活用(33.3%)
- 2位:セキュリティ(30.5%)
- 3位:ITプロジェクトマネジメント(30.2%)
大企業では「ITプロジェクトマネジメント」が最多(40.6%)
中小・スタートアップでは「AI活用」「ビジネス構想」が同率1位(各27.8%)
リスキリング対象者
IT部門や経営企画が中心
- 最多は「情報システム・ITシステム」(45.3%)
- 次いで「経営企画」(42.1%)、「人事」(35.8%)
- 大企業ではIT部門(55.6%)が中心
- 中小企業では経営企画(45.7%)が最多
失敗の要因
実務との乖離や自走困難が課題
- 研修が実務とマッチしない(45.6%)
- 従業員任せで成果につながらない(37.2%)
- 学習完了できない(35.1%)
DX人材の確保状況
社内育成が主だが、確保は難航
- 「確保できている」は39.0%にとどまる
- 「できていない」は46.6%
- 確保手段は「社内育成・研修」(62.8%)、「出向・転籍」(53.2%)、「中途採用」(42.4%)
まとめ
リスキリングの中心は「AI活用」や「セキュリティ」など、デジタル領域のスキルに集中している
企業規模や業種で傾向は異なるが、IT人材育成と実務に即した研修設計が鍵となる
DX人材の獲得には社内育成が主流であり、持続的なスキルアップ支援が重要である
社員に“学び直してほしい”スキル 2位「セキュリティ」、1位は?
記事8:うちもRAGをやりたい!どうやって進めればいいか詳しく教えて
RAG(検索拡張生成)は、社内情報を生成AIで活用するための有力な手法である
RAGとは何か
外部情報と質問を組み合わせて生成AIに問い合わせる仕組み
- 社内DBやWebから情報を取得し、LLMに渡すことで回答精度を向上させる
- ベクトルデータベースに情報を登録し、意味的に近い文書を検索するのが一般的
- 「ファインチューニング」と比較して導入のハードルが低い
RAG導入の4フェーズ
アジャイル方式で繰り返す進め方が効果的
- 仕様検討
- 実装
- 評価
- 改善
仕様検討フェーズのポイント
導入目的や範囲を絞り込み、現実的な目標を設定する
- ユースケースは広げすぎず、初期は特化型にするのが有効
- 登録する文書フォーマットも制限する方が精度検証しやすい
- 精度目標や費用対効果を数値で示して期待値を調整する
- 社外にデータを出すリスクへの社内ポリシー整備も必要
- クラウド型モデル(OpenAIなど)を先に使い、効果検証後にローカル型を検討するのが現実的
- ユーザーとのユースケース共有・事前合意が鍵
実装フェーズの進め方
まずは簡単なツールで試すことが重要
- ノーコードツール「Dify」ならGUI操作で簡単にRAGを構築できる
- より高度な構成を組みたい場合は「LangChain」や「LlamaIndex」も選択肢
評価フェーズの視点
人による定性的評価も重視する
- 数値指標(正答率など)だけでなく、誤り傾向や質問タイプごとの傾向を確認
- 専用評価ツール「RAGAS」も参考に
- 適さないユースケースであることが判明すれば、仕様検討フェーズに戻る
改善フェーズの取り組み
繰り返しで精度を上げていく
- ドキュメントや前処理、プロンプト設計の見直しなどが対象
- 評価結果を踏まえた改善策を仕様検討・実装・再評価のループで実施
ユーザー評価の重要性
実ユーザーからの反応をもとに実用性を判断する
- 仕様通りでも現場で使いにくい場合があるため、最低1回はユーザー評価が必要
- 極秘資料の扱いなど、事前に利用ポリシーを共有する
- 評価結果をすり合わせて次の導入方針を決める
導入拡大の留意点
他部署展開時にもユースケースの見直しを
- 精度や運用方針の再説明、ドキュメントの整理が必要
- 古い情報の削除やルール改定への対応も含めた継続的な運用が求められる
まとめ
RAGの導入は、段階を追って進めることで効果的に活用できる
仕様の絞り込み、評価・改善の繰り返し、ユーザーとの連携が成功の鍵となる
まずは小さく始めて、クラウド型やノーコードツールで試しながら、徐々に社内展開していくとよい
うちもRAGをやりたい!どうやって進めればいいか詳しく教えて