Trend MicroはGMI CloudのGPUクラスターを活用し、Oracle Cloud上で運用していたAI集約型ワークロードをよりコスト効率の高いインフラ基盤に移行しました。
- コストの高いOracle GPUインフラを置き換え
- H100およびH200 GPU容量を活用中
- GPU集約型ワークロードへの適合性が向上
- GB300に向けた将来のハードウェアロードマップ

NVIDIA H100、H200、BlackwellおよびVera Rubinプラットフォームで、AIトレーニングと高パフォーマンス推論を実行。オンデマンドまたはリザーブドキャパシティプランで利用可能。
ベアメタルサーバーとコンテナプラットフォームを実行
フルルートコントロールでGPUクラスターをデプロイ
GMI Cloudまたはプライベートインフラ全体でスケール

GMI運営のデータセンター内の専用NVIDIA GPUプラットフォームで、本番AIワークロードのトレーニングと実行を行います。 予測可能なパフォーマンスと持続的なスループットに最適化。

AIトレーニングと本番推論のバランスの取れたパフォーマンス。
多目的AIワークロードに最適化
持続的なトラフィック下での安定したレイテンシ
スケーラブルなLLMおよびマルチモーダル推論に最適

大規模LLMワークロード向けの大容量メモリGPU。
ロングコンテキストモデル向けの拡張メモリ
大規模バッチ推論向けに設計
本番規模デプロイの信頼性

高密度AIクラスター向けの次世代NVIDIAアーキテクチャ。
次世代トレーニングと推論のために構築
ワットあたりのパフォーマンス向上
分散クラスターデプロイに最適

最適な用途:マルチGPU分散AIシステム
本番適合:クラスターワークロード向け高帯域幅インターコネクト
理想的なワークロード:フロンティアモデルトレーニングと先進推論

最適な用途:ロングコンテキストと大容量モデルトレーニング
本番適合:次世代マルチノードクラスター向けに構築
理想的なワークロード:大規模推論と高密度AIシステム
GPU最適化コンテナ環境で高速でエラスティックなAIワークロードをデプロイ。
迅速なプロトタイピングと実験
エラスティック推論ワークロード
社内AIサービスとパイプライン
高速起動
エラスティックスケーリング
KubernetesベースのGPU環境
最大のパフォーマンスと制御のための専用物理サーバー。
大規模モデルトレーニングとファインチューニング
長時間実行の高使用率GPUワークロード
パフォーマンスクリティカルな推論
フルルートアクセスとハードウェアレベルの制御
予測可能で分離されたGPUパフォーマンス
オンデマンドプロビジョニング
エンタープライズネットワーキングとSLA保証の提供
BYOS(Bring Your Own Service)およびクラウドネイティブデプロイ向けに構築。一貫したパフォーマンス、セキュリティ、運用保証を提供。
米国、APAC、EUにまたがるマルチリージョンデプロイ
高スループットワークロード向けRDMA対応ネットワーキング
分離されたVPCネットワーキングとエンタープライズグレードのセキュリティ
SLA保証のサービス提供
最新世代のGPUプラットフォーム
クラスターエンジンはスタンドアロンのGPUインフラプラットフォームとしても、GMI CloudのAI推論・トレーニングサービスの基盤としても利用でき、チームはプラットフォームを変更することなくAIスタックを進化させられます。
推論エンジンを探索Trend MicroはGMI CloudのGPUクラスターを活用し、Oracle Cloud上で運用していたAI集約型ワークロードをよりコスト効率の高いインフラ基盤に移行しました。
Mirelo AIはGMI Cloudの専用GPUインフラを活用し、低コスト・高速なイテレーション・柔軟な商業条件のもとで基盤モデルのトレーニングを行っています。
Magna AIはGMI Cloudと連携し、管理された環境向けに設計されたインフラを活用して、ソブリンAIおよび政府向けのデプロイシナリオを支援しています。
サービスに関してよく寄せられるご質問とその回答をご紹介します。
